文章提供:图文资通组
文章来源:https://www.bnext.com.tw/article/57019/ai-work-together
发佈日期:2020.03.23 消息来源:数位时代

人工智慧赋予机器更多自主判断能力,也造成人和机器互动关系的巨大变化,我们该如何面对人机共事的新时代?有一天,我们或许要听从AI演算法的指示来完成人力工作;其实,这看似科幻小说的场景,已经是正在发生的进行式。
机器彷彿是我们最忠实的员工,一年365天从不抱怨;只要按下一个按键,工作就会自动完成。但你是否曾经想过:有一天,你可能会为机器工作?
想像有一天,我们听从AI演算法或机器的指示,来完成人力工作;而这看似科幻小说的场景,其实已经在世界上的许多角落开始发生了。

场景1──用演算法管理员工(Algorithmic Management)
越来越多的公司开始使用演算法来管理员工(Algorithmic Management)。像是Uber或Lyft这样的分享经济公司,已经率先开发出许多自动工具,来管理远端工作人员;包括使用者评分系统,以及自动向驾驶提醒或建议下一步动作的系统等等。
在物流业中,UPS和Amazon等公司正在使用自动化系统追踪员工、并且优化货物处理量;这些演算法收集工作人员的资料,并做出(半)自动化的决策来提供即时激励,以达到更高的产出。
有一些新创公司,也开始提供监视员工、或是管理驾驶行为的AI解决方案。与人工监督相比,这些自动化技术更容易扩展到更多营运据点,因此也被越来越多的公司採用。

场景2──为AI演算法工作的蓝领劳工
之前我谈到过机器学习(ML)主要有三种类型,包括:
•监督学习(Supervised Learning)
•无监督学习(Unsupervised Learning)
•强化学习(Reinforcement Learning)
直到今天,仍有超过90%使用中的ML演算法是以「监督学习」为基础。(延伸阅读:给产品经理的 AI 开发指南)
换句话说,多数AI演算法需要从标记好的训练资料中学习。为了提供标记过的训练资料,有一个高成长的行业应运而生:由人工标记影像或声音资料,以便机器能够消化和学习。
「Scale AI」是众多与标籤工作者合作,对资料进行分类,以用于训练AI模型的新创公司之一;该公司成立仅有三年,却在最近融资获得高达1亿美元的资金。
Scale与大约三万名散布世界各地(大多在工资较低的国家)的契约工作者合作,为自动驾驶汽车和其他AI公司(包括Waymo、Airbnb和Lyft等)提供标记训练资料的服务。

场景3──远端控制和模仿学习(Imitation Learning)
在使用大量资料进行训练时,深度学习的效果优于传统机器学习;然而,获取高品质的训练资料通常很困难、而且成本相当高昂。
解决资料效率问题的方法之一,是使用模仿学习(Imitation Learning),也就是「让机器从专家的示范中学习」。
FortressIQ是应用模仿学习技术,为顾客自动化公司流程的美国新创企业之一;他们的系统可以分析人类和软体的互动,以便之后将这些流程自动化。
另一方面,美国新创公司Cobalt提供利用机器学习来执行巡逻工作的保全机器人(上图)。这种机器人可以识别异常情况,也能让工作人员远端监控、并在必要时接管控制权。

AI让机器变得越来越聪明,不再需要人类的一个口令一个动作;在某些领域中,甚至能够自动下指令给人类,而这些新型态的人机互动,正在真实上演之中。
但是,我们也开始看到这些新形态人机互动所带来的「副作用」:

演算法缺乏透明度和同理心
研究者Lior Zalmanson和Robert W. Gregory在最近的一项研究中发现,Uber出租车司机都认为,演算法非常瞭解他们,但他们对演算法的原理和决策依据却知之甚少。
此外,司机们也感觉到演算法的决策有些不人性的地方;他们质疑这个系统的公平性,尤其在他们没有得到明确解释、却遭到处罚的情况下特别明显。
有许多其他劳工也觉得自己被演算法监视。他们不知道这些监控资料会用在什么地方,也不知道工作分配、评分或报酬是否公平;如果不公平,他们也不知道有没有什么途径可以提出抱怨。
「缺乏透明度」一直是AI的主要问题之一。
用这些自动化工具来管理员工,或许确实更有效率及扩充性;但生产力不应该是唯一的目标,必须也考虑到资讯的透明、以及对员工的同理心。

人与机器的角色责任分配不明确
以保全机器人为例,在机器人无法处理的情况下,人类的介入可能会有关键作用;但随着机器人变得越来越聪明,机器可能会得出与人类不同的结论。
人类永远能够做出比机器人更好的决定吗?谁有最终决定权?
另一个备受关注的例子:无人驾驶车。谁应该在自主的无人车中做决定?是车子本身、备用安全驾驶员、远端监控的工作人员、还是乘客本身?
在什么情况下、什么时候介入?如果你只有一瞬间的反应时间,答案会有所不同吗?谁应该对任何后果负责?科技公司?安全驾驶?还是设计演算法的工程师?

结语
虽然研究人员正在研究转移学习(Transfer Learning)和元学习(Meta Learning),以设计能够「学习如何学习」的AI模型;但老实说,我们离完全自主的人工智慧还很远。
在可预见的将来,我们仍然需要标记资料,让机器变得更加自主。我们需要调整自己,与时俱进,我们需要学习与AI机器一起共存的最佳方式。我们准备好迎接如此剧烈的社会变革了吗?我们可以做些什么来创造我们想要的未来?

前往页首