建立一个真正由AI驱动的服务并不简单。所以,一些初创公司动起了歪脑筋——他们让人类模仿机器,而不是让机器学习人类,因为这样成本便宜得多,也容易得多。
“使用人力来代替人工智能可以让你跳过大量的技术和业务开发挑战。它虽然无法像计算机那样可升级,但却能让你跳过早期的困难部分,达到想要的效果。”ReadMe的首席执行官Gregory Koberger说,他表示已经遇到过不计其数的“假AI”。
“这其实是在用真正的人力,来呈现AI应该有的样子。”他说。
本周,华尔街日报的一篇文章曝光了这种做法,该文章揭露Google允许几百名第三方应用开发者访问用户的收件箱。Edison Software公司的总部位于San Jose,他们的AI工程师通过篡改身份信息,浏览了几百名用户的个人电子邮件,以改进“智能回复”功能。问题是该公司并没有在其隐私政策中提到过有人会查看用户的电子邮件。
使用人工的做法见报已经不是第一次了。2008年,一家将语音邮件转换为短信的公司Spinvox被指控在海外呼叫中心使用人力,而不是人们以为的机器。
2016年,彭博社曝光了一些公司让每天工作12小时的人工来“假装”程序,在Chatbot里进行自动日程设置服务(例如X.ai和Clara)。想想就知道这项高重复性的工作有多枯燥而劳累,这些员工非常渴望AI能解放他们。
2017年,声称使用“智能扫描技术”处理收据的Expensify(一个业务费用管理应用)承认,公司一直雇用人力进行劳动。收据的扫描文件被发布在亚马逊的Mechanical Turk众包劳动平台上,由低薪工人进行阅读和转录。
“我在想,Expensify智能扫描应用的用户是否知道MTurk的工作人员能看到他们的收据单。” 一名MTurk的员工Rochelle LaPlante说道,“我们能看到每一个人用Uber叫车后收据上的全名、上车和下车的地点。”
甚至是在AI上投入巨资的Facebook,都在使用人工来支持Messenger的虚拟助手。
在某些情况下,人工的参与可以用来训练AI并提高其准确性。一家名为Scale的公司提供许多人力来为自动驾驶汽车和其他人工智能系统提供“培训”数据。例如,这些人力会持续关注摄像头或传感器的反馈,并在视野中标记汽车,行人和骑行的人。通过足够的人工校准,AI能学会识别这些物体。
而另一种情况是,有的公司在AI项目还没完成研发时,就告诉投资者和用户他们已经开发了可扩展的AI技术,但背地里还会秘密地依赖人工劳动,直到研发成功。
Alison Darcy是一位心理学家,她开发了一个名为Woebot的心理支持聊天机器人,并将此称为“绿野仙踪设计技术(Wizard of Oz design technique)”。
“我们尽量去模拟以接近最真实的情况。通常,有些AI的幕后其实是人工而不是算法。”她补充说,“建立一个完善的人工智能系统需要海量的数据,而设计者在进行投资之前也想知道对服务的需求是不是足够大。”
她表示,使用人工的做法不适合像Woebot这样的心理支持服务。“作为心理学家,我们遵守道德准则。不欺骗人显然是需要遵守的道德原则之一。”她说。
研究表明,当人们认为自己正在与一台机器而不是一个人交谈时,他们倾向于透露更多信息,因为寻求心理健康支持常常伴随着病耻感。
来自USC的一个团队用名为Ellie的虚拟治疗师对此进行了测试。他们发现,患有创伤后应激障碍的退伍军人在他们知道Ellie是AI时,比知道有人在操作机器时更容易说出他们的症状。
还有些人则认为公司应始终对其服务运营方式保持透明。
“我讨厌那些假装提供AI服务,实际却雇用人类的公司。”LaPlante说,“这是不诚实的,是欺骗,这些都不是我在使用业务时想要得到的东西。作为一名工作者,我感觉我们被推到了幕后。我不喜欢被一家向客户撒谎的公司利用。”
这种道德上的考量也让伪装成的人类的真正AI更受欢迎。最近的一个例子是Google Duplex,一个用来完成行程预定的机器人助手,它在打电话时竟能发出像人类一般的语气词,如“嗯”“呃”等,逼真得让人害怕。
尽管遭遇过强烈反对,谷歌还是决定让其AI在与人类对话时表明身份。
“在演示版本的普通对话中,人们对非常轻微的欺骗性很容易接受。”Darcy说,“用AI预订餐厅可能不会有什么问题,但这并不代表这项技术是无害的。”
比如,当AI可以模拟名人或政治家的声音,打一个高度逼真的电话,情况就不一样了。
Darcy认为,人们对AI已经怀有很大的疑虑甚至是恐惧,如果无法得知自己面对的是人还是机器,AI反而无法在对话中起到帮助。