来源:ZDNET 作者: Wendy M Grossman

大约20年前,在一次晚宴会议上,我坐在马里兰大学教授Ben Shneiderman旁边。我们花时间讨论了双重软件范式:一方面,我们现在所说的“智能”软件试图猜测我们的意图,其反应令人不可预测;另一方面,没有自适应性的软件按照指令做了它被告知的事情,而这些指令必须是准确的。今天最热门的话题是软件代理,他们将代表我们决策,比如获得更好的机票价格,或者找到双方同意的时段来安排一场会议。
正如施耐德曼在他的新书《以人为本的人工智能》中所写的那样,他在这几年中一定程度上改变了自己的立场,更加重视结束一遍又一遍地执行相同的任务。然而,他仍然怀疑人工智能会超越或成功模仿人类智能——这种怀疑延伸到新的、备受争议的新应用,如情绪检测。
对Shneiderman来说,现在重要的是设计计算机系统,以便把用户放在中心。在20世纪90年代,将人为因素纳入消费软件成为行业普遍关注的问题,当时用户界面从必须输入精确的命令转变为直接操作当今每个人都使用的图形界面。
施耐德曼认为,人工智能应该也不例外,专注于开发帮助人们的人工智能将消除对失去工作和机器控制的恐惧。
作为区分更常见的人工智能分析方法,他喜欢以人为本的方法的一个例子,施耐德曼首先比较了Roombas和数码相机。用户对Roomba几乎没有控制权,Roomba采用简约的用户界面设计,即几个按钮,并且无需用户输入即可自行吸尘地毯。另一方面,数码相机使业余爱好者成为更好的摄影师,同时为他们提供许多选择;其设计允许用户进一步探索和尝试。
虽然人们喜欢Roombas,但同样的“理性主义”方法在以数据驱动系统的形式体现时,变得限制和令人沮丧,而“经验主义”方法赋予了人类权力和能力。
在这本书的大部分内容中,Shneiderman从40个公开讲座中总结经验,有条不紊地讲述三组主要思想的实用指南。首先,他设定了一个框架,帮助开发人员、程序员、软件工程师和业务经理思考人工智能设计。其次,他讨论了人工智能研究目标的关键价值,模仿人类行为和开发有用的应用程序。最后,他讨论了如何适应可靠的软件工程、安全文化和值得信赖的独立监督实践,以实施围绕人工智能的道德实践。
我不确定人们是否仍然担心人工智能和机器人接管他们的工作,我还担心这些机器将如何做出关于人们生活的关键决定,他们有资格获得什么福利,他们的工作或抵押贷款申请是否被潜在雇主和贷款人看到,或者他们的工作为平台支付什么。
Shneiderman也讨论了这方面的情况,呼吁人们关注将人权纳入人工智能系统设计的努力。很少有关于人工智能的书籍讨论了对人工智能系统的企业所有者施加正确压力,以推动他们进入社会公平对良好设计的重要性。
本文转载自ZDNET,本文观点不代表雅典娜AI助手YadiannaAI立场。