丹·庞特弗雷克斯(Dan Pontefract)。
那些是 特里斯坦·哈里斯是Google的前设计伦理学家,也是Google的创始人 花费的时间,这是一项非营利性计划,旨在帮助企业,用户和设计师了解道德上可接受的技术设计选择。
特里斯坦在现场。但是,他和整个高科技产业可能发展得不够快或不够快。
以Tristan的前雇主Google为例。
Google首席执行官Sundar Pichai在最近的年度I / O会议上展示了该公司在Google Assistant项目中嵌套的“ Duplex”技术。谷歌 描述 它是“通过电话进行自然对话以执行“现实世界”任务的新技术。”
在里面 示范,Pichai要求Assistant预约理发预约,并要求另一家餐馆预约。在这两种情况下,Google Assistant都是人的力量,在讲话中传递“ umms”和“ ahhs”,同时进行看起来就像两个人一样自然的对话。电话另一端的两个人都不知道他们正在与机器交互。
这既令人信服又令人恐惧。
令人信服的是,人工智能已经发展到了我们大多数人都完全惊讶的地步,这种对话现在可以在人机之间展开。尽管这只是一个演示,但Google表示计划今年夏天在助手技术中测试Duplex。
双工不仅引人注目,而且同样令人恐惧,因为,有很多原因。
但是,尤其存在一个问题,组织需要开始做一些事情,那就是需要首席道德官和一般的内部道德办公室。
当你 搜索 (是,在Google中为“ Google首席道德官”),前几个结果突出显示了Google的“副总裁兼首席合规官”安迪·欣顿。大多数公司都扮演这样的角色。但是,几乎没有首席道德官。为什么?
微软也在采取行动。最近 宣布 公司的所有开发人员都将成为“ 人工智能开发人员”。至少在风中要小心。微软首席执行官萨蒂亚·纳德拉(Satya Nadella)表示:“这些[AI]的进步创造了令人难以置信的开发人员机会,并肩负着确保我们构建的技术值得信赖并造福所有人的责任。”
.png)
无论是Google,Microsoft还是在硅谷或其他地方找到的任何其他高科技公司,现在都是他们在合规,监管和律师之外设立单独的角色和办公室来提出有关是否应使用特定技术的道德建议的时候了上市。
我们要求不同的团队讨论技术是否对社会有益的利弊。如果硅谷将自己变成一个关于集体思维的大型案例研究(陷入认知偏见的泥潭),那么在一个不希望获得这种进步的社会中,谁能支持我们这些人呢?谁成为社会道德的法官?
在这些令人困惑的时期中,有一个值得研究的例子。医学界。
加利福尼亚州立理工大学大学哲学副教授兼伦理与新兴科学小组主任Patrick Lin和罗彻斯特理工学院哲学副教授Evan Selinger写道 福布斯 四年前,医学界多年来一直站在伦理学的最前沿。他们写:
“过去30年来,内部道德委员会一直是医学界的主流,当时美国总统委员会在1983年推荐该委员会。这些委员会也由律师组成,但也包括医生,护士,生物伦理学家,神学家和哲学家-很大程度上比单纯的规避风险更有效的方法来解决有争议的程序,例如终止生命支持和截肢健康的肢体。”
在加拿大,加拿大医学协会于1868年首次制定了《道德守则》,被认为是该协会最重要的文件。该规范每五年由广泛的代表进行更新,重点是“决策,同意,隐私,机密性,研究和医生职责”领域。
.png)
高科技社区可能会从医学界吸取最大的教训。
创建首席道德官角色,并建立一个内部道德团队,不仅由律师组成,而且还由教育者,哲学家,医生,心理学家,社会学家和艺术家组成。
此外,随着卡内基梅隆大学等大学的建立 引进 人工智能专业的本科学位,确保该计划在整个课程中都具有很强的道德成分。
只有这样,当道德不在合规部门之内,并融入到学术教学法中时,社会才能处于更好的位置,以阻止潜在的有害技术进步潮流。
我全心追求技术进步。我什至偶尔开始使用Siri。但是,当我去看医生时,我相信她的决策和使用技术的伦理已经被权衡利弊的专业人士小组所审查。
现在,我们的技术公司(和学院)比以往任何时候都需要采用相同的思维方式。