无线网络优化培训
短信咨询 电话咨询 校区地址

课程

学员

就业

联系

合肥北邮在线

扫码
关注

安徽英泰瑞克
安徽英泰瑞克教育科技有限公司

AI道德难以划分,到底该如何发展

发布日期:2018-06-27 08:53:26

今年三月,Google被爆料已经与美国国防部(五角大楼)达成合作,帮助后者开发应用于无人机的人工智能系统。消息一出,瞬间风起云涌,迫于内外部多方压力,Google总算是宣布停止该合作。

但就在近期,谷歌CEO Sundar Pichai 发表了署名题为《AI at Google: our principles》的文章,列出7大指导原则,并指出谷歌并不会终止与美军的合作。谷歌的反转让人唏嘘,虽然其明确了“不会追求的AI应用”,但技术作恶还是人作恶的问题,AI伦理再次引人深思。

除了谷歌以外,亚马逊Alexa的日子也不好过。亚马逊的Echo设备被指控未经许可将私人对话录音,并将音频发送给用户联系人列表中的随机一位人士。这距离上次Alexa被爆出“嘲笑人类”事件的吓人事件,还没过过去多久。

这可远远不是个例。早在2016年,一个人设为19岁少女、名为Tay的聊天机器人在推特上线。这个微软开发的人工智能采用了自然语言学习技术,能够通过抓取和用户互动的数据,处理并模仿人类的对话,像人一样用笑话、段子和表情包聊天。但是上线不到一天,Tay 就被“调教”成了一个满口叫嚣着种族清洗、粗野不堪的极端分子,微软只好以“系统升级”为由将其下架。

人工智能不是一个可预测的、完美的理性机器,他的伦理缺陷由算法、人们使用的目标和评估。但是,至少从目前来看,机器依然是人类实然世界的反应,而不是“应然世界”的指导和先驱。

显然,守住AI伦理的底线,人类才不会走到“机器暴政”的那一天。今天的新闻就先说到这,想了解更多相关资讯可以关注安徽英泰瑞克新闻中心。

  • 工信部授权培训机构
  • 中国高端教育领行者
  • 签订就业协议合同书
  • 帮助申请助学帮助
  • 企业真实项目实训

安徽英泰瑞克教育科技有限公司 Copyright © 2018 www.ahytrk.com, All Rights Reserved 皖ICP备17028284号-1