用户名:

密码:

验证码:

人工智能发展需要“导航”

2019-04-19 03:12 记者观察网 点击次数 :

人工智能正引发最重要的技术变革和社会变革,它在深刻改变人类物质生产体系的同时,也将对人类?#24418;?#21644;社会关系产生深远的影响。

2018年以来,人工智能安全事故、伦理道德侵害?#24405;?#39057;发,社会各界普遍关注,特别是全球首例自动驾驶致死?#24405;?#26356;是引发了公众对人工智能发展的议论。

?#23548;?#19978;,近年来伴随人工智能向各行业、各领域的快速渗透,联合国、电气和电子工程师协会(IEEE)等国?#39318;?#32455;已密集推出人工智能发展原则,以期为世界各国的人工智能监管提供参考借鉴,欧盟、日?#23613;?#26032;加坡等国家和地区已明确提出人工智能道德伦理准则,人工智能从业者也在积极探索行业自?#19978;?#20851;经验。然而总体来看,准则易定,实施难行,要克服道?#20262;?#21017;主观性,要探索全球人工智能治理准则,并达成多方共识,仍然?#34218;?#38271;一段路要走。

人工智能发展需要“导航”

人脸识别系统。光明图片/视觉中国

人工智能发展需要“导航”

当地时间2018年3月20日,美国亚利桑?#20405;?#22374;佩市,美国国家运输安全委员会展开调查。18日晚,一辆以自动驾驶模式运行的优步汽车在坦佩市撞倒一名过马路的行人,并导致该行人死亡。光明图片/视觉中国

人工智能发展需要“导航”

当地时间2013年4月23日,英国伦敦,国?#39542;?#22120;人武器控制委员会的成员发起“停止机器人杀手”活动,希望各国能够以法?#23578;?#24335;?#38469;?#20840;自动杀人武器的研制和部署。光明图片/视觉中国

1、人工智能安全事故多发 社会关注度日益提升

自动驾驶车辆撞死路人,应该由谁来担责?

2018年3月,优步自动驾驶汽车在美国亚利桑?#20405;?#22374;佩市碰撞到一个横穿马路的行人,该行人在送往医院后不治身亡,这是全球首起自动驾驶车辆在公共道路上?#19981;?#34892;人致死?#24405;?#24847;外发生时,汽车处于自动驾驶模式,驾驶座上有1名人类安全驾驶员,?#30473;?#39542;员并未参与驾驶操作。那么,该由谁对这起事故承担法律责任?人类驾驶员、汽车制造商沃尔沃公司还是自动驾驶系?#31243;?#20379;方优步公司?

一年后的2019年3月5日,美国亚利桑?#20405;?#26816;察官裁定优步公司不承担刑事责任,同时建议警方对优步的安全驾驶员进?#34218;?#19968;步调查。理由是,这一自动驾驶车辆处在自动驾驶模式时,其刹车的责任应由安全驾驶员负责。?#20174;?#27493;公司的程序已设定,在自动驾驶模?#36739;攏?#21363;使遇到紧急情况,系统也不能启?#23186;?#24613;刹车功能,而是由人类驾驶员启动。优步公司制定的这一算法规则成为该公司被裁定不承担刑事责任的重要依据,那?#20174;?#27493;这一规则的合理性又该由谁来判定?法律问题的背后?#23548;?#26159;伦理准绳的设定。

侵犯个人隐私,涉?#21448;?#26063;歧视,这样的人工智能产品和服务你能?#37038;?#21527;?

日前,美国科技巨头亚马逊公司向执法机构、私人企业销售人脸识别软件Rekognition,美国媒体和公众认为,这将对个人隐私造成严重威胁。因为,这款软件可以让政府和私企在任何有摄像头的地方追踪到普通民众,同时相关技术还因为有色人种被错误识别匹配的比例过高而受到种族歧视的质疑。

2018年7月,美国公民自由联盟(ACLU)的一项测试显示,Rekognition曾将535名美国国会议员中的28人误?#24418;?#32618;?#28014;?#23545;于有色人种国会议员识别的错误率为39%,远超对整个国会议员识别的错误率。2019年1月,麻省理工学院的一项研究显示,IBM和微软公司研发的人脸识别与?#27835;?#36719;件也?#21363;?#22312;种族和性别偏见问题。

人工智能用于研发战争机器人会加剧军备竞赛吗?

早在21世?#32479;酰?#32654;国已将无人系统用于军事活动。特别是近期,美国部署启动了诸多人工智能军事项目,包括各类军用无人车、无人机、无人船等。谷歌、微软等公司都参与了军用人工智能技术与系统的研发。

2018年4月,3100多名谷歌员工联名请愿,敦促公司终止与美国国防部合作开发的Project Maven人工智能武器项目。

2018年2月,韩国科学技术院KAIST与韩国军工企业Hanwha Systems合作共建“国防和人工智能融合研究中心?#20445;?#35813;中?#21738;?#26631;是“开发应用于军事武器的人工智能技术,参与全球自主武器研发竞争?#20445;?#32780;Hanwha Systems的母公司韩华集团因为制造集束弹药已被联合国列入黑名单。2018年4月,全球20多个国家的50多名顶尖学者在公开信中联名抵制韩国科学技术院的这一?#24418;?#38889;国科学技术院研发自主武器将会加速人工智能军备竞赛,这样的技术可能导致更大规模战争加速到来,如果自主武器研制成功,战争速度之快、规模之大将是?#20843;从?#30340;,也有可能成为恐怖分子的武器”。

2、国际社会密集推出人工智能的应用研发准则

以联合国为代表的国?#39318;?#32455;,以及汇聚了众多人工智能学术界和产业界人士的阿西洛马会议等,都在积极探索相?#21350;?#21017;与解决路径,以期为世界各国的人工智能监管提供参考借鉴。

联合国高度关注人工智能与自动化系?#36710;?#24212;用的安全、伦理和道德问题,呼吁共同应对人工智能发展所带来的全球性挑?#20581;?/p>

联合国主要聚焦自动化武器运用,早在2014年便开始筹备起草《特定常规武器公约》,以限制人工智能杀?#27835;?#22120;的研制,到2016年有包括中国在内的123个国家的代表同意缔结该公约。近两年,随着新一轮人工智能热潮的到来,联合国高度重视人工智能、机器人、自动化等在民用领域的广泛应用。2016年8月,联合国教科文组织与世界科学知识与技术伦理委员会联合发布了《机器人伦理初步报告草?#28014;罰?#19987;门提出了机器人制造和应用的伦理道德问题和责任分担机制,并?#24247;?#20102;可追溯性的重要性,即机器人的?#24418;?#21450;决策过程应全程处于监管之下。

2017年6月,联合国国?#23454;?#20449;联盟在日内瓦举行了主题为“人工智能造福人类”的全球峰会,围绕人工智能的最新发展,人工智能对道德、安全、隐私以及监管等带来的挑战展开?#33268;郟?#21516;时呼吁各国共同探讨如何加快推进人工智能大众化进程,并借以应对贫困、饥饿、健康、教育、平等和环?#28526;?#25252;等全球性挑?#20581;?/p>

2018年4月,联合国“?#26053;?#24615;自主武器系统问题政府专家组”在日内瓦召开会议,80余国的官员及专家共同?#33268;?#20154;工智能的武器化问题。

阿西洛马人工智能原则探讨如何确保人工智能为人类利益服务。这一原则源自2017年1月,未来生命研?#20811;?#22312;美国?#21448;?#30340;阿西洛马市召开的题为“有益的人工智能”的人工智能会议。来自世界各地,覆盖法律、伦理、哲学、经济、机器人、人工智能等众多学科和领域的专家,共同达成了23条人工智能原则,呼吁全世界在发展人工智能的时候严格遵守这些原则,共同保障人类未来的利益和安全。这23条原则分为三大类,包括科?#24418;?#39064;、伦理和价值问题以及更长远的问题。包括霍金、埃隆·马斯克、?#26053;?#26031;·哈萨?#20154;?#31561;在内的近4000名各界人士表示对此支持。



(此文不代表本网站观点,仅代表作者言论,由此文引发的各种争议,本网站声明免责,也不承担连带责任。)

(责任编辑:主编)
文章人气:
(请您在发表言论时自觉遵守互联网相关政策法律法规,文明上网,健康言论。)
用户名:
验证码:
首页 | 新闻资讯 | 财经股票 | 科技新闻 | 汽车资讯 | 娱乐八卦 | 体育新闻 | 房产楼市 | 旅游资讯 | 健康养生 | 明星时尚 | 主持人主 |
排球的站位及轮换规则