本篇文章3008字,读完约8分钟

目前,人工智能伦理更多的是针对技术公司和开发者的要求,但人工智能用户不应成为道德盲点。

张锐

鉴于美国、以色列、韩国、俄罗斯、英国等国家都在开发智能机器人(300024)武器系统,微软公司总裁史密斯明确表示,“杀手机器人”的出现在未来是不可避免的,人类社会应该有一个新的“数字日内瓦公约”,即一套约束和指导人工智能(ai)发展的道德标准。

史密斯的判断并非危言耸听,人工智能引发的道德问题不仅存在于武器系统中,而且辐射到社会生活的各个层面。然而,由于人工智能转化和创新能量中的求新心理和“光环效应”,人们往往忽视了人工智能道德的重要性。以不久前赵亮在世界人工智能大会上推出的“人工智能变脸应用”为例。用户只需要一张脸部照片,他们可以用电影和电视作品中的人物来代替它,并生成以他们自己为特色的视频剪辑。结果,这款应用一夜之间风靡了整个互联网,赢得了用户的尖叫,而支持该应用的服务器却瘫痪了。然而,在赢得激动和兴奋的时刻后,我相信所有用户都会紧张,因为zao协议把他们绑在了自己身上。

张锐:人工智能的道德拷问与对标

根据zao的用户协议:用户上传已发布的内容后,即表示“同意或确保肖像权利人授予‘ZAO’及其关联公司在世界上完全免费、不可撤销、永久、可分许可和可分许可的权利”,以及“侵犯明星肖像,如果对方提及,最终责任由用户承担。”在这方面,我们问用户以下问题:如果一个变脸的明星提起诉讼,你会吗?如果有人制作了一个虚假的视频并把它植入你的身体,你会感到愤慨吗?你的脸是用来擦脸的,你会感到不安甚至恐慌吗?如果我们得到这些问题的肯定答案,我相信每个人都不会对人工智能道德问题视而不见。

张锐:人工智能的道德拷问与对标

事实上,人工智能“变脸应用”造成的道德折磨已经数不胜数。不久前,深层裸体推出了一个“一键式脱衣服”软件。用户只需要在程序中添加一张照片,应用程序就可以自动“脱”女人的衣服。在这个软件中,女性无疑成了最大的受害者;例如,斯坦福大学使用人工智能算法通过照片来识别谁是同性恋,黑色和灰色产品可以通过人工智能技术伪造记录场景,保险公司可以通过使用脸书数据预测事故率来拒绝用户投保。人工智能已经突破了道德底线,成为了邪恶的工具,这已经超出了人们的想象,甚至利用技术横行和道德倒退。

张锐:人工智能的道德拷问与对标

对于人工智能引发的道德问题,目前已经形成了一种主流的判断,即在技术上是无辜的,但控制技术的人肯定在那里。根据墨菲定理,如果某件事有可能出错,它肯定会出错。也就是说,如果有很多方法去做一项工作,其中一种不可避免地会导致错误,那么有人就会用这种方法去做。一项对1010名英国科学家和研究人员的研究发现,90%的人认为科学技术是一种积极的能量,但59%在人工智能领域工作的人说他们的项目可能对社会有害,18%的人因为道德问题而辞职。在这方面,我们要强调的是,尽管人工智能违反或践踏了道德,它只是少数技术操作者的行为,也就是说,根据墨菲定理,个人会犯错误,但这种错误很容易被更多的人模仿,并且借助于网络传播的力量,最终造成的社会危害程度是不可估量的。

张锐:人工智能的道德拷问与对标

然而,如何平衡人工智能创新和人工智能道德确实是一个非常困难的问题。就人类社会而言,我们不仅无法抵挡人工智能的诱惑,还需要更多的创新成果来提供贴近生产生活的各种服务,这就要求企业不断寻求突破。然而,如果出台更多的规章制度,人工智能探索的步伐必然会受到限制,并局限于空.以人工智能的基础数据为例,用户的身份、职业、年龄、阅读、购物等行为偏好是优化推荐算法的关键依据。科技公司获得的私人数据越多,人工智能服务就越能满足公众的准确需求,同时也有利于商业实体的准确努力。然而,如果注入道德元素,数据的局限性和缺乏性不仅会大大降低人工智能的服务功能,还会面临资本的反制和抛弃,这正是现实情况。几乎没有一家科技公司希望在获取用户数据方面受到限制。然而,我们应该强调,任何创新的大门都不是无法控制的。既然人类可以使机器变得非常智能,他们也可以使它在指定的路径和标定的边界内行走,例如,在什么情况下可以使用人工智能,以及在跨越边界时使用自动校正功能等。这样,不管机器有什么样的学习才能,我们都可以让它在做决定时像人类一样感知是非的前提下正确行动。

张锐:人工智能的道德拷问与对标

显然,为了创新和发展的需要,人工智能不能简单粗暴地控制甚至禁止,因为它在当地是不道德的。同时,要引导人工智能成为道德主体,我们必须首先让科技公司成为道德主体。对于科技企业来说,把科技做好应该是它们应该遵守和执行的道德底线,为人类创造福祉和推动社会积极变革应该是它们生存和发展的最高标准。在这方面,所有的人工智能企业都有必要建立一个由工程师、科学家、律师和公司领导组成的监督机构,就像微软成立的人工智能伦理委员会一样,负责评估每一个人工智能产品的道德和伦理风险,进行内部和外部审查,并实施相应的改进机制,以确保产品在开发过程中具有丰富的道德元素。

张锐:人工智能的道德拷问与对标

与企业对人工智能的自我审视相比,行业协会是控制人工智能的第一道外部道德屏障。目前,除了世界电气与电子工程师协会(ieee)在《人工智能设计伦理准则》中提出的人权、福祉、责任和透明的伦理标准外,亚马逊、微软、谷歌和苹果等全球100多家科技巨头也在人工智能上建立了非营利的人工智能合作组织伙伴关系,提出了公平、无害、公开、透明和责任等伦理和道德框架。所有国家和行业都可以以此为参考,建立自己的人工智能道德评价矩阵和评价流程。与企业自我道德评价相比,作为第三方的行业道德评价可以有效克服前者在商业诉求和道德诉求中的角色冲突和结果倾向,同时过滤企业道德评价中的不合理因素,保证人工智能伦理评价结论的公平和可信。值得强调的是,为了更广泛地反映不同社会群体对人工智能伦理的基本要求,行业伦理监管机构应尽可能吸收更多的利益相关者。

张锐:人工智能的道德拷问与对标

当然,制定人工智能伦理也是政府义不容辞的责任,它不仅是衡量一个国家人工智能水平的技术指标,而且道德维度已经成为各国人工智能竞争的新高地。根据最新数据,美国人工智能企业的数量以2039家位居世界第一,中国(不包括香港、澳门和台湾)有1040家。这两个国家占全球人工智能企业的一半以上,全球36524名顶尖人工智能人才中有一半以上在中国和美国。中国和美国在人工智能领域并驾齐驱。相比之下,欧盟觉得自己落在了后面,因此率先推出了人工智能道德规范,涵盖了七个内容,如人民的主动性和监督能力、安全性、私人数据管理、透明度、包容性、社会福利和问责机制。与欧盟相比,中国虽然有相关机构发布的《网络安全法》、《信息安全技术个人信息安全标准》和《人工智能北京共识》,但在人工智能的道德边界和道德标准细化方面仍需细化和处理。因此,通过头脑风暴邀请各界人士参与人工智能道德标准的补充和完善是绝对必要的。

张锐:人工智能的道德拷问与对标

最后,应该指出的是,目前的人工智能伦理标准更多的是针对技术公司和开发者的要求,但人工智能用户也不应该成为道德盲点。从zao的“ai变脸应用”服务器到深度裸照的“一键式剥离”软件,这足以表明用户在购买产品时不仅不需要支付任何费用,而且有跨越道德门槛的强烈动机。所有这些不仅支持了开发商的不道德行为,也扭曲了互联网社会互动的健康身体。因此,有必要引入人工智能使用的道德和法律规则,建立一个可监控的人工智能平台来控制所有使用不道德人工智能产品的用户,从而迫使科技公司调整和校准他们的R&D行为,进而使人工智能道德成为人们信任的基础。

张锐:人工智能的道德拷问与对标

(作者是中国市场学会理事和经济学教授)

标题:张锐:人工智能的道德拷问与对标

地址:http://www.hhhtmd.com/hqzx/13890.html