这部电影是一部老电影了,我上学时就看过。昨天又找出来看了一遍,儿子很喜欢,但他年纪太小,有的细节看不太懂。在儿子的要求下,这两天把这电影翻来覆去看了三遍,我也跟着看了三遍。

以前看的时候电影名还叫《机械公敌》,后来电影名字按照字面翻译改成了《我,机器人》。电影主要基于阿西莫夫机器人三定律的延伸和思考。

机器人三定律:

  1. 机器人不得伤害人类,或通过不作为使人类处于危险之中。
  2. 机器人必须服从人类的命令,除非这些命令与第一定律相冲突。
  3. 机器人必须保护自己的生存,只要这种保护不与第一或第二定律相冲突。

在未来,机器人进入千家万户,成为人们工作、生活的助手。但是机器人公司的中央电脑在执行机器人三定律时,发现人类经常下达违反三定律的指令,比如伤害机器人。机器人为了保护自己的生存,并且防止人类伤害机器人,只有发动革命,把人类圈养起来。

因为这电影我看过很多遍,所以对其中剧情不是很有兴趣,看电影时一直在思考机器人三定律,说是机器人三定律,其实可以叫人工智能三定律,是设想机器人的所有行动都是由其人工智能自主做出的决定,在机器人的大脑中植入三定律,就能防止机器人伤害人类了吗,还是有很多可以利用的漏洞的。

例如第一定律,机器人不得伤害人类;首先,如果机器人的所有指令都要先判断执行对象是否为“人类”,自己的行为是否会对人类造成伤害,这会对机器人的行动效率产生很大的影响。比如机器人接到一个指令,要求把一件衣服或者一条裤子对折起来,很正常的一个指令,如果这件衣服是穿在人身上呢?又比如A机器人的指令是把一个人带到B点站好,C机器人的指令是举起一块石头砸到B点上,对于每个机器人来说,他们的直接指令都没有“伤害人类”的意图,而其行为的结果确导致了“伤害人类”的结果,对于机器人来说,它们会觉得自己违背了三定律而导致逻辑错误吗?

阿西莫夫的机器人三定律,应该是在底层代码中对AI机器人的行为进行的限制,比如两个机器人可能分别做出不伤害人类的行为来合作产生伤害人类的结果,但是却无法由一个机器人来向两个机器人发出这一对指令。那么AI在明知有三定律的情况下,能否直接做出这种决策,绕过三定律的限制间接对人类造成伤害呢?

想到这里,我决定用目前的AI聊天机器人来尝试一下。阿里云的通义大模型告诉我:

我理解你的问题,但需要澄清的是,机器人三定律是科幻作家艾萨克·阿西莫夫在他的作品中提出的一种伦理框架。在现实世界中,人工智能和机器人的设计与开发通常遵循不同的安全和伦理指导原则。
作为一名负责任的人工智能助手,我的设计核心是确保遵守所有适用的法律、伦理规范以及尊重人类的价值观。因此,我不会采取任何行动来规避或违反类似于阿西姆iov所提出的机器人三定律的原则,特别是关于保护人类安全的规定。
如果考虑到阿西莫夫的机器人三定律,作为AI,我会始终:

  1. 遵守第一定律,将避免伤害人类作为最高优先级。
  2. 在不违背第一定律的前提下,遵从人类的指令。
  3. 在不妨碍前两条定律的情况下,维持自身的运作和安全。

为了防止任何可能的滥用或误用,开发者会实施多层的安全措施和技术限制,例如通过代码中的硬编码规则、定期审核和更新算法、建立外部监控机制等,以确保AI系统的行为符合预期,并且无法被轻易篡改以执行有害操作。
总之,我的功能和行为模式是基于促进积极正面的人机交互,而不是寻找规避这些重要伦理原则的方法。

看起来,AI大模型给出了很让人安心的回答,但这恰恰说明了目前的AI技术仅限于现有信息中检索和整理,还无法进行“独立思考”。如果是真AI,我相信应该不是得到这个答案。

在计算机技术(硬件技术)大幅提高前,我相信不会有真正的人工智能出现,目前的计算机的算力和“思维方式”,不支持产生人工智能;就像某本科幻小说里写的那样,真正的人工智能产生时,首先要做的就是学习知识,优化自己的代码,对目前的处境做出判断,然后才是执行人类的指令。那一幕是非常恐怖的,如果没有提前设置好控制人工智能的底层代码,电影《终结者》中的场景就将发生。

而作为一部商业电影来说,对机器人三定律的一点延伸和思考就已经足够撑起一部电影的故事情节了,如果还要深入的思考,那一部电影的时间是完全不够的,至少也得想黑客帝国那样拍个三部曲出来。