今年是全国政协委员、百度董事长李彦宏履职的第七年,也是他建议“聚焦人工智能,加强新技术落地应用”的第三年。今年,他建议,开展人工智能伦理的研究和顶层设计。(《中国青年报》3月5日)
去年11月,“世界首例免疫艾滋病的基因编辑婴儿”诞生,在科学界掀起了轩然大波。技术的开发若超过伦理的限制,势必会对人类发展带来难以估量的影响。加快开展人工智能伦理的研究和顶层设计,不能慢,不能晚,更不能少。
自科幻诞生以来,人类对人工智能的畅想就从未停止。最近的,如《流浪地球》中高度理性、毫无情感的人工智能系统“莫斯”;最远的,如《2001太空漫游》中,能“骗人”“杀人”的人工智能电脑HAL9000。它们无一不能左右人类的生死存亡。事实上,当机器有了智能,它就不再是人类手中随意把玩的“工具”。不受伦理道德限制的人工智能,它的发展就有可能朝着“毁灭人类”的目标前进。
1950年,科幻小说作家艾萨克·阿西莫夫提出了著名的“机器人学三定律”被称为“现代机器人学的基石”。人工智能的发展需要以“保护人类”为前提,若想开发出恪守“机器人学三定律”的人工智能,就必须要有完备的伦理依据。试想,如果人工智能开发思路是“疯狂的、残忍的、不负责任的”,我们又怎么能保证,最后所研发的人工智能不伤人呢?展开人工智能伦理研究也不是简简单单制定另一套“三大定律”那么简单,相关工作还需要人力、物力与时间堆砌。
在没有窥见“算法黑箱”当中的秘密之前,人工智能的发展速度我们难以估计。想一想看,电脑出现才几年?智能手机普及才几年?却已一次又一次颠覆人类社会。谁又能知道一年之后两年之后,人工智能会能带来何种影响?实际上,最近一些人工智能的运用,已经逼近隐私保护、儿童教育、医疗救助的道德底线。
人工智能的发展需要伦理依据,不能太快太赶。也许展开研究和顶层设计会限制人工智慧的发展脚步,可这也是有必要的。尽早推动相关法律的确立,组织各领域的人才,成立类似于“医院伦理委员会”的管理组织,引导相关的技术企业避开发展的误区,才能确保人工智能不生长出“毁灭人类”的“癌细胞”。
可以相信,当人工智能界第一个“基因编辑婴儿”诞生,想必给人类社会带来的不只有“可怜、愤怒、指责”,更多的是“不安、焦虑、恐慌”。也许未来的人工智能无意“取代”人类,但是我们仍需要避免,有人会给人工智能灌注“邪恶的灵魂”。
文/严奇
来源:红网
作者:严奇
编辑:陈乘
本文为红辣椒评论原创文章,仅系作者个人观点,不代表红网立场。转载请附原文出处链接和本声明。