当前位置:

AI错判引冤案,规避人工智能责任性风险是人类的关键议题

来源:红网 作者:李彪 编辑:张瑜 2023-12-15 18:58:50
时刻新闻
—分享—

评论之星3.jpg

□李彪 (长沙理工大学)

被AI系统判定为21年前一桩谋杀案的凶手后无奈认罪,12月11日,俄罗斯水文学家亚历山大·茨维科夫在被捕入狱十个月之后终于洗白冤屈,重新获得了自由。(12月14日《成都商报》)

时代的一粒尘埃,落到个人头上就是一座大山。被AI判定为逃犯被捕入狱后,亚历山大在强大的压力下“屈打成招”,这一冤案的司法程序中必然存在的漏洞,但究其源头,人工智能系统的错误识别是这一冤案的直接原因,这凸显了人工智能技术在某些情况下存在的局限性和风险。

虽然人工智能可以通过大数据分析和算法来识别图像和人脸,但它的准确性和可靠性仍然受到各种因素的影响。因此,在我们需要在推广和应用人工智能技术的时候,注重其潜在的风险,特别是责任性的风险。试问,如果人工智能的判断出错,谁来为此担责任?这是当前人工智能治理过程中的一个关键议题。

中国的科幻电影《流浪地球》就对人工智能责任性风险问题进行了影视化呈现,电影中的超级量子计算机Moss的判断是精确的,理性的,但人类仍然不能将至高的决策权交给AI,人工智能做出的决策都要经过安理会确认。可以想见,如果不限制人工智能的权力,在面临重要决策的时候,人工智能的理性选择也可能对人类产生毁灭性的影响。

回到现实中,面对AI错判引发冤案这样的事件,我们应认识到,人工智能只能做人类的助手,不能成为任何人命运的决策者,无论应用到哪一个领域,人工智能都不应承担具有重要决策权的工作。

即使人工智能技术已经发展到了一个相当高的水平,我们也要规避好人工智能的责任性风险,减少因AI技术原因而引发的决策失误,这有助于明确各种事故中的责任认定,同时也避免无辜的人为此冤受苦难。

来源:红网

作者:李彪

编辑:张瑜

本文为红辣椒评论 原创文章,仅系作者个人观点,不代表红网立场。转载请附原文出处链接和本声明。

本文链接:https://hlj.rednet.cn/content/646756/59/13359214.html

阅读下一篇

返回红网首页 返回红辣椒评论首页