当前位置:

谁能拉好ai发展的“警戒线”-尊龙凯时首页

来源:红网 作者:李佳仪 编辑:张瑜 2024-05-21 16:07:34
时刻新闻
—分享—

5854c583e13447c093971312f27a4306.png

□李佳仪(华中师范大学)

据媒体报道,近期美国麻省理工学院一个研究团队称,部分人工智能系统已经学会如何欺骗人类,其中包括部分号称已被训练成乐于助人和诚实的系统。该研究成果发表在美国细胞出版社旗下的《模式》杂志上。

尽管有研究人员称该现象对人类并未造成不利影响,但欺骗性人工智能的出现仍值得警惕。近年来,人工智能的发展就像一条平坦宽阔的高速公路,研究人员驾驶着“科技”的快车向未来全速前进。但若只顾着追求更高、更快、更强,在科研竞速中必然会导致“脱轨”与“失控”。因此,拉好ai发展的“警戒线至关重要,而拉紧筑牢这道技术与安全的防线,需要所有参与者的共同努力。

不为科技而科技,不为创新而创新,应当是一切人工智能发展的准则和所有研发者的底线,却由于拜技主义者的抵制而一再失效。2023年6月,欧洲议会通过了全球首个ai综合性监管法案《人工智能法案》,但由于openai、谷歌、微软等多家科技巨头以“阻碍ai创新”为由提出反对,并未成功将通用ai(agi)列入高风险类别,导致法案无法适用于军事、国防、科学研究。

由此可见,若想真正监管ai发展,技术背后的“人”首先需要达成共识,认可彼此所肩负的共同的社会责任。风物长宜放眼量,就像医生不能只看病历,科研工作者也不能只专于技术创新。正如英国剑桥大学人工智能研究员哈利·劳所说,“监管机构和人工智能公司必须仔细权衡技术造成危害的可能性与其对社会的潜在利益,并明确区分模型能做什么和不能做什么”。在欧盟的“人脑计划”项目中,除了神经科学家、计算机科学家负责技术研发,还有伦理学家、心理学家、社会学家对大量脑数据使用的伦理问题进行评估及研究脑科学发现对社会的影响。只有不同领域的专家共同努力,才能及时洞悉事态变化,预测潜在风险,在技术发展的同时提供多元视角的保障。

其实早在2017年,一些人工智能领域的科学家、工程师、研究学者以及科技企业家们,就建立了确保ai为人类利益服务的23项原则——“阿西洛马人工智能原则”,但由于这一原则并没有被正式采纳为全球性的法律,不具有强制性和规范性,各国实施情况并不乐观。因此,在专家学者自行协定的原则之外,由能够颁布限制性文件的国际组织从国际层面发挥作用更为必要。只有拥有众多缔约国的规范性文件,才能切实有效地引导、规制人工智能技术的发展。

在人工智能发展的全球性趋势下,往往一个微小的变化就有可能引发世界范围的波动与震荡。在这场与人工智能的博弈中,没有一个国家能独善其身。科技革命加速正在进行时,只有各国、各领域、各利益主体共同努力,携手拉好、拉紧规范科技发展的“警戒线ai才能行稳致远,一路畅通。

来源:红网

作者:李佳仪

编辑:张瑜

本文为尊龙凯时首页 原创文章,仅系作者个人观点,不代表红网立场。转载请附原文出处链接和本声明。

本文链接:https://hlj.rednet.cn/content/646849/65/13923169.html

阅读下一篇

尊龙凯时首页
网站地图