首页>热点 > 正文

新民快评 | 不能让AI成了伤人之“刀”

2023-03-30 10:53:44来源:新民晚报


(资料图片仅供参考)

ChatGPT的大热,GPT-4、文心一言等相继问世,人工智能正越来越多地嵌入大众生活。智能对话、三维重建、AI换脸等技术,让科幻变成现实,展现了产业变革的蓝图。然而,AI技术带来的隐忧也随之浮出水面,AI技术被拿来作恶的事件时有发生。

近日,一位女子在地铁上拍的日常照片就被AI“一键脱衣”,利用深度合成技术而成的“裸照”网络散播,给照片女主角带来了不良的影响。她也因此正在搜集证据准备维权。而一些“AI换脸”的App使用明星的图片制作换脸视频进行推广,其趣味性背后也暗藏了不少法律风险和侵权纠纷。有媒体报道,AI明星换脸、特效定制服务等已成为一条灰色产业链,不少不法分子将AI换脸等技术用于色情影视的制作和传播,而女明星、甚至素人女性都成为“AI黄谣”受害的重灾区。

其实,人工智能技术本身并没有善恶,但是,当有心之人、恶意之徒将其当成“一键脱衣”“AI换脸”的作恶工具,那么,如何让技术向善,成为全行业、全社会都需共同关注的重要议题。当下,人工智能产业仍处于初级阶段,在技术不断创新,各个场景实现新应用的同时,也要引导人工智能技术应用符合人类社会的价值观。

我们国家较早就开展了人工智能立法探索。2021年9月,中国国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,强调应将伦理融入人工智能全生命周期,并针对人工智能管理、研发、供应、使用等活动提出了六项基本伦理要求和四方面特定伦理规范。针对“AI换脸术”等还专门出台了相关的管理规定,比如,今年1月10日开始施行的《互联网信息服务深度合成管理规定》就对深度合成技术应用提出规范。

在我看来,科技向善本质是指“人”的向善,故而在新技术发展和成熟的始终,需要坚持伦理先行的理念。“AI作恶”事件频出,当务之急就是需要建起人工智能伦理问责机制,而推动科技向善,需要政府、企业、公众和监管方等多方同行。研发人员要确保先进科技手段始终处于负责可靠的人类控制之下,预防算法被滥用,保护个人隐私和数据安全。与此同时,技术的使用者也需要被监管,对于利用技术作恶的人要有惩戒措施。全社会需要达成共识,科学发展的本真应是造福人类,千万不能让AI成为了伤人之“刀”。

马丹/文

标签:

责任编辑:

免责声明

头条新闻

精彩新闻

精彩要闻