近年来,随着ChatGPT、Sora等大模型的横空出世,人工智能受到前所未有的关注。曾有主流媒体做过一项问卷调查,约三分之二受访者认为人工智能在改善个人工作生活方面成效显著,如AI创作、人脸识别、智能家居等,但同时也呼吁“加强潜在风险研判和防范”。
可见,“人工智能是一把双刃剑”已经成为普遍共识,它将“向善”还是“向恶”,取决于人类如何使用、如何规范、如何兼顾聪明与善良。
2024年世界互联网大会乌镇峰会以“拥抱以人为本、智能向善的数字未来——携手构建网络空间命运共同体”为主题,从展会、赛事、活动等方面展示人工智能前沿技术、最新成果,积极回应各方对人工智能发展与治理的关切。
那么,当前人工智能发展面临哪些突出风险?如何引导人工智能以人为本、向善而行?
2024年“互联网之光”博览会现场,智能机器狗现场表演吸引了参展观众关注 图源:潮新闻客户端
一
所谓人工智能,指的是一种模拟人类智能的技术,使机器能够像人一样学习、思考、决策,从而自主执行各种任务。在科技快速迭代的今天,人工智能的触角已经伸入人们的生产生活,而有关它的争议和隐忧也日益凸显。
比如,广告的“野蛮推送”。现实中不少人可能都有过这样的经历,在某个平台上搜索、浏览,或是和朋友提及某个产品后,其他平台便会“心有灵犀”地推送相关广告。而这些精准推送背后,离不开人工智能的“默默操盘”。它们利用追踪定位等技术手段,使消费者俨然成为“透明人”,其购买记录、浏览历史、观点言论甚至姓名、人脸、家庭住址等隐私信息都处于AI“监控”之下。当人们毫不知情个人信息何时何地被采集、共享、使用时,就会产生恐慌,很多人逐渐意识到,人工智能正在对我们的人身财产、安全、社会关系等造成威胁。
比如,虚假低质信息泛滥。随着人工智能技术飞速发展,AI生成内容比例逐步攀升。有研究显示,仅仅从2023年到2024年一年间,包含AI生成内容的网页数量就激增了2848%。这其中,很多内容都缺乏真实性,且流于浅表。而在当下,各大平台主要依托算法进行内容推荐,识别AI生成内容的技术手段还不够成熟,这就导致大量粗制滥造、低俗、虚假、过度娱乐等内容在互联网上广泛传播,误导公众、影响舆论,严重时甚至扰乱社会秩序。去年5月,美国社交平台疯传一张五角大楼附近地区发生爆炸的图片,事后被证实为AI生成。今年4月,我国公安部公布10起打击整治网络谣言违法犯罪典型案例,其中4起均为使用人工智能工具批量生成不实文章进行引流牟利。
再如,AI“偷声”“换脸”现象频发。AI语音合成技术已经得到广泛应用,利用AI模仿、伪造他人面孔和声音的行为屡见不鲜。前段时间,社交平台上出现大量公众人物吐槽调侃公共话题的AI音频,其中不乏骂人、恶搞等不雅词汇,引发社会各界对人工智能“玩过界”的担忧和质疑。另据媒体报道,有诈骗集团利用AI“深度伪造”技术向一家跨国公司的香港分公司实施诈骗,并成功骗走2亿港元。去年发生于内蒙古的“10分钟骗走430万”事件,也是借助“AI换脸”技术佯装熟人进行的。
湖北黄石警方破获一起用AI换脸技术解锁社交账号并倒卖获利的诈骗案 图源:“央视新闻”微信公众号
二
有观点认为,当某项技术足够成熟、应用成本足够低、使用起来又比较简单的时候,难免会走向泛滥。人工智能也是如此,一旦滥用,将有可能给人类进步、社会治理、公众权利带来威胁。
弱化思考决策能力。有人说,人工智能对人类的最大威胁莫过于让人变懒,“一键生成”带来的便捷与快感,让越来越多的人陷入“技术依赖”,主动探索和独立思考的意愿减弱,最终很容易被AI“牵着鼻子走”。比如,有学生在撰写论文时求助人工智能,为此今年春季开始,不少国内高校就“AI代写”问题作出规范。某研究论文发表仅3天就被撤稿,主要原因是插图为AI生成。再比如,一些小说作者依靠AI“创作”,大量故事情节逻辑不通,文字空洞、思想浅薄。
“拉低”整体信息质量。当AI生成的虚假、低质量信息大量涌入网络空间,而这些“垃圾”信息又反过来成为AI的训练数据,形成恶性循环,就会降低互联网内容的整体水平。置身于这样的信息海洋中,人们通常需要耗费大量时间和精力辨别真伪,长此以往,不利于人工智能行业的健康发展。在一些突发事件中,不法分子利用AI编造虚假新闻,极易扰乱公众认知。在经济领域,受众可能因听信AI批量生成文章的注水分析,作出错误的投资决策。在商业领域,利用AI炮制虚假评论和评分的做法,不仅损害消费者信任,而且影响企业声誉。
侵害公众合法权益。人工智能的学习和决策过程依赖于大量的数据,这也就决定了人工智能的侵权风险无处不在。比如,创作者利用AI工具生成的文字或图片,可能侵犯他人的著作权。采用AI换脸技术实施诈骗,或者顶着“明星脸”进行直播、发布视频,可能侵犯他人的肖像权、财产权、名誉权等。平台或APP对个人信息的过度收集、冒用、篡改,则涉及对他人隐私权的侵犯和破坏。近年来类似案件时有发生。今年4月,北京互联网法院对“全国首例AI生成声音人格权侵权案”进行一审宣判,原告因声音被AI化出售获赔25万元。
漫画 图源:新华社
三
党的二十届三中全会《决定》提出“建立人工智能安全监管制度”“完善生成式人工智能发展和管理机制”。人工智能的未来将往何处去?答案只有一个,那便是“以人为本、智能向善”。从人的视角重新审视人工智能技术及其影响,推动人工智能更好地为人类服务。如何做到这一点,笔者有几点想法。
在法律层面明确技术使用边界。鉴于人工智能滥用带来的各类风险和问题,制定完善相关法律法规至关重要。比如,细化明确AI生成内容的适用范围、传播规范、权责归属等,规定哪些领域的内容可以由AI生成和分发,哪些则必须由人工完成,像美国《纽约时报》已经禁止将新闻报道和图片等用于AI开发。对于AI生成内容,应“打标签”标明合法来源,避免虚假信息不当传播。今年9月,国家网信办发布《人工智能生成合成内容标识办法(征求意见稿)》,明确网络服务提供者对AI生成合成内容的标识义务,可谓是切中要害。与此同时,严厉处罚违规使用AI行为,或许能有效遏制人工智能无序发展,更好保护公众的合法权益。
在监管层面跟上技术发展步伐。传统监管方法与日新月异的人工智能出现了不相适应的情况,因此不少专家认为,“用技术对抗技术”或许是应对AI滥用的可行策略。比如,监管部门可以利用AI工具对AI生成内容进行识别和筛查,定期对平台内容进行监测审查,发现违规行为严格追责。再如,明确平台对数据从采集到使用、生成、分发等各个环节均负有审核把关责任,以此倒逼平台完善自我监管。当前,已有不少互联网企业研发出辟谣智能化管理工具。此外,还应健全信息内容问责机制,人是AI的把关者,理应对内容的版权和准确性承担责任。
在治理层面用好国际合作力量。人工智能治理是当今世界各国面临的共同课题,如果解决不好,将会伤害人类社会,这大抵也是今年世界互联网大会乌镇峰会聚焦“人工智能”的用意所在。去年11月,包括我国在内的28个国家共同达成《布莱切利宣言》,同意通过国际合作,建立人工智能监管方法。今年5月,中法发表关于人工智能和全球治理的联合声明时指出,“人工智能的机遇、风险和挑战本质上是全球性的”。不仅如此,随着全球数字经济加速发展、数据跨境流动日益频繁,各国还应建立数据出境安全评估制度,加强对重要数据出境的安全管理,重拳打击窃取、侵占、滥用他国数据等行为,坚决捍卫国家数据主权。
在应用层面提高公众“AI素养”。科技进步是不可阻挡的潮流,我们每一个人都是这场变革的见证者、参与者。作为普通大众,应该做的是提高AI时代的个人信息素养,驾驭新技术的同时保持独立思考,对疑似AI生成的内容谨慎甄别。如果没有强大的判断和纠错能力,人只会被机器玩得“团团转”。
聪明是一种能力,而善良是一种选择,技术用得好造福人类,用得不好危害自身。在人工智能发展呈“燎原之势”的今天,看似“高冷”的AI终将“飞入寻常百姓家”。当风险与机遇共舞,唯有保持开放包容的姿态、慎思明辨的头脑、适度合理的规范,才能推动人工智能以人为本、向善而行。
版权和免责申明
凡注有"浙江在线"或电头为"浙江在线"的稿件,均为浙江在线独家版权所有,未经许可不得转载或镜像;授权转载必须注明来源为"浙江在线",并保留"浙江在线"的电头。