专家访谈:人工智能为何高居2024年全球风险之首

 新闻资讯     |      2024-01-20 07:36

  专家访谈:人工智能为何高居2024年全球风险之首?对选举结果的影响高居2024年全球风险之首。这个报告每年1月发布,撰写团队会咨询1000多位来自科学界、产业界和公共组织的风险专家,旨在评估未来2年可能危机世界秩序的短期风险和着眼于未来10年的长期风险。今年,76个国家和地区将进行选举,利用技术生成的虚假信息可能会充斥网络,并对选举结果产生影响。鉴于此,《2024年全球风险报告》在十大短期风险中,将

  如何看待人工智能生成虚假信息所带来的风险?我们应如何控制这种风险?解放日报·上观新闻记者采访了上海交通大学牟怡副教授、上海市科学学研究所李辉研究员。

  记者:人工智能系统通常是如何制造假新闻等虚假信息,对公众观念产生影响的?

  牟怡:《2024年全球风险报告》提出的人工智能风险并不是新问题。近年来,在社交网络平台上广泛存在的社交已引起社会关注。社交指的是由人设置、可凭借算法程序自主运行的智能社交账号,它们能与社交平台上的其他用户进行信息交互。

  应用于政治领域的社交机器人被称为“政治机器人”,它们会通过营造虚假人气、推送大量政治消息、传播虚假或片面信息干扰舆论。全球范围已发现不少政治组织和人物通过社交机器人,在社交平台上操纵舆论的证据。2016年美国大选期间,美国右翼组织在Facebook、Instagram、Twitter等社交平台中借助机器人发布了大量情绪化内容,在种族、移民、公民身份等社会敏感议题上影响民意、引发情绪共鸣。

  随着AI(人工智能)换脸、虚假音视频制作等技术的兴起,人工智能生成的虚假信息是全方位的,覆盖文字、图像、音视频等各个模态。2018年,AI深度伪造合成的加蓬总统阿里·邦戈新年致辞视频引发了兵变,可见人工智能在政治领域的风险之高。

  如今,AI大模型正在快速发展,全球很多大模型已经开源。人们可以利用这些模型,自动批量生产和扩散高度复杂的言论信息,更高效地生成以假乱真的合成音视频。这使得公众区分真实和虚假信息的难度越来越大。

  牟怡:当然会。比如在影视评价类社交平台上,社交机器人“水军”会为一些电影和电视剧刷分,让网民对它们的美誉度产生误判。又如在电商购物平台上,机器人可以发布大量的虚假好评,为商品促销。

  据网络安全机构Imperva统计,2022年网络流量中,社交机器人贡献了47.4%的数据。可见,这类虚拟网民已渗透到各个领域,对人类网民的思想产生不可忽视的影响。

  另一个需要警惕的问题是:即使人工智能系统生成的不是虚假信息,但在新闻资讯领域,很多应用软件会利用大数据和智能算法技术,在内容分发上进行“精准制导”,只提供用户感兴趣、有价值认同的内容。这会造成“信息茧房”,加剧社群区隔,不利于主流意识形态的整合。

  所谓“信息茧房”,是指人们关注的信息会习惯性地被自己的兴趣引导,从而将自己的生活桎梏于“茧房”,难以获得其他有价值的信息。长期看采用智能算法的新闻类应用软件,很多网民就可能进入“信息茧房”,迷恋于令人愉悦的非主流意识形态,在价值观上出现偏差。

  记者:去年,OpenAI的董事会内斗也和人工智能发展风险有关。面对越来越大的潜在风险,我们应如何加以管控?

  李辉:人工智能带来的风险有两类,一类是技术本身不成熟的问题,另一类是技术应用的问题,包括误用、滥用等。从技术本身来看,普遍采用的做法是加速技术更新迭代,同时采取对齐工程、安全防护栏等技术方案。目前,就制度层面如何管控人工智能风险问题,全球还没有成熟的方案。比较有代表性的做法是建立负面清单或高风险清单,清单之外的产品研发和应用都可以做,清单之内的事项都不能做或有条件才能做。然而负面清单是针对人工智能研发和应用部署的事前审查,有比较大的局限性,所以能否制定一份得到业界广泛认可的清单,还有待观察。

  目前,欧盟《人工智能法案》已在欧洲议会通过。这是全球首部人工智能领域的法案,将采取分级分类的监管规则,在通用人工智能、基础模型方面,把算力需求达到一定规模的基础模型自动划定为“系统性”和“高风险”,需配套透明度、安全测试评估等多项监管合规要求。

  这个法案经过了漫长的谈判才达成共识协议。此前,德国、法国和意大利三国发布的人工智能监管联合文件指出,人工智能的本质风险是应用,而不是技术本身,所以反对《人工智能法案》中的“基础模型的两层分级方法”。法案将人工智能系统划分为不同的风险组,并规定了不同的合规义务。一些义务仅适用于算力更强、更通用的大模型,从而产生了两层分级规则。

  可见,一些科技发达国家的政府官员担心,如果管控过于严格,会阻碍人工智能的发展。国家之间的人工智能科技和产业竞争非常激烈,如果你管控严格,而别人管控不严,你就可能在国际竞争中落后,所以在风险管控方面,存在着国家间的博弈。

  在中国,由国家网信办等七部门联合发布的《生成式人工智能服务管理暂行办法》已正式施行。这是我国首份针对生成式人工智能的规范性监管文件,明确了发展和安全并重、促进创新和依法治理相结合的原则,对生成式人工智能服务实行包容审慎和分类分级监管。

  我的总体看法是,不能因噎废食,因为担心风险而限制人工智能的发展,而是要在不断发展中寻求解决方案。在操作层面,可以从简单的做起,比如现在网络上到处是人工智能生成的内容,在一些特定场合,有必要规定这些内容的发布者应做“人工智能生成”标注。还有业界现在通行的红队安全测试,可防范大模型滥用或非法使用带来的安全风险。