张亚勤称大模型会产生三大风险,并给出五条建议

GuoLi518 27 0

专题:中国发展高层论坛2024年年会

  据中国经济时报消息,中国发展高层论坛2024年年会于3月24日在京召开。在人工智能发展与治理专题研讨会上,清华大学智能产业研究院院长、中国工程院院士张亚勤表示,近来 ,Sora的能量很大,但是刚刚开始,未来5年,我们会看到其在各领域的大规模应用,所以会带来很多风险。他认为有三大风险:一是信息世界的风险。比如,有错误的信息、虚假的信息。二是在大模型领域独有的幻觉,但这个风险本身是可控的。而比较大的风险是,当把信息智能延伸到物理智能、延伸到生物智能,在大规模使用的时候,会出现风险的规模化。三是大模型连接到经济体系、金融体系、电站、电力 *** 等的风险是相当大的。

  怎样防备这些风险?张亚勤提出以下五个建议。之一,标识我们所产生的数字人或者智能体。第二,要有映射和注册机制。未来会有很多机器人,但机器人本身是一个从属体,不是主体,必须要映射到主体。第三,建立分级体制。对于一般规模的模型监管可以少一点,对于前沿大模型、万亿级参数用到物理世界无人车的、用到金融系统的、用到生物系统监管的要多一些,要分级。第四,呼吁把10%的经费投入到大模型风险的研究中,这不仅是政策研究,还有很多算法、技术的研究。第五,人工智能大模型一定不要跨越红线。红线可能在不同的时间并不一样,但是需要有这个红线。中国需要和全球不同人工智能领域一起合作,否则就会有生存风险。

  新浪声明:所有会议实录均为现场速记总结 ,未经演讲者审阅,新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。

抱歉,评论功能暂时关闭!