中国领先的工业平台

返回贤集网 返回微头条
贤集网技术微头条APP获取

大模型时代,安全风险怎么防?

 彩虹科技

下载贤集网APP入驻自媒体

近年来,生成式人工智能在文本、代码、图像、音视频等方面的理解与生成取得突破性进展,有望大幅提升社会生产力。与此同时,也带来了一定的风险。

近日发布的《发展负责任的生成式人工智能研究报告及共识文件》称,生成式人工智能技术在迭代升级的同时也放大了技术安全风险。

数据方面,数据投喂带来价值偏见、隐私泄露、数据污染等问题:训练数据固有偏见导致模型产生偏见内容;海量训练数据扩大了数据安全和隐私保护风险。

算法方面,算法模型生成特性及安全漏洞会引发“幻觉”或虚假信息、模型遭受攻击等风险。

报告还提到两大更深层次的风险:生成式人工智能重构人机关系可能带来科技伦理失范;强大的任务处理能力,容易导致人的思维依赖;生成式人工智能凸显发展的不均衡引发人类社会发展差距进一步拉大。

周鸿祎认为,从高级/长期的问题来看,大模型可以把人类所有知识融会贯通,再来和人类做交流、做提示。但对于未来万一大模型能力超越人类后,还能不能甘于做人类的工具,周鸿祎表示,“我的一个观点是,这些技术带来的挑战最终还得靠技术来解决,技术自身会不断进化。不能因为未来还没有发生的问题就不发展相关技术”。

最新回复
发布回复
回复彩虹科技:针对大规模训练数据集的攻击,如投毒攻击。 相较于传统端到端的模型,该数据集中的数据类型众多,涵盖图像、文本、语音、代码等多种数据,且来源于网页、书籍、社交平台等未经验证的多种公开渠道,因此投毒攻击的风险更高。另外,多模态数据之间的对齐问题会影响到基础模型的预测准确率。
回复彩虹科技:加强大模型自身的安全性,包括对其算法和系统进行安全性评估和防护措施的采取。

为您推荐

热门交流