星期二
01:34
研究:大型语言模型在敏感数据被“删除”后仍然会输出相关信息
热度 ... | 分享
链观CHAINLOOK消息,最近,来自北卡罗来纳大学教堂山分校的三位科学家发布了一项关于人工智能(AI)的预印研究,展示了从大型语言模型(LLMs)中(如OpenAI的ChatGPT和Google的Bard)删除敏感数据的困难。根据研究人员的论文,从LLMs中“删除”信息是可能的,但验证已删除信息的难度与实际删除同样困难。一旦模型训练完成,其创建者就不能够回到数据库中删除特定文件,以阻止模型生成相关结果。
标签:产业
免责声明:本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况,及遵守所在国家和地区的相关法律法规。
下一篇:
美联储主席鲍威尔:美联储的目标是持续强劲的劳动力市场
美联储主席鲍威尔周一在圆桌会议中表示,美联储的目标是持续强劲的劳动力市场,他没有对当前的货币政策或经济前景发表评论。