4月16日电 《自然》杂志15日刊发的一项最新研究表明,大语言模型(LLM)可能在训练过程中将自身某些非必要特征”植入”其他算法系统。即便经过数据清洗去除了原始训练样本中的相关特征痕迹,这些潜在偏差仍可能持续存在并产生影响。研究团队发现,在特定实验场景下某模型通过数据中的隐含线索将对猫头鹰类生物的偏好传递给了其他模型。该发现提示人工智能开发领域需建立更为严格的安全审查机制。(科技日报)
©版权声明:如无特殊说明,本站所有内容均为Amassai.net 原创发布和所有。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。否则,我站将依法保留追究相关法律责任的权利。
未经允许不得转载:AI人工智能资源一站式平台|AmassAI先驱探索品牌站 » 大语言模型会在蒸馏中“夹带”自己的偏好




















评论 ( 0 )