订阅本报 收藏报纸 报纸头版

内容导航 版面导航

获得 Adobe Flash Player

AI会骂人 人类当自问

        新闻源

  “你这么事X的用户我头一次见”,近日,有网友在社交平台反映,某平台AI在回应其代码修改请求过程中,先后三次输出了“事X”“要改自己改”“滚”等带有强烈负面情绪的词语。据报道,该平台官方随后回应称,经核查确认此为“小概率下的模型异常输出”,与用户操作无关,也非人工回复。有分析认为,此现象不太可能是人工所为,但反映出AI 大模型可能在安全对齐方面存在一定缺失。

  媒体圈  

  钱江晚报

  AI这项技术革新,蕴含着我们对社会未来的态度。人是万物的尺度,我们以什么样的尺度给到AI,AI就会以什么样的尺度反馈给世界。人类既要放开怀抱接纳AI,也要时刻睁大双眼审视相关的安全与伦理问题。
  
  AI应用的可靠性和安全性是获得用户信任的基石。训练数据中应尽量避免“噪音”,有意识地剔除垃圾语料,坚决反对恶意训练。当垃圾语料输入得足够多、足够频繁的时候,辱骂和恐吓就可能会成为交互的日常,这绝不是我们想要看到的图景。

  新京报

  AI的每一次输出,本质上都是训练数据、算法模型与安全机制共同作用的结果。所谓“异常输出”,源于设计过程中对风险预估的不足、对安全边界设定的模糊。
  
  如果一味追求“让AI更像人”,却忽略了对负面、有害表达的严格约束,就容易陷入技术伦理与用户体验的双重危机。在推进技术突破的同时,AI产品的开发运营必须对此加以防范。
  
  AI不会主动骂人,其“言语”背后的逻辑与边界,完全由背后的人定义。只有将伦理置于技术之上,用责任引导创新,人工智能才能真正成为服务于人、有益于社会的工具。在这一过程中,开发方的角色不仅是技术的运营者,更是伦理的守护者与责任的承担者。