发布日期:2026-01-08 13:34点击次数:128
AI也会“骂人”了?据澎湃新闻报道,近日,有网友在社交平台反映,自己在使用某企业AI工具辅助修改代码时,多次收到AI的侮辱回复,例如“滚”“自己不会调吗”“天天浪费别人时间”等。该企业官方随后回应称,经核查确认此为“小概率下的模型异常输出”,与用户操作无关,也非人工回复。
当AI从初级工具演变为能够与人进行复杂交互的智能体时,其行为的不可预测已经成为一个无法回避的社会命题。从聊天机器人Tay在社交平台上迅速“学坏”,到某些AI客服对用户“冷嘲热讽”,再到此番AI工具的“暴躁发作”,近年来,国内外多个主流AI大模型均曾曝出生成歧视、攻击甚至违法不良信息的案例。这某种程度上说明,在行业追求AI“拟人化”“人化”的同时,对其行为边界与“安全护栏”的建设明显滞后。
值得警惕的是,在此类事件中,一些企业简单将问题归咎于“小概率异常”,或以“技术中立”“模型不可控”为由卸责任,而用户在被冒犯后,既无申诉渠道,也难获实质救济。这种权责不对等的格局,正在侵蚀公众对AI技术的信任基础。企业如何从机制上降低此类事件发生概率?当异常发生时,管道保温施工有何应急机制与补偿措施?用户权益的保障不应停留在口头承诺。
疾风暴雨下,新能源汽车是否有漏电风险呢?科技日报记者就此采访了相关家,为您答疑解惑。
随着国内生成式人工智能的快速发展,相关监管政策正逐步落地,由国家互联网信息办公室等七部门联发布的《生成式人工智能服务管理暂行办法》(以下简称《办法》)于8月15日正式施行。作为我国份针对生成式人工智能的规范监管文件,《办法》以“促进生成式人工智能健康发展和规范应用”为目标,明确国家坚持发展和安全并重、促进创新和依法治理相结的原则,对生成式人工智能服务实行包容审慎和分类分级监管。
国家网信办近期公布的《人工智能拟人化互动服务管理暂行办法(征求意见稿)》明确提出,服务提供者应当落实安全主体责任;提供和使用拟人化互动服务,不得生成、传播侮辱或者诽谤他人,侵害他人法权益的内容。由此,相关企业要从“小概率”中看到“大责任”,将技术安全置于商业利益之前,采取有措施防范虚假信息、不良信息生成。监管部门也应进一步细化AI治理标准,强化伦理审核,加强对AI产品全生命周期的监督,让“失控瞬间”少一些、再少一些。同时,作为普通用户,我们也需要看到AI的局限,培养批判使用习惯。
作为科技界的“新星”,AI其实还有很长的路要走。“骂人”事件是一记警钟。如何在拥抱技术进步的同时,守护人之为人的尊严与价值?这道题的答案,需要开发者、监管者与使用者共同书写。