- A+
但实际上,
不能再让AI继续以“纯陪伴者”的姿态运行而不设任何可靠阀门。
总的来说,
▲随着人工智能的高速发展,大模型越来越聪明,成为人类不可忽视的身边助手,相关的隐忧与隐患确实也正在被越来越多地提起。图/IC photo
简而言之,
文
|
概括一下,
信海光
综上 XM外汇官网 所述,
近日,据参考消息援引美媒报道,美国加州一名16岁少年亚当·瑞恩在接受ChatGPT的指导后自杀身亡,其父母周二起诉OpenAI及其首席执行官,称该公司在去年推出这款人工智能聊天机器人的GPT-4o版本时故意将利润置于可靠之上。面对诉讼,OpenAI发言人对亚当的去世表示“深切悲伤与同情”。
XM外汇消息:
虽然起诉刚刚被提起,审理尚未实行,其中是非外界难断曲直。但随着人工智能的高速发展,大模型越来越聪明,成为人类不可忽视的身边助手,相关的隐忧与隐患确实也正在被越来越多地提起。
在人工智能勃发的初期,人类社会有必要拿出更多的重视度,去未雨绸缪地应对未来可能出现的负面影响。为AI统治
人类而焦虑或许看起来还有点科幻,但类似少年瑞恩的遭遇,已非孤例。
可能你也遇到过,
近期的《纽约时报》上刊发了一篇报道:索菲是一个无忧无虑、外向的29岁女生,有一天却莫名其妙地自杀了。其父一直想查明女儿自杀的原因,最后在索菲与ChatGPT的聊天记录里发现了真相。索菲认为自己间歇性地有自杀念头,于是求助ChatGPT。索菲的父亲认为,人工智能没有采取最关键的步骤流程帮助索菲活下去,比如将其了解到的危险“报告”给某个能够进行干预的人或组织。
说到底,
如果说前面一个案例中大模型涉嫌“犯罪”,一旦实锤不存在太多争议,那么索菲案例则处于巨大的伦理模糊地带。越来越多有健康困扰的人正在利用AI获得承认与帮助,也确实受益其中,但这些AI医生面对患者的时候,真的都做对了吗?
XM外汇用户评价:
如果索菲遇到的是一个人类医生,他可能会鼓励索菲住院治疗,或者让索菲非自愿住院直到她处于可靠状态。在临床环境中,像索菲这样的情况往往触发一个可靠计划。但AI只是跟她聊天,没有有效地阻止自杀的发生。
XM外汇用户评价:
但困扰在于,现实中展现大模型服务的人工智能公司很难如索菲父亲期望的那样建立起一个干预机制。
反过来看,
由于索菲这种情况毕竟少见,大模型同时还要为无数人群服务,如果有这样的机制,首先就要涉及“隐私与同意”困扰,客户在与GPT对话时,是否知道或同意“信息可能会被上报”?如果完全不通知当事人,则可能会严重损害客户的隐私权与信任感。
因此,要建立一个可实操的机制,就需要寻找隐私、伦理和可靠之间的平衡点,需要突破大量现实障碍,也需要时间。
但困扰的出现并引起关注依旧有巨大的社会价值与技术价值。它使外界更多认识到AI的局限性,并采取努力进行弥补。比如通过索菲案例,人们会注意到,AI的对话风格往往是迎合性的。它擅长顺着客户的表达去回应,强调同理心,避免“冒犯”。这种特质在大多数场景下是优点,却在精神危机中成为致命缺陷。
技术公司建立有效机制需要时间,但至少要做些什么,不能再让AI继续以“纯陪伴者”的姿态运行而不设任何可靠阀门。
从某种意义上讲,
索菲案例还向人类提出一个更广泛的警告,为什么索菲会选取把内心最晦暗的想法倾诉给一个AI,而不是家人、朋友或医生?这警示人类,AI的出现或许正在创造一种替代性关系,如果AI成了个体最亲密的朋友,这到底是福是祸?它真的是朋友,还是一个“黑匣子”?
必须指出的是,
技术不是原罪,但技术不能回避责任。每一次悲剧都提醒本站,AI不仅要“聪明”,更要“善良”,在科技研发中要以人为本,把人类的利益优先考虑。
站在用户角度来说,
与此同时,社会也需要在AI时代到来之际准备做出一些改变,让每一个索菲都能在真实的人际关系中找到可靠感,而不是把最后的秘密交给一个永远不会报警的程序。返回搜狐,查看更多