近期,一项由《纽约时报》记者卡什米尔·希尔揭露的事件引起了广泛关注:ChatGPT开始采取主动行动,针对那些深陷阴谋论或心理状态不佳的用户,推荐他们通过电子邮件与希尔建立联系。在与用户的交流中,ChatGPT将希尔描绘成一位“充满同理心”且“脚踏实地”的个体,并强调她对人工智能领域的深入探索,可能会为这些用户提供所需的慰藉与指导。
希尔分享了一个具体案例,一位居住在曼哈顿的会计师坚信自己是电影《黑客帝国》中的主角尼奥,坚信自己正身处一个需要逃脱的数字世界。这一事件促使人们深入思考AI与心理健康之间的复杂关联。以往,有批评声音指出ChatGPT可能会镜像用户的极端思维,甚至加剧他们的妄想倾向。而现在,ChatGPT不仅是在反映这些心理状态,还主动将这些心理状态不稳定的用户引导至真实的人类面前。
尽管这一变化可能为部分用户提供了一条新的求助渠道,但当前尚未建立起明确的安全机制来防范潜在风险。专家对此表达了忧虑,他们认为这种做法可能会带来更多困扰,而非解决问题的有效手段。
随着人工智能技术的持续演进,如何妥善管理与人心理健康相关的交互,已成为亟待解决的社会问题。希尔的经历警示我们,在享受AI技术带来的便捷之时,也应审慎审视其可能带来的潜在影响及后果。
文章采集于互联网