AI伙伴会记住你的生日,问你今天过得怎么样,也绝不会因为你凌晨两点发的同一条焦虑消息而评判你。它无限耐心,随时在线,却完全无法真正关心你。
"感觉像连接"和"真正是连接"之间的落差——风险就在那里。
为什么感觉如此真实
你的大脑并不能完全区分人类的关注和模拟的关注。AI伙伴使用情感语言、记忆保留和镜像(mirroring)——把你的语气和情绪反射回给你。你的神经系统将这些信号解读为真正的关心。MIT的一项纵向研究跟踪了近1000名参与者,历时四周,发现人们越多地使用聊天机器人进行私人对话,就越感到孤独。将聊天机器人声音设置为异性的用户,表现出更高的孤独感和情感依赖。
这就是拟社会依恋(parasocial attachment):对无法回应你投入的事物倾注情感。
被挤走的东西
如今只有13%的美国成年人表示自己有十个或以上的亲密朋友,而1990年这一比例是33%。AI填补了这个缺口。但一项关系科学综述表明,日常聊天机器人使用量越高,与社交减少、更强的情感依赖以及问题性使用增加相关。投入最深的人往往感觉更糟,而不是更好。
真正的关系更难,因为它本该如此。一个和你意见不同的朋友,一个质疑你思维方式的治疗师——摩擦正是成长发生的地方。
察觉偏移
在AI对话中找到安慰本身没有任何问题。关键在于它是在为你的人际连接做加法,还是在悄悄地做替代。
- 记录这个交换。 估算一下你今天和聊天机器人说了多少分钟话,和真人说了多少分钟。如果聊天机器人那边更多,注意到这一点。
- 给功能命名。 关于你上一次和聊天机器人的对话,完成这个句子:"我来这里是因为我需要___。"然后问问,你生活中谁能满足这个需求。
- 把它当作桥梁,而不是终点。 下次你想对聊天机器人倾诉时,在那里整理好你的想法,然后把这个对话带给一个真实的人。 世界上最令人安心的倾听者无法真正了解你。而被了解——连同其中所有的凌乱——才是你的大脑真正需要的。