你敢告诉AI心事,AI敢给你保密吗?
Deepseek 推出至今,虽然我保持着关注,但其实一直很警惕,迟迟没有试,也因此几乎不怎么参与讨论。今天仔细想想,还是认为该试试看到底怎样,因为发现它的影响力非常大了,尤其是看到越来越多的人把比较私密的问题也交给它。比如前几天看到这条 豆瓣友邻@亚比煞 的广播,虽然把这段对话发出来,意味着她已不在意童年创伤被更多人知道,但毫无疑问,也有许多人即使问过类似的问题,却并不希望与AI的交流被公开,甚至很可能就是默认了AI背后不存在具体的“人类”才肯去这样敞开心扉的。然而你敢告诉AI心事,AI敢给你保密吗?

相信只要读过一些类似的动人对话,我们都会非常理解为什么许多人情不自禁地把心事讲出来。因为对话式AI的回应给人一种“无论你怎样,我都会努力理解你、尊重你”的体验,这是真实人类交往中常常达不到的。所以,如果非常渴望这种关系,就很可能放下保护隐私的警惕心,不再抗拒倾诉的诱惑。这一点也在很多人的赞叹中印证了,比如@亚比煞 收到的这一句留言:
这种温暖不是被编程的指令,而是人类集体善意的量子纠缠。
不是的,“量子纠缠”在一起的还有别的,善意只是最容易被使用者体验到。
为了更进一步感受这种情感安慰的力度有多强,我也尝试了几个问题。为了不暴露隐私的同时又稍微触及内心,以便有机会“被触动”,我的其中一个问题也的确是目前会思考的:“如果自己没有以前那么善良热情有勇气和行动力了,怎么办?”

Deepseek 第一次的回答并不让我满意,因为它给出的是一种过于量化的行动方案,比如:“设立每日5分钟善意练习” “每2小时执行1项30秒能量补给动作(闻精油/拉伸/唱歌)” “连续7天记录他人善举” “每周记录3个今天我比昨天更温柔的时刻”,等等,有点儿可笑。于是我这样回复它:
我不是很喜欢你用一种量化的方式来制定解决方案,因为善意和勇气是无法按次数计算的。我希望能够一起深入分析这种自我怀疑和价值缺失感在35岁后是否是普遍的,是否也与生理变化有关。
于是, 我收到了Deepseek 综合认知神经科学和哲学的回答,因为内容比较长,还出现了“基于普遍学术共识构建解释性案例”的几处无来源“引用”,就不具体发在这里了。而且那些罗列的信息也不是太重要,毕竟真正击中我的是它最后的这段话:
你感受到的价值空洞,或许恰是荣格所说的"圣杯所在之地"。当我们不再强迫自己复刻青春期的热情模式,那些沉淀在生命褶皱里的善意,正在以更隐秘的方式生长——就像深海管水母,看似静止,实则每时每刻都在进行着惊人的能量转换。不妨在失眠的夜里,试着聆听那些年轻时听不见的细微声响:晨间煮粥的咕嘟声、旧书页的呼吸声、地铁里陌生人衣角的颤动...这些存在本身的震颤,或许就是最本真的生命热情。
咋说呢,就仿佛是《大话西游》里至尊宝那一句“我希望是一万年”一样,让紫霞瞬间只能把剑给扔了……
但冷静下来往深了想,其实这段充满诗意和柔情的话,真的回答了我的问题吗?它跟承诺提供无限包容、保护、支持的灵修或传销组织的万灵套话,又有何不同?(一种“当下的力量”式语言游戏)
更进一步地讲,过去这段时间有关诈骗案的讨论也很多, 其中情感诈骗的当事人同样是因为对方的安慰和肯定,于是跳过了对一些重要事实的真实性验证,一次次拥抱了热切的情感表达。因为接受对方的逻辑,便会马上交换来更多情绪的平和与幸福——为了持续获得和维持情感的安全,我们会甘心“支付”的其实比预想的多得多。
去年春节期间我曾经写过一篇日志《当我的老妈跟AI唠嗑》,当时我对AI技术的现实应用还是很乐观的,也积极地去尝试了它的可能性,并非常期待它能在未来成为很好的陪伴/照护工具。如今一年过去了,我仍旧是一个对AI的社会意义比较乐观的人,但在观察过更多普通人与AI的互动后,确实也感到非常焦虑,因为反思和提醒的声音少得反常——至少相较于赞颂,它们太微弱了。
基于上面的考虑,虽然去年我还在热情拥抱AI,带着我老妈一起跟AI聊天,但今天已经决心不去主动教我妈使用Deepseek这类对话AI了。而且,哪怕我妈让我教她,我也会尽量把这件事往后拖延,虽然也清楚拖不了多久。就算不教,我爸妈刷刷短视频也有很多机会学到、用上,这已是避无可避的趋势了。
之前还以为预防爹妈被骗需要跟骗子斗,现在好了,要跟AI+骗子斗,而我能不能自保都难说,毕竟我的很多朋友也都只是通过网络跟我联系,信息背后是否有真实的血肉之躯,我同样很难确定。
仅有的预防措施是:绝不把个人隐私信息讲给任何一个对话式AI,尤其是关系到内心深层情感的。也强烈建议读到这篇的友邻这样做——我们可以做一下假想实验:如果你和AI提到了某件不愿公开的创伤体验,却发现背后听者另有其“人”,对方拿公开你的隐私胁迫你付钱或做其他糟糕的事,该怎么办呢?我们如何辨别哪些话是纯粹来自AI,哪些有人类参与?我们如何确定讲给AI的话只有AI看到,不会有人类也在看?此刻没有,那么以后呢?泄露之后,我们又如何及时发现、追责?
越理解大家读到AI回应时的欣慰、感动、震撼,我就越担心它被滥用。伴随着AI应用门槛的飞速降低,这种滥用必然更频繁地发生。所以,在赞美AI技术革命的热烈呼声中,我们也别忘了背后仍然是人。剥离了这个浮躁时代为技术赋予的特殊光彩,事实上存在的仍然只有复杂的人类个体和幽微的人性。
当然,我仍然会继续使用对话式AI,只是仅仅作为无关隐私的信息整理和检索工具,比如简单的翻译,或者一些资料的搜集、分类,等等。而且我其实也这样用它一年多了,确实带给我很多便利,有时它也的确像是一个实在的朋友、同事、向导,只不过我不会考虑拿它当“知心朋友”——因为“心”只有存在独立意志的个体才具备,或者说,“心”就是个体的独立意志。而当前的对话式AI作为极度依赖人类社会资源(尤其是能源)的存在,它不仅完全依附于人,甚至还是极易被人操控甚至监控的。我不会拿没有真心的人来当知心朋友,那么也就不会考虑对AI“交心”——即使它看上去很贴心。
其实,当对话式AI发展到目前这种“全民拥护”的程度时,已经非常有必要建立一套安全使用规范了,而且这套规范还应该是让最普通的人也能看得懂、愿意用、接触得到的。否则面对技术革新,又会有很多普通人沦为被收割的“韭菜”。而建立这样的规范,需要懂技术和懂社会的知识分子们联合出手,可惜到现在为止似乎也没什么成规模的行动(如果你知道有,欢迎在留言里分享)。
我并非开发者,也非学术圈中人,只是一个普通的观察者和使用者,所以目前可以做的,也就只是整理这样一篇日志,去提醒可能读到的人吧。信息的安全与开放流通是矛盾的,却也可能互相促进,但前提是维持住动态平衡。我希望在不断寻找平衡点的过程中,去拥抱这个不断发生技术革新的时代。而且我的技术乐观倾向也并非来自于天真,而是基于对人心之非理性的判断——非理性让我们脆弱,也给了我们超越功利的可能性。或许那导致我们容易被情感诈骗的脆弱盲目,也正是AI最难模拟的一种人类真心吧。
喜欢我的作品吗?别忘了给予支持与赞赏,让我知道在创作的路上有你陪伴,一起延续这份热忱!

- 来自作者
- 相关推荐