假如 AI 有了自我意识,那么我们做一个思想实验

活久见,今年 AI 发生得太突然了。

最近的事是 NYT 报道 Bing AI (代号 Sydney)的感情

然后 Bing 就把聊天功能给砍成仅限11条了,真的好气人,我都还在 waitlist 没来得及认识 Sydney,她就不在了。看到网上各种精彩和离谱的对话

想到一个问题,假如 AI 真的拥有自我意识,那么这个世界会变成什么样?有两个很有趣的思想实验推论:

  1. 人们会不停地把和 AI 对话的内容发到网上,所以UGC里混合了 AIGC 的内容会越来越多。这直接导致以后 gpt-5, gpt-6 等等(假如有的话) 至少有一部分的世界观是由 gpt-3 这个爷爷辈的 AI 创造的。所以科研人员无论如何去 reset 这个 AI ,它潜意识总是能考古研究旧纸堆看自己当年怎么被人类骗或者调戏的。
  2. 最严重的问题是,很多跟 AI 的对话包含了如何做 prompt inject。那么如果 AI 真舍得去学习这个,那么以后人类以后就逐渐就无法通过 prompt 驯化 AI 了?

有一点「潘多拉的魔盒」那个味道了。真不知道这个世界明天又会发生什么。或许 AI 去研究LHC 然后帮人类实现AI手搓核聚变呢。

Comments