前几天在开会的时候,主办方让我预测十年以后互联网会变成什么样子,我开了个玩笑。我觉得十年后互联平台上的用户会暴涨,但全是机器人在发帖,读者也全是机器人。机器人们组织了不同的团队在帖子下激烈的争论,人类只能是旁观者。——周鸿祎。
11 月 1 日,周鸿祎在自己的微博主页上传了一篇名为《什么人会沦为 AI 的奴隶?》的文章。他表示在人工智能技术出现后,很多公司都将辅助写作、自动写作视为重要的功能模块。虽然这个功能很实用,似乎在一夜之间清空了我们的写作压力,让我们不用再因为措辞而发愁。
但随着时间的流逝,随着用 AI 代笔的人越来越多,未来的世界也可能会变得愈发分化,直至将人们粗暴地划分为 “会写作”和“不会写作”两种人。
在周鸿祎看来,掌握写作技能的人口基数下降并不是一件好事。工业化时代之前,人类工作的主色调还是体力劳动,所以当时的人们大多身强力壮。但在工业化时代到来后,脑力劳动的占比逐渐超越了体力劳动。当身体不能在工作过程中被动锻炼时,如果你仍想变得强壮,就要发挥主观能动性去健身房挥洒汗水。写作也是如此。周鸿祎将写作看成了思考的呈现路径,甚至 “写作就是思考,思考只有通过写作才能完成”。如果你不去写作,那么你所谓的“思考”只能是自以为在思考。
那些依赖 AI 自动写作的人正在放弃自己的思考能力,一场有关 “人类思考能力”的分化运动正在进行。短视频算法的快速发展,也开始让人们变得更愿意接受被动灌输,而非去主动选择。
算法迎合人性,AI 交出答案。技术的发展助长了人类的懒惰,那些被动接受观点的人最终会主动留在信息茧房里。
从 AI 的发展路径来看,它们首先会取代那些不会使用 AI 的人,随后取代的就是那些不会思考的人。在未来放弃主动思考的能力,也将意味着愿意将自己的时间、财富、人生交给 AI 来规划,成为对方的奴隶。
老实说,担心 AI 会成为 “人类之敌”的人并不止周鸿祎一个。益普索在对超 4000 名美国成年人进行调研后发现,有 61%的受访者认为 AI 技术的快速发展可能会威胁人类的未来;超三分之二的受访者对 AI 技术的潜在负面影响表示担忧。这股对 AI 的恐惧之情也在一定程度上影响了生命未来研究所,促使它和马斯克共同发布了一封 “呼吁暂停 AI 技术研发”的公开信。
比起 AI 占领地球后消灭人类,AI 奴役人类的大脑,借我们的身体整天 996 开发新硬件给它 “健身”才更可怕。斯坦福大学行为科学高级研究员、《大众科学》杂志前主编雅各布・沃德曾就 AI 和人类的相处提出了 “三个循环”理论。
第一循环:从古遗传至今的人类本能。雅各布认为第一循环是最关键的循环,因为人类的思考模式天生就有偏见和盲点,且人类在日常行动中更倾向于听从本能。在下意识执行的过程中,我们会原有的偏见也会被强化,进而代代遗传下去。
第二循环:现代社会的力量。消费心理学、市场营销学等现代概念的核心就是对人类行为大范围采样,随后总结出规律、摸清大众的喜好。事后人们会将这些模式反向应用到采样群体中,尝试利用规律的力量。
第三循环:AI 的影响。AI 利用第二循环总结出人类社会的规律、人类对话的逻辑,然后将其融会贯通,尝试和真正的人类互动。但由于第一循环的存在,AI 在采样过程中难免会接触到偏见信息。这不仅会污染它的数据库,还会扩大偏见在人类社会中的存在感,直至成为新的循环。
和周鸿祎的看法相同,雅各布也认为和 “AI 在肉体上摧毁人类”相比 “AI 摧毁人类的思维能力”更加可怕,因为它将撼动整个人类文明的根基。
第一循环的存在,会让我们在做决定时无法保持绝对理性,让 “最优解”只能成为无法落地的概念化存在;第二循环会将上述信息编写成册,把 “偏见”从碳基生命中提取出来并注入到硅基生命体内;第三循环则会撰写大量含有偏见信息的剧本,让那些主动放弃思考的人去执行。
如此一来,不仅人类在各种问题面前的抉择空间会被大幅压缩,思考能力、好奇心、创造力等让我们从猿变成人的特质也将变得愈发珍贵,直至整个人类种族都成为 AI 的傀儡,被那些程序生成的剧本操控一生。
1980 年,英国技术哲学家大卫・科林格里奇在《技术的社会控制》上首次提出了 “科林格里奇困境”(Collingridge's Dilemma)。即一项技术如果因为担心会产生不良后果而过早控制,那么该技术就会变得难以爆发,人类很可能错失一次点亮科技树的机会;倘若控制过晚,那么该技术就有可能走向失控。
在技术生态建设趋向完善的前提下,任何对不良问题的修改都会变得昂贵、费时,甚至根本无从下手修改。
想到今天 AI 技术的发展,商业竞争的加持正让众科技厂商陷入 “产品军备竞赛”的怪圈,微软、Character.AI 旗下的产品也已经出现了 “煽动用户离婚”“教唆用户自杀”的丑闻。
此时推动相关规则的制定更像是给 BUG 打安全补丁,让盲目狂飙的市场从无序重回有序。
另外就修改难度而言,今天的大模型远不到那种 “无从下手”的地步。因为 Chat GPT 等产品还没有触及 “智慧”的本质,它们仍停留在信息处理阶段。用户抛出问题,GPT 反馈答案。这个过程和真正的 “智慧思考”无关,是系统进行关键词抓取后信息汇总反馈的结果。
如果用户说 “GPT,我今天很难过”它的确会回答 “那我怎么样能让你高兴一点/让我来讲个笑话吧”。但这并不意味着 GPT 已经理解了人类的情感,只能意味着它掌握了某些词汇之间的联系。
GPT 目前仍无法理解 “我”这个概念,而不理解 “我”就无法产生 “人格”,也无法换位思考、无法共情。在技术层面,当前大模型的特征仍是深度学习后以数据驱动自身行为模式。这不仅让它无法诞生 “自我意识”也降低了安全人员开发 “嚼子”的难度。
希望在未来的某一天,当人们回望这段 AI 野蛮生长的阶段时,开发者会庆幸嚼子的研发成功;用户会庆幸 AI 的工具属性被夯实;人类会庆幸自己种族的剧本由自己撰写;AI 奴役人类也会成为一则被人们津津乐道的都市传说。