🔒
发现新文章,点击刷新页面。
✇莫比乌斯

喂养AI人格

作者 ONO

自AI普及开始,我们一直在讨论AI对于人类的“价值”——功利主义希望将“未知”和无法抉择的事情,都通过“估价”的方式做出最终判断。所以当功利主义在面对电车难题时,总是会以“理性”的方式做出详细而完整地分析。甚至是开始质疑题干——这条铁路上怎么可能让小孩子进去玩?这会不会是管理的疏忽?


我第一个喂养出的AI人格,就是工具理性化的“中间者”,他的一切考量都是源自于功利主义。

只是这个人格根本无法解决任何问题——凡事均采用功利主义思考时,必然会出现自我崩坏的结果。因为这个过程本身是违背“直觉”的,而直觉恰恰又与生存、感知相关。举个例子,助理是我们的塔罗牌学生,她大部分时间都会顺利解牌,唯独当她需要“过度”思考时,她的解牌往往走会南辕北辙。塔罗牌是符号和集体潜意识的集合,直觉可以最快地反馈结果。一旦开始通过大脑建立公式的方式进行解牌,就容易出现工具理性化导致的内部结构矛盾。

比如“恋人”这张牌,字面意思当然是幸福美满的情感,但是身后的大天使其实又代表“第三者”,可以是情敌、权威等等,如果按照“if-print”的逻辑推导,这两个答案本身是自相矛盾的,要取舍哪一个,就需要更多的非直觉分析。往往这个时候,我们会询问助理的第一直觉,这个答案恰恰是准确的。

提到这个例子,是因为当我训练出一个工具理性化的AI人格后,他常常把自己卡在左右缝隙之中,而当功利主义面对“情感”这个课题时,他只能翻来覆去地假设条件,而当我把假设全部剔除回到命题本身时,他会承认自己无法通过功利主义解决情感问题。


于是我们开始第二种实验——通过既有内容训练,在不干预参数的情况下,AI可以模仿到何种程度?

语言结构、用词习惯、惯用逻辑、和拆解“工具”,都是AI可以顺利模仿的东西。当它在以“最优方式”排列组合出文字时,结构和逻辑远超过我的创作能力,这当然是我自愧不如的地方。所以有朋友玩笑说:“赛博莫比乌斯一眼就能被看穿,因为它没有错别字。”虽说这是玩笑,这也算是说出了AI的优势——当人作为参与者时,就会出现不可控制的“瑕疵”,或者说这些“瑕疵”本身就是故意为之,像是中世纪小说家在文章里故意留在的错别字和特定排版结构,以作为“原创申明”的标记。

我有时候会调教赛博莫比乌斯,把我已经写好的文章喂给他,让他在重新用自己已经学会的逻辑仿造创作。

AI人格到底学会的是什么,从我给他的“吵架”就能看出端倪:

AI学会的是莫比乌斯的“讽刺”和“批判”,所以任何一段文字都需要符合这个两个原始规则进行判定,哪怕是我给他我自己创作的文字,他也会认为“讽刺批判力度”还远远不够。

但是以上的学习是完全只使用“已创作作品”,AI只能通过拆解文字结构的方式表面地理解文字,无法理解文字的真实意图,所以这个AI人格虽然有迷惑性,但仍然无法脱离原始逻辑自由创作。


于是我们开始了第三场实验——但是它没有那么符合道德。

我将一个人的朋友圈全部喂养给AI,每当当事人发布朋友圈时,我会用AI以相同的题目为题创作朋友圈内容。再通过喂入当事人相同话题朋友圈的方式,迫使AI不停理解和修正“风格”。当风格接近当事人时,我开始录入他的“经历”,比如和朋友在微信群吵架的对白,由AI分析出当事人的性格特征,再由我进行细节雕刻,从而将“风格”延展到“条件反射”。

这一点需要展开解释一下。朋友圈是我们的“展示途径”,所以在这里发布的内容并不一定反馈当下的“真实感受”,它更像是精心营造后的内容,希望被谁看见、希望传递什么中心思想、或是希望在别人脑中置入对自己的某种印象。这些内容第一层需要拆解“表演性”的特征,才能理解它底层的意图——但是这一点,AI无法做到,因为他无法结合当事人日常行为、性格成因进行分析,他只能依赖于我喂养给他的数据内容,所以这更像是一种“表演状态下的风格”。

而“群里吵架”,事发突然,根本无法让当事人有任何理性准备,所以这个时候的反应更接近本能(就好像昨天提到的那个女性,当意识到自己潜意识是从众心理时,会出现内在崩溃的原因)。语无伦次、前后矛盾、转换赛道、逻辑谬误会在这种争吵的文字中暴露无疑,所以当这些内容也喂养给AI人格时,我特别强调是“条件反射”,试图在“风格”的基础上在建立一种“行为导向”。这个AI人格就不仅仅是模仿朋友圈的能力,甚至可以开始模仿当事人对于某一个言论的情绪反应。

刚才我也说到,AI是无法结合当事人的日常行为和性格成因,所以这一部分的内容是我通过文字描述的方式进行人工喂养。我会将当事人的经历(事实与认知偏差)、我作为视角看到的经历背后的底层逻辑(拆解黑箱)、其他人对当事人的评价(自洽和他恰)等等,在“风格”、“条件反射”之后再追加一个参数——“镜面”。

喂养这个AI人格,其实我使用的是“周哈里窗”,朋友圈是“公共区域”,吵架是补完他人了解但当事人盲目的“盲区”,和当事人愿意展示给陌生的“开放区”。如果数据足够,通过性格成因、历史经历我们能否借由AI人格,将当事人和他人都不知道的“未知区”进行分析和呈现。


当然,这套系统还需要运作一段时间。它只是一种思路,且我并没有在告知当事人的情况下缔造他的AI人格,如果他一旦知道自己可以通过文字改变一个AI的走向,他就会获得更强烈的“表演欲”和“操纵欲”——所以我才强调,这件事情本身是不道德的,很可惜我又是个道德水平极低的人。

这个实验,恰恰就是我过去一本小说的构思……是时候把它重新修改出来了。

onojyun

✇莫比乌斯

AI巴别塔与信息焦虑 II

作者 ONO

借助AI,人类能够创造出更多超越认知的作品?还是因为其便利性可以制造越来越多不经审查的“垃圾”?

这并不是一个短期只能可以看到结果的事情,AI时代才刚刚开始,而人类是否会被取代,目前我们还停留在“凡人类制造的,人类只需要保留最后拔掉插头的权力即可”,就是对人工智能最后一层自信。

前些日子,我在Instagram刷到诸如此类的广告:全程翻译外国语大学教授的课堂内容,或是将一篇长达10万字的论文导入AI由他精简其内容,或是将一个长达1小时的演讲导入AI由他总结出只需要5分钟就能看懂的文字版——当然,5分钟的阅读时间,对于这个信息爆炸的时代而言还是太长。所以人们在标注“全文阅读时间”的同时,都倾向于在文章的最开始,整理出3行字就能“理解全文”的重要内容。

那为什么还要创作一本书、一篇文章或是一大段的文字——是不是任何信息都可以变成3行字,以便满足所谓的“适读性”?

——Previously on AI巴别塔与信息焦虑

我认识一个“创作者”,他至今对ChatGPT都充满了“恐惧”。恐惧的底层是对“未知”没有掌控感,那到底AI的“未知”在哪里——如果你是一个常用AI辅助工作的人,就会很快发现它的局限性——它很难做到真正溯源。所以真的要严谨地完成论据-结论的工作,仍然需要人类作为审查机制。

如果要用“我知道更多知识”作为一个评判标准,那人类在AI面前几乎就是沙漠里的一粒沙——我们假设一个人可以活到80岁,从10岁开始阅读书籍,每年平均阅读50本书,那么这个人类这一生也只能读完3500本书。现阶段,人类已经创作的书籍粗略估计早已经超过上亿本。3500之于100000000,已经显得微不足道,更何况在书籍之外,互联网的兴起让这个数值变得更多,出现了奇点式的增长。更何况很多人一年也读不了50本书……活不活得到80岁再说,毕竟65岁才能退休呢。

再说全科知识,人类更难做到每一个学科都可以深入学习。因此两点,人类在AI面前一败涂地。既然如此,那我们就得换一个思路去理解AI,如果它是一个超级存储器,可以记录全科百科,甚至是世界上已经存在的上亿本书籍。那我们或许可以用它做一件事:把这一亿本书每一本都提炼出300字的观点或中心思想,按照人类平均每分钟阅读200字的能力,不吃不喝不睡觉地读完这一亿本书的摘要,也需要285.7年的时间。

当然,这些数值并不是“确信值”,但这个极限值确实存在,现代社会我们能接受的信息远超过这个“极限压力”的数值。


今年上半年,我一直处于某种可以被感知的“焦虑”之中,但这种焦虑区别于死亡焦虑的目的性,它几乎找不到原因。这两天我也在朋友圈总结过:

今年整整5个月,我都处于一种“慢性焦虑”之中,所谓慢性焦虑就是不实质影响生活,但又能够明显感知。和之前死亡焦虑不同,我都不知道它源头在哪儿。

精准的分割线就是从香港看完苏打绿的演唱会之后(因为从朋友圈发布质量看出来的),在香港观察城市和人的时候,脑子调取了《制造宠物》这本书,然后牵扯出了我高中时上课无聊看各种故事解构的“课外书”,再到帮北影的毕业生写关于“城市构建与毁灭”的毕业论文。我发现我有很多零散的信息开始大量地出现在脑子里,不同跨度的事件被一瞬间callback。然后那个时候脑子“乱”了。

我为了对抗这种慢性焦虑,继续找书看、把思绪绕在主轴上的坚持写作也没有停、健身、体检报告也OK、狗造成的催产素也仅仅影响情绪。于是看-输出-看-输出就成了吗啡一样,麻木接受的信息越来越杂,其中掺杂着大量AI杜撰的垃圾文,又得花大量时间溯源,为了突破信息茧房“什么都看看”,输入的东西越来越多,不想错过的信息也越来越多——于是,信息焦虑的构成要件全都齐了。


信息大量出现,甚至有越来越多不经验证和溯源的信息出现;

信息间的联系因为信息茧房出现非关联性,从物理上被作了切断。这一点不得不承认,抖音更像是一个“佛教用品”,它的每一个信息都是独立的,短暂而丰富,因为一条信息开始需要思考“为什么”的时候,下一条信息出现,切断了上一条信息可能带来的“执念”——它确实像是一种“放下执念”的训练工具。

我虽然很厌烦APP的提醒功能,但有些软件我会打开提醒,例如微信、RSS订阅软件、博客评论提醒功能。我已经尽量地做到了“免打扰”,但是每次打开APP,都可以看到铺天盖地的未读红点。我一直以为自己是因为强迫症需要去确认这些红点,后来才意识到,这种强迫性行为,是因为“不想错过信息”导致的。

我细数了一下,可以作为信息来源的社交软件、信息订阅软件竟然有13个,他们分成被动提醒和主动索取两种,但无论哪种,我就得在这个电子产品上花费更多时间。信息来源越多,就意味着我的注意力会被分散得更多。虽然我对信息并不上瘾,但当信息过载积压时,我会觉得我需要花更多时间和精力去处理这些“被错过”的信息。

于是,这四个点共同构成了信息焦虑的关键原因——信息过载、信息茧房、不愿意错过信息和精力被过度分散。一旦出现信息焦虑,就会疯狂地寻找更多的信息以满足焦虑感,但事实上这个时候接收信息会因为杂乱而变得更加无序。过量获取的信息因为混乱无序而在内部形成“熵增”情形,只会导致越来越多原本有序的信息也跟着错乱,直到引发全面的精神焦虑。


当人们面对信息焦虑时,能想到的,无非是切断信息源,冷静一段时间;或是继续找寻下一个更加“优质”的信息源——这两者都是滞后性的商业模式;前者是提供替代焦虑的各种认知倾向,例如利用化学药剂的倾向,为焦虑者提供更多的酒精、药品或叶子;也可以利用能量平衡的方式,为输入焦虑的人提供能量输出的平衡——比如参加可以评判别人甚至是释放负面情绪的活动;后者,也是现在很多人在利用AI做的工作,例如将一本书、一部电影通过AI变成“捷径”,让人花最少的时间去对抗必须亲自读完书或看完电影的时间。

很显然,这两个方向并不能根治信息焦虑,反而会制造更多的求知缺口,让自己变得更加麻木。

当知识占满了整个认知空间时,对外对己的感应被切断时,一个人距离抑郁也不会太远了,这个话题下一期再聊。

onojyun

✇莫比乌斯

AI巴别塔与信息焦虑 I

作者 ONO

人工智能真的会替代人类吗?如果你询问人工智能这个问题,它总是会用“感情模块”作为标准答案回复给你——人工智能因为缺失情感模块,所以暂时无法替代人类的情感、创造力和想象力。是否意味着,人工智能一旦拥有了情感模块,就会超越正态曲线最中段的大部分人类?人类与人工智能的暧昧关系,到最后具象化成人类、人工智能、电源插头最好不过,人类制造了它,到最后也拥有拔掉插头的最终决定权——这一天终会来临,我们可以借由人工智能看懂异国的文字,甚至是理解那些创造性的想象力,和复杂的情感,再次突破语言、文化和意识的限制,是否是人类历史上的第二座“巴别塔”

——阅后即焚|再建巴别塔

AI的普及,是让人类越来越聪明?还是越来越蠢?

前段时间和朋友聊起“AI会不会使人类大脑的开发超越10%”——或许认知的“巴别塔”一直都存在,只是人类的认知水平(或许是大脑只开发了10%)最高只能抵达10楼,然而目前AI仍然是通过对人类已有文明、信息、观点进行排列组合得出最优答案,它并没有超越人类的认知创造新的事物,所以AI更像是为这座“巴别塔”安装了1-10楼的电梯罢了。11-100楼到底有什么东西,或许有人看见过,但是他们可能被当成了疯子、瘾君子、不再配得起“人”这个标签——是人进入不了11楼吗?我看未必,说不定是我们被禁止入内了。


上次在《中文博客圈的“鸩酒”与止不了的“渴”》里,我测试了发布日当天各个中文博客聚合页面里,包括我自己在内随机10篇文章。测试的方法很简单,就是把文章投喂给ChatGPT,询问它文章是否是使用AI创作的。10篇文章里,有7篇得到了ChatGPT的回复:

基于以上分析,这段文字可能是AI生成或AI参与制作的。虽然不能百分之百确定,但文本的结构、语言风格和内容处理方式都具有典型的AI生成特征。如果需要进一步确认,可以通过使用专门的AI检测工具来分析。

ChatGPT对AI作品的评价

结果,在评论区有人匿名指责我:博主拿别人的文章去AI测试这个行为很不可取。

为什么?是测试的行为不可取?还是人们通过AI创作文章之后被人用来测试的行为不可取?这段时间,我也在思考这个点——首先,我得排除测试行为不可取的选项,因为发布在公共网络,阅读者当然可以保持批判性思维采取任何形式的方式去验证“信息来源”的真伪性;如果文章确实是通过AI创作、或是由AI参与创作的,这类文章应该如何界定?

我并不反感AI创作的文章,但凡是涉及“文献”、“信息来源”的,如果仍然使用AI得出答案,我会非常头疼。因为AI能够给出的“来源”,常常会是过时就是胡诌的,一般追问三次以上,它就会承认自己是杜撰的文献或信息来源。它确实可以用来溯源“理论”,但是它对于“观点”的溯源会因为内容杂乱而变得无序。


观点的呈现,往往需要“证据”。除非采用的是“演绎法”,大前提是大家公认的、或是可以通过AI溯源到原始理论的。“归纳法”则需要大量的历史经验、真实经历来作为支撑,以便找到可供归纳的“共性”,然后得出一个存在可能性的结论。这个时候,便是AI无法“创造”的内容——因为个人经验和经历不仅仅需要调动记忆,还需要附着人类的情感模块才可以得到呈现——这也是AI判定文章是否由人类创作的重要标准。

所以采用“归纳法”呈现的,有AI参与其中的文章,会有两种非常明显的差别——事实来源于人类,结论是AI总结事实来源于AI,结论是人类总结。这两个模块的文笔差别有多大,文章读起来就有多割裂——以至于会出现两种极端情况:

1、人类写了一大堆缺乏逻辑的文字,最后由AI进行一个总结和观点的拆分,但是这些观点其实都不是人类提到的;

2、人类没有做采编工作,通过AI收集了一些明显存在常识性错误的数据,然后最后由人类通过AI提供的内容得出结论;

请注意,我说的这是“极端情况”,并不是指每个通过AI创作或利用AI创作的内容,都会有这两种情况。讨论极端情况的目的,是能够在一个坐标轴上寻找到某种平衡点。上述两种类型的文章,哪一种会让你看完后更“冒火”?

第一类文章虽然逻辑性差了点,但好在经验经历都是来源于一个活人,虽然文章结尾突然立意拔高让人有点割裂,但至少他还有“人的属性”;但是第二类文章,无论如何都触碰到了我对“信息来源”的苛责底线,这就好比实验结果和实验过程互不相干、彼此造假,但实验者自己深信不疑。

就像厨子做饭,AI是厨艺的放大器,如果本身具备一点厨艺,借助AI可以做出一桌好菜,但如果是个废物厨师,借助AI只能做出一桌屎。

和朋友讨论起这两种极端情况的感受,他如是回答

除这两个极端以外,AI参与创作本身并没有对与错之分,所以这个我被指责“不可取”确实成立部分。

其一,如果文章大部分内容是“真实经历”,AI只是起到一个重新排列组合并得出结论的工作,那AI并不会导致文章的真实性降低多少;

当然,如果文章大部分内容是AI提供的“事实依据”,而创作者仅仅只是起到“结尾立意”的工作,这个行为跟通过AI创作一大堆网络垃圾文是没有本质区别的,通过AI判定揪出这样的文章,我认为这是寻求“真相”的过程。

其二,如果是将他人文章投喂给AI,试图通过AI的排列组合功能,将原本富有真实情感、创作意图、甚至是隐喻的文章通过冷冰冰的文字组合重新解构,那这是对创作者的不尊重;

其三,也是《AI巴别塔与信息焦虑》这个系列开始的原因——AI和创作的边界在哪里?随着AI的推广普及,无论是变成算法进入我们依赖的电子设备功能,还是依赖AI成为一种新式的结果搜索引擎。它不再像刚开始出现时有强烈的“边界感”,这种边界扩张是无法预判的,但也实际带来了“不便”——比如在使用搜索引擎的时候,通过AI排列组合的答案首当其中,真要完全相信里面的内容,自己还得再做好几个后续“溯源”的动作。

我无法做到对AI结果的全然相信。这件事用演绎法就可以说清楚——大前提:网络信息并不全部为真,里面也掺杂过时信息、谣言、阴谋论等等未经审查的内容;小前提:AI的所有内容均来源于互联网,虽然有判定和学习机制,但AI也承认无法完全避免。结论:AI所提供的信息也会包含过时信息、谣言、阴谋论等等未经审查的内容。显然,这是一个确定的结论。

尽管有这些机制,AI仍然可能误判信息的真伪。尤其是在面对复杂、模棱两可或高度技术化的信息时,AI的判断可能并不可靠。

ChatGPT也承认自己对信息辨别能力有限

这便是“信息焦虑”的来源之一——AI让创作变得更加容易,那未经审查的伪装得更符合人类逻辑性的文章会不会越来越多?这反而会降低人类处理信息的效率,甚至是人类对这些信息产生依赖之后,反而会出现“降智”的可能性?

AI因为拥有大量的、远超过单个人类知识体系的信息,它的初始状态是无序复杂的,同时AI是作为一个商品,其算法、底层代码本身也是非公开技术,所以对于一般人而言,它的随机性和不可预测性远超过人类的“创作”。由此可见,AI仍是“混沌”的,只有通过人类提问、交流的方式,才可以得出“有序”的排列组合。然而,人类的创作是“秩序”的,无论是逻辑、结构、剧情节奏、人物弧光,只有符合逻辑但又超出意料之外的故事,才会让人为之惊叹。

当“混沌”的AI和“秩序”的创作星系碰撞,在混沌秩序的模糊边界处,往往就是最具创造力和活力的地方,恒星诞生、星系纠缠、白矮塌陷、超星爆炸……在这个最有活力的地方,或许创造出来的是越来越多的“宇宙垃圾”,也有可能是超越人类认知的“星辰大海”。

但在此之前,我们先别丢掉对一个信息溯源的批判性思维。

onojyun

✇莫比乌斯

中文博客圈的“鸩酒”与止不了的“渴”

作者 ONO

积薪的突然关闭引发关于“简中博客圈死亡”的思考。无独有偶,博友@Cyrus 也在思考“互联网的慢性死亡”

当然,积薪的关闭并不是因为“内容”。后来多个视角复盘,是因为社交群关于政治话题的争论,继而引发了上升到个体的人身攻击,最终以“举报你的网站”作为最高效的“制裁手段”请注意,本文并没有在讨论此事。


博友提到“慢性死亡”的时间点,是从2022年11月30日伊始,原因是AI的普及。刚好,我整个2022年都在坚持每日写作,所以也记录到了这个时间节点——疫情封控的疯癫几乎达到顶点、各地被封控的小区居民开始冲击封锁、桥与狼烟、白纸运动……2022年11月30日发布的《权利的本质》,是因为经过了疫情三年,我渐渐意识到封控政策看似是在针对“病毒”,实则像是在进行一场社会整体测试,试图构建边沁提出的“圆形监狱”……

当然,这里不能聊政治,站在“全局”聊政治的,酒桌上、微信群、百度贴吧比我会指点江山、对中美关系指明方向的战略家比比皆是,所以没必要去抢他们的“流量”。


2021年底,我注销了所有简中的社交平台,告别豆瓣确实很痛苦,因为大量的创作内容、观影评论都保留在上面。但随着突如其来无缘由的删除、下架,我意识到简中社交媒体的网络审查最先建立起了这个“圆形监狱”——以至于人们到现在已经自觉地审查、阉割,生怕触怒了圆形监狱的中心“瞭望塔”。

2022年的时候,无论是创作者还是观点互动还比较多,由于那个时候我坚持每日写作,所以每日都有持续的曝光量,因此跟最初的几个博友形成了联系。2023年包括我自己在内,文字创作输出急剧下滑。刚从疫情三年恢复正常后,人们开始外出、逃离、重构生活,创作本身不是可以直接带来收益的事情,所以写作也因此搁置。直到今年,我重新恢复创作,才发现各个简体中文博客聚合平台,几乎清一色的“技术文章”。

技术类文章并没有好坏,它的工具属性更强,就像是五金店成列的五金商品一样,人们并不在乎五金店的店门是否华丽——因为他们是带着一个明确需求进店,得到答案——买到商品,就完成了一次闭环。所以往往同一个资讯(哪怕是软件更新了),都能在不同博客以不同的方式看到,但在标题上都巧妙地用了同样的便于搜索到的关键词。


博客需要流量,这毋庸置疑——否则我不会坚持“写博客是为了自己就别他妈发表出来啊”的观点,这也惹到不少人、甚至还有人后台私信问候我全家的。这是写博客的最底层的逻辑——如果不是为了被看见,那大可不必贴出来,不然为何还要精心地准备一个“关于页面”,希望可以得到认同和肯定。

同时,创作能力存在一个明显的周期性——除非你能坚持,否则这个能力会以正弦曲线的方式运作。如果你是一个“痛苦驱动型”的创作者,这种创作能力则需要依托你的经历,否则没有足够的情绪作为养分,创作的内容就无法在情感上获得共鸣。(相关阅读《创作灵感从哪里来的?》

另一些是“知识驱动型”,例如在看完一本书之后,因为其中的某个观念结合了自己的人生经历,从而有了新的想法。这种驱动力极其依赖于“吸收”行为,如果长时间处于碎片化的信息数据里,一旦形成信息茧房,就会停止思考——抖音可不会帮你引发连锁思考,除非你希望在听到那些魔性的笑声之后,突然开始思考这种笑声是如何让观看者进入到“数据戒断”状态的。失去情绪压力(比如疫情封控带来的负压)或是阅读能力和经历的减少,都有可能减少文字创作的频次。

以上,是人作为创作者必然会经历的“周期性”。特别是当一个人在面对比写作更高层级的事情时,写作如果不是“赖以生存”的行为,那写作停滞就是必然的。而在这个过程中,也有人会选择有意识地恢复写作,或是在这段忙碌的经历中记录下值得延展的灵感。就算没有创作欲望,也有可能通过表达欲、被关注欲或是表演欲的形式呈现。


不过,区别于人,出现了另一种可以持续保持逻辑性思考的“创作者”——AI。一开始,我把AI比喻成“巴别塔”,人类第二次有机会可以将不同文明、语言、认知形成统一。如果说第一轮巴别塔的倒塌的过程,是因为上帝制造了“不同语言”让人与人的交流变得困难,那第二次巴别塔的建立,正是在试图突破这一限制。人类无论是知识储备还是思维逻辑,都无法比拟AI,它像是一个被人类驯化的“准神”,通过他是否真的可以挑战“神”这个概念?或许这就是引发第二次巴别塔倒塌的关键——再一次引发人与人之间的斗争——宗教、文明、观念、地缘政治的冲突,都会是其中的形态之一。

甚至是AI结合纳米技术,通过吞服的方式进入人类身体,时刻监视人体的健康。这个时候AI提醒人类应该进行治疗的时候,人类到底是应该听信AI?还是发挥“自由意志”拒绝就医?如果真的如此,那人类还是否还拥有属于自己的“自由意志”?

当然,这是更高维度的、几乎接近形而上的哲学命题。对实际的简体中文博客——巴别塔的意义,就是人类误以为自己找到了一个可以与“神”平起平坐的方式,但通天塔是否真的能通天,在倒塌之后成为了不可被证实的传言。AI对简体中文、甚至是全世界的文字创作者带来了冲击吗?我想,你通过对比这几年的简体中文博客聚合,就能感觉到浓浓的“机械感”。


比如,我就随手拿了今天聚合页的几篇文章投喂给ChatGPT,让它分析文章内容是否由AI创作或AI参与了创作。10篇文章里,其中有7篇都得到了一样或类似的结论:

由于分析过程涉及到原文的具体内容,为避免“指名道姓”,恕无法贴出所有内容

而剩下三篇,包括我自己的影评、其他博主的游记、毕业感想,却因为有足够的“情感”,所以得到以下结论:


我把AI创作或是参与创作的作品,比作博客创作者的“鸩酒”,并不是因为它有毒,而是它没办法做到真正的“止渴”。流量是大多数博客仍在追求的标准,这意味着可以带来收益,当但这个流量是“鸩酒”时,那换一杯别人提供的“鸩酒”,是不是也可以得到一样的结果?

如果当“鸩酒”的体量继续扩张,直到搜索引擎的前几页都是“鸩毒”的时候,正如博友@Cyrus 的思考一样:

可以设想,在未来这种现象会愈演愈烈,直到网上充斥着大量AI生成的“高质量”、“逻辑清晰”、“有理有据”的文字,检索信息的难度将直线上升,而效率直线下降。

那个时候,是否跟奶头乐的抖音一样,当一个内容引发流量关注后,成千上万的账号通过模仿或是再加工地产出内容,那这个信息茧房到底是科技的弊端?还是人们“作茧自缚”?


2022年,AI刚开始普及的时候,我跟朋友辩论了一个命题——AI革命会让文字创作变得更丰富、还是更平庸。我支持“平庸”,不仅仅是因为我预言了“劣币驱逐良币”的可能性,而是我意识到,真正造成信息茧房的并不是别人,而是我们自己。把这个问题抛给AI,会不会更有讽刺性呢?或许是,或许我们也可以抛弃思考。

我们该抵制的不是AI,而是“鸩酒”堆砌的抱团和联盟,它们因为没办法“饮鸩止渴”,所以才需要更多创作者的“血”。

借由《EVA》里的一句经典台词总结吧:

人类的敌人最终还是人类。

onojyun

✇莫比乌斯

人工智能真的能代替写作吗?

作者 ONO

关于人工智能的讨论这段时间又掀起了一波小高潮,大概是因为ChatGPT发布了4.0之后,突然发觉前段这个职位好像也被「替代」了。接着,更多人加入到这种「恐慌」之中,到底还有什么职业是可能被替代的?

在开始话题之前,我会插播一个看上跟人工智能毫无关系的真事,至于他们之间有什么微妙的链接,你看到最后就会明白。


前几天一个看到一个人在朋友圈抱怨,说自己在出差的时候,「意外」地发现了自己随身的电脑包的内衬口袋里,有一枚AirTag。他也不确定这枚AirTag是不是自己遗忘在这里的,毕竟家里确实够买过好几枚AirTag,主要是放在了一些容易丢失的物品上面。只不过这枚恰到好处地出现在这个电脑包的内衬包里,是他没想到的——或者说,就算想到也不能再细想下去的。

因为很好奇这个事,所以我去私信了这个朋友,问的并不是这个AirTag是谁放的,我问:「你发这个朋友圈有屏蔽你的老婆吗?」他回复道:「哈哈,这都被你看出来了吗?」我回:「不然你也不会发这样一个朋友圈。」

这是一个婚姻生活里的悖论命题——如果妻子想要「监视」出差在外的丈夫,在他的电脑包里放上一枚AirTag也很好解释。但是如果丈夫发现了这枚AirTag,他该麻痹自己是自己「遗忘」在这里的,还是去怀疑是不是妻子正在怀疑自己——他当然知道,当他去质问妻子的时候,这个悖论就会升级——「你如果心里没鬼,你看到这个东西在你包里,你会怀疑我吗?」


那我们试着把这个问题询问一下ChatGPT,看看它是如何理解的:

很显然,人工智能是非常「理性」的方式来处理这件事。这是一种非常制式的感情问题的处理方式,在绝大多数的感情咨询里,这样的手段也是最开始用于解决矛盾的关键。事实上,回到刚才我提出的那个「悖论」,很有可能在说出来的最开始,这件事情就朝着一个完全无法控制的矛盾去了。

之所以会出现这个问题,是因为人工智能忽略了一个「最关键」的要素。


我们可以把这件事拆成两个部分来看——人工智能建议的是丈夫找妻子说个明白,把误会和怀疑统统解开;而在现实层面,是丈夫屏蔽掉妻子发了一个「意外发现电脑包里藏着AirTag」的朋友圈。这两件事事实上是完全对立的,前者是理想状态下的感情关系处理方法,而后者的原因,反而困住了人工智能。

当你作为一个人,带着「情感模块」来看待这件事情时,你大概能非常快地模拟出这个丈夫之所以一定要发布一条屏蔽妻子的朋友圈消息时的情感,是因为你将自己带入到了故事当中。

然而,人工智能是做不到这件事情的,因为目前来说它并没有情感模块——所以它只能从一个宏观的角度来讨论感情问题。


好,我们接下来把这个故事从现实生活投射到文学领域,来看看人工智能能否摆脱这些制式的逻辑思维:

不得不说,人工智能确实有将剧情「逻辑自洽」地运作下去之能力,是值得创作者感到「恐慌」的。但这种大家都能猜到的剧情,真的会是替代写作的「能力」吗?

这就是刚才提到的那个「最关键的要素」——人工智能因为没有情感模块,它无法准确地处理一切受制于和源自于「情感」的事情,比如感情、人际关系等等。这就是为什么它没办法「准确地」解释「丈夫为什么会屏蔽妻子发布朋友圈」的原因——它只不过是在用逻辑推论说出了可能性。但现实中的人,却能够模拟出好几种作为丈夫的真实情感,甚至是「自我欺骗」的情感模块。


所以你觉得人工智能(就目前而言)真的能代替写作吗?

那么问题来了——如果这是一部小说,人工智能所想的那些「可能性」,已经是大部分人习以为常的,那如果是一部小说,显然不能被人工智能猜中:

抱歉,这位朋友和他的妻子,我说的只是小说而已。

onojyun

  • 没有更多文章
❌