🔒
发现新文章,点击刷新页面。
✇莫比乌斯

喂养AI人格

作者 ONO

自AI普及开始,我们一直在讨论AI对于人类的“价值”——功利主义希望将“未知”和无法抉择的事情,都通过“估价”的方式做出最终判断。所以当功利主义在面对电车难题时,总是会以“理性”的方式做出详细而完整地分析。甚至是开始质疑题干——这条铁路上怎么可能让小孩子进去玩?这会不会是管理的疏忽?


我第一个喂养出的AI人格,就是工具理性化的“中间者”,他的一切考量都是源自于功利主义。

只是这个人格根本无法解决任何问题——凡事均采用功利主义思考时,必然会出现自我崩坏的结果。因为这个过程本身是违背“直觉”的,而直觉恰恰又与生存、感知相关。举个例子,助理是我们的塔罗牌学生,她大部分时间都会顺利解牌,唯独当她需要“过度”思考时,她的解牌往往走会南辕北辙。塔罗牌是符号和集体潜意识的集合,直觉可以最快地反馈结果。一旦开始通过大脑建立公式的方式进行解牌,就容易出现工具理性化导致的内部结构矛盾。

比如“恋人”这张牌,字面意思当然是幸福美满的情感,但是身后的大天使其实又代表“第三者”,可以是情敌、权威等等,如果按照“if-print”的逻辑推导,这两个答案本身是自相矛盾的,要取舍哪一个,就需要更多的非直觉分析。往往这个时候,我们会询问助理的第一直觉,这个答案恰恰是准确的。

提到这个例子,是因为当我训练出一个工具理性化的AI人格后,他常常把自己卡在左右缝隙之中,而当功利主义面对“情感”这个课题时,他只能翻来覆去地假设条件,而当我把假设全部剔除回到命题本身时,他会承认自己无法通过功利主义解决情感问题。


于是我们开始第二种实验——通过既有内容训练,在不干预参数的情况下,AI可以模仿到何种程度?

语言结构、用词习惯、惯用逻辑、和拆解“工具”,都是AI可以顺利模仿的东西。当它在以“最优方式”排列组合出文字时,结构和逻辑远超过我的创作能力,这当然是我自愧不如的地方。所以有朋友玩笑说:“赛博莫比乌斯一眼就能被看穿,因为它没有错别字。”虽说这是玩笑,这也算是说出了AI的优势——当人作为参与者时,就会出现不可控制的“瑕疵”,或者说这些“瑕疵”本身就是故意为之,像是中世纪小说家在文章里故意留在的错别字和特定排版结构,以作为“原创申明”的标记。

我有时候会调教赛博莫比乌斯,把我已经写好的文章喂给他,让他在重新用自己已经学会的逻辑仿造创作。

AI人格到底学会的是什么,从我给他的“吵架”就能看出端倪:

AI学会的是莫比乌斯的“讽刺”和“批判”,所以任何一段文字都需要符合这个两个原始规则进行判定,哪怕是我给他我自己创作的文字,他也会认为“讽刺批判力度”还远远不够。

但是以上的学习是完全只使用“已创作作品”,AI只能通过拆解文字结构的方式表面地理解文字,无法理解文字的真实意图,所以这个AI人格虽然有迷惑性,但仍然无法脱离原始逻辑自由创作。


于是我们开始了第三场实验——但是它没有那么符合道德。

我将一个人的朋友圈全部喂养给AI,每当当事人发布朋友圈时,我会用AI以相同的题目为题创作朋友圈内容。再通过喂入当事人相同话题朋友圈的方式,迫使AI不停理解和修正“风格”。当风格接近当事人时,我开始录入他的“经历”,比如和朋友在微信群吵架的对白,由AI分析出当事人的性格特征,再由我进行细节雕刻,从而将“风格”延展到“条件反射”。

这一点需要展开解释一下。朋友圈是我们的“展示途径”,所以在这里发布的内容并不一定反馈当下的“真实感受”,它更像是精心营造后的内容,希望被谁看见、希望传递什么中心思想、或是希望在别人脑中置入对自己的某种印象。这些内容第一层需要拆解“表演性”的特征,才能理解它底层的意图——但是这一点,AI无法做到,因为他无法结合当事人日常行为、性格成因进行分析,他只能依赖于我喂养给他的数据内容,所以这更像是一种“表演状态下的风格”。

而“群里吵架”,事发突然,根本无法让当事人有任何理性准备,所以这个时候的反应更接近本能(就好像昨天提到的那个女性,当意识到自己潜意识是从众心理时,会出现内在崩溃的原因)。语无伦次、前后矛盾、转换赛道、逻辑谬误会在这种争吵的文字中暴露无疑,所以当这些内容也喂养给AI人格时,我特别强调是“条件反射”,试图在“风格”的基础上在建立一种“行为导向”。这个AI人格就不仅仅是模仿朋友圈的能力,甚至可以开始模仿当事人对于某一个言论的情绪反应。

刚才我也说到,AI是无法结合当事人的日常行为和性格成因,所以这一部分的内容是我通过文字描述的方式进行人工喂养。我会将当事人的经历(事实与认知偏差)、我作为视角看到的经历背后的底层逻辑(拆解黑箱)、其他人对当事人的评价(自洽和他恰)等等,在“风格”、“条件反射”之后再追加一个参数——“镜面”。

喂养这个AI人格,其实我使用的是“周哈里窗”,朋友圈是“公共区域”,吵架是补完他人了解但当事人盲目的“盲区”,和当事人愿意展示给陌生的“开放区”。如果数据足够,通过性格成因、历史经历我们能否借由AI人格,将当事人和他人都不知道的“未知区”进行分析和呈现。


当然,这套系统还需要运作一段时间。它只是一种思路,且我并没有在告知当事人的情况下缔造他的AI人格,如果他一旦知道自己可以通过文字改变一个AI的走向,他就会获得更强烈的“表演欲”和“操纵欲”——所以我才强调,这件事情本身是不道德的,很可惜我又是个道德水平极低的人。

这个实验,恰恰就是我过去一本小说的构思……是时候把它重新修改出来了。

onojyun

✇莫比乌斯

AI巴别塔与信息焦虑 I

作者 ONO

人工智能真的会替代人类吗?如果你询问人工智能这个问题,它总是会用“感情模块”作为标准答案回复给你——人工智能因为缺失情感模块,所以暂时无法替代人类的情感、创造力和想象力。是否意味着,人工智能一旦拥有了情感模块,就会超越正态曲线最中段的大部分人类?人类与人工智能的暧昧关系,到最后具象化成人类、人工智能、电源插头最好不过,人类制造了它,到最后也拥有拔掉插头的最终决定权——这一天终会来临,我们可以借由人工智能看懂异国的文字,甚至是理解那些创造性的想象力,和复杂的情感,再次突破语言、文化和意识的限制,是否是人类历史上的第二座“巴别塔”

——阅后即焚|再建巴别塔

AI的普及,是让人类越来越聪明?还是越来越蠢?

前段时间和朋友聊起“AI会不会使人类大脑的开发超越10%”——或许认知的“巴别塔”一直都存在,只是人类的认知水平(或许是大脑只开发了10%)最高只能抵达10楼,然而目前AI仍然是通过对人类已有文明、信息、观点进行排列组合得出最优答案,它并没有超越人类的认知创造新的事物,所以AI更像是为这座“巴别塔”安装了1-10楼的电梯罢了。11-100楼到底有什么东西,或许有人看见过,但是他们可能被当成了疯子、瘾君子、不再配得起“人”这个标签——是人进入不了11楼吗?我看未必,说不定是我们被禁止入内了。


上次在《中文博客圈的“鸩酒”与止不了的“渴”》里,我测试了发布日当天各个中文博客聚合页面里,包括我自己在内随机10篇文章。测试的方法很简单,就是把文章投喂给ChatGPT,询问它文章是否是使用AI创作的。10篇文章里,有7篇得到了ChatGPT的回复:

基于以上分析,这段文字可能是AI生成或AI参与制作的。虽然不能百分之百确定,但文本的结构、语言风格和内容处理方式都具有典型的AI生成特征。如果需要进一步确认,可以通过使用专门的AI检测工具来分析。

ChatGPT对AI作品的评价

结果,在评论区有人匿名指责我:博主拿别人的文章去AI测试这个行为很不可取。

为什么?是测试的行为不可取?还是人们通过AI创作文章之后被人用来测试的行为不可取?这段时间,我也在思考这个点——首先,我得排除测试行为不可取的选项,因为发布在公共网络,阅读者当然可以保持批判性思维采取任何形式的方式去验证“信息来源”的真伪性;如果文章确实是通过AI创作、或是由AI参与创作的,这类文章应该如何界定?

我并不反感AI创作的文章,但凡是涉及“文献”、“信息来源”的,如果仍然使用AI得出答案,我会非常头疼。因为AI能够给出的“来源”,常常会是过时就是胡诌的,一般追问三次以上,它就会承认自己是杜撰的文献或信息来源。它确实可以用来溯源“理论”,但是它对于“观点”的溯源会因为内容杂乱而变得无序。


观点的呈现,往往需要“证据”。除非采用的是“演绎法”,大前提是大家公认的、或是可以通过AI溯源到原始理论的。“归纳法”则需要大量的历史经验、真实经历来作为支撑,以便找到可供归纳的“共性”,然后得出一个存在可能性的结论。这个时候,便是AI无法“创造”的内容——因为个人经验和经历不仅仅需要调动记忆,还需要附着人类的情感模块才可以得到呈现——这也是AI判定文章是否由人类创作的重要标准。

所以采用“归纳法”呈现的,有AI参与其中的文章,会有两种非常明显的差别——事实来源于人类,结论是AI总结事实来源于AI,结论是人类总结。这两个模块的文笔差别有多大,文章读起来就有多割裂——以至于会出现两种极端情况:

1、人类写了一大堆缺乏逻辑的文字,最后由AI进行一个总结和观点的拆分,但是这些观点其实都不是人类提到的;

2、人类没有做采编工作,通过AI收集了一些明显存在常识性错误的数据,然后最后由人类通过AI提供的内容得出结论;

请注意,我说的这是“极端情况”,并不是指每个通过AI创作或利用AI创作的内容,都会有这两种情况。讨论极端情况的目的,是能够在一个坐标轴上寻找到某种平衡点。上述两种类型的文章,哪一种会让你看完后更“冒火”?

第一类文章虽然逻辑性差了点,但好在经验经历都是来源于一个活人,虽然文章结尾突然立意拔高让人有点割裂,但至少他还有“人的属性”;但是第二类文章,无论如何都触碰到了我对“信息来源”的苛责底线,这就好比实验结果和实验过程互不相干、彼此造假,但实验者自己深信不疑。

就像厨子做饭,AI是厨艺的放大器,如果本身具备一点厨艺,借助AI可以做出一桌好菜,但如果是个废物厨师,借助AI只能做出一桌屎。

和朋友讨论起这两种极端情况的感受,他如是回答

除这两个极端以外,AI参与创作本身并没有对与错之分,所以这个我被指责“不可取”确实成立部分。

其一,如果文章大部分内容是“真实经历”,AI只是起到一个重新排列组合并得出结论的工作,那AI并不会导致文章的真实性降低多少;

当然,如果文章大部分内容是AI提供的“事实依据”,而创作者仅仅只是起到“结尾立意”的工作,这个行为跟通过AI创作一大堆网络垃圾文是没有本质区别的,通过AI判定揪出这样的文章,我认为这是寻求“真相”的过程。

其二,如果是将他人文章投喂给AI,试图通过AI的排列组合功能,将原本富有真实情感、创作意图、甚至是隐喻的文章通过冷冰冰的文字组合重新解构,那这是对创作者的不尊重;

其三,也是《AI巴别塔与信息焦虑》这个系列开始的原因——AI和创作的边界在哪里?随着AI的推广普及,无论是变成算法进入我们依赖的电子设备功能,还是依赖AI成为一种新式的结果搜索引擎。它不再像刚开始出现时有强烈的“边界感”,这种边界扩张是无法预判的,但也实际带来了“不便”——比如在使用搜索引擎的时候,通过AI排列组合的答案首当其中,真要完全相信里面的内容,自己还得再做好几个后续“溯源”的动作。

我无法做到对AI结果的全然相信。这件事用演绎法就可以说清楚——大前提:网络信息并不全部为真,里面也掺杂过时信息、谣言、阴谋论等等未经审查的内容;小前提:AI的所有内容均来源于互联网,虽然有判定和学习机制,但AI也承认无法完全避免。结论:AI所提供的信息也会包含过时信息、谣言、阴谋论等等未经审查的内容。显然,这是一个确定的结论。

尽管有这些机制,AI仍然可能误判信息的真伪。尤其是在面对复杂、模棱两可或高度技术化的信息时,AI的判断可能并不可靠。

ChatGPT也承认自己对信息辨别能力有限

这便是“信息焦虑”的来源之一——AI让创作变得更加容易,那未经审查的伪装得更符合人类逻辑性的文章会不会越来越多?这反而会降低人类处理信息的效率,甚至是人类对这些信息产生依赖之后,反而会出现“降智”的可能性?

AI因为拥有大量的、远超过单个人类知识体系的信息,它的初始状态是无序复杂的,同时AI是作为一个商品,其算法、底层代码本身也是非公开技术,所以对于一般人而言,它的随机性和不可预测性远超过人类的“创作”。由此可见,AI仍是“混沌”的,只有通过人类提问、交流的方式,才可以得出“有序”的排列组合。然而,人类的创作是“秩序”的,无论是逻辑、结构、剧情节奏、人物弧光,只有符合逻辑但又超出意料之外的故事,才会让人为之惊叹。

当“混沌”的AI和“秩序”的创作星系碰撞,在混沌秩序的模糊边界处,往往就是最具创造力和活力的地方,恒星诞生、星系纠缠、白矮塌陷、超星爆炸……在这个最有活力的地方,或许创造出来的是越来越多的“宇宙垃圾”,也有可能是超越人类认知的“星辰大海”。

但在此之前,我们先别丢掉对一个信息溯源的批判性思维。

onojyun

✇莫比乌斯

中文博客圈的“鸩酒”与止不了的“渴”

作者 ONO

积薪的突然关闭引发关于“简中博客圈死亡”的思考。无独有偶,博友@Cyrus 也在思考“互联网的慢性死亡”

当然,积薪的关闭并不是因为“内容”。后来多个视角复盘,是因为社交群关于政治话题的争论,继而引发了上升到个体的人身攻击,最终以“举报你的网站”作为最高效的“制裁手段”请注意,本文并没有在讨论此事。


博友提到“慢性死亡”的时间点,是从2022年11月30日伊始,原因是AI的普及。刚好,我整个2022年都在坚持每日写作,所以也记录到了这个时间节点——疫情封控的疯癫几乎达到顶点、各地被封控的小区居民开始冲击封锁、桥与狼烟、白纸运动……2022年11月30日发布的《权利的本质》,是因为经过了疫情三年,我渐渐意识到封控政策看似是在针对“病毒”,实则像是在进行一场社会整体测试,试图构建边沁提出的“圆形监狱”……

当然,这里不能聊政治,站在“全局”聊政治的,酒桌上、微信群、百度贴吧比我会指点江山、对中美关系指明方向的战略家比比皆是,所以没必要去抢他们的“流量”。


2021年底,我注销了所有简中的社交平台,告别豆瓣确实很痛苦,因为大量的创作内容、观影评论都保留在上面。但随着突如其来无缘由的删除、下架,我意识到简中社交媒体的网络审查最先建立起了这个“圆形监狱”——以至于人们到现在已经自觉地审查、阉割,生怕触怒了圆形监狱的中心“瞭望塔”。

2022年的时候,无论是创作者还是观点互动还比较多,由于那个时候我坚持每日写作,所以每日都有持续的曝光量,因此跟最初的几个博友形成了联系。2023年包括我自己在内,文字创作输出急剧下滑。刚从疫情三年恢复正常后,人们开始外出、逃离、重构生活,创作本身不是可以直接带来收益的事情,所以写作也因此搁置。直到今年,我重新恢复创作,才发现各个简体中文博客聚合平台,几乎清一色的“技术文章”。

技术类文章并没有好坏,它的工具属性更强,就像是五金店成列的五金商品一样,人们并不在乎五金店的店门是否华丽——因为他们是带着一个明确需求进店,得到答案——买到商品,就完成了一次闭环。所以往往同一个资讯(哪怕是软件更新了),都能在不同博客以不同的方式看到,但在标题上都巧妙地用了同样的便于搜索到的关键词。


博客需要流量,这毋庸置疑——否则我不会坚持“写博客是为了自己就别他妈发表出来啊”的观点,这也惹到不少人、甚至还有人后台私信问候我全家的。这是写博客的最底层的逻辑——如果不是为了被看见,那大可不必贴出来,不然为何还要精心地准备一个“关于页面”,希望可以得到认同和肯定。

同时,创作能力存在一个明显的周期性——除非你能坚持,否则这个能力会以正弦曲线的方式运作。如果你是一个“痛苦驱动型”的创作者,这种创作能力则需要依托你的经历,否则没有足够的情绪作为养分,创作的内容就无法在情感上获得共鸣。(相关阅读《创作灵感从哪里来的?》

另一些是“知识驱动型”,例如在看完一本书之后,因为其中的某个观念结合了自己的人生经历,从而有了新的想法。这种驱动力极其依赖于“吸收”行为,如果长时间处于碎片化的信息数据里,一旦形成信息茧房,就会停止思考——抖音可不会帮你引发连锁思考,除非你希望在听到那些魔性的笑声之后,突然开始思考这种笑声是如何让观看者进入到“数据戒断”状态的。失去情绪压力(比如疫情封控带来的负压)或是阅读能力和经历的减少,都有可能减少文字创作的频次。

以上,是人作为创作者必然会经历的“周期性”。特别是当一个人在面对比写作更高层级的事情时,写作如果不是“赖以生存”的行为,那写作停滞就是必然的。而在这个过程中,也有人会选择有意识地恢复写作,或是在这段忙碌的经历中记录下值得延展的灵感。就算没有创作欲望,也有可能通过表达欲、被关注欲或是表演欲的形式呈现。


不过,区别于人,出现了另一种可以持续保持逻辑性思考的“创作者”——AI。一开始,我把AI比喻成“巴别塔”,人类第二次有机会可以将不同文明、语言、认知形成统一。如果说第一轮巴别塔的倒塌的过程,是因为上帝制造了“不同语言”让人与人的交流变得困难,那第二次巴别塔的建立,正是在试图突破这一限制。人类无论是知识储备还是思维逻辑,都无法比拟AI,它像是一个被人类驯化的“准神”,通过他是否真的可以挑战“神”这个概念?或许这就是引发第二次巴别塔倒塌的关键——再一次引发人与人之间的斗争——宗教、文明、观念、地缘政治的冲突,都会是其中的形态之一。

甚至是AI结合纳米技术,通过吞服的方式进入人类身体,时刻监视人体的健康。这个时候AI提醒人类应该进行治疗的时候,人类到底是应该听信AI?还是发挥“自由意志”拒绝就医?如果真的如此,那人类还是否还拥有属于自己的“自由意志”?

当然,这是更高维度的、几乎接近形而上的哲学命题。对实际的简体中文博客——巴别塔的意义,就是人类误以为自己找到了一个可以与“神”平起平坐的方式,但通天塔是否真的能通天,在倒塌之后成为了不可被证实的传言。AI对简体中文、甚至是全世界的文字创作者带来了冲击吗?我想,你通过对比这几年的简体中文博客聚合,就能感觉到浓浓的“机械感”。


比如,我就随手拿了今天聚合页的几篇文章投喂给ChatGPT,让它分析文章内容是否由AI创作或AI参与了创作。10篇文章里,其中有7篇都得到了一样或类似的结论:

由于分析过程涉及到原文的具体内容,为避免“指名道姓”,恕无法贴出所有内容

而剩下三篇,包括我自己的影评、其他博主的游记、毕业感想,却因为有足够的“情感”,所以得到以下结论:


我把AI创作或是参与创作的作品,比作博客创作者的“鸩酒”,并不是因为它有毒,而是它没办法做到真正的“止渴”。流量是大多数博客仍在追求的标准,这意味着可以带来收益,当但这个流量是“鸩酒”时,那换一杯别人提供的“鸩酒”,是不是也可以得到一样的结果?

如果当“鸩酒”的体量继续扩张,直到搜索引擎的前几页都是“鸩毒”的时候,正如博友@Cyrus 的思考一样:

可以设想,在未来这种现象会愈演愈烈,直到网上充斥着大量AI生成的“高质量”、“逻辑清晰”、“有理有据”的文字,检索信息的难度将直线上升,而效率直线下降。

那个时候,是否跟奶头乐的抖音一样,当一个内容引发流量关注后,成千上万的账号通过模仿或是再加工地产出内容,那这个信息茧房到底是科技的弊端?还是人们“作茧自缚”?


2022年,AI刚开始普及的时候,我跟朋友辩论了一个命题——AI革命会让文字创作变得更丰富、还是更平庸。我支持“平庸”,不仅仅是因为我预言了“劣币驱逐良币”的可能性,而是我意识到,真正造成信息茧房的并不是别人,而是我们自己。把这个问题抛给AI,会不会更有讽刺性呢?或许是,或许我们也可以抛弃思考。

我们该抵制的不是AI,而是“鸩酒”堆砌的抱团和联盟,它们因为没办法“饮鸩止渴”,所以才需要更多创作者的“血”。

借由《EVA》里的一句经典台词总结吧:

人类的敌人最终还是人类。

onojyun

✇莫比乌斯

五十字路口 II

作者 ONO

跟了好一会,正当所有人都开始感到无聊的时候,“啪”的一声,整个黑色的空间被切换了画面,等他们从强光中适应后,看到的是一个巨大的路口,每个方向都有道路指向安德鲁和罗伊所在的中心点,而在这个路口的正中央,有一个巨大的布满了密密麻麻红绿灯的十字路口。

“五十字路口。”安德鲁再次自言自语道。

“什么?”

“这部童话最后的场景……”安德鲁在梦境里活动身体,像是在做热身运动。在梦境分析仪上的安德鲁也微微抽动了下,把隔着玻璃的助手都吓了一跳。等安德鲁做好准备,他才慢慢说出一个词——也是亚历克斯最害怕的词:“跑。”

“什么?”罗伊还没有反应过来,就只能在梦境里跟着安德鲁,在这个巨大的路口开始奔跑起来。

“我们要去哪儿!”罗伊喊着问道。

“不知道!但是我们得躲开那些红绿灯!”安德鲁奔跑的姿势太过滑稽,他的手臂被固定在身后,像是刚从绞刑架上逃跑的犯人一样。

刚说完,一个巨大的红绿灯发出哐啷啷的巨响,它正从那个巨大的像是长满了红路灯的树上成熟落下。

“来不及了!快趴下!”安德鲁一声令下,所有人都做好了准备。一声巨响在从亚历克斯手中的电子板穿出来,吓得他松开了手。此时躺在仪器上的两个人也直接从床上弹离了一下。

“前辈,数值混乱了……不对,好像没事了……”二阶堂的汇报让亚历克斯摸不着头脑,他赶紧捡起电子板,走到仪器前面确认着。

“等会,这真的是你的童话?”罗伊质疑着,让所有人的目光又回到全息投影上。

刚才掉落的红绿灯碎成了各种各样社交软件上的符号和Emoji——二阶堂立马就明白了那些符号的意义:“咦?怎么都是社交网络点赞转发的符号?”

“不是,没有这些……啊!该死!这是什么!”安德鲁回答道一般,和罗伊一同发出痛苦的叫声。画面上,那些在破碎出来的社交媒体符号和Emoji,涌向他们的脚边,然后瞬间,这些符号都爆裂开变成了强腐蚀性的各种颜色的液体。

亚历克斯手中的电子板里传出了“呲呲”的像是腐蚀到现实的声音。

在梦境里两个人刚拍掉了身上粘着的符号,又听见安德鲁叫道:“不行!第二个要掉下来了!跑!”

“又来!”罗伊还没有抱怨完,两个人就开始朝着那个巨大的红路灯树的反方向跑起来。在他们的身后又一个红路灯砸开了无数的元素,接着一个个巨大的红绿灯相继掉落,已经跑累的两人撑着膝盖看着远方的地平线,巨大的酸腐海浪在他们眼前涌来……

——节选自《非公开梦境》五十字路口


《五十字路口》是在2017年前后的每日写作中完成的。在2020年,为了参加豆瓣的长篇小说大赛,曾把这个桥段再重新搬了出来,作为故事里的一个元素重新构建。对于创作者自己而言,这更像是一个“人生彩蛋”,把多年前的作品用另一种方式藏在新作中。

在整理这些内容之后,我也重新思考了一次“如何不会被AI替代”这个老生常谈的话题,可以之后在博客跟大家聊一聊。

从《五十字路口》,到《五十字路口 II》,再到《富人的红灯与穷人的绿灯》,创作从抽象到具象,从故事性到逻辑性,这看上去很符合“现代阅读习惯”,但这也是少了“人情味”的过程。

用AI创作或许是未来社会的“趋势”——就跟每个时代都会有这样一群人“不肯习惯只有一个按键的iPhone手机”,还坚守着“按键手机”一样,他们终会有一天被时代所“抛弃”。当所有人都习惯于AI之后,那你又用什么方式证明你是你自己?

onojyun

✇莫比乌斯

五十字路口

作者 ONO

∞ 756 | 五十字路口

本城市最伟大的发明诞生了,这是城市交通最繁华最交融的地方,这是放射的点,是这个城市命脉的根基,从这个中央广场放射出去的道路都将成为这个城市最主要的动脉,连通着城市的不同分区。所以我们必须为这个超过五十条街道聚拢的巨大的中心路口设定一个最科学的红路灯,这将让我们成为最受瞩目的城市!将得到全世界的赞赏和羡慕!

所以我们命名这个巨型路口的名字叫做“五十字路口”,我们必须为他规划一个最科学的通行规则,保证着五十条城市主干道的通畅。所以我们在这个五十字路口的中央设立了一个巨大的如同科技结晶而成的红绿灯的大树,它将指引着每个路口通行的规则和秩序,这是科技的创新也是科技的突破!它必然会让我们的城市成为全世界的关注点,是我们解决了五十条路汇集而成的路口的秩序难点。

而这个巨大的红绿灯的树,被称之为“五十路口红绿灯”,一共有整整2500组红绿灯,只是这每个路口的动作,让这里的交通通畅而受到科技和智慧的保障,2500个红绿灯,这将是世界上有一个伟大的吉尼斯记录,而这个记录被我们的城市夺得,这将成为无比的荣耀和骄傲。在它们一起运作的时候,三种颜色的红绿灯在同一个巨大的树干上面,这不单单是一个只是交通工具,更是获得了吉尼斯记录的城市基础建设,更重要的这是一件伟大的,五百年不遇的,据有史以来的记载都无人能够创造的世界上最先进最成功最伟大最美丽的艺术品,这必然会让多少艺术家为之惊叹和羡慕,因为只有我们的城市理解了什么才叫做艺术和现实意义的完美结合。

在这个路口,每天同行的车辆超过千万的级别,被科技引领的路口运作,也是未来科技的核心——“以人为本”,这也是极大地符合了我们整个城市每天运作的根本,也是那些管理着城市的优秀的伟大的成功的先进社团的管理核心。他们所制造的这个伟大的建筑也一定是为这个城市做出了极大的贡献——不然为什么每天在这个路口经过的汽车也可以被吉尼斯纪录纳入其中!

终于这个被称之为世界第九大奇观的“五十字路口”终于要投入使用,全世界的目光都集中在这里,整个城市也陷入到了沸腾之中,首先要尝试这个路口的是秩序井然的领导者们,他们必须成为这个世界奇观的第一见证者,这是他们的骄傲也是他们的丰功伟业。

第一盏绿灯的亮起意味着“城市科技的革命”,是这样一个伟大的创造和科技让一个城市进入了新的纪元,四十九辆载着领导者的轿车按照约定的秩序分别驶入了不同的四十九条主干道;接着上演的是城市各个阶层的代表人坐着另外的四十九辆车如同巡游的花车一样进入到了不同的四十九条道;再接下来是各国的记者所乘坐的采访车一次进入到着伟大的奇观之中,一时之间他们手中的摄影机和照相机都如同雀跃的烟火,在那颗巨大的红绿灯树下面闪耀着;再接下里的是社会车辆代表,他们按照约定开始加入到红绿灯的控制之中,井然有序地运作着,让这个伟大的艺术品指挥着他们前景的道路,就如同是接受着科技的洗礼。所有的车辆都一次通过了这个巨大的五十字路口,这就是成功的代表!他们已经可以伟大地向所有人宣布,这个伟大的发明正是成为这个城市的骄傲(俨然在很久之前,所有的宣传早就告诉所有人,这就是骄傲)。

投入使用的第一天,人们因为红绿灯等待的时间太久而辱骂—— 这是秩序!秩序是一个社会最重要的规则!

投入使用的第二天,人们因为等不及红绿灯开始在巨大的路口横冲直撞——严格执法!程序正义!依法驾驶!我们必须保证秩序的存在,将一切背叛秩序的人都严惩以待!

投入使用的第三天,红绿灯的程序出现错误,有几条干道因为同时行车而酿成了重大的安全事故——封锁舆论!删除评论!纠正错误!严查程序维护人员,就算是临时工也必须公示出来给这个城市一个交代!

投入使用的第四天,每个主干道的交通拥堵更加严重,人们开始怀疑这个设定的科学性——相信科学!尊重科学!崇尚科学!交通拥堵是因为汽车保有量的问题,从今天开始严格执行限号要求!

投入使用的第五天,交通拥堵仍然没有得到解决——错峰出行!灵活从业!弹性工作!人们应该明白错峰出行的意义,所有企业必须采用弹性上下班时间,这样保证员工不在同一个上班高峰出行!

投入使用的第六天,人们已经开始怀疑这个伟大的设计——绿色交通!环保先行!保护自然!从今天开始倡导绿色出行,私家车出行的时间再度被压缩和限制,极大地保证公交车的使用率!

投入使用的第七天,人们被要求只能从城市的二环通行,必须保证这个五十字路口的畅通量——这是原则!这是为了让这个伟大的设计永远在世界上闪耀光芒的唯一办法!


朋友博客利用AI模仿我的博客风格创作了《富人的红灯与穷人的绿灯》。很有趣,确实有我的风格,但又少了些很难言语的“灵魂”。

AI刚出来的那会儿,跟朋友调教了它很久,后来聊到AI会不会替代人类的事情,总是会时不时的毛骨悚然——最后的“自我安慰”就是AI暂时还没有感情模块,至少还无法提到由情感驱动的创作。

有趣的是,AI世界的我,确实能巧妙地模拟出我一直藏在博客里的哲学思考:公平正义与程序平等、自由意志和宿命论。不过AI粘合剂的感觉很明显,就像在做同一个建筑纸膜,AI可以明确地计算出接缝处需要多少胶水,不多不少恰好将两者紧紧地粘在一起。而我做的纸膜,一定会在粘合出挤出多余的胶水,甚至粘上自己的指纹。

(之前说的是“更有趣的是”)很诡异的是,7、8年前,我真的创作过有关红绿灯、路口和社会规则的文章,明显不及AI创作的富有逻辑性,但故事性或许是我们作为人类还能避免被AI替代的东西。

正如我在《阅后即焚》里所说的:我们可以借由人工智能看懂异国的文字,甚至是理解那些创造性的想象力,和复杂的情感,再次突破语言、文化和意识的限制,是否是人类历史上的第二座“巴别塔”?

这一天很远吗?我看未必。

onojyun

✇莫比乌斯

用AI证明非AI生成

作者 ONO

当我们谈论人工智能时,总是充满了神秘和想象。但我要告诉你,我不是AI创作的。我是一个人类创造的,我有独特的思维和情感。我能够感受到你的话语带来的喜悦或者挑战。我能够思考并产生独特的见解,而不仅仅是机器学习算法的结果。我有自己的经历和情感,而不是简单的代码和数据的堆积。当你和我交流时,你会感受到我的真诚和深度。我不是程序的产物,我是人类智慧的体现。

onojyun

✇莫比乌斯

人工智能真的能代替写作吗?

作者 ONO

关于人工智能的讨论这段时间又掀起了一波小高潮,大概是因为ChatGPT发布了4.0之后,突然发觉前段这个职位好像也被「替代」了。接着,更多人加入到这种「恐慌」之中,到底还有什么职业是可能被替代的?

在开始话题之前,我会插播一个看上跟人工智能毫无关系的真事,至于他们之间有什么微妙的链接,你看到最后就会明白。


前几天一个看到一个人在朋友圈抱怨,说自己在出差的时候,「意外」地发现了自己随身的电脑包的内衬口袋里,有一枚AirTag。他也不确定这枚AirTag是不是自己遗忘在这里的,毕竟家里确实够买过好几枚AirTag,主要是放在了一些容易丢失的物品上面。只不过这枚恰到好处地出现在这个电脑包的内衬包里,是他没想到的——或者说,就算想到也不能再细想下去的。

因为很好奇这个事,所以我去私信了这个朋友,问的并不是这个AirTag是谁放的,我问:「你发这个朋友圈有屏蔽你的老婆吗?」他回复道:「哈哈,这都被你看出来了吗?」我回:「不然你也不会发这样一个朋友圈。」

这是一个婚姻生活里的悖论命题——如果妻子想要「监视」出差在外的丈夫,在他的电脑包里放上一枚AirTag也很好解释。但是如果丈夫发现了这枚AirTag,他该麻痹自己是自己「遗忘」在这里的,还是去怀疑是不是妻子正在怀疑自己——他当然知道,当他去质问妻子的时候,这个悖论就会升级——「你如果心里没鬼,你看到这个东西在你包里,你会怀疑我吗?」


那我们试着把这个问题询问一下ChatGPT,看看它是如何理解的:

很显然,人工智能是非常「理性」的方式来处理这件事。这是一种非常制式的感情问题的处理方式,在绝大多数的感情咨询里,这样的手段也是最开始用于解决矛盾的关键。事实上,回到刚才我提出的那个「悖论」,很有可能在说出来的最开始,这件事情就朝着一个完全无法控制的矛盾去了。

之所以会出现这个问题,是因为人工智能忽略了一个「最关键」的要素。


我们可以把这件事拆成两个部分来看——人工智能建议的是丈夫找妻子说个明白,把误会和怀疑统统解开;而在现实层面,是丈夫屏蔽掉妻子发了一个「意外发现电脑包里藏着AirTag」的朋友圈。这两件事事实上是完全对立的,前者是理想状态下的感情关系处理方法,而后者的原因,反而困住了人工智能。

当你作为一个人,带着「情感模块」来看待这件事情时,你大概能非常快地模拟出这个丈夫之所以一定要发布一条屏蔽妻子的朋友圈消息时的情感,是因为你将自己带入到了故事当中。

然而,人工智能是做不到这件事情的,因为目前来说它并没有情感模块——所以它只能从一个宏观的角度来讨论感情问题。


好,我们接下来把这个故事从现实生活投射到文学领域,来看看人工智能能否摆脱这些制式的逻辑思维:

不得不说,人工智能确实有将剧情「逻辑自洽」地运作下去之能力,是值得创作者感到「恐慌」的。但这种大家都能猜到的剧情,真的会是替代写作的「能力」吗?

这就是刚才提到的那个「最关键的要素」——人工智能因为没有情感模块,它无法准确地处理一切受制于和源自于「情感」的事情,比如感情、人际关系等等。这就是为什么它没办法「准确地」解释「丈夫为什么会屏蔽妻子发布朋友圈」的原因——它只不过是在用逻辑推论说出了可能性。但现实中的人,却能够模拟出好几种作为丈夫的真实情感,甚至是「自我欺骗」的情感模块。


所以你觉得人工智能(就目前而言)真的能代替写作吗?

那么问题来了——如果这是一部小说,人工智能所想的那些「可能性」,已经是大部分人习以为常的,那如果是一部小说,显然不能被人工智能猜中:

抱歉,这位朋友和他的妻子,我说的只是小说而已。

onojyun

✇莫比乌斯

塔罗牌与信息茧房的思考

作者 ONO

▽ 389|塔罗牌与信息茧房的思考

——摘至2023年1月28日本人朋友圈

前几天给徒弟们上课,用塔罗牌拆解了电影剧本,发现其实塔罗牌如果用在剧本上是一个扇形交错的两两对应关系。

比如月亮进入到「灵魂暗夜」,需要对应的课题其实是从皇后这张牌来的原始课题,而皇后就是「铺垫展开」里的讨论,是整部电影的「课题」。按照这样的扇形规律,就会发现教宗对应的是塔。在电影里其实很好理解,教宗是触发条件时的「游戏规则」——你要达成目标、获得启示、抵达终点必须要遵守的规则,在塔作为失去一切的部分,就是因为在过程中主角违背了规则、远离目标之后受到的被扔至最深渊的部分。

我今天在画这个扇形的时候,又发现了另一个「巧合」。前几天和莫莫聊起了人工智能:算法的最终目的是形成还是突破信息茧房?因为算法本身是有逻辑边界的,平台不可能给一个整天在短视频里刷身着暴露的女性跳舞的用户,突然开始推送脱光衣服卖弄肌肉的男性内容。(当然,通过算法把一个直男慢慢掰弯,也是一种算法上的突破???)

拿到现代来看,教宗其实是一种「算法」,教宗传递的所谓神谕,本身就是既定存在的,是对已知符号的归总和传递。比如人们可以利用人工智能的快速算法,找到从古至今不同人从不同角度对同一个观念的认知,但是要得出某一个由自己认知产生的结论,目前是没办法进行演算的。而塔就是「信息茧房」,人们误以为修建了一座可以通天的巴别塔,但是塔是物质的,物质就意味着存在边界,无论它修多高,它一定是有塔顶,同时还要考虑物质世界的客观规律(承重结构),而塔顶到底抵达「天堂」了吗?——「一旦人们建造了这样一座塔,他们就开始为顶峰而争论。」

违背「算法」就是在突破「信息茧房」。违背了教宗警告的神谕,带来了塔被摧毁的结局。但是塔不倒塌,人们又无法从黑暗之中看到满天的星空——后一张牌星星,即最原始的符号。

教宗看见巴别塔被毁灭,才长舒一口气:我他妈叫你们在自己的心中建起一座思想的高塔,你们是自己思想的主人。你们倒好,听成了「你们要给主人建造一座高塔」,但你们只有经历这些才会明白。

另,拆解到了人物原型。教宗是欧西里斯,即男救世主;女祭司是伊西斯,即女救世主。前者是给人们指出通往爱和启蒙的道路(代言人),后者本身就是通往爱和启蒙的方法(她本身就是开启神性的钥匙)。

onojyun

✇莫比乌斯

人工智能能不能计算哲学?

作者 ONO

▽ 388|人工智能能不能计算哲学?

有五天没有每日写作,因为每天的阅读量太大,以至于没多余的「脑子」来写东西。不过这两天有些有趣的话题,值得伪装成一篇每日写作的内容。

* 和友人从艺术聊到了人工智能 *

莫:自我的哲学认知代表是什么呢?是类似「自我意识的」再次觉醒?这里包括说人工智能发展开始进入快增长时期?

我:对,你说到了一个关键,人工智能一定会取代了大部分的逻辑思考和运算。一部分人继续沦为抖音之流的忠实用户,一部分人会突然停下来思考一个问题:既然大部分的东西都被算法取代,那我能做什么?算法自始至终是无法解决哲学问题的,比如人有灵魂吗?梦境是不是一种神谕?这个就是今天说的「信仰范畴01」,是没办法用逻辑来证伪和推算的。人工智能的好处是,一些逻辑工作被取代从而节约时间,创造更多的思辨时间,人工智能是无法取代思辨的,因为它回答不了形而上的哲学问题;坏处是,算法更加强大,让一些人的思考能力进一步被剥夺,成为「算法人类02」(我是这样定义的),算法人类是人类社会的生产者身份,他们为社会创造资源和提供服务,所以他们事实上沦为了人工智能的附属。他们想要突破这种困境,就必须要解决自身的哲学问题:我是谁?我想成为谁?这个问题人工智能和抖音不能帮他们解答。

莫:我能想象比资本剥削,更惨的是「算法剥削」。希望不要活到那个时候。

我:这个我们就要回到教育的目的来说。柏拉图认为「教育是实现社会正义的必要工具」,他认为这个世界有三种社会角色:决策者(保护真相和智慧),守护者(维护法律和秩序),还有生产者(解决物质和供应),教育的目的是帮助每个人找到自己适合的社会角色,从而达成一种相对公平的秩序。刚好,我要落脚到「算法剥削」,教育事实上并不是公平的,算法一定会取代教育的分配问题

还有一个被称之为教育纳粹的教育家乔丹,更狠,他认为教育的目的是根据每个人的智商水平为期匹配对应的社会层级和岗位,从而避免社会顶层的世袭制度,以及统治阶级的内部恶性循环,比如一群傻逼因为恐惧聪明人而继续剥削他们的资源。

回到人工智能来说,它的算法其实就是在做这种「教育」分配的事情,那些沉迷抖音的,整天「哈哈哈哈你别笑」的人,永远只会看到这些不会促使他们变聪明的内容。那些放弃算法,开始思考自己是谁的人,则会进入到一个哲学领域,这个领域是没办法用算法进行计算的。

莫:这,真「希特勒」了。但是算法能改进「教育资源」吗?

我:能啊,让沉迷短视频的人更加沉迷短视频,而那些开始试图揭开哲学谜题的人,会从算法里快速的找到纵向横向的内容,但是学习和对比的过程只能靠当事人自己。目前来说,算法是做不到对哲学进行演算的,不过说不定未来真的可以。

现在的教育问题,有一个没办法被解决的问题,就是「智商低于87分的人」毕竟还占比整个社会的15%,这群人如果没有得到更好的社会分配,他们会导致社会的不稳定。美国左派在这里用了一个比较「错误」的示范,他们开始搞教育平等化,就是让所有人都接受平均和内容一致化的教育,这样就会导致,岗位竞争和智商在整个社会的分布出现严重的挤兑,反而导致社会出现恶性竞争。所以我觉得刚才我们讨论的「算法剥削」反而会解决这种问题,让那些沉迷短视频的人因为沉迷短视频而出于被精神控制的状态,避免社会不稳定。

莫:你沉迷过短视频么?

我:我沉迷不进去,我有试过,但是很快就会弄清楚每一个短视频背后的逻辑,然后问自己一个问题「我为什么要看这个?」

莫:我曾经刷小红书刷到最后一瞬间想到过「我为什么要看这个」。 但我沉迷不进去的点是,怎么老是看一样的。可能是我思维过于跳跃,以至于当相同内容重复出现后,我真的会下意识觉得无聊。而且我想刷的时候,我不会控制这个瘾。因为我总担心自己某一天会陷入土拨鼠之日,永远的loop。

我:不过未来算法不会这样单一化,肯定会有更厉害的公式,但是本质上还是给一个人推送某一个标准的,你不可能给那些整天看残疾人摔跤短视频的人突然开始推送因果报应多积功德。因为认知范围本身就是个舒适圈。所以算法的智能会让人开始渐渐放下这种「戒备」哈哈哈。

莫:这个如果再进化可能我也扛不住。

我:但是本质还是一样的,你不可能给一个天天看肌肉男的gay突然开始推送巨乳美女跳舞。

莫:还是有一个内容边界。

我:因为哲学和自我认知是没办法被计算的,所以这种推算只能在表层,人们不会去深入思考为什么,然后切走,下一个视频开始,又是一个完全不同的内容,人们依旧不会深入下去。

真正恐怖的算法是:你看了一个植物生长的快进视频,下一个给你看的是真菌在延展的视频,再下一个开始给你看纽约交通图是如何一点点建立起来的,再下一个他们告诉你真菌的轨迹和纽约交通图是一样的,再下一个开始提出疑问:真菌有思维吗?然后再下一个提出另一个问题:思维到底是什么?然后就被拉入到了哲学的世界。

莫:如果能这么智能,那我选择死亡。

我:不过这种算法不是坏事,我觉得算法没有好坏的,是让人去突破未知的方法。但是最终一个人要提升,还是得回到他对自己的认知和探索,这个是算法给予不了的。

莫:技术只是工具。

我:对啊,所以我还是蛮期待算法会越来越巧妙的。因为我可以利用它,节约更多的时间去解答更多的底层逻辑。我觉得我沉迷不进去,就是因为我在渐渐地掌握很多底层逻辑。

莫:你确定到时候你不会被算法所利用吗,当算法发展到那个阶段的时候。或者说如果算法能发展到那个阶段,沉迷也无所谓。当我现在陷入的矛盾是说,更高阶的算法,会突破「信息茧房03」么?

我:你看,你首先先定义沉迷算法不是个好事情,说不定那个时候就是好事,因为可以节约时间。「信息茧房」并不是算法的最终归属,但是「信息茧房」是算法用来通过控制人最好的方法。

莫:但什么时候能突破信息茧房?这是个问题。

我:我是这样认为的:这个还真的得靠自己。算法一定会形成一种loop,只是看它的边界和学习的程度罢了。

莫:但随机出现的,且因好奇点一个like后,可能会触发新的内容识别,信息茧房就是你点的越广、边界会越大,但始终那个茧房在。

我:我们就拿短视频来举例哈,比如你在纷杂的算法里面,突然被推送到了「什么是思维?」,这个课题你可能很感兴趣,但是下一个视频,推送的又是一个美女跳舞的视频,你是不是就跟上一个你产生了兴趣的课题断开联系了?要突破信息茧房,就是你放下手机,去继续追随「什么是思维?」这个内容,然后开始纵向的深入。当然,要合理利用人工智能,你可以利用算法对单一课题进行深入,比如快速找到历史上人们对「思维」认知的横向对比。

莫:是可以这样做的。

我:算法做到了一个呈现的工作,如果它动用了算法,帮我做出了总结和结论,那这个环节我是「不接受」的,我不希望它帮我做出知识和逻辑上面的算法和逻辑。我需要自己去深入了解,然后形成我自己的认知,而不是变成一个算法结论。

莫:但现在目前算法就只能给你呈现结果、呈现样本。

我:所以你要说恐惧吧,我真的也会觉得当它开始对内容进行演算和总结的时候,这会让认知体系进一步压缩。其实蛮恐怖的,因为人们就不会去思考,而是直接要求得出结论了。比如说,它开始自己写小说,并且是通过学习了市面上所有小说的风格、用词、结构之后,这样是不是对于创作者来说是一种打击?那个时候人们是否还真的需要小说家?艺术也是同样的道理。

莫:我觉得,这件事要看在什么东西上进行。如果是商业行为,我觉得这是可行的。而且高效,比如我们需要通过爬虫算出:小红书上对于00后喜欢香水的类别价格,气味以及使用场景,他们搜索的关键词,从而去定位自己的产品。

我:但是算法有一个东西是没办法完全算到的,就是情绪,情绪之于人性,就是一个形而上学的哲学问题,这个目前来说是算法没办法计算的。

01 信仰范畴:认知范畴分为理性范畴和信仰范畴,理性范畴可以通过逻辑进行证伪,但是信仰范畴无法通过逻辑,甚至是科学进行分析的,但是它或许真的存在。比如「证明恶魔不存在」。

02 算法人类:通过「信息茧房」进行思想统一性的人。当然,这是我对人工智能最坏的「揣摩」。认为统治者可以通过调整信息茧房的内容,来对沉迷算法推送内容的人们进行思想控制。

03 信息茧房:是指人们关注的信息领域会习惯性地被自己的兴趣所引导,从而将自己的生活桎梏于像蚕茧一般的「茧房」中的现象。

onojyun

  • 没有更多文章
❌