@Lenciel

世间再无科马克

今天早班机,看到群里贴了首所谓「贾浅浅」的《清晨》。

没有查,就觉得是伪造的:因为黄是黄,但味道不太对。

倒不是说作家写性爱,就写得有多好1,而是那东西一看就不是专业作家的话语体系。

于是想起了科马克·麦卡锡(Cormac McCarthy)。顺手一查,居然在上个月过世了,而豆瓣上《天下骏马》的页面却还没更新忌日:果然是冷门巨匠。

很黄很暴力的东西不落文字,是有传统的。

从古希腊戏剧开始,这类情节就有统一的处理方式,叫「ob skena」,翻译成英文是「off stage」,也就是「不上台面」。因此,索福克勒斯写俄狄浦斯搞瞎自己,是通过一位使者报告给观众的。

这传统形成后,在古今中外坚持得很好。虽然外有但丁、纳博科夫、亨利·米勒、D.H.劳伦斯,内有南陵笑笑生、李渔等一众反叛者,不断突破表达的底线,但时至今日,即便是昆汀这样的导演在《落水狗》里安排 Mr Blonde 割人耳朵,也还是会乖乖把镜头拉远2——「ob skena」。

然后让我们来到科马克。

你大概率没有看过他的小说,但多半看过改编自它们的一些电影,比如被科恩兄弟拍成 cult 经典的《老无所依》,然后脑子里有 Chigurh 这样久久挥之不去的角色:

Don't touch me...

这就是科马克,特别是早期科马克的底色:冷漠、黑暗、暴力、情色,残酷无情。

并且,残酷无情得毫无歉意,以至于许多读者会觉得他令人不安。

以他最被推崇的一部作品,《血色子午线》为例。

这部在《纽约时报》发起的世纪最伟大美国小说投票中名列第二,被挑剔的哈罗德·布鲁姆评价为「自福克纳的《我弥留之际》之后最伟大的小说」,在 Amazon 上满坑满谷的一星差评3。其中被认可得最多的一条是:

the unrelenting amount of violence and cruelty in Blood Meridian strikes me as having crossed the line to pornography…

但我很喜欢他的文字4,因为眼前这个时代缺乏真诚和血性5,当然,这不是本文的重点6。我要说的是,如果你去搜科马克的生平,会看到他前五部小说完全被低估,加起来只卖出了 5,000 份左右的凄惨故事7

而要我说,科马克作为一名职业作家,运气好得不得了。

首先,他在生涯早期(七十年代到九十年代),拥有兰登书屋的编辑厄斯金(Albert Erskine)的支持。

这正好是出版业集团化之前,编辑在图书特别是小说出版上仍然享有绝对的影响力和话语权。并且,风格类似福克纳的科马克遇到的正好是做过福克纳的厄斯金。因此,他以绝对差的商业表现得以持续出书,还获得了一些奖金来维持自己的写作生涯。

然后,以 1992 年的《天下骏马》为界——这是科马克第一个有可以被正面宣传的主角的故事,也最终被拍成电影,并由马特·达蒙、佩内洛普·克鲁兹等大牌明星共同演绎——科马克开始收获大量的曝光和奖项,包括《长路》拿到的普利策奖,他自己拿到索尔·贝娄文学终生成就奖,以及《老无所依》拿到四座奥斯卡金像奖。

这背后,其实是踩到了商业化的风口:厄斯金退休后,兰登书屋器重编辑追求文学性的掌门人罗伯特·伯恩斯坦(Robert Bernstein)也被职业经理人阿尔贝托(Alberto Vitale)替代。科马克一度举步维艰,并最终通过新的经纪人阿曼达·厄本(Amanda Urban)签约了新的出版社:克诺普夫出版社

新出版社指派了一个营销团队(包括专职的 PR、设计、肖像摄影师),来包装和推广科马克。同样的商业化在整个行业都如火如荼:比如他的第一份手稿寄过去时,只有十来个人的兰登书屋,这时已经有几千名员工8

行业起起落落,科马克始终幸运,这也是喜欢读科马克的人,比如我,的幸运。

我常在看书的时候想,读到这本书是我和作者彼此怎样的运气?或者,它究竟是何来历?

比如,屈原真的在死前写了《怀沙》作为绝笔吗?他哪儿来的竹简呢?整篇《怀沙》以楚国的繁复文字,写到竹简上需要上百斤竹子吧?这没法随身带着,难道在投河之前,屈原砍竹子、削竹片,搞了一周?9

再比如,让博尔赫斯和卡尔维诺津津乐道的「庄周梦蝶」,应该也都是以竹简为载体,一路辗转前往阿根廷和意大利。但等他们读到时,仿佛我们看到的《一千零一夜》或《格林童话》,经过了怎样的咀嚼和改良?

同样的还有杜甫的诗,汤显祖的戏:大部分人看不到作者的原创版本,而是各种改编和善本。印刷和发行书的成本真正下来,已经是维多利亚时代。

狄更斯没想好,它究竟是最好的年代,还是最坏的年代。但它肯定是一个没有收音机和电视,更别说手机和网络,而大部分人已经识字的年代:历史的车轮滚到这里,写满家长里短恩怨情仇的长篇小说,才终于成为无数人经过一天的劳累后,释放情感平等幻想的终极慰籍。

现代小说的地位确立之时,也是书籍的制作和发行平民化之时。今天,当视频的制作和发行也已经平民化,生活里的诱惑就太多了。阅读作为消遣,大势已去,我甚至不觉得有多少人会读到这里。

少部分仍然坚持阅读的人,心中大概总有某种东西存留。区别无非是他们中有人能清楚描绘自己在书里寻找什么,有人只是抱着尚未消失的好奇和想像。

不过,虽然总还有阅读者在,科马克这样潦倒、缓慢而又粗野、残暴的作者,却再也不会有了。

RIP。

  1. 国内大部分作家,包括贾浅浅她爹,写得都不好,只不过胆子比其他人大一点。 

  2. 然而这个场景还是争议很大,被很多国家的发行版本剪掉了。 

  3. 哈罗德·布鲁姆本人也承认,他在前两次尝试阅读这本书时都没能读完,因为这个故事「太可怕了」。 

  4. 但千万不要去读翻译过来的中文版。 

  5. 好像英文里面有一个与之对应的说法,叫做「Namby Pamby」。 

  6. 世界被人类以丑陋的方式推向了崩溃边缘。同时,又塞满了过于俊美的甜美偶像,和《哈利波特》般低幼化的成人读物。科马克最后一本书《Stella Maris》里有一段话是对此最好的回应:「There was an ill-contained horror beneath the surface of the world and there always had been. That at the core of reality lies a deep and eternal demonium. All religions understand this. And it wasn’t going away. And that to imagine the grim eruptions of this century were in any way singular or exhaustive was simply a folly.」 

  7. 《Blood Merdian》也只售出 1,883 册,所以现在绝版书卖到了一万美金。1989 年,科马克甚至在给朋友的信中写道:「我做了 28 年的全职专业作家,但从未收到过版税支票。我敢打赌,这已经是一个纪录了。」 

  8. 整个出版业的集团化,后来愈演愈烈:兰登与企鹅出版社 2013 年合并,成为全球最大的出版商。2020年,企鹅兰登书屋中标收购美国第三大出版商,被司法部以反垄断为由阻止。 

  9. 这些问题指向一个更根本的问题:那个年代,除开一些特定的场合,比如祭祀或者外交,「书写」真的是一件平常的事情吗?显然不是。 

LLM 调研(5)- 尾声

本系列是,LLM 调研…说一下它能做什么不能做什么,能做的部分怎么做比较好。

目录

这是最后一篇。

LLM 的热潮过去了半年多,它究竟是「鹦鹉学舌」还是具备「智能」,甚至具备可以发展为「AGI」的智能,这一本质上的分歧还没有收敛的趋势。

IEEE Spectrum 为此专门搞了个计分卡,把 AI 领域的 22 位杰出领袖的意见做了一个整理:可以看到,以 Rodney Brooks、Yann Lecun 为代表的大部分人,还是觉得哪怕 GPT-4 也没有任何发展为 AGI 的可能。少数派主要是忧心忡忡的 Hinton 和 Sam Altman。

从我前面的文章大家应该知道,我肯定是站 Rodney Brooks 这一派的。不过,我认为目前最好的分析不是 AI 圈子给出的,而是伟大的1 Noam Chomsky 给出的

为什么那么多优秀的专家学者站在另一边?我还是觉得这跟神经网络起起伏伏 90 年,一开始就用了类似于「智能」、「神经」、「学习」、「推理」这样的词2有关。加上 LLM 让 NTP 的效果如此好,很容易让人有模型掌握了语言甚至整个世界底层运行机制,并「涌现」各种能力的错觉。

究竟有没有智能

LLM 体现的「智能」和人类的「智能」究竟有何不同,可以再简单说几句。

人类的智能有两个显著特点,即「抽象」和「泛化」能力3

GPT-3 的训练使用了数千亿个 token,与此相对,普通儿童听到的所有单词,不排重还不到一个亿

人类不需要那么大的数据量做训练,因为人擅长各种层次的抽象,并能够把抽象出来的认知泛化。

比如,你买一把香蕉告诉四五岁的小孩儿这是香蕉,从此以后不管是长的短的,熟的生的,黄的绿的甚至闷烂了发黑的香蕉摆在 Ta 面前, Ta 都知道这是香蕉。为什么说机器「学习」和人的「学习」完全不是一回事?因为你绝不会感到教小朋友某个东西,是在调 Ta 的参数。

除开上面这种还没有任何科学理论可以「解释」的抽象泛化能力,人还会使用数学工具进行抽象:我们通过勾股定律就能够从两个给定直角边算出斜边的长度,不需要灌大量的数据来形成一个参数庞杂的统计模型。

通过数学模型抽象后,我们同样会泛化这个模型的使用范围。并且,泛化的范围越大,代表这个数学模型的水平越高。比如,从开普勒三大定律,到牛顿三大定律,到相对论,就是在不同体系中越来越普遍地描述物体之间相互作用的关系。

有人会说,神经网络也是使用数学函数对数据集进行的压缩和编码,不也是「抽象」吗?这里有一个显著区别是,描述客观世界的「数学模型」,通常是可解释可推理的,有一套严密的因果关系。而神经网络的「模型」,通常是几十亿甚至几百亿的参数,在训练中海量的数据集为什么形成这些参数的权重和取值,没有人知道。

并且,用数学模型描述,符合「因果」的世界,老早也已经被推翻了。宇宙并不按照包括爱因斯坦在内的很多人类认为的那样运行,而是混沌的4

这就是关于「智能」的现状:往内看,人为什么具备这样的学习和思考的能力,并且功耗如此低,还没有一套理论去解释;往外看,世界拥有高度不确定性,也没有一套理论可以去建立因果关系。

但仍需要投入

把 AGI 先放一放,LLM 和其他 AIGC 的工具,说明训练一个足够大的神经网络来模仿人脑的一些功能是可行的,这本身仍然是一个巨大的技术突破。

作为技术决策者,最好的状态还是向 Andrew Ng 学习5。至少,你应该做一些具体的尝试并评估:

  • AIGC 相关能力,会不会成为现有业务的一个核心竞争力:
    • 比如创意类的工作,美工、广告、游戏、媒体等等;
    • 比如文本密集的工作,法务、保险、人事等等;
    • 别人有你没有会不会直接被踢下桌;
  • AIGC 相关能力,会不会让现有业务有比较大的降本增效:
    • 服务类工作:客服,呼叫中心;
    • 搜索和推荐:更准更高转化率;
    • 效率提升:信息的记录、聚合和归纳;

如果结合现有的业务类型,上面有一些点的答案是「有可能是」,那么你就得现在投入其中,并持续关注了:因为在暴力美学到顶之后,一定会有各路人马开始优化 LLM 从训练到工程的各个方面。大量今天 LLM 做不了,或者做起来太贵的事情,明天可能就变得可行了。

  1. 我感觉只能这么称呼他,因为他的成就是在太丰富了。维基百科对他的说法是:「美国语言学家、哲学家、认识科学家、史学家、社会批判家和政治活动家,有时被誉为现代语言学之父。是分析哲学领域的重要人物、认知科学领域的创始人…」 

  2. 所以 Ted Chiang 吐槽说,当年「人工智能(artificial intelligence)」这个词就选错了,应该叫「应用统计学(applied statistics)」。 

  3. 所以卡尔·萨根说:「科学不仅仅是知识体系;它还是一种思维方式」。 

  4. 测不准原理」意味着空间的每个区域都充满微小的虚拟黑洞,粒子和信息会落入这些黑洞并丢失。虽然这些虚拟黑洞非常小,比原子核小一千亿亿倍,因此信息丢失的速度非常低,让包括经典力学在内的科学定律看起来是确定正确的,但实际上,宇宙充满了不可预测性。 

  5. 他在各个地方都讲,这东西离「智能」还有十万八千里。但同时,也积极地推出相关教程,还呼吁让所有的小朋友都掌握相关能力。