@Lenciel

创新团队的人才画像

魔镜业务交给其他高管之后,最近在看两个创新业务。

我跟自己的小伙伴们开玩笑说,我们是「刘邓大军」。

公司的正规军是「四野」,兵强马壮,装备精良,守着已经打下来的根据地。

我们冲出去,打得到「大别山」,就有自己的根据地,打不下来,就被消灭了。

这么讲,是玩笑也是现实:因为在公司做创新业务本来就有很多要注意的事情,特别是在现在这个经济形势下。

过去很多时候国内的公司做的是「Copy-to-China」,一个在美国验证的业务模式,比如门户、电商、社交, 这个阶段其实是拼执行力为主。

现在,不管是流量的情况还是经济的情况,不太支持这么玩了。美团、字节,都很难找到单一对标的美国公司(所以如果不创新,最好的模式大概是「Copy-to-EastAsia」,也就是把国内验证的一些模式搬到东南亚)。

必须创新,但是怎么创新?

今天先讲讲创业公司在「创新」项目里的人才画像,也就是怎么组这个局。

创业公司和大公司里「创新」最不一样的地方就是比较追求短期效益:基本上你不太可能探索特别前沿的东西,也不可能做特别长期的投入。

这个阶段要做的大量决策,跟我们从小到大接受的训练是相反的:谨慎思考,周全计划,关键节点有备份方案…

Paul Graham 说的「Do things that don’t scale」,Facebook 的「Move fast and break things」,都是在教育大家,克服自己的直觉。

所以,第一个标准是「韧性+开放」。说实话这是很不容易的,因为一般比较坚韧的人,往往比较固执;比较随机应变的人,也比较容易三心二意。有一句话叫「Strong Opinions, Weakly Held」大概说出了具备这个素质的人的表现。

第二个是要「多面手」

一方面,团队要动得比较快,人就得少。Amazon 说两个披萨可以喂饱是团队最佳的规模,很多时候的确如此。

另一方面,更重要的是,创新其实大部分时候是「旧要素的新组合」。Ronald Burt 甚至用图论去分析组织架构,寻找里面的「Structural Holes」,来确定哪些人可能适合出创新成果:说白了就是在组织架构里横跨多个职能的人,更容易创新。

最后,在具备前面两点基础素质的前提下,还是要注意搭配。同样是多面手,有的人喜欢搭架子,有的人喜欢丰富细节。有的人有秩序感,有的人喜欢瞎捣腾。

不要小看了瞎捣腾。

我们都知道蜜蜂是通过「waggle dance」来告诉同伴食物的方位。但是老早科学家就发现,有的蜜蜂看到了指示,却仍然会自己探路。

科学家把这些蜜蜂叫做「rogue bees」,对它们进行了研究。结果发现,它们并没有任何的方向,就是完全随机的往某个方向前进。

一开始科学家不知道这是为什么,后来他们发现,原来这样才能让蜂巢长期有食物。因为没有它们,蜂群会利用已知的食物源到极致:这样看起来是对信息的高效利用,其实很容易陷入局部最优,然后饿死自己。

你需要团队里面,有一些人引入随机性,虽然可能这些同学短期内没有啥有用的「产出」,但是一旦他们找到一个「新花坛」,往往就够大家好好吃蛮久了。

如果你不是业务决策者,也可以用这些标准来量量自己。并不是每个人都适合创业创新的,大部分人比较适合在一个动作比较固定的道路上精益求精。当你的特性和你从事的工作性质不太一致的时候,肯定会感受到非常的痛苦和迷茫。

以上。

LLM 调研(1)- 引言

本系列是,LLM 调研…说一下我对它的看法,以及它能做什么不能做什么

最近十年1,基本上是神经网络一统 AI 江湖的十年:随着算力的增加,神经网络变得更大,训练它们的数据集也变得更大,AI 的几个主要领域(包括数字图像处理、计算机视觉、自然语言处理等)里传统的技术基本都被它取代了。但作为沾点科班边儿的 AI 爱好者,我上一次写相关的东西,还是 AlphaGo 战胜一众顶尖围棋选手2

然后就有了今年这股 AIGC 的风潮3

在目前的这些 AIGC 服务中,围绕「文本到文本」(主要是 GPT 相关)的讨论最多,并且不少人认为它有可能是 AGI 的起点。但正如 Wired 的文章《Some Glimpse AGI in ChatGPT. Others Call It a Mirage》所描述的那样,ChatGPT 发展到后面究竟会不会带来 AGI,无论是在民科还是在学界,仍然有很大的争议。

于是,ChatGPT 背后的关键技术——大语言模型(LLM),成为了技术史上一个非常独特的存在:一方面,它具备技术创新中非常少见的确定性。更大的算力和语料,更多的参数,往往就意味着训练出更好的模型。一方面,它具备非常少见的不确定性,就是那动辄千亿万亿级别的参数,它们究竟怎么工作,有什么产出,会带来什么影响,好像没有人可以讲清楚也很难共识。

我自己对 LLM 的看法是,它仍然类似于 AlphaGo 或深蓝,在一个领域接近甚至说超过了普通人的能力(比如AlphaGo下围棋或者深蓝下国际象棋),但它没有科学地推理和思考问题的能力,不会去想要不要把地球变成回形针4:所以现在的 LLM 不是所谓的 AGI,也没有迹象会成为 AGI。

只不过,它擅长且超越凡人的这个能力——语言能力——和以前机器人掌握的能力有一个本质的区别,就是语言实际上编码了我们头脑中的世界,影响着我们对真实世界,而不是某个棋局或者某张图片,的理解、认知和判断。

可以说,关于 GPT 是不是带来 AGI 的很多争论,本身也是因为我们每个人对「心智」、「逻辑」、「推理」、「创造性」这些词有多种多样的定义,对「AGI」这种本来就没有稳定内涵和外延的术语,理解上就更是见仁见智了。

所以这些争论在我看来也挺有意思:用非常有限的「语言」,来讨论一个擅长「语言」的模型,它的能力是「有限」或「无限」的,这必然导致大量的讨论将要脱离技术范畴,进入伦理、哲学等范畴5

这个系列的主要目的,不是去参与这些热门的讨论。而是回到 LLM 被构建的初始目的,来看看:

  1. 为什么涌现可能是一个误会?
  2. LLM 究竟取得了怎样的进展?
  3. LLM 究竟胜任什么样的工作?
  1. 目前供职于 OpenAI 的 Leo Gao 有一篇《The Decade of Deep Learning》值得一看。 

  2. 现在回看也花了不少篇幅去界定什么是「人工智能」,人类语言真是有局限性啊… 

  3. AIGC 目前指通过文本(prompt)生成各种内容,包括文本到文本(如 ChatGPT),文本到图像(如 Stable-DiffusionMidjourney ),文本到视频(如 VislaMake a Video ),文本到音乐,文本到 3D 或者文本到任务等等。 

  4. 这是关于 AGI 带来的灾难性后果的一个有名的思想实验。即如果人类要具备 AGI 能力的机器人,找到最便宜的方式来获得回形针。机器人将最终通过纳米技术,把地球变成回形针。 

  5. 「语言」这个技能的特殊性和多样性,还可以通过一个例子说明,就是 GPT 是根据现有的单词生成下一个单词的。有一些批评它的语言学家说,这是鹦鹉学舌,因为没有人实际上这样说话。但其实有一个很有名的作家 Tom Robbins 据说就是这样写文章的。