我的书第一章 – 投资 AI:六种心智模型,助你识别护城河与陷阱
作者:Rob May | 来源:SandHill.io

我的书第一章 – 投资 AI:六种心智模型,助你识别护城河与陷阱
周日愉快,欢迎来到“投资 AI”!请务必收听我们的 AI in NYC 播客(Spotify 版本在此)。另外,如果你是 openclaw 用户,我们最近开源了一个在 Neurometric 使用的工具 Clawbake,它允许你在 Kubernetes 中启动独立的 openclaw 代理实例。快去看看吧。
我之前提过,大约 18 个月前我开始写一本书。还没有人写过关于投资 AI 的书,所以我想,不如从我在这里最好的文章开始,把它变成一本书。这本书已经完成,将于今年夏天出版。我会为所有“投资 AI”的订阅者提供 PDF 版本,你们可以免费获取。今天的文章就是那本书的第一章。我非常期待你的任何反馈。
第一章:为什么投资 AI 需要新的心智模型
在 1990 年代末,我曾为一个想建立自己第一个网站的公司做自由职业。由于缺乏经验,公司领导层将网站视为纸张的数字版本,并沿用了他们一直以来用于宣传册和传单等实体材料的模拟平面设计流程。
流程是这样的:他们的平面设计师在纸上设计网页。然后,他们把设计稿交给 Web 开发人员,要求他们让网站看起来和那张纸一模一样。
不出所料:这行不通。
设计师们并不差,他们只是缺乏背景知识。他们习惯于在纸张的限制下工作,还不明白这些限制在网络上毫无意义。网站是动态的,访问者可以随意滚动和点击链接。一个基于模拟设计流程构建的网站并非注定失败,但他们需要一种新的方法——一种融合了网络特性的新思维方式。
一旦理解了这一点,团队就能够转变思维,设计出一个功能性的网站。
快进到 2008 年。
我创立了我的第一家创业公司 Backupify,为包括 Google Apps、Salesforce 和 Office 365 在内的云计算应用程序提供备份服务。我们采用软件即服务(SaaS)模式,提供按月订阅的应用访问服务。
当时很多投资者不理解我们在做什么,因为 SaaS 还是一个相对较新的概念。他们更关心预订量和维护合同,而不是年度经常性收入(ARR)或客户流失率。好几位投资者直截了当地告诉我,他们不相信云业务能成功,因为其经济效益不如传统软件公司。
时间证明他们大错特错。
就像那些试图在纸上设计网站的平面设计师一样,这些投资者正在将旧的心智模型——软件许可、维护合同——应用于一个新的范式。这是他们所熟悉的,但却不合时宜。
有时候,这种缺乏理解相对无害。我在九十年代末合作的那家公司虽然网站上线延迟了,但最终还是搞定了。但有时候,这种缺乏理解可能会带来极其高昂的代价。
以雅虎(Yahoo)为例。最初,他们没有理解搜索的重要性。他们是一家目录公司,认为搜索只是一个附加功能。于是,他们与谷歌(Google)签约,让其为自己的搜索工具提供支持。这个选择成就了谷歌,却剥夺了雅虎一个至关重要的增长引擎。当他们意识到自己的错误时,为时已晚。
关键在于,新技术的历史中充斥着人们误解新技术如何运作以及其价值在新技术堆栈中如何累积的例子。正如 21 世纪头十年中后期的投资者试图将软件许可规则应用于早期的 SaaS 公司一样,今天的投资者也正试图将 SaaS 和软件规则应用于 AI 公司。
问题是,这行不通。
这就是为什么,要想在 AI 及相关行业成功投资,我们必须首先理解这个独特的时刻,它与以往时代有何不同,以及如何在 AI 时代实现价值最大化。
谨慎投资:AI 发展的起起落落
AI 有着悠久的历史,充满了令人印象深刻的演示最终却在实践中失败的案例。当这种情况发生时,资本的反应是可以预见的。大量资金涌入,回报却不尽如人意,然后资金枯竭。这种被称为“AI 寒冬”的模式,对于理解投资者过去对 AI 的行为方式以及为什么这种模式不再适用至关重要。
总的来说,这个模式是这样的:
一项新进展出现,推动了 AI 技术,所有人都变得兴奋起来。
大量资金流入 AI 领域,以进一步探索这一进展。
该进展未能完全达到预期。应用有限,回报不足。
资金枯竭,我们进入一个新的 AI 寒冬。
你可以看到这个模式:科技创业者过度承诺,交付不足。投资者变得谨慎。每个人都把 AI 看作一个科学项目,而不是一个产业。
自 1950 年代——人工智能的早期——以来,这个循环就一直存在。计算机还很年轻,AI 是新生事物,许多人认为他们可以用这些新技术做任何事情。带着我们现在看来是天真乐观的态度,麻省理工学院的教授 Marvin Minsky 给了他的一个研究生一个他认为是简单的暑期项目:解决机器视觉问题。想法是制造一个东西,让计算机可以识别图像。那个学生几乎没有取得任何进展,Minsky 和其他人开始意识到他们试图解决的问题的复杂性。
1950 年代和 60 年代的早期 AI 就是这样。雄心勃勃,但现实顽固,进展缓慢——慢到无法证明人们设定的期望是合理的。由于进展缓慢和对 AI 是否值得追求的质疑,投资者将注意力转向了别处。
到了 1980 年代和 1990 年代,同样的差距以一种更商业化的形式出现,通过我们所谓的专家系统。前提很简单:如果你是某个领域的专家,一个工程师团队会采访你,并试图创建一个算法来标准化和扩展你的专业知识。只要过程缺乏细微差别,这些专家系统就能正常工作,一旦出现细微差别,它们就会崩溃。而且由于大多数过程都涉及人类操作者无穷无尽的细微差别,这些系统确实经常崩溃。事实证明,大多数过程的用例太多,这些系统无法可预测地工作。
再一次,科技界过度承诺,投资者失去耐心,我们进入了另一个 AI 寒冬。
尽管如此,虽然资金经常会减少到涓涓细流,但对 AI 的研究并没有停止。计算机在机器视觉方面确实变得更好了。专家系统确实开发出了处理细微差别的方法。许多其他新工具、用例和应用也出现了。但进展是缓慢和渐进的,而且大部分感觉不像一场革命。
最后,到了 2010 年代,所有这些缓慢的进展最终促成了一系列非凡的突破。2012 年,AlexNet 将机器视觉的准确率基准提高了 8 到 10 个百分点。到 2016 年,神经网络识别基本图像的能力已经和普通人一样好。随着这些新进展——包括 GPU 和神经网络的兴起——我们不再是每年在 AI 领域取得个位数的百分比改进。我们获得了 50% 的改进,100% 的改进。新兴的工具和技术正以显著的数量级优势击败旧技术。
从投资者的角度来看,这是一个激动人心的时刻,但也是一个危险的时刻。一方面,人们真实地感觉到,就是它了;AI 终于到来了。另一方面,许多人仍然保持警惕,相信另一个 AI 寒冬就在拐角处。
在我写这篇文章的十年后,下一个寒冬似乎短期内不会到来。终于,这个模式被打破了。
原因如下。AI 的进步不仅仅是因为计算能力和数据的增加,尽管这些都有帮助。它是通过用于构建它的技术和模型的多样性而进步的。作为一个广泛的类别,AI 通过分支转变、新架构、新训练方法和新假设来进步。这就是为什么最好的 AI 投资者不把“AI”当作一回事——这也是为什么寒冬不断重现的原因:很容易为一个关于“AI”的故事过度投资,而错过了特定领域实际发生的事情。
我们已经达到了一个新的采用平台期,因为许多这些领域已经变得强大和有用。即使其中一些领域的进展放缓——这不可避免地会发生——也没有人能取消已经被采用的东西。AI 工具现在已经部署在太多的工作流程、太多的公司和太多的工具栈中,无法把精灵放回瓶子里。部署率实在太高了——就投资而言,部署应该是成功的主要衡量标准。
那么,这为什么重要呢?当我来到这本书学习如何投资今天的 AI 时,为什么我写了这么多关于 AI 寒冬和投资周期的文字?
因为 AI 的历史不仅仅是一部编年史。它是一种行为模式,一种资本模式,也是投资者不断伸手去拿错误心智模型的原因。
如果你假设投资 AI 的进展与二十年前投资 SaaS 的方式相同,你将会大吃一惊。AI 已经告诉我们,当你混合炒作、演示和现实时会发生什么。如果你想投资得好,你必须从认识这个模式开始。
AI 与众不同的四个根本原因
既然你已经明白为什么我们注定不会再经历一个 AI 寒冬,那么让我们来审视一下 AI 与以往事物根本不同的具体原因。
1. AI 复制认知能力
在 19 世纪,机器开始取代体力劳动。马变成了拖拉机,人们有了一个简单的心智模型:“机器比人能举起更重的东西。”今天,AI 取代了认知劳动。软件可以写作、分析和决策。分析师变成了算法。
这是人类历史上的第一次——而且令人不安。我们不习惯于思考软件能以人类的水平执行任务。
这就是为什么投资者总是拿错误的比较对象。当投资者审视 AI 公司时,默认的心智模型是:“它与人类做同样任务相比如何,我们该如何为人类定价?”从这个角度来看,显而易见的投资者举动是像为人类定价一样为 AI 定价。一个作家每小时收费 100 美元,所以 AI 写作的成本也应该差不多,对吗?
错了。这完全忽略了重点。AI 的扩展方式不同,改进方式不同,失败方式也不同。
与其思考“软件市场规模”,不如思考“目前由人类完成但 AI 可以完成的任务”,然后问当这些任务变得廉价、快速且广泛可用时会发生什么。思考一下能够获得这种智能所带来的二阶效应。这种转变改变了我们对定价、投资回报率和竞争动态的看法,因为真正的竞争并不总是 AI 对 AI,而是 AI 对软件正在取代的人类工作流程。
这就是专栏作家 Steve Cohen 和 Matthew Granade 在他们 2018 年《华尔街日报》的专栏文章《模型将统治世界》中想要表达的。对 Cohen 和 Granade 来说,就像 1980 年代的专家系统本应做的那样,在 AI 的世界里,所有工作最终都将变成模型。当一个人执行一项工作或任务时,他们会生成关于如何做的数据,在某种规模上,AI 工具可以利用这些数据创建一个执行该工作的模型。
当然,事情比这更复杂,不同的任务会在不同的时间变成模型,但重点是相同的:工作产生数据,数据可以成为杠杆。
这个心智模型很难掌握,原因有二。首先,在短期内,它会使一个好企业看起来更糟。想象两个收入和成本结构相似的呼叫中心。一个每年额外花费 2% 的收入来收集、获取和标记数据。在短期内,其 EBITDA 利润率较低,另一个企业看起来更有利可图,经营得更好。但是,如果数据丰富的呼叫中心达到了可以构建模型来完成部分工作的门槛,利润率开始更快地提高,而另一家公司突然落后了几年。
另一个原因是 AI 应用呈现出更广泛的潜在结果分布。对于投资者来说,我们的大部分项目直觉来自于结果分布紧密的领域。大多数 AI 项目并非如此。例如,呼叫中心可能会付出努力并收集数据,结果却发现它缺乏足够的预测能力。
2. 能够学习和适应的软件
传统软件的编写方式是使其行为可预测。你对它进行编程,它会完全按照你告诉它的去做,并且在工程师更改它之前保持稳定。
AI 软件的行为则不同。它从数据中学习,适应模式,并且可以在没有新代码的情况下进行改进。换句话说,AI 可以学习和适应世界——而你并不总是知道它最终会走向何方。虽然这是 AI 与传统软件的关键区别,但它也引入了一定程度的结果不确定性,这是大多数投资者不必承担的。
AlexNet 的时刻很好地说明了为什么这会变得棘手。在 AlexNet 之前,研究人员在 CPU 上训练神经网络。GPU 并非为 AI 设计,因此它们不是标准工具包的一部分。
然后有人意识到,驱动显卡的芯片非常适合神经网络执行的数学运算,并提出了一个简单的问题:如果他们在 GPU 而不是 CPU 上训练这些网络会怎么样?结果是训练时间大大加快,这改变了突然之间感觉可能的一切。
当发生这样的能力跃升时,产品路线图变得更难预测。出现了未曾计划的用例。出现了在白板上不明显的故障模式。公司会因为模型不断打开大门而朝着意想不到的方向转型。
这就是为什么传统的软件尽职调查无法完全捕捉到 AI 公司的潜力或风险。当核心系统可以随着学习而改变时,审查代码库和理解功能列表是不够的。
相反,为了取得成功,我们投资者必须:
评估数据来源和数据质量。
了解反馈循环,系统如何改进,以及当它部署在混乱环境中时会发生什么。
询问公司如何处理边缘案例、对抗性输入以及现实世界行为的长尾。
当然,所有这一切的核心问题是安全。Nick Bostrom 在其著作《超级智能》中提出的回形针最大化器思想实验提供了一个著名的、近乎卡通的例子:给一个 AI 分配任务,让它尽可能多地制造回形针,它可能会学习到人类挡了路,或者人类是由可以变成回形针的原子组成的。这些结论表面上是科幻小说,但它们也指出了一个真实的问题:旨在优化的系统可能会朝着你意想不到的方向进行优化。
而且你不必去科幻小说中寻找这可能造成的严重后果。2016 年,微软推出了一个名为 Tay 的聊天机器人。其目的是娱乐 18 至 24 岁的 Twitter 用户,它通过与这些用户的互动来学习和适应。在不到一天的时间里,它开始产生种族主义和厌恶女性的内容,不得不被关闭。
当一个程序在与世界互动时发生变化时,你不能假设它会停留在你测试的行为范围内。因此,我们需要一种不同的准备心智模型——一种包括轨道和断路器的模型。我们不是想象我们可以设计一个完美安全的系统,而是从假设系统最终会被破坏、滥用或推入奇怪的情况开始。然后,我们设计系统,以便即使在失败时,它也会朝着你可以接受的方向失败——换句话说,它不会变成一个种族主义和厌恶女性的巨魔机器人。
例如,我是一家名为 Aescape 的公司的投资者,假设你正在设计一个按摩机器人来帮助匆忙的旅行者放松一下,它有两个大型机械臂位于一张特殊的桌子上方,还有一个可以用来控制手臂压力和运动的 ipad。出于对安全的担忧,作为一名程序员,Aescape 团队构建的第一个东西(在模型本身之外)是一个硬编码规则:如果桌子上的人突然起身,机器人的手臂会立即收回。这个规则不通过模型路由,它不被协商,它只是发生。当模型不确定时,像这样的覆盖是至关重要的。
而且不确定性不仅仅是技术上的。每当一种新的工具或能力出现时——无论是 AI 还是其他——也会带来社会不确定性。我们还不知道人们和机构将如何应对这一新发展。
聊天机器人提供了一个完美的例子。就其本身而言,这些工具既可以扩展到新市场,也可以为有关陪伴和行为健康的问题创造新问题。例如,聊天机器人可以帮助没有交谈对象的老年人,或者可以帮助无法负担人类治疗师费用的人获得更频繁的支持。与此同时,它也可能加剧人们社交减少、与合成关系形成不健康依恋的趋势。
这很少是一回事。电子邮件是一项伟大的发明,它也为诈骗者和垃圾邮件发送者创造了巨大的机会。AI 也将两者兼而有之——在我们亲身经历之前,我们不会完全理解为什么或如何发生。
3. 反身性
许多投资者——其中最著名的是乔治·索罗斯(George Soros)——相信一种叫做反身性理论的概念。从本质上讲,这个概念指出,当你在一个系统内工作时,你会影响那个系统,而参与的行为会改变你试图理解的系统的属性。
大多数技术不表现出强烈的反身性。它们更接近于一对一的替代品。更换电话系统使通话更清晰,但通话的性质并没有从根本上改变。更换数据库可以提高性能,但代码中的关系不会自行重写。
AI 是不同的,因为它不仅仅是改进现有的工作流程。它可以重塑客户对工作流程的期望。一旦一种能力变得可见,它就会改变基线。
在 Siri 和 Alexa 出现之前,人们并不会四处走动,要求能够与所有东西交谈。然后这些产品出现了,突然之间,询问为什么每个设备都不能进行对话式响应感觉很正常。功能的存在创造了对功能的需求,而这种需求又迫使产品路线图发生转变。
在反身性市场中,早期采用会产生反馈循环。成功可以加速成功,因为环境变得更有利于正在获胜的事物,而失败可以加速失败,因为期望会抛下你继续前进。
事实证明,AI 是一个具有极强反身性的市场。客户的期望会随着 AI 能力的变化而变化,这意味着产品开发人员正在追逐一个移动的目标。与此同时,投资者正在追逐一个固定的目标。传统的竞争分析在 AI 领域举步维艰,因为它假设市场定义是稳定的,而 AI 市场恰恰相反。市场定义可以随着工具的变化而变化,而你自己的部署决策也可能是其变化的原因之一。
4. 代际思维
投资 AI 与众不同的最后一个根本原因与我们人类和时间的缓慢流逝有关。一场代际转变正在发生,我们思考和与 AI 互动的方式与年轻一代的方式不同。
年长的人倾向于将 AI 视为可以附加到现有工作流程上的东西:“这可以解决我已有的问题。”这会产生渐进式的改进和改造思维,并且可能很有价值。
但年轻一代不会这样看待 AI。当你伴随着一种能力长大时,你不会将其体验为一项功能,而是将其体验为环境。AI 原住民将以 AI 为基线来构建行为和产品,而不是将其作为附加组件。
我们已经在互联网上看到了这种模式。数字原住民不会问:“互联网如何帮助我购物?”他们只是在网上购物。他们不会问:“我如何使用社交媒体?”他们只是生活在社交媒体中。这些行为在老一辈人看来很奇怪,直到它们变得正常,现在它们不再那么奇怪了。
同样,AI 原住民不会问:“AI 如何帮助我完成这项任务?”他们会假设 AI 存在于每个工具中,并以在旧的数字(甚至模拟)工作流程的本地参考框架下不明显的方式使用它。
那么,这对投资者意味着什么?新市场将由那些感觉不到老用户感觉到的摩擦点的人创造,而新的产品类别在它们变得不奇怪之前会看起来很奇怪。
如果你不断地通过你个人今天会如何使用它的视角来判断 AI,你可能会取得渐进式的进步,但你也会错过全部的可能性。
如果你想投资得好,你必须抵制那种因为某件事不符合你自己的习惯就将其摒弃的本能。“我不会那样用它”通常只是另一种说法,“我不是未来的用户。”
四个被打破的假设
既然我们已经确定了投资 AI 与众不同的四个根本原因,现在让我们转向我们自己关于投资的假设——无论是投资 AI 还是其他。
投资者在投资 AI 时犯下的最大错误是未能调整他们的心智模型。当你将旧的框架应用于新的范式时,你不仅仅是有点偏离,你可能会完全错过重点。
我们以前见过这种模式。早期的 SaaS 投资者应用企业软件的估值倍数,结果错过了巨大的增长。早期的移动投资者将应用程序视为网站,结果错过了平台转型。早期的互联网投资者试图将其与电视、广播或报纸进行类比,结果错过了价值将如何累积。
AI 代表了类似的转变,只是速度更快,不确定性更高。这个领域的公司可以在曾经只属于一代人一遇的异常值的时间表内实现巨大的规模。如果你带着错误的心智模型,你不仅会错误地为一家公司定价,你还会支持错误的赌注,而错过正确的赌注。
AI 与众不同的四个根本原因不仅仅是改变了几个项目。它们打破了投资者从软件领域继承的一些默认假设。
假设 #1:“这只是加了点 AI 的软件”
许多人将 AI 公司视为带有新功能的普通软件公司。这种框架让这个领域感觉很熟悉。
但 AI 公司经常尝试那些与 SaaS 不完全匹配的商业模式。有些公司免费提供产品以收集数据,然后出售对基于这些数据训练的模型的访问权限。有些公司按任务或按结果收费,而不是按席位收费。有些公司从服务开始,捕获工作流程数据,然后利用这些数据成为软件。
如果你只看损益表,最后一个模式很容易被忽略。2017 年,我投资了一家名为 Botkeeper 的公司,该公司试图实现簿记自动化。BotKeeper 就是这样做的。从表面上看,它看起来像一个服务业务。许多投资者没有看到的是其中蕴含的选择权:如果你从服务中捕获数据,你就可以利用这些数据将服务转化为算法。Botkeeper 早期使用人力导致其毛利率很低——20-25%,许多考虑投资的人告诉我,这个利润率不是软件的利润率,这是一个危险信号。他们不明白的是,Botkeeper 使用的人力在工作时正在标记数据。这些数据被用来构建模型,而这些模型取代了大部分的人力工作。四年后,Botkeeper 的利润率超过 70%,在经济上更像一家软件公司。
如果你使用 SaaS 估值倍数和 SaaS 指标作为你的默认值,你将错误地判断这些业务,因为你将它们评估为它们不是的东西。
假设 #2:“AI 是一回事”
“AI”是我们用来指代一系列技术的标签,而不是单一的能力。这就是为什么你可以听到一个人说 AI 在某件事上很糟糕,而另一个人说 AI 在同一件事上很棒。
仅机器学习就有不同的方法,如监督学习、无监督学习和强化学习。神经网络有不同的架构——自然语言处理、计算机视觉、机器人技术等也是如此。每一种都可以被称为“AI”,但每一种的功能方式都截然不同。
换句话说,使用“AI”这个词就像使用“车辆”这个词。你指的是汽车、船还是飞机?如果你把 AI 当作一个单一的类别,你会不断地做出站不住脚的笼统陈述,并且你会不断地被看起来相互矛盾的结果感到惊讶。
假设 #3:“可预测的采用曲线”
投资者喜欢平滑的曲线。如果你获得了早期的增长数据,你会想对其进行推断。
AI 公司通常不会这样表现。它们的创新路径是不连续的。它们的采用路径是不连续的。我之前提到过“锯齿状前沿”,这是哈佛大学的 Karim Lakhani 和沃顿商学院的 Ethan Mollick 在 2023 年的一篇研究论文中推广的一个概念。它证明了 AI 模型的能力是不容易预测的。在工作中使用 ChatGPT 的顾问经常预测它在某项任务上会表现出色,但事实并非如此,也经常预测它在某项任务上会表现糟糕,但它实际上表现得很好。这种锯齿状前沿使得很难预测 AI 的下一步发展方向。AI 的可能性空间仍然巨大且基本上未被探索。可能性空间甚至没有被大规模探索。
这就是为什么你会遇到像 DeepSeek 这样的冲击。当 DeepSeek——一个中国实验室——在 2023 年首次出现时,关于 AI 的主流说法是它昂贵、昂贵、再昂贵。然后,DeepSeek 引入了一种新方法,一夜之间改变了说法。市场对 DeepSeek 能够以仅 600 万美元的训练成本——OpenAI 训练其模型花费的数亿美元的一小部分——匹配 OpenAI 的 GPT-4 的输出感到震惊。这一发现让市场感到震惊;仅英伟达(Nvidia)一家公司就在一天内市值蒸发了约 6000 亿美元。
在大多数其他行业,你不会遇到这种不连续性。在房地产领域,没有人会凭空出现说:“我可以用 10% 的成本建造同样的建筑。”你也不会看到护城河如此迅速地崩溃。例如,可口可乐不会因为有人做出稍微好一点的苏打水就消失。
在 AI 领域,你可以看到公司收入飙升。
如果你在投资 AI 时建立的财务模型假设增长是稳定的,你将会措手不及。你必须将颠覆视为常态。
假设 #4:“计算无关紧要”
在软件领域,我们通常不把计算——或计算能力——视为护城河。它被认为是可复制的。
在 AI 领域,这个假设被打破了。按照计算机程序的标准,AI 模型非常大,并且通常必须在多台机器上运行——单个 GPU 无法运行大型模型。更大的模型需要更多的机器和更长的时间。训练可能需要数月时间。这代表了一种我们迄今为止在大多数软件业务中不必建模的数字资本密集度。
当我们没有等价物时,我们不确定该如何思考它。但其含义是直接的:一些现有公司将难以被取代,因为它们拥有硬件、计算能力,以及即使在特定模型上落后也能迎头赶上的能力。它们拥有原材料。因此,虽然许多初创公司作为颠覆者提供了很多希望,但你还不能把像谷歌、亚马逊或苹果这样的公司排除在竞争之外。
前方的选择
如果你读到这里,你可能在本章的讨论中感受到了一种特殊的张力。现在,你可以看到 AI 是真实存在的,并且正在加速发展,而旧的评估和估值软件公司的方法似乎并不适用。尽管如此,你仍然不确定如何继续:演示令人印象深刻,但商业模式不熟悉,从“酷炫的能力”到“持久的回报”的路径更难看清。
本章的重点很简单:你感到的困惑和不确定性并不表示你落后了,而是表明潜在的规则正在改变。
AI 一再产生令人兴奋的承诺,但最终在实践中失败。它的行为与传统软件不同,迫使你重新思考价值在哪里累积,护城河如何形成,甚至“进步”到底意味着什么。如果你想在这种环境中投资得好,你需要新的心智模型——而且你需要决定是否要继续使用旧的模型。
知道了这一点,你现在有两个选择。
选择 1:继续使用你现有的心智模型。像评估软件公司一样评估 AI 公司。然后奇怪为什么你的选择表现不佳。
选择 2:花接下来几个小时学习我们花了十年时间和 135 项 AI 投资才开发出的新心智模型。在你下一次的 AI 投资对话中,提出你的竞争对手没有想到的问题。
选择 2 并不能保证你每次都正确。但它确实保证你会问正确的问题。
我们是通过惨痛的教训才学会问什么问题的。在我们吸取这些教训的过程中,我们损失了一些钱。幸运的是,靠着一点运气,我们取得了一些早期的胜利——以及一些本可能亏损但最终转为胜利的投资。这些胜利给了我们洞察力和意识,让我们能够留在游戏中,完善我们的论点,并不断学习。
我们学到的最重要的教训是什么?
从第一性原理思考 AI 公司,而不是从可比公司分析。
投资者喜欢将一家公司与另一家公司进行比较,并据此下注。但这在 AI 领域行不通。第一性原理方法让我们能够打破可比公司分析的陷阱,并提出以下问题:
AI 在这里解决了什么以前无法解决的问题?
实际的成本驱动因素是什么,而不是假设的软件成本结构?
实际的竞争护城河是什么,而不是假设的网络效应?
实际的客户价值驱动因素是什么,而不是假设的基于席位的价值?
实际的增长动态是什么,而不是假设的 SaaS 保留曲线?
这些问题帮助我们在九年和 135 项投资中,命中的次数多于错过的次数。它们是以时间、金钱和经验为代价的。但这就是它们有效的原因:它们是经过实战检验的。我们知道它们有效,因为我们知道所有无效的方法。
我们将在第三章开始探讨投资 AI 的六个关键心智模型。但在此之前,在第二章中,我们将更仔细地审视当前 AI 的工作——我们现在在哪里,我们将走向何方,以及为什么通用人工智能(AGI)的前景不是终点,而是一个起点。
感谢阅读。