返回首页
2026.01.07 04:13 约 20 分钟 全球动态

吴恩达:一种新的图灵测试版本,我称之为图灵-AGI 测试

亲爱的朋友们,

2026 年快乐!这会是我们最终实现 AGI 的一年吗?我想提出一种新的图灵测试版本,我称之为图灵-AGI 测试,用来检验我们是否已经实现了这一点。我稍后会解释为什么需要一个新的测试。

公众认为,实现 AGI 意味着计算机将和人类一样智能,并能够完成大多数甚至全部的知识工作。我想提出一个新的测试。测试对象——可以是电脑,也可以是熟练的专业人士——将被给予一台可访问互联网的电脑,并配备诸如网页浏览器和 Zoom 等软件。评审者将为测试对象设计一个为期多天、通过电脑媒介进行的体验,以完成工作任务。例如,这种体验可能包括一段培训期(比如作为一名呼叫中心坐席),随后要求其执行相应任务(接听电话),并在过程中提供持续的反馈。这与一名拥有功能完备电脑(但没有网络摄像头)的远程工作者所被期望完成的工作非常相似。

如果一台电脑能够像一名熟练的人类一样出色地完成该工作任务,那么它就通过了图灵-AGI 测试。

大多数公众成员可能认为,一个真正的 AGI 系统会通过这一测试。毫无疑问,如果计算机像人类一样智能,它们就应该能够像你会雇佣的人类一样完成工作任务。因此,图灵-AGI 测试与公众对 AGI 含义的普遍认知是一致的。

这就是我们为什么需要一个新测试的原因:“AGI”已经变成一个炒作性的术语,而不再是一个具有精确定义的概念。对 AGI 的一个合理定义,是能够完成人类可以完成的任何智力任务的 AI。当企业炒作称自己可能在几个季度内实现 AGI 时,通常会通过设定一个低得多的标准来为这些说法辩护。这种定义上的不匹配是有害的,因为它会让人们以为 AI 正在变得比实际情况更强大。我看到这种误导影响了从高中生(因为认为 AGI 即将到来而回避某些学习领域,觉得这些领域已无意义)到 CEO(在决定投资哪些项目时,有时假设 AI 在 1–2 年内会比任何可能的现实都更有能力)等各类人群。

Andrew Ng is pictured writing in a notebook by a large window, with a garden and pool visible in the background.

最初的图灵测试要求计算机通过文本聊天欺骗一名人类评审,使其无法将其与人类区分开来,但这一测试不足以表明人类水平的智能。 勒布纳奖  竞赛实际上运行了图灵测试,结果发现,要欺骗评审,能够模拟人类的打字错误——甚至可能比真正展示智能更重要。如今 AI 发展的一个主要目标是构建能够完成具有经济价值的工作的系统,而不是欺骗评审。因此,相比衡量欺骗人类能力的测试,一种衡量完成工作的能力的改进测试将更加有用。

对于当今几乎所有的 AI 基准测试(如 GPQA、AIME、SWE-bench 等),测试集都是预先确定的。这意味着 AI 团队最终至少会间接地将模型朝着已公布的测试集进行调优。此外,任何固定的测试集只能衡量智能的一个非常狭窄的侧面。相比之下,在图灵测试中,评审可以自由提出任何问题,以按照自己的意图探查模型。这使评审能够测试电脑或人类所掌握的知识究竟有多“通用”。同样地,在图灵-AGI 测试中,评审可以设计任何经验——而这些并不会提前向被测试的 AI(或人类受试者)透露。这种方式比预先设定的测试集更能有效衡量 AI 的通用性。

AI 正处在一条令人惊叹的发展轨迹上。在过去的几十年里,被过度炒作的期望曾导致 AI 寒冬,当人们对 AI 能力感到失望时,兴趣和资金随之减少,直到这一领域取得进一步进展后才再次回升。为数不多可能阻碍 AI 强劲势头的因素之一,是不切实际的炒作所制造的投资泡沫 ,这会带来失望并引发关注度的崩塌。为了避免这种情况,我们需要重新校准整个社会对 AI 的期望,而一次测验将有所帮助。

如果我们举办一场 Turing-AGI Test 竞赛,而所有 AI 系统都未达标,那反而是一件好事!通过消解围绕 AGI 的炒作并降低泡沫出现的可能性,我们将为 AI 持续投资创造一条更加可靠的路径。这将使我们能够继续推动真正的技术进步,并构建有价值的应用——即便它们远未达到 AGI 的水平。如果这一测验还设定了一个清晰的目标,供各团队努力并据此宣称实现了 AGI,那同样令人振奋。而且我们可以确信,一旦某家公司通过了这项测验,他们所创造的绝不仅仅是一份营销式的发布——而是极其有价值的成果。

新年快乐,祝你在建设中度过精彩的一年!

Andrew

2026 年的智能体

万事俱备:AI 模型已具备生成连贯文本、图像、视频及其他数据的能力;能够调用专有数据库;并在网络上导航并执行在线操作。准备好迎接一场智能应用的寒武纪大爆发,它们将帮助我们过上更美好的生活,并更好地管理我们的组织和社区。在本期 The Batch 新年特刊中,  正如   以往   的新年   特刊   一样  ,一些 AI 领域最杰出的人才分享了他们对未来发展的期望。


David Cox is pictured during a discussion in a glass-walled office, aligned with themes of open-source innovation and teamwork.

开源胜出

作者:David Cox

我的希望是开放的 AI 能够持续蓬勃发展,并最终取得胜利。

开放的生态系统始终是真正创新的引擎。它让社区能够在几十年的进步基础上持续构建,并调动集体智慧,而不仅仅依赖于单一公司的资源。早在 1990 年代,Linux、Apache 和 Eclipse 等开源软件就曾挑战占主导地位的专有系统。这场斗争塑造了我们今天所熟知的互联网。如今,同样的原则必须引导 AI 的演进。

这种相似之处令人不寒而栗。一些参与者正试图通过做当年 Microsoft 做过的同样事情来拥有并控制 AI——当时 Microsoft 向发展中市场倾销免费的 Windows 副本,以防止 Linux 站稳脚跟。

就像当年 Microsoft 免费发放的软盘一样,Open AI 和 Meta 都推出了所谓的开放模型,但实际上并不是真正的开放。他们没有披露任何关于训练数据集或算法公式的信息,还对你能够获得的收入设定了上限。所有这些设计都是为了防止其他人获得发展势头,从而让你的产品成为最终胜出的那一个。

但真正开放式 AI 的潜力至关重要。重要的是,AI 不应被任何人所拥有,也不应只代表某一家公司的价值观。更重要的是,每个人都能参与塑造它的未来,无论是其他公司的从业者、学术界人士,还是普通用户。

开放式开发具有重要益处。首先,它降低了供应商锁定的可能性。没人希望被困在一个依赖 API 的专有模型上,而这个 API 可能会成为关键基础设施。其次,它实现了更高程度的定制化。你不仅在法律上有权对开源模型进行定制(包括用它来制作一个闭源模型),而且由于你了解它的构建方式,重新构建也更容易。

当前中国正在形成一个蓬勃发展的开放生态系统。那里的开发者做出了令人惊叹的工作。但与此同时,也叠加了一层奇怪的地缘政治因素。国家之间并不互相信任。中国不信任美国,美国不信任中国,而欧洲两边都不信任。而且,通过在被篡改的数据上进行训练,很容易“毒化”一个模型。真正的开放式开发能够解决这个问题,因为每个人都清楚训练数据集是什么,以及这些数据是如何获得的。

在 IBM,我们一直在以行动兑现承诺。我们公开发布了我们模型的详细信息,包括它们是如何训练的,尤其是它们使用了哪些数据进行训练。 斯坦福透明度指数  将我们评为最高水平,得分达 95%,领先第二名 23 分。而且这样做的不止我们一家。艾伦研究所也做出了令人印象深刻的工作,中国的开发者同样在以实际行动践行这一点——但与此同时却叠加了一种奇怪的地缘政治因素。美国不信任来自中国的模型,而中国也不信任来自美国的模型。

我们知道 IBM 以“无聊”著称。但无聊其实可能是好事。无聊意味着稳定;它是你可以在其之上构建的基础。IBM 也有点怪。而这种稳定的基础,恰恰让你能够做一些怪异的事情,而不会让它们崩塌。让我们在 2026 年让 AI 更加开放、更怪一点,也许也更“无聊”一些。

David Cox 是 IBM Research 的 AI models 副总裁,也是 MIT-IBM Watson AI Lab 的 IBM 主管。此前,他曾在哈佛教授自然科学、应用科学和工程学。


Adji Bousso Dieng is pictured typing on a laptop in a warmly lit room, focusing on AI-driven scientific work.

用于科学发现的 AI

作者:Adji Bousso Dieng

在 2026 年,我希望 AI 能从提升效率的工具转变为推动科学发现的催化剂。

在过去十年里,深度学习中的主导范式一直是插值。我们构建了极其强大的模型,擅长模仿其训练数据的分布。这非常适合 AI 当下最为出色的应用场景,例如对话式智能体和编程助手,在这些场景中,一个查询可以通过识别现有数据中的统计模式来得到回答。这一范式甚至催生了成功的应用,能够应对那些可以被表述为监督学习问题的科学挑战,例如 AlphaFold。

然而,在这种范式下,模型在面对最罕见的样本时,也就是数据分布的长尾部分,往往表现不佳。例如,在我们使用 Vendiscope(这是我们开发的一款用于审计数据集合的工具)的研究中,我们发现即使是 AlphaFold 也难以预测罕见蛋白质的三维结构。此外,物理科学中的许多重大挑战——从设计全新(de novo)蛋白质到发现能够从大气中捕获 CO2 的新型金属有机框架(MOF)——都无法被表述为监督学习问题。相反,它们更适合被视为发现型问题,其中所追求的正是稀有的现象。

在这些情况下,分布的主导模态通常在科学上并不有趣,因为它们只是我们已经了解内容的重复。到 2026 年,我希望我们终于破解发现的密码,转向能够驯服分布尾部的技术,甚至发现真正有意义的、分布之外的事物。目标是找到自然所允许但我们尚未见过的东西。

为了实现从插值到发现的这一飞跃,AI 社区必须优先推动驱动机器学习的目标函数发生根本性转变。我们需要超越最大化准确率和概率似然这些目标,因为它们本质上会驱动模型走向插值,并坍缩到数据分布的主导模态。相反,我们需要将多样性提升为一等目标,而不是仅仅将其视为与公平相关的模糊社会技术概念。

在我的实验室 Vertaix 中,我们通过开发 Vendi Score 引领了这一研究方向。在我们关于 材料发现 的研究中,我们发现优化 Vendi Score 使我们能够识别出稳定且节能的 MOF,而这些材料由于标准搜索方法无法有效探索涵盖数以万亿计材料的搜索空间而被忽略。

到 2026 年,我们应该停止将多样性仅仅视为次要的评估指标,而应开始将其视为推动发现的首要数学引擎。如果我们完成这一转变,AI 将不再只是人类知识的模仿者,而会成为真正的伙伴,与我们一同拓展知识的边界。

Adji Bousso Dieng 是普林斯顿大学 Vertaix 研究实验室的创始人,也是美国国家科学基金会数据驱动动态设计研究所的联合首席研究员。她还是 The Africa I Know 的创始人,这是一个支持非洲年轻人 STEM 教育的非营利组织。


Juan M. Lavista Ferres is pictured holding a laptop while students watch a video about AI on a screen, linking education and technology.

与 AI 协同而非对立的教育

作者:Juan M. Lavista Ferres

三年多前,OpenAI 发布了 ChatGPT,教育从此发生了永久性的改变。对于学生而言,能够在几秒钟内按需生成流畅且可信的文本,是一项令人惊叹的新工具。对于教育工作者而言,这则是一种全新的挑战。展望来年,我希望教育界能够与 AI 作为教育工具这一现实达成共识,并将重点放在生成式媒体时代开发可靠的学生表现评估方式上。

在 ChatGPT 问世后的几个月里,一个令人宽慰的说法被广泛传播:如果生成式 AI 能够撰写论文,那么我们就可以构建 AI 检测器来识别这些内容。一些早期研究在受控环境下报告了近乎完美的准确率。其隐含的承诺颇具吸引力:教师无需重新思考评估方式。我们可以继续保持相同的工作流程、相同的作业形式,以及相同的管理与约束模式。

这种希望是一种幻觉。在实验室环境中,这些系统确实可以表现得非常出色。但它们的表现建立在学生会提交模型原始输出这一假设之上。事实并非如此。一旦出现检测器,学生就有动机去规避它,而规避并不困难:重写一段文字,加入一些拼写错误,改变句子的长短,重新排列段落,插入个人轶事,进行翻译再反向翻译,或者使用越来越多的工具,将 AI 输出改写得看起来更“像人类”。

这是一个结构性问题:如果你能构建一个检测 AI 生成文本的系统,那么你也可以利用该系统来训练一个能够击败它的系统。检测器一旦被部署,企业家就会构建产品来破解它,而学生也会学会使用这些产品。

但最大的问题不在于设计有效的检测器,而在于维持信任。如果教育者依赖检测评分,而学生依赖旨在规避检测的程序,教育者就会被推向怀疑与裁决的角色。最终,你不得不质询学生、处理申诉,并在缺乏可靠证据的情况下做出高风险判断。这会带来伤害学生的风险,尤其是非英语母语的学生,以及那些按照某些学术规范学习写作的学生。与此同时,最执意滥用工具的学生会适应得最快。因此在实践中,检测机制可能惩罚了错误的人,却未能遏制最老练的规避行为。

生成式 AI 可以提升学习效果。它可以帮助学生练习,提供反馈,并进行个性化辅导。它还能将学习材料翻译成学生自己的语言,并在大规模范围内实现个性化学习。

但我们也必须现实一点。作为独立作者身份通用证明的传统课后论文已经失效。仅通过文本来验证独立创作在规模化情况下已不再可行。高校和学校应当默认学生会使用生成式 AI,并需要在这一现实下仍然有效的评估模式。

一些可行的举措:

  • 使用真实的理解能力展示。 线下考试、口头答辩、现场写作、展示汇报以及项目走查,都能让理解程度和归属清晰可见。
  • 教授 AI 素养。 核实、引用、偏见意识和负责任的使用应成为课程的一部分,而不是事后才考虑。
  • 为 AI 而设计,而不是与它对抗。 对于课后作业,假设学生会使用这些工具。要构建能够负责任地融入这些工具的任务,并评估学生的判断力、推理能力以及应用知识的能力。

精灵已经从瓶子里放出来了,无法再装回去。我们现在的工作,是建立规则和实践,让教育在真实存在的世界中变得更加高效,也更加值得信赖。

Juan M. Lavista Ferres 是 Microsoft 的首席数据科学家兼公司副总裁。他负责领导 Microsoft AI for Good Lab 以及 Microsoft AI Economy Institute。


Tanmay Gupta is pictured smiling next to a whiteboard filled with mathematical formulas, embodying active AI engagement.

从预测到行动

作者:Tanmay Gupta

到 2026 年,AI 研究应直面一个看似简单却具有颠覆性的认知:能够进行预测的模型并不等同于能够采取行动的系统,而后者才是我们真正需要的。

在过去十年里,我们在被动预测和生成式建模方面取得了非凡进展——例如为图像中的物体生成边界框和分割掩码,将音频转录为文本,或按需生成流畅的段落和图像。这些都是令人印象深刻的成就,但它们仍然只是代理任务:人们常常假设这些任务代表了现实世界中的经济效用。这是一种谬误。世界上具有真实经济意义的任务,并不会止步于从单一输入中进行一次预测或生成。它们需要在复杂、动态的环境中采取一系列行动(其中每一步都可能依赖于一个或多个模型的预测或生成),而每个行动都会改变环境状态,从而影响后续的行动。

到 2026 年,AI 研究必须果断地从解决这些代理任务,转向这些代理任务所粗略近似的、具有长时程的真实任务。看看编程是如何演变的:模型曾经只能自动补全代码行,而如今的编程智能体越来越多地能够接受高层次的需求说明,在代码库中搜索、运行测试,并以最小的人类干预返回一个可工作的解决方案。

我希望我们能够将这种演进——从生成代理到完成目标——推广到其他领域。例如,应将视觉模型作为更大型系统的一部分来研究,这些系统利用视觉输入流来驱动数字化(Web/电脑使用)和物理(具身)工作流程,监控流程,或提取洞察。语音系统需要作为智能对话助手架构的一部分来研究,这些架构能够通过对话理解所传达的目标,并与数字或物理工具交互以加以实现。图像和视频生成模型则应作为系统的一部分进行研究,这些系统能够从现有文档中生成长篇视觉化教育内容,或为产品或研究成果生成营销材料。

将关注点转向这些长时间跨度任务和目标导向的 AI 系统,带来了两大主要益处。首先,当我们使用当前的 AI 模型来构建这些更大型的系统和流水线时,这种转向能够暴露出它们的局限性和痛点。这些目标导向的 AI 系统需要的不仅仅是预测或生成能力。它们还需要持久记忆、在长时间跨度内专注于目标的能力、对人类实时反馈的响应能力,以及在不断变化的环境中应对不确定性的能力。它们还需要能够有效地与各种多模态信息源进行交互,进行工具调用,具备提出假设和推理的能力,持续学习、自我改进等。在短时间跨度或单步预测任务中,这些能力差距往往是不可见的,但在更复杂、更真实的长时间跨度场景中便会显现出来。我们需要更好的方式来评估这些智能方面,并找到改进它们的方法。

第二,这种以目标为中心的重新表述使 AI 研究与终端任务效用保持一致。通过直接尝试解决真实的终端任务,研究人员不太可能被看似有用、却最终无法解决真实任务的代理任务所迷惑。例如,多年来,NLP 研究人员一直认为语义解析是自然语言理解系统中的一个重要组件。如今的 LLMs 在从未显式执行语义解析的情况下,也能够实现复杂的语言理解与操作。事后来看,与其追逐语义解析准确率这一代理指标,当初将这些语义解析的研究时间用于直接解决终端任务或许更为有效。

真实的数字或物理任务会在数分钟、数小时、数月,甚至有时跨越数年展开。人类具备非凡的能力,能够将长时间内收集的多样化信息整合成一致的世界观,并在不断演变的环境中驱动复杂目标的执行。过去十年里,深度学习领域的技术进步,尤其是在 LLMs 和 VLMs 方面,已经为 AI 研究社区奠定了坚实基础,使其有望在未来十年内认真尝试在硅基系统上复现这种能力。仅在过去几年中,我们已经看到由 LLM 驱动的智能体系统的兴起,它们正在自动化定义清晰的工作流程。而应对那些未充分定义、定义模糊、尚未被发现以及尚未被想象的问题,则是下一个前沿领域。

Tanmay Gupta 是 Allen Institute for Artificial Intelligence 的高级研究科学家。他是《Visual Programming: Compositional Visual Reasoning Without Training》的共同作者,该论文获得了 CVPR 2023 最佳论文奖。他的研究方向涵盖多模态智能体、代码智能体、VLMs 以及 VLAs。


Pengtao Xie is pictured standing near a chalkboard filled with mathematical notes, addressing a classroom of attentive students.

生物医学多模态模型

by Pengtao Xie

在过去的几年里,我们见证了能够对文本、图像、序列、图结构和时间序列进行联合推理的模型取得了快速进展。然而在生物医学场景中,这些能力往往仍然是碎片化的、脆弱的,或难以解释。到 2026 年,我希望整个社区能够果断地迈向构建多模态模型——它们不仅性能强大,更具备坚实的科学基础、透明性,并且真正能够服务于生物医学发现和临床决策。

一个关键优先事项应当是实现深度多模态集成,而不是对多种模态进行表层式的拼接。生物系统在本质上是多尺度、多视角的:分子、细胞、组织、器官以及患者通过跨越序列、结构、图像和纵向记录的复杂机制相互关联。基础模型应当反映这种结构,通过学习在不同模态之间保持生物学语义的一致表示,从而支持从分子机制到表型结果的连贯推理。实现这一目标将需要新的预训练目标、更优的归纳偏置,以及以原则性方式编码生物学上下文的方法。例如,研究人员可以设计明确在模态之间对齐表示的目标,利用通路、细胞状态或疾病表型等共享的生物学锚点,使从一种视角中学到的信息在迁移到另一种视角时仍然保持其意义。

另一个关键重点是可解释性。在生物医学领域,只有预测结果往往是不够的。研究人员和临床医生需要理解模型为何做出某个决策、它依赖了哪些证据,以及其输出如何与已知生物学相联系。随着多模态模型变得越来越大、越来越通用,AI 社区应当优先发展能够跨模态运行的解释方法,使用户能够将预测结果追溯到分子相互作用、图像区域或患者数据中的时间模式。例如,可以设计模型生成结构化的跨模态归因解释,明确地将一种模态中的元素(如基因或残基)与另一种模态中的证据(如图像区域或时间点)相连接。

数据效率和适应性应成为核心目标。许多生物医学领域面临标注数据有限、分布强烈偏移以及知识不完整等问题。多模态基础模型必须能够以最少的再训练适应新的任务、疾病和机构,同时保持稳健性和良好校准。在这一背景下,参数高效的适配、持续学习以及具备不确定性感知的推理尤为重要。

最后,2026 年的进展不应仅通过基准测试来衡量,还应体现在与生物医学工作流程的集成上。这包括支持假设生成、实验设计和交互式探索的工具。这类工具将使领域专家能够与模型进行多轮对话,而不是被动地接收预测结果。

如果 AI 社区能够围绕这些优先事项达成一致,多模态基础模型有望成为生物医学研究中值得信赖的合作伙伴,在尊重支持人类健康所固有的复杂性与责任的同时,加速科学理解的进程。

谢鹏涛是加州大学圣地亚哥分校的副教授,同时也是阿布扎比穆罕默德·本·扎耶德人工智能大学的兼职教员。此前,他曾担任生成式 AI 初创公司 Petuum 的工程高级总监。


Sharon Zhou is pictured smiling confidently with her hands clasped, reflecting AI’s potential for community-building.

构建社区的聊天机器人

作者:Sharon Zhou

明年,我很期待看到 AI 走出与我们每个人的一对一关系。到 2026 年,AI 有潜力将人们聚集在一起,用真实的人类连接来联合我们,而不是让我们更加对立和孤立。是时候让 ChatGPT 走进你的群聊了。

如今的互联网似乎正在被推向两个极端。一端是严重的 AI 垃圾化,把我们曾经的互联网描绘成一个明显更糟、更嘈杂的版本——机器人参与论坛、抓取数据(每天被 AI 爬虫 DDOS 攻击大约一百万次也并不奇怪!)。另一端则是高度以人为中心的策展,试图尽可能把 LLMs 挡在外面。

但这种张力并不一定要是对立的,它也可以是整合性的。AI 可以被设计为连接人与人、增强人类关系。聊天中的机器人将成为一种积极的凝聚力量,而不是一个中立的助手或具有欺骗性的代理。为此,研究人员需要改变一些方面,例如在更长的上下文上进行后训练,以及在不同的强化学习环境中训练,以处理多人的上下文和目标。但这是可以实现的,我相信这将把人类与人工智能的智慧带到新的高度。

当你在凌晨 3:00 和你的 LLM 聊着如何解决一段感情问题,并把它类比成调试代码时,你的 LLM 问你是否想和另一个有同样感受的人聊聊。你心想:“我原以为这个点遇到这样的问题很小众,不过试试也无妨。”更妙的是,LLM 并不只是负责牵线搭桥,它还加入了对话,用有趣的梗图开玩笑,抛出耐人寻味的问题,让聊天变得生动、充满好奇心——直到你意识到,你不仅交到了几个朋友、修复了 bug,还获得了看待这段关系的新视角。你学到了对工作和个人生活都有帮助的东西。而这一切才刚到凌晨 3:15。

当好奇心被分享时,它会加速增长。它具有感染力。当你被一个群体以及它想要前往、触达、探索的方向所驱动时,学习会变得更容易。作为一种集体性的工具,AI 可以促进我们共同的好奇心与创造力。而那些启发性的对话中,有可能蕴含着推动 AI 智能跃升所需的新数据。

如果我们设计一个未来,让 AI 有动力把人们凝聚在一起,赋予彼此归属感,并在这个过程中激发人们发明更多事物、提升集体智能,从而形成一种数据,去推动模型以单纯的孤立聊天基准测试无法做到的方式进化,那将是一个真正的双赢。这甚至可能激发新的模型架构,例如一种极端的 MoE(mixture of experts,专家混合模型):为每个人以及你多维度的自我配备轻量级、部分共享的权重,就像是当今 scratchpad memory 的更高级进化版本。

如今,相关进展已近在咫尺,这一未来也完全可行,这正是让我感到兴奋的原因。我希望今年我们能迈出一步,让 AI 成为对全人类以及我们每一个人更积极的力量。这是一条可以引领我们朝着这一方向前进的路径。

Sharon Zhou 是 AMD 的 AI 企业副总裁。此前,她是 Lamini 的创始人兼 CEO,并曾担任斯坦福大学的兼职讲师。

了解 RecodeX 的更多信息

立即订阅以继续阅读并访问完整档案。

继续阅读