1999 年和今天最大的区别在于: 企业采纳度 。
数据来源:Netcraft Web Server Survey,Internet Live Stats。网站数量的增长与企业将互联网作为商业平台的采纳度密切相关。
1999 年,没有哪位财富 500 强公司的 CEO 会对整个公司说:“用互联网,否则就解雇你。”而今天,每位 CEO 都在大喊:“现在就用 AI!”他们可能不完全知道这意味着什么,但他们是认真的。
AI 已经嵌入到大公司的运营中:客户支持、采购、财务、法律、人力资源等。采纳程度不一,往往流于表面,但承诺是真实的。
数据汇总自麦肯锡、高德纳、德勤、IBM AI 采用指数等机构
这使得本轮周期从根本上有所不同。我们不再争论这项技术是否重要。所有人都认为人工智能很重要。问题是如何明智地使用它。
当互联网泡沫破裂时,公开市场充斥着追逐荒谬首次公开募股的散户投资者。对许多人来说,那是一个“快速致富的计划”。如今,风险投资正在为这场狂热提供资金(风险投资也曾助长互联网泡沫,但流动性是通过过快上市实现的)。许多风险投资公司这次将损失大量资金,但这与公开市场相比微不足道。
如果所有人工智能初创公司突然上市,我们将处于泡沫破裂的边缘,因为许多此类初创公司都依靠大量资本和不可持续的增长预期来支撑。
我们将看到的是修正,而非崩溃。
一位朋友最近在一家大型企业经历了供应商入职流程。他第一次看到了针对人工智能的安全问题:
你们在使用人工智能工具方面的政策是什么?
您是否对员工进行了安全使用人工智能的培训?
您是否有涵盖人工智能相关事件的网络保险?
他们仍然关心常见的问题——数据存储在哪里、加密、访问控制等等——但现在他们明确指出人工智能的使用是其风险概况的一部分。
问题不再仅仅是数据存储在哪里。 而是数据可能通过人工智能工具被暴露或处理的方式 。
这就是新的风险视角。一旦公司数据接触到 AI 系统,就会被认为是“暴露在外”了。这在技术上是否属实并不重要。**感知即风险。**
几十年来,企业一直在问,“我的数据存储在哪里?” 现在他们问的是,“我的数据会接触到哪些 AI 系统?”
这种转变带来了巨大的不确定性。大多数供应商不知道如何回答这些问题,大多数企业也不知道如何评估这些答案。
与此同时,几乎每个 SaaS 工具都添加了 AI 功能。你可能甚至没有意识到,你用了多年的工具现在正在通过 OpenAI、Anthropic、Mistral 或其他公司发送你的公司数据。当你的企业 IT 团队问:“我们是否在使用 AI?”你可能会说不……但实际上是错的。
**我的预测:初创公司将通过“安全使用 AI”来脱颖而出。** 过去,SOC2 对于向企业销售的初创公司来说,感觉像是一种必要的邪恶/麻烦。这种情况正在改变。虽然 SOC2 与技术无关,但审计师已经开始提出 AI 相关的问题。预计这种审查将迅速增加。
最近我与一家初创公司进行了交流,他们更新了服务条款,以说明其如何使用人工智能。他们推出了一项新的人工智能驱动功能,并意识到客户需要明确了解他们的数据是如何被处理的。这听起来很简单,但实际上并非如此。法律团队正在努力弄清楚“负责任的人工智能使用”的措辞应该是什么样子。
顺便说一句,他们的客户也不是大型企业,但每个人(无论企业规模和复杂程度如何)都对此类事情感到紧张。
高管们正争先恐后地让公司使用人工智能,包括 IT、安全、采购等在内的所有部门都在迎头赶上。缺乏连贯的人工智能战略使得这一过程尤其痛苦。
大多数大公司都没有人工智能战略。他们到处试验,却没有明确的目标或统一的步调。一个团队在开发副驾驶,另一个团队在用 ChatGPT 做报告,还有一个团队则完全禁止使用。结果就是,混乱被伪装成了进步。
如果您正在寻求制定人工智能战略并将其付诸实施,请访问 WorkLearn Labs 。
WorkLearn Labs 是一家即将成立的投资组合公司。他们专注于帮助人们确定合适的 AI 项目、评估投资回报率,并连接战略与交付。
下一波企业浪潮将不仅仅是关于使用 AI。它将是关于治理 AI。
预计未来几年会出现以下情况:
AI 培训成为强制性。 就像年度网络钓鱼和安全培训一样,员工将需要“安全 AI 使用”认证。初创公司可能会避开严厉的安全培训,但我怀疑 AI 培训也会找到他们。
**正式的人工智能政策成为基本要求。** 公司将界定哪些内容可以、哪些内容不可以进入人工智能工作流程,何时披露使用情况,以及如何审查供应商和模型。澳大利亚政府刚刚发布了一份人工智能政策模板。这将是一个复杂的过程。
**AI 审计软件应运而生。** 新工具将跟踪正在使用的 LLMs、共享的数据、内部应用程序如何路由数据、提示是否被记录等。也许这些工具已经存在(就像有工具可以跟踪你使用的软件一样)。公司将要求对其组织内部和与供应商之间的 AI 使用情况有可见性。