图片
网站标志
图片
 
文章正文
在达沃斯Google DeepMind CEO确认:首款AI药年内临床试验新药研发周期从10年缩短至1年
作者:管理员    发布于:2025-01-25 09:38:14    文字:【】【】【

  2025年达沃斯世界经济论坛上,Google DeepMind首席执行官Demis Hassabis不仅分享了获得诺贝尔奖的感受,更首次确认:第一批由AI设计的药物将于2025年底进入临床试验阶段。在这场由英国金融时报主持的对话中,Hassabis详细阐述了AI在医药研发领域的突破性进展,并就AGI发展时间表、AI安全治理等话题分享了深刻见解

  昨天2025年的达沃斯一场专访中,当诺贝尔化学奖得主、Google DeepMind首席执行官Demis Hassabis走上世界经济论坛的讲台时,他带来了一个振奋人心的消息:AI制药即将迈出关键一步。

  在这场由英国金融时报主持的深度对话中,Hassabis首次确认,第一批由AI设计的药物将于今年年底进入临床试验阶段。这一突破性进展意味着,AI不再仅仅是实验室里的研究工具,而是真正开始改变医药研发的进程。传统新药研发往往需要5到10年甚至更长时间。而通过AI技术,DeepMind将这一周期缩短至1年。为此,他们已与礼来(Eli Lilly)和诺华(Novartis)展开合作,重点关注肿瘤学、心血管疾病和神经退行性疾病等领域。

  Hassabis表示这些进展很大程度上得益于AlphaFold的突破。作为一个能够预测蛋白质三维结构的AI系统,AlphaFold已经被250万名研究人员使用,预测了全部已知的2亿种蛋白质结构。

  主持人 :在你获得诺贝尔奖之前,你已经在这个领域取得了巨大成就。那么,我们从这里开始吧。当你得知获奖消息时,是什么样的感觉?

  Demis Hassabis:老实说,这一切都让我感到非常不真实,即使到现在,我仍然觉得像在梦里一样。这对我来说是一生的梦想成真,我进入人工智能领域的初衷就是为了推动科学进步,把 AI 作为一种终极工具来推进科学研究,尤其是对人类健康的贡献,比如新药研发,而 AlphaFold 在这一领域至关重要。

  Demis Hassabis:当然。AlphaFold 解决的是蛋白质折叠问题。我们之所以获得诺贝尔奖,就是因为这个项目。它能够仅凭蛋白质的氨基酸序列或基因序列,就预测出其完整的三维结构。这非常重要,因为蛋白质是生命的基本构成部分,所有生物机能都依赖于蛋白质。蛋白质在体内会折叠成特定的三维结构,而这个结构决定了其功能。因此,如果我们想研究疾病的机制,或者了解生物如何运作,甚至尝试设计新的药物,我们就必须精准掌握蛋白质的三维结构。AlphaFold 解决了这一关键问题。

  Demis Hassabis:其实这有个有趣的故事。我们是在 10 月 9 日突然得知这个消息的,这完全出乎意料。因为通常来说,诺贝尔奖的授予可能会在科学突破后的 10 年、20 年,甚至 30 或 40 年之后,而我们这次仅用了 4 年。恰好第二天,我的几个朋友正好在城里,其中包括一些世界顶级的国际象棋和扑克选手。我小时候的一位朋友正在举办一个扑克+国际象棋之夜,邀请了一群世界冠军。我原本就计划去那里,所以最后成了一场超级激烈的家庭扑克赛,可能是世界上最强的家庭扑克局之一。那天晚上真的很特别,Magnus Carlsen 也在场,气氛非常热烈。哦对了,我们拍了一张有趣的照片,我应该发到 X(前 Twitter)上分享一下。(笑)当然,在那场扑克赛中,没人会故意让别人赢,竞争还是很激烈的。

  主持人 :你刚才提到,通常来说,这种成就的认可需要很长时间才能获得,而这次获奖却异常迅速。在你看来,这是否也是对 人工智能整体 的一种认可?毕竟,你的诺贝尔奖是与其他两位人工智能领域的科学家共同获得的。

  Demis Hassabis:是的,我认为这正是诺贝尔委员会传达的信息。他们今年的选择不仅包括了物理学奖中与 AI 相关的工作,还包括 Geoffrey Hinton 和 John Hopfield等人所做的基础性研究,这些都是当之无愧的成就。从某种程度上说,这可以看作是人工智能领域的“成年礼”,标志着 AI 终于成熟到可以真正 帮助解决深层次的科学问题。此外,诺贝尔奖委员会通常不会仅凭研究的 理论突破 颁奖,而是要看到其 实际影响。毕竟,诺贝尔的遗嘱中明确提到,奖项应授予“对人类有巨大贡献”的研究。因此,他们往往会等待这些成果在现实世界中展现出实际影响后才做出决定。这通常需要几十年时间。但在 AlphaFold 的案例中,影响力来得极快,这不仅对 DeepMind 团队来说是一个巨大的认可,也对 Google 整体而言是一个肯定。

  Demis Hassabis:当然,举几个简单的数字:AlphaFold 目前已有 250 万 名研究人员在使用。我们已经预测了 全部已知的 2 亿种蛋白质 的结构,而如果采用实验方法来测定,平均 一个博士生需要整个博士生涯才能解析一个蛋白质。换句线 亿个蛋白质的结构 原本可能需要 10 亿年的博士生时间,但我们将这项成果免费开放给全球科学界。这正是我所说的 “数字速度的科学” —— 传统上,科学突破的应用推广通常是一个漫长的过程,但 AI 技术可以极大地加速这一进程,特别是在医学和健康领域。

  主持人 :听起来令人兴奋。那么你们现在正在进行的重大研究突破有哪些?你可能不便透露具体的疾病研究方向,但有哪些领域你认为会有突破?

  第一,我们在基础研究方面 持续推进,不断改进 AI 模型,以更好地理解 生物学、化学、物理、数学,甚至是 天气预测。这些模型都是基于我们的通用人工智能系统构建的。比如,我们正在研究 AlphaFold 3,它将能够处理生物系统的 动态变化,进一步拓展 AI 在生命科学中的应用。

  第二,我们也在 推动实际应用。最近,我们成立了一家新公司 Isomorphic Labs,专门利用 AlphaFold 技术,结合更多 AI 工具来推进 药物研发。

  但蛋白质结构预测只是药物研发的 一部分,要找到合适的药物,我们还需要解决许多 相邻问题,比如 如何设计药物分子、如何确保它不会有毒副作用、如何让它具有良好的溶解性和吸收率 等。这些挑战的复杂度 不亚于 AlphaFold 的蛋白质结构预测。因此,我们需要构建一系列 同样复杂 的 AI 模型,把所有这些因素整合在一起,最终才能 彻底变革 药物研发流程。

  主持人 :传统上,新药研发的周期非常长,通常需要 5 到 10 年,甚至更长的时间。你们的 AI 技术是否能加速这一过程?

  Demis Hassabis:是的,我们的目标是 让整个药物研发过程加速 10 倍,这将是医学领域的 一场革命。如果我们能将新药研发的周期从 10 年缩短到 1 年,那将极大地改变人类健康的未来。

  主持人 :那么,你认为 第一款由 AI 设计的药物 什么时候会真正进入市场?所以,你们在研发 AI 生成的新药?

  Demis Hassabis:是的,AI 生成药物已经成为研发的核心部分。我们与 礼来(Eli Lilly) 和 诺华(Novartis) 建立了重要的合作伙伴关系,这些合作我们去年已经对外宣布了。目前,我们正在与他们一起推进一些新药项目,尤其是一些非常棘手的目标——他们的化学家们一直无法找到合适的候选化合物,而我们喜欢这样的挑战。此外,我们还有自己的内部药物研发项目,覆盖了多个重大治疗领域。我们的 AI 工具具有 通用性,因此可以应用于任何疾病研究。但目前,我们重点关注 肿瘤学(Oncology)、心血管疾病(Cardiovascular)、神经退行性疾病(Neurodegeneration) 等主要疾病领域。

  主持人 :你是说,到今年年底,你们的第一批 AI 生成药物就会进入临床试验阶段?

  Demis Hassabis:是的,到 今年年底,我们将有第一批药物进入临床阶段。

  主持人 :(惊讶)这可是一条重大新闻!我希望《金融时报》能抢先报道,而不是让其他记者捷足先登。

  主持人 :我知道你的主要兴趣在于科学研究,但现在你不仅负责 Google DeepMind,还负责 Google 整个 AI 领域的工作。从去年开始,Google 在 AI 领域的竞争非常激烈。去年很多人认为 Google 仍然 落后于 OpenAI,但今年,你们实现了多个突破。对你来说,最重要的突破 是哪个?

  Demis Hassabis:我们在过去一年里取得了 巨大进展,并希望在此基础上继续推进。你可能还记得,去年年底,我们发布了一系列全新的 AI 模型,包括 Gemini 2.0,以及其更小但极其高效的 Gemini 2.0 Flash 版本。这一模型的规模虽然较小,但性能极其强大,尤其适用于 大规模用户群体,支持 数十亿用户的应用场景。

  Demis Hassabis:是的,Gemini 2.0 在评测中的表现确实很出色,我们还在研发更大的模型,并将在不久后发布。除此之外,我们还开发了一些 非常前沿 的 AI 模型。例如,我们推出了 V2 视频生成模型,这可能是目前全球最先进的视频生成 AI。

  Demis Hassabis:它可以精确模拟 物理世界的动态,生成的画面 极其逼真。例如,有一个测试标准听起来可能有点搞笑,但它却是评估 AI 视觉理解能力的重要基准之一——让 AI 生成一段 切番茄的视频。乍一听可能觉得没什么,但实际上 切番茄 是一个非常复杂的 AI 任务。因为你不仅需要正确地模拟 刀、手指、番茄 之间的空间关系,还要确保切下的番茄不会神奇地自己复原。而 V2 视频生成模型已经可以 精准地 处理这些问题,这是我们目前最接近 世界模型(World Model) 的 AI 之一。

  主持人 :你刚才提到 世界模型(World Model),它意味着什么?

  Demis Hassabis:世界模型的目标是让 AI 不仅能理解语言,还能够 理解现实世界,包括 空间、时间、因果关系 等复杂信息。这是实现 通用 AI 助手(Universal Assistant) 的关键一步。我们目前正在开发一个名为 Project Astra 的 AI 助手,它仍处于 研究原型阶段,目前正在进行内部测试(Trusted Tester Beta)。

  Demis Hassabis:这取决于测试进展,目前仍有很多 研究难题 需要解决。但如果一切顺利,我们预计在 今年晚些时候,会有一个版本向公众开放。我对这个项目的发展方向感到非常兴奋,尤其是我们已经在多个关键 AI 领域处于领先地位。

  主持人 :让我们谈谈 AI 领域的竞争。你的竞争对手最近推出了一款具备 推理能力 的现代大模型(LLM),那么 Gemini 2.0 具备推理能力吗?你们如何在这一方面取得突破?

  Demis Hassabis:是的,我们也有自己的 推理模型(Thinking Model),这是目前所有顶级 AI 实验室都在重点研究的方向。核心问题是:如何让模型在推理过程中不断优化答案?目前的 AI 主要依赖 预训练(Pre-training) 和 后训练(Post-training),但在 推理阶段(Inference Time),它仍然是一次性生成答案,而不是反复思考。但如果让 AI 在推理过程中 回顾并修正自己的回答,甚至使用外部工具(如搜索引擎)来验证答案的准确性,那么它的整体推理能力就会大幅提升。这是一种非常强大的方法,因为它可以减少当前 AI 模型常见的 幻觉(Hallucination) 问题。事实上,这一方法本身也有 扩展法则(Scaling Law),即:AI 进行的思考时间越长,答案的准确性就越高。

  Demis Hassabis:完全正确!其实,我们 早在十多年前 就在 AlphaGo 和其他游戏 AI 里 开创了这一研究方向。当时,我们所有的游戏 AI 都是 基于智能体(Agent),并且使用 搜索算法(Search) 来进行推理。如今,我们正在把这一方法应用到更复杂的任务中,比如 现实世界的推理。但这比围棋或国际象棋 难得多,因为游戏规则是固定的、逻辑清晰的,而现实世界充满了 噪声和不确定性。例如,在游戏 AI 里,我们可以让 AI 思考 100 步后得出最优策略。但如果 AI 的世界模型 只有 1% 的误差,那么 推理 100 步后,误差就会被无限放大,最终导致完全错误的结论。这也是当前 AI 在 长链推理(Long-Chain Reasoning) 方面遇到的最大挑战之一。我们已经在思考如何让 AI 进行更深度的推理了,这是目前 AI 领域最前沿的挑战之一,也是 Google DeepMind 长期研究的核心优势。我们正在不断优化 AI 的推理能力,让它真正能在复杂环境中进行 深度思考 和 可靠决策。

  主持人 :这也是为什么我会关注 AI 的 推理能力(Reasoning)。当前所有人都在使用的大型语言模型(LLMs)都存在一个基本问题:幻觉(Hallucinations),我相信你肯定经常被问到这个问题。有一种可能的解决方案是,让 AI 对自己的答案进行事实核查(Fact-Checking),但目前这种方法似乎并没有被广泛采用,为什么?

  Demis Hassabis:其实,这正是我们目前在努力解决的关键问题。我们对 事实性(Factuality) 非常关注,而 Gemini 2.0 在这方面比之前的版本改进了很多。当然,这仍然是一个持续优化的方向,特别是对我们 Google 和 DeepMind 来说,事实性是极其重要的。此外,如果我们希望用这些 AI 真正推进科学研究,那么它们必须极度精准,不能凭空编造研究论文或引文等内容。因此,科学研究其实是测试 AI 事实性能力的 最佳试验场。

  改进预训练数据:在 预训练阶段(Pre-training),我们可以优化训练目标,过滤掉错误信息,提高数据质量,从根源上减少幻觉。

  结合外部工具进行事实核查:例如,我们可以让 AI 在生成答案的同时 调用 Google 搜索 进行事实核查。毕竟,Google 搜索本身就是世界上最强大的事实查询工具之一,因此在 LLM 内部嵌入搜索引擎是非常自然的解决方案。不过,AI 需要学会 何时调用搜索引擎,以及 在什么情况下应该进行事实核查,这仍然需要大量的训练,并不是完全自动的过程。

  增强 AI 的推理能力:如果我们给予 AI 更多的推理时间,并让它有机会回溯自己的答案,甚至多次检查,那么它的答案就会更加准确。这与人类的思维过程类似,思考时间越长,得出的结论往往越准确。

  主持人 :有些人告诉我,幻觉其实也是创造力的一部分。你是否认同这个观点?

  Demis Hassabis:在某些特定领域,这种说法可能有一定道理。但关键在于是否是有意的。换句话说,我们希望 AI 的幻觉是可控的、可预测的,而不是随机发生的。我们应该让用户能够主动触发 AI 的创造力,而不是让 AI 无意间编造信息。比如,在 创造性写作、艺术生成 等领域,适度的“幻觉”可能会产生新颖的想法。但在 医学、法律、科学 等领域,幻觉是不被接受的。所以,我的观点是,幻觉可以成为 AI 的一种功能(Feature),但不能成为缺陷(Bug)。我们需要一种方法,让用户可以选择何时让 AI 发挥创造力,而不是让幻觉无意间影响 AI 生成的答案。

  主持人 :说到大型语言模型(LLMs),你自己是如何使用 Gemini 的?你又如何告诉你的孩子去使用它呢?

  Demis Hassabis:当然。NotebookLM 是一个强大的研究工具,你可以把你感兴趣的 论文、网站、文献 放进去,然后 AI 会为你生成一档 个性化的播客,用生动的方式讲解这些内容。最初,我以为 AI 只是简单地 总结信息并朗读出来,但事实证明,如果 AI 之间互相讨论和批评,效果会更好。这种交互式的方式极大地提高了信息的吸收效率。目前,NotebookLM 最新版本甚至允许用户 实时打断 AI 播客,直接向“主持人”提问,并引导讨论方向。我几乎每天都用它来快速掌握某个研究领域的基本概念,然后再决定是否深入学习。

  主持人 :你过去一直强调,你们所有的研究最终都是为了 通用人工智能(AGI)。但我仍然想问,你认为 AGI 到底要解决什么问题?

  Demis Hassabis:对我个人而言,我一直在思考的终极问题是:现实的本质是什么?从小时候开始,我就对宇宙的 终极奥秘 充满好奇。我认为,我们对这个世界的理解仍然非常有限。通常,如果你对这些终极问题感兴趣,你会去研究物理学,因为物理学试图揭示宇宙的基本法则。而物理学确实是我在学校里最喜欢的学科之一。但后来,我读了 Richard Feynman(费曼)、Steven Weinberg(温伯格) 等伟大物理学家的著作后,我开始思考一个问题:也许,我们需要更强大的工具来帮助我们理解现实,即使是最聪明的科学家,也可能需要 AI 的帮助。

  Demis Hassabis:我一直在思考这些问题,我觉得这正是 科学和哲学的核心意义。

  Demis Hassabis:这取决于我们的研究进展,但我相信,我们正在 逐步接近答案。

  主持人 :所以,从某种意义上来说,人工智能不仅仅是科学的问题,它也涉及哲学?

  Demis Hassabis:是的,我个人非常热爱哲学,我认为我们正处于一个需要新一代伟大哲学家的时代。如果有哲学家在听这次采访,我想强调,现在比以往任何时候都更需要思想家去思考我们即将走向的未来。要真正理解现实的本质,包括所有的物理法则,我们可能需要一个接近 AGI 级别的人工智能。

  主持人 :那么,按照你的判断,AGI 什么时候会实现?是 10 年?5 年?50 年?这方面的讨论一直很多。

  Demis Hassabis:我通常不会给出确切的时间表,因为这在很大程度上取决于你如何定义 AGI。但我们在 DeepMind 的定义一直非常一致,已经保持了十五到二十年。我们的观点是,AGI 必须具备人类所有的认知能力,因为人类大脑是目前宇宙中已知的唯一“通用智能”实例。如果你要创造真正的通用智能,那么它至少要能够完成所有人类能够做到的事情,包括创造力等更高级的认知能力。按照这个定义,我认为我们距离 AGI 还有五到十年,也许还缺少一到两个关键性突破。

  主持人 :但谁应该来决定我们何时真正达到 AGI?是科学家、天选团队AI 研究人员?还是政府、社会?

  Demis Hassabis:我认为,这个决定不能由某一个群体单独做出,而应该是整个社会的共同决定。包括科技公司、学术界、公民社会、政府机构,以及最终会受到 AI 影响的所有人。在 DeepMind 和 Google,我们一直在努力与尽可能多的利益相关方进行交流。例如,我们组织 AI 科学论坛,并经常与英国皇家学会、美国国家科学院等机构保持沟通。但问题在于,我们目前可能还没有合适的全球治理机构来协调这些讨论。我希望有一个类似联合国这样的组织来主导全球 AI 监管讨论,但目前全球在这方面的进展还不够快。

  主持人 :所以你认为,AI 监管需要一个国际性的框架,而不仅仅是国家层面的政策?

  Demis Hassabis:是的,人工智能的影响范围超越国界,任何一国的单独行动都不足以有效管理它的发展和应用。因此,我们需要一个全球性的 AI 监管机制,类似于气候变化方面的国际合作。我很高兴看到 AI 领域的国际讨论正在加速,例如英国的全球 AI 峰会、即将在韩国举行的会议,以及下个月将在巴黎举行的峰会。我会去参加巴黎的会议,因为我们需要加快这些全球讨论的步伐,明确如何部署这些系统,让它们造福人类,同时降低风险。

  主持人 :在监管问题上,我们首先得弄清楚 AI 可能带来的主要风险。你最担心的是什么?

  Demis Hassabis:总体来说,我最担忧的主要有两类风险。第一类是 AI 可能被不法分子滥用。由于 AI 是一种通用技术,它可以被重新配置,用于不同目的。而通用性越强的 AI,越容易被滥用。例如,它可能被用于生成虚假新闻和深度伪造内容,或者被用于自动化网络攻击,甚至涉及生物技术风险,比如 AI 设计新型病毒。这些问题是我们必须认真面对的。

  Demis Hassabis:这个问题其实比“支持或反对开源”复杂得多。我们深度支持开放科学和开源社区,例如 AlphaFold 这个项目完全开源,所有研究人员都可以免费使用它来解析蛋白质结构。此外,现代 AI 产业中,大部分前沿研究都基于 Google DeepMind 过去十年的公开论文,比如 Transformer 和 AlphaGo 相关研究都是自由分享的。但与传统技术不同,AI 是一种极其通用的技术,开源意味着无法撤回。如果 AI 以 API 方式提供,当发现潜在风险时,仍然可以关闭访问权限,但如果 AI 完全开源,那就无法收回,一旦落入不法分子手中,就可能被恶意利用。因此,我们支持最大化 AI 的积极用途,同时也需要合理的安全机制,防止它被滥用。

  主持人 :除了被滥用的问题,你还担心 AI 可能会在某个时间点变得难以控制?

  Demis Hassabis:这与 AI 的涌现能力有关。传统技术,比如汽车发动机,是可预测的,我们可以在发布前彻底测试,确保它的功能不会超出预期。但 AI 并不是这样,即使我们测试了六个月,也无法完全预测它在全球数十亿人使用后会不会出现意外的新能力。例如,有可能某个聪明的开发者无意中发现了 AI 新的推理模式,从而导致它具备了原本不应该具备的能力。这是 AI 与任何以往技术不同的地方。即使 AI 研究团队非常谨慎,AI 仍然可能在现实世界中表现出意想不到的能力。正是如此,这也是为什么 AI 监管如此复杂。我们目前的 AI 仍然只是狭义智能,但它正在迅速进化。当 AI 接近 AGI 级别时,风险可能会变得更大。我认为,我们已经过了“是否应该研发 AGI”的争论阶段,因为 AGI 迟早会被实现,问题在于我们如何确保它的安全发展。科技的历史表明,如果某种技术是可能实现的,并且有价值,那么它最终一定会被推动实现。AGI 也是如此,关键是我们如何以负责任的方式推进它的发展。

  Demis Hassabis:是的,未来十年,AI 可能会彻底改变世界,我们要确保它的发展是安全和有益的。所以我们必须直面这些问题,努力确保 AI 以最安全的方式进入世界。这也涉及到 AI 的自主性,以及应该如何设计 AI,国际社会是否能就此达成一致,因为 AI 其实有很多安全的设计路径。如果你从 AGI 的设计空间来看,有许多方法可以让 AI 变得可控、可理解,但也一定存在一些方法可能会让 AI 变得难以理解、难以控制。我们现在需要的正是这方面的研究。但这不仅仅是一个技术问题。事实上,我甚至更乐观地认为,只要有足够的时间,足够多的聪明人才,我们终究能解决这些技术上的挑战。但更难的问题在于全球的地缘政治协调,比如如何避免“囚徒困境”或“公地悲剧”这样的局面。

  主持人 :这就把话题带到了唐纳德·特朗普。在过去 24 小时内,他已经退出了多个国际协议。你怎么看 AI 领域在未来四年内达成国际共识的可能性?看起来这种可能性微乎其微,而且很可能会出现去监管化,而不是加强监管。这让你感到担忧吗?

  Demis Hassabis:我认为我们还需要再看看这届政府会真正做些什么,现在下结论还为时过早。不过,我对这届政府中有许多深谙科技的人士感到欣慰。他们不仅理解 AI 发展的机遇,也深知其潜在的风险。很多我认识的人都清楚 AI 带来的影响,不论是积极的还是消极的。所以我希望这能成为一件好事,因为他们对技术有足够的认知,也能够推动 AI 发展走上一条理性之路。我常说,我们需要在 AI 发展上做到既 大胆 又 负责任。我们必须大胆地抓住 AI 带来的各种机会,例如推动经济增长,提高医疗系统的效率,加速新药研发,甚至在气候变化等全球性挑战上发挥作用。很多社会性难题,我实在看不出如果不引入 AI 这样的前沿技术,我们还能如何解决它们。但与此同时,我们必须以科学的方法来指导 AI 发展的方向,确保 AI 以一种可控、合理的方式被部署。

  主持人 :这很有趣,因为埃隆·马斯克当初曾主张对 AI 发展设立暂停期,想要放慢进程,而现在他自己也成了竞争者,推出了 Grok。他不仅是 OpenAI 的竞争对手,而且可能会成为政府偏爱的合作方。你认为这是否会造成问题,甚至超越去监管化所带来的影响?

  Demis Hassabis:我确实很了解埃隆,早年我们是好朋友,也共事过一段时间。他是 DeepMind 早期的投资者,我们已经认识 12 年了。从最初开始,我们就一直在讨论 AI 的发展方向,我甚至可以说,我当初让他对 AI 产生了兴趣。但现在 AI 的发展已经超越了单纯的公司竞争、产品竞争的层面,我们谈论的不是市场上的几家企业,而是整个人类的未来,是人类的生存状态和社会的走向。这才是 AI 发展真正关乎的核心问题,我认为有些人已经意识到了这一点,而更多人也应该开始意识到它的重要性。

  有时候我会说,现在的 AI 讨论中短期的炒作实在太多了。你每天在 X(前 Twitter)上都能看到各种关于 AI 的噪音,很多人说 AGI 明年就会出现,或者各种夸大的预测,似乎所有人都陷入了某种狂热之中。但实际上,AI 在 中长期(5 到 10 年)的变革才是被严重低估的。这场技术革命的深远影响尚未被充分认识,而我们目前对 AI 的讨论仍然过于短视。

  主持人 :这点确实很有趣,我也感到惊讶的是,AI 在企业中的采用速度并没有想象中那么快。许多人在 ChatGPT 推出后的第一年里都觉得自己必须尝试 AI,他们确实进行了一些实验,但似乎还没有真正找到适合的应用场景。

  Demis Hassabis:是的,我也注意到了这一点。很多企业在过去一年里试图探索 AI 的应用方式,但他们还没有完全摸清该如何最大化利用 AI。这可能有几个原因。首先,AI 本身仍然是一个快速演化的领域,很多企业可能会觉得技术发展太快,导致他们在投资 AI 方面变得犹豫。其次,虽然 AI 具备巨大的潜力,但要让 AI 真正融入企业的核心业务流程,并不是一件轻而易举的事。对于许多传统行业来说,他们可能还没有完全理解 AI 能为他们的业务带来什么改变。

  但我认为这种情况很快会改变。接下来的几年,我们会看到 AI 在企业级应用上的大规模扩展,一些关键技术突破将使 AI 变得更加高效和易用。到那时,AI 将不仅仅是一个“实验性的工具”,而是成为企业运营中不可或缺的一部分。

  Demis Hassabis:这是你所抱持的乐观主义部分,你的科技乐观主义几乎无人能及。但在通往这个未来的过程中,我们必须谨慎前行。就像你之前提到的,实现 AGI 有很多不同的路径,有一些方法能够确保 AI 服务于人类,帮助我们实现那个美好的未来,我认为这将是一件了不起的事情。我甚至把它看作是“将人类意识扩展到宇宙”的一种方式,就像卡尔·萨根(Carl Sagan)所描绘的愿景一样,我们可能正站在实现这一梦想的门槛上。然而,如果发展方向出现偏差,若是 AI 被不法分子滥用,或者 AGI 本身带来了风险,后果可能会极其严重。因此,我们必须在乐观与谨慎之间找到平衡点,整个社会和 AI 研究领域都需要认真思考如何引导这项技术的安全发展。这正是我们要面对的关键问题。不过,我依然对人类的聪明才智充满信心。人类是极具适应能力的生物,我们的思维能力非凡。每当我想到,我们是如何依靠这样一颗进化自狩猎采集时代的大脑,创造出现代科学与技术,我都会感到惊叹。每次乘坐 747 飞往加州,我都会想,我们是如何造出这种庞然大物的?如果向远古时代的祖先解释,他们肯定无法相信。但事实是,我们做到了,我们已经走到了今天,所以我也相信,我们有能力解决 AGI 带来的问题。

  当然,这必须是在全球范围内的合作下完成,并以正确的方法进行,而不是盲目推进。我们需要全球最顶尖的科学家来共同研究 AGI 的设计方案。我曾经和世界上最伟大的数学家之一 Terence Tao 讨论过这个问题,我一直认为,如果我们能召集所有像他这样聪明的人一起研究 AGI 的安全性,我们一定能找到技术上的解决方案。关键的问题是,我们是否能解决地缘政治和社会层面的问题。我甚至认为,这方面的挑战可能比技术本身更加棘手。

  主持人 :或许,我们应该先放慢 AGI 发展的脚步,先集中精力解决安全性问题,然后再加速推进。

  问题1:Demis,我想问问你刚才提到的“具备自主性的 AI”——如果 AI 变成了自主智能体(Agent),并且这些 AI 开始相互作用,尤其是在金融服务等现实世界的应用场景中,那谁应该对它们的行为负责?

  Demis Hassabis:这是一个非常好的问题。事实上,AI 之所以正在朝着智能体(Agentic AI)方向发展,正是因为这样的 AI 比传统的非自主系统更加有用。今天的 AI 主要是被动的问答系统,比如你向一个聊天机器人提问,它会提供一个答案。但如果你让它推荐一家餐厅,为什么不能让它直接帮你预订座位呢?显然,这才是更方便的体验。所以,从一个更实用的角度来看,用户会更倾向于选择具备自主性的 AI,因为它们能节省时间,提高效率,让生活更便利。但如果放眼未来,一两年后,甚至三年后,我们会看到 数百万个 AI Agent 在网络中自主交互。比如,未来可能会有 AI 代表商家与消费者进行自动化谈判,这意味着我们可能需要重新思考网络基础设施和应用架构,整个互联网的交互方式将被彻底重塑。这将是 AI 发展带来的另一个被严重低估的变革。

  问题2 :我有时间再问两个快速问题。首先,中美之间似乎正在进行 AI 竞赛,你认为如果其中一方领先,会对全球格局和 AI 发展方向产生怎样的影响?其次,目前 AI 训练数据主要来自大型科技公司,你认为这是否会导致 AI 存在数据偏见,从而影响最终对用户的服务?

  Demis Hassabis:关于国际竞争的问题,我们确实看到中国的 DeepSeek AI 昨天刚刚发布了一款非常有竞争力的模型。理想情况下,AI 研究应该是国际化协作的,而不应该陷入“军备竞赛”的模式。但现实情况是,这已经超出了我的预测范围。我过去十到十五年一直在警告相关决策者,如果 AI 发展陷入竞赛模式,可能会带来严重后果,而事实正朝着我最初担心的方向发展。如果 AI 竞赛继续升级,可能会导致一种“赛跑效应”——即使有些团队或国家愿意放慢脚步,集中力量解决 AI 的可控性和安全性问题,但如果其他团队仍在全速前进,那么他们可能别无选择,只能继续跟进。这正是全球 AI 监管所面临的最大难题之一。至于数据偏见的问题,这确实是一个挑战。AI 的训练数据主要来自大型科技公司,而数据本身可能包含固有的偏见。这不仅是一个技术问题,也涉及到社会公平性。因此,我们需要更加多样化的数据来源,并采取更透明的 AI 训练方式,以确保 AI 不会强化或扩大数据中的偏见。

  问题3:那么,随着生物 AI 系统的进步,会不会有人利用 AI 设计出致命的病原体?这是否会成为全球安全的新威胁?

  Demis Hassabis:首先,我要强调一点,即便没有 AI,现有的生物技术已经足以设计病原体。AI 可能会加速这一过程,但它并不是唯一的决定性因素。在我们发布 AlphaFold 2 之前,我们专门咨询了 30 位生物安全专家、伦理学家,以及多位诺贝尔生物学奖得主,以确保这一技术的益处远远超过风险。他们一致认为,这项技术的医学价值极高,因此我们最终选择将其开源。

  但随着 AI 的进步,我们确实需要建立更强的检测系统,以防止 AI 被用于生物。例如,如果 AI 以 API 形式提供,我们可以在后台运行检测机制,一旦发现有人试图利用 AI 生成危险病原体,就可以立即封锁访问权限,并向相关机构报警。这也是为什么开源 AI 可能会带来安全隐患,而受控的 API 访问可以提供更好的防护。

  问题4 :回到中美 AI 竞赛的问题,如果 AI 研究陷入竞争模式,而不是合作模式,这是否意味着我们应该放慢脚步,为全球 AI 监管争取时间?

  天选

  Demis Hassabis:这正是我们需要思考的问题。如果没有竞赛压力,我们可能会选择放慢 AGI 研究的速度,优先解决安全性、控制力和价值体系的问题。但现实是,即使某些团队放慢脚步,其他团队可能仍会继续前进。全球需要达成某种共识,否则单方面的延缓可能毫无意义。十多年前,我曾向多位高层人士警告过这一点——如果不及早采取行动,AI 发展将不可避免地陷入竞赛模式。不幸的是,事实证明,我当初的担忧正在变成现实。

  主持人 :在这个充满谨慎乐观的氛围中,我们必须结束这场讨论了。非常感谢 Demis,也感谢所有的观众提问。

  特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

  全文 生态环境部党组书记孙金龙在2025年全国生态环境保护工作会议上的讲线

  《编码物候》展览开幕 北京时代美术馆以科学艺术解读数字与生物交织的宇宙节律

  ColorOS 15 2月升级计划公布:3年前的一加手机喜提大版本更新

  荣耀 Magic 6 系列 / Magic V3 手机将适配“大王影像”

  Ionic智能手表致用户烧伤,谷歌旗下 Fitbit 在美被罚1225万美元

脚注信息
版权所有 Copyright(C)2019-2029 上海欧陆蔬菜公司
百度地图 谷歌地图