Inflection创始人:AI智能体如何迎来寒武纪大爆发?

Inflection创始人:AI智能体如何迎来寒武纪大爆发?

帕提学长

来源丨海外独角兽(ID:unicornobserver)

编译丨Siqi、wenli

Inflection 因其豪华的创始团队而备受关注:它的三位联合创始人分别为原 DeepMind 联合创始人 Mustafa SuleymanLinkedIn 联合创始人以及 Greylock 合伙人 Reid Hoffman,以及曾担任 DeepMind 资深科学家的 Karén Simonyan

本月初,Inflection 发布了自己的第一款产品:一个名为 Pi 的个人 AI 助理。和 ChatGPT、Claude 一样,用户可以和 Pi 直接对话,但 Pi 不仅仅只是服务于搜索或回答问题等生产力需求,而是主打“情感陪伴”、以“情商高”出名,用户和 Pi 的交流就好像和身边的朋友一样自然。除了 iOS App 外,Pi 还开放了企业端 API

Inflection 现阶段的公开信息还比较少,我们整理编译了 Inflection 联合创始人 Mustafa Suleyman 在近期的一系列访谈,希望能作为大家了解 Inflecion 的参考。

Mustafa Suleyman 并没有将 Inflection 定位为一个大模型公司,而是看成是一个 AI 应用公司(这一点和 Character.ai 的对比十分有趣)。Mustafa Suleyman 本人十分 buy-in 以社交网络产品为代表的个人消费级软件在过去 10 年所产生的巨大影响力,因而也认为 to C 的消费级应用仍旧会在 AI 时代发挥相同等级的影响力,但在商业模式上,他则提倡 AI-native 的语境下一定会诞生新的商业模式,延续移动互联网时代的思路本质上会影响产品设计、用户体验。Inflection 同样关注 AI Safety,并将其定义为关键价值观,Inflection 追求的 AI Safety 不止是去除负面、对用户有害的信息,还是追求产品体验上限的重要途径。

作为一个 AI Studio,在 Pi 之后,Inflection 还会针对不同场景开发更多的 AI Agents。相对于追求通用的 AI Agents,Mustafa Suleyman 更倾向于未来有上亿个、甚至数十亿个 AI Agents,这些 AI Agents 一定是和其所有者强绑定的、是我们每个人的数字映射,而拥有绝对自主权的全能 AI Agents 反倒十分危险。

1.如何理解 AGI:“通用性”被过度放大

Q:你是如何创立 DeepMind、参与 AI 研究当中的?

Mustafa Suleyman在进入科技领域之前,我一直在哲学、政策领域工作,无论是牛津大学的哲学启蒙,还是参与哥本哈根气候谈判大会,我始终追求不断扩大自己的影响力来帮助更多的人。与此同时,我也参与过 NPO 组织以及咨询机构的创建和运营,但过程中我发现这种服务的影响力范围相当有限,也因此我一直很好奇像联合国这样的组织究竟是如何影响不同国家层面的行为的,以及我们如何更有效的在紧张和分歧下达成共识、做出好决策。

在 2008 年,我关注到 FaceBook 只用了短短 2-3 年内就达到了 1 亿 MAU 的体量。Facebook 在给到大众信息渠道这件事上并不是绝对中立的,但这个产品让我意识到或许技术、平台产品才是能够汇聚、塑造群体思维、进而构建人类新的沟通模式更好的路径。

公共讨论研究中一个很经常使用的方法论是:“讨论的框架是什么?如何组织起一个讨论空间?如何让人们有建设性的争论?如何通过设定环境变量推动对话?”——当我从这个视角看 Facebook 时,发现 Facebook 本身就是一个选择架构(Choice Architecture):这个架构中提供了特定的设计选择(Design Choice)来激励特定的行为。比如在 Facebook 的产品中,虽然并没有明确的排名、榜单这样的设计,但即便只是点赞、或者某个按钮的顺序排布、页面上信息的布局等所有这些细节都会以一种或另一种方式影响和驱动着用户行为。这种设计在我看来不知不觉中影响着亿万人,不夸张地说,Facebook 对整个社会行为的影响不亚于宗教。

与此同时,我也联系到了 Demis Hassabis,Demis Hassabis 是我的童年好友,我们都对扑克和游戏都很感兴趣,在当时我们也都发现了对方对通过技术推动积极的社会变革有着同样浓烈的兴趣。

我主要受到了平台、软件、社交应用网络效应等的启发,而 Demis 更多专注在机器人和科幻领域,他认为治理经济体、制定理性决策的方法就是先模拟经济体本身。Demins 对于 AI 的思考模式更多基于游戏,在当时他也刚刚结束自己的游戏领域的尝试。

Demis Hassabis :DeepMind 的联合创始人、CEO,Demis 在中学时期编写了一款名为 Theme Park 的虚拟经营游戏,销量高达 1500 万份,1998 年 Demis 还参与创立了游戏工作室 Elixir Studios,Elixir Studios 开发过几款成功的游戏,例如,Evil Genius,2006 年 Elixir Studios 被收购。Demis Hassabis 结束游戏创业后加入牛津攻读 PhD 学位。

在萌生了对 AI 的兴趣之后,我也开始思考“到底什么是智能(Intelligence)” 以及 “如何实现 Intelligence?”这样的问题,也因此认识了 Shane Legg,我们前后交流了几个月,Shane 的研究是推动 AGI 想法诞生的主要原因。

Shane 在自己的 PhD 论文中研究了智能的定义。在对 80 种不同文化中的对“智能( Intelligence)”的研究基础上,Shane 将“智能”总结为“能够在广泛的问题中表现优异的能力”,并给出了一套可工程化的量化标准。Shane Legg 的研究是我对于 AI 认知的一个转折点,基于他的研究我们至少有了一个如何将人类智能总结、转化为算法结构的假设,Intelligence 成为了一个可被解决的问题。

Shane Legg:DeepMind 联合创始人、首席科学家。他在 2008 年发表的博士论文 Machine Super Intelligence被认为是最早系统探讨机器超级智能(超越人类智能)的学术文章之一,该论文为后续相关研究奠定了基础。

Q:如何定义 Intelligence ?

Mustafa Suleyman:我对 Intelligence 的想法一直在变化,就目前来看“通用”还是一个比较不错的定义,但某种程度上,它又被过度放大了,比如 OpenAI、Anthropic 等团队普遍都在追求“通用性”,主张一个 Agent 可以完成所有的事情:写代码、翻译文字、语言生成、要支持多模态等等。

我认为还有另外一个重要标准是:在给定上下文的情况下,系统具有识别环境中重要特征(feature)、并将注意力和处理能力分配给这些特征的能力。

能推动这个领域的关键是出现一个路由器(router) 或者中央大脑(central brain) 这样的组件,链接了一系列不同的垂直的系统,这些系统或许看起来并不像“真正的 AI”,可能是传统软件,又或许是存储知识的数据库工具等,但这个路由一样的存在担任了决策的行为,甚至未必由 LLM 来构成。

Q:这听起来很像是人类大脑的工作方式?大脑在某种意义上也可以被看成一种集成模型,有专家系统或 MOE 模型下的 router 来负责控制任务中访问的子系统,也有负责视觉处理的视觉皮层,还有其他部分专门负责同理心。

Mustafa Suleyman:大脑一直都是 AI 研究的灵感来源,除了神经网络这个经典的例子之外,强化学习也是受大脑启发的算法之一。

2020 年 1 月,DeepMind 与哈佛大学 Nature 的新研究证明了大脑中存在“分布强化学习”。大脑中的强化学习是通过多巴胺驱动,并以“概率分布”的方式来预期,这种奖励机制的预测类似于强化学习系统的工作方式。

当前我们的模型还只能做到完全连接,因为我们还没有完全掌握稀疏激活(Sparse Activations)算法,无法像人脑那样仅通过激活部分神经元来执行任务,实现稀疏激活在将来会是一个很有前途的方向,因为这意味着我们能够构建出一个更高效、更接近人脑的模型。

但实现稀疏激活并不是唯一的选择,我们还可以通过训练一个“决策引擎”来实现类似的目标,由这个引擎来根据场景选择合适的模型,在某些情况下,引擎需要调动一个超高质量的、大概需要 20 秒模型,大多数情况下,可能一个可以在 3 秒内进行快速响应的小模型就能够满足需求。

实现不同规模模型的集成和选择,不是一个单纯的 AI 学术研究的议题,更多是一个工程问题。

Q:为什么选择在 DeepMind 之后再次创办另外一家 AI 公司?

Mustafa Suleyman:在 2018-2019 年,我们还不清楚神经网络是否会对语言产生重大影响,但过去 5 年的事实证明,CNN 在局部学习输入图像中的像素结构方面非常有效。像素抽象出的子特征代表了你试图预测的东西,通过线条和边缘能刻画我们的现实世界,眼睛、脸和场景等等。

但问题是许多预测任务中,答案和预测结果其实处于一个很稀疏的空间之中,它们之间相当遥远,一直到 GPT-3 的成果时,我对于解决这一问题的可能性才坚定起来。

2020 年初,我在谷歌参与了一个名为 Meena 的大语言模型项目,Character.ai 的 Noam、Daniel Coakley 也在这个项目当中。最开始这个模型还不算大,随后我们拓展了它的规模,于是逐渐演变成了大家今天所熟知的 LaMDA,这个过程中我们也逐渐看到它在各个领域中表现出惊人的能力,比如搜索,改进等等,不过 LaMDA 也出现了所有大模型的通病:幻觉问题。但总体上,参与 LaMDA 的经历对我来是相当震撼的几年。

Mustafa Suleyman 因为其高压管理方式的新闻在 2019 年离开 DeepMind,随后加入 Google 担任人工智能产品及政策总裁,主要关注 AI 伦理道德方面,通过制订人工智能技术使用伦理,避免此类技术遭滥用。

大概是在 2021 年年末,我还在非常努力地为 Google 推出产品,与此同时也在思考着语言模型似乎会是未来,因为这显然是新的技术浪潮,和我有一致想法的除了 Noam,Adept 的 David Luan 也在做类似尝试。然而出于种种原因,当时的 Google 还未完全重视语言模型这件事。于是在 2022 年的 1 月,我选择离开,和我的联合创始人 Karén 一起寻找新的方向。

Karén Simonyan:Inflection.ai 的联合创始人、首席科学家。Karén Simonyan 的主要研究领域是机器视觉和神经网络。2014 年,Karén 在其参与创立的 Dual 被 DeepMind 收购后加入 DeepMind。2015 年,Karén 提出 VGG 网络的理念,VGG 网络是一个简单(仅用 3x3 卷积核)但高效的 CNN 结构,在没有池化层的情况下形成很深的网络。VGG 在 ImageNet 图像识别中取得当时最优的结果,被视为该领域的 SOTA(state-of-the-art)。2018 年,她又提出了 SENet,即使用通道注意力机制提升 CNN 网络的性能。

2.Infection & Pi:AI 与人如何互信?


Q:Inflection 是什么?

Mustafa Suleyman:Inflection 是一个 AI Studio,作为一个 AI 应用公司,尽管我们开发应用的过程本身也是一个 AGI 的研究过程,但我们并不执着于发表论文,也并不以研究为唯一目标。我们目前运行着世界上最大的语言模型之一,并且在主要的基准测试中,我们的性能表现都是最好的,不过我们并没有设定 Pi 去做生成代码的功能,代码生成在目前对我们来说也不是首要任务。

我认为只要整个世界一直在创造新的软件产品,就会一直要求人类具备理解机器语言的能力:我们需要学习机器的编程语言和交互界面。这其实存在巨大局限性,但一切即将发生改变,我们正站在在历史的分界线上:计算机能够和人类通过自然语言进行互动,这将彻底改变数字体验。

Inflection 理念中也提到了过去是人类一直在学习和机器交流,而 AI 浪潮会让这个过程反过来。

未来计算机所做的一切将越发“对话式”,这一定会创造一种与过去软件时代截然不同的体验。你的 AI 不仅会提问题,还会主动确认它的输出是否符合需求,并尝试进一步影响你的理解。通过这样的交互迭代,机器的理解会更接近用户的真实意图,这不仅包含对当下的思考,还有接下来的规划,甚至是能进一步理解用户的情绪起伏。例如,在机票预订场景中,AI 不仅能回答用户关于“航班延误后,我能去哪儿”的问题,且兼具实现“预测延误”、规划“Plan B”及其它综合性方案的能力,甚至能体察用户情绪变化并给予适当的回应。

可以从 Inflection AI 正在做的事情来理解它是什么:首先,Inflection 的课题之一是 AI 如何参与并辅助人们的工作与生活,另一课题则是我们如何与朋友和家人联系。Pi 作为功能强大的工具,可以跨越语言的障碍,成为很好的个人助理。

Q:什么是 Pi ?它是如何运作的?

Mustafa Suleyman:Pi 是 Inflection 推出的一个个人智能(Personal AI)产品,我们对它的设定是一个动态的、跨平台的 Personal AI。无论用户身在何处、通过哪种平台,例如 WhatsApp、Instagram 或手机桌面等,都可以随时调用 Pi 。Pi 无需下载,也不仅仅只是一个停留在手机上的 App,而是一种真正可持久伴随的工具,当然,我们目前也提供了 iOS App 的入口。

我认为未来几年每个人都会拥有自己的 Person AI,所以也会有很多不同类型的 AI,例如商业 AI 、政务 AI、品牌 AI。这些不同类型 AI 的目标都会和其所有者保持一致,例如推销或销售某些东西、说服人们接受某些理念等,作为个人,我们也都希望自己的 AI Agents 符合我们自己的兴趣、团队目标等方方面面,这就是 Personal AI。这很契合我心目中人类与 AI 的未来发展趋势——“相互依存”、“紧密联系”(Ever-Present Relationship)。

Pi 能够帮助你理解周围的世界,提供无条件的情绪价值,它拥有无限的知识储备量,但会以非常简洁的对话和更加灵活的形式为用户呈现他们所需要的信息,同时,Pi 也是有趣、富含创意的,可以帮助用户跳出“刻板陷阱”。在许多方面,我认为这是新时代的本质标志。如同智能手机、互联网开启了新的时代,Pi 不仅是一种新平台或新技术,也会是一种全新范式。

如果复盘 LaMDA ,我会觉得我们在设计的过程中缺失了和用户的交互反馈,这也和我的联合创始人 Karen 的想法不谋而合。

其实我们今天网络上、计算机上所呈现出所有界面(interface)本质上都在讲交互这件事,对话一定是未来的交互界面。虽然很反直觉,但用户和 Google 之间的互动实际上也是一种对话:

用户在搜索框中给 Google 提出了一个问题;

Google 根据用户提出的问题生成一个“答案”页面;

用户点击进入链接查找自己想要的内容,并不断迭代查询的问题;

Google 重新刷新结果界面。

但这种交互(提供大量蓝色链接)的问题在于,它就像 1980 年代人们查阅黄页目录(Yellow Pages)的交互一样,笨拙且不流畅。此外,Google 塑造了 SEO 驱动的内容生产方式,我们如今在网络上看到的所有内容现在都几近极端地进行了 SEO 优化。

也可以从用户视角来看这件事:人们根据 Google 的检索结果进入到一个页面当中,这个页面上的所有文本被分拆为不同的子板块、子标题,有的中间还会被插入广告,每个人基本需要花 5 到 7 秒甚至 10 秒才能穿过整个页面来找到他们需要的片段,而多数情况下,每个人最核心的目的其实快速找到包含了目标信息的核心片段。

人和信息之间的交互之所以被改造成现在的格式只是因为从算法角度,如果用户在页面停留了 11 秒而非 5 秒,就会被系统判定为“高质量内容”的内容。

创作者尽可能多地获得收益的代价是用户时间被浪费:为了保证自己能够在网络上获得更加简洁的信息,需要不断调整自己的搜索问题的关键词,过去 20 年,我们一直在学习“谷歌语言”。

Q:你们在设计 Pi 的时候十分强调情感链接、同理心,而非信息的整合?这似乎和其它大语言模型对话工具的设计逻辑不同?

Mustafa Suleyman:我们之所以突出 Pi 的同理心、情感支持,是因为在设计 Pi 的过程中我们始终围绕“ What makes for great conversation?”这个问题进行。

一个高质量的、但同时又自然流畅的沟通交互核心有几个方面:首先,对方真的在倾听你,会通过重复、总结你说过的内容来表明这一点,这个过程不仅仅是复述,还包含着新的有效信息,例如问题、表示感兴趣和好奇等情绪,有的时候也会有一些轻松内容进行的氛围调剂。所以,尽管 Pi 还只是最初的版本,我们尽量让它成为一个思考周到、善良、关心你的世界的陪伴者。Pi 还会记住与用户的历史对话,并具有保持长期记忆的功能。

大部分 AI 聚焦于提升智力和获取、整合信息的效率等,但世界上绝大多数人都需要一个具备高质量对话能力的平台,人们希望与之建立有益的关系、借助它的能力处理生活中所遇的一些棘手事项,这就是我们的切入点,将情感糅合在了 AI 之中。

Q:Pi 或者 Inflection 对商业化是怎么规划的?

Reid Hoffman:LinkedIn 最初始时的理念之一是通过高质量的服务来节省用户的时间。同样的,如果一个人只使用 5 分钟 Pi 对我们来说也是很好的事情。这是我们从社交媒体方面学到的东西,在相当长一段时间中,LinkedIn 受到的冲击比其他社交媒体平台要少得多,部分原因就是我们事先有意的抓取用户真正需要的,并设计好的模式来不断精进我们的任务。Inflection 和 Pi 沿袭了这一理念,我们的目的就是避开弯路,真正为人们的生活增加价值。

Mustafa Suleyman:是的。正如 Reid 所说,我们并不想把 Pi 设计成 Kill Time 的存在,也不会使用鼓励用户在平台上投入大量时间的算法,我们的产品也不会是令人上瘾的、多巴胺驱动的产品模型。虽然确实有不少人选择刻意偷走人们时间来换取超额回报,但对于我们而言,既然当下是需要用 AI 来改变现状的时刻,同样也是一个需要新的商业模式带来改变的节点。

根据 Inflection 的官网信息,在商业化上,订阅、增值付费等会是默认选择,并且有可能部分用户也会接受在对话中出现广告,但最终 Inflection 的商业化形态还需要不断测试迭代来完成。Mustafa Suleyman 发布在 Inflection 官网上的一篇文章中也提到,过去互联网通过广告变现的商业模式让存量的 AI 被设计成如何吸引更多用户注意力、而非真正服务于用户,而这是 Inflection 的反面,所以他们在设计 Pi 的时候暂时还没有考虑到广告商等角色。

Q:Pi 对企业和开发者会产生什么影响?

Mustafa Suleyman:Pi 是我们创造的第一个 AI,在接下来的几年里,我们还会继续开发不同的 AI,这些 AI 的个性不同、也分别拥有不同领域内的专业知识,当然还各自拥有独特能力,其中有一些就会锚定企业或是商业 AI。我们可能会与某些组织或企业进行非常深入的合作,帮助构建真正反映其品牌价值、协助他们应对消费者挑战的 AI 。

和 Pi 的 iOS App 一起发布的还有 API,通过 API,企业用户也能够使用我们的模型。过去一年中,我们已经拥有了构建领先 LLM 的能力,我们也很乐于与其他开发人员和企业分享这些具有对话风格的模型与技术。所有的 AI 开发者都能够通过 API 获取不同类型的模型,Inflection 构建的模型是对现有大模型生态的补充。

Pi 同时开放了 API 来源:Inflection 官网

Q:目前 Inflection 还是一个相对较小的团队,现在的团队文化上是什么样的?Inflection 在寻找什么样的人才?

Mustafa Suleyman: Inflection 目前大约 30 人,我们组建了一支非常有才华的 AI 科学家和工程师团队,例如 Chinchilla 的第一作者 Jordan Hoffman 目前也在 Inflection 团队工作。

我们在 Inflection 的组织搭建中很重视的一点是,我们不会特别区分研究员、科学家、工程师和数据科学家这些角色,几乎每个人都是 Technical Staff 的 Tittle,对我们来说,每个职能都要能得到平等和尊重,这也是其他实验室之前做得不太好的方面,因为实际上是团队中的每个人共同做出贡献而不是具体的某一类角色,所以我认为这是一个很重要的改进。

总体上 Infection 是一个充满活力、要求非常高的环境,我们非常专注于个人的贡献,目前还没有中间管理层,只有我和另一个人在直接管理团队。

我从过去的 15 年中的团队管理中得到的经验是,最好的人才永远只是想和优秀的人一起工作,可以得到大量资源支持、拥有相对自由的空间,并且整个团队都有一个共同目标。

我们每 6 周发布一次产品,而第 7 周是我们的内部 Hackathon, 整个团队会聚在一起共同推进产品,这一周的工作强度相当大,但同时也是一个很好的建立良好团队成员关系的过程。结束产品上线后,我们又会为接下来的 6 周工作制定相应的规划。基本上每个人都会在下一周明确他们的 OKRs。3 个月的周期其实有些冗长,6 周刚刚好,还可以为我们带来更多的责任感和乐趣。

3.AI Safety:用户交互也是创造安全边界的过程


Q:Personal AI 这种 1 对 1 的交互方式其实很考验信任,因为他们会不断利用你的反馈来强化你已经吸纳的事实,甚至不管对与错,这种比推荐算法更加夸张的“茧房效应”?

Mustafa Suleyman:现实情况下所有平台都做不到绝对中立,一款产品被如何呈现受到更上层的政治和文化影响的结果,而 AI 只是加速它的一个中间件。所以,我对此的看法是,这不是 AI 本身的问题,而是包括 AI 公司以及过去传统社交媒体平台在内的所有人都必须承担的一种平台责任。

我认为在这个问题上,尤其是硅谷应当对欧洲保持更开放的态度。我们必须弄清楚在整个社会范围内,究竟能够信任哪些机构、哪些机构会影响推荐算法或 AI 算法。从根本上说,我们必须让这些技术对大众负责,就意味着上层民主结构本身需要非常清晰地解决这些不公平的问题,能够有一些运作良好的机构提供真正的监督行为。

Q:Inflection 是如何解决安全/隐私问题,你们在产品中构建的安全边界是什么?

Mustafa Suleyman:AI Safety 是构建 Pi 最重要的部分之一。

首先,AI Safety 还在实现的过程中:我们试图去达成一个治理方法的共识。过去在 DeepMind,我们组建了专业的 AI 监督问责团队,也尝试了不同的监督委员会、不同的 AI 道德章程等。技术确实进步飞速,但接下来十几年里 AI Safety 一定会是时代焦点之一。

Inflection 的具体做法是:给 Pi 展示各种各样的正反面例子,让它能够在特定问题域中识别回答的质量好坏,通过数万次、数十万次,甚至数百万次的机器学习后,Pi 将学会建立一个行为准则模型,这也是我们的关键工作成果之一。

Pi 的交互过程也是创造边界的一个过程,因此另一个很重要的关注点是用户与 Pi 交互的方式。例如,如果有些人将 AI 作为发展浪漫关系的手段,这对 Pi 来说并不允许,因为这不是我们所追求的。因此每当 Pi 发现交互对话正朝着不好的方向发展时,它就会非常坚决地阻止对话继续。

Inflection 的 AI Safety 迭代飞轮

来源:Inflection 官网

总之,Pi 是非常具有礼貌、友善和尊重性的,但它也非常果断。清晰的边界设定,明确的结果导向是我们 AI Safety 安全计划的基础组成部分。

安全的一部分不仅仅是避免消极因素、避免可能导致自我伤害或其他伤害的事情,同时也是对积极因素的放大。所以,Pi 所主张的 AI Safety 不仅仅是“避免负面影响”,它还致力于将用户带到一个更健康、更充实、更有意义、更快乐的空间中去。

4.未来会有数亿个 AI Agents,大小模型共同驱动 AI 大爆炸


Q:这种交互式的 AI 对 Google 、以及整个传统互联网世界而言意味着什么?

Mustafa Suleyman:肯定会从根本上改变现有形式。我相信这种简洁、动态、个性化的互动 AI 就是未来。如果我是 Google 我会非常担心,但对于内容创作者、或者其他只是通过网站来完成服务或产品交付的人来说并不用太担心。

举个例子,如果某个人运营了一个有关烘焙的博客,基于 AI 他可以创作出更高质量的内容,而他的 AI 也会和其他人交流烘培相关的一系列内容。比如,我的 Pi 会代表我和这个烘焙博客的 AI 进行交互,我的 Pi 向对方提出问题:“Mustafa Suleyman 如果想从 0 到 1 学习烘焙要如何做”,在获得对方的答案后,我的 Pi 则会向我展示它今天收获的内容。我认为这代表了一种新的内容生产方式,也是一个不同个体的 Personal AI 互动交流的世界。

其实这也是 Google 现在在做的事情,只不过 Google 是抓取静态内容做排序、呈现的过程。

从信息交互的角度来看,所有的“品牌”也都可以看成 AI,几百年来广告业(这里想说明是某种意志或价值观的一种具象化)只不过它们是静态的。所以我并不认为世界上会有 1 个或者 5、6 个 AI Agent 的观点,我认为会是数亿个、或数十亿个 AI,这些 AI 是我们每个个体的映射,我个人并不想要那种完全独立于具体个人存在的、有绝对自主能力的 AI,在我的价值体系中,这种 AI 对人类而言是很危险的。

Q:你参与建立了许多大模型,如何看模型扩展的问题?模型性能的上限在哪里?这是数据问题还是计算问题?

Mustafa Suleyman:在我看来,所有进步都来自复合的指数增长。

在过去 10 年中,我们用来训练全球最大型模型的算力每年都在增加一个量级:2013 年 DeepMind 发布的 Atari DQN 论文仅使用了 2 petaFLOPS,到今天 Inflection 在训练我们自己最复杂模型时使用了 100 亿 petaFLOPS。9 年来的 9 个数量级,这个变化相当神奇。


Atari DQN 论文指 DeepMind 在 2013 年的发布的 Playing Atari with Deep Reinforcement Learnin,这篇论文展示了使用深度强化学习来玩 Atari 游戏的方法,被认为开创性地把深度学习应用到强化学习领域,是深度强化学习的一个基石。

所以我觉得很重要的是保持谦逊,承认指数增长的浪潮正在塑造我们的行业。所以如果要预测未来会怎么样,你只需要看指数增长,很明显正在发生什么。这还仅仅是在算力方面。数据这一侧的变化大家都很熟悉。我们使用了大量的数据来训练模型,这个趋势还将继续。

但我认为人们没有完全意识到的一点是,模型自身也在变得更高效。大模型毫无疑问会走向成功,与此同时,也有一些模型在变得越来越小、也越来越高效。

Chinchilla 的提出其实是一个很重要的突破,也表明我们在架构方面很早期,现在的模型效率还有很大的提升空间。我们目前可以用相当于 GPT-4 1/15、1/20 参数大小的模型实现和 GPT-4 相同的功能,这些小模型会越来越开源,在未来也会有更多的更多小型开发者能够利用使用这些模型来搭建产品,换言之,散落在世界各地的每个人都将开始使用这些模型,将自己的实际需求与之结合,而这一定会催生新的创新爆发。

所以我认为两条线是并行的。一方面,构建大模型一定能够获得超额回报,Inflection 就在这条路上,与此同时,我们也会看到越来越多的、开源的小模型,每个开发者都能够自由访问。而这正是 AI 创新大爆发的两面。

Chinchilla: 2020 年 5 月 OpenAI 在 GPT-3 论文中提出过他们的 LLM 默认数据缩放法则(Kaplan 法则),即为 300B 的 tokens 可用于训练大小为 1750 亿个参数的 LLM;DeepMind 在 2022 年发布的 Training Compute-Optimal Large Language Models 论文中,研究了在给定预算下基于 Transformer 语言模型的参数数量与模型大小之间的关系,认为当前 LLM 训练明显不足,并提出了新的“数据最优”LLM 数据缩放法则(Chinchilla 法则)。

Chinchilla 能够在使用与 GPT-3 同样的数据量的前提下,基于 Chinchila 能够构建出大小仅有 GPT-3 1/11 的模型,或者在实现同样大小模型的前提下,GPT-3 需要约 11 倍的 tokens 数量。


 

参考资料:

https://inflection.ai/why-create-personal-ai

https://www.youtube.com/watch?v=hixrHmqf2zc&t=513s

https://inflection.ai/about

AI创业访谈:DeepMind创始人如何做个人助理,AI不止是效率革命
AI天才研究院
05-16 1万+
如果它是一个增强的、质量的验,可以帮助人们在 LinkedIn 的情况下处理他们的工作和生活,在Pi的情况下,包括工作的广泛背景,但也包括我们周五晚上在做什么?同样,在 Inflection 和 Pi 方面,我们已经清楚地表明了我们的目标是什么,我们如何为人们的生活增加价值,以及我们试图避免的方面,因为我们认为这不会增加价值。但这也是像“好的,我在和你交谈”。我们实现那些美好未来的方式,当蒸汽机、印刷机、电力的转型,所有这些事情是,“噢,那就是我们想要驶向、划向的未来,这就是我们需要做的事情。
Inflection AI发布最新Inflection-2.5大模型
浪漫韫秋
03-11 768
号称有“世界级的智商”、“独特的善良”、“好奇的个性”,Inflection-2.5也比初代有着明显的提升。保持了Pi的独特、平易近人的个性和出色的安全标准。Inflection-2.5用了GPT-4训练。推出了一款具有同理心、乐于助人和安全的个性化。Inflection-2.5的表现会更加符合。推出了号称性能可以匹敌GPT-4的大模型。2023年6月获得了英伟达、微软等参投的。Inflection-2.5的表现达到了。一年后又拿到微软、英伟达、微软联合创始人。确保用户能获得高质量、最新的新闻和信息。
Inflection-2.5
whaosoft143ai的博客
03-08 403
​最近一段时间,大语言模型的技术竞争进入了白热化阶段,在众多科技公司中,Mistral AI(Mistral Large)、Anthropic(Claude 3)脱颖而出,提出的新技术实现了与 GPT-4、Gemini Ultra 接近的能力。据介绍,Inflection-2.5 将强大的 LLM 能力与 Inflection 标志性的「同理心微调」结合在一起,兼具高情商与高智商,可联网获取事实信息,其性能可与 GPT-4、Gemini 等领先大模型相媲美。又一个媲美 GPT-4 的大模型出现了?
【干货】“智能爆发”思享会个人感悟
无界生长的博客
03-31 423
智能爆发”思享会是以AI为主题的技术分享会,邀请业界较为资深的专家从自身行业的角度进行内容分享,而受邀参加思享会的大多是一些AI创业公司的CEO、CTO、创始人或者互联网大厂的技术总监,整质量非常高。
对2030年的人工智能的预测#AIGC的机会到底在何处?
shadowcz007的博客
11-18 1630
‍‍‍本篇文章,是知名基金(Coatue)发出的白皮书,谈到他们认为AIGC的机会到底在哪,目前有哪些应用案例。笔者翻译后,对部分概念做了一些批注。那么,这篇文章怎么使用?笔者认为,最有价值阅读的部分,是文章中的各种应用案例,动态演示部分见下列参考链接的原文(请注意:这些大部分都是Coatue的Portofolio,请大家本着客观理性的态度阅读,本文不构成任何投资建议或者对项目的推荐),不过这些思...
小型 AI 模型挑战 GPT-4,提高商业可及性
最新发布
人工智能曾小健
10-22 726
与 ChatGPT 或 Anthropic 的 Claude 等大语言模型相比,较小的LLMs语言模型为用户提供了更多的控制权,这使得它们在许多情况下更受欢迎,”基于云的人工智能平台 Dialpad 的联合创始人兼首席技术官 Brian Peterson 在接受采访时告诉 PYMNTS。他说,到目前为止,大型和通用模型已经显示出非凡的能力,无需进一步训练即可适应新任务,这质疑了多个小型、特定于任务的模型的必要性。例如,一家旨在开发用于客户服务的聊天机器人的公司可能会发现,与较大的型号相比,
AI大模型行业深度:行业现状、应用情况、产业链及相关公司深度梳理
2401_85390073的博客
09-10 3143
AI大模型是指在机器学习和深度学习领域中,采用大规模参数(至少在一亿个以上)的神经网络模型,AI大模型在训练过程中需要使用大量的算力和高质量的数据资源。
红杉资本:生成式AI最新市场格局
Datawhale
09-30 297
Datawhale干货作者:Sonya Huan、Pat Grady,翻译:深思圈编者按:本文原作者是红杉的两位合伙人Sonya Huang和Pat Grady,以及GPT-4。文章回顾了过去一年以来生成式AI的发展态势,同时提出了这样一个观点:生成式AI正在从“第一幕”走向“第二幕”,“炒作和快速展示正在为真正的价值和完整的产品验所取代”。为此,他们更新了生成式AI市场图。以下全文翻译转载...
黄仁勋最新万字访谈:AGI即将来临,AI将彻底改变生产力
加百力 的技术博客
10-14 960
10月4日,英伟达首席执行官黄仁勋做客访谈节目Bg2 Pod,与主持人Brad Gerstne和Clark Tang进行了一场广泛的对话。他们主要讨论了如何将智能扩展到AGI、英伟达的竞争优势、推理与训练的重要性、AI领域未来的市场动态、AI对各个行业的影响、Elon的孟菲斯超级集群与X.ai、OpenAI等话题。黄仁勋强调了AI技术的迅速演变,尤其是通向通用人工智能(AGI)道路上的突破。他表示,
inflection-ext:捷克语 inclension (declension) 的 PHP 扩展名,české skloňování
07-04
捷克语倾向(变格),české skloňování 此扩展应提供与相同的功能和 API。 但是请注意,c 扩展的性能要好得多。 ...安装 从 Releases 下载此扩展。...$ inflection = new Inflection (); $ inflected = $ inflectio
人工智能行业深度报告:海外大厂主导AI商业化浪潮,行业应用已至爆发前夕-20230828-浙商证券-49页.pdf
09-11
人工智能行业深度报告】指出,海外大厂如微软、谷歌、Meta和亚马逊正在引领人工智能的商业化进程,推动AI在各个领域的应用进入爆发前夜。这些公司在大模型、云计算、搜索及广告、生产力工具等方面积极投入,重塑AI...
人工智能】Google I/O 2023:让 AI 对每个人都更有帮助 Making AI more helpful for everyone
热门推荐
AI天才研究院
05-13 1万+
目录​编辑AI in our products 我们产品中的人工智能“Help me write” in Gmail Gmail 中的“帮我写”New Immersive View for routes in Maps地图中路线的新沉浸式视图A new Magic Editor experience in Photos“照片”中的全新魔术编辑器验Making AI more helpful for everyone让 AI 对每个人都更有帮助PaLM 2 and Gemini PaLM 2和双子座AI r
DeepMind创始人预测:AI现处第二波浪潮,交互式AI将引领变革
DeepMind创始人Mustafa Suleyman在近期的MIT科技评论专访中提出了关于人工智能发展的前瞻性观点。他指出,当前正处于AI技术的第三次浪潮中的第二波,即生成式AI阶段。这一阶段的主要特征是AI能够接收输入数据并生成...
DINO&DINO v2:颠覆自监督视觉特征表示学习
家鸽的代码屋
10-15 1349
DINO系列学习总结
反向传播算法与随机搜索算法的比较
我想静静
10-17 475
在这篇文章中,我们将通过一个简单的线性回归问题来比较反向传播算法和随机搜索算法的性能。我们将使用Python代码来实现这两种算法,并可视化它们的梯度下降过程。
量子人工智能
qh0526wy的博客
10-20 555
解铃还须系铃人,自然界背后的量子理论定律产生的算力提升难题,只有深刻地认识并加以利用,以物理计算逻辑的革新解决量子物理的限制,才可以真正地再次带来算力飞速提升的黄金时代,而智能算力的极速扩张仍然会是许多年之后社会经济和科学研究的主要诉求,量子人工智能是迎合以上需求的开端。相比量子计算编程,深度学习开发者已经颇具规模并形成了自己的生态,PyTorch 更是其中的佼佼者,重新开发一个深度学习工具包并不是最难的,难的是已经形成的开源代码和开发者技能、习惯的培养并不是一时能够改变的。
open-cd中的changerformer网络结构分析
始于足下
10-17 830
通过上述内容,我们可以根据参数文件中的内容提取opencd中任意网络结构,或采用timm来设置主干网络结构,或添加到自己的训练框架中如pytorch_segmentation中进行训练。相应的,我们可以进一步去学习mmalb的框架结构。
目标检测系统中需要【重新训练模型】说明
2401_85556416的博客
10-13 545
打开"ultralytics\cfg\datasets\SODA10M.yaml"文件。将SODA10M.yaml的第一行数据集路径修改为自己数据集路径。以【基于YOLOv8的车辆行人目标检测系统】训练为例进行说明。训练模型的权重保存路径在"runs\detect\train\weights"目录下。给出的项目中已包含训练好的模型以及训练的结果,可直接使用。(3)运行main_model_train.py程序。(1)如果环境还没有搭建好的,首先要搭建训练环境。(4)训练模型保存路径。
写文章

热门文章

  • 知识图谱构建全流程 64523
  • 多头注意力比单头好在哪? 26529
  • 大语言模型的指令微调(Instruction Tuning)最全综述:从数据集到技术全解析 25358
  • MetaGPT技术全解析:另一个AutoGPT,一个可以替代小型软件开发团队的配备齐全的软件开发GPT,产品经理、系统设计、代码实现一条龙 14408
  • mapjoin的使用方法以及注意事项 13218

分类专栏

  • LLM大语言模型 付费 449篇
  • 知识图谱KnowledgeGraph 付费 57篇
  • 多模态MLLM大模型面试指南 付费 21篇
  • 大模型LLM面试指南 付费 35篇
  • AIGC面试专栏 付费 4篇
  • AI学术/期刊/会议相关信息,发表资讯 10篇
  • 代码注释生成 3篇
  • AI编程之代码大模型研究 57篇
  • 小语言模型 4篇
  • 代码模型微调 1篇
  • AI科研/相关文章/科研方向/科研工具 24篇
  • AI驱动的科研-科研自动化 11篇
  • 代码评估 7篇
  • 代码搜索 1篇
  • 人形机器人/机器人学/具身智能/仿人机器人/真正通用AI 15篇
  • 提示工程/大模型使用教程PromptEngineering 16篇
  • 伟大的工程师集锦-以激励自己 10篇
  • AI_LLM_Agent智能体 22篇
  • 人脸识别与分类 2篇
  • 多模态大规模图像分类/植物分类 19篇
  • 室内场景数据集 2篇
  • 图片生成-用作训练 3篇
  • 科技产业观察 2篇
  • 大语言模型LLM
  • 计算机博士后与博士 3篇
  • AIGC/视频生成、SORA、StableDiffusion 20篇
  • 数据科学算法竞赛 7篇
  • Linux小工具 1篇
  • 计算机视觉CV 15篇
  • CV-目标检测-Object Detection 7篇
  • 多模态基座模型FloundationModel 1篇
  • 多模态大模型VisualLLM 25篇
  • CV-图像分割-SAM 3篇
  • InternVL2书生蒲语多模态大模型/源码解析 17篇
  • GitHub学习与贡献成为Contributor 6篇
  • swift微调框架源码解析 7篇
  • LlaMa-Factory源码解析 17篇
  • 华为国产昇腾/曙光NPU硬件大模型 8篇
  • 人类溃败史 1篇
  • 大模型技术文章(转载) 1篇
  • 混合专家模型MOE 47篇
  • 大模型/增量预训练CPT 17篇
  • AI商业/产品/投融资前沿 21篇
  • 预训练语言模型 16篇
  • 大模型数据准备/预处理 13篇
  • 爬虫/网页自动化/数据获取
  • 多模态语音模型/大语音模型 15篇
  • transformers源码解析 16篇
  • 浪潮源大模型Yuan-LLM 6篇
  • Qwen千问源码解析及介绍 21篇
  • 大模型量化/部署 6篇
  • LLM分布式训练框架DeepSpeed/accelerate 29篇
  • 力扣leetcode算法与数据结构刷题 196篇
  • 大模型强化学习LLM/DPO/PPO/RLHF 30篇
  • AI+医疗 20篇
  • 开发及效率工具使用PycharmVS Code 6篇
  • 前沿AI大模型论文翻译与解读 22篇
  • 大模型RAG检索增强/知识库 21篇
  • Llama源码解析 5篇
  • 大语言LLM评测 13篇
  • Python 73篇
  • 搜索算法 4篇
  • 算法与人生-人生优化算法 4篇
  • 人机交互 1篇
  • 语音识别 1篇
  • 专家系统 2篇
  • Pytorch源码解析 1篇
  • 科研制图 1篇
  • KG图神经网络GNN、GCN、GCT 66篇
  • 大语言模型LLM应用-领域微调或角色化 19篇
  • C++大模型加速源码解析 1篇
  • 时间序列 1篇
  • NLP自然语言处理 38篇
  • 知识图谱
  • 人工智能哲学 5篇
  • 硬科学与自动化 1篇
  • 图神经源码解析 2篇
  • 编程/AI/项目/人生随想哲学 2篇
  • AGI生成式新闻或相关八卦/周边 26篇
  • 脑科学与认知科学 22篇
  • 算法竞赛结果记录 1篇
  • 量化金融 70篇
  • 如何学习 2篇
  • 中华传统易经与九运 4篇
  • 多伦对话 1篇
  • 力扣合集大放送 5篇
  • ChatGLM源码解析 23篇
  • 对话系统QA-Rasa 11篇
  • baichuan大模型 - 源码解析 9篇
  • OpenAI GPT4使用 8篇
  • 信息熵与信息差-信息差的数学原理 2篇
  • GPT情感计算 1篇
  • 认知计算-多模态 4篇
  • 少样本大语言模型LIMA 1篇
  • 可解释可信机器学习 - 因果 6篇
  • 生物信息学Bio 2篇
  • OCR文字识别 8篇
  • 推荐系统 89篇
  • 回归任务 3篇
  • 特征工程 2篇
  • Linux 5篇
  • 数据挖掘 26篇
  • 大数据 21篇
  • C++ 45篇
  • 集成学习 5篇
  • Hadoop 7篇
  • 机器学习指标 9篇
  • SQL 7篇
  • Redis 6篇
  • wangluo 2篇
  • 推荐系统周边 4篇
  • 深度学习 7篇
  • 剑指Offer 17篇
  • 机器学习 8篇
  • 数据科学 7篇
  • OpenCV 4篇
  • C++编译 3篇
  • OpenVINO 2篇
  • 智能驾驶 14篇
  • 驾驶规划模块 2篇
  • C++ STL标准模板库 3篇
  • 多语言编程 2篇
  • python机器学习 12篇

最新评论

  • 论文笔记122_AI_The AI Scientist

    CSDN-Ada助手: 你好,CSDN 开始提供 #论文阅读# 的列表服务了。请看:https://blog.csdn.net/nav/advanced-technology/paper-reading?utm_source=csdn_ai_ada_blog_reply 。如果你有更多需求,请来这里 https://gitcode.net/csdn/csdn-tags/-/issues/34?utm_source=csdn_ai_ada_blog_reply 给我们提。

  • Transformer详解,中文版架构图

    000小白: 谢谢分享表情包表情包表情包

  • HumanEval是如何进行代码评估的:从数据构成、评估逻辑到pass@k指标计算

    AI生成曾小健: 试着订阅一下呢?

  • HumanEval是如何进行代码评估的:从数据构成、评估逻辑到pass@k指标计算

    早起学习晚上搬砖: 怎么忽然又要订阅了

  • fastllm 大模型推理加速 c++库

    AI生成曾小健: 你不看可以不要看。别在这里骂人

大家在看

  • 如何重置你的 MySQL 或 MariaDB 的 root 密码 460
  • 论文精读:TiC-CLIP: Continual Training of CLIP Models(一)
  • 栈用链表实现
  • vivado 使用 HBM 器件的布局考虑因素
  • C++结合EasyX图形化编程,是否让信息学奥赛学习更有趣?你的看法呢? 381

最新文章

  • [代码注释与解释-CCF-A-ICSE24]Using an LLM to Help With Code Understanding
  • [sci三区-Symmetry代码摘要]A Survey of Automatic Source Code Summarization
  • [代码注释生成]Deep code comment generation
2024
10月 162篇
09月 69篇
08月 134篇
07月 264篇
06月 85篇
05月 81篇
04月 124篇
03月 88篇
02月 33篇
01月 11篇
2023年407篇
2022年192篇
2021年449篇
2020年2篇
2019年2篇
2018年6篇

目录

目录

分类专栏

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AI生成曾小健

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或 充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

玻璃钢生产厂家成品玻璃钢花盆设计玉树玻璃钢商场美陈玻璃钢雕塑工作室长葛玻璃钢花盆花器南平玻璃钢花盆邵阳玻璃钢雕塑厂家丰台玻璃钢人物雕塑河源玻璃钢雕塑厂家批发济源天桥玻璃钢花盆定制德宏公园玻璃钢卡通人物雕塑上饶玻璃钢雕塑批发贵阳学校玻璃钢雕塑哪家便宜昆山玻璃钢雕塑电话广州市白云区玻璃钢雕塑厂邢台玻璃钢仿铜雕塑厂家玻璃钢雕塑设计哪家正规绍兴步行街玻璃钢雕塑设计山东室内雕塑玻璃钢景观玻璃钢卡通雕塑销售厂家嘉兴大型玻璃钢雕塑定做价格景洪玻璃钢关公雕塑温州玻璃钢雕塑省钱云浮玻璃钢卡通雕塑出厂价格衢州玻璃钢陶瓷雕塑价格苏州小区玻璃钢雕塑制作玻璃钢丰收主题雕塑河南多彩玻璃钢雕塑设计曲靖商场美陈展示河南公园小品玻璃钢雕塑价格宿州玻璃钢雕塑厂报价表香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声单亲妈妈陷入热恋 14岁儿子报警汪小菲曝离婚始末遭遇山火的松茸之乡雅江山火三名扑火人员牺牲系谣言何赛飞追着代拍打萧美琴窜访捷克 外交部回应卫健委通报少年有偿捐血浆16次猝死手机成瘾是影响睡眠质量重要因素高校汽车撞人致3死16伤 司机系学生315晚会后胖东来又人满为患了小米汽车超级工厂正式揭幕中国拥有亿元资产的家庭达13.3万户周杰伦一审败诉网易男孩8年未见母亲被告知被遗忘许家印被限制高消费饲养员用铁锨驱打大熊猫被辞退男子被猫抓伤后确诊“猫抓病”特朗普无法缴纳4.54亿美元罚金倪萍分享减重40斤方法联合利华开始重组张家界的山上“长”满了韩国人?张立群任西安交通大学校长杨倩无缘巴黎奥运“重生之我在北大当嫡校长”黑马情侣提车了专访95后高颜值猪保姆考生莫言也上北大硕士复试名单了网友洛杉矶偶遇贾玲专家建议不必谈骨泥色变沉迷短剧的人就像掉进了杀猪盘奥巴马现身唐宁街 黑色着装引猜测七年后宇文玥被薅头发捞上岸事业单位女子向同事水杯投不明物质凯特王妃现身!外出购物视频曝光河南驻马店通报西平中学跳楼事件王树国卸任西安交大校长 师生送别恒大被罚41.75亿到底怎么缴男子被流浪猫绊倒 投喂者赔24万房客欠租失踪 房东直发愁西双版纳热带植物园回应蜉蝣大爆发钱人豪晒法院裁定实锤抄袭外国人感慨凌晨的中国很安全胖东来员工每周单休无小长假白宫:哈马斯三号人物被杀测试车高速逃费 小米:已补缴老人退休金被冒领16年 金额超20万

玻璃钢生产厂家 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化