技术干货|什么是大模型?超大模型?Foundation Model?

414 篇文章 56 订阅
订阅专栏

目前Foundation Model或者是大模型,特别地火,接下来介绍什么是大模型,大模型的基本概念;接着看看大模型的实际作用,然后基于这些实际作用,我们简单展开几个应用场景。最后就是介绍支持大模型训练的AI框架。

在往下看之前,想抛出几个问题,希望引起大家的一个思考:

1)为什么预训练网络模型变得越来越重要?

2)预训练大模型的未来的发展趋势,仍然是以模型参数量继续增大吗?

3)如何预训练一个百亿规模的大模型?

 01 

Foundation Model

2021年8月份,李飞飞和100多位学者联名发表一份200多页的研究报告《On the Opportunities and Risk of Foundation Models》,深度地综述了当前大规模预训练模型面临的机遇和挑战。

在文章中,AI专家将大模型统一命名为Foundation Models,可以翻译为基础模型或者是基石模型,论文肯定了Foundation Models对智能体基本认知能力的推动作用,同时也指出大模型呈现出「涌现」与「同质化」的特性。

所谓「涌现」代表一个系统的行为是隐性推动的,而不是显式构建的;「同质化」是指基础模型的能力是智能的中心与核心,大模型的任何一点改进会迅速覆盖整个社区,但其缺陷也会被所有下游模型所继承。

回到大模型,2017年Transformer结构的提出,使得深度学习模型参数突破了1亿。下面这个图呢,就是从一开始的lenet、Alexnet、ResNet开始,模型参数一个比一个大,到了BERT网络模型的提出,使得参数量首次超过3亿规模,GPT-3模型超过百亿,鹏程盘古实现千亿稠密的规模、Switch Transformer的问世还一举突破万亿规模。

以GPT系列为例:

1)GPT-1是上亿规模的参数量,数据集使用了1万本书的BookCorpus,25亿单词量;

2)GPT-2参数量达到了15亿规模,其中数据来自于互联网,使用了800万在Reddit被链接过的网页数据,清洗后越40GB(WebText);

3)GPT-3参数规模首次突破百亿,数据集上将语料规模扩大到570GB的CC数据集(4千亿词)+WebText2(190亿词)+BookCorpus(670亿词)+维基百科(30亿词)。

可以看到,数据上面,每一代均相比前一代有了数量级的飞跃,无论是语料的覆盖范围、丰富度上都是绝对规模的增长。可以预测到,下一代万亿模型,使用的数据如果相比GPT-3在质量、来源和规模上没有量级的变化,很难有质的提升。大模型在产学各界掀起一阵阵巨浪,背后彰显的除了分布式并行和对AI算法的掌控能力,还是一次大公司通过AI工程的创举,利用大规模AI集群来进行掰手腕的故事。

随着网络模型越来越大,单机单卡、一机多卡、甚至多机多卡的小规模集群,只要网络模型参数量一旦超过十亿以上的规模,就很难用现有的资源训练了。于是有的研究者就会提出质疑:

1. 一味的让模型变大、让参数量爆炸式增长,真的能让AI模型学习变得更好吗?

2. 真的能带来真正的智能吗?

3. 甚至有的同学还会挑战,小学数学题都解不好?

4. 生成的文字内容不合逻辑?

5. 给出的医疗建议不靠谱!

这里值得澄清的一点是,目前类似于GPT-3这样的大模型,在零样本和小样本的学习能力,主要来源于预训练阶段对海量语料的大量记忆,其次是语义编码能力、远距离依赖关系建模能力和文本生成能力的强化,以及自然语言进行任务描述等设计。而在训练目标方面,并没有显式的引导模型去学习小样本泛化能力,因此在一些小众的语料、逻辑理解、数学求解等语言任务上出现翻车的现象也是能理解的。

虽然大模型刚提出的时候,质疑的声音会有,但不可否认的是,大模型做到了早期预训练模型做不到、做不好的事情,就好像自然语言处理中的文字生成、文本理解、自动问答等下游任务,不仅生成的文本更加流畅,甚至内容的诉实性也有了显著的改善。当然,大模型最终能否走向通用人工智能仍是一个未知数,只是,大模型真的是有希望带领下一个很重要的人工智能赛道。

 02 

大模型的作用

有了大模型的基本介绍,我们来看看大模型的具体作用。

下面显示了深度学习技术在ImageNet图像数据集,随着新模型的提出,准确率不断取得突破的趋势。右图显示在网络预训练模型出来以后,机器对自然语言理解能力的不断提升。

虽然深度学习使得很多通用领域的精度和准确率得到很大的提升,但是AI模型目前存在很多挑战,最首要的问题是模型的通用性不高,也就是A模型往往专用于特定A领域,应用到领域B时效果并不好。

1) 模型碎片化,大模型提供预训练方案

目前AI面对行业、业务场景很多,人工智能需求正呈现出碎片化、多样化的特点。从开发、调参、优化、迭代到应用,AI模型研发成本极高,且难以满足市场定制化需求,所以网上有的人会说现阶段的AI模型研发处于手工作坊式。基本上一个公司想要用AI赋能自身的业务,多多少少也得招聘懂AI的研发人员。

为了解决手工作坊式走向工场模式,大模型提供了一种可行方案,也就是“预训练大模型+下游任务微调”的方式。大规模预训练可以有效地从大量标记和未标记的数据中捕获知识,通过将知识存储到大量的参数中并对特定任务进行微调,极大地扩展了模型的泛化能力。例如,在NLP领域,预训练大模型共享了预训任务和部分下游任务的参数,在一定程度上解决了通用性的难题,可以被应用于翻译,问答,文本生成等自然语言任务。

NLP领域的大规模预训练模型可谓是发展快速,从 BERT 到 GPT-3,再到万亿规模的 Switch Transformer,无论是模型大小、数据量,还是计算资源占用都在疾速增长。规模大到什么程度呢?GPT-3 的参数量达到了 1750 亿,训练数据超过了 45TB,需要的算力Flops是 BERT 的 1900 多倍,3.14E23 FLOPS。在惊人的数据量和可怕的网络模型参数下,在实际NLP榜单SuperGLUE,在该基准上 FLOP-matched Switch Transformer 相比 T5-Base 和 T5-Large 的性能分别提升了 4.4% 和 2%。整体而言,Switch Transformer 模型在多项推理和知识任务中带来了显著性能提升。这说明该超大模型架构不只对预训练有用,还可以通过微调将质量改进迁移至下游任务中。

2)大模型具备自监督学习功能,降低训练研发成本

大模型的自监督学习方法,可以减少数据标注,在一定程度上解决了人工标注成本高、周期长、准确度不高的问题。由于减少了数据标准的成本,使得小样本的学习也能达到比以前更好的能力,并且模型参数规模越大,优势越明显,避免开发人员再进行大规模的训练,使用小样本就可以训练自己所需模型,极大降低开发使用成本。

2018年Bert首次提出,便一举击败 11 个 NLP 任务的 State-of-the-art 结果,成为了 NLP 界新的里程碑,同时为模型训练和NLP领域打开了新的思路:在未标注的数据上深入挖掘,可以极大地改善各种任务的效果。要知道,数据标注依赖于昂贵的人工成本,而在互联网和移动互联网时代,大量的未标注数据却很容易获得。

3)大模型有望进一步突破现有模型结构的精度局限

第三点,从深度学习发展前10年的历程来看,模型精度提升,主要依赖网络在结构上的变革。例如,从AlexNet到ResNet50,再到NAS搜索出来的EfficientNet,ImageNet Top-1 精度从58提升到了84。但是,随着神经网络结构设计技术,逐渐成熟并趋于收敛,想要通过优化神经网络结构从而打破精度局限非常困难。近年来,随着数据规模和模型规模的不断增大,模型精度也得到了进一步提升,研究实验表明,模型和数据规模的增大确实能突破现有精度的一个局限。

以谷歌2021年发布的视觉迁移模型Big Transfer,BiT为例。扩大数据规模也能带来精度提升,例如使用ILSVRC-2012(128 万张图片,1000 个类别)和JFT-300M(3亿张图片,18291个类别)两个数据集来训练ResNet50,精度分别是77%和79%。另外使用 JFT-300M训练ResNet152x4,精度可以上升到87.5%,相比ILSVRC-2012+ResNet50结构提升了10.5%。

虽然目前为止,大模型主要是以NLP为主,因为NLP抛弃了RNN序列依赖的问题,采用了Attention is All you need的Transformer结构,使得NLP能够演变出更多大模型。但是在最新的研究当做,图像领域也不甘示弱,CNN大模型也开始陆续涌现。例如ResNeXt WSL拥有8亿参数、GPipe拥有6亿参数规模,Google也通过EfficientNet-L2发布了4.8亿参数规模的网络模型,并且在JFT-300M数据集刷新了ImageNet的榜单,Top-1 Acc首次突破90。要知道在2020年,也就是1年前,大部分CNN网络模型规模都没有超过1亿,Top-1 Acc最高在87-89之间。

03 

大模型应用场景

既然大模型能突破训练精度的极限,还能够兼容下游任务。那有没有一些具体的应用场景介绍呢?

智源研究院针对2021年北京冬奥会,提出了“悟道”大模型用于冬奥手语播报数字人,提供智能化的数字人手语生成服务,方便听障人士也能收看赛事专题报道,提升他们的社会参与度和幸福感。这个项目还得到了北京市残疾人联合会和市残联聋人协会的大力支持。

华为盘古CV大模型。主要是针对无人机电力智能巡检这个场景,以国网重庆永川供电公司为例,无人机智能巡检开发主要面临两个挑战:一是如何对海量数据进行高效标注;二是缺陷种类多达上百种,需要数十个AI识别模型。盘古CV大模型在数据标注方面,利用海量无标注电力数据进行预训练,结合少量标注样本进行微调,使得样本筛选效率提升约30倍,以永川供电每天采集5万张高清图片为例,可节省人工标注时间170人天。在模型通用性方面,可以做到一个模型适配上百种缺陷,替代原有20多个小模型,减少了模型维护成本,平均精度提升18.4%,开发成本降低90%。

当然也缺少不了最近双十一,双十一是淘宝系统服务最繁忙的一天,如何有效地应对成千上亿的用户咨询?基于达摩院开发的M6大模型智能生成内容文案,方便智能客服进行上下文理解和问题回答生成。另外大模型的多模态特征提取能力,也能进行商品属性标签补充、认知召回等下游任务。

 04 

大模型训练框架

目前部分深度学习框架,例如Pytorch和Tensorflow,没有办法满足超大规模模型训练的需求,于是微软基于Pytroch开发了DeepSpeed,腾讯基于Pytroch开发了派大星PatricStar,达摩院同基于Tensoflow开发的分布式框架Whale。像是华为昇腾的MindSpore、百度的PaddlePaddle,还有国内的追一科技OneFlow等厂商,对超大模型训练进行了深度的跟进与探索,基于原生的AI框架支持超大模型训练。

 下面展开DeepSpeedMindSpore来简单了解下。

2021年2月份微软发布了DeepSpeed,最核心的是显存优化技术ZeRO(零冗余优化器),通过扩大规模、内存优化、提升速度、控制成本,四个方面推进了大模型训练能力。基于DeepSpeed微软开发了拥有170亿参数的图灵自然语言生成模型(Turing-NLG)。(2021年5月份发布的ZeRO-2,更是支持2000亿参数的模型训练),另外微软联手英伟达,使用4480块A100组成的集群,发布了5300亿参数的NLP模型威震天-图灵(Megatron Turing-NLG)。

当然,作为国内首个支持千亿参数大模型训练的框架MindSpore这里面也提一下。在静态图模式下,MindSpore融合了流水线并行、模型并行和数据并行三种并行技术,开发者只需编写单机算法代码,添加少量并行标签,即可实现训练过程的自动切分,使得并行算法性能调优时间从月级降为小时级,同时训练性能相比业界标杆提升40%。

动态图模式下,MindSpore独特的函数式微分设计,能从一阶微分轻易地扩展到高阶微分,并进行整图性能优化,大幅提升动态图性能;结合创新的通讯算子融合和多流并行机制,较其它AI框架,MindSpore动态图性能提升60%。

最后就是针对大模型的训练,网上很多人会说,大模型需要“大数据+大算力+强算法”三驾马车并驾齐驱。

ZOMI并不是非常认同这个观点,大模型首先是需要规模更大的海量数据,同时需要庞大的算力去支撑这个说没错。但是整体来说,这是一个系统工程,从并行训练到大规模并行训练,其中就包括对AI集群调度和管理,对集群通讯带宽的研究,对算法在模型的并行、数据的并行等策略上与通讯极限融合在一起考虑,求解在有限带宽前提下,数据通讯和计算之间的最优值。

目前在大模型这个系统工程里面,最主要的竞争对手有基于英伟达的GPU+微软的DeepSpeed,Google的TPU+Tensorflow,当然还有华为昇腾Atlas800+MindSpore三大厂商能够实现全面的优化。至于其他厂商,大部分都是基于英伟达的GPU基础上进行一些创新和优化。最后就是,核心技术在市场上并不是最重要的,谁能够为客户创造更大的价值,才是最后的赢家。

 

MindSpore官方资料

GitHub : https://github.com/mindspore-ai/mindspore

Gitee : https : //gitee.com/mindspore/mindspore

官方QQ群 : 486831414 

什么是大模型
weixin_44976692的博客
02-06 2万+
模型(Big Model)是指在机器学习人工智能领域中处理大规模数据和复杂模型的一种方法或技术。随着数据量的不断增加和模型的复杂度提高,传统的机器学习方法已经无法有效处理,因此大模型成为了解决这一挑战的重要工具之一。本文将介绍大模型的基本概念、应用场景以及一些常见的大模型技术。大模型是指在处理大规模数据和复杂模型时所采用的一种模型和算法。大模型通常需要处理海量的数据,这些数据可能来自于互联网、传感器、日志文件等各种来源。
什么是大模型?一文读懂大模型的基本概念
热门推荐
weixin_46880696的博客
11-06 9万+
模型通过训练海量数据来学习复杂的模式和特征,具有更强大的泛化能力,可以对未见过的数据做出准确的预测。引申到模型层面,涌现能力指的是当模型的训练数据突破一定规模,模型突然涌现出之前小模型所没有的、意料之外的、能够综合分析和解决更深层次问题的复杂能力和特性,展现出类似人类的思维和智能。ChatGPT对大模型的解释更为通俗易懂,也更体现出类似人类的归纳和思考能力:大模型本质上是一个使用海量数据训练而成的深度神经网络模型,其巨大的数据和参数规模,实现了智能的涌现,展现出类似人类的智能。
什么是大模型?一文读懂大模型的基本概念_看完这篇就足够了~
2301_77193447的博客
08-06 1万+
模型是指具有大规模参数和复杂计算结构的机器学习模型。这些模型通常由深度神经网络构建而成,拥有数十亿甚至数千亿个参数。大模型的设计目的是为了提高模型的表达能力和预测性能,能够处理更加复杂的任务和数据。大模型在各种领域都有广泛的应用,包括自然语言处理、计算机视觉、语音识别和推荐系统等。大模型通过训练海量数据来学习复杂的模式和特征,具有更强大的泛化能力,可以对未见过的数据做出准确的预测。
什么是大模型
qq_42963448的博客
07-12 1048
模型是指具有数千万甚至数亿参数的深度学习模型。近年来,随着计算机技术和大数据的快速发展,深度学习在各个领域取得了显著的成果,如自然语言处理,图片生成,工业数字化等。为了提高模型的性能,研究者们不断尝试增加模型的参数数量,从而诞生了大模型这一概念。大模型通常由深度神经网络构建而成,拥有数十亿甚至数千亿个参数。大模型的设计目的是为了提高模型的表达能力和预测性能,能够处理更加复杂的任务和数据。大模型采用预训练+微调的训练模式,在大规模数据上进行训练后,能快速适应一系列下游任务的模型
模型是什么
夕小瑶科技说
07-05 7172
在计算机领域,'大模型’是一个近年来备受关注的词汇。这篇文章旨在带你遨游大模型的世界,了解它们的特点、优缺点,以及需如何有效地利用它们。我们还会探讨一些具体的大模型实例,并分析其对人类社会的影响。首先,我们需要了解什么是’大模型’。在机器学习人工智能领域,模型的"大小"往往与其参数数量有关。参数是模型学习和适应数据以进行准确预测的主要要素。因此,“大模型”指的是那些拥有大量参数的模型,他们能够从大规模数据中学习,以执行复杂的任务。
『保姆级』大模型教程来了(从入门到实战)
2301_76168381的博客
04-01 4155
在大模型的构建之下,AI自动化交互,将会决定世界的未来,谁的大模型更强大,将决定在遥远的未来的话语权,同时,大模型会成为AI基础设施。AI大模型,正在构建的颠覆力,为了更好的入局AI大模型,🔻 针对ChatGLM大模型,介绍ChatGLM模型微调。🔻 大模型的定义和特点,如预训练、微调、指令学习等。🔻 05 精读大模型-3论文、Instruct论文。🔻 04 GLM-130B训练营——论文泛读。🔻 05 GLM-130B训练营——论文精读。🔻 08 Alpaca训练营——论文精读。
干货 | 携程旅游大语言模型系统介绍及其应用
携程技术
12-07 3221
作者简介Terry,携程自然语言处理和大语言模型算法方向专家,有多年的自然语言处理项目经验和AI落地经验。一、背景随着OpenAI的ChatGPT火遍全球,大语言模型(Large Language Model,下文简称LLM)成为了人工智能领域的热门话题。大语言模型是一种基于深度学习的自然语言处理技术,它能够模拟人类的语言能力并生成连贯的文本。这种技术的出现引起了广泛的关注和应用。大型语言模型在机...
干货 | 携程机票 App KMM 跨端生产实践
携程技术
11-25 3383
作者简介禹昂,携程移动端资深工程师,Kotlin 中文社区核心成员,图书《Kotlin 编程实践》译者。Derek,携程资深研发经理,专注于移动端开发,热衷于各种跨端技术的研究和实践。一...
原创干货 | 史上最全的大数据学习资源(Awesome Big Data)
Hadoop技术博文
09-23 1432
很多人在学习大数据的时候比较迷茫,不知从何学起,也不能够比较系统、全面的了解大数据框架。为此,过往记忆花了一个周末的时间把 Awesome Big Data (https...
人工智能】基础模型Foundation Models)的机遇与风险
AI天才研究院
05-29 1万+
近几年,预训练模型受到了学术界及工业界的广泛关注,对预训练语言模型的大量研究和应用也推动了自然语言处理新范式的产生和发展,进而影响到整个人工智能的研究和应用。近期,由斯坦福大学众多学者联合撰写的文章《On the Opportunities and Risks of Foundation Models》,将该模型定义为基础模型Foundation Models),以明确定义其在人工智能发展过程中的作用和地位。文章介绍了基础模型的特性、能力、技术、应用以及社会影响等方面的内容,以此分析基于基础模型人工智能
如何成为一名区块链工程师? | 附学习资源
区块链大本营
03-05 5万+
编译 | 区块链大本营参与 | 鸽子、何永灿、Shawn春节前后,区块链再次刷爆我们的朋友圈,关注区块链的人正在以几何数集上升。大潮来临,一切都不同了,身怀绝技的程序员有了大展宏图的历史性机会,程序员们,是时候,毅然决然,懂点区块链技术了。本文列举了关于区块链和数字加密技术的文章和资源,分为以下几个部分:构建区块和基础;基础(和历史);关键概念——包括特定课题(例如区块链治理);隐私和安全;扩展;
模型是什么意思?
weixin_37981979的博客
09-04 1259
AskBot大模型是一款针对企业场景的深度学习问答系统,它结合了不同的大型语言模型来优化各种任务,同时将来自海量工单数据、机器人对话数据、非结构化文档等安全脱敏数据纳入训练,以确保AskBot能深度理解和适应企业语言和业务场景,为员工提供问题解答、数据查询、业务办理、知识搜索问答等服务,成为员工最亲密的工作助手。之后,一系列的大模型相继问世,如OpenAI的GPT、Facebook的RoBERTa、Google的BERT等,它们的参数规模不断扩大,训练时间也越来越长,但是性能也随之提升。
模型的发展与解决的问题
ZOMI酱
11-13 4883
目前Foundation Model或者是大模型,特别地火,接下来介绍什么是大模型,大模型的基本概念;接着看看大模型的实际作用,然后基于这些实际作用,我们简单展开几个应用场景。最后就是介绍支持大模型训练的AI框架。 在往下看之前,想抛出几个问题,希望引起大家的一个思考: 1)为什么预训练网络模型变得越来越重要? 2)预训练大模型的未来的发展趋势,仍然是以模型参数量继续增大吗? 3)如何预训练一个百亿规模的大模型Foundation Model 2021年8月份,李飞飞和100多位学者联名发表
模型入门指南:基本技术原理与应用
陆业聪
04-07 2300
本文探讨了大型神经网络模型的基本技术原理,包括深度神经网络、激活函数、损失函数、优化算法、正则化和模型结构等,并讨论了预训练与微调、模型压缩与加速、解释性与可解释性、隐私与安全等关键议题,旨在帮助读者更好地理解和利用大模型来解决实际问题。
万字长文,解读大模型技术原理(非常详细)零基础入门到精通,收藏这一篇就够了
Python_0011的博客
06-25 2885
1)突破了远距离文本依赖的学习限制,避开了递归网络的模型体系结构,并且完全依赖于注意力机制来绘制输入和输出之间的全局依赖关系。2)可高度并行进行训练,这对发挥硬件红利以及快速迭代模型非常重要。下图是论文提到的Transformer模型,对编码器和解码器使用堆叠式的自注意力和逐点式、全连接层,分别如图1的左半部分(编码器)和右半部分(解码器)所示,相关技术细节后面会重点讲到。
大语言模型技术原理
云原生智能数据管理平台
05-30 3667
总体来说,ChatGPT 在人工标注的prompts和回答里训练出SFT监督策略模型,再通过随机问题由模型给出多个答案,然后人工排序,生成奖励模型,再通过PPO强化训练增强奖励效果。最终ChatGPT能够更好理解指令的意图,并且按指令完成符合训练者价值观的输出。最后,大语言模型作为一个被验证可行的方向,其“大”体现在数据集广泛,参数和层数大,计算量大,其价值体现在通用性上,有广泛的应用场景。大语言模型能够发展,主要还是模型具备很好的并行扩展性,随着数据量和计算量的增加,主要挑战在工程和调优上。海外除了G
什么是大模型?一文速通了解什么才是真正的大模型
程序员鑫港的博客
07-19 1934
它们专注于解析与生成自然语言,无论是撰写流畅的文章、进行精准的语言翻译,还是进行富有创意的文本生成,大语言模型都能凭借其深厚的语言功底与学习能力,给出令人满意的答案。它们如同数据的海洋中的巨轮,能够吞噬并消化海量的信息,无论是图像中的微妙细节,还是语言中的深邃含义,都能在其复杂的结构中得以提炼与解析。在这个充满变革的时代里,人工智能领域的几个关键词——Chat GPT、Open AI、大模型、提示词工程以及“幻觉”频繁出现在我们的视野中,它们如同一股不可忽视的力量,冲击并重塑着我们的认知。
什么是大模型?快速了解大模型基本概念
最新发布
lvaolan168的博客
09-24 1652
这些模型通常由深度神经网络构建而成,拥有数十亿甚至数千亿个参数。
写文章

热门文章

  • 技术干货|什么是大模型?超大模型?Foundation Model? 50378
  • 技术干货 | 一文弄懂差分隐私原理! 14268
  • 敲重点!最全大模型训练合集! 10869
  • 手把手教你用MindSpore训练一个AI模型! 10514
  • 如何处理GPU上Error Number:700 an illegal memory access was encounter 7089

分类专栏

  • 技术博客 414篇
  • 活动 36篇
  • 新闻 56篇
  • MindSpore易点通 20篇
  • AI工程与实践 29篇

最新评论

  • 10+倍效率提升、三分钟完成工厂设计!基于昇思MindSpore打造的智能化工大模型亮相

    Insanexiao: 有论文成果吗,想研究一下他是怎么测评领域专业能力的

  • RWKV解读:在Transformer的时代的新RNN

    留尘铃: 它只有外层for q in Queries这个循环了。因为求和项的计算与i无关,所以所有的 Qi 可以共享求和项的值。换言之,求和项的值可以只计算一次,然后存在内存中供所有 Qi 去使用。 ———————————————————— 这里是这么说明,求和和i无关,但是上面的公式中,i参与进求和运算中了呀(j=1~i),这为啥说是和i无关呢?

  • 参赛攻略 | 第六届·2024 MindSpore 量子计算黑客松 热身赛通关秘籍

    weixin_44539350: 有一起组队的吗

  • 技术干货 | AlphaFold/ RoseTTAFold开源复现(1)—推理复现

    weixin_48344565: 请问RoseTTA在晟腾硬件上是否有复现

  • 极致高效压缩,手机就能实时跑的分割一切模型TinySAM已在昇思MindSpore开源

    qq_45436969: 这个模型的参数量大致是多少量级

最新文章

  • 一图读懂华为ICT大赛2024-2025中国创新赛
  • 重阳敬老医护航,棱镜科空体携手MindSpore打造生物医药研发专精模型!
  • 携手昇思,天津大学团队打造生物医学领域大模型“海河·岐伯”
2024
10月 10篇
09月 21篇
08月 29篇
07月 27篇
06月 21篇
05月 29篇
04月 25篇
03月 29篇
02月 8篇
01月 28篇
2023年215篇
2022年407篇
2021年45篇

目录

目录

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

玻璃钢生产厂家玻璃钢抽象不锈钢雕塑生产许昌花朵玻璃钢雕塑衡水玻璃钢雕塑设计草莓雕塑玻璃钢北京玻璃钢几何雕塑嘉兴佛像玻璃钢雕塑生产厂家浙江仿铜玻璃钢雕塑销售厂家鹿邑制作玻璃钢雕塑厂选哪家楼盘玻璃钢雕塑批量定制平凉仿真人物玻璃钢雕塑设计南阳玻璃钢人物雕塑厂家价格湖南雕塑玻璃钢青岛家用玻璃钢雕塑摆件揭阳革命主题玻璃钢人物雕塑辽宁玻璃钢景观雕塑贵阳玻璃钢泡沫雕塑铜陵玻璃钢雕塑厂家吉林景区玻璃钢雕塑生产厂家南宁景区玻璃钢雕塑价位嘉兴玻璃钢人物雕塑定制湖南玻璃钢牛动物雕塑新密玻璃钢人物不锈钢树叶雕塑通辽玻璃钢景观雕塑南昌人物玻璃钢雕塑市场青岛卡通玻璃钢雕塑定做雕塑做玻璃钢的材质长沙玻璃钢艺术雕塑厂家安阳水果玻璃钢雕塑长春仿铜玻璃钢雕塑公司人物玻璃钢雕塑哪家便宜香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声单亲妈妈陷入热恋 14岁儿子报警汪小菲曝离婚始末遭遇山火的松茸之乡雅江山火三名扑火人员牺牲系谣言何赛飞追着代拍打萧美琴窜访捷克 外交部回应卫健委通报少年有偿捐血浆16次猝死手机成瘾是影响睡眠质量重要因素高校汽车撞人致3死16伤 司机系学生315晚会后胖东来又人满为患了小米汽车超级工厂正式揭幕中国拥有亿元资产的家庭达13.3万户周杰伦一审败诉网易男孩8年未见母亲被告知被遗忘许家印被限制高消费饲养员用铁锨驱打大熊猫被辞退男子被猫抓伤后确诊“猫抓病”特朗普无法缴纳4.54亿美元罚金倪萍分享减重40斤方法联合利华开始重组张家界的山上“长”满了韩国人?张立群任西安交通大学校长杨倩无缘巴黎奥运“重生之我在北大当嫡校长”黑马情侣提车了专访95后高颜值猪保姆考生莫言也上北大硕士复试名单了网友洛杉矶偶遇贾玲专家建议不必谈骨泥色变沉迷短剧的人就像掉进了杀猪盘奥巴马现身唐宁街 黑色着装引猜测七年后宇文玥被薅头发捞上岸事业单位女子向同事水杯投不明物质凯特王妃现身!外出购物视频曝光河南驻马店通报西平中学跳楼事件王树国卸任西安交大校长 师生送别恒大被罚41.75亿到底怎么缴男子被流浪猫绊倒 投喂者赔24万房客欠租失踪 房东直发愁西双版纳热带植物园回应蜉蝣大爆发钱人豪晒法院裁定实锤抄袭外国人感慨凌晨的中国很安全胖东来员工每周单休无小长假白宫:哈马斯三号人物被杀测试车高速逃费 小米:已补缴老人退休金被冒领16年 金额超20万

玻璃钢生产厂家 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化