追赶GPT-4的多模态大模型对比分析

文章分析了LLaVA、MiniGPT-4和mPLUG-Owl三个类GPT-4的多模态模型,讨论了它们的模型结构、训练策略和实验差异。LLaVA和MiniGPT-4在训练中冻结视觉编码器,而mPLUG-Owl则对其放开,取得更好的视觉文本理解。mPLUG-Owl还首次开源了视觉指令理解测试集OwlEval,促进了多模态研究的公平比较。
摘要由CSDN通过智能技术生成

©作者 | 胡安文

单位 | 中国人民大学-AI·M3实验室

研究方向 | 多模态

来自 | PaperWeekly

进NLP群—>加入NLP交流群

引言

今年 3 月 14 日,OpenAI 发布了 GPT-4 多模态大模型,但是仅公开了文本能力的接口,迟迟未向公众开放体验多模态能力。学术界和工业界立刻跟进研究并开源多模态大模型的相关工作。目前热度最高的三个同期工作依次是 LLaVA [1]、MiniGPT-4 [2] 和 mPLUG-Owl [3]。本文意在分析这三个工作,探讨“类 GPT-4 模型”的研究方向。

援引自 mPLUG-Owl,这三个工作的主要区别如图 1 所示,总体而言,模型结构和训练策略方面大同小异,主要体现在 LLaVA 和 MiniGPT4 都冻住基础视觉编码器,mPLUG-Owl 将其放开,得到了更好的视觉文本跨模态理解效果;在实验方面 mPLUG-Owl 首次构建并开源视觉相关的指令理解测试集 OwlEval,通过人工评测对比了已有的模型,包括 BLIP2 [4]、LLaVA、MiniGPT4 以及系统类工作 MM-REACT [5]。

6bc220ef40ae4ca00c7f56b6b89dc693.png

▲ 图1: mPLUG-Owl vs MiniGPT4 vs LLaVA

5be85c00f428c4b8d2d6984f8c1edbbc.png

LLaVA

自然语言处理领域的 instruction tuning 可以帮助 LLM 理解多样化的指令并生成比较详细的回答。LLaVA 首次尝试构建图文相关的 instruction tuning 数据集来将 LLM 拓展到多模态领域。

具体来说,基于 MSCOCO 数据集,每张图有 5 个较简短的 ground truth 描述和 object bbox(包括类别和位置)序列,将这些作为 text-only GPT4 的输入,通过 prompt 的形式让 GPT4 生成 3 种类型的文本:1)关于图像中对象的对话;2)针对图片的详细描述;3)和图片相关的复杂的推理过程。

注意,这三种类型都是 GPT4 在不看到图片的情况下根据输入的文本生成的,为了让 GPT4 理解这些意图,作者额外人工标注了一些样例用于 in-context learning。

模型结构:采用 CLIP 的 ViT-L/14 [6] 作为视觉编码器,采用 LLaMA [7] 作为文本解码器,通过一个简单的线性映射层将视觉编码器的输出映射到文本解码器的词嵌入空间,如图 2。

5a112a978273b58268bb9fefc835c3b7.png

▲ 图2: LLaVA模型结构

模型训练:

  • 第一阶段:跨模态对齐预训练,从 CC3M 中通过限制 caption 中名词词组的最小频率过滤出595k图文数据,冻住视觉编码器和文本解码器,只训练线性映射层;

  • 第二阶段:指令微调,一版针对多模态聊天机器人场景,采用自己构建的158k多模态指令数据集进行微调;另一版针对 Science QA 数据集进行微调。微调阶段,线性层和文本解码器(LLaMA)都会进行优化

实验分析:

  • 消融实验:在 30 个 MSCOCO val 的图片上,每张图片设计 3 个问题(对话、详细描述、推理),参考 Vicuna [8],用 GPT4 对 LLaVA 和 text-only GPT4 的回复进行对比打分,报告相对 text-only GPT4 的相对值。

  • SOTA 对比:在Science QA上微调的版本实现了该评测集上的SOTA效果。

af52b45f3cbf9c3f662743932fef4951.png

MiniGPT-4

Mini-GPT4 和 LLaVA 类似,也发现了多模态指令数据对于模型在多模态开放式场景中表现的重要性

模型结构:采用 BLIP2 的 ViT 和 Q-Former 作为视觉编码器,采用 LLaMA 经过自然语言指令微调后的版本 Vicuna 作为文本解码器,也通过一个线性映射层将视觉特征映射到文本表示空间,如图 3。

089f3fe33e87ec1e4c0271241b817160.png

▲ 图3: MiniGPT-4模型结构

模型训练:

第一阶段:目标通过大量图文对数据学习视觉和语言的关系以及知识,采用 CC+SBU+LAION 数据集,冻住视觉编码器和文本解码器,只训练线性映射层;

第二阶段:作者发现只有第一阶段的预训练并不能让模型生成流畅且丰富的符合用户需求的文本,为了缓解这个问题,本文也额外利用 ChatGPT 构建一个多模态微调数据集

具体来说,1)其首先用阶段 1 的模型对 5k 个 CC 的图片进行描述,如果长度小于 80,通过 prompt 让模型继续描述,将多步生成的结果合并为一个描述;2)通过 ChatGPT 对于构建的长描述进行改写,移除重复等问题;3)人工验证以及优化描述质量。最后得到 3.5k 图文对,用于第二阶段的微调。第二阶段同样只训练线性映射层。

实验分析:

主要进行效果展示,没有定量的实验分析。

7c7193e6e09d5778cc82bdeffb2ed079.png

mPLUG-Owl

mPLUG-Owl 是阿里巴巴达摩院 mPLUG 系列的最新工作,继续延续 mPLUG 系列的模块化训练思想,将 LLM 迁移为一个多模态大模型。此外,Owl 第一次针对视觉相关的指令评测提出一个全面的测试集 OwlEval,通过人工评测对比了已有工作,包括 LLaVA 和 MiniGPT-4。该评测集以及人工打分的结果都进行了开源,助力后续多模态开放式回答的公平对比。

模型结构:采用 CLIP ViT-L/14 作为“视觉基础模块”,采用 LLaMA 初始化的结构作为文本解码器,采用类似 Flamingo 的 Perceiver Resampler 结构对视觉特征进行重组(名为“视觉摘要模块”),如图 4。

76fd8409040d8bd0a9f01056625cc3cd.png

▲ 图4: mPLUG-Owl模型结构

模型训练

第一阶段:主要目的也是先学习视觉和语言模态间的对齐。不同于前两个工作,Owl 提出冻住视觉基础模块会限制模型关联视觉知识和文本知识的能力因此 Owl 在第一阶段只冻住 LLM 的参数,采用 LAION-400M,COYO-700M,CC 以及 MSCOCO 训练视觉基础模块和视觉摘要模块

第二阶段:延续 mPLUG [9] 和 mPLUG-2 [10] 中不同模态混合训练对彼此有收益的发现,Owl 在第二阶段的指令微调训练中也同时采用了纯文本的指令数据(102k from Alpaca+90k from Vicuna+50k from Baize)和多模态的指令数据(150k from LLaVA)。

作者通过详细的消融实验验证了引入纯文本指令微调在指令理解等方面带来的收益。第二阶段中视觉基础模块、视觉摘要模块和原始 LLM 的参数都被冻住,参考 LoRA,只在 LLM 引入少量参数的 adapter 结构用于指令微调

实验分析

除了训练策略,mPLUG-Owl 另一个重要的贡献在于通过构建 OwlEval 评测集,对比了目前将 LLM 用于多模态指令回答的 SOTA 模型的效果。和 NLP 领域一样,在指令理解场景中,模型的回答由于开放性很难进行评估。

SOTA 对比:本文初次尝试构建了一个基于 50 张图片(21 张来自MiniGPT-4, 13 张来自 MM-REACT,9 张来自 BLIP-2, 3 来自 GPT-4 以及 4 张自收集)的 82 个视觉相关的指令回答评测集 OwlEval。由于目前并没有合适的自动化指标,本文参考 Self-Intruct [11] 对模型的回复进行人工评测,打分规则为:A=“正确且令人满意”;B=“有一些不完美,但可以接受”;C=“理解了指令但是回复存在明显错误”;D=“完全不相关或不正确的回复”。

实验证明 Owl 在视觉相关的指令回复任务上优于已有的 OpenFlamingo、BLIP2、LLaVA、MiniGPT4 以及集成了 Microsoft 多个 API 的 MM-REACT。作者对这些人工评测的打分同样进行了开源以方便其他研究人员检验人工评测的客观性。

多维度能力对比:多模态指令回复任务中牵扯到多种能力,例如指令理解、视觉理解、图片上文字理解以及推理等。为了细粒度地探究模型在不同能力上的水平,本文进一步定义了多模态场景中的 6 种主要的能力,并对 OwlEval 每个测试指令人工标注了相关的能力要求以及模型的回复中体现了哪些能力。

在该部分实验,作者既进行了 Owl 的消融实验,验证了训练策略和多模态指令微调数据的有效性,也和上一个实验中表现最佳的 baseline——MiniGPT4 进行了对比,结果显示 Owl 在各个能力方面都优于 MiniGPT4。

42f4eba8979df1e6cff3dc50450ce2e5.png

总结

mPLUG-Owl, MiniGPT4, LLaVA 三篇工作的目标都是希望在已有 LLM 的基础上,通过较少的训练代价达到 GPT4 技术报告中所展示多模态理解效果。他们都证明第一阶段的图文预训练对于建立图文之间的联系十分关键,第二阶段的多模态指令微调对于模型理解指令以及生成详细的回复十分必要。三个工作都通过样例展示了不错的效果,mPLUG-Owl 进一步构建一个公平比较的多模态指令评测集,虽然还不够完善(例如测试指令数量还不够多,依赖人工评测等),但也是为了该领域标准化发展的一个探索和尝试。

outside_default.png

参考文献

outside_default.png

[1] H. Liu, C. Li, Q. Wu, and Y. J. Lee. Visual instruction tuning. CoRR, abs/2304.08485, 2023.

[2] D. Zhu, J. Chen, X. Shen, X. Li, and M. Elhoseiny. Minigpt-4: Enhancing vision-language under- standing with advanced large language models, 2023a.

[3] Qinghao Ye, Haiyang Xu, Guohai Xu, Jiabo Ye, Ming Yan, Yiyang Zhou, Junyang Wang, Anwen Hu, Pengcheng Shi, Yaya Shi, Chenliang Li, Yuanhong Xu, Hehong Chen, Junfeng Tian, Qian Qi, Ji Zhang, Fei Huang: mPLUG-Owl: Modularization Empowers Large Language Models with Multimodality. CoRR abs/2304.14178 (2023)

[4] J. Li, D. Li, S. Savarese, and S. C. H. Hoi. BLIP-2: bootstrapping language-image pre-training with frozen image encoders and large language models. CoRR, abs/2301.12597, 2023.

[5] “MM-REACT: Prompting ChatGPT for Multimodal Reasoning and Action.” (2023).

[6] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, Ilya Sutskever: Learning Transferable Visual Models From Natural Language Supervision. ICML 2021: 8748-8763

[7] H. Touvron, T. Lavril, G. Izacard, X. Martinet, M. Lachaux, T. Lacroix, B. Rozière, N. Goyal, E. Hambro, F. Azhar, A. Rodriguez, A. Joulin, E. Grave, and G. Lample. Llama: Open and efficient foundation language models. CoRR, abs/2302.13971, 2023.

[8] Vicuna. Vicuna: An open chatbot impressing gpt-4. https://github.com/lm-sys/FastChat, 2023.

[9] C. Li, H. Xu, J. Tian, W. Wang, M. Yan, B. Bi, J. Ye, H. Chen, G. Xu, Z. Cao, J. Zhang, S. Huang, F. Huang, J. Zhou, and L. Si. mplug: Effective and efficient vision-language learning by cross- modal skip-connections. In EMNLP, pages 7241–7259. Association for Computational Linguis- tics, 2022.

[10] H. Xu, Q. Ye, M. Yan, Y. Shi, J. Ye, Y. Xu, C. Li, B. Bi, Q. Qian, W. Wang, G. Xu, J. Zhang, S. Huang, F. Huang, and J. Zhou. mplug-2: A modularized multi-modal foundation model across text, image and video. CoRR, abs/2302.00402, 2023b.

[11] Yizhong Wang, Yeganeh Kordi, Swaroop Mishra, Alisa Liu, Noah A. Smith, Daniel Khashabi, Hannaneh Hajishirzi: Self-Instruct: Aligning Language Model with Self Generated Instructions. CoRR abs/2212.10560 (2022)


进NLP群—> 加入NLP交流群

zenRRan
关注 关注
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
数据集-(图像-文本):LAION【史上最大规模多模态图文数据集,包含58.5亿个图像-文本对】
u013250861的博客
05-02 4187
之前的研究中,为了限制生成模型生成种族主义图片,尝试在训练集中删除了与暴力相关的物体、人和面部的图像,然而,这显然限制了模型的通用能力—比如人脸生成。紧接着发布的ALIGN[3]、GLIDE[12]等证实了这一点,但是这些大型数据集都没有开源,因此这一领域的研究,只集中在少数几个机构中,2021年公布的LAION-400M[1]是当时最大的公开图文数据集,本次发布的LAION-5B[2]是LAION-400M的14倍,足够规模的公开数据使得该领域的研究更多元化,能够让更多的研究者参与到这一领域的研究中。
一文看懂多模态大型语言模型GPT-4
勤于笔记,成于点滴。
03-30 5688
GPT-4是OpenAI公司3月推出的新一代人工智能预训练AI模型,是一个多模态大型语言模型,使用了1.5万亿个参数,是GPT-3.5的10倍之多,当然它也是世界上最大的人工智能模型
技术科普与解读:ChatGPT模型硬核解读!(三)GPT-4的多模态架构
06-17 1816
本文选自《GPT-4核心技术分析报告》的第2章的简写版(无公式版)。前两节从GPT家族的发展历史开始,讲解GPT-4的多模态架构和GPT-4中的关键技术。作者陈巍博士为AI/存算一体专家,曾担任华为系自然语言处理企业的首席科学家。技术科普与解读:ChatGPT模型硬核解读!(一)家族历史从GPT-1到ChatGPT技术科普与解读:ChatGPT模型硬核解读!(二)GPT4 的多模态涌现能力...
多模态模型时代下的文档图像智能分析与处理
热门推荐
盼小辉丶的博客
05-23 1万+
随着人工智能技术的不断发展,尤其是深度学习技术的广泛应用,多模态数据处理和大模型训练已成为当下研究的热点之一,这些技术也为文档图像智能处理和分析领域带来了新的发展机遇。在本节中,回顾来自中科院自动化研究所、北京大学、中科大的学术专家与合合信息等知名企业的研究者在中国图形图像大会 (CCIG 2023) 关于文档图像分析与处理的相关分享,介绍在多模态模型时代下文档图像智能分析与处理技术的最新进展和发展展望。
一网打尽!国内外大模型调研汇总
Kaiyuan_sjtu的博客
04-14 5079
作者|guolipa整理|NewBeeNLPhttps://zhuanlan.zhihu.com/p/614766286大家好,这里是 NewBeeNLP。自从ChatGPT出现之后,各种大语言模型是彻底被解封了,每天见到的模型都能不重样,几乎分不清这些模型是哪个机构发布的、有什么功能特点、以及这些模型的关系。比如 GPT-3.0 和 GPT 3.5 就有一系列的模型版本和索引,还有羊驼...
达摩院猫头鹰mPLUG-Owl亮相:模块化多模态模型追赶GPT-4多模态能力
gzq0723的博客
05-10 222
关注并星标从此不迷路计算机视觉研究院公众号ID|ComputerVisionGzq学习群|扫码在主页获取加入方式计算机视觉研究院专栏作者:Edison_G纯文本大模型方兴未艾,多模态领域也开始涌现出多模态模型工作,地表最强的 GPT-4 具备读图的多模态能力,但是迟迟未向公众开放体验,于是乎研究社区开始在这个方向上发力研究并开源。MiniGPT-4 和 LLaVA 问世不久,阿里达摩院便推出 m...
OpenAI 闭门讨论会V3纪要GPT-4.pdf
04-04
《OpenAI 闭门讨论会V3纪要GPT-4.pdf》的文件记录了一场针对OpenAI最新发布的多模态预训练大模型GPT-4的深入讨论。以下是基于文件内容提炼的关键知识点: 1. **模型能力演变和边界**: - GPT-4的发布标志着大模型...
GPT-4 OpenAI的断崖式领先 人类的专属技能不多了.pdf
03-16
GPT-4的一大亮点在于它的多模态特性,能够处理图像输入并生成相关文本,如网站代码。这一突破性的创新意味着AI不再局限于文字交互,而是能够理解和处理更复杂的输入形式。在OpenAI的发布会上,通过简单的草图,GPT-4...
中文大模型基准测评-2024年报告-2024年度中文大模型阶段性进展评估-SuperCLUE-2024.7.24-59页.pdf
07-24
- **国内外大模型差距缩小**:根据2024年的《中文大模型基准测评报告》,OpenAI的最新模型GPT-4o依然是全球范围内表现最佳的大模型之一。然而,值得注意的是,国内的大模型已经取得了显著的进步,将与顶尖模型之间的...
1-OpenAI 闭门讨论会V3纪要GPT-4.pdf
03-23
研究方向上,国内需要明确自身的目标,是发展多模态模型还是探索更复杂的模型架构。 模型的计算能力可以通过其参数量、训练时使用的GPU数量以及浮点运算次数(TFLOPS)来估计。随着H100等新型GPU的推出,预计未来的...
OpenAI 闭门讨论会V3纪要【GPT-4】(2).pdf
09-01
- 国内需要明确自身研究目标,考虑多模态模型之外可能出现的复杂模型形式。 - 算力需求、模型大小及数据量的估算显示,追赶OpenAI的难度加大,需要务实策略,兼顾模型和应用的同步发展。 5. **技术指标与计算能力...
热门AI通用大模型对比盘点(附论文)
学姐带你玩AI的博客
06-05 1万+
今天我来和大家聊聊通用大模型,垂直领域大模型等整理完了再和大家分享。大家可以先关注一下我,有更新可以立马看见。本文文末有整理好的通用大模型论文,都是各个大模型的原始论文,强烈建议大模型方向的同学,或者对大模型研究感兴趣的同学阅读。另外也分享一下我之前盘点过的,大家感兴趣的可以点蓝字 看看。自ChatGPT发布以来,通用大模型就仿佛坐了火箭,短短几个月的时间,各大企业便争相发布自己的大模型,这其实也反应了目前人工智能发展的方向,所以,目前通用大模型的研发已经成为各国新一轮技术竞争的核心领域。
机器学习基础概念(3)
m0_74431639的博客
10-13 338
那么对于泛化能力是否有一个标准,比如在未知的1万个数据中,泛化能力 模型一90% > 模型二80% , 我们能说模型一就比模型二好吗?根据NFL原则(没有绝对最好的),我们可以知道,刚刚那句话是不对的,比如对A来说,他需要前100个好就行,其他不重要,但B需要前10000个好,我们需要对他们进行定制不同的模型。上面是直观表示,两条线,一个是真实训练效果,这个是我们训练出来出来对于未来数据的效果,实际上是先欠拟合,之后越来越好,再之后过拟合。比较检验--如何判断实质差别,用什么标准比较模型的差别。
西瓜书机器学习第三章——线性模型
OK
10-13 178
logistic regression/logit regression 对数几率回归。multivariate linear regression 多元线性回归。within-class scatter matrix 类内散度矩阵。between-class scatter matrx 类间散度矩阵。maximum likelihood method 极大似然法。cost-sensitive learning 代价敏感学习。log-inear regression 对数线性回归。
机器学习【教育系统改善及其应用】
最新发布
qq_201729558
10-17 1440
本文主要介绍机器学习教育体系改善及其应用
机器学习【金融风险与风口评估及其应用】
qq_201729558
10-13 1841
本文主要叙述机器学习【金融风险与风口评估及其应用】
机器学习中的优化算法-2-随机优化技术
jianqimingtian的博客
10-16 398
这些算法使用 crossover 和 mutation 运算符来进化种群。通常用于通过依赖生物启发的运算符(如 mutation、crossover 和 selection)为优化和搜索问题生成高质量的解决方案。进化算法受到自然选择的启发,包括遗传算法和差分进化等技术。它们通常用于解决使用传统方法难以或无法解决的复杂优化问题。随机优化技术将随机性引入搜索过程,这对于解决传统方法可能难以解决的复杂非凸优化问题可能有利。
K-means 聚类算法:目标函数推导、迭代过程及可视化解析
qq_22841387的博客
10-13 1321
给定一个包含nnn个数据点的集合Xx1x2xnXx1​x2​xn​,每个数据点xi∈Rdxi​∈Rd是一个ddd维向量,表示数据的特征。我们的目标是将这些数据点分成kkk个簇,记为C1C2CkC1​C2​Ck​,其中每个簇CjC_jCj​中的数据点彼此之间相似性较高。在 K-means 中,我们用欧氏距离来度量数据点与质心之间的距离。假设簇CjC_jCj​的质心为μj\mu_jμj。
GPT-4多模态特性与性能超越ChatGPT,AI领域里程碑
4. 训练数据量与模型规模:GPT-4在更大规模的数据集上进行训练,模型文件中包含更多的权重,这直接导致了其处理能力的提升,但同时也带来了更高的运行成本。 三、GPT-4的应用场景 1. 基准测试:在一系列基准测试中...
写文章

热门文章

  • 大数定律和中心极限定理的区别和联系 25065
  • nlp中的实体关系抽取方法总结 22668
  • 一分钟搞懂的算法之BPE算法 21565
  • 【知识图谱】知识图谱嵌入模型简介 19572
  • Zero Shot | 一文了解零样本学习 17867

分类专栏

  • nlp 26篇
  • 深度学习 28篇
  • 其他 2篇
  • 机器学习 27篇
  • linux 3篇
  • python 8篇
  • 数学 3篇

最新评论

  • Journey Training:o1的一次复现尝试,极长思维链的合成

    秋分夜雨: 大佬,请问下你提到“把正确答案的shotcut和错误答案的shotcut进行DPO(图1的DPO指的不是这个意思)”。怎么理解图里面的DPO呢?以及我看他的pair对怎么这么少,真的会有效果嘛

  • 一文速览人岗匹配领域研究进展

    Dhyuk: 我是没找到代码

  • EMNLP2023 | 基于大语言模型的共情回复生成:实证研究和改进

    W_Sanfen_: up能分享下共情对话的数据集吗表情包

  • 论文解读:KAN: Kolmogorov–Arnold Networks

    aotian__: 作者您好,有些公式没有显示出来,能否麻烦您补全?

  • 十分钟读懂旋转编码(RoPE)

    格子瑞风: 公式全都没有了表情包

大家在看

  • AI大模型的规模化定律(Scaling Law)的本质:在对数据做更好的无损压缩

最新文章

  • 如何从头训练大语言模型: A simple technical report
  • EMNLP2024分享会要开始啦!6大主题、2多主题,快来预约不错过
  • 写在Ph.D第0年:AI/CV科研菜鸟的持续进阶之路
2024
10月 17篇
09月 64篇
08月 33篇
07月 32篇
06月 27篇
05月 18篇
04月 60篇
03月 76篇
02月 39篇
01月 62篇
2023年794篇
2022年550篇
2021年758篇
2020年896篇
2019年476篇
2018年181篇
2017年1篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

玻璃钢生产厂家玉溪市玻璃钢雕塑设计供应商玻璃钢跳舞的雕塑工艺玻璃钢人物雕塑手工制作玻璃钢雕塑仿真蜜蜂服务好的玻璃钢雕塑厂山东步行街玻璃钢雕塑优势广东博物馆玻璃钢雕塑黄山动物玻璃钢雕塑定做玻璃钢龙虾雕塑定做佛山革命主题玻璃钢雕塑信阳动漫玻璃钢雕塑岳阳玻璃钢雕塑厂家哪家好江苏四大天王玻璃钢雕塑设计东莞市大型玻璃钢雕塑西湖区玻璃钢雕塑公司玻璃钢人物仿真雕塑制作过程瓦房店新型玻璃钢雕塑玻璃钢艺术品雕塑专业瑞安玻璃钢雕塑厂家天津哈萨克玻璃钢人物雕塑商场发光美陈达州玻璃钢广场雕塑厂家青岛市玻璃钢雕塑雕刻公司商场夏季美陈方案铜川公园玻璃钢雕塑制作甘南景区玻璃钢雕塑制作上海常用商场美陈费用义乌玻璃钢花盆花器上海雕塑玻璃钢雕塑厂家通化玻璃钢雕塑定制价格香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声单亲妈妈陷入热恋 14岁儿子报警汪小菲曝离婚始末遭遇山火的松茸之乡雅江山火三名扑火人员牺牲系谣言何赛飞追着代拍打萧美琴窜访捷克 外交部回应卫健委通报少年有偿捐血浆16次猝死手机成瘾是影响睡眠质量重要因素高校汽车撞人致3死16伤 司机系学生315晚会后胖东来又人满为患了小米汽车超级工厂正式揭幕中国拥有亿元资产的家庭达13.3万户周杰伦一审败诉网易男孩8年未见母亲被告知被遗忘许家印被限制高消费饲养员用铁锨驱打大熊猫被辞退男子被猫抓伤后确诊“猫抓病”特朗普无法缴纳4.54亿美元罚金倪萍分享减重40斤方法联合利华开始重组张家界的山上“长”满了韩国人?张立群任西安交通大学校长杨倩无缘巴黎奥运“重生之我在北大当嫡校长”黑马情侣提车了专访95后高颜值猪保姆考生莫言也上北大硕士复试名单了网友洛杉矶偶遇贾玲专家建议不必谈骨泥色变沉迷短剧的人就像掉进了杀猪盘奥巴马现身唐宁街 黑色着装引猜测七年后宇文玥被薅头发捞上岸事业单位女子向同事水杯投不明物质凯特王妃现身!外出购物视频曝光河南驻马店通报西平中学跳楼事件王树国卸任西安交大校长 师生送别恒大被罚41.75亿到底怎么缴男子被流浪猫绊倒 投喂者赔24万房客欠租失踪 房东直发愁西双版纳热带植物园回应蜉蝣大爆发钱人豪晒法院裁定实锤抄袭外国人感慨凌晨的中国很安全胖东来员工每周单休无小长假白宫:哈马斯三号人物被杀测试车高速逃费 小米:已补缴老人退休金被冒领16年 金额超20万

玻璃钢生产厂家 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化