云原生集成开发环境——TitanIDE
通过网页在任何地方更安全、更高效地编码想要获得最大程度的云原生收益?
您应即刻采取行动,以云原生方式构建新的应用或是改造旧有应用。 传统的"刀耕火种"式开发工具和云原生格格不入,您需要云原生数字化创新平台。云原生平台貌似很多,但聚焦于开发的很少,而这是云原生之旅极为重要的起点
我们迫不及待地想要与您分享和探讨我们的独特方案,相信对您的云原生实践一定会有所帮助。
如果您刚刚开始探索云原生世界,这些工具将让您快速获得不同的云原生能力; 如果您已经踏上云原生之旅,相信这些可插拔的工具定会让您的云原生体系如虎添翼
如何从无到有快速开发、上线您的业务?即刻体验行云 Methodot,为独立开发者和中小研发团队提供的一站式在线服务,可通过“有代码+低代码”结合方式满足各类多变业务需求
2025-04-07
【LEYU科技消息】日前,谷歌首席执行官Sundar Pichai宣布开源最新多模态大模型Gemma-3,主打低成本与高性能。Gemma-3提供四种不同参数规模的版本,分别为10亿、40亿、120亿和270亿参数。即便在参数量最大的270亿版本中,仅需一张H100显卡即可实现高效推理。相比之下,同类模型若要达到类似效果,至少需要提升10倍算力。因此,Gemma-3也是目前性能最强的小参数模型之一。
在性能测试方面,根据LMSYS ChatbotArena的盲测数据,Gemma-3的表现仅次于DeepSeek的R1-671B,优于OpenAI的o3-mini和Llama3-405B等知名模型。
在架构设计上,Gemma-3延续了前两代的通用解码器Transformer架构,并进行了多项创新和优化。为解决长上下文带来的内存占用问题,Gemma-3采用了局部和全局自注意力层交错的架构:每5个局部层之间插入1个全局层,局部层的跨度仅为1024个token。由于只有全局层负责处理长上下文,局部层仅关注1024个token的小跨度,从而有效降低了内存占用。
多模态能力是Gemma-3的一大技术亮点。该模型能够同时处理文本和图像,并集成了定制版的SigLIP视觉编码器。这一编码器基于Vision Transformer架构,通过CLIP损失的变体进行训练。
为了评估Gemma-3的性能,谷歌在MGSM、Global-MMLU-Lite、WMT24++、RULER、MRCR等多个主流平台进行了测试。结果显示,Gemma-3在多模态任务中表现出色,例如在DocVQA、InfoVQA和TextVQA等任务中,其性能显著优于前代模型。在长文本处理方面,270亿参数版本的Gemma-3在RULER128K任务上达到了66.0%的准确率。
版权所有,未经许可不得转载
-乐鱼体育Copyright ©2016-2024 深圳乐鱼创新科技有限公司 版权所有 |粤ICP备17026550号
电话总机:400-008-9160 市场合作:marketing@