被OpenAI逼急了?谷歌又双叒放大招!
新年开局,谷歌(GOOGL.US)可谓是动作频频。
2月21日,谷歌公司宣布,AI大模型Gemma即日起在全球范围内开放使用。这是谷歌在短短12天内放出的第三个大招。
此前,谷歌于2月9日宣布其最强大模型Gemini Ultra免费用,狙击GPT-4,向OpenAI发起强势一击;紧接于16日,谷歌又放出其大模型核弹——Gemini 1.5,突破100万个tokens,能处理1小时的视频、11小时的音频、超过3万行代码或超过70万字的代码库,向OpenAI还没发布的GPT-5发起挑战。
而本次发布的开源AI大模型Gemma亦是采用了与Gemini相同的技术和基础架构,有20亿、70亿两种参数规模,即“Gemma 2B”和“Gemma 7B”,以满足开发人员的不同需求。
在性能上,谷歌称Gemma在MMLU、BBH、HumanEval等八项基准测试集上碾压同规模的Llama 2和Mistral模型,这无疑又给Meta等科技公司带去不小冲击。
不仅如此,近段时间,OpenAI才刚发布首款文生视频大模型Sora,可以快速生成60秒、准确反映用户提示的视频。
在OpenAI因Sora火爆之际,谷歌又毫无预兆的加入开源的战局,可以说直接给以闭源的代表OpenAI狠狠地上了一课。
据介绍,谷歌称Gemma是轻量级中“最先进的”开放模型系列,超越了原本最强的Mistral 7B,一举登上开源大模型宝座。
总的来说,开源Gemma大模型技术,是谷歌对OpenAI发起的又一次重大反击。截至目前,谷歌的大模型矩阵已逐渐清晰,从闭源和开源两大路线对OpenAI发起层层围剿。
从AI大模型发展趋势上,谷歌还是被市场给予厚望。
据半导体研究和咨询公司SemiAnalysis的分析师曝料,谷歌拥有的算力资源比OpenAI、Meta、亚马逊、甲骨文和CoreWeave加起来还要多,其下一代大模型Gemini已经开始在新的TPUv5 Pod上进行训练,算力达到GPT-4的5倍,基于其目前的基础设施建设情况,到明年年底可能达到20倍。
作者:虹小豆
更多精彩内容,关注云掌财经公众号(ID:yzcjapp),或者点击这里下载云掌财经APP
- 热股榜
-
代码/名称 现价 涨跌幅 加载中...