Google在官方部落格发表文章指出,今年5月发布轻量级AI模型Gemini 1.5 Flash的公开预览版,现在已全面开放使用。

目前在平台Vertex AI上免费开放300美金的免费使用额度。 

Gemini 1.5 Flash具备低延迟和成本效益,拥有100万个词元(token)的脉络长度,适合各种大规模应用,包括零售客服虚拟专员、文书处理等。

目前常见的使用方式为,辨别图片内的资讯并转成文字档。例如:狗的图片上传到Gemini 1.5 Flash,这个AI模型就可区分图片为一只狗而不是一只猫,并产生文字档。

更重要的是,透过传输图片,Gemini 1.5 Flash将会学习传入的知识,并可以制造出类似的图片。例如:经由学习后,Gemini 1.5 Flash将可以产出新的狗的图片。

在影片作业上,Gemini 1.5 Flash也可以应用在读取影片并产生文字档。

Gemini 1.5的使用流程(辨别和读取图档)。摄自Google Cloud官方影片
Gemini 1.5的使用流程(辨别和读取图档)。摄自Google Cloud官方影片

在输入的内文上,根据Google提供的数据,相较于GPT-3.5 Turbo等的同类模型,Gemini 1.5 Flash提供的脉络长度比GPT-3.5 Turbo多了约60倍;

在处理速度上,处理1万个字元时,Gemini 1.5 Flash平均速度比GPT-3.5 Turbo快40%。

此外,性能更强的AI模型Gemini 1.5 Pro现在提供200万个词元的脉络长度。

Google表示,处理一部6分钟的影片需要超过10万个词元,处理大型程式库可能需要超过100万个词元。

Gemini 1.5的使用流程(产出图档)。摄自Google Cloud官方影片
Gemini 1.5的使用流程(产出图档)。摄自Google Cloud官方影片

现在,无论是从程式码中找出错误、从研究资料库中寻找正确资讯,或是分析数小时的音讯或影片,Gemini 1.5 Pro都能提供协助。

而今年稍早Google推出先进轻量级开放式模型Gemma,使用与Gemini模型相同的研究成果和技术打造而成。

现在Google也正式向全球的研究及开发人员推出 Gemma 2,提供90亿(9B)和270亿(27B)两种参数规格选择,比第一代更有效率,同时大幅强化内建系统的安全性。