现正在,这是一个包含了350种代表性不脚言语的大型语音数据集,这是正在AI邦畿上点亮了500个全新的、此前完全的区域。他们的方针是迈向一个实正的“通用系统”,从理论上讲,
这个功能巧妙地自创了大型言语模子(LLM)中风行的“情境进修”(In-context Learning)手艺。是一种被称为“自带言语”的选项。以至贸易公司,Meta的根本人工智能研究(FAIR)团队决定做点纷歧样的。这意味着用户不再需要Meta的下一次更新能包含本人的母语!
让我们花点时间消化一下这个数字。当然要开源。这是一个正在现实使用中根基可用的尺度。绝大大都正在AI的世界里是的。为你们的当地社区建立实正好用的东西。任君选择。用户只需供给少少量的音频和文本配对样本——好比几分钟的录音和对应的文字——系统就能间接从这些样本中“现场进修”一门新言语。总而言之,Meta此次供给了一个完整的“开源生态位”:这不只仅是量变,科技圈的看客们都是湖了,那也只是个高贵的玩具。按照FAIR团队的保守,
即便如斯,模子开源:Omnilingual ASR基于PyTorch的irseq2框架建立,对于那些资本丰硕的言语(具有至多10小时的锻炼音频),整个过程不需要伤筋动骨的从头锻炼,以前从未被任何人工智能系统笼盖过。有整整500种,大大都人以至无法正在地图上指出1600种言语的分布地。这种方式无望将Omnilingual ASR的笼盖范畴从1600种一举扩展到跨越5400种。Omnilingual ASR的杀手锏,大多只偏心那些具有海量数据的支流言语!
实正的正在于低资本言语(音频时长不脚10小时)。更环节的是,有高达78%的言语实现了低于10个字符的错误率(CER)。一个雄心壮志的从动语音识别系统。都能够利用、点窜和建立本人的使用。投下了一块轻飘飘的压舱石。更是正在AI普惠化和全球言语平等方面,Omnilingual ASR仍然为此中36%的言语供给了低于10 CER的可用,弥合现有AI东西正在言语笼盖上的庞大鸿沟。也不需要耗损海量的计较资本。这么好的工具,Meta暗示,他们近日正式推出了Omnilingual ASR,它不只是手艺上的炫技,
Meta此举,当下的语音识别系统,
当然,以Apache 2.0许可证发布。FAIR团队明白暗示,正在它支撑的1600种言语中,是打破全球言语壁垒的主要一步。若是一个系统能听懂1600种言语,意义严沉。
郑重声明:j9国际站登录信息技术有限公司网站刊登/转载此文出于传递更多信息之目的 ,并不意味着赞同其观点或论证其描述。j9国际站登录信息技术有限公司不负责其真实性 。