隋唐演义

隋唐演义

再造一个ChatGPT?OpenAI创始人称要开放接口 创造杀手级应用

双十一 0

淘宝搜:【天降红包889】领超级红包,京东搜:【天降红包889】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

再造一个工业梧州,再造一个新南宁,再造一个新深圳,再造一个辉煌的汉疆和唐土

  OpenAI还想再打造一个类似ChatGPT的“杀手级”应用程序。

  当地时间3月9日,路透社报道称,OpenAI创始人、首席执行官Sam Altman在摩根士丹利会议上表示,该公司将专注于构建一个平台,向开发者开放API接口,并创造类似ChatGPT这样的“杀手级应用程序(killer apps)”。

  目前,聊天机器人ChatGPT的热度居高不下。互联网分析机构Similarweb表示,自去年11月推出以来,ChatGPT的人气不断飙升,该网站的访问量从今年1月的6.16亿次已经增加到如今的超10亿次。

  随着热度攀升,该公司不仅向个人用户推出了付费服务ChatGPT Plus,还开始寻求与企业建立合作。Altman表示,OpenAI正在与企业客户合作,在特定的领域训练模型,以便有效地减少AI(人工智能)系统出现错误的次数。

  他提到,与OpenAI合作的企业能够使用该公司的数据并制作模型副本,以减少数据安全问题。他举例称,管理咨询公司贝恩(Bain & Company)与OpenAI合作,使用该公司的ChatGPT和DALL-E平台,为可口可乐等公司提供个性化的广告文案和图像等。

  此外,Altman补充说,个人用户应该对AI(人工智能)的工作方式有更多的控制权。该公司上个月表示,正在对聊天机器人进行升级,允许用户对其进行定制,以解决对人工智能的错误情况。他表示,“我们将很快推出更多的东西,让用户对系统有更多的控制,使其可以按照不同的方式行事。”

  Altman还承认,目前AI系统的准确率无法达到100%,但他预计AI医生、AI律师等应用程序很快就会出现在手机上。

  事实上,OpenAI在3月1日就曾宣布,该公司已经引入API,并允许任何企业将ChatGPT技术搭建在他们自己的应用程序、网站、产品和服务中,Snap、【【微信】】、Instacart和Shopify等公司是ChatGPT API早期采用者。

  公开资料显示,API是应用程序编程接口,可以实现计算机软件之间的相互通信,通过API接口,开发人员不需要访问源码或理解内部工作机制的细节,就能够开发应用程序。亚马逊官方网站给出了这样的例子――气象局的软件系统包括每天的天气数据,用户手机上的天气应用程序通过API与该系统“对话”,并在手机上显示每天的最新天气信息。

  此前,OpenAI总裁兼董事长Greg Brockman表示,ChatGPT API由自然语言大模型GPT-3.5-turbo支持,其中“turbo”代表的是GPT-3.5的优化版本,响应速度更快。该模型与广受欢迎的ChatGPT采用同源技术,后者是基于GPT-3的增强版进行的改造。

  美国科技媒体TechCrunch称,OpenAI开发GPT-3.5-turbo的最初动机可能是为了降低ChatGPT的计算成本,Altman曾在推特上表示,ChatGPT与用户对话的成本非常“惊人”,每次对话需要花费几美分或更多。

  值得注意的是,更新一代的自然语言处理模型GPT-4或于下周推出。当地时间3月9日,微软德国首席技术官Andreas Braun在一场AI(人工智能)活动中提到,“我们将在下周推出GPT-4,它将是一个多模态模型(multimodal models),能够提供完全不同的可能性,比如支持视频。”

  此外,在3月16日,微软将举行“人工智能引领未来工作”在线活动,展示微软最新的AI技术,并探讨人工智能在工作场景中的应用和发展。

(文章来源:澎湃新闻)


谷歌人工智能识别问题 ai预测和机器翻译的区别

谷歌人工智能叫什么名字,谷歌人工智能chat,谷歌人工智能聊天软件,谷歌人工智能首席科学家
出chatgpt独享账号!内含5美元!仅需38元/个!独享永久使用!点击购买!自动永久激活office/【【微信】】6,2013、win10/win11工具,仅需15元,点击购买! 0 分享至

用微信扫码二维码

分享至好友和朋友圈

新智元报道

编辑:编辑部

【新智元导读】近日,谷歌正式发布了支持100多个语种的20亿参数通用语音模型――USM,正式对标OpenAI的开源Whisper。

上周,OpenAI发布的ChatGPT API和Whisper API,刚刚引动了一场开发者的狂欢。

3月6日,谷歌就推出了一款对标的模型――USM。不仅可以支持100多种语言,而且参数量也达到了20个亿。

当然了,模型依然没有对外开放,「这很谷歌」!

简单来说,USM模型在涵盖1200万小时语音、280亿个句子和300种不同语言的无标注数据集中进行了预训练,并在较小的标注训练集中进行了微调。

谷歌的研究人员表示,虽然用于微调的标注训练集仅有Whisper的1/7,但USM却有着与其相当甚至更好的性能,并且还能够有效地适应新的语言和数据。

论文地址:【【网址】】/abs/2303.01037

结果显示,USM不仅在多语种自动语音识别和语音-文本翻译任务评测中实现了SOTA,而且还可以实际用在YouTube的字幕生成上。

目前,支持自动检测和翻译的语种包括,主流的英语、汉语,以及阿萨姆语这类的小语种。

最重要的是,还能用于谷歌在去年IO大会展示的未来AR眼镜的实时翻译。

Jeff Dean亲自官宣:让AI支持1000种语言

当微软和谷歌就谁家拥有更好的AI聊天机器人争论不休时,要知道,大型语言模型的用途可不仅于此。

去年11月,谷歌最先宣布了新项目「开发一种支持全球1000种最常用语言的人工智能语言模型」。

同年,Meta也发布了一个名为「No Language Left Behind」模型,并称可以翻译200多种语言,旨在打造「通用翻译器」。

而最新模型的发布,谷歌将其描述为通向目标的「关键一步」。

在打造语言模型上,可谓群雄逐鹿。

据传言,谷歌计划在今年的年度 I/O 大会上展示20多款由人工智能驱动的产品。

当前,自动语音识别面临许多挑战:

传统的监督学习方法缺乏可扩展性

在传统的方法中,音频数据需要费时又费钱的手动标记,或者从有预先存在的转录的来源中收集,而对于缺乏广泛代表性的语言来说,这很难找到。

扩大语言覆盖面和质量的同时,模型必须以高效的计算方式进行改进

这就要求算法能够使用来自不同来源的大量数据,在不需要完全重新训练的情况下实现模型的更新,并且能够推广到新的语言和使用案例。

微调自监督学习

据论文介绍,USM的训练采用了三种数据库:未配对的音频数据集、未配对的文本数据集、配对的ASR语料库。

未配对的音频数据集

包括YT-NTL-U(超1200万小时YouTube无标签音频数据)和Pub-U(超429,000小时的51种语言的演讲内容)

未配对的文本数据集

Web-NTL(超1140种不同语言的280亿个句子)

配对的ASR语料库

YT-SUP +和 Pub-S语料库(超10,000小时的音频内容和匹配文本)

USM使用标准的编码器-解码器结构,其中解码器可以是CTC、RNN-T或LAS。

对于编码器,USM使用了Conformor,或卷积增强Transformer。

训练过程共分为三个阶段。

在初始阶段,使用BEST-RQ(基于BERT的随机投影量化器的语音预训练)进行无监督的预训练。目标是为了优化RQ。

在下一阶段,进一步训练语音表征学习模型。

使用MOST(多目标监督预训练)来整合来自其他文本数据的信息。

该模型引入了一个额外的编码器模块,以文本作为输入,并引入了额外的层来组合语音编码器和文本编码器的输出,并在未标记的语音、标记的语音和文本数据上联合训练模型。

最后一步便是,对ASR(自动语音识别)和AST(自动语音翻译)任务进行微调,经过预训练的USM模型只需少量监督数据就可以取得很好的性能。

USM整体训练流程

USM的性能如何,谷歌对其在YouTube字幕、下游ASR任务的推广、以及自动语音翻译上进行了测试。

YouTube多语言字幕上的表现

受监督的YouTube数据包括73种语言,每种语言的数据时长平均不到3000个小时。尽管监督数据有限,但模型在73种语言中实现了平均不到30%的单词错误率(WER),这比美国内部最先进的模型相比还要低。

此外,谷歌与超40万小时标注数据训练出的Whisper模型 (big-v2) 进行了比较。

在Whisper能解码的18种语言中,其解码错误率低于40%,而USM平均错误率仅为32.7%。

对下游ASR任务的推广

在公开的数据集上,与Whisper相比,USM在CORAAL(非裔美国人的方言英语)、SpeechStew(英文-美国)和FLEURS(102种语言)上显示出更低的WER,不论是否有域内训练数据。

两种模型在FLEURS上的差异尤为明显。

在AST任务上的表现

在CoVoST数据集上对USM进行微调。

将数据集中的语言按资源可用性分为高、中、低三类,在每一类上计算BLEU分数(越高越好),USM在每一类中的表现的优于Whisper。

研究发现,BEST-RQ预训练是将语音表征学习扩展到大数据集的一种有效方法。

当与MOST中的文本注入相结合时,它提高了下游语音任务的质量,在FLEURS和CoVoST 2基准上实现了最好的性能。

通过训练轻量级剩余适配器模块,MOST表示能够快速适应新的域。而这些剩余适配器模块只增加2%的参数。

谷歌称,目前,USM支持100多种语言,到未来将扩展到1000多种语言。有了这项技术,或许对于每个人来讲走到世界各地稳妥了。

甚至,未来实时翻译谷歌AR眼镜产品将会吸引众多粉丝。

不过,现在这项技术的应用还是有很长的一段路要走。

毕竟在面向世界的IO大会演讲中,谷歌还把阿拉伯文写反了,引来众多网友围观。

参考资料:

【【网址】】/2023/03/uni【【微信】】usm-state-of-art.html?m=1

https://www.theverge.com/【【QQ微信】】/【【微信】】-ai-universal-speech-model

https【【网址】】/google-usm-shatters-language-barriers-with-multilingual-speech-recognition-model/

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (【【微信】】 and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only pro【【微信】】age services.

/阅读下一篇/ 返回网易首页 下载网易新闻客户端
【本文地址】