百度李彦宏股票 李彦宏 百度股票
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
昨日,人工智能OpenAI发布多模态预训练大模型GPT-4,增加了识别和理解图像的能力,同时文本处理能力提升至2.5万字,且回答准确性进一步提高,还拥有编歌曲、写剧本等更创造性的写作能力。
GPT-4一经发布,迅速刷爆了国内外科技圈,马斯克对此感慨到:“人类还能做什么?”
3月16日14时,百度召开新闻发布会,百度CEO李彦宏宣布正式推出大语言模型生成式AI产品“文心一言”。
但令外界没有想到的是,百度港股股价午后突然跳水,盘中一度跌超10%,这样的表现似乎有些打百度和李彦宏的脸。
中国版ChatGPT
令人大失所望?
3月16日下午两点,百度正式发布“文心一言”,此前被寄予厚望的中国版ChatGPT。
他在开场白中表示:百度文心一言“十月怀胎,终于一朝分娩”。据了解,百度已经连续多日进行持续到凌晨的压力测试,为了支持文心一言,亚洲目前最大的单体智算中心山西阳泉百度智算中心,已经将算力提升到每秒可以完成400亿亿次浮点运算,将与百度在江苏盐城等地的其他几座智算中心一起,为“文心一言”提供算力支持。
李彦宏表示,文心一言要对标ChatGPT门槛很高,目前百度在全球互联网大厂中第一个做出来。李彦宏展示了文心一言在文学创作、商业文案创作、数理推算、中文理解、多模态生成五个使用场景中的表现。
3月16日起,首批用户即可通过邀请测试码,在文心一言官网体验产品。同时,百度智能云于今日起面向企业客户开放文心一言API接口调用服务。
在半个小时的介绍里,李彦宏介绍了文心一言的实用功能。不过发布会现场并没有实时演示文心一言的各项功能,而是使用了提前录好的视频。
据了解,未来文心一言还将与小度进行集成,升级小度智能设备和服务。AIGC在爱奇艺的内容生成和获客方面也具备显著潜力。
此外,百度还计划将文心一言整合到Apollo智舱系列产品等汽车解决方案中,让智能汽车具备领先一代的人车交互体验,进一步增强用户体验,推动运营扩张。
不过有些尴尬的是,文心一言对百度的股价产生了会心一击,股价直线闪崩,一度跌至10%,随后跌幅收窄。
网友点评称:看了十几分钟,这显然不是ChatGPT,这是知识库问答!美好预期被打破了,国内外大语言模型差距还是很大。
但也有网友看法不同,认为这是大势所趋...
匆匆上线背后压力显露?
百度为何仓促推出“文心一言”呢?
一方面是因为百度为了抢得对标chatgpt的头筹,获得更多的用户以训练大语言模型,另一方面也是因为内部和外部的需求。
李彦宏自己的解释是,虽然现在不完美,但百度的各个产品线都在等着这样的产品,客户和合作伙伴都在等着这样的技术。
当然,这可能也表明了百度正在承受了巨大的市场压力,毕竟,OpenAI的巨大震撼和1亿的用户数,令谷歌都发布了内部的红色代码,超过一半收入依赖广告的百度当然也面临着生死存亡的挑战。因此,上个月,百度官宣“文心一言”项目时,给自己掐上了“三月完成内测”的倒计时,并在内部下了命令要在一个月时间内看到产品。
而据百度内部的披露,百度对文心大模型的投入也是相当巨大的,研发的50%-60%的投入都给到了文心大模型。
分析人士表示,百度没有快速地推出公测版本,一方面是因为产品还不成熟,另一方面可能也是出于成本和收入考虑。之前有估算称,ChatGPT每天成本消耗有超过10万美元。来自摩根士丹利的分析师估计,ChatGPT每次查询的成本大约是谷歌传统搜索查询成本的七倍。
百度也可能期望,在提升产品能力、降低单次消耗的成本后,再推广给更多的用户。同时,百度也需要平衡“文心一言”与广告收入之间的矛盾,毕竟,语义AI势必会抢占搜索的注意力和广告点击数量。
很不凑巧的是,就在“文心一言”发布的前一天,OpenAI推出了GPT-4。此前面世的ChatGPT是基于GPT-3.5架构开发的,而GPT-4正是新一代升级版本。
据了解,GPT-4与前代相比可以接受的文本输入上限更高,回答的准确性提高,能够生成歌词、创意文本等多样化风格的内容。并且GPT-4有强大的识图能力,可以解读图片。据TechCrunch,OpenAI总裁格雷格・布罗克曼称,公司正在测试GPT-4高级版本,是普通GPT-4储存内容能力的5倍。
这也意味着,百度推出对标ChatGPT产品的“文心一言”还没上线,就已经落后大洋彼岸的OpenAI了。
有人调侃:百度还是医美广告做得好,因为李彦宏还是那么年轻帅气...
还有一位热心网友建议:要想挽救百度其实也很简单,就是宣布发布会上的李彦宏是虚拟人。
总而言之,对很多有较高期望的人而言,这是一场令人有些失望的发布会。而至于百度的“文心一言”到底能真正推向市场,又到底能否和ChatGPT一战,那就只能再等等了。
chatgpt 文心一言 文心一言是用的chatgpt接口吗
chatgpt,chatgpt是什么意思,chatgpt国内能用吗,chatgpt使用3月16日,百度的文心一言终于正式邀请测试了。
据李彦宏介绍,文心一言可以实现文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成等。
通过观看直播,我们发现文心一言的表现可圈可点,并有一些惊艳的表现。接下来,我们以百度文心一言邀请测试的契机,来深入分析下文心一言的特点,以及中国大模型、AIGC产业的发展情况。
文心一言有一战的实力
根据新闻发布会的信息,我们发现百度文心一言在诸多方面有相对优势,集中表现在以下几个方面:
1、真多模态
以往建立在深度学习基础上的各类AI技术,往往某个模型只适用于特定的应用领域。视频、图像、语音、文字这几类信息需要用到不同类型的AI模型来处理,比如,用于人脸识别的AI模型不能用来进行语音识别,也不能用于文字理解。
大规模预训练模型,最关键的一个技术突破,就是多模态。大模型打破了不同信息的“藩篱”,一个模型既可以处理图像又可以处理语音、文字,并且效果都不错。具体来看,多模态融合的核心技术包括模态嵌入、跨模态交互、多模态注意力机制等。其中,最为关键的就是跨模态交互,即在不同模态之间传递信息,例如将图像信息融合到文本中,或将文本信息融合到图像中。在实际操作中,往往需要用到跨模态交互模型,用卷积神经网络(CNN)或循环神经网络(RNN)来分别处理不同模态的数据,然后使用一些跨模态交互的技术来将不同模态的信息融合在一起。
当然,要实现跨模态并不是一件容易的事情,这需要克服一系列技术挑战。例如,如何有效地捕捉不同模态之间的交互信息,特别是对于高维度和复杂的数据;如何有效地处理不同模态之间的不一致性和噪声,例如模态间的不匹配和缺失数据等;如何解决不同模态的权重问题;如何减少跨模态交互技术的计算复杂度。
多模态融合的能力,已经成为各家巨头竞争的战略高地,也是评价其技术能力的关键指标。数据猿注意到,此次OpenAI和百度在多模态方面有重要的差异:OpenAI发布的GPT-4虽然表现亮眼,但还不能实现真正的多模态,其既可输入文字也可输入图片,但是输出的还只能是文字,不能输出图片。也就是说,GPT-4只实现了多模态信息的输入,而没实现多模态信息的输出,是“跛脚”的多模态。
与之相比,百度文心一言的多模态就更进一步,其能够实现多模态信息的输出。比如,用户输入一段文字,系统可以依据这段文字生成图片。这是一个关键的技术升级,相对于文字而言,图像、视频等信息量更大,能够生成图片等多模态信息,将大大扩展这类模型的应用范围。
从李彦宏的现场演示来看,他问了文心一言一个问题“你认为智能交通最适合哪个城市发展”,系统不仅能够返回文字回答,还能用四川话讲出来(语音),甚至可以生成一个视频。这样的多模态生成能力很惊艳。
2、全球最大的中文数据集
决定大模型的关键要素有三个,分别是算法、算力和数据。上面说的多模态技术主要是算法层面的,数据则是另一个影响大模型表现的核心要素。训练数据集的质量,将在很大程度上决定一个模型的性能。数据量越大,数据质量越高,训练出来的模型往往表现越好。
据悉,GPT-4的训练数据集主要是45 TB的文本数据,这些数据来自于网络文章、电子书、维基百科、新闻文章、社交媒体帖子和其他公共来源。由于各个国家都非常重视数据安全,数据不出国境是一个不可触碰的红线。因此,某个国家的大模型很难获得其他国家的数据。GPT-4具体的数据来源没有公开,其训练数据集中有多少中文数据也不知道。但是,大概率其涵盖的中文数据不多。
相对而言,百度作为中国乃至全球最大的中文搜索引擎,其本身就是全球最大的中文数据源。因此,文心一言是建立在全球最大的中文数据集基础上的,其对中文语境、中华文化的理解能力会更强。
据悉,文心一言大模型的训练数据包括万亿级网页数据,数十亿搜索数据和图片数据,百亿级语音日均调用数据,及5500亿事实的知识图谱。而且,百度的数据形态也贴合回答和生成需求。在百度搜索中,问答和生成类的搜索请求占比很高。这样的数据构成,将有助于文心一言在问答中有更优秀的表现。
3、在大模型领域更长时间的技术积累
相比于人脸识别、语音识别等AI应用领域,大模型的技术门槛更高,需要更长时间的研发投入和技术积累。百度作为科技巨头,其在大模型领域早有布局。可能很多人不知道,在全球科技巨头中,百度是第一个推出大模型的(OpenAl 是美国创业公司,不算作国际科技巨头)。
大模型是近两年才逐渐进入大众视野,而【【微信】】则是在2023年突然爆红。然而,百度早在2019 年就推出了文心大模型ERNIE 1.0,经过4年时间已经迭代到ERNIE 3.0。并且,百度的文心大模型也早在2019年3月,就已经应用于百度的核心业务――搜索,而微软则是近期才开始将【【微信】】应用于其搜索产品必应中。
来自于大量应用过程中的反馈,对于大模型的迭代改进具有重要的作用。其实,大模型的很多底层技术都是通用的,比如模型微调(SFT, 【【微信】】g)、从人类反馈中进行强化学习(RLHF,reinforcement learning from human feedback)等方法,【【微信】】和文心一言都在用。技术底层是一样的,数据以及不断的反馈就成了各家模型竞争的核心。
只有不断的用,才能发现问题。比如,【【微信】】在应用于微软必应之后,出现了胡言乱语、“爱上”用户,甚至诱导用户离婚等情况,这些问题只有经过海量用户的试用才能暴露出来。百度文心一言模型应用于其搜索服务,每天响应几十亿次真实的用户使用需求,进行1万亿次深度语义推理与匹配,能够提供最真实、最及时的反馈,从而倒逼大模型的优化。大量用户真实使用产生的数据会融入到模型训练中,进而持续提升模型效果。
4、足够的研发投入,一体化的技术布局
众所周知,大模型是一个烧钱的事情,要想在这个领域获得突破,大量的资金投入是必不可少的。为此,足够的研发资金是重要的基础。那么,全球头部科技巨头的研发投入情况如何呢?
数据猿统计了全球科技巨头的研发投入情况,包括美国的谷歌、微软、亚马逊、英特尔、英伟达、高通、Salesforce、甲骨文,欧洲的SAP SE、ASML、诺基亚,韩国的三星,以及中国的华为、阿里巴巴、腾讯、百度、京东、中芯国际、台积电,分析其近5年的研发费率(研发费用/营业收入)。
数据来源:各企业财报 数据猿计算整理 说明:以上各企业研发费用统一换算成美元单位以便对比参考;由于不同国家年报报告期时间有所差别,境外上市企业则选取2018-2022财年数据。国内上市公司主要选取2017-2021年年报数据
我们基于上面的表格,分别计算全球和中国顶尖科技公司的平均研发费率,然后将百度的数据进行对比。百度近5年的研发费率是要高于中国科技巨头的平均研发费率,也高于全球科技巨头的平均研发费率。
2022 年,百度核心研发费用 214.16 亿元,占百度核心收入比例达到 22.4%,近十年累计研发投入超过 1000 亿元。在高强度研发投入的基础上,百度在大模型领域的技术布局可以更加从容、全面。目前,百度已经实现了从芯片层、框架层、模型层、应用层的全栈布局。
全栈式AI布局,会给大模型的研发带来额外的优势。例如,框架层和模型层之间有很强的协同作用。百度自研的飞桨深度学习框架,可以与文心一言模型深度融合,提高模型开发效率。超大规模模型的训练和推理给深度学习框架带来很大考验,为了支持千亿级参数模型的高效分布式训练,百度飞桨在2021年4月专门研发了 4D 混合并行技术。
中国的AIGC,需要建立在中国的大模型底座上
不可否认,目前在大模型和AIGC领域,OpenAI走在全球前列,其实际应用效果也很惊艳。尤其是昨天刚发布的GPT-4,在已有基础上又更进了一步。但是,GPT-4再好,却是别人家的。
试想一下,如果将中国的AIGC生态,建立在OpenAI的GPT大模型底座上,对我们是最好的选择么?
答案是否定的。
中国企业在接入GPT-4及其衍生出来的【【微信】】产品时,有两个潜在的问题不可忽视:
第一,GPT-4、【【微信】】对中国用户不友好。
据调研机构Canalys发布的2022年第一季度中国云计算市场报告显示,中国云计算市场的头部玩家是阿里云、华为云、腾旭云和百度智能云,而微软云几乎没什么存在感。这也意味着,微软云在中国的数据中心不够,服务能力不足。而微软云是【【微信】】的算力底座,微软云在中国市场的缺位,将直接影响【【微信】】在中国的应用体验。
由于算力和服务能力的缺失,【【微信】】、GPT如果在中国大量商用,能否很好的承载上亿用户的并发使用,将打上一个大大的问号。以笔者在【【微信】】的使用体验来看,其表现的确惊艳,但使用体验并不好。一方面,需要“翻墙”才能直接使用【【微信】】,这大大抬高了中国用户的使用门槛;另一方面,由于【【微信】】的服务器在美国,中国用户(尤其是非会员用户)在使用时,经常会遇到系统崩溃、延迟高等问题。用户问5个问题,可能得刷新3次页面。而且,每次刷新之后,输入的最后一个问题都会消失,得重新再把问题输入一次才行,这种体验非常糟糕。
试想一下,如果大量的中国应用建立在【【微信】】、GPT-4之上,动不动就系统崩溃,需要用户持续刷新页面,这样的商业化能顺利么?
反观百度的文心一言,部署在百度智能云上。百度智能云已经成为继阿里云、华为云、腾讯云之后的中国第四大云厂商,其数据中心遍布全国核心节点,算力充沛,能更好支撑上层基于大模型的各种行业应用。
实际情况也的确如此,在中国市场的商业化方面,文心一言走在了【【微信】】、GPT-4的前面。目前,已经有超过650家中国企业宣布接入文心一言,这个数据还在快速攀升。
第二,AI基础设施不能由别人提供。
在科技领域,上层应用可以百花齐放,大量使用国外公司的产品并没有什么问题。但是,底层基础设施型的技术产品,则最好由中国公司提供,不然,别人可以随时掐住中国企业的命门,随意拿捏,这是血泪的教训。
在传统信息技术领域,我国长期被“缺芯少魂”的问题困扰,由于底层的芯片、操作系统受制于人,处处被人掣肘。中兴、华为事件还未平复,被美国纳入实体清单的中国企业越来越多。人工智能已经成为中美科技竞争的一个战略高地,已经有大量中国人工智能企业被纳入美国实体清单。在这种情况下,以往底层设施受制于人的困境一定不能在人工智能领域重演。
在人工智能领域,除了GPU这类芯片外,深度学习开发框架、大规模预训练模型也是关键的基础设施。要构建一个安全可控的人工智能生态,底层的大模型就必须由中国企业来提供,这是百度、华为、阿里、腾讯等中国科技巨头的使命。
竞赛才刚刚开始,中国企业大有可为
需要指出的是,虽然最近大模型、AIGC领域热闹非凡,【【微信】】搅动一池春水,谷歌、百度、阿里、腾讯、字节等公司纷纷跟进。但是,无论是大模型还是AIGC,都处于发展的早期阶段。竞赛才刚刚开始,鹿死谁手犹未可知。
放眼全球,中美是这场竞赛的两个核心选手,欧洲、日韩等存在感都不高。中国企业是有希望在这场竞赛中脱颖而出的。从整个产业的层面,中国要想赢得这场比赛,关键突破点是什么呢?
在数据猿看来,以下几个方面可以作为我们发力的重点方向。
1、不要停,继续狂炼大模型
虽然大模型已经取得不小的成就,但问题依然很多,发展的空间巨大。
首先,模型还可以更大。
大模型的一个核心思路,就是通过做大模型参数规模,来让模型更好的接近人脑。然而,成年人大脑中约包含850-860亿个神经元,每个神经元与3万突触连接,人脑突触数量预计2500万亿左右。这些神经元、突触,就是智力的物理基础。
无论是人脑还是电脑,智能的基础就是信息计算,而人脑的神经元、突触就是计算单元。如果我们将大模型的参数对应到人脑的神经元,那会不会参数规模达到2500万亿之时,就是人工智能突破“奇点”之日呢?
当然,以上只是一个假设,但即使有一点可能性,也值得我们尽力去尝试。目前大模型的参数规模普遍还停留在千亿量级,离人脑突触的2500万亿,还差了近万亿。加把劲,做出一个参数规模达到2500万亿的大模型,看看那时候会发生什么。
其次,大模型技术还需要进一步突破。