隋唐演义

隋唐演义

专访知乎周源:应对Chat GPT等新技术持理性乐观的态度

双十一 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

知乎ceo周源创业经历,周源ioi,知乎周源团队的特征,周源 知乎

新京报贝壳财经讯(记者 白金蕾)3月4日至3月11日,全国政协十四届一次会议在京举行。全国政协委员、知乎创始人、董事长兼首席执行官周源在接受新京报贝壳财经记者独家专访时谈及了他对Chat GPT等新技术的看法:首先应对技术保持理性乐观的态度;其次应该建立相应的过滤措施,研发方、应用方也应切实履行企业主体责任;最后也应提升群众的知识和认知水平,使他们更好地保护自身权益。

周源解释称,“首先是如何理解技术。现在ChatGPT全球关注度这么高,大家持有的观点也不统一。就像一些人最早看到飞机、汽车时,也会担忧它们坠落、撞人。事实上,从新技术突破,到大范围民用,会经历类似于基础设施建立的过程。从这个角度讲,我们应该对技术创新保持理性乐观态度。”

对于此前引发热议的ChatGPT可能带来的知识产权、人工智能伦理和可能的电信*等问题。周源称,应该加强社会责任,关注未成年保护,防止一些有害信息传播,同时提升公众的知识水平,正确地理解和应对新技术的影响。

编辑 白华兵

校对 赵琳



chatgpt注册支持哪些国家 华为fla-al10支持otg功能吗

chat怎么注册账号,chatplatform,potato chat 注册,chatch it

ChatGPT今天升级了GPT-4模型,AI能力更加强大,国内在这方面也在迅速追赶,有国歌国产版ChatGPT问世了,现在清华大学教授唐杰宣布由该校AI成果转化的ChatGLM开始内测。

据介绍,对话机器人 ChatGLM(alpha内测版:QAGLM),这是一个初具问答和对话功能的千亿中英语言模型, 并针对中文进行了优化,现已开启邀请制内测,后续还会逐步扩大内测范围。

与此同时,继开源 GLM-130B 千亿基座模型之后,我们正式开源最新的中英双语对话 GLM 模型: 【【微信】】,结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。

经过约 1T 标识符的中英双语训练,辅以监督微调、 反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 【【微信】】 虽然规模不及千亿模型,但大大降低了用户部署的门槛,并且已经能生成相当符合人类偏好的回答。

ChatGLM 参考了 ChatGPT 的设计思路,在千亿基座模型 GLM-130B1 中注入了代码预训练,通过有监督微调(【【微信】】g)等技术实现人类意图对齐。

ChatGLM 当前版本模型的能力提升主要来源于独特的千亿基座模型 GLM-130B。它是不同于 BERT、GPT-3 以及 T5 的架构,是一个包含多目标函数的自回归预训练模型。

2022年8月,我们向研究界和工业界开放了拥有1300亿参数的中英双语稠密模型 GLM-130B1,该模型有一些独特的优势:

双语: 同时支持中文和英文。

高精度(英文): 在公开的英文自然语言榜单 LAMBADA、MMLU 和 Big-bench-lite 上优于 GPT-3 175B(API: davinci,基座模型)、OPT-175B 和 BLOOM-176B。

高精度(中文): 在7个零样本 CLUE 数据集和5个零样本 FewCLUE 数据集上明显优于 ERNIE TITAN 3.0 260B 和 YUAN 1.0-245B。

快速推理: 首个实现 INT4 量化的千亿模型,支持用一台 4 卡 3090 或 8 卡 2080Ti 服务器进行快速且基本无损推理。

可复现性: 所有结果(超过 30 个任务)均可通过我们的开源代码和模型参数复现。

跨平台: 支持在国产的海光 DCU、华为N腾 910 和申威处理器及美国的英伟达芯片上进行训练与推理。

2022年11月,斯坦福大学大模型中心对全球30个主流大模型进行了全方位的评测2,GLM-130B 是亚洲唯一入选的大模型。

在与 OpenAI、谷歌大脑、微软、英伟达、脸书的各大模型对比中,评测报告显示 GLM-130B 在准确性和恶意性指标上与 GPT-3 175B (davinci) 接近或持平,鲁棒性和校准误差在所有千亿规模的基座大模型(作为公平对比,只对比无指令提示微调模型)中表现不错(下图)。

图1. 斯坦福大学基础模型中心对全球 30 个大模型的评测结果(2022年11月)