值得买科技-分享、推荐高性价品牌产品购物排行榜!

「开源」0代码调戏千亿参数大模型,打开网页就能玩!无需注册即可体验

量子位 真实性核验

认证:数码产品优质原创作者

发布时间:2022-09-08 01:36 来源:什么值得买

浏览量:1605 1022次收藏

分类:数码产品 热点ZAKER新闻资讯

本文有1458个文字,大小约为6KB,预计阅读时间4分钟

原文标题:0代码调戏千亿参数大模型,打开网页就能玩!无需注册即可体验

想体验千亿参数大模型的门槛,真是越来越低了!

想让大模型回答问题?

只需在网页端输入问题,运行二三十秒,答案就噌噌生成了。

用的正是今年由 Meta 开源的 Open Pretrained Transformer(OPT),参数量达1750 亿。

如果是传统在本地运行,对算力可是个大考验。

这就是由开源项目 Colossal-AI支持的云端 demo,无需注册即可上手体验,对硬件完全没门槛,普通笔记本电脑甚至手机就能搞定。

也就是说,完全不用懂代码的小白,现在也能调戏 OPT 这样的大模型了。

让我们来试玩一把 ~

4 种任务可试玩

FAQ 常见问题解答、聊天机器人、翻译、文章创作几种模式都可试玩。

一些数值也能按需自己来调整,并且不涉及到代码。

我们体验了下文章创作,开头给了一句 " 今天是个好日子啊 "。

很快,网页就输出了一连串大好事,刚刚加薪、正在玩刺客信条、明天还要去海滩……看着让人羡慕!

还能构建个场景让聊天机器人唠上几块钱的。

随机生成的一段长对话是买手机的场景。嗯,和今天 iPhone 14 发布可以说是非常应景了。

感觉即便是不懂 AI、不懂编程的小白也能玩转 OPT 的各种任务,体验过程相当丝滑。

要知道,像 OPT 这样千亿参数大模型的运行,一直都有着 " 对硬件要求高 "、" 成本高 " 的特点。

一个免费无限玩的网站,到底是怎么实现如上效果的?

开源方案快速云上部署超大模型

这还是要从其背后支持系统 Colossal-AI 说起。

它以 "仅需几行代码就能快速部署 AI 大模型训练推理 " 而名震江湖,在 GitHub 上揽星超过 4.7K。

这一次,是它在云上部署 AI 大模型的一次新突破。

主要针对 OPT 模型的特性,做出了在推理速度、计算量等方面的优化。

在 OPT 云上服务方面,提出了 left padding、past cache、bucket batching 技术。

OPT 拥有 1750 亿参数量,如此规模的模型,单个 GPU 显存显然无法容纳。

而且推理问题不光要考虑吞吐量,还要顾及到时延问题。

针对这两方面问题,并行计算是个不错的解决思路。

尤其是 Colossal-AI 本身就十分擅长将一个单机模型转换成并行运行,获得并行 OPT 模型自然不成问题。

不过并行方案中的参数加载一直是个难题。

在这方面,Colossal-AI 可以让用户只需要参考样例,简单提供参数名映射关系,即可完成模型参数的加载。

最后,再将模型导入到 Colossal-AI 的推理引擎中,设置相应的超参数。

到这一步,OPT 主干网络的推理部分就能上线且输出有意义的结果了。

但是这还远远不够。

因为 OPT 是生成式模型,生成式任务需要不断循环模型的输出结果,这就导致推理中常见的batching 策略无法直接应用。

具体来看,由于生成任务输入的语句长度往往参差不齐,而且大部分语言阅读和书写都是从左向右的。

如果用常规的right padding,那么针对较短的句子就很难生成有意义的结果,或者需要进行复杂处理。

△使用 Right padding,生成侧不对齐

如果用单 batch 运行,效率又太低了,不可行。

所以这一回的推理部署中,增加了 left padding 对句子进行填充,让每个句子的生成侧(右侧)都是对齐的,同时可以生成新的单词。

△Left padding

还有另一方面的问题——生成模型单次推理只能生成一个新词。

当新的输出结果生成时,它同时也成为了输入的一部分。

也就是说,生成式任务的每次计算,是需要针对新的输入序列进行重新计算的。

显然这种操作方式,重复计算太多了。

尤其是对于占绝大多数计算量的 Linear 层来说。

所以,Colossal-AI 的开发人员在模型内部引入了past cache 技术。

它可以暂存同一次生成任务中的 Linear 层的输出结果,让每次只有一个新的单词进入 Linear 层进行计算,并把该次的计算结果暂存,以避免重复计算。

直观来看就是酱婶儿的:

除此之外,开发人员还注意到生成式任务的计算量是参差不齐的。

输入、输出的句子长短变化范围都很大。

如果用简单的 batching 方法,将两个相差很大的推理放在同一个批次里,就会造成大量的冗余计算。

因此他们提出了bucket batching。

即按照输入句长以及输出目标句长进行桶排序,同一个桶内的序列作为一个 batching,以此降低冗余。

One More Thing

不光是这次的云端 demo,提供支持的 Colossal-AI 也是免费开源的 ~

任何人都能基于它低成本训练自己的大模型,并部署成云端服务。

比如在单张 10GB 显存的 RTX 3080 上,就能训练120 亿参数的大模型。

较原生 PyTorch 提升了120 倍的模型容量。

此前 Colossal-AI 多次在 GitHub、Paper With Code 热榜位列世界第一。

相关解决方案成功在自动驾驶、云计算、零售、 医药、芯片等行业知名厂商落地应用。

最近,Colossal-AI 还连续入选和受邀全球超级计算机大会、国际数据科学会议、世界人工智能大会、亚马逊云科技中国峰会等国际专业盛会。

对 Colossal-AI 感兴趣的小伙伴,可以关注起来了 ~

传送门

项目开源地址:

https://github.com/hpcaitech/ColossalAI

云端 demo 体验地址:

https://service.colossalai.org/

参考链接:

[ 1 ] https://arxiv.org/abs/2205.01068

[ 2 ] https://sc22.supercomputing.org/

[ 3 ] https://medium.com/@yangyou_berkeley/using-state-of-the-art-ai-models-for-free-try-opt-175b-on-your-cellphone-and-laptop-7d645f535982

— 完 —

点这里关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~

热门阅读:600元解决家庭矛盾,卡赫无线吸尘器开封体验<\a>

其他人还看了

「马修」Copilot要摊官司了!工作20年老程序员重新激活律师证,发起集体诉讼,

「高通」高通向安卓AOSP捐赠aptX与aptXHD编解码器源代码

「微软」微软看了想打人:免费开源编辑器VSCode被倒卖

龙芯全国产处理器2K1000LA完成开源鸿蒙OpenHarmony兼容性适配

「英特尔」英特尔JoshNewman:真正满足用户所需让人们享受专注与互联的PC体验

哎呦不错哦,赞!(271)

郑重声明:本文“「开源」0代码调戏千亿参数大模型,打开网页就能玩!无需注册即可体验”,https://nmgjrty.com/shumacp_596853.html内容,由量子位提供发布,请自行判断内容优劣。

上一篇:「闪存」全球闪存芯片格局剧变:韩国两公司掌控份额已超50%

下一篇:「华为」Mate50之外:华为全家桶更值得关注

说点什么吧
  • 全部评论(0
    还没有评论,快来抢沙发吧!
相关推荐
返回顶部