您的当前位置:首页 > 焦点 > 千亿参数大模型首次被撬开!Meta复刻GPT-3“背刺”OpenAI,完整模型权重及训练代码全公布 正文
时间:2025-07-06 03:13:35 来源:网络整理 编辑:焦点
千亿参数大模型首次被撬开!Meta复刻GPT-3“背刺”OpenAI,完整模型权重及训练代码全公布来源:量子位千亿级参数AI大模型,竟然真的能获取代码了?!一觉醒来,AI圈发生了一件轰动的事情——Me
千亿参数大模型首次被撬开!背刺Meta复刻GPT-3“背刺”OpenAI,千亿撬开全完整模型权重及训练代码全公布
来源:量子位
千亿级参数AI大模型,参数次被竟然真的大模代码能获取代码了?!
一觉醒来,型首型权训练AI圈发生了一件轰动的复刻事情——
Meta AI开放了一个“重达”1750亿参数的大语言模型OPT-175B,不仅参数比GPT-3的整模重及3750亿更少,效果还完全不输GPT-3——
这意味着AI科学家们,背刺终于可以“撬开”像GPT-3这样的千亿撬开全大模型,看看里面到底有些什么秘密了。参数次被
之前GPT-3虽然效果惊艳但不够开放,大模代码源代码独家授权给了微软,型首型权训练连马斯克都批评过OpenAI不够open。复刻
虽然论文就在那里,整模重及想要在此之上做进一步研究的背刺话就得先复现一个出来再说。
而这一次,Meta从完整模型到训练代码、部署代码全部开放。
有人甚至在官宣之前就摸到还没上传好的GitHub仓库去蹲点了。
还有人艾特OpenAI试图“引战”:
那么,Meta大模型有何特点、如何做到绿色低能耗,又为何要对外开放?一起来看看。
用16块V100就能跑起来
OPT全称Open Pre-trained Transformer Language Models,即“开放的预训练Transformer语言模型”。
相比GPT,名字直接把Generative换成了Open,可以说是非常内涵了。(手动狗头)
在论文中,Meta AI也不避讳宣称OPT-175B就是对标GPT-3,还暗示一波自己更环保:
Meta AI对此解释称,OPT就是奔着开放代码去的,为了让更多人研究大模型,环境配置肯定是越经济越好。
这不,运行时产生的碳足迹连GPT-3的1/7都不到,属实省能又高效。
为了方便研究人员“量力而行”,Meta AI搞出了各种大小的OPT模型,从125M参数到1750亿参数的不同大小模型都有。
其中,660亿参数的模型还在制作中,马上也会和大伙儿见面:
所以,最大的OPT-175B模型究竟有多高效,又是怎么做到的?
性能方面,Meta AI针对OPT-175B和GPT-3,用14个NLP任务进行了测试。
结果表明,无论是零样本学习(zero-shot)还是多样本学习(Multi-shot),OPT在这些任务上的平均精度都与GPT-3相差不大。其中虚线为GPT,实线为OPT:
△左为零样本学习,右为多样本学习
再看具体任务。在对话任务中,采用无监督学习的方法训练OPT-175B,效果和监督学习训练的几类模型相近:
仇恨言论检测任务上的效果,更是完全超过Davinci版本的GPT-3模型(在GPT-3的四个版本中是效果最好的):
训练硬件方面,Meta AI用了992块英伟达A100 GPU(80GB)训练OPT,平均每块GPU的计算效率最高能达到147 TFLOP/s。
这个效率,甚至比英伟达自家研究人员用起来还高,大约超过17%左右。
Meta AI透露称,一方面是采用了自家推出的一款名叫FSDP(Fully Sharded Data Parallel)的GPU内存节省工具,使得大规模训练的速度比传统方法快上5倍左右;
另一方面他们也借鉴了英伟达Megatron-LM模型的张量并行方法,将一个运算分布到多个处理器上同时进行。
甚至Meta AI表示,最低只需要16块英伟达V100 GPU,就能训练并部署OPT-175B模型。
已经有网友迫不及待地想要一试了:
当然,Meta AI也不避讳谈及OPT-175B大模型面临的一些问题,例如更容易生成“毒性语言”(例如使用有攻击性的词汇、语言歧视等):
研究人员表示,希望能在开放后,有更多人参与进来研究,并真正解决这些问题。
手把手教你复刻GPT-3
上面提到,这一次的OPT模型系列,300亿参数及以下的版本都是可以直接下载,660亿版还在路上。
只有完整的1750亿版需要额外填写一张申请表,包括工作单位、用途、相关发表工作等问题。
训练和部署的代码工具包metaseq发布在GitHub,并配有使用教程和文档。
作为著名的fairseq工具包的一个分支,metaseq专注于1750亿规模大模型,删除了训练和使用大模型不需要的部分。
还有不少开发者特别看重一个与模型和代码同时发布的“隐藏宝藏”——开发日志。
里面详细记录了Meta团队在开发大模型过程中遇到的问题、解决的办法和决策的依据。
为自Pytorch诞生之前就存在的一系列机器学习研究中的痛点和困惑提供了大厂解法的一手资料。
如此的开放力度可以说是史无前例了,自然收到了不少赞美。
比如同样在做开源大模型项目的HuggingFace首席科学家Thomas Wolf。
不过针对1750亿参数版需要申请一事,还是有人表示怀疑。
我不是学者或从业者,他们会接受我的申请吗?
也有开发者建议Meta像OpenAI一样提供一些Demo,如果大家看到效果会更愿意参与研究改进,不然的话光是搭建开发环境就挺劝退的。
斯坦福大学基础模型研究中心主任、副教授Percy Liang对此发表了观点,将大模型的开放程度总结成4个层次,更高层次的开放能让研究者专注于更深的问题。
第一层论文开放,证明一些设想的可行性,并提供构建思路。
第二层API开放,允许研究人员探索和评估现有模型的能力(如推理能力)和限制(如偏见)
第三层模型权重开放和训练数据开放。允许研究人员逐步改进现有模型,开发更深入的可解释性技术和更有效的微调方法,让研究人员更好地理解训练数据在模型行为中的作用。
第四层计算能力开放,允许研究人员尝试新的体系结构、训练目标和过程、进行数据融合,并在不同的领域开发全新的模型。
Percy Liang认为更高层次的开放同时也会带来更多风险。
也许是时候制定相关的社区规范了?
One More Thing
Meta这次论文的的共同一作有三人,其中Susan Zhang加入Meta之前正是来自OpenAI。
不过在OpenAI期间她并没有负责GPT-3的开发,而是参与了玩Dota的OpenAI Five强化学习项目,以及多模态大模型的研究。
转型艰难!ZOOM第三财季营收创史上最低、下调全年收入预测,盘后跌5%2025-07-06 02:21
生猪养殖正邦科技、地产企业蓝光发展等扎堆进军光伏,业内:跟风还需冷静2025-07-06 02:19
扎波罗热核电站多次遭袭 核电站与乌电网首次断开2025-07-06 02:02
英国与乌克兰签署关于帮助乌恢复交通基础设施的文件2025-07-06 01:52
同程旅行:三季度收入20.4亿元,住宿预订收入增长26%2025-07-06 01:47
我国卫生科技创新能力显著提升:两专项支持获批上市一类新药达八十个 建成五十家国家临床医学研究中心2025-07-06 01:24
比亚迪欲推百万级 新能源汽车品牌2025-07-06 01:21
暴雨引发中东沙漠地区洪水泛滥2025-07-06 01:15
吕建明扩张尚未收效涉信披违规遭立案 通策医疗净利下滑16.9%市值蒸发894亿2025-07-06 00:47
零跑汽车与爱施德开启数字化零售新格局2025-07-06 00:30
通用汽车北美地区电动车年产能计划于2025年突破100万辆2025-07-06 03:01
杰克逊霍尔央行年会开幕:“大战前夕”华尔街竟主动出击?2025-07-06 02:53
我国科学家全球首次实现哺乳动物完整染色体重排2025-07-06 02:41
闻泰科技昆明工厂大举招工将代工苹果MacBook?公司招聘人士:目前主要做耳机,预计下个月做电脑2025-07-06 02:20
国际金价跌势收敛,美联储纪要或强化该预期2025-07-06 02:01
锂价再度逼近50万元/吨!多家上市公司净利润增超10倍2025-07-06 01:24
重磅!中国资产深夜狂欢,集体暴涨!发生了什么?10家金融巨头突遭\2025-07-06 01:24
客户避险要求提升银行代销理财、保险增收势头猛2025-07-06 01:18
麦卡锡“上岗”前对华秀强硬,声称将成立“中国问题特别委员会”2025-07-06 01:14
英国捐赠海底猎雷无人机 以帮助乌克兰清理海岸线2025-07-06 01:07