9月28日 , 浪潮人工智能研究院在京发布全球最大规模人工智能巨量模型“源1.0” 。 “源”的单体模型参数量达2457亿 , 超越美国OpenAI组织研发的GPT-3 , 成为全球最大规模的AI巨量模型 。 当天 , 来自国内相关领域的院士、专家围绕AI巨量模型创新与应用进行深入研讨 。
【模型|全球最大规模人工智能巨量模型“源1.0”问世】据介绍 , 源1.0模型参数规模为2457亿 , 训练采用的中文数据集达5000GB , 相比GPT3模型1750亿参数量和570GB训练数据集 , 源1.0参数规模领先40% , 训练数据集规模领先近10倍 。
“源1.0”在语言智能方面表现优异 , 获得中文语言理解评测基准CLUE榜单的零样本学习和小样本学习两类总榜冠军 。 在零样本学习榜单中 , “源1.0”超越业界最佳成绩18.3% , 在文献分类、新闻分类 , 商品分类、原生中文推理、成语阅读理解填空、名词代词关系6项任务中获得冠军;在小样本学习的文献分类、商品分类、文献摘要识别、名词代词关系等4项任务获得冠军 。 在成语阅读理解填空项目中 , 源1.0的表现已超越人类得分 。
在对“源1.0”进行的“图灵测试”中 , 将源1.0模型生成的对话、小说续写、新闻、诗歌、对联与由人类创作的同类作品进行混合并由人群进行分辨 , 测试结果表明 , 人群能够准确分辨人与“源1.0”作品差别的成功率已低于50% 。
巨量模型的发展备受关注 。 斯坦福大学李飞飞教授等人工智能领域知名学者近期在论文中表示 , 这类巨量模型的意义在于突现和均质 。 突现意味着通过巨大模型的隐含的知识和推纳可带来让人振奋的科学创新灵感出现;均质表示巨量模型可以为诸多应用任务泛化支持提供统一强大的算法支撑 。
源1.0中文巨量模型的发布使得中国学术界和产业界可以使用一种通用巨量语言模型的方式 , 大幅降低针对不同应用场景的语言模型适配难度;同时提升在小样本学习和零样本学习场景的模型泛化应用能力 。
浪潮人工智能研究院表示 , “源1.0”将面向学术研究单位和产业实践用户进行开源、开放、共享 , 降低巨量模型研究和应用的门槛 , 有效推进AI产业化和产业AI化的进步 , 切实为国家在人工智能研究创新和产业发展作出贡献 。 (战钊)
推荐阅读
- 人物|马斯克承认输给了巴菲特:曾尝试挑战喜诗糖果,但最终放弃
- 最新消息|世界单体容量最大漂浮式光伏电站在德州并网发电
- Tesla|最高涨幅21088元:特斯拉Model 3/Y入门车型价格调整
- 最新消息|中围石油回应被看成中国石油:手续合法 我们看不错
- |南安市司法局“加减乘除” 打造最优法治营商环境
- 测试|图森未来完成全球首次无人驾驶重卡在公开道路的全无人化测试
- ASUS|华硕预热ROG Flow Z13:称其是“全球最强悍的游戏平板”
- 最新消息|CES线下回归受阻:受奥密克戎肆虐影响
- IT|国内最长湖底隧道正式通车运营
- 最新消息|IT系统出错 英国银行给7.5万人多发11亿工资