微信推出自研NLP大规模语言模型WeLM,现已开放API推动应用落地
大规模语言模型领域迎来新“选手”。近日,微信AI推出自研NLP大规模语言模型WeLM ,该模型是一个尺寸合理的中文模型,能够在零样本以及少样本的情境下完成包多语言任务在内的多种NLP任务。
https://welm.weixin.qq.com/docs/ https://welm.weixin.qq.com/docs/api/
同时,微信AI团队也提供了WeLM的体验网页和API接口,感兴趣的用户可前往 https://welm.weixin.qq.com/docs/ 体验和申请API接口,相关技术论文《WeLM: A Well-Read Pre-trained Language Model for Chinese》也已经发布于论文预印本网站arXiv。
NLP大模型迎新选手,WeLM提供交互式网页PlayGround和API接口
在近几年自然语言处理(NLP)领域的发展浪潮中,OpenAI开发的自然语言处理模型GPT-3无疑风头无两,发布之初便以1750亿参数规模的预训练模型所表现出来的零样本与小样本学习能力刷新了人们的认知,也引爆了AI大模型研究的热潮。
对业界来说,预训练大模型降低了AI应用的门槛,距离“AI把人类从重复性劳动中解放出来”的宏伟目标越来越近,目前,基于GPT-3,全球开发者已经探索出包括编程
登录后可查看完整内容,参与讨论!
立即登录