http://cips-cl.org/static/CCL2022/index.html
目录
1. 林衍凯(预训练模型技术)
2. 桂韬(大模型提示学习)
3. 董力(多模态大模型)
4. 张家俊(机器翻译)
5. 张伟男(对话生成)
6. 何世柱(知识推理)
7. 魏忠钰(智能问答)
8. 赵鑫(个性推荐)
9. 谢晓晖(稠密检索)
10. 陈慧敏(AI伦理)
- 林衍凯(预训练模型技术)
讲者:林衍凯 题目:预训练模型技术:进展与挑战 摘要:018年以来,深度学习领域的研究进入了预训练大模型时代。从自然语言处理领域的BERT、GPT-3,图像领域的VIT、MAE到多模态的DALLE-2,超大规模预训练模型展示了其令人瞩目的小样本、推理等能力,为深度学习的研究提供了一种全新的范式,更为自然语言处理等应用场景开辟广泛的探索空间。本次报告将回顾预训练模型技术的起源与发展,并进一步讨论其未来面临的挑战。 简介:林衍凯,中国人民大学高瓴人工智能学院助理教授,毕业于清华大学计算机系自然语言处理与社会人文计算实验室。研究方向包括预训练模型、信息抽取、知识图谱等。目前已在人工智能、自然语言处理等领域的著名国际会议ACL、EMNLP、NAACL、IJCAI、AAAI等发表相关论文30余篇,Google Scholar统计引用数超过7000。曾获2020年教育部自然科学一等奖(第3完成人)、北京市优秀毕业生、清华大学学术新秀等。曾担任EMNLP、ACL ARR等会议领域主席。
- 桂韬(大模型提示学习)
讲者:桂韬 题目:大模型提示学习进展综述 摘要:自2018年以来,预训练语言模型成为NLP领域一项非常重要的技术突破,在各种NLP任务上都取得了不错的性能表现。随着预训练模型的体量不断增大,比如从BERT-base 110M参数发展到GPT-3 1750亿参数、悟道2.0 1.75万亿参数等,大模型Fine-tune过程中所需的硬件和数据需求也在不断增长,丰富的下游任务也使得预训练和微调阶段的设计更为复杂。如何高效、低成本地利用大模型成为我们面临的新问题。在此背景下,Prompt Tuning逐渐成为大模型使用的新范式。本次报告将回顾提示学习的发展脉络,探讨当前提示学习新的应用场景,并展望未来发展存在的挑战。 简介:桂韬,复旦大学自然语言处理实验室副研究员、硕士生导师。研究领域为自然语言处理、信息抽取和鲁棒模型。兼任中国中文信息学会青年工作委员会委员、青源会青年科学家。在高水平国际学术期刊和会议上发表了30余篇论文,主持国家自然科学基金、CCF-犀牛鸟、华为、海康威视、悟道、微软等多个基金项目。担任 TPAMI、ACL、EMNLP、AAAI、IJCAI 等著名期刊/会议领域主席或审稿人。曾获中国中文信息学会优秀博士论文奖、COLING2018 领域主席推荐奖、NLPCC2019 亮点论文奖、复旦大学“学术之星”特等奖,入选第七届“中国科协青年人才托举工程”。<
登录后可查看完整内容,参与讨论!
立即登录