-
从研究到应用:腾讯AI Lab的自然语言理解和生成
腾讯AI Lab高级研究员李菁博士介绍了如何理解和生成自然语言,并介绍了实验室的相关研究和应用成果。
腾讯技术工程官方号 2023-01-03431 0 0 -
【腾讯知文】任务型对话之语言理解
本文的重点将介绍传统算法框架中语言理解模块的意图与槽位的联合模型。
腾讯知文实验室 2023-01-03429 0 0 -
一种海量社交短文本的热点话题发现方法
直接从海量文本中生成语法正确、意思明确的话题,是一件不容易的事情。本文主要介绍在话题生成上运用的一个较为简单高效的方法。
腾讯QQ大数据 2023-01-03439 0 0 -
NLP领域预训练模型的现状及分析
小牛翻译,核心成员来自东北大学自然语言处理实验室,由姚天顺教授创建于1980年,现由朱靖波教授、肖桐博士领导,长期从事计算语言学的相关研究工作,主要包括机器翻译...
AI科技评论 2023-01-03435 0 0 -
干货 | 行为驱动开发在携程机票前端研发流程中的实践
任跃华,携程机票前台软件工程师,参与了国际机票 RN Clean Architecture 落地和 MEC 中文测试框架研发工作。
携程技术 2023-01-02434 0 0 -
端到端声源分离研究:现状、进展和未来
什么是端到端音源分离呢?罗艺老师首先介绍了端到端音源分离的定义。从名称来看,端到端的含义是模型输入源波形后直接输出目标波形,不需要进行傅里叶变换将时域信号转换至...
深蓝学院 2023-01-02422 0 0 -
arXiv | 如何更好地理解自然语言?自训练+预训练
今天给大家介绍的是Facebook AI研究团队发表在arXiv上的一篇文章“Self-training Improves Pre-training for N...
DrugAI 2023-01-02434 0 0 -
基于GPT2制作一个chatbot
想必大家都有经历,处于多种原因有个很好的朋友不再跟你聊天了,那么可不可以用他的微信聊天记录来大致还原一下这个人的聊天习惯语气甚至是喜欢发的表情包等等呢?
大鹅 2023-01-02433 0 0 -
Bert不完全手册3. Bert训练策略优化!RoBERTa & SpanBERT
之前看过一条评论说Bert提出了很好的双向语言模型的预训练以及下游迁移的框架,但是它提出的各种训练方式槽点较多,或多或少都有优化的空间。这一章就训练方案的改良,...
风雨中的小七 2023-01-02443 0 0 -
NLP任务之中文拼写 语法纠错 介绍与综述
在很多中文NLP相关的落地场景都会涉及到文本纠错的相关技术,例如跟各种形式机器人的语音或者文字对话,或者用手机扫描相关的PDF或者图片,或者跟人聊天时用输入法打...
大鹅 2023-01-02440 0 0