加站长微信,进入社区微信群:

语言模型及Word2vec与Bert简析 – 闪念基因 – 个人技术分享
2020-05-07 每一个词只基于其前面N个词计算条件概率 —— N-gram语言模型。来作为我们每个词的向量表示(词向量)。词的句子级特征嵌入。通过其他词预测被遮盖的词(这就是典型的语言模型)。
可解释性论文阅读笔记2-Leveraging Language Models – 闪念基因 – 个人技术分享
2020-03-16 推理 输入中不包括正确答案 Reasoning的输入由question。将生成的explanation与CQA中的输入(question answers)concat在一起。
模型秒变API只需一行代码,支持TensorFlow等框架
2019-11-26 用户只需要在一个名为 cortex.yaml 的文件中配置相关属性。用户可以定义部署模型的名称。首先用户需要在模型上定义 API 接口函数。用户需要定义配置 yaml 文件。
清华唐杰教授深度报告:人工智能的下个十年!【附PPT】| 智东西内参 | 码农俱乐部 - Golang中国 - Go语言中文社区
2020-04-19 就是实现具有推理、可解释性、认知的人工智能。我们需要从人工智能的发展历史中找到灵感。以上就是人工智能在 60 多年的发展历史中取得的一些标志性成果和技术。人工智能将会有一个从感知到认知逐步发展的基本趋势。
Soft-Masked BERT:文本纠错与BERT的最新结合 – 闪念基因 – 个人技术分享
2020-06-03 1. 文本纠错示例与难点 2. 文本纠错常用技术 3. 如何将 BERT 应用于文本纠错 4. 文本纠错最优模型。研究人员很快把BERT类的模型迁移到了文本纠错中。四、文本纠错最优模型。
WMT 2019国际机器翻译大赛:微软亚洲研究院以8项第一成为冠军
2019-04-22 微软亚洲研究院机器学习组在参加的11项机器翻译任务中。微软亚洲研究院机器学习组再次将多个创新的算法运用在了机器翻译的任务中。从学习机制、预训练、网络架构优化、数据增强等方面。
用时间换取效果:Keras梯度累积优化器 - 科学空间|Scientific Spaces
2019-07-08 现在Keras中你也可以用小的batch size实现大batch size的效果了——只要你愿意花$n$倍的时间。效果可能还不如简单地fine tune一下Bert好。
【ACL2020论文尝鲜】何时采用BERT更加有效? – 闪念基因 – 个人技术分享
2020-06-03 但是在这篇论文中将其划分为无上下文信息的模型。实验中采用的 Contextual embeddings 为768维的 BERT Base。BERT 词向量在两个任务上面都是领先的地位。
网易信息流推荐中的文本语义理解 – 闪念基因 – 个人技术分享
2020-06-16 根据用户偏好的内容特征进行推荐。一般来说推荐系统的特征体系分为内容特征、用户特征和上下文特征三部分。同时内容特征能反映用户的兴趣偏好。基于文章类别进行标签候选集生成。
登录: