你好,游客 登录
rss订阅 手机访问 
语义理解
除了深度学习,机器翻译还需要啥?

本文开始要写作的时候,翻译圈里出了一个「爆炸性」的事件。6月27日下午,一个同传译员在朋友圈里爆料:某 AI 公司请这位译员去「扮演」机器同传,制造人工智能取代人工同传的「震撼」效果。

日期:08/20/2017 07:56:46 作者:
大牛入阵,苹果Swift语言之父Chris Lattner 加盟谷歌大脑
雷锋网按:就在9个小时前,苹果Swift语言之父Chris Lattner在Twitter上宣布加入Google大脑,希望创造出人人都能用的人工智能。
日期:08/15/2017 15:57:49 作者:
CVPR 2017精彩论文解读:对Xception(一种深度可分离卷积)的介绍
雷锋网(公众号:雷锋网)AI 科技评论按:虽然CVPR 2017已经落下帷幕,但对精彩论文的解读还在继续。下文是Momenta高级研究员王晋玮对此次大会收录的 Xception:Deep Learning with Depthwise Separable Convolutions 一文进行的解读。
日期:08/15/2017 15:56:47 作者:
[译] 深度学习系列4: 为什么你需要使用嵌入层
除了词嵌入以外还有很多
这是深度学习系列的其中一篇,其他文章地址如下
设置 AWS & 图像识别
卷积神经网络
CNNs 以及应对过拟合的详细探讨
欢迎阅读深度学习系列的第四部分,你可能注意到这一篇和前面三篇文章之间隔了一小段时间。我写这个系列最初的目的是想记录 fast.ai 上的深度学习课程,然而后面一部分课程的内容有所重叠,所.
日期:08/15/2017 10:31:19 作者:
人工智能,算法的王国《经济学人》刊文盛赞中国AI <双语>
本文为《经济学人》7月刊文章。
Artificial intelligence
人工智能
The algorithm kingdom
算法的王国
China’s deep pool of data means it has a chance to lead in artificial intelligence
中国数据资源丰富,有机会在人工智能领域占据领先地位
AT THE start of this year, two straws in the wind caught the attention of th.
日期:08/15/2017 09:51:58 作者:
Web的50年——从Tim Berners-Lee的图灵奖说起

Tim Berners-Lee昨天拿到了2016年度的计算机科学最高奖:图灵奖。他获得这个奖,实至名归。领域中人一直都认为他得奖只是时间问题。

日期:08/11/2017 16:18:01 作者:
三大深度学习生成模型:VAE、GAN及其变种
本章将为读者介绍基于深度学习的生成模型。前面几章主要介绍了机器学习中的判别式模型,这种模型的形式主要是根据原始图像推测图像具备的一些性质,例如根据数字图像推测数字的名称,根据自然场景图像推测物体的边界;而生成模型恰恰相反,通常给出的输入是图像具备的性质,而输出是性质对应的图像。这种生成模型相当于构建了图像的分布,因此利用这类模型,我们可以完成图.
日期:08/10/2017 09:26:58 作者:
从机器翻译到人工智能,中译语通想做驱动多产业发展的“专业引擎”
视频消费的时代,内容平台们每年要更新数以万计的剧集,花费动辄几亿元的版权投入。而版权剧的引进早已经不是“字幕组”这种传统方式能够匹配的了,字幕组“人肉翻译”的传奇时代,正随着机器翻译的成熟而被终结。
日期:08/10/2017 09:14:05 作者:
五个入门深度学习自然语言处理资源

这里收集了五个入门深度学习自然语言处理资源,这些资源为你介绍了目前一些最新的技术。它也为你提供了一些下一步自然语言发展的方向。

日期:08/10/2017 08:58:55 作者:
词义的动态变迁

语言总是随着时间演变,词义不可避免地受到经济、政治或者文化因素的影响。一个很简单的例子就可以反映这种语言的动态演变现象:例如词语“丈夫”, 在古代汉语中指代成年或未成年的男性,而在现代汉语中则仅指已婚女子的配偶。特定的历史时期对于语义的理.
日期:08/09/2017 08:16:30 作者:
一文综述所有用于推荐系统的深度学习方法
在信息泛滥的时代,如何快速高效地萃取出有价值信息成为人们的当务之急,传统的推荐系统由此应运而生;而在诸多领域硕果累累的深度学习也被应用于推荐系统,为后者注入新的动力。机器之心编译的这篇论文,对深度学习在推荐系统中的应用现状作了综述性调研,以期进一步推动推荐系统研究的进展;对于发现的新问题,文中也给出了潜在的解决方案。
日期:08/08/2017 17:26:48 作者:
【ICML 2017】WGAN 领衔,Facebook 9 篇论文
【新智元导读】Facebook 也在官博公开了他们在这届机器学习顶会 ICML 2017 的表现,9 篇论文,1 个研讨会(workshop)。Facebook研究人员重点介绍了 WGAN 这篇文章,一起来看看。
日期:08/08/2017 17:25:57 作者:
深度 | 通过NMT训练的通用语境词向量:NLP中的预训练模型?
自然语言处理(NLP)这个领域目前并没有找到合适的初始化方法,它不能像计算机视觉那样可以使用预训练模型获得图像的基本信息,我们在自然语言处理领域更常用的还是随机初始化词向量。本文希望通过 MT-LSTM 先学习一个词向量,该词向量可以表征词汇的基本信息,然后再利用该词向量辅助其它自然语言处理任务以提升性能。本文先描述了如何训练一个带注意力机制的神经机器翻译.
日期:08/08/2017 17:25:12 作者:
Reddit 热门话题:如何阅读并理解论文中的数学内容?
有的机器学习论文中有大量的数学公式和推导过程,读这样的论文往往很是费力费时。为了了解阅读这样的论文的技巧,Reddit 用户 thebackpropaganda 提出了自己的问题:理解机器学习论文读什么书比较好?要读懂数学内容很多的机器学习论文,我又该读什么书?问题发出后反响热烈,很多「过来人」都分享了自己经验和看法。机器之心从中选择了部分进行编译介绍,更多经验可参阅原.
日期:08/06/2017 16:47:43 作者:
一文带你理解深度学习的局限性
深度学习最令人惊讶的特点便是极易上手。十年以前,没有人可以猜得到经过梯度下降法训练过的简单参数模型可以在机器感知问题上实现如此惊人的结果。现在,事实证明,研究者所需要做的只是使用足够大的梯度下降素材来训练参数模型。正如 Feynman 曾经描述宇宙一样,“它并不复杂,只是里面包含的东西实在太多。”
日期:08/06/2017 09:32:52 作者: