Language Modeling with Gated Convolutional Networks
title
Language Modeling with Gated Convolutional Networks
abstruct
ゲート構造を用いたConvolutional Networkで言語モデルを構築するためのネットワークを構築する。
分散計算可能な形で計算を高速化することも可能にしながら、強力なRNNを超えることに成功した。
background
これまで使われてきた伝統的な統計的言語モデルは、データの希薄性により大きいコンテキストを表現することが難しかったが、
LSTMの出現により、モデルが任意の長さの連続体を扱うことができるようになった。
本論文では、gated convolutional networksを言語モデルタスクに適応する。convolutional networkを積み重ねることにより大きなコンテキストと階層的な表現をすることができる。
またkernel sizeがあるため計算量を削ることもできる。
また本論文で紹介するgated linear unitsは勾配消失問題を軽減する。
method
単語をV * mサイズのlook up tableでembeddingしてからモデルへの入力としている。 隠れ層の計算はPublished 20 Feb 2017