IN2OUT

学んだインプットをアウトプットするために始めました.誰かの力になれれば嬉しいです.

自然言語処理

【#18 論文解説】Improving NMT with Monolingual Data

こんにちは,ohashiです. 今回は逆翻訳によるデータ拡張手法をご紹介します. 自然言語処理のデータ拡張に興味がある方はぜひ!

【#14 論文解説】GEC via Copy-Augmented Architecture with Unlabeled Data

こんにちは,ohashiです. 今回はコピー機構を導入したTransformerによる文章誤り訂正をご紹介します. Transformerを拡張例,新たな事前学習に興味がある方はぜひ!

【#13 論文解説】A Multilayer Convolutional Encoder-Decoder for GEC

こんにちは,ohashiです. 今回はAttention+CNNによる文章誤り訂正をご紹介します. 自然前後処理におけるCNNに興味がある方はぜひ!

【#11 論文解説】The CoNLL-2014 Shared Task on GEC

こんにちは,ohashiです. 今回は文法誤り訂正のデータセットをご紹介します. ベンチマークとなっているデータセットの内容に興味がある方はぜひ!

【#10 論文解説】Diverse Backtranslation for Grammar Correction

こんにちは,ohashiです. 今回は逆翻訳を使った文章のデータ拡張手法をご紹介します. これから流行りそうな逆翻訳の概念に興味がある方はぜひ!

【#9 論文解説】日本語の誤り傾向を考慮した疑似誤り生成

こんにちは,ohashiです. 今回は日本語における疑似誤り生成をご紹介します. 文法の誤りを訂正するAIについて,興味がある方はぜひ!

【#8 論文解説】BERT: Pre-training of Deep Bidirectional Transformers

こんにちは,ohashiです. 今回は汎用事前学習モデルBERTをご紹介します. なぜ事前学習が重要なのか,理由に興味がある方はぜひ!

【#7 論文解説】Attention is All You Need

こんにちは,ohashiです. 今回は畳み込み層を持たない機械翻訳モデルをご紹介します. 従来の自然言語処理を刷新して新たな定番となったTransformerに興味がある方はぜひ!