どうもツヅリです。
梅雨が明けましたね。長過ぎて永遠に夏が来ないんじゃないかと心配しましたが杞憂に終わりました。
AI翻訳、みなさんもたまに使うのではないでしょうか?代表的なところだとGoogle翻訳もAI翻訳ですね。以前に比べると良くなったものの、精度はなんとも言えないですが。。
理由の一つとして、AI(自然言語処理モデル)は、いわゆる「意味」や「文脈」の理解が苦手だということがあります。
あくまでもAIによる翻訳は、統計的な処理を元になされているからです。例えば、「りんごを」という表現があった場合、次に来る確率が高い表現として「食べる」「買う」があげられますね。
AIはたくさんの文章モデル(教師データ)をデータとしてため込んで、その中で特定の表現と、共起しやすい(一緒に使う確率が高い)表現を予測し、翻訳を組み立てるやり方を取ってきました。
しかし!今回のスタンフォード大学の研究によると、Googleによる自然言語処理モデルBERTは、穴埋め問題を大量に解かせることによって、言語の構造自体を理解したということです。
言語の構造というと、主語とか動詞とか目的語とか、それらがどういう語順になるのかっていうやつですね。なので、博打的な処理ではなくて、根本的なルールを理解したうえで翻訳が可能になったということですよね。
根本的なルールを理解することができれば、「彼女」「彼ら」といったような代名詞が何を指しているのかとか、文脈によって意味が異なる単語の解釈もできるようになります。
これによって、AI翻訳の精度は今後かなり上がっていくのではないかと思われます。常にAI翻訳を使って会話するわけにもいかないので、引き続き英語や言語を勉強することの重要性は残るとは思いますが。笑
今回の記事は以上になります。よい英語ライフを!