クションを行わずに学習が行われる。そのため、文単位のスコアの推定結果と語単位のスコアの推定結果が矛盾してしまうこともある。例えば文単位のスコアの推定器は、原文とMT訳の合計n個のベクトルをプーリングして参照するのみであるため、MTにとって翻訳が困難な固有表現などの低頻度語や、学習用のQEデータにおける言語表現やスコアの偏りに過度に影響を受けてしまう。NICTで開発したQEモデル 2.4で述べた課題に対処するために、我々は図4に示す新たなQEモデルを提案した。このモデルは、文単位の品質スコアと語単位の品質スコアの推定根拠として、複数の文単位の評価尺度の各々が<原文, MT訳>中のどの語にどの程度注意しているかを捉えて利用する。これにより、従来手法と比べて両スコアの一貫性を担保することをねらっている。また、語単位のQEデータがない場合でも語単位の品質スコアの予測が可能になる。提案手法では従来手法と同様に、多言語言語モデルを用いて<原文, MT訳>の対をd次元ベクトルの列( )に変換する。この点以外(図中の青塗りの部分)は提案手法で新たに導入した要素である。以下、各々について述べる。尺度の埋め込み (metric embedding): 正規のQEデータで用いられる主観評価のスコアや、疑似QEデータで用いられる自動評価尺度のスコアなど、文単位の複数の評価尺度を学習に利用する。まず、 g個の尺度の各々を表すワンホットベクトル 3文単位スコアの推定多言語言語モデル尺度の埋め込み文脈を考慮した語の埋め込み原文とMT訳の語の系列尺度ごとの文単位のスコア語単位のスコア文単位の評価尺度各尺度から各語への注意の定量化語単位スコアの推定図4 NICTで開発したQEモデルの構成事前学習済多言語言語モデル対訳データ2.疑似QEデータの自動生成学習用QEデータ<原文, MT訳, スコア>疑似QEデータ<原文, MT訳, スコア>3.QE向け事前学習4.パラメタの洗練QEモデル(学習後)QEモデル(学習前)1.エンコーダの初期化図3 QEモデルの学習手順76 情報通信研究機構研究報告 Vol.68 No.2 (2022)2 多言語コミュニケーション技術
元のページ ../index.html#82