HTML5 Webook
133/194

関係認識では、本特集号3-4 [15]で詳細を説明しているように、〈名詞、助詞、述語〉の対のみを入力した場合の性能がより高かったため、それらの対だけを入力として、因果関係の認識処理を行った。また、学習に利用するBERTは本特集号3-4 [15]で紹介するNICT BERTLARGEを利用し、表5の学習データを利用してファインチューニングを行った。性能評価の評価尺度には平均精度を用い、SVMを用いた従来版の因果関係認識技術[16]との評価を行った。結果を表6にまとめる(BERTに関する評価は本特集号3-4 [15]で報告されるものと同一である)。この結果を見てわかるようにBERTを利用した因果関係認識技術は、入力として因果関係候補の〈名詞、助詞、述語〉の対しか入力していないにもかかわらず、SVMに基づく技術と比較して圧倒的に高い平均精度を得ている。「深層学習版」WISDOM Xの因果関係データベースにはこのBERT版の因果関係認識技術を用いており、従来版のWISDOM Xでの「どうなる」型質問応答と比較して、質の高い「どうなる」型質問応答並びにそれを利用した興味深いシナリオの発見が期待できる。最後に、上記の方法で獲得した因果関係と、本特集号でも取り上げている対話システム(特に雑談対話システム)との関係について補足しておきたい。本特集号3-5 [18]、3-4 [15]で説明するように、我々は日常の対話、特に雑談等において、対話参加者の間で将来に関するリスクやチャンスを共有するという意味で、現在対話中で注目されている出来事(例えば、特定のタイプの野菜を食べること)が、次にどのような出来事(例えば、一種の健康状態の改善)を引き起こすかを示す因果関係知識が大きな役割を果たすと考えている。また同時に、通常何気なく行われると想定される雑談的応答の動機・理由・目的を明示化し、より適切な雑談を実現する、あるいはそのための雑談内容の制御等を可能にするという点においても、因果関係は重要であると考えている。実際、この「どうなる」型質問応答の出力は、本特集号3-5 [18]で説明しているように、雑談対話システムWEKDAで中心的な役割を果たしている。高齢者介護の支援を目的とするマルチモーダル音声対話システムMICSUSでは、このWEKDAを介することで、実証実験において高い品質の雑談的応答を生成することを実現している。おわりに本稿では、DIRECTで研究開発してきた大規模Web情報分析システムWISDOM X「深層学習版」とそのWISDOM Xに使われている深層学習技術について紹介した。従来版のWISDOM Xで使われた技術は、その後、SNSを用いて災害時の情報の収集分析を行う対災害情報分析システムDISAANA、災害状況要約システムD-SUMM等でも活用され、民間企業へ技術移転された。また、現在DIRECTで開発中である「次世代音声対話システムWEKDA」や「高齢者介護用マルチモーダル音声対話システムMICSUS」(WEKDAとMICSUSの詳細については本特集号3-5 [18]を参照)でも、Web上の情報を用いた多様な雑談的対話を実現するために深層学習版WISDOM Xの質問応答結果が利用されているなど、WISDOM Xの技術は多岐にわたり利用されている。さらに今後もWISDOM Xそのものもしくはその中で利用されている技術を、高齢者介護など、日本社会における重要課題の解決、解消に資する技術に応用していく予定である。また、本特集号3-4 [15]で紹介しているように、今後のWISDOM Xの技術展開を容易にするために深層学習版WISDOM Xの高速化・軽量化にも取り組んでおり、これによってより少ない規模のGPGPUでもWISDOM Xを運用することが可能となっている。さらに、本特集号3-2 [19]で紹介している自動並列化深4図8 WISDOM X深層学習版における「どうなる」質問応答機構因果関係数学習データ107,068開発データ23,602評価データ23,650合計154,320表5 因果関係認識の性能評価に使われたデータセット手法平均精度SVM [16]46.27%BERT74.44%表6 因果関係認識の比較実験の結果1273-3 大規模Web情報分析システムWISDOM X深層学習版

元のページ  ../index.html#133

このブックを見る