HTML5 Webook
104/194

関する国際ワークショップ・国際会議の主催や企業・大学等と連携した実証実験の実施に努めた[10]。3.2多感覚・評価研究室における取組(2011年4月~2016年3月)NICTの第3期中長期計画(2011年4月~2016年3月)においては、ユニバーサルコミュニケーション研究所に多感覚・評価研究室が発足し、ヒトが多感覚情報から感じる臨場感を定量的・客観的に評価するための技術開発を更に進めるとともに、自然でリアルな映像・音響・感触・香り提示を達成するための技術要件を導出するために、心理物理・行動実験等によりヒトへのポジティブ/ネガティブ効果を検証した。立体映像(視覚)に関しては、成人(20歳~69歳)500名及び未成年者(12歳~19歳)133名を対象にした「眼鏡あり3D映像の視聴が人に与える疲労」に関する大規模評価実験をURCFの活動の一環として実施し、主観的・客観的評価の実験結果を報告書として取りまとめ一般公開した。また、国際標準化団体ITU-RのWP6Cに本実験結果を寄与文書として提出し2014年11月、レポートBT2293に採択された[11]。また、立体映像が人に与える不快感・疲労の個人差要因の特定に向けて、眼の調節・輻ふく輳そう機能等の個人特性が快適視差範囲に与える影響を明らかにする実験を実施し、詳細な実験データを取得した[12]。質感知覚に関しては、多視点立体映像の視点数とクロストーク(光線の重なり)を制御可能なシミュレータを開発して光沢感再現の最適条件を心理物理実験により特定し、多視点立体ディスプレイの設計指針を提案した。立体音響(聴覚)に関しては、MVP(Multiple-Vertical-Panning)方式による大画面裸眼立体ディスプレイ用立体音響実験システムを構築し、ディスプレイの上下に配置したスピーカアレイからの音を制御することで画面上に音像が定位することを心理物理実験で実証した[13]。また、音の頭部伝達関数(HRTF)におけるスペクトルの基本特性(ピークとノッチ)を個人ごとに異なる耳介形状の特徴量(複数の特徴点間の距離)から推定可能であることを音波伝播の計算機シミュレーションにより世界で初めて明らかにし、個々のヒトに最適な立体音響を生成するための個人適応化の基盤技術を確立した[14]。感触(触覚)に関しては、親指と人差し指で仮想物体を把持・操作できる力覚提示デバイスを開発し、多感覚インタラクションシステムに組み込んだ。また、3次元空間内で仮想物体の操作を行う作業において、映像と感触の空間的な一致・不一致の条件が作業効率に与える影響を心理物理実験により評価・分析した。さらに、2台の多感覚システムをネットワークで接続し、仮想物体の感触情報を通信して他者と共有することに成功した[15]。香り(嗅覚)に関しては、6種類の香りを瞬時に切り替えて映像と同期して提示可能な香り噴射装置アロマシューターを開発した。さらに、香りの微細な濃度調整を可能にする技術を開発し、デジタル方式の嗅覚検査の実験システムを構築した。本香り噴射装置に関しては、NICT発のベンチャー企業を起ち上げ、製品化を行った[16][17]。現在、香りのデジタルサイネージ(ブランディング・集客等)やリラクゼーション空間構築・ストレス軽減などの分野において社会実装が進められている。さらに、無人の建設機械による遠隔作業の操作性向上を目指して、高精細立体(4K3D)非圧縮映像の(光無線)伝送システムの開発を進め、遠隔作業の作業効率の向上効果を土木研究所の実験施設及び実環境(雲仙普賢岳の災害復興現場)において行動実験により実証し、遠隔操作の快適性に求められる技術要件をとりまとめた[18]。3.3多感覚認知グループにおける取組(2016年4月~2021年3月)NICTの第4期中長期計画(2016年4月~2021年3月)においては、脳情報通信融合研究センター(CiNet)・脳機能解析研究室において多感覚認知グループを形成し、ヒトの解析・評価技術の研究開発を更に進めるとともに、脳内の多感覚認知メカニズムやクロスモーダル知覚に関して多くの有益な知見を得た(この期間の文献は[19]にも掲載)。視覚に関しては、fMRI脳活動計測実験により、光沢知覚の情報処理に関わるヒトの脳部位を世界で初めて特定するとともに、企業との共同研究により肌の光沢に由来する魅力度に関わる脳活動を捉えることに成功した[20]。これらの知見は、将来、感性価値の高い製品開発等への応用が期待されている。また、独自に開発したfMRI用広視野立体映像提示装置を用いて、広視野の動的映像が引き起こす自己運動感覚に関わる脳部位としてCSv(帯状溝視覚野)を同定し、VR映像がヒトに与える正負の影響を客観的に評価するための基盤を築いた[21]。聴覚に関しては、立体音の頭外への空間定位機能を担う脳部位としてpSTG(上側頭回後部)を同定するとともに、音声の定位が発話者の映像位置に引き付けられるクロスモーダル効果をpSTGの脳活動から実証した[22]。さらに、発話者の声質(voice quality)を規定する声門流(声帯における気流)を発話情報から逆推定する新たな数理手法を提案した[23]。この手法は、将来、ロボット・AIが声質からヒトの情動・意図を読み98   情報通信研究機構研究報告 Vol.68 No.2 (2022)2 多言語コミュニケーション技術

元のページ  ../index.html#104

このブックを見る