ニュース

アイヌ語自動音声認識 開発 口承の記録に活用

2020.11.01

京都大学大学院情報学研究科の河原達也教授らの研究グループは10月8日、アイヌ語の自動音声認識・合成システムを開発したと発表した。このシステムの音素認識率は9割を超え、アイヌ語のアーカイブ構築の効率化が期待される。

本研究グループは、アイヌ民族博物館と平取町立二風谷アイヌ文化博物館から提供された、アイヌの民話の音声データを利用してシステムの開発を進めた。その結果、「子音-母音」または「子音-母音-子音」から成る音節を単位として用い、人間の脳の神経回路を表現したモデルを利用して人工知能(AI)に学習させることで、94%の音素認識率・80%の単語認識率を実現した。また、音声合成は、音源のない民話を博物館職員が口演する際の参考に利用された。

国立アイヌ民族博物館を含む民族共生象徴空間、「ウポポイ」が今年の7月に開業するなど、アイヌ文化の継承や振興を目的とする動きが高まっている。その一方で、膨大な手間と知識を必要とする口頭伝承の書き起こし・アーカイブ化は多くが未整備のままであるという。

今回発表された音声認識のシステムにより、1時間の音声データに対して、人手で1日を要する書き起こし作業をほぼ完全に自動化することが可能となった。さらに音声合成は、音声データの話者本人の声との区別が困難なほどの精度を見せる。こうしたアーカイブ構築の効率化など、アイヌ語の伝承や学習へのさらなる応用が期待されている。