「人間中心AI」の手話・音声翻訳プロジェクト始動 NII等日英研究機関が連携でリアルタイム翻訳技術開発目指す

 国立情報学研究所(NII、黒橋禎夫所長)はこのほど、NIIをはじめとする国内5つの研究機関と、サリー大学などを中心するイギリスの研究機関とで連携して、手話言語と音声言語のリアルタイム翻訳に向けたAIおよび拡張現実(AR)技術の開発を目指すプロジェクト「Understanding Multilingual Communication Spaces(UMCS)」を2026年からスタートする。
 同プロジェクトは、日本科学技術振興機構(JST)と英国研究・イノベーション機構(UKRI:EPSRC)の共同資金により、2026年から2031年まで5年間実施されるもので、ろう者の自然な会話データ注目し、話者交替、相づち、修復、共同注意といった、実際の相互行為のあり方を精緻に捉えることで、AI、社会言語学、手話言語研究を融合し、日本手話(JSL)、イギリス手話(BSL)、日本語、英語に対応した、包摂的なコミュニケーションツールを創出することを目標とするという。
 同プロジェクトは、日本の若手研究者やトップ研究者が海外のトップレベル研究者と共同研究を行い、国際的なネットワークを構築・強化するために目的で行う科学技術振興機構(JST)の支援事業「ASPIRE」のうち、JSTと英国研究・イノベーション機構(UKRI)傘下の工学・物理科学研究評議会(EPSRC)との合意で、両国のAI分野を活性化させる若手研究者育成の目的で行われた2025年度の新規の国際共同研究の公募に採択された。
 UMCSプロジェクトでは、日本側はNIIの坊農真弓准教授(情報社会相関研究系)、イギリス側はサリー大学のリチャード・ボウデン教授が研究代表者を務め、国立情報学研究所、東京大学、京都大学、東京科学大学、筑波技術大学などの日本側研究機関とサリー大学、ヘリオット・ワット大学、ユニバーシティ・カレッジ・ロンドンを中心とする英国側研究機関が参加する。
 従来の手話技術のように、話す内容や台本が事前に用意されたテキストに基づく手話データに依存するのではなく、ろう者の自然な会話データ注目し、話者交替、相づち、修復、共同注意といった、実際の相互行為のあり方を精緻に捉えることで、社会言語学・手話言語学・AIを横断的に統合し、人間のコミュニケーションの豊かさと複雑さを反映したシステムの構築を目指すことが特徴としている。
 研究は2026年1月から2031年3月までの約5年間(63カ月)、JSTとUKRI傘下のEngineering and Physical Sciences Research Council(EPSRC)による、約7億円の共同資金によって実施される。また、産業界パートナーであるNHKエンタープライズ(日本)とSignapse Ltd(英国)は、翻訳技術と手話アバターシステムの専門知識を提供し、実社会での展開を支援する。
 坊農准教授は次の通りコメントしている。
 「これまで世界各地で、ろう者同士の自然な相互行為を捉えるために手話コーパスが構築されてきましたが、今日のAIシステムが大規模でテキストと結び付いたデータを要求するため、AI研究ではそれらは十分に活用されてきませんでした。かつてオーストラリアの手話言語学者トレバー・ジョンストンは、影響力の大きい論文『From Archive to Corpus』(Johnston、2010)によって、手話コーパス構築に向けた世界的な取り組みの端緒を開きました。そして2025年現在、その目標はAIの力を動員して「コーパスからデータセットへ」と再定式化され、学術研究において人文科学と自然科学を真に開かれたかたちで、かつ意味のある形で統合することが求められています。私たちは言語学とAIを橋渡ししつつ、ろう者の生きた経験や言語直観を中心に据えたインクルーシブ・サイエンスの必要性を提起していきます」。
 またリチャード・ボウデン教授(サリー大学)も次の通りコメントしている。
 「これまでの手話に関するAI研究の多くは、聴者がカメラに向かって手話通訳を行う映像データに依存してきました。これは聴覚障害者が自然に手話で交流する様子を反映していないことは明らかです。本プロジェクトが聴覚障害者の手話使用者同士の自然な会話を焦点としている点に特に期待しています。これにより、人々が実際にどのようにコミュニケーションを取っているかについて、より深い知見が得られるでしょう」。