ヒト、メディア、社会を考える

2020年

オリンピックを機に、字幕付与サービスは向上するか?

■新宿西口通路の壁面

 大江戸線都庁前駅から新宿に向かう西口通路の壁面に、オリンピック・パラリンピック大会の告知映像がいくつも展示されています。観光客が時折、その前でポーズを取り、写真を撮っているのを見かけます。そんな時、スポーツの祭典であるオリンピックは観光資源でもあったことに気づきます。

新宿西口通路

 展示されていたのは工学院大学前の壁面です。

 市松模様を組み込んでデザインされたマスコット・キャラクターがいかにも幾何学的で、未来の技術を連想させます。まるでヒト型ロボットのようだと思った途端、ネットで見かけた画像を思い出しました。

 調べてみると、これは、2020年東京大会のために制作されたマスコットロボットでした。身長160㎝、体重15.7㎏で、ミライトワと命名されています。離れたところからロボット同士が握手することができ、搭載されたカメラでヒトの接近を感知し、相手の動作ごとに目の表情を変化させることができるといいます。

(※ https://tokyo2020.org/jp/games/vision/innovation/data/robot_panel_A4.pdf

 実は、オリンピックは日本の技術力を世界に向けてアピールできる場でもあるのです。オリンピックを機に、大会で使えるさまざまなロボットが開発されていました。

https://global.toyota/jp/newsroom/corporate/28713215.htmlより)

 たとえば、ミライトワのようなヒューマノイドロボット、遠隔地コミュニケーションサポートロボット、フィールド競技サポートロボット、等々です。オリンピック、パラリンピックをサポートするためのロボットが、機能別にさまざま製作されていました。

 中には、超高齢社会を見据えて開発されたような生活支援ロボットもあります。こちらは、オリンピック大会時には観戦サポートロボットとしての役割を担うといいます。いずれも情報通信工学を使ったものです。

(※ https://tokyo2020.org/jp/games/vision/innovation/

 それでは、情報通信工学技術はオリンピックを機に、私たちに何をもたらしてくれるのでしょうか。

■オリンピックを機に、ICTの進展を目指す

 『平成30年版情報通信白書』によると、総務省はオリンピックを機に、日本の持続的成長を見据え、次のようなアクションプランを策定しています(※ https://www.soumu.go.jp/johotsusintokei/whitepaper/ja/h30/html/nd261210.html )

アクションプラン概要図 総務省より

 

 これを見ると、上部に、「言葉の壁をなくす」、「情報の壁をなくす」、「移動の壁をなくす」、「日本の魅力を発信する」といった項目が提示されています。これらが目標なのでしょう。2020年東京大会を機に、言語、情報、移動のバリアフリー化を進め、日本の魅力を発信するためのICTの利活用が企図されていることがわかります。

『令和元年版情報通信白書』では、昭和、平成、令和に至るICTの発展プロセスが図で示されています。

(※ https://www.soumu.go.jp/johotsusintokei/whitepaper/ja/r01/html/nb000000.html

ICTの発展 総務省より。

 

 この図からは、令和の始まりとともに、Society5.0を本格始動させようとしていることがわかります。平成後半にはモバイルメディアであるスマホが普及し、令和2年(2020年)には携帯各社が5Gサービスを開始します。社会を支える情報通信インフラが大きく変化していく時期にさしかかっているのです。

 IoT、AI、ビッグデータなどもすでに実用段階に入っています。オリンピックが開催される2020年はまさに、テクノロジー主導で激動する時代の幕開けになるのです。

 それでは、高度なICTを使ってどのようなサービスが可能なのでしょうか。

 先ほどのアクションプラン図を見ると、真ん中から下に4項目の内容が書かれています。それぞれ、期限を設けた実現目標も書かれていますから、政府が2020東京大会を目途に社会のICT化を進め、バリアフリー化を実現していこうとしていることがわかります。

■バリアフリー化の推進

 確かに、オリンピック、パラリンピック大会に備え、移動、言語や情報のバリアフリー化が進められています。

『令和元年版障碍者白書』を見ると、2020年東京大会に向けた取組みが説明されています。

(※ https://www8.cao.go.jp/shougai/whitepaper/r01hakusho/zenbun/pdf/s1_3.pdf

 具体的には、「心のバリアフリー」、「ユニバーサルデザインの街づくり」などが挙げられており、それぞれについて行動目標が示されています。障碍者や訪日する外国人に分け隔てなく接する心構えを養うとともに、彼らが不自由なく移動でき、コミュニケーションできるよう、社会環境を整備しようというのです。

「ユニバーサルデザインの街づくり」で設定された6項目のうち、第5項目に、「ICTを活用したきめ細かい情報発信・行動支援(バリアフリー情報提供機能強化等)」があります。これは外国人や視聴覚障碍者等に対する情報保障であり、障碍者に対する移動保障といえるものです。

 その内容を見ると、無料公衆無線LAN環境の整備、「言葉の壁」をなくす多言語音声翻訳システムの高度化、4K・8Kやデジタルサイネージの推進、第5世代移動通信システムの実現、といった具合です。盛りだくさんの内容に見えますが、5Gを活用して言語や情報のバリアフリー化を目指そうとしている点で、これは明らかに訪日する外国人を対象にした取組みです。

 もちろん、言語や情報バリアフリーのために開発された技術はいずれ、視聴覚障碍者や高齢者にも役立つよう改変されていくでしょう。

 日本はいま超高齢社会に突入しています。高齢化に伴い、さまざまなことが懸念されるようになっています。その最たるものが、高齢者の心身機能の低下に伴うコミュニケーション不全状況をどのように回避できるかということでしょう。

 オリンピック、パラリンピックを機に、言語や情報のバリアフリー化が推進されれば、閉会後、超高齢社会が抱える課題の一つが解決されるようになるかもしれません。

 それでは、多言語音声翻訳システムがどのようなものなのか、みていくことにしましょう。

 2014年3月19日、多言語対応の強化・推進のために多言語協議会が設置されました。2020年オリンピック・パラリンピック東京大会の開催に向けて設立された組織です。その後、多言語協議会は、国や地方の関係機関、民間の関係機関や企業と連携し、協働してシステムの開発に取り組んできました。

(※ https://www.2020games.metro.tokyo.lg.jp/multilingual/council/pdf/kangaekatah290622.pdf

 その結果、開発されたのが、「ボイストラ(VoiceTra)」という名前のアプリです。現在、31か国語に対応しており、無料で使うことができます。インストールのマニュアルは日本語と英語で提供されており、操作方法などもわかりやすく提示されています。

こちら → http://voicetra.nict.go.jp/manual.html

 VoiceTraの「紹介編」と「使い方編」が動画で提供されていました。ここでは、「使い方編」を見てみることにしましょう。

こちら → https://youtu.be/RSvsBv6TZ7M

 日本語音声に日本語字幕が付いています。この動画には他言語版として英語、中国語、韓国語が用意されています。求める言語をクリックすると該当ページに移動します。これを見ると、内容は単純ですが、必要最小限度のコミュニケーションはできるようになっています。日本語がわからない外国人にとっては貴重なデバイスです。もちろん、外国語のわからない日本人にとっても有益です。

 もっとも、ヒトのコミュニケーション内容は多様ですから、これだけで済むはずがありません。より満足できるコミュニケーションを目指そうとすれば、語彙を増やし、翻訳の精度を向上させる必要があります。それには翻訳データベースの充実を図ることが必要でしょう。そう思って調べてみると、総務省と情報通信機構(NICT)はすでに翻訳バンクを構築し、運用を開始していました。

(※ https://www.nict.go.jp/press/2017/09/08-1.html

 翻訳バンクは次のようなコンセプトで構築され、運用されています。

多言語バンク 情報通信機構より。

 

 ここで示されたように、さまざまな分野の翻訳データを数多く蓄積すれば、翻訳の精度を高め、より多くの分野の翻訳に対応できるようになります。AIによってビッグデータを活用することによって、量が質を向上させていくのです。

 その一方で、データの提供者には使用料の軽減を図ることで対応していくとしています。双方にメリットがあるよう計らいながら、翻訳バンクの充実を目指しているのです。ビッグデータとAIの利活用によって、時間が経てば、使い勝手がよく、利用者の満足度の高いシステムになっていくでしょう。

■言語、情報のバリアフリー化

 政府はオリンピック開催を機に、外国人滞在者のための言語、情報のバリアフリー化を推進しようとしています。

 その基本理念は、「多様な主体が表示・標識等の多言語対応に取り組むことにより、外国人旅行者が 円滑に移動し、安心して快適に滞在できる都市環境の向上を目指す」と書かれています。

(※ https://www.2020games.metro.tokyo.lg.jp/multilingual/council/pdf/kangaekata.pdf?1412)。

 対象者は、「2020 年オリンピック・パラリンピック東京大会開催時の外国人旅行者、観光・ビジネス等で日本を訪れる外国人旅行者」とされています。彼らに対し、「日本語+英語及びピクトグラムによる対応を基本としつつ、需要、地域特性、視認性などを考慮し、必要に応じて、中国語・韓国語、更にはその他の言語も含めて多言語化を実現」し、利便性を図っていくというのです。日本に短期間滞在する外国人を対象にしていることがわかります。

 対応するツールとしては、「交通機関や道路の案内表示や標識等、 飲食や宿泊、観光やサービス施設における案内表示や標識等、音声案内、パンフレット、ICTツールなどの各種媒体」が挙げられています。

 これを見る限り、言語、情報のバリアフリーを謳いながら、基盤メディアであるTVは対象になっていないことがわかります。どうやら、来日した外国人が滞在期間中に不自由なく行動できるように、案内や標識を多言語化するのが主な目的のようです。

 考えてみれば、日本を訪れる外国人旅行者数は激増しています。2013年に初めて1000万人を突破して以来、2014年には1300万人を超え、2016年には約2400万人といった具合です。このような状況からみれば、2020年の東京大会には、さらに多くの外国人旅行者が日本を訪れることでしょう。来日した外国人が快適に滞在できるよう、言語や情報のバリアフリー化を進めるのは当然のことです。

 ところが、この施策の中にTV字幕は対象とされていませんでした。「ユニバーサルデザインの街づくり」の下、標識や案内などのバリアフリー化が推進され、無料公衆無線LAN環境の整備が提唱されているにもかかわらず、基盤メディアともいえるTVの字幕は対象とされていないのです。

■なぜ、TV字幕は言語・情報のバリアフリー化の対象ではないのか

 2020年東京大会に訪れる観光客やそれ以外の目的で訪れる外国人、いずれもホテルに宿泊し、何日間かの滞在中、日本のTVを見るはずです。

 オリンピックで来日したとなれば当然、ホテルでTV観戦するでしょうし、ニュースや日本のドラマなども見たりするでしょう。TVはありのままの日本を知ってもらうには絶好の媒体なのです。

 来日した外国人はホテルに着くとまずTVを見ます。その際、画面から流れる日本語音声に英語字幕だけではなく、日本語字幕も表示できるようになっていれば、どれほど喜ばれることでしょう。

 字幕があれば、日本語のわからない外国人でも音声と文字とを照合しやすく、理解しやすくなります。日本語字幕があれば、TVを見て日本語の学習意欲が喚起されるでしょうし、手軽な日本語学習ツールにもなります。日本語字幕のおかげで少しでも日本語を理解できるようになれば、日本への関心も高まるでしょう。

 もちろん、日本語字幕は外国人のためばかりではありません。聴覚障碍者や聴覚機能が低下している高齢者にも役立ちます。そう考えると、オリンピック、パラリンピックを機に言語、情報のバリアフリー化を目指すなら、誰もが接触するTVに日本語と英語の字幕を表示できるようにすることは不可欠でしょう。

 そもそも放送事業は総務省の管轄下にあります。ですから、総務省がTV字幕についてどのような見解を抱き、どのような政策を展開しているのか知っておく必要があるでしょう。果たして総務省の見解はどうなのでしょうか。

 調べてみると、アクセシビリティの観点から、総務省は平成30年度(2018年)に、今後10年間の字幕放送、解説放送及び手話放送の普及目標を定めた指針を策定していました。

(※ https://www.soumu.go.jp/main_content/000642553.pdf

 平成9年(1997年)以降、総務省は10年ごとに普及目標を設定し、着実にTVアクセシビリティの向上に努めていたのです。

■放送分野におけるアクセシビリティに関する指針

 2018年2月7日、総務省は『放送分野におけるアクセシビリティに関する指針』を策定し、次のように発表しました。

こちら → https://www.soumu.go.jp/main_content/000531258.pdf

 主な改正点としては,「字幕放送の普及目標対象放送時間を1時間拡大して18時間に」、「独立U局を除く県域局と放送衛星で、字幕・解説放送の目標数値を明示」、「NHK、地上系民放(県域局以外)の解説放送目標を15%に引き上げ,手話放送で初めて数値目標を設定する」等々です。

 この指針を策定する前に総務省は、『放送分野におけるアクセシビリティに関する指針』(案)として提示し、パブリックコメントを募っていました。その結果、次のような意見が提出されました。法人から10件、個人から10件です。

こちら → https://www.soumu.go.jp/main_content/000531717.pdf

 全般に解説放送に関する意見が多くみられます。字幕放送に比べ、対応が不十分だからでしょう。今回の指針で多少、改善されています。

 放送アクセシビリティとしては当然、解説放送を充実させていかなければなりませんが、ここでは字幕放送についての意見の中で印象に残ったものを取り上げることにします。個人、NHK、民放の一部から提出された意見は概略、次のようなものでした。

個人:「非常時や年末年始の字幕がなくなってしまう際、音声認識ソフ トを活用して代替する」、「情報保障という考え方を業界に浸透させる」、「海外の事例を参考に、国内でも字幕付与の義務化を実現してほしい」、「インターネットで公開する際にも字幕付与を進め てほしい」「パラリンピックの放送は、今の所、NHKのみです。しかもEテレと言う状況でこれを総合テレビに格上げしてほしいのと皿に民放でも放送できないものか検討して頂きたいものです。2020年東京五輪より民放でもパラリ ンピックも放送できないか?各局で話し合って頂きたいものです」

NHK:「NHKは、「指針(案)」に示された普及目標の対象となる放送時間について、視聴者の多い時間帯に付与することが望ましいとの方針も含め、妥当であると考えます。衛星放送への字幕付与については、生放送番組の字幕付与体制が整っていないなどの課題がありますが、字幕付与の効果がより高いと期待されるBSプレミアム を中心に拡充に努めてまいります。また深夜、早朝の時間帯であっても、台風等の影響が予測される場合は字幕放送の体制を整えて臨むとともに、大規模災害が発生したときにはできるだけ速やかに体制を整え、字幕放送を開始できるよう努めていきます。字幕の表示方法についても、改善すべく研究を進めます。一方で、 諸外国と比較し、日本では字幕放送に求められる正確さの水準が 高いことが、字幕放送普及を難しくしていることを踏まえ、関係 各署と制度面の課題について検討していきたいと考えています」

中京TV:「字幕放送制作に係る費用や人材確保の負担は極めて大きく、指針案に示された 2018 年度以降の目標達成は簡単ではないと認識しています。 弊社は、広域局とはいえ在京局や在阪局と比較すると規模や資 金面では大きな差があります。今後、音声認識技術の向上や自動字幕生成技術の発展がない限り、在京局や在阪局と同水準の目標達成については、多くの困難があると認識しています。以上のように課題も多く厳しい環境ではありますが、目標達成に向けて取り組んで参ります」

 字幕についての意見で印象に残ったものは概略、以上のようなものでした。これらについての総務省の見解は下記の表の右側の項に示されています。

こちら → https://www.soumu.go.jp/main_content/000531719.pdf

 これらを読むと、字幕放送については現段階で可能なことは相当、達成できているように思えます。果たして実際はどうなのでしょうか。総務省の資料から、字幕放送の直近の実績を見てみることにしましょう。

■字幕放送

 NHK、民放キー局、準キー、ローカル局等の平成30年度(2018年)字幕付与の実績についてみたのが、下記のグラフです。

総務省資料より筆者作成。

 これを見ると、NHK、在京キー局、在阪準キー5局、在名広域4局とも、総務省指針に対応する番組については97.4%、99.8%、99.7%、99.3%といった具合に、かなり高い率で字幕が付与されていることがわかります。NHK教育と系列県域101局は80%台にとどまっていますが、それでも高い付与率です。総務省対応番組への字幕付与は、現段階ではもはや難しいものではなくなっているのでしょう。このデータからは、字幕付与コストが軽減されれば、どの局も字幕付与率はさらに向上すると考えられます。

 総務省は今回の指針で、NHK、民放キー局、準キー局、在阪広域4局には「対象の放送番組全てに付与」とし、系列県域101局には「2027年度までに対象の放送番組の80%以上に字幕付与。できる限り、対象の全てに字幕付与」と数値目標を設定しています。

 ちなみに、「対象の放送番組」とは、次の①~④を除く全ての放送番組を指します。

①技術的に字幕を付すことができない放送番組(例:現在のところ複数人が同時に会話を行う生放送番組)

②外国語の番組

③大部分が器楽演奏の音楽番組

④権利処理上の理由等により字幕を付すことができない放送番組

 総務省がこの指針を策定したのが2018年7月で、グラフで示した字幕放送の実績は2018年度のものです。どの局も対象番組については字幕付与率が高いので、この目標は期間内に達成できるでしょう。

 もっとも、指針には「本指針は、技術動向等を踏まえて、5年後を目途に見直しを行う」とされていますから、上記①から④のうち、②については新たに対象番組に組み入れられるかもしれません。

 上のグラフを見ると、総放送時間に占める字幕付与率がどの局も全般に低いのが気になります。とくに系列県域局、独立県域局で低いのが目立ちます。これらの放送局ではおそらく、事前収録番組よりも、自社制作の生放送番組の比率が高いからでしょう。その方が制作費を抑制できるからですが、その結果として、字幕付与率が低くなっています。

 ローカル局では一般に、制作費を抑制するため、自主制作の生放送番組が多い傾向がみられます。ところが、生放送番組は字幕を付与しにくいうえに、誤りも発生しやすく、しかも、放送局は字幕付与に多大なコスト負担を強いられます。

 NHK、民放キー局、県域局を問わず、放送局にとって、生放送番組への字幕付与が大きな課題になっています。

■総務省字幕支援事業

 日本社会の動向を考えてみれば、超高齢化が今後も続き、労働移民や来日観光客は増え続けます。もはや言語・情報のバリアフリー化だけではなく、基幹メディアとしてのTVに日本語字幕を付与することが不可欠になるでしょう。高齢者や聴覚障碍者だけではなく、外国人をも視野にいれた字幕付与が必要になってくるのです。

 そのような現状認識が共有されているのでしょうか、字幕に関する技術はいま、さまざま開発されており、総務省もその支援事業を進めています。

 総務省が募集した平成30年度字幕支援事業には、2件の事業案が採択されました。1件はマルチスクリーン放送協議会による事業案で、もう一つはヤマハによる事業案でした。

(※ https://www.soumu.go.jp/main_content/000554092.pdf

それぞれ実証実験の結果が報告されているようです。

こちら → https://www.soumu.go.jp/menu_news/s-news/01ryutsu09_02000227.html

 結果を知りたくて、いろいろ探してみました。ヤマハの事業案に関しては報告書も出ていましたが、マルチスクリーン放送協議会の事業案に関してはどこを探しても、その報告書が見当たりませんでした。

 もっとも、マルチスクリーン放送協議会の事業案も実証実験は行われていたようです。『放送研究と調査』2019年1月号で関連記事を見つけましたが、次のように書かれていました。

 「生放送の音声から字幕を自動的に生成しスマートフォンに配信する実証実験が、11月19日から30日にかけて、全国の民放24局で行われた。(中略)今回の実証実験には、在阪民放5社で構成する「マルチスクリーン放送協議会」が開発した「字幕キャッチャー」を使用。このシステムには、NHK放送技術研究所や情報通信研究機構(NICT)の音声認識の技術が導入されていて、各局は5日間、夕方のニュースなどの音声から自動生成した字幕をスマホに配信し、障碍者や高齢者の反応を集めている。協議会によると、「字幕キャッチャー」を用いた場合、遅れは5秒程度にとどまるとしている。一方、文意は読み取れるものの、漢字などが正しく表示されないケースも見られ、視聴者が字幕の正確さをどの程度必要としているかについても調べる」(※ 越智慎司、「生放送の字幕を自動生成しスマホに配信、民放24局で実験」、『放送研究と調査』2019年1月号、p.97.)

 「字幕キャッチャー」を使って実証実験を行い、実際の放送番組を対象に、聴覚障碍者や高齢者の反応も取っていたようです。報告書という形では見つかりませんでしたが、実証実験を行っているのですから、当然、何らかの結果は出ているのでしょう。

 さて、総務省が平成30年度支援事業として採択した2件のうちのもう一つが、ヤマハの「SoundUD」を使って字幕をスマホ等に配信して表示させるシステムでした。

 ヤマハが開発した「SoundUDクラウド」はこれまで、主に交通や防災などの場面で活用されてきました。この実績を踏まえ、TVやラジオの音声を字幕情報として視聴者のスマホに送信するというのがこの事業の特徴です。

 その中核技術になるのが、音声トリガーです。これをTVの字幕付与サービスに活用しようというのです。

こちら → https://www.soumu.go.jp/main_content/000524687.pdf

 このシステムでは、アナウンサーの音声が自動的に認識されて、トリガー生成された発話内容が蓄積サーバに送られ、トリガー音声としてTVで放送されます。発話内容はトリガー情報として、対応アプリをインストールしたスマホに字幕を表示されるといいます。発話内容がトリガー生成されることによって、音声としてもデジタル情報としても活用することができるというのです。

 興味深いのは、画面に字幕を付与するのではなく、セカンドスクリーンとしてのスマホに、字幕を送信するということでした。ヤマハは、このシステムであれば、これまでのTV字幕に伴うさまざまな課題に対処できるといいます。

 つまり、これまでは字幕を付けることによって画面が見づらくなっていましたし、字幕付与のコスト負担が放送局の経営を圧迫するといった課題がありました。インターネット経由で字幕をスマホに表示できるこのシステムでは、それらの課題を一挙に解消できるというのです。(※ https://www.yamaha.com/ja/news_release/2018/18072401/

 実証実験の結果、アプリを利用してスマホに字幕を表示させた場合、外国人は100%(35人/35人)、障碍者(車いす)75%(3人/4人)、聴覚障碍者約90%(27人/29人)の評価を得ています。サイネージの場合も同様、外国人100%、障碍者(車いす)75%、聴覚障碍者80%でした(※『総務省報告書概要版』、p.4. https://www.soumu.go.jp/main_content/000625562.pdf

 このような結果を踏まえ、総務省は「施設管理者および実証実験参加者の双方より、ICTを用いた情報伝達は有効であるとの回答を得ました」と総括しています。

 具体的にいうと、次のような回答が見られました。

「ICTは、属性毎に情報の内容や言語を変えることができ、障碍を持った方や外国人の方にも情報を提供できるため非常に有効である」、

「競技会場のどこにいても一斉に多くの来訪者に情報が伝わるので良いシステムであると思う」、「今回実証したスマートフォンアプリは、電源喪失や通信障害など災害時における情報伝達手段として、非常に有効であると思われる」、

「サイネージは大画面であり、視覚的に情報が見やすい。また、情報を多言語で表示できる点が有効だ」等々です。

 ところが、この報告書をよく読むと、その内容はオリンピック会場でのスマホとサイネージへの字幕表示に関するもので、放送事業に関する記載はありませんでした。

 先ほどもいいましたように、マルチスクリーン放送協議会の字幕事業についての報告書はありませんでした。これらを考え合わせると、両事案とも放送に関する実証実験の結果が良くなかった可能性があります。おそらく、いずれも実用化レベルには達していなかったのでしょう。

 そう思って、調べていると、総務省が補正予算を組んで、聴覚障碍者放送視聴支援事業の募集しているのがわかりました。

■平成30年度第二次補正予算における支援事業

 総務省は2019年2月1日から25日にかけて、補正予案で「聴覚障害者放送視聴支援緊急対策事業」を募集していたのです。平成30年度セカンドスクリーン型実証実験の報告会が開催されたのが3月8日でしたから、1月末には両事案の実証実験の結果が総務省にはわかっていたのでしょう。

 総務省は3月29日、補助金(情報通信利用促進支援事業費補助金)の交付先を決定しています。

こちら → https://www.soumu.go.jp/menu_news/s-news/01ryutsu09_02000228.html

 事業タイトルは異なっていますが、今回も聴覚障碍者に向けた字幕付与事業であることに変わりはありません。そこで、調べてみると、案の定、先ほどの事業案の実証実験で誤って字幕が表示された例が報告されていました。

 具体的にいえば、「所有」と発音したアナウンサーの音声が「醤油」として字幕表示されたり、「六度」が、「鹿路」、「三度」が「サンド」、「七度」が「ななど」といった具合に、数字が誤って認識されてしまったケースです。(※『総務省の情報アクセシビリティ支援の取り組み例』、2019年2月18日)。

 このように、両事業の実証実験では、聞き取りやすいはずのアナウンサーの音声に対して誤った反応を示す例がいくつか見受けられたのです。

 オリンピック、パラリンピック開催までに間もないというのに、両事業案で実用化できるレベルの結果が得られなかったのですから、総務省としても立て直す必要があったのでしょう。この報告書が出されたのが、2019年2月18日でした。この時点で、すでに補正予算による事業募集が始まっていました。

 そして、3月29日に公表された補正予算枠で採択された事業が、国立研究開発法人・情報通信研究機構による「放送番組用音声認識システムによる自動字幕表示システム」でした。

こちら → https://www.soumu.go.jp/main_content/000611220.pdf

 事業の概要欄からは、「自動字幕付与技術の強化により、聴覚障害者や高齢者を含む多くの視聴者がテレビジョン放送の内容を理解し、情報アクセスの機会を確保できるようにする」ことを目的にしていることがわかります。最後に、「本事業の成果を用いて自動字幕表示システムを2020年度に実用化し、実運用することを目指す」と書かれており、ここに総務省の焦りが透けて見えます。

 さて、この研究では、二つのセクションが注目されます。一つは「放送番組用音声認識システム」で、もう一つは「自動字幕表示システムの開発、試験運用及び評価」です。

 まず、「放送番組用音声認識システム」については、2500時間の放送番組からデータを収集して音声データとテキストデータに分けて格納し、それに最新の単語情報を加え、放送番組用にカスタマイズしたものを音声認識システムにあげるという流れになっています。

 興味深いのは、放送番組の多様で大量のデータを音声データとテキストデータとに分けて格納し、いつでも引き出せる状態にしていること、放送番組のデータベースに最新の単語情報を加えてカスタマイズし、音声認識システムに組み込んでいることでした。認識の精度をあげるためでしょう。

 そういえば、マルチスクリーン放送協議会とヤマハの実証実験の際、音声を誤って認識し、字幕表示していたことがありました。おそらく、それを避けるための処置なのでしょう。音声認識に至る前段階で、2500時間分もの放送番組から音声データとテキストデータの集積し、データ量を増やしています。音声認識の精度をあげるために、できるだけ多様で大量のデータベースを構築しているのです。

 次に、「字幕表示システム」の段階では、さらに複雑なシステムになっています。

 音声認識システムを経て、音声認識サーバーに送信されたデータは放送音声等と照合して認識され、字幕蓄積・配信サーバーに送信されます。その後、自動生成された字幕がスマホ、タブレット、セットトップボックス(STB)等のメディアに配信され、表示されます。

 最後に、各媒体の画面に表示された字幕について、聴覚障碍者等の評価を得て、システムを修正していくという仕組みです。

 STBを介したTVではアウトリーチ型字幕となり、スマホではセカンドスクリーン型字幕となります。いくつもの段階で誤表示がないような工夫がされています。これについての実証実験はこれからですが、担当するのが情報通信機構(NICT)ですから、マルチスクリーン放送協議会とヤマハの実証実験の結果を継承した成果が期待されます。

 というのも、ヤマハは音声トリガーとNICTが開発した音声認識エンジンを組み合わせてシステム構築を行っていましたし、マルチスクリーン放送協議会はNHK技研が開発した音声認識エンジンとNICTが開発した音声認識エンジンを使っていました。両事業案とも音声認識エンジンとしてNICTが開発したものを使っていたのです。今回の実証実験では、NICTが開発した音声認識エンジンに一本化して実用化が試されることになるのです。

■今後はAIハイブリッド型字幕・・・?

 2018年2月に発表された総務省の指針によって、ローカル局も2027年までに生放送番組への字幕付与に取り組まざるを得なくなりました。資本力、マンパワーが不足しているといって回避していられない事態になっているのです。

 2020年1月16日の日経新聞で、テレビ愛知がTV生字幕配信の実証実験を行うことを知りました。1月27日から31日放送の「ゆうがたサテライト」と2月2日放送の「データで解析!サンデージャーナル」で実証実験を行うというのです。

こちら → https://www.nikkei.com/article/DGXMZO54448050W0A110C2000000/

 これは、TV音声をリスピーク方式と手入力方式で修正し、インターネットを通して字幕配信するというものです。受信機はパソコン、タブレット、スマホなどでセカンドスクリーン型字幕、あるいはTVのアウトリーチ型字幕になります。放送期間中に利用者に対しアンケート調査を実施し、今度の字幕配信や番組制作に役立てるといいます。

 このシステムはアセット・ジャパンが開発したもので、同社はすでに聴覚障碍者のために、「情報保障サービスe-ミミ」を展開しています。

 この延長線上に、今回のインターネットを介してTV字幕を配信するシステムを考案したのです。

 そもそもは筑波技術大学等が開発した「モバイル型遠隔情報保障システム」の技術を基盤に構築されたものでした(※ https://www.tsukuba-tech.ac.jp/ce/mobile1/index.html)。

 聴覚障碍者にとって、現在のTV字幕にはいくつか問題があります。とくに生放送字幕には大きな問題があります。それは、画面と字幕表示とに時間的なズレが生じることです。

 新聞報道によると、テレビ愛知が実験したWeb字幕でも、音声を文字に変換し、数秒後にウェブ配信し字幕表示すると書かれています。このシステムで、音声と字幕表示とのタイムラグは解消できるのでしょうか。それがちょっと気になりました。

 さて、これはAIハイブリッド型字幕になります。テレビ愛知に限らず、各放送局は今後のTV字幕について、このようなAIハイブリッド型を検討しているようです。

 たとえば、TBSの場合、CS放送向けの24時間報道チャンネル「TBS NEWS」に字幕を付与するシステムを開発し、第45回放送文化基金賞を受賞しました。

(※ https://www.tbs.co.jp/company/news/pdf/201906051700.pdf

 このシステムでは、「アナウンサーが読むニュース原稿を字幕システムに取り込む方式」、「地上波ニュースで放送済み字幕を取り込む方式」、「音声認識AIを利用して字幕を生成する方式」の3つを併用したハイブリッド方式を採っています。このような方式を採用した結果、字幕の正確性、スピードアップ、運用のコストダウンを実現できたといいます。

 2018年9月にこのシステムを本格的に運用して以来、大きなトラブルもなく、24時間TVニュースに字幕を付与できたことが評価されたのです。開発者の木村浩也氏は、今後はAIによる認識精度を高め、運用のコストダウンを図り、CS放送以外でも円滑に字幕付与できるようにしていきたいと述べています。

■5Gを利用した生中継映像の伝送

 TBS広報部は2019年11月1日、5Gを利用した生中継の映像伝送に成功したことを発表しました。放送局側に設置したカメラリモートコントローラーと、中継地点の放送用ハイビジョンカメラを5G回線で接続し、放送スタジオと同等の放送品質を担保し、映像伝送できたというのです。

こちら → https://www.tbs.co.jp/company/news/pdf/201911011700.pdf

 5Gの特徴は「高速・大容量・低遅延」だといわれています。そこで、TBSはNTTドコモの5Gサービスを利用し、日本で初めて、スタジオと同等の放送品質を担保し、生中継の映像伝送に成功したのです。

 実際、11月1日に、地上波のTBS番組「あさチャン!」「ひるおび!」「TBSニュース」で、渋谷スクランブルスクエア開業初日の模様の一部が、NTTドコモの5Gサービスを利用して生中継で放送されました。

 この生中継では、5Gのネットワークの上にVPN(Virtual Private Network)を構築し、TBS赤坂放送センターと中継地点とをダイレクトに接続しました。そして、赤坂放送センターに設置したカメラコントローラーで中継先カメラの遠隔制御を行い、映像を伝送したというのです。

 生中継でもスタジオ映像と同等の放送品質を保ちつつ、伝送できるシステムを日本で初めて実用化したことになります。5Gの幕開きにふさわしい放送技術といえるでしょう。

 TBSは今後、ここで使った遠隔番組制作手法を応用し、突発のニュース中継などでも高品質の中継を行えるようにするといいます。制作現場の人員の最適化を図りながら、クオリティの高い番組制作を進めていくと述べています。

■オリンピックを機に、字幕付与サービスは向上するか?

 TV局にとって生放送番組への字幕付与は課題が多く、コスト負担も高い事業でした。ところが、AIを活用し、5Gを利用することによって、より精度が高く、コスト負担の低い字幕付与システムが可能になりつつあります。

 すでに実用化されているものもあれば、今後、実証実験の結果を踏まえて改善されていくものもあります。いずれにしてもICTの進展に従い、TVへの字幕付与といった領域も大幅に改善されていくような気がします。

 米ラスベガスで2019年12月2日から6日まで、アマゾンウエブサービス(AWS)の年次開発者会議「re: Invent 2019」が開催されました。参加したジャーナリストの西田宗知佳氏は、5Gは低遅延が特徴だといわれ、だからこそ自動運転も可能だといわれるが、公衆網を使った低遅延化には5Gがスタンドアローンになるまで待つ必要があると指摘しています。(※ https://www.watch.impress.co.jp/docs/series/nishida/1223145.htm

 現在の5Gで使われているのは、4Gのネットワークを活かして5Gを構成する「ノン・スタンドアローン(NSA)」と呼ばれる方式が中心になっているそうですが、西田氏はそれでは無理だというのです。低遅延を実現するには5G網にサーバーを配置することが必要だとしたうえで、「どのくらいの数をどのくらいのエリアに配置するのか」の判断が難しい」と説明します。そして、「5Gにおける低遅延を実現する技術の採算性」が問題になるとも述べています。

 おそらく、それが現実なのでしょうが、たとえ現段階でそのような課題があったとしても、社会的に必要なものであれば、やがては技術改良されて使いやすくなり、コストダウンもされます。それがテクノロジーの辿ってきた道であるとすれば、5Gはいずれ、TV字幕に関する課題についても解決の糸口になってくれるでしょう。

 日本では2020年、5Gサービスが開催されます。「高速、大容量、低遅延」が大きな特徴だといわれる5Gの環境下では、リアルタイムのコミュニケーションが実現するのです。

 一方、オリンピックを機に、言語、情報のバリアフリー化が進められています。その一環としてTV番組にも英語と日本語の字幕が表示できるようになれば、視聴者層を拡大できるでしょう。

 TVはいつの間にか、オールドメディアと呼ばれるようになり、若い世代を中心にTV離れを食い止めることはできなくなっています。広告収入もネットに抜かれ始めている今こそ、番組に字幕を付与することによって、視聴者の拡大を図る必要があります。

 字幕を付与することによって、TVが聴覚障碍者や外国人への門戸を開いていけば、さまざまな立場の視聴者がTVを必要不可欠なメディアだと認識してくれるようになります。そうなれば、番組内容も自ずと変化していくでしょう。

 TV番組に日本語字幕と英語字幕を標準装備することによって、今後、日本が取り組んでいかなければならない包摂体制に、ヒトを誘導できる可能性があります。それこそ、今回のオリンピック、パラリンピックで提唱されている共生社会への糸口が見つかるような気がします。

 確かに、人々のTV離れが進んでいるのは事実です。それは番組内容が視聴者のニーズに応えていないからであって、TVという媒体自体になんの瑕疵もありません。依然として社会を支える基幹メディアであることに変わりはないのです。

 今回、触れませんでしたが、オリンピックを目途に、スポーツ中継の技術が進んでいます。5Gの下、臨場感あふれる映像を目にすれば、どれほどワクワクさせられるでしょう。セカンドスクリーンに表示される字幕を見れば、映像の魅力を損なわないまま、TV観戦を楽しむことができます。

 オリンピック、パラリンピックというビッグイベントを契機に、TV番組に字幕が付与され、さまざまな媒体で表示されるようになれば、視聴者人口を拡大することができ、やがては共生社会の基幹メディアとしてTVが機能するようになるでしょう(2020/2/18 香取淳子)。

オリンピック、パラリンピックは日本のTVを革新できるか?

■NHK、ネットとTV同時配信

 総務省は2020年1月14日、NHKが提出していたネットとTVの同時配信サービスを認可しました。これは、2019年5月29日に放送法の一部改正が成立したことを受けて、認可されたものです。

 日経新聞は2019年5月19日付の紙面で、このニュースを記事にしました。NHKが進めるサービスの概要を紹介するとともに、受信料収入を経営基盤とするNHKが民業を圧迫するのではないかという日本民間放送連盟(民放連)の反発、あるいは、NHKのガバナンス体制の不備に対する懸念なども紹介しているのです。

(※ https://www.nikkei.com/article/DGXMZO45395390Y9A520C1MM0000/

 総務省はその後、NHKから提出された変更案に対するパブリックコメントを募集しました。そして、各方面から提出された意見を踏まえ、「NHKインターネット活用業務実施基準」の変更案に対する総務省の考えを表明しています。

(※ https://www.soumu.go.jp/main_content/000654087.pdf

 注目すべきは、「ユニバーサル・サービスに関する業務」、「国際インターネット活用業務」、「東京オリンピック・パラリンピック競技大会に関する業務」の項目でしょう。いずれも将来の社会変動を見据えた取り組みで、今後、NHKが果たすべき役割として捉えられています。

 NHKはこれらの項目に対し、費用の上限をそれぞれ、7億円、35億円、20億円と個別に設定しています。これらの業務内容を確実に遂行できるようにしようとしていることがわかります。もちろん、総務省もこれらを高く評価しています。

 たとえば、「ユニバーサル・サービスに関する業務」について、総務省は次のようにNHK案を評価し、認可しています。

 「NHK案においては、放送番組等の字幕、解説音声及び手話を、インターネットを通じて提供する業務を新規に開始することとしている。 本業務は、視覚・聴覚障害者や高齢者、訪日・在留外国人等が、協会の放送番組等を享受できるようにするためのものであり、国民・視聴者の利益にかない、協会が行うものとして適切なものであると認められる」

 日本は今後、高齢化が進む一方で、訪日・在留外国人が増加していきます。当然のことながら、TV番組をユニバーサル・サービス仕様にし、ネットでも同時配信することは不可欠になります。天気予報、災害情報、ニュース、生活情報など、TVは情報インフラとして生活に定着しています。インターネットでも同時に配信することで、視聴覚障碍を持つ人々や外国人の利便性は明らかに向上しますから、これは公共放送であるNHKの責務ともいえます。

 総務省はNHK案を認可したとはいいながら、いくつかの条件を設けています。このうち、「民放放送事業者との連携や協調を進める」という条件が課されているのが注目されます。パブリックコメントを踏まえたものなのでしょうが、NHKが率先して技術開発し、その結果、得られた技術やノウハウを民放が共有できれば、出遅れていた日本の放送業界も大きく変わる可能性があります。

 NHKがネットとTVの同時配信ができるようになれば、視聴者にとってもメリットがあります。視聴覚障碍者や外国人にも情報保障ができるだけでなく、ネットの特質を生かしたさまざまな放送サービスが可能になるからです。

 それが、今回総務省から認可された新サービスです。

■NHKプラス

 新放送サービスは、「NHKプラス」と名付けられています。

 実はNHKは2010年にもTVとネット同時配信の方針を表明していました。それが紆余曲折を経てようやく叶ったのが、2020年4月1日から開始される「NHKプラス」なのです。

こちら → https://www.nhk.or.jp/pr/keiei/internet/pdf/net_004.pdf

 これを見ると、「NHKプラス」と命名したのは、「いつでも、どこでも、何度でも視聴できる」(生活を豊かに)、「いつでも、どこでも災害情報を入手できる」(生活に安心感を)、「ネット空間でも接触できる」(ネット時代に対応)、「新たな世界や多様な考えに触れることができる」(ネットに即した情報発信)、などの4つのプラス(メリット)があるからだとしています。

 サービス概要として、次のような点が挙げられています。


(NHK報道資料より)

 2020年4月1日から、午前6時から翌日の午前0時までの18時間このサービスは開始されます。総合TVと教育TVの地上放送の番組で、著作権の権利処理が終わっているものが対象になります。音声は2チャンネルで、二か国語放送、解説放送、字幕放送も行われますから、外国人、視覚障碍者、聴覚障碍者はこれまでよりも視聴しやすくなるでしょう。

 オリンピック・パラリンピックを契機に、TVの視聴覚バリアフリー化が推進されれば、未来社会に適した仕様のTV放送が実現するでしょう。

■オリンピック・パラリンピックに向けて

 NHKは東京2020オリンピック大会が開幕する1年前の7月20日から24日にかけて、新しいスポーツの楽しみ方や魅力を伝えるイベント「Nスポ!2019 -SHIBUYA-」を、渋谷ヒカリエで開催しました。

こちら → https://www.nhk.or.jp/event/nspo/

 ここでは、ステージイベントは、音声を字幕化してモニターに表示されたといいますから、オリンピック・パラリンピックには参加できない聴覚障碍者も、このイベントには参加することができたでしょう。バリアフリーのための第一歩です。

 さて、総務省はNHK案の「東京オリンピック・パラリンピック競技大会に関する業務」について、次のように評価していました。

「NHK案においては、大会に際し、専用ウェブサイト等を通じて、競技等のライ ブストリーミングやハイライト動画を提供するものである。 大会は我が国で開催されるナショナルイベントであり、本業務は、国民・視聴者 と大会期間中の訪日外国人の期待に応えるものであることから、一定の社会的 意義が認められる」

 これを見ると、総務省は、NHKが専用ウェブサイトを通して競技等のライブ映像やハイライト動画を提供することを奨励していることがわかります。それは、オリンピック・パラリンピック大会が世界に向けての晴れ舞台であり、日本の存在感をアピールできる場でもあるからでしょう。オリンピック・パラリンピックはまさにグローバルなメディアイベントなのです。

 実際、NHKは「2020東京オリンピック」というサイトを立ち上げています。

こちら → https://sports.nhk.or.jp/olympic/

 ここでは、さまざまな観点からオリンピック競技が取り上げられており、見応えがあります。

■CG手話

 興味深いのは、CGで作成した手話動画がこのサイトに掲載されていることでした。

こちら →
https://sports.nhk.or.jp/olympic/video/all/?tags=%e6%89%8b%e8%a9%b1CG%e3%81%a7%e8%a6%8b%e3%81%a9%e3%81%93%e3%82%8d%e7%b4%b9%e4%bb%8b%ef%bc%81

 卓球、ボクシング、アーチェリーなど、各種オリンピック競技の見どころについて、CG手話で簡略化して紹介されています。手話を理解できる聴覚障碍者ならすぐにも理解できるでしょう。

 たとえば、卓球はこのように解説されています。

こちら → https://sports.nhk.or.jp/olympic/video/table-tennis-sign/

 26秒の短い動画ですが、画面に字幕も付与されており、さまざまなレベルの聴覚障碍者が理解できるよう工夫されています。

 パラリンピックサイトを見ると、さらに、障碍者にとって充実した内容になっています。

こちら → https://sports.nhk.or.jp/paralympic/

 ここでも、オリンピックの場合と同様、CG手話で競技の見どころを紹介されています。オリンピック競技よりはやや長尺で、字幕も付与されています。

こちら → https://sports.nhk.or.jp/paralympic/video/wheelchair-tennis-sign/

 一体、どのようにしてこのようなCG手話が作成されているのでしょうか。

 興味深く思っていると、それを説明したページが目に入りましたので、ご紹介しておきましょう。

こちら → https://sports.nhk.or.jp/dream/universal/signlanguage/

 これを見ると、NHKはすでに約7000語の手話単語をCG化しているそうです。手話通訳者の指の動きをモーションキャプチャーで取り込み、CG手話を自動的に生成できるようにしているのです。

 モーションキャプチャーで動きを取り込む写真を見ていると、ふと、かつて『Happy Feet』を制作したジョージ・ミラー監督がこの技術を使っていたことを思い出しました。ペンギンのマンブルが見事なタップダンスを披露するのを見て、衝撃を受けたのです。パソコンで作り出されたキャラクターなのに、まるで本物のペンギンのように見えるのに驚き、そして、華麗な足さばきで音楽に合わせてタップダンスをするのを見て驚きました。

 制作を担当したオーストラリア人アニメーターのダミアン・グレイが、ブリスベンで講演をするというので、わざわざ出かけたこともありました。2007年9月9日のことです。会場では映像表現の最前線に関心を抱く大学生やクリエーターが詰め掛け、熱心に耳を傾けていました。

 あれから12年後、すでにCG手話が実用段階に入っているのです。技術の進歩の速さ、応用の多様さに感無量です。モーションキャプチャーを使えば、人が行う手話と同等以上のCG手話が可能でしょう。現在は約7000語の手話単語がCG化されているそうですが、その数が増えていけば、TV番組にCG手話をつけることは近い将来実現するでしょう。

■パラリンピックの価値

 JPCのHPには、国際パラリンピック委員会(IPC)が設定したパラリンピックの価値として、以下の4つの項目を掲げています。

(※ https://www.jsad.or.jp/paralympic/what/index.html

JPCのHPより。

 「勇気」(マイナスの感情に向き合い、乗り越えようとする精神力)、「強い意志」(困難があっても、諦めず、限界を突破しようとする力)、「インスピレーション」(人の心を揺さぶり、駆り立てる力)、「公平」(多様性を認め、創意工夫をすれば、誰もが同じスタートラインに立てることを気づかせる力)、等々。IPCが設定した目標を日本語に翻訳し、図式化したものです。

 原文( IPCのHPに記載)と照らし合わせてみると、日本語訳とは異なっているのが「Equality」でした。

Equality: Paralympic Sport acts as an agent for change to break down social barriers of discrimination for persons with an impairment.
(※https://www.paralympic.org/feature/what-are-paralympic-values


 なぜ、原文とは異なる訳語になっているのでしょうか。 気になったのですが、よく見ると、先ほどの図の下に小さく、次のような注釈がつけられていました。

***

※IPC発表の英語表記は「Equality」でありその一般的な和訳は「平等」ですが、「平等」な状況を生むには、多様な価値感や個性に即した「公平」な機会の担保が不可欠です。そしてそのことを気づかせてくれるのがパラリンピックやパラアスリートの力である、という点を強調するため、IPC承認の下、あえて「公平」としています。

***

 「Equality」を「公平」と訳し、その意図を注釈で書き記しているところに、JPCの意気込みが感じられます。東京で開催されるパラリンピック大会をきっかけに共生社会に向けて動き出そうとしているのでしょう。

 考えてみれば、異質な存在が異質なままに生きられる社会を可視化するには、パラリンピック大会は絶好の機会なのです。

 ところが、そのパラリンピックに出場できないのが聴覚障碍者です。

 出場できないとしても、観戦はできます。そこで必要になるのが、字幕です。聴覚に問題のない人の中には、画面に字幕が付与されると、映像の良さが半減するという人もいますが、先ほどもいいましたが、誰もが場内やTVで観戦を楽しめるようにするには、字幕は不可欠なのです。

■字幕放送

 NHK案では、ユニバーサル・サービスとして放送番組等の字幕、解説音声、手話などを、ネットを通して提供していくとしています。このうち、聴覚障碍者にとって有益なのは字幕放送です。

 日本語音声の画面に日本語の字幕を付与することは、聴覚障碍者にとって利便性が高いだけではなく、日本語を学習しようとしている外国人にもメリットが高いのです。さらに、空港や電車内で流される画面には音声よりも字幕の方が適しています。

 大勢の人が集まる場所や混雑した場所では、音声は雑音にかき消されて聞き取れません。電車内などではうるさいと人を不快な気分にさせてしまいます。健聴者にとっても、字幕の方がはるかに効率よくメッセージを伝える場合も少なくないのです。

 それでは、字幕付与の領域ではどのような技術が生まれているのでしょうか。

 2019年5月30日から6月2日にかけて、NHK放送技術研究所で「生放送番組における自動字幕制作」の様子が展示されていました。

NHK技研より。

 

 これは、AIを利用した音声認識によって、生放送の音声から自動的に字幕を制作し、インターネット配信をするお試しサービスを、福島、静岡、熊本で実施しているところを示したものです。

 通常は音声認識の誤りを人手で修正して正確な字幕を放送しているが、地方ではそのような専門性の高いスタッフを抱えることが容易ではないという事情があります。そこで、AIを使って音声認識した結果をそのまま字幕としてインターネットで配信するという試行サービスを行っているというのです。

 字幕付与に関して最も難しい領域の研究が行われているのです。これまで生放送番組への字幕付与は難しいといわれてきました。それも音声認識の精度が上がってくるにつれ、より修正の少ない字幕を付与することができるようになっています。

 もっとも難しいのが、図で示された地方局が制作した番組への字幕付与でした。AIの認識はデータが増えれば増えるほど精度が上がっていきますから、このような試行サービスが繰り返されていけば、字幕付与可能な番組については、近々、自動でできるようになるのかもしれません。

 ちなみに、NHKでは次のような方法によって、字幕が制作されています。

NHKより。

 

 歌謡番組や情報番組、報道番組の場合、高速キーボードを使って、人手で入力し字幕を起こしていく方式(キーボードリレー方式;左上)、スポーツ中継や情報番組の場合、実際に放送されている音声を別室でアナウンサーが読み上げなおし、それを自動認識させる方式(リスピーク方式;右上)、ニュース番組等の場合、番組音声を直接認識するシステムと人手での作業を併用する方式(ハイブリッド方式;左下)、ニュース番組等の場合(地方局で運用)、ニュースなど元原稿がある番組の場合、音声認識の結果からどの原稿を読み上げているのか推定して字幕化する方式(セレクト方式;右下)など4つの方式があるといわれています。

 番組のタイプによって、音声の自動認識の難易度に差があることがわかります。実証実験を繰り返し、より現実に適した方法が採用されていくのでしょう。

 アイ・ドラゴン4(聴覚障碍者用情報受信装置)を使った実証実験も始まったようです。

障碍者放送通信機構HPより。

 

 総務省が「聴覚障害者放送視聴支援緊急対策事業」として行うもので、ローカル局の番組に音声認識で生字幕をつけるための実証実験です。全国のローカル局のうち、20局が参加するといいます。人手をかけずに自動的に精度の高い字幕を付与する仕組みが様々に試行されている様子を知ることができます。

■障碍者はパラリンピックをどう捉えているのか

 IPCはパラリンピックの価値として4つ掲げていました。それでは、障碍者はパラリンピックをどう捉えているのでしょうか。

『放送研究と調査』(2018年11月号)を読んでいると、調査結果に添えて、パラリンピックに対する障碍者たちの意見が掲載されていました。興味深いと思ったのは、聴覚障碍者の次のような意見でした。

「パラリンピックは、いろんな障碍者がいると周知できる唯一の大きな機会。また、苦労しているのは私だけじゃないと、障碍者本人や家族、支援者の勇気や感動にもつながると期待している」(p.70)

 前回のブログ(「聴覚障碍者はパラリンピックに出場できない……?」)に書いたように、聴覚障碍者はパラリンピックに出場できません。それでも、この人は、パラリンピックは「いろんな障碍者がいると周知できる唯一の機会」と捉えているのです。

 私はそこに打たれました。

 自分たちは参加できないのに、「いろんな障碍者がいると周知できる唯一の機会」と、この人はパラリンピックをポジティブに捉えています。その姿勢に私は感銘しました。そして、このような反応が得られたところに、JPCが「Equality」を平等と訳さず、敢えて「公平」と訳したことの意図が理解されている痕跡を見たような気がしました。

 もちろん、この人がそのような見解を持てたのは、障碍を持つアスリートたちの姿に感動したからにほかなりません。彼らが懸命に努力し、渾身の力を込めて競技を展開する姿に尊さと美しさを発見したからこそ得られた感動なのでしょう。

 障碍にくじけず、生き抜こうとするアスリートの姿に勇気と強い力を見出し、感銘したのでしょう。あるいは、そこに学ぶべきものを感じ取ったのかもしれません。そして、アスリートの姿は、本人はもちろんのこと、家族や支援者に勇気を与え、感動を呼ぶことになるだろうと述べています。

 この聴覚障碍者の見解の中に、IPCが重視する4つの価値がすべて含まれています。

 私がこの人の自由回答に注目したのは、異質なものの中に多様性を認め、それぞれが創意工夫をすれば、誰もが同じスタートラインに立てることが的確に表現されていたからでした。 (2020//1/31 香取淳子)

 このブログを書いた後、興味深い報道がありましたので、追加します。

■民放キー局、今秋以降、TVとネット同時配信開始

 2020年2月2日、新聞各社は一斉に、民放キー局が今秋以降、TVとネット同時配信を開始すると報道しました。冒頭でご紹介したNHKに追従する対応です。こうなることは予想していましたが、意外に早くて驚きました。それほど、若者世代を中心にTV離れが進んでいるのでしょう。

 各局は7月開催(7月24日~8月9日)のオリンピック中継、8月開催(8月25日~9月6日)のパラリンピック中継はネットと同時配信するようです。これに関し、あるキー局社員は「五輪で視聴者に認知してもらい、その流れでレギュラー番組の同時配信を利用してもらえば理想的」と語っているようです。(※ 東京新聞2020年2月2日付朝刊)

 実際にネットと同時配信できるのは今秋以降ですから、本来ならオリパラの中継は該当しません。ところが、この二つのビッグイベントを外せば、NHKに視聴者をもっていかれてしまいます。民放キー局はなんとしてもこの時期に同時配信しなければならないと決意したのでしょう。NHKが4月1日開始と発表してからわずか三週間ほどで、民放キー局は同時配信の今秋開始を発表しました。

 これでようやく放送と通信の融合が本格化します。視聴覚障碍者、高齢者にとっては喜ばしいニュースといえるでしょう。

 民放5社は共同で視聴データを活用し、実証実験を進めています。(※ https://www.tv-viewing-log.info/2019/

 目的の中には、「視聴者の皆様の安全・安心を確保するため、さらに必要な事項の検討」とか「災害対策など公共性が高いサービスへの視聴データ利活用の検討」といった項目も入っていますから、視聴覚障碍者や高齢者がより見やすい、聞きやすいTVが実現するでしょう。

 世界を対象としたビッグイベントであるオリンピック、パラリンピックは、どうやら、TV革新の大きなきっかけになりそうです。

(以上は、2月2日に追記しました)