JP7208740B2 - 情報処理装置、及びプログラム - Google Patents

情報処理装置、及びプログラム Download PDF

Info

Publication number
JP7208740B2
JP7208740B2 JP2018152468A JP2018152468A JP7208740B2 JP 7208740 B2 JP7208740 B2 JP 7208740B2 JP 2018152468 A JP2018152468 A JP 2018152468A JP 2018152468 A JP2018152468 A JP 2018152468A JP 7208740 B2 JP7208740 B2 JP 7208740B2
Authority
JP
Japan
Prior art keywords
user
unit
information
color
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018152468A
Other languages
English (en)
Other versions
JP2020028046A (ja
Inventor
真希子 東
拓也 半田
均 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2018152468A priority Critical patent/JP7208740B2/ja
Publication of JP2020028046A publication Critical patent/JP2020028046A/ja
Application granted granted Critical
Publication of JP7208740B2 publication Critical patent/JP7208740B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、情報処理装置、及びプログラムに関する。
従来、視覚や聴覚等に障害があるユーザへ情報提示するための手法や装置の研究等が行われている。例えば、特許文献1には、触覚情報を含む感覚情報を個々のコンテンツに対応させてユーザに提示することにより、多種の感覚で情報を提供する(マルチモーダル)手法が提案されている。
一方、特許文献2には、利用者の感覚を定量的に分析し、利用者の感覚に応じた情報を特定するクロスモーダルデータを提示する技術も提案されている。
また、特許文献3には、放送波により提供される放送サービスと通信ネットワークを介して提供される通信サービスとを融合した放送通信連携サービスにおいて、視覚および聴覚以外の感覚の情報を、コンテンツに同期させて触覚情報として提供する技術が提案されている。
特開2016-213667号公報 特開2017-021613号公報 特許第6254852号公報
しかしながら、各ユーザの障害の程度に応じて複数の装置を適切に調整し、ユーザごとに最適な情報の提示が行えないという問題がある。そこで、本発明は、上述した問題点に鑑みなされたものであり、視覚または聴覚等に障害をもつユーザに適合するようにコンテンツを含む情報の提示を行うことができる技術を提供することを目的とする。
一つの態様では、入力されたコンテンツの画像及び音の少なくとも一方を、視覚または聴覚に障害をもつユーザに適合するように変換し、提示する情報処理装置が、前記ユーザを認識するユーザ認識部と、前記コンテンツに含まれる画像、及び音の少なくとも一方を取得する取得部と、前記ユーザ認識部により認識された前記ユーザの情報が登録されていない場合、前記ユーザの視覚特性、または聴覚特性を判定する判定部と、前記判定部により判定されたユーザ毎の視覚特性を示す情報、または聴覚特性を示す情報を含む感覚特性情報を記憶する記憶部と、前記ユーザ認識部により認識された前記ユーザに対する前記感覚特性情報に基づいて、前記取得部により取得された画像、及び音の少なくとも一方を前記ユーザに適合するように調整する調整部と、を有し、前記ユーザ認識部は、前記ユーザが日本語または手話CGのいずれかを選択するように提示し、当該ユーザ認識部にて認識された前記ユーザに対する前記感覚特性情報に基づいて出力装置を選択し、選択した出力装置に、前記調整部により調整された日本語の字幕または手話CGを出力する出力制御部を有する。
開示の技術によれば、ユーザにとってより適切な態様で情報提示を行うことができる。
実施形態に係る情報処理システムの構成例を示す図である。 実施形態に係る情報処理装置の機能構成を示す機能ブロック図である。 実施形態に係る情報処理装置の処理の一例を示すフローチャートである。 実施形態に係る感覚特性情報の一例を示す図である。 実施形態に係る検査画像の一例について説明する図である。 実施形態に係る、所定のユーザに対する色覚に関する視覚特性を示す情報の一例について説明する図である。 実施形態に係る視覚特性に応じた調整処理の一例を示すフローチャートである。 実施形態に係る視覚特性に応じた調整処理の一例について説明する図である。 実施形態に係る、所定のユーザに対する周波数に関する聴覚特性を示す情報の一例について説明する図である。 実施形態に係る聴覚特性に応じた調整処理の一例を示すフローチャートである。 実施形態に係る、所定のユーザに対する周波数に関する聴覚特性を示す情報の一例について説明する図である。 実施形態に係る聴覚特性に応じた調整処理の一例について説明する図である。
以下、図面を参照しながら本発明の実施形態について説明する。
<システム構成>
図1は、実施形態に係る情報処理システム1の構成例を示す図である。図1において、情報処理システム1は、情報処理装置10、テレビジョン受像機である出力装置20-1、触覚提示装置である出力装置20-2、・・・(以下で、それぞれを区別する必要がない場合は、単に「出力装置20」と称する。)、及びコンテンツ提供装置30を有する。
コンテンツ提供装置30は、例えば、放送波により提供される放送サービスと通信ネットワークを介して提供される通信サービスとを融合したサービスにおいて、視覚および聴覚を含むコンテンツの他に、視覚および聴覚以外の感覚の情報を、コンテンツに同期させて提供する。具体的には、放送局の放送装置およびインターネット等の通信網に接続されたサーバを用い、手話CG、触覚提示用のデータ、動画像、及び音声等を含むコンテンツを提供する装置である。コンテンツ提供装置30は、例えば、テレビジョン放送、またはインターネット等の通信網40を介して、視覚特性または聴覚特性に応じた信号調整処理を行うための情報処理装置10または出力装置20に、当該コンテンツデータを送信する。なお、触覚提示用のデータとは、例えば、触覚提示装置の駆動部を制御するための制御データでもよい。
出力装置20は、例えば、テレビジョン受像機、ディスプレイ、スピーカー、タブレット(携帯)端末、触覚提示装置、字幕表示装置、手話CG提示装置等を含む出力装置であり、コンテンツ提供装置30から送信されたコンテンツを情報処理装置10による調整結果に基づいて出力する。触覚提示装置は、例えば、振動によりユーザに触覚を提示する装置でもよい。この場合、触覚提示装置は、スマートフォン等の振動装置を有する携帯端末でもよい。
情報処理装置10は、例えば、パーソナルコンピュータ等の情報処理装置である。情報処理装置10は、コンテンツ提供装置30から送信されたコンテンツを各ユーザの感覚の特性に応じて、信号を適切に調整して、テレビジョン受像機、ディスプレイ、スピーカー、タブレット端末、触覚提示装置、字幕表示装置、手話CG提示装置等を含む出力装置20に出力させる。
<機能構成>
図2は、実施形態に係る情報処理装置10の機能構成を示す機能ブロック図である。次に、図2を参照し、実施形態に係る情報処理装置10の機能構成について説明する。
情報処理装置10は、記憶部11、ユーザ認識部12、視覚特性判定部13、聴覚特性判定部14、取得部15、調整部16、及び出力制御部17を有する。
記憶部11は、ユーザ毎の視覚特性を示す情報、及び聴覚特性を示す情報を含む感覚特性情報111を記憶するものである。ユーザ認識部12は、情報処理装置10の各ユーザを、例えば、ユーザにより入力される認証番号や公知の顔認証等により認識(識別)するものである。
ユーザ認識部12は、手話CG表示手段を含み、ユーザが入力した認証番号または顔認証により認証できなかった場合には、ユーザに対し、第一言語が日本語または手話のいずれかを選択するよう画面にて提示する。そして、第一言語が日本語と入力された場合には、以後の案内を日本語で提示し、手話CGと選択した場合には、後述する設定案内を手話CGにて提示する。手話CGの提示には、例えば、特開2015-230640号公報の技法により文脈に合った適切な顔表情のキャラクタにより手話CGを提供してもよい。
視覚特性判定部13は、ユーザ認識部12により認識されたユーザの情報が、感覚特性情報111に登録されていない場合、ユーザの視覚特性を予め定めた判定基準に基づいて判定し、判定した視覚特性を示す情報を感覚特性情報111に登録する。聴覚特性判定部14は、ユーザ認識部12により認識されたユーザの情報が、感覚特性情報111に登録されていない場合、ユーザの聴覚特性を予め定めた判定基準に基づいて判定し、判定した聴覚特性を示す情報を感覚特性情報111に登録する。
取得部15は、コンテンツ提供装置30から送信された静止画、及び動画を含む画像、音声、及び字幕等を含むコンテンツを取得する。
調整部16は、ユーザ認識部12にて認識されたユーザに対応付けて感覚特性情報111に登録されている情報に基づいて、取得部15により取得された画像、及び音声等を調整する。なお、感覚特性情報111の詳細については後述する。
出力制御部17は、ユーザ認識部12にて認識されたユーザに対応付けて感覚特性情報111に登録されている情報に基づいて、テレビジョン受像機、ディスプレイ、スピーカー、タブレット端末、触覚提示装置、字幕表示装置、及び手話CG提示装置等の出力装置20のうち、コンテンツを提示する1以上の出力装置20を選択する。そして、出力制御部17は、選択した出力装置20に、調整部16により調整されたコンテンツ、及び触覚提示装置用のデータを出力する。
<処理>
次に、図3を参照し、情報処理装置10の処理について説明する。図3は、実施形態に係る情報処理装置10の処理の一例を示すフローチャートである。図4は、実施形態に係る感覚特性情報111の一例を示す図である。
ステップS1において、ユーザ認識部12は、過去に登録された個々のユーザの感覚特性情報111を即座に利用できるようにユーザを認識する。ここで、ユーザ認識部12は、例えば、カメラにより撮影されたユーザの画像に基づいて、公知の顔認識技術等を用いてユーザを認識してもよい。また、ユーザ認識部12は、例えば、リモコン等におけるユーザを指定するためのボタン操作により、認証番号を入力することによりユーザの認識をしてもよい。
続いて、ステップS2において、ユーザ認識部12は、当該ユーザに対する感覚特性の情報が感覚特性情報111に登録されているか否かを判定する。図4の例では、感覚特性情報111には、ユーザIDに対応付けて、視覚特性を示す情報、及び聴覚特性を示す情報が記憶されている。
当該ユーザに対する視覚や聴覚を含む感覚特性の情報が登録されている場合(ステップS2でYES)、後述するステップS6の処理に進む。
ステップS3において、当該ユーザに対する感覚特性の情報が登録されている場合(ステップS2でNO)、視覚特性判定部13は、当該ユーザの視覚特性を判定する。ステップS3については、後で詳述する。
続いて、ステップS4において、聴覚特性判定部14は、当該ユーザの聴覚特性を判定する。
続いて、ステップS5において、記憶部11は、視覚特性判定部13、及び聴覚特性判定部14により判定された、視覚特性を示す情報、及び聴覚徳性を示す情報を、当該ユーザのユーザIDに対応付けて、感覚特性情報111に登録する。
続いて、ステップS6において、調整部16は、感覚特性情報111に登録されている、視覚特性を示す情報に基づいて、取得部15により取得された動画像、字幕、及び手話CG等の画像を調整する。続いて、ステップS7において、調整部16は、感覚特性情報111に登録されている、聴覚特性を示す情報に基づいて、取得部15により取得された音を調整する。
続いて、ステップS8において、出力制御部17は、調整部16により調整された画像、及び音を出力装置20に出力させる。ここで、出力制御部17は、ユーザ認識部12により認識されたユーザの視覚特性、及び聴覚特性を示す情報に基づいて、出力装置20-1、20-2、・・・のうち、コンテンツを出力させる1以上の出力装置20を選択し、選択した出力装置20にコンテンツを出力してもよい。この場合、出力制御部17は、聴覚に障がいのあるユーザに対しては、例えば、ユーザからの設定に応じて、字幕を字幕表示装置に表示させる、または手話CG(Computer Graphics)を手話CG提示装置に表示させてもよい。また、出力制御部17は、視覚に障がいのあるユーザに対しては、例えば、周知の触覚提示装置等を用いて、点字等をユーザに伝達してもよい。
≪視覚特性の判定処理≫
次に、図3のステップS3の、視覚特性判定部13によるユーザの視覚特性を判定する処理について説明する。
視覚特性判定部13は、盲、弱視、近視、及び色覚異常を検査するための検査画像を出力装置20に表示させ、ユーザからのリモコン等の操作により、当該検査画像に対する回答を取得する。視覚特性判定部13は、例えば、予め定めた調整法を用いて、ユーザの視覚特性を判定してもよい。この場合、視覚特性判定部13は、検査画像に対するユーザの回答に基づいて、予め用意した表示用の検査画像を順次に決定し、当該検査画像を出力装置20に表示させる、そして、視覚特性判定部13は、ユーザからの音声やリモコン等の操作により、検査画像に対する回答を取得する処理を、繰り返してもよい。なお、検査画像は、例えば、文字の大きさや色、背景色と文字色の組み合わせ等が異なる画像でもよい。
図5は、実施形態に係る検査画像の一例について説明する図である。図5は、色覚異常を検査するための検査画像であり、それぞれ色の濃さが異なる複数の赤色の円により構成するものである。ここで、数字の「6」の領域501と、それぞれ色の濃さが異なる複数の茶色の円により構成される背景の領域502とを有する画像である。視覚特性判定部13は、図5の検査画像、及び「何の数字が見えますか?」等の質問文を出力装置20に表示する。そして、ユーザから音声やリモコン操作等により「6」が入力された場合は、当該ユーザが赤と茶とを区別して認識できると判定する。なお、視覚特性判定部13は、近視、及び弱視を検査する場合、検査画像のサイズを徐々に大きくして表示させ、ユーザからの回答が正解となった際の当該検査画像における文字のサイズを、ユーザが認識できる文字のサイズであると判定してもよい。この場合、視覚特性判定部13は、例えば、図5の検査画像に対して正解である「6」が入力されなかった場合、当該検査画像の表示サイズを一定程度(例えば、10%)ずつ大きくして表示させ、正解である「6」が入力された際の「6」の大きさを、ユーザが認識できる文字のサイズであると判定する。
図6は、実施形態に係る、所定のユーザに対する色覚に関する視覚特性を示す情報の一例について説明する図である。図6の例は、所定のユーザの視覚特性の一例を示す情報であり、当該所定のユーザが識別可能な色の組み合わせの情報を含むものである。図6の例では、当該所定のユーザが、色A(例えば、赤)と色1(例えば、茶色)とを識別できることが○で示されている。また、当該所定のユーザが、色C(例えば、オレンジ色)と色1とを識別できないことが×で示されている。
≪視覚特性に応じた調整処理≫
図7は、実施形態に係る視覚特性に応じた調整処理の一例を示すフローチャートである。図8は、実施形態に係る視覚特性に応じた調整処理の一例について説明する図である。
図7、及び図8を参照し、図3のステップS6の、調整部16による感覚特性情報111に登録されている視覚特性を示す情報に基づいて、画像を調整する処理について説明する。
ステップS101において、調整部16は、取得部15により取得された画像における所定の種別のオブジェクトを検出する。ここで、調整部16は、例えば、周知の動き検出処理等により、当該画像における文字(情景文字)、及び背景に対して動く物体を検出してもよい。情景文字の検出には、例えば、特開2017-211976に開示される画像処理装置を用いることができる。調整部16は、文字として、例えば、当該画像中の字幕(テロップ)の文字、及び当該画像中の被写体である看板等における文字等を検出する。また、調整部16は、背景に対して動く物体として、例えば、スポーツ競技の映像におけるボール等を検出する。
なお、ステップS101において、調整部16が所定の種別のオブジェクトが複数検出された場合は、以下の処理において、検出された各オブジェクトに対してそれぞれ実行されてもよい。
続いて、ステップS102において、調整部16は、図6の色覚に関する視覚特性を示す情報を参照し、所定のユーザが、当該オブジェクトの色と、当該オブジェクトの背景の色とを識別できるか否かを判定する。
所定のユーザが、当該オブジェクトの色と、当該オブジェクトの背景の色とを識別できる場合(ステップS102でYES)、処理を終了する。
所定のユーザが、当該オブジェクトの色と、当該オブジェクトの背景の色とを識別できない場合(ステップS102でNO)、ステップS103において、調整部16は、当該オブジェクトの色と、当該オブジェクトの背景の色との少なくとも一方の色を変更し、処理を終了する。ここで、調整部16は、例えば、図6の色覚に関する視覚特性を示す情報において、背景の色に対して、当該所定のユーザが識別可能な色のうち、当該オブジェクトの色に近い色を決定する。そして、調整部16は、テロップの文字の色を、決定した色に変換した画像のデータを生成する。これにより、当該所定のユーザに対して、背景の印象を変更せずに、当該文字を認識させることができる。
例えば、テロップの背景の色が「薄い青」であり、テロップの文字が「薄い緑」であり、図6の色覚に関する視覚特性を示す情報において、当該所定のユーザが、「薄い青」と「薄い緑」とを識別できないことが記憶されている場合であるとする。この場合、調整部16は、図6の色覚に関する視覚特性を示す情報において、当該所定のユーザが、背景の色である「薄い青」に対して識別可能な色のうち、テロップの文字の色である「薄い緑」に近い色を決定する。この場合、調整部16は、例えば、図8に示すように、国際照明委員会(CIE; Commission Internationale de l'Eclairage)が定める表色系であるxy色度図等において、当該所定のユーザがテロップの文字の色である「薄い緑」に対して識別可能な色のうち、当該「薄い緑」に最も近い色を決定してもよい。
例えば、図6の色覚に関する視覚特性を示す情報において、図8のxy色度図で示される「薄い青」801に対して当該所定のユーザが識別可能な色として、図8のxy色度図で示される「緑」802、「黄色」803、「紫」804等が記憶されているものとする。この場合、調整部16は、テロップの文字である「薄い緑」805から、「緑」802、「黄色」803、及び「紫」804等までの図8のxy色度図上の距離811乃至距離813等をそれぞれ算出する。そして、調整部16は、「緑」802、「黄色」803、及び「紫」804等のうち、テロップの文字である「薄い緑」805から図8のxy色度図上で最も距離が近い「緑」802を、背景の色に対して識別可能な色のうち当該オブジェクトの色に近い色として決定する。そして、調整部16は、取得部15により取得された画像におけるテロップの文字の内部(内側)の領域を「薄い緑」から「緑」に変換した画像のデータを生成する。
また、例えば、スポーツ中継の映像において、ボールの背景の色が、「明るい茶色」であり、当該ボールの色が、「暗い茶色」であり、図6の色覚に関する視覚特性を示す情報において、当該所定のユーザが、「明るい茶色」と「暗い茶色」とを識別できないことが記憶されている場合であるとする。この場合、調整部16は、図6の色覚に関する視覚特性を示す情報において、当該所定のユーザが背景の色である「明るい茶色」に対して識別可能な色のうち、当該ボールの色である「暗い茶色」に近い色を決定する。そして、調整部16は、当該ボールの色を、決定した色に変換した画像のデータを生成する。これにより、当該所定のユーザに対して、背景の印象を変更せずに、当該ボールを認識させることができる。
≪聴覚特性の判定処理≫
次に、図3のステップS4の、聴覚特性判定部14によるユーザの聴覚特性を判定する処理について説明する。
聴覚特性判定部14は、聴覚を検査するための検査音を出力装置20に出力させ、ユーザからのリモコン等の操作により、当該検査音に対する回答を取得する。聴覚特性判定部14は、例えば、複数の周波数の音について、それぞれ、音の音量を徐々に大きくし、ユーザが所定の操作を行った際の音量を、当該ユーザが当該音の周波数において認識できる(聞き取れる)音量であると判定する。
図9は、実施形態に係る、所定のユーザに対する周波数に関する聴覚特性を示す情報の一例について説明する図である。図9の例では、所定のユーザが、周波数が100Hzの音は10dB以上で認識できることが示されている。また、当該所定のユーザが、周波数が1kHzの音は20dB以上で認識できること等が示されている。
また、聴覚特性判定部14は、例えば、所定の音量(例えば、60dB)で所定の語句が発話された音声における背景の背景音の音量を徐々に大きくし、ユーザが当該所定の語句を聞き取れなくなった際の背景音の音量を、当該ユーザが発話を聞き取れなくなる背景音の音量であると判定する。なお、背景音とは、例えば、人の発話による音声以外の音のことである。
この場合、聴覚特性判定部14は、例えば、背景音の音量が42dBの際にリモコン等によりユーザから所定の操作を受け付けた場合、当該ユーザが、所定の音量の音声を、背景音(騒音)が42dB未満の場合は聞き取れ、42dB以上の場合は聞き取れないと判定する。そして、聴覚特性判定部14は、感覚特性情報111の聴覚特性を示す情報に、所定の操作を受け付けた際の、背景音の音量である42dBを、ユーザが発話を聞き取れなくなる背景音の音量として記憶しておく。
なお、聴覚特性判定部14は、予め定めた調整法を用いて、ユーザの聴覚特性を判定してもよい。この場合、聴覚特性判定部14は、検査音に対するユーザの回答に基づいて、次に表示させる検査音を決定し、当該検査音を出力装置20に出力させ、ユーザからのリモコン等の操作により、検査音に対する回答を取得する処理を繰り返してもよい。例えば、一の周波数において、小さい音量から検査し、「聞こえない」旨の回答をユーザから受け付けると、同じ周波数で少し音量を上げて検査し、「聞こえる」旨の回答をユーザから受け付けると、次の周波数に対する検査を行うようにしてもよい。
≪聴覚特性に応じた調整処理≫
次に、図10乃至図11を参照し、図3のステップS7の、調整部16による感覚特性情報111に登録されている聴覚特性を示す情報に基づいて、画像を調整する処理について説明する。図10は、実施形態に係る聴覚特性に応じた調整処理の一例を示すフローチャートである。図11は、実施形態に係る、所定のユーザに対する周波数に関する聴覚特性を示す情報の一例について説明する図である。図12は、実施形態に係る聴覚特性に応じた調整処理の一例について説明する図である。
ステップS201において、調整部16は、感覚特性情報111の聴覚特性を示す情報に記憶されている、図9の周波数に関する聴覚特性を示す情報に基づいて、取得部15により取得された音における各周波数の音量を調整する。これにより、例えば、所定の周波数帯域が聞こえ難いユーザに対して、当該所定の周波数帯域の音量を大きくして出力装置20に出力させることができる。
ここで、調整部16は、例えば、取得部15により取得された音の各周波数の音量を、図9の周波数に関する聴覚特性を示す情報に基づいて、各周波数の音に対してユーザが認識できる音量以上に調整する。図11の例では、図9の周波数に関する聴覚特性を示す情報に含まれる各周波数に対するユーザが認識できる音量が、横軸を音の各周波数の対数とし、縦軸をユーザが認識できる音量とした座標系における点1101乃至点1104として示されている。また、図11の例では、調整部16により算出された、点1101乃至点1104を通る滑らかな曲線(スプライン曲線)1110が示されている。
調整部16は、図12の曲線1201に示すように、図11の曲線1110において、縦軸の値が所定値(例えば、20dB)以下となる周波数に対する倍率を1とする。また、図11の曲線1110において、縦軸の値が当該所定値を超える周波数に対する倍率を、曲線1110の縦軸の値を、当該所定値で除算した値とする。図11及び図12に示すように、例えば、10kHzの周波数に対する曲線1110の縦軸の値が40dBの場合、10kHzの周波数に対する倍率は2(=40dB/20dB)となる。
次に、調整部16は、例えば、取得部15により取得された音の各周波数に対する音量を算出する。そして、調整部16は、例えば、一の周波数に対する音量が、所定の閾値(例えば、20dB)以上であり、当該一の周波数に対する曲線1010上の音量より小さい場合、図12に示す曲線1201に基づいて、当該一の周波数に対する音量を、当該一の周波数に対する曲線1010上の音量以上に変更する。この場合、調整部16は、例えば、取得部15により取得された音の10kHzの周波数に対する音量が20dBである場合、当該音量に、図12に示す曲線1201の10kHzの周波数に対する倍率である「2」を乗算し、40dBに変更する。また、調整部16は、例えば、取得部15により取得された音の10kHzの周波数に対する音量が30dBである場合、当該音量を、同様に2倍に変更し、60dBに変更する。これにより、例えば、所定の周波数帯域が聞こえ難いユーザに対して、テレビ等の音声を、通常のユーザが感じる音量と同様の音量で感じられるようにすることができる。
続いて、ステップS202において、調整部16は、感覚特性情報111の聴覚特性を示す情報に記憶されている、ユーザが発話を聞き取れなくなる背景音の音量に基づいて、取得部15により取得された音における、背景音の音量、及び音声の音量の少なくとも一方を調整する。これにより、例えば、背景音と人の音声とを判別し難いユーザに対して、背景音の音量を小さくして、または人の音声の音量を大きくして出力装置20に出力させることができる。ここで、調整部16は、例えば、取得部15により取得された音に含まれる背景音の音量を、ユーザが所定の音量の音声を認識できない背景音の音量未満に調整する。
まず、調整部16は、取得部15により取得された音における音声の音量を算出する。この場合、調整部16は、例えば、番組の音声信号と背景音信号とが混合された信号から背景音信号の大きさを調整する特許第6313619号公報における音声処理装置などを用いて当該音に含まれる音声を抽出し、抽出した音声の音量を判定してもよいし、当該音に含まれる人間音声の特徴量を算出し、音声を検出してもよい。
そして、調整部16は、取得部15により取得された音における音声の音量が所定の音量(例えば、60dB)以上であり、かつ、当該音における背景音が、感覚特性情報111の聴覚特性を示す情報に記憶されている、ユーザが発話を聞き取れなくなる背景音の音量以上である場合、当該音における背景音を、ユーザが発話を聞き取れなくなる背景音の音量未満に変更する。この場合、調整部16は、例えば、AI等を用いて当該音に含まれる音声と、背景音とを分離し、当該背景音を、ユーザが発話を聞き取れなくなる背景音の音量未満に変更してもよい。または、調整部16は、例えば、当該音に含まれる人間の声の周波数帯域以外の周波数の音量を、ユーザが発話を聞き取れなくなる背景音の音量未満に変更してもよい。
≪触覚特性の判定処理≫
触覚情報は、触覚提示装置20-2により番組コンテンツ(放送番組)と連動して提示されるため、聴覚特性判定部14が、聴覚を検査するための検査音を出力装置20に出力させると同時に、触覚提示装置20-2にも触覚情報をユーザに提示し、ユーザからのリモコン等の操作により、当該触覚情報に対する回答を取得する。触覚特性判定部(図示せず)は、例えば、ピンディスプレイのピンの出具合(高さ)を徐々に大きくし、ユーザが所定の操作を行った際の出具合(高さ)を、当該ユーザがピンが出たと認識可能な高さと判定し、感覚特性情報111の当該ユーザに対応付けられた触覚特性を示す情報に記憶する。
<情報処理装置のハードウェア構成>
上述した情報処理装置10の各部は、情報処理装置10にインストールした1以上のプログラムが、情報処理装置10のCPUに実行させることより実現することができる。
情報処理装置10は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)等の揮発性の記憶媒体、ROM(Read Only Memory)等の不揮発性の記憶媒体、マウスやキーボード、ポインティングデバイス等の入力装置、画像、データを表示する表示部、並びに外部と通信するためのインターフェースを備えたコンピュータによって構成することができる。
したがって、情報処理装置10が有する各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現可能となる。また、これらのプログラムは、磁気ディスク(フロッピィーディスク、ハードディスク等)、光ディスク(CD-ROM、DVD等)、半導体メモリ等の記録媒体に格納して頒布することもできる。
<変形例>
情報処理装置10の各機能部は、例えば複数のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。また、情報処理装置10、及び出力装置20を、例えば、同一の筐体内に収容し、一体の装置として構成してもよい。
情報処理装置10の各機能部における処理の少なくとも一部を、出力装置20にて実行させるようにしてもよい。この場合、例えば、調整部16を、出力装置20に設けた構成としてもよい。この場合、情報処理装置10の出力制御部17は、例えば、視覚特性判定部13、及び聴覚特性判定部14により判定した情報を、出力装置20にコマンドとして送信し、出力装置20の調整部16が、受信した情報に基づいて、画像、及び音を調整するようにしてもよい。
なお、視覚特性判定部13、及び聴覚特性判定部14は、「判定部」の一例である。
以上本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。また、上述した各実施例の一部又は全部を組み合わせることも可能である。
1 情報処理システム
10 情報処理装置
11 記憶部
111 感覚特性情報
12 ユーザ認識部
13 視覚特性判定部
14 聴覚特性判定部
15 取得部
16 調整部
17 出力制御部
20 出力装置
30 コンテンツ提供装置

Claims (5)

  1. 入力されたコンテンツの画像及び音の少なくとも一方を、視覚または聴覚に障害をもつユーザに適合するように変換し、提示する情報処理装置であって、
    前記ユーザを認識するユーザ認識部と、
    前記コンテンツに含まれる画像、及び音の少なくとも一方を取得する取得部と、
    前記ユーザ認識部により認識された前記ユーザの情報が登録されていない場合、前記ユーザの視覚特性、または聴覚特性を判定する判定部と、
    前記判定部により判定されたユーザ毎の視覚特性を示す情報、または聴覚特性を示す情報を含む感覚特性情報を記憶する記憶部と、
    前記ユーザ認識部により認識された前記ユーザに対する前記感覚特性情報に基づいて、前記取得部により取得された画像、及び音の少なくとも一方を前記ユーザに適合するように調整する調整部と、を有し、
    前記ユーザ認識部は、
    前記ユーザが日本語または手話CGのいずれかを選択するように提示し、
    当該ユーザ認識部にて認識された前記ユーザに対する前記感覚特性情報に基づいて出力装置を選択し、選択した出力装置に、前記調整部により調整された日本語の字幕または手話CGを出力する出力制御部を有する情報処理装置。
  2. 前記取得部は、前記コンテンツに含まれる触覚提示用のデータを取得し、
    前記出力制御部は、前記ユーザ認識部にて認識された前記ユーザに対する前記感覚特性情報に基づいて、テレビジョン受像機、ディスプレイ、スピーカー、タブレット端末、触覚提示装置、字幕表示装置、及び手話CG提示装置の少なくとも一つの出力装置を選択し、選択した出力装置に、前記調整部により調整されたコンテンツ、及び前記触覚提示用のデータの少なくとも一つを出力する、
    請求項に記載の情報処理装置。
  3. 入力されたコンテンツの画像及び音の少なくとも一方を、視覚または聴覚に障害をもつユーザに適合するように変換し、提示する情報処理装置であって、
    前記ユーザを認識するユーザ認識部と、
    前記コンテンツに含まれる画像、及び音の少なくとも一方を取得する取得部と、
    前記ユーザ認識部により認識された前記ユーザの情報が登録されていない場合、前記ユーザの視覚特性、または聴覚特性を判定する判定部と、
    前記判定部により判定されたユーザ毎の視覚特性を示す情報、または聴覚特性を示す情報を含む感覚特性情報を記憶する記憶部と、
    前記ユーザ認識部により認識された前記ユーザに対する前記感覚特性情報に基づいて、前記取得部により取得された画像、及び音の少なくとも一方を前記ユーザに適合するように調整する調整部と、を有し、
    前記視覚特性は、前記ユーザが識別可能な色の組み合わせの情報を含み、
    前記調整部は、前記取得部により取得された画像に含まれる、文字、及び背景に対して動く物体の少なくとも一方を含む所定のオブジェクトの色を、前記ユーザが前記所定のオブジェクトの背景の色と識別可能な色に変更する情報処理装置。
  4. 前記調整部は、前記所定のオブジェクトの色を、前記ユーザが前記所定のオブジェクトの色と識別可能な色のうち、前記所定のオブジェクトの色に最も近い色に変更する、
    請求項に記載の情報処理装置。
  5. コンピュータを、請求項1乃至のいずれか一項に記載の情報処理装置として機能させるためのプログラム。
JP2018152468A 2018-08-13 2018-08-13 情報処理装置、及びプログラム Active JP7208740B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018152468A JP7208740B2 (ja) 2018-08-13 2018-08-13 情報処理装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018152468A JP7208740B2 (ja) 2018-08-13 2018-08-13 情報処理装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020028046A JP2020028046A (ja) 2020-02-20
JP7208740B2 true JP7208740B2 (ja) 2023-01-19

Family

ID=69620410

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018152468A Active JP7208740B2 (ja) 2018-08-13 2018-08-13 情報処理装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP7208740B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331164A (ja) 2000-05-23 2001-11-30 Information-Technology Promotion Agency Japan 視覚障害者を考慮した処理が可能な画像処理装置、記憶媒体、オブジェクトの画像診断方法およびデジタルカラーチャートファイル
JP2016071096A (ja) 2014-09-30 2016-05-09 株式会社第一興商 通信カラオケシステム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331164A (ja) 2000-05-23 2001-11-30 Information-Technology Promotion Agency Japan 視覚障害者を考慮した処理が可能な画像処理装置、記憶媒体、オブジェクトの画像診断方法およびデジタルカラーチャートファイル
JP2016071096A (ja) 2014-09-30 2016-05-09 株式会社第一興商 通信カラオケシステム

Also Published As

Publication number Publication date
JP2020028046A (ja) 2020-02-20

Similar Documents

Publication Publication Date Title
JP6143975B1 (ja) 画像の取り込みを支援するためにハプティックフィードバックを提供するためのシステムおよび方法
JP6819672B2 (ja) 情報処理装置、情報処理方法、及びプログラム
EP2925005A1 (en) Display apparatus and user interaction method thereof
TW201820315A (zh) 改良型音訊耳機裝置及其聲音播放方法、電腦程式
JP2018124604A (ja) 接客支援システム、接客支援装置及び接客支援方法
KR102193029B1 (ko) 디스플레이 장치 및 그의 화상 통화 수행 방법
KR20190084809A (ko) 전자 장치 및 전자 장치에 의한 자막 표현 방법
JP7211367B2 (ja) 情報処理装置、情報処理方法、およびプログラム
EP2521353A1 (en) Image processing device, image processing method, and image processing program
CN111179923B (zh) 一种基于可穿戴设备的音频播放方法及可穿戴设备
US20230316685A1 (en) Information processing apparatus, information processing method, and program
WO2017104089A1 (ja) ヘッドマウントディスプレイ連携表示システム、及び、表示装置とヘッドマウントディスプレイとを含むシステム、及び、その表示装置
CN112601120B (zh) 字幕显示方法及装置
JP7208740B2 (ja) 情報処理装置、及びプログラム
JP2010124391A (ja) 情報処理装置、機能設定方法及び機能設定プログラム
WO2010140254A1 (ja) 映像音声出力装置及び音声定位方法
US20220353457A1 (en) Information processing apparatus, information processing method, and program
KR102178175B1 (ko) 사용자 단말 및 그 제어방법
KR102092920B1 (ko) 사용자 인식을 통한 개인별 콘텐츠를 제공하는 장치 및 방법
EP2733954A1 (en) Display apparatus and method for delivering message thereof
KR101869002B1 (ko) 개인방송에서의 휴대용 단말기와 연동되는 실감 오디오 제공 방법
JP7114564B2 (ja) ヘッドマウントディスプレイ装置
US11134358B2 (en) Audio adjusting method and audio adjusting device
US20230101693A1 (en) Sound processing apparatus, sound processing system, sound processing method, and non-transitory computer readable medium storing program
JP6923029B1 (ja) 表示装置、表示システム、コンピュータプログラム及び表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230106

R150 Certificate of patent or registration of utility model

Ref document number: 7208740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150