JP2020201868A - 表示装置、表示制御方法および表示制御プログラム - Google Patents
表示装置、表示制御方法および表示制御プログラム Download PDFInfo
- Publication number
- JP2020201868A JP2020201868A JP2019110248A JP2019110248A JP2020201868A JP 2020201868 A JP2020201868 A JP 2020201868A JP 2019110248 A JP2019110248 A JP 2019110248A JP 2019110248 A JP2019110248 A JP 2019110248A JP 2020201868 A JP2020201868 A JP 2020201868A
- Authority
- JP
- Japan
- Prior art keywords
- person
- area
- display
- line
- language
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】 コンテンツが表示された表示面を見る人物に適した言語の種類でコンテンツを自動的に表示する。【解決手段】 表示装置は、文字情報を含むコンテンツを表示する表示部と、人物の視線を検出する視線検出部71と、検出された視線に基づいて表示部の表示面中の注目領域を特定する領域特定部61と、電子機器に関連付けられた言語の種類を取得する言語種類取得部77と、コンテンツのうち注目領域に表示された第1文字情報を電子機器から取得された言語の種類で表される第2文字情報に変換する変換部65と、第2文字情報を注目領域に表示する対応言語表示部79と、を備える。【選択図】 図3
Description
この発明は、表示装置、表示制御方法および表示制御プログラムに関し、特に、複数の人が閲覧可能な表示装置、その表示装置で実行される表示制御方法およびその表示制御方法を表示装置に実行させる表示制御プログラムに関する。
近年、空港ターミナル等に設置される表示装置は、多国籍の人が閲覧するために、複数の言語で情報を表示する必要がある。例えば、特許第4085120号には、大型の画面表示装置と、画面表示装置に情報を所定の標準言語で表示する情報表示部と、利用者の希望する言語情報を含む利用者情報を入力する利用者情報入力部と、利用者情報入力部で入力した利用者希望言語が標準言語と異なる場合に、画面表示装置の標準言語の全部または一部を利用者の希望言語に切り替えて表示する言語切替表示部と、を備え、情報表示部は、全ての利用者に共通なパブリック領域と各利用者に依存した複数の個別領域で構成される案内情報を標準言語で表示し、言語切替表示部は、入力された利用者希望言語が標準言語と異なる場合に、パブリック領域を標準言語と利用者希望言語により時分割または空間分割で表示し、個別領域を標準言語から利用者希望言語に切り替えて表示することを特徴とする情報表示システムが記載されている。
しかしながら、特許第4085120号に記載の情報表示システムは、ユーザーが保有する例えば非接触型のICカードから読み取ったユーザ情報に基づいて利用者希望言語を取得するものである。このため、画面表示装置を閲覧しようとするユーザーが、情報表示システムに利用者希望言語を入力しなければならない。このため、操作が煩雑であるといった問題がある。
この発明は上述した問題点を解決するためになされたもので、この発明の目的の一つは、コンテンツが表示された表示面を見る人物に適した言語の種類でコンテンツを自動的に表示することが可能な表示装置を提供することである。
この発明の他の目的は、コンテンツが表示された表示面を見る人物に適した言語の種類でコンテンツを自動的に表示することが可能な表示制御方法を提供することである。
この発明のさらに他の目的は、コンテンツが表示された表示面を見る人物に適した言語の種類でコンテンツを自動的に表示することが可能な表示制御プログラムを提供することである。
この発明は上述した問題点を解決するためになされたもので、この発明のある局面によれば、表示装置は、文字情報を含むコンテンツを表示する表示手段と、人物の視線を検出する視線検出手段と、検出された視線に基づいて表示手段の表示面中の注目領域を特定する領域特定手段と、電子機器に関連付けられた言語の種類を取得する言語種類取得手段と、コンテンツのうち注目領域に表示された第1文字情報を言語種類取得手段により取得された言語の種類で表される第2文字情報に変換する変換手段と、第2文字情報を注目領域に表示する対応言語表示手段と、を備える。
この局面に従えば、人物の視線が検出され、視線に基づいて表示面中の注目領域が特定され、電子機器に関連付けられた言語の種類が取得され、コンテンツのうち注目領域に表示された第1文字情報が取得された言語の種類で表される第2文字情報に変換され、第2文字情報が注目領域に表示される。電子機器に関連付けられた言語の種類の第2文字情報が注目領域に表示されるので、表示面を見る人物に言語の種類を選択する操作をさせることなく、その人物が見ている部分の文字情報をその人物が携帯する電子機器に設定された言語の種類で表示することができる。その結果、コンテンツが表示された表示面を見る人物に適した言語の種類でコンテンツを自動的に表示することが可能な表示装置を提供することができる。
好ましくは、領域特定手段は、表示手段の表示面と視線とが交わる視線位置を含む領域を注目領域に決定する。
この局面に従えば、コンテンツ中で人物が見ている部分を容易に特定することができる。
好ましくは、領域特定手段は、視線位置が時間の経過に伴って変動する場合、注目領域を視線が変動する方向に拡張する。
この局面に従えば、コンテンツを見る人物の視線の変動に従って注目領域が拡張するので、その人物が次に見ようとしている領域を予測することができる。
好ましくは、人物を撮像して画像を出力する撮像手段と、撮像手段が出力する画像に基づいて人物の位置を検出する人物位置検出手段と、電子機器と通信する通信手段と、通信手段が電子機器から受信する信号に基づいて電子機器の位置を検出する装置位置検出手段と、人物の位置と電子機器の位置とに基づいて、人物と電子機器とを関連付ける関連付手段と、をさらに備える。
この局面に従えば、人物が携帯する電子機器を特定することができる。
好ましくは、視線検出手段は、撮像手段が出力する画像を解析することにより視線を検出する。
この局面に従えば、人物の視線を容易に検出することができる。
好ましくは、関連付手段は、人物が複数の場合、複数の人物それぞれを複数の電子機器のいずれかに関連付け、領域特定手段は、複数の人物ごとに、人物に対応する注目領域を特定し、変換手段は、複数の人物ごとに、コンテンツのうち人物に対応する注目領域に表示された第1文字情報を人物に関連付けられた電子機器に関連付けられた言語の種類で表される第2文字情報に変換し、対応言語表示手段は、複数の人物ごとに、人物に対応する注目領域に人物に対応する第2文字情報を表示する。
この局面に従えば、コンテンツを複数の人物が同時に見ている場合に、複数の人物それぞれに適した言語の種類でコンテンツを自動的に表示することができる。
好ましくは、領域特定手段により複数の人物にそれぞれ対応して同一の注目領域が特定される場合であって、関連付手段により注目領域に複数の言語の種類が対応付けられる場合、対応言語表示手段は、注目領域に対応する第1文字情報から複数の言語の種類に変換された複数の第2文字情報を注目領域に時分割で表示するかまたは並べて表示する。
この局面に従えば、複数の人物がコンテンツの同じ部分を見ている場合であっても複数の人物それぞれに適した言語の種類でコンテンツを自動的に表示することができる。
この発明の他の局面によれば、表示制御方法は、文字情報を含むコンテンツを表示する表示ステップと、人物の視線を検出する視線検出ステップと、検出された視線に基づいて表示されたコンテンツ中の注目領域を特定する領域特定ステップと、人物が携帯する電子機器に関連付けられた言語の種類を取得する言語種類取得ステップと、コンテンツに含まれる注目領域に対応する第1文字情報を取得された言語の種類で表される第2文字情報に変換する変換ステップと、第2文字情報を注目領域に表示する対応言語表示ステップと、を表示装置に実行させる。
この局面に従えば、コンテンツが表示された表示面を見る人物に適した言語の種類でコンテンツを自動的に表示することが可能な表示制御方法を提供することができる。
この発明の他の局面によれば、表示制御プログラムは、文字情報を含むコンテンツを表示する表示ステップと、人物の視線を検出する視線検出ステップと、検出された視線に基づいて表示されたコンテンツ中の注目領域を特定する領域特定ステップと、人物が携帯する電子機器に関連付けられた言語の種類を取得する言語種類取得ステップと、コンテンツに含まれる注目領域に対応する第1文字情報を取得された言語の種類で表される第2文字情報に変換する変換ステップと、第2文字情報を注目領域に表示する対応言語表示ステップと、をコンピューターに実行させる。
この局面に従えば、コンテンツが表示された表示面を見る人物に適した言語の種類でコンテンツを自動的に表示することが可能な表示制御プログラムを提供することができる。
以下、本発明の実施の形態について図面を参照して説明する。以下の説明では同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがってそれらについての詳細な説明は繰返さない。
図1は、本発明の実施の形態の1つにおける表示装置の外観を示す斜視図である。図2は、表示装置のハードウェア構成の一例を示す図である。図1および図2を参照して、表示装置100は、表示装置100の全体を制御するための中央演算処理装置(CPU)101と、CPU101が実行するためのプログラムを記憶するROM(Read Only Memory)102と、CPU101の作業領域として使用されるRAM(Random Access Memory)103と、データを不揮発的に記憶するEPROM(Electrically Erasable and Programmable ROM)104と、通信部105と、情報を表示する表示部106と、ユーザーの操作の入力を受け付ける操作部107と、第1カメラ108と、第2カメラ109と、外部記憶装置110と、表示部106を支える基台131と、を含む。CPU101、ROM102、RAM103、EPROM104、通信部105、表示部106、操作部107、第1カメラ108、第2カメラ109および外部記憶装置110それぞれは、バス112に接続される。
表示部106は、LCD(Liquid Crystal Display)、有機ELD(Electro−Luminescence Display)、プラズマディスプレイパネル、電子ペーパー等の表示装置である。表示部106は、CPU101により制御され、画像を表示する。
基台131は、底板133と、底板から垂直に伸びる支柱132と、を含む。表示部106は、背面を支柱132の上方部分に固定され、表示部106の表示面は、垂直方向と略平行となる。表示部106が支柱132に固定される位置を変更することにより、表示部106の表示面の地上からの高さを変更可能である。表示部106の表示面の地上からの高さは、直立した人の目の高さ以上となるのが好ましい。
表示部106の上部の両端に第1カメラ108および第2カメラ109がそれぞれ配置される。第1カメラ108および第2カメラ109それぞれは、レンズおよび光電変換素子を備え、レンズで集光した光を光電変換素子に結像し、光電変換素子は受光した光を光電変換して画像データを出力する。光電変換素子は、CMOS(Complementary Metal Oxide Semiconductor)センサー、CCD(Charge Coupled Device)センサー等である。
第1カメラ108および第2カメラ109それぞれは、表示部106の表示面を視認可能な者を撮像することが可能な位置に配置される。例えば、第1カメラ108および第2カメラ109それぞれのレンズの光軸は、表示部106の表示面側を向ように第1カメラ108および第2カメラ109が配置される。また、第1カメラ108の撮像領域と第2カメラ109の撮像領域とが一部で重なるように、第1カメラ108および第2カメラ109が配置される。また、第1カメラ108と第2カメラ109との間の距離は予め定められている。
なお、第1カメラ108および第2カメラ109それぞれの光軸および画角を変更可能にするようにしてもよい。また、第1カメラ108および第2カメラ109それぞれが表示部106の上方に配置されるようにしたが、表示部106の下方または表示部106の側方に配置されてもよい。
ROM102は、CPU101が実行するプログラム、またはそのプログラムを実行するために必要なデータを記憶する。RAM103は、CPU101がプログラムを実行する際の作業領域として用いられる。
通信部105は、近距離通信機能を有する。例えば、通信部105は、Bluetooth(登録商標)規格のGAP(Generic Access Profile)等に基づき、無線により通信する。通信部105は、4つのアンテナ121A,121B,121C,121Dを有する。4つのアンテナ121A,121B,121C,121Dそれぞれは、配置される位置が定められている。通信部105は、4つのアンテナ121A,121B,121C,121Dそれぞれから電波を送信し、4つのアンテナ121A,121B,121C,121Dそれぞれで受信される電波を検出する。通信部105は、通信相手の装置と4つのアンテナ121A,121B,121C,121Dを用いて通信する。通信部105は、4つのアンテナ121A,121B,121C,121Dから同時に電波を送信し、4つのアンテナ121A,121B,121C,121Dそれぞれで受信される電波を検出する。なお、本実施の形態においては、通信部105が4つのアンテナ121A,121B,121C,121Dを有する場合を例に説明するが、通信部105は、2以上のアンテナを有すればよい。
外部記憶装置110には、CD−ROM111が装着される。CPU101は、外部記憶装置110を介してCD−ROM111にアクセス可能である。CPU101は、外部記憶装置110に装着されたCD−ROM111に記録されたプログラムをRAM103にロードして実行することができる。なお、CPU101が実行するプログラムは、CD−ROM111に記録されたプログラムに限られず、EPROM104に記憶されたプログラムをRAM103にロードして実行してもよい。この場合、通信部105を介して接続された他のコンピューターが、EPROM104に記憶されたプログラムを書き換えてもよいし、新たなプログラムを追加して書き込んでもよい。さらに、表示装置100が、通信部105を介して接続された他のコンピューターからプログラムをダウンロードして、そのプログラムをEPROM104に記憶してもよい。ここでいうプログラムは、CPU101が直接実行可能なプログラムだけでなく、ソースプログラム、圧縮処理されたプログラムまたは暗号化されたプログラム等を含む。
図3は、本実施の形態における表示装置が備えるCPUが有する機能の一例を示す図である。図3に示す機能は、表示装置100が備えるCPU101が、ROM102、RAM103、EPROM104またはCD−ROM111に記憶された表示制御プログラムを実行することにより、CPU101により実現される機能である。
図3を参照して、CPU101は、撮像制御部51と、通信制御部53と、コンテンツ取得部55と、表示制御部57、第1文字情報決定部59と、領域特定部61と、関連付部63と、変換部65と、を含む。
撮像制御部51は、第1カメラ108および第2カメラ109を制御する。撮像制御部51は、第1カメラ108が被写体を撮像して出力する画像データを第1画像データとして取得し、第2カメラ109が被写体を撮像して出力する画像データを第2画像データとして取得する。撮像制御部51は、人物テーブルを生成し、人物テーブルを領域特定部61および関連付部63に出力する。人物テーブルは、人物ごとにその人物の位置と視線位置とを関連付ける。
撮像制御部51は、視線検出部71と、人物位置検出部73と、とを含む。人物位置検出部73は、表示装置100の近傍に位置する人物の位置を検出する。ここでは、人物位置検出部73は、表示装置100の表示面の中心に対する人物の相対位置を検出する。人物位置検出部73は、第1画像データおよび第2画像データそれぞれから人物が表された部分を抽出し、第1画像データおよび第2画像データそれぞれにおける人物が表された部分を用いて三角測量で人物の位置を検出する。2つの画像から三角測量で対象物までの距離を検出する技術は周知なのでここでは説明は繰り返されない。人物位置検出部73は、複数の人物を検出する場合、複数の人物ごとに位置を検出する。人物位置検出部73は、検出された人物に対して人物IDを付与し、人物IDと位置とを関連付けた人物レコードを生成し、人物テーブルに追加する。人物テーブルは、EPROM104に記憶される。また、人物位置検出部73は、第1画像データにおいて人物が表された部分を示す部分情報とその人物に対して付与された人物IDとの組を視線検出部71に出力する。
視線検出部71は、表示装置100の近傍に位置する人物の視線を検出し、視線が表示部106の表示面と交わる視線位置を検出する。視線検出部71は、第1画像データに基づいて、人物の視線を検出する。画像から視線を検出する技術は周知なのでここでは説明を繰り返さない。視線検出部71は、人物位置検出部73から部分情報と人物IDとの組が入力される。視線検出部71は、第1画像データにおいて部分情報により特定される部分に表された人物の視線を検出する。視線検出部71は、人物IDで特定される人物の位置と視線とに基づいて、視線が表示部106の表示面と交わる位置を視線位置に決定する。人物の位置は、人物レコードにおいて人物IDと関連付けられる。視線検出部71は、検出された視線位置を人物に関連付ける。具体的には、視線検出部71は、人物テーブルから人物IDが関連付けられた人物レコードを特定し、その人物レコードに視線位置情報を追加する。したがって、視線検出部71は、人物位置検出部73により複数の人物が検出される場合、複数の人物ごとに視線を検出し、人物と視線位置とを関連付ける。
なお、ここでは、視線検出部71が第1画像データを用いて視線を検出する場合を例に説明したが、第2画像データから視線を検出してもよいし、第1画像データおよび第2画像データそれぞれから視線を検出してもよい。
視線検出部71は、視線を検出した後に視線が変動する場合、変動後の視線に基づいて視線位置を決定し、人物に関連付ける。具体的には、視線検出部71は、人物テーブルから人物IDが関連付けられた人物レコードを特定し、その人物レコードに変動後の視線に基づいて決定された視線位置を示す視線位置情報を追加する。
図4は、人物の位置および視線位置の一例を示す図である。図4を参照して、表示部106の上部両端に配置された第1カメラ108および第2カメラ109で3人の人物を検出する場合を例に示している。ここでは、3人の人物の人物IDをそれぞれH1、H2,H3としている。人物IDがH1の人物が位置(Hx1,Hy1)に位置し、人物IDがH2の人物が位置(Hx2,Hy2)に位置し、人物IDがH3の人物が位置(Hx3,Hy3)に位置する場合を示している。また、人物IDがH1の人物の視線から定まる視線位置をV1、人物IDがH2の人物の視線から定める視線位置をV2としている。なお、人物IDがH3の人物の視線が表示部106の表示面と交わらない場合を例に示している。
図5は、人物テーブルの一例を示す図である。図5を参照して、人物テーブルは、3つの人物レコードを含む。人物レコードは、人物IDの項目と、位置の項目と、視線位置の項目とを、含む。したがって、人物IDにH1が設定された人物レコードは、位置の項目に(Hx1,Hy1)が設定され、視線位置の項目にV1が設定される。人物IDの項目にH2が設定された人物レコードは、位置の項目に(Hx2,Hy2)が設定され、視線位置の項目にV2が設定される。人物IDにH3が設定された人物レコードは、位置の項目に(Hx3,Hy3)が設定され、視線位置の項目に何も設定されていない。
図3に戻って、通信制御部53は、通信部105を制御し、表示装置100の近傍に位置する電子機器と通信する。電子機器は、例えば、人物により携帯されるスマートフォン等の携帯情報装置である。また、電子機器は、人物に割り当てられたICカードであってもよい。通信制御部53は、装置テーブルを生成し、装置テーブルを関連付部63に出力する。装置テーブルは、電子機器ごとにその電子機器の位置と、その電子機器に設定された言語の種類とを関連付ける。
通信制御部53は、装置位置検出部75と、言語種類取得部77と、を含む。装置位置検出部75は、表示装置100の近傍に位置する電子機器の位置を検出する。通信部105が通信可能な範囲が制限される。このため、装置位置検出部75は、通信部105が通信可能な電子機器の位置を検出する。具体的には、装置位置検出部75は、4つのアンテナ121A,121B,121C,121Dそれぞれが受信する電波の強度に基づいて、4つのアンテナ121A,121B,121C,121Dそれぞれと電子機器との間の距離を決定する。なお、4つのアンテナ121A,121B,121C,121Dそれぞれが同一の電波を受信するタイミングの違いに基づいて、4つのアンテナ121A,121B,121C,121Dそれぞれと電子機器との間の距離を決定してもよい。そして、通信制御部53は、4つのアンテナ121A,121B,121C,121Dそれぞれと電子機器との間の距離に基づいて、電子機器の位置を検出する。例えば、アンテナ121Aが受信する電波の強度からアンテナ121Aと電子機器との間の距離を決定し、アンテナ121Bが受信する電波の強度からアンテナ121Bと電子機器との間の距離を決定する。装置位置検出部75は、アンテナ121Aとアンテナ121Bとの位置が予め定められているので、表示装置100の表示部106の表示面の中心に対する電子機器の相対位置を決定する。なお、4つのアンテナ121A,121B,121C,121Dのうち少なくとも2つを用いて電子機器の相対位置が決定される。
装置位置検出部75は、4つのアンテナ121A,121B,121C,121Dそれぞれと電子機器との間の距離を求め、電子機器の位置を検出する。なお、装置位置検出部75は、4つのアンテナ121A,121B,121C,121Dのうち少なくとも2つを用いて、電子機器の位置を検出してもよい。装置位置検出部75は、通信部105が複数の電子機器と通信可能な場合、複数の電子機器それぞれの位置を検出する。装置位置検出部75は、電子機器を識別するための装置IDと、位置を示す位置情報とを関連付ける装置レコードを生成し、装置テーブルに追加する。装置テーブルは、EPROM104に記憶される。
言語種類取得部77は、通信部105を制御して、電子機器と通信し、電子機器に設定されている言語の種類を示す言語情報を取得する。言語種類取得部77は、電子機器に言語情報の送信を要求し、電子機器から送信される言語情報を受信する。言語種類取得部77は、電子機器の装置IDと言語とを関連付ける。具体的には、言語種類取得部77は、装置テーブルから装置IDが関連付けられた装置レコードを特定し、その装置レコードに言語情報を追加する。言語種類取得部77は、通信部105が複数の電子機器と通信可能な場合、複数の電子機器それぞれから言語情報を取得し、装置レコードに言語情報を追加する。
関連付部63は、人物の位置と電子機器の位置とに基づいて、人物と電子機器とを関連付ける。関連付部63は、人物テーブルから人物の位置を取得し、装置テーブルから電子機器の位置を取得する。関連付部63は、人物と電子機器との間の距離が予め定められた閾値以下の距離の人物と電子機器とを関連付ける。具体的には、人物の位置に最も近い電子機器を決定し、人物と電子機器との間の距離が閾値以下ならば関連レコードを生成し、関連テーブルに追加する。関連テーブルは、EPROM104に記憶される。関連レコードは、人物と電子機器と視線位置と言語の種類とを関連付ける。具体的には、関連レコードは、人物ID、装置ID、視線位置情報および言語情報を含む。関連付部63は、人物IDが設定された人物レコードから視線位置情報を決定し、装置IDが設定された装置レコードから言語情報を決定する。
図6は、電子機器が配置される位置の一例を示す図である。図6を参照して、表示部106に対して予め定められた位置に4つのアンテナ121A,121B,121C,121Dが配置される。ここでは、装置IDがM1の電子機器と、装置IDがM2の電子機器と、装置IDがH3の電子機器がそれぞれ位置する場合を例に示している。
図7は、装置テーブルの一例を示す図である。図7を参照して、装置テーブルは、3つの装置レコードを含む。装置レコードは、装置IDの項目と、位置の項目と、言語の項目とを、含む。ここでは、装置IDにM1が設定された装置レコードは、位置の項目に(Mx1,My1)が設定され、言語の項目に英語が設定される。装置IDの項目にM2が設定された装置レコードは、位置の項目に(Mx2,My2)が設定され、言語の項目に韓国語が設定される。装置IDにM3が設定された人物レコードは、位置の項目に(Mx3,My3)が設定され、言語の項目に中国語が設定されている。
図8は、関連テーブルの一例を示す図である。ここでは、位置(Hx1,Hy1)と位置(Mx1,My1)とが閾値T以下で、位置(Hx2,Hy2)と位置(Mx2,My2)とが閾値T以下で、位置(Hx3,Hy3)と位置(Mx3,My3)とが閾値T以下の場合を例に示している。図8を参照して、関連テーブルは、3つの関連レコードを含む。関連レコードは、人物IDの項目と、視線位置の項目と、装置IDの項目と、言語の項目と、含む。ここでは、人物IDにH1が設定された関連レコードは、視線位置の項目にV1が設定され、装置IDの項目にM1が設定され、言語の項目に英語が設定される。人物IDにH2が設定された関連レコードは、視線位置の項目にV2が設定され、装置IDの項目にM2が設定され、言語の項目に韓国語が設定される。人物IDにH3が設定された関連レコードは、視線位置の項目に何も設定されず、装置IDの項目にM3が設定され、言語の項目に何も設定されない。
図3に戻って、コンテンツ取得部55は、文字で表された文字情報を含むコンテンツを取得する。例えば、コンテンツ取得部55は、EPROM104に記憶されたデータをコンテンツとして取得する。また、コンテンツ取得部55は、通信部105が外部のコンピューターから受信したデータをコンテンツとして取得してもよい。コンテンツ取得部55は、コンテンツを表示制御部57、第1文字情報決定部59および領域特定部61に出力する。
領域特定部61は、表示装置100が備える表示部106の表示面中で人物が注目している注目領域を特定する。具体的には、領域特定部61は、関連テーブルを用いて注目領域を特定する。領域特定部61は、関連レコードで定められる視線位置情報で特定される視線位置に基づいて注目領域を決定する。領域特定部61は、注目領域ごとに、注目領域と言語の種類とを関連付ける。具体的には、領域特定部61は、関連レコードごとに注目領域レコードを生成し、注目領域テーブルに追加する。注目領域テーブルは、EPROM104に記憶される。注目領域レコードは、注目領域と言語の種類とを関連付ける。注目領域レコードは、関連レコードから決定された注目領域を示す領域情報と、関連レコードに設定された言語情報と、を含む。
領域情報は、表示部106の表示面中で注目領域の位置を示す情報である。注目領域は、視点位置を含む領域である。注目領域は、表示部106に表示されるコンテンツに基づいて定めてもよい。例えば、コンテンツが複数の部分領域に分割される場合、領域特定部61は、複数の部分領域のうち視線位置を含む部分領域を注目領域に決定する。また、領域特定部61は、視線位置に表示されている文字を含み所定のまとまりのある文字列を囲む領域を注目領域に決定してもよい。また、領域特定部61は、視点位置から所定の範囲内の領域を注目領域に決定してもよい。
領域特定部61は、注目領域を決定した後に、関連レコードで定められる視線位置情報で特定される視線位置が変更される場合、視線位置が変動した方向を検出し、注目領域を視線位置が変更した方向に拡張する。例えば、領域特定部61は、視線位置が横方向に変動する場合、注目領域を左右に拡張する。また、領域特定部61は、視線位置が縦方向に変動する場合、注目領域を上下に拡張する。
なお、関連付部63が、関連レコードをそれが生成された日時とともに関連テーブルに追加してもよい。領域特定部61は、同じ人物IDおよび装置IDを含む複数の関連レコードが関連テーブルに記憶されている場合に、2つの視線位置情報に基づいて視線位置が変動する方向を検出する。また、関連付部63が関連レコードを関連テーブルに追加する際に視線位置の変動方向を検出し、関連レコードをその変動方向とともに関連テーブルに追加してもよい。この場合、関連付部63は、生成された関連レコードの人物IDおよび装置IDと同じ人物IDおよび装置IDを含む関連レコードが関連テーブルに存在する場合は、関連レコードを更新する。
第1文字情報決定部59は、注目領域テーブルを参照して、コンテンツのうちから注目領域に表示される文字列を第1文字情報に決定し、領域情報を変換部65に出力する。具体的には、第1文字情報決定部59は、注目領域テーブルのうちから順に注目領域レコードを処理対象に選択する。第1文字情報決定部59は、注目領域レコードに設定された領域情報を用いて注目領域を決定する。第1文字情報決定部59は、コンテンツに含まれる文字情報のうちで注目領域に表示される文字列を第1文字情報に決定する。第1文字情報決定部59は、注目領域レコードが複数の場合、複数の注目領域レコードごとに第1文字情報を決定する。第1文字情報決定部59は、第1文字情報と領域情報との組を変換部65に出力する。第1文字情報決定部59は、注目領域テーブルが複数の注目領域レコードを含む場合には、複数の注目領域レコードごとに第1文字情報を決定する。
変換部65は、第1文字情報を言語の種類が異なる第2文字情報に変換する。変換部65は、注目領域テーブルを参照して、第1文字情報が含まれる注目領域を示す領域情報が設定された注目領域レコードを特定する。変換部65は、注目領域レコードに設定された言語情報を取得する。変換部65は、注目領域レコードに設定された言語情報で特定される言語の種類が第1文字情報の言語の種類と異なる場合、第1文字情報を関連レコードに設定された言語情報で特定される言語の種類の第2文字情報に変換する。例えば、第1文字情報に対応して複数の言語の種類の第2文字情報を定めた変換テーブルが予め記憶されている場合は、変換部65はその変換テーブルを用いて変換する。また、複数の言語の種類に対応した辞書が記憶されている場合には、変換部65は、辞書を用いて変換する。変換部65は、第2文字情報と領域情報との組を表示制御部57に出力する。
第1文字情報が含まれる注目領域を示す領域情報が設定された注目領域レコードが複数の場合がある。複数の人物が同じ部分領域を見ている場合である。変換部65は、注目領域レコードが複数の場合、複数の注目領域レコードにそれぞれ設定された複数の言語情報を取得する。変換部65は、複数の注目領域レコードごとに、それに設定された言語情報で特定される言語の種類が第1文字情報の言語の種類と異なる場合、第1文字情報を関連レコードに設定された言語情報で特定される言語の種類の第2文字情報に変換する。したがって、変換部65は、複数の人物が同じ注目領域を見ている場合、第1文字情報を複数の人物ごとに、その人物が用いる言語の種類の第2文字情報に変換する。したがって、変換部65は、1つの注目領域に対して言語の情報が異なる複数の第2文字情報に変換する場合がある。この場合、変換部65は、領域情報が同じで第2文字情報が異なる複数の組を表示制御部57に出力する。
表示制御部57は、コンテンツ取得部55により取得されたコンテンツの画像を表示部106に表示する。表示制御部57は、対応言語表示部79を含む。対応言語表示部79は、変換部65から第2文字情報と領域情報の組が入力される場合、表示部106の表示面の領域情報で特定される注目領域に第2文字情報を表示する。表示制御部57は、注目領域に表示されている第1文字情報に代えて第2文字情報を表示する。表示制御部57に、変換部65から第2文字情報と領域情報の組の複数が入力される場合がある。複数の組のうちに領域情報が同じ2以上の組が含まれる場合がある。さらに、2以上の組にそれぞれ含まれる2以上の第2文字情報の間で言語の種類が異なる場合がある。対応言語表示部79は、2以上の組の間で言語の種類が異なる場合、言語の種類が異なる2以上の第2文字情報を時分割で表示する。例えば、対応言語表示部79は、1秒ごとに表示を切り換えて2以上の第2文字情報を順に表示する。また、時分割に代えて空間分割して2以上の第2文字情報を表示してもよい。具体的には、空間分割で表示する場合、対応言語表示部79は、注目領域を第2文字情報の数に分割し、分割された2以上の領域に2以上の第2文字情報をそれぞれ表示する。
図9は、表示部に表示されるコンテンツの一例を示す第1の図である。コンテンツは、空港に表示される飛行機の出発便の案内を示すテーブルとしている。図9を参照して、コンテンツは、言語の種類が日本語である。コンテンツは、出発便ごとの情報を示すレコードの複数を含む。レコードは、空港会社の項目と、便名の項目と、目的地の項目と、定刻の項目と、備考の項目と、を含む。便名の項目は、便名が設定される。目的地の項目は、目的地が設定される。定刻の項目は、出発時刻が設定される。備考の項目は、その便に対する状態が設定される。複数のレコードそれぞれが、複数の項目を含む。複数のレコードごとに、複数の項目が横方向に並んで表示される。複数のレコードは、縦方向に並んで表示される。
図10は、部分領域の一例を示す図である。図9に示したコンテンツに含まれる複数の部分領域が示される。図10においては、複数の部分領域それぞれが点線で表される矩形で示され、説明のために識別番号が付される。図10を参照して、コンテンツは、テーブルと、表題で分割され、テーブルが複数のレコードで分割され、レコードがさらに複数の項目で分割される。なお、複数の部分領域それぞれは、言語の種類が異なる第1文字情報を含む項目のみを示し、記号または時刻が示される項目は含まない。
図11は、注目領域テーブルの一例を示す第1の図である。図11を参照して、注目領域テーブルは、図8に示した関連テーブルに基づいて生成される。ここでは、視線位置情報V1で示される視線位置が領域情報D19で示される注目領域を示し、視線位置情報V2で示される視線位置が領域情報D35で示される注目領域を示す場合を例に示している。なお、人物IDH3のユーザーには、視線位置が設定されていないため、注目領域レコードは、生成されない。
図12は、表示部に表示されるコンテンツの一例を示す第2の図である。図9に示したコンテンツと異なる点は、領域情報D19で示される注目領域に言語の種類が英語の第2文字情報が表示され、領域情報D35で示される注目領域に言語の種類が韓国語の第2文字情報が表示される。
図13は、部分領域の横方向の拡張の一例を示す図である。図10に示した部分領域を横方向に拡張した部分領域が示される。
図14は、注目領域テーブルの一例を示す第2の図である。ここでは、視線位置がV1であった人物IDがH1の人物および視線位置がV2であった人物IDがH2の人物それぞれの視線が横方向に変動する場合を例に示している。この場合、図11に示した注目領域テーブルが図14に示す注目領域テーブルに書き換えられる。具体的には、領域情報D19で示される部分領域が領域情報D47で示される部分領域に拡張され、領域情報D35で示される部分領域が領域情報D51で示される部分領域に拡張される。
図15は、表示部に表示されるコンテンツの一例を示す第3の図である。図9に示したコンテンツと異なる点は、領域情報D47で示される注目領域に言語の種類が英語の第2文字情報が表示され、領域情報D35で示される注目領域に言語の種類が韓国語の第2文字情報が表示される。
図16は、部分領域の縦方向の拡張の一例を示す図である。図10に示した部分領域を縦方向に拡張した部分領域が示される。
図17は、注目領域テーブルの一例を示す第3の図である。ここでは、視線位置がV1であった人物IDがH1の人物の視線が縦方向に変動する場合を例に示している。この場合、図11に示した注目領域テーブルが図17に示す注目領域テーブルに書き換えられる。具体的には、領域情報D19で示される部分領域が領域情報D62で示される部分領域に拡張される。
図18は、表示部に表示されるコンテンツの一例を示す第4の図である。図12に示したコンテンツと異なる点は、領域情報D62で示される注目領域に言語の種類が英語の第2文字情報が表示される。
次に、複数の人物の視線位置が同じ場合の具体例を示す。図19は、注目領域テーブルの一例を示す第4の図である。ここでは、視線位置情報V1で示される視線位置が領域情報D19で示される注目領域を示し、視線位置情報V2で示される視線位置が領域情報D19で示される注目領域を示す場合を例に示している。人物IDがH1の人物と人物IDH2の人物とが同じ視線位置情報V1で示される領域情報D19を見ている場合を例に示している。
図20は、表示部に表示されるコンテンツの一例を示す第5の図である。図9に示したコンテンツと異なる点は、領域情報D19で示される注目領域に言語の種類が英語の第2文字情報が表示される。
図21は、表示部に表示されるコンテンツの一例を示す第6の図である。図9に示したコンテンツと異なる点は、領域情報D19で示される注目領域に言語の種類が韓国語の第2文字情報が表示される。
図19に示される注目領域テーブルがEPROM104に記憶される場合、図20に示されるコンテンツの表示と、図21に示されるコンテンツの表示とが所定時間間隔で繰り返して表示される。
図22は、表示部に表示されるコンテンツの一例を示す第7の図である。図9に示したコンテンツと異なる点は、領域情報D19で示される注目領域に言語の種類が英語の第2文字情報と言語の種類が韓国語の第2文字情報とが並んで表示される。
図23は、表示制御処理の流れの一例を示すフローチャートである。表示制御処理は、表示装置100が備えるCPU101が、ROM102、RAM103、EPROM104またはCD−ROM111に記憶された表示制御プログラムを実行することにより、CPU101により実行される処理である。図23を参照して、CPU101は、表示部106にコンテンツを表示し(ステップS01)、処理をステップS02に進める。ステップS02においては、人物検出処理が実行され、処理はステップS03に進む。ステップS03においては、装置検出処理が実行され、処理はステップS04に進む。ステップS04においては、関連付処理が実行され、処理はステップS05に進む。人物検出処理、装置検出処理および関連付処理の詳細は後述する。
ステップS05においては、処理対象の人物が選択され、処理はステップS06に進む。具体的には、人物テーブルに含まれる人物レコードの1つが処理対象に選択される。ステップS05においては、注目領域決定処理が実行され、処理はステップS07に進む。ステップS07においては、処理対象に選択されていない人物が存在するか否かが判断される。人物テーブルに含まれる人物レコードのすべてが処理対象に選択されたか否かが判断される。未選択の人物レコードが存在すれば処理はステップS05に戻るが、そうでなければ処理はステップS08に進む。したがって、人物テーブルに登録されているすべての人物それぞれに対して、注目領域決定処理が実行される。
図24は、人物検出処理の流れの一例を示すフローチャートである。人物検出処理は、表示制御処理のステップS02において実行される処理である。図24を参照して、CPU101は、第1画像データを取得し(ステップS21)、処理をステップS22に進める。第1カメラ108が出力する画像データが第1画像データとして取得される。ステップS22においては、第2画像データが取得され、処理はステップS23に進む。第2カメラ109が出力する画像データが第2画像データとして取得される。
ステップS23においては、第1画像データから人物が抽出されたか否かが判断される。第1画像データから人物の特徴を表す部分が抽出されたならば処理はステップS24に進むが、そうでなければ処理はステップS21に戻る。人物の特徴は、例えば、形状または色で特定される。第1画像データに人物が表された部分の複数が含まれる場合がある。この場合は、人物が表された部分のすべてが抽出される。
ステップS24においては、処理対象の人物が選択され、処理はステップS25に進む。ステップS25においては、人物IDが付与され、処理はステップS26に進む。人物IDは、ユニークな値であればよい。ステップS23において人物が表された部分が複数抽出される場合は、複数の人物それぞれに人物IDが付与される。
ステップS26においては、人物の位置が決定される。第1画像データにおいて人物が表された部分の位置と、第2画像データにおいて人物が表された部分の位置との差から人物の位置が決定される。次のステップS27においては、視線が検出される。人物が表された部分は目が表された部分を含むので、目の画像に基づいて視線を検出する。
次のステップS28においては、視線位置が決定され、処理はステップS29に進む。ステップS26において決定された人物の位置と、ステップS27において決定された視線とから視線位置が決定される。視線位置は、視線が表示部106の表示面と交わる位置である。次のステップS29においては、人物レコードが生成され、人物テーブルに追加され、処理はステップS30に進む。人物レコードは、ステップS25において人物に付与された人物IDと、ステップS26において決定された人物の位置を示す位置情報と、ステップS28において決定された視線位置を示す視線位置情報と、を含む。
ステップS30においては、処理対象に選択されていない人物が存在するか否かが判断される。ステップS23において第1画像データから抽出された人物のうちにステップS24において処理対象に選択されていない人物が存在するか否かが判断される。処理対象に選択されていない人物が存在するならば処理はステップS24に戻るが、そうでなければ処理は表示制御処理に戻る。
図25は、装置検出処理の流れの一例を示すフローチャートである。装置検出処理は、表示制御処理のステップS03において実行される処理である。図25を参照して、CPU101は、電子機器を検出したか否かを判断する。通信部105において通信可能な電子機器が検出されたか否かが判断される。通信部105において電子機器が検出されるまで待機状態となり(ステップS31においてNO)、電子機器が検出されたならば(ステップS31においてYES)、処理はステップS32に進む。通信部105が複数の電子機器と通信可能な場合は、複数の電子機器が検出される。
ステップS32においては、処理対象の電子機器が選択され、処理はステップS33に進む。ステップS33においては、処理対象の電子機器と通信が開始され、処理はステップS34に進む。ステップS34においては、装置IDが付与され、処理はステップS35に進む。装置IDは、ユニークな値であればよい。また、電子機器から受信される装置識別情報が装置IDに設定されてもよい。ステップS31において通信可能な電子機器が複数抽出される場合は、複数の電子機器それぞれに装置IDが付与される。
ステップS35においては、電子機器から言語情報が取得され、処理はステップS36に進む。電子機器に言語情報の送信を要求し、電子機器が返信する言語情報を受信する。言語情報は、電子機器を使用するユーザーによりその電子機器に設定されている言語の種類を示す。
ステップS36においては、電子機器の位置が決定され、処理はステップS37に進む。具体的には、4つのアンテナ121A,121B,121C,121Dそれぞれが電子機器から受信する電波の強度に基づいて、4つのアンテナ121A,121B,121C,121Dそれぞれと電子機器との間の距離が決定される。4つのアンテナ121A,121B,121C,121Dそれぞれの位置と4つのアンテナ121A,121B,121C,121Dそれぞれと電子機器との間の距離とに基づいて電子機器の位置が決定される。
ステップS37においては、装置レコードが生成され、装置テーブルに追加され、処理はステップS38に進む。装置レコードは、ステップS34において電子機器に付与された装置IDと、ステップS35において取得された言語情報と、ステップS36において決定された電子機器の位置を示す位置情報と、を含む。
ステップS38においては、処理対象に選択されていない電子機器が存在するか否かが判断される。ステップS31において検出された電子機器のうちにステップS32において処理対象に選択されていない電子機器が存在するか否かが判断される。処理対象に選択されていない電子機器が存在するならば処理はステップS32に戻るが、そうでなければ処理は表示制御処理に戻る。
図26は、関連付処理の流れの一例を示すフローチャートである。関連付処理は、表示制御処理のステップS04において実行される処理である。図26を参照して、CPU101は、処理対象となる人物を選択する(ステップS41)。人物テーブルに含まれる複数の人物レコードが順に選択される。次のステップS42においては、処理対象に選択された人物に最も近い電子機器が選択され、処理はステップS43に進む。装置テーブルに含まれる複数の装置レコードが順に選択され、人物レコードにより処理対象の人物の人物IDと関連付けられている位置情報と、装置レコードに設定されている位置情報とから距離が求められる。そして、距離が最も短い装置レコードに設定されている装置IDで特定される電子機器が直近の電子機器として選択される。
ステップS43においては、人物と電子機器との間の距離が閾値以下か否かが判断される。距離が閾値以下ならば処理はステップS44に進むが、そうでなければ処理はステップS46に進む。ステップS44においては、人物と電子機器とが関連付けられ、処理はステップS45に進む。処理対象に選択された人物の人物IDと、その人物に最も近い電子機器の装置IDとを含む関連レコードが生成される。また、関連レコードは、人物に関連付けられた視線位置と、電子機器に関連付けられた言語情報とを含む。ステップS45においては、関連レコードが関連テーブルに追加され、処理はステップS46に進む。
ステップS46においては、処理対象に選択されていない人物が存在するか否かが判断される。処理対象に選択されていない人物が存在するならば処理はステップS41に戻るが、そうでなければ処理は表示制御処理に戻る。
図27は、注目領域決定処理の流れの一例を示すフローチャートである。注目領域決定処理は表示制御処理のステップS06において実行される処理である。注目領域決定処理が実行される前の段階で、処理対象の人物が選択されている。図27を参照して、CPU101は、視線位置を決定し(ステップS51)、処理をステップS52に進める。処理対象に選択されている人物の人物IDを含む関連レコードに設定されている視線位置情報が取得される。視線位置情報は視線位置を示す。
ステップS52においては、注目領域が決定され、処理はステップS53に進む。コンテンツに含まれる複数の部分領域のうち視線位置を含む領域が注目領域に決定される。具体的には、コンテンツが複数の部分領域に分割され、複数の部分領域のうち視線位置を含む部分領域が注目領域に決定される。ステップS53においては、注目領域が注目領域テーブルに追加され、処理はステップS54に進む。具体的には、処理対象に選択されている人物の人物IDを含む関連レコードに設定されている言語情報が取得される。そして、注目領域を示す領域情報と言語情報とを含む注目領域レコードが生成され、注目領域レコードが注目領域テーブルに追加される。注目領域レコードは、処理対象に選択されている人物の人物IDと、その人物IDに関連レコードで関連付けられた装置ID、視線位置情報を含んでもよい。
ステップS54においては、視線位置が変動したか否かが判断される。ステップS52において注目領域が決定される前に処理対象に選択されている人物に対する注目領域が決定されている場合がある。この場合、処理対象に選択されている人物の人物IDが設定された注目領域レコードが注目領域テーブルに登録されている。そして、注目領域テーブルに登録されている注目領域レコードに設定されている領域情報が特定される。そして、特定された領域情報で特定される注目領域がステップS52において決定された注目領域と異なる場合に視線位置が変動したと判断する。視線位置が変動したならば処理はステップS55に進むが、そうでなければ処理は表示制御処理に戻る。
ステップS55においては、注目領域に対して視線位置の移動方向に配置された部分領域が注目領域に決定され、処理はステップS56に進む。ステップS52において注目領域が決定される前に決定されていた注目領域と、ステップS52において決定された注目領域とが並ぶ方向が視線位置の移動方向である。コンテンツに含まれる複数の領域のうちステップS52において決定された注目領域と、その注目領域と移動方向に並ぶ領域のすべてが新たに注目領域に決定される。
ステップS56においては、新たな注目領域が注目領域テーブルに追加され、処理は表示制御処理に戻る。具体的には、処理対象に選択されている人物の人物IDを含む関連レコードに設定されている言語情報が取得される。そして、新たな注目領域を示す領域情報と言語情報とを含む注目領域レコードが生成され、注目領域レコードが注目領域テーブルに追加される。
図23に戻って、ステップS08においては、処理対象となる注目領域が選択され、処理はステップS09に進む。注目領域テーブルの注目領域レコードが順に選択される。ステップS09においては、第1文字情報が決定され、処理はステップS10に進む。コンテンツに含まれる文字情報のうちで注目領域に含まれる文字列が第1文字情報に決定される。ステップS10においては、注目領域レコードが複数か否かが判断される。処理対象に選択された注目領域の領域情報と同じ領域情報が設定された注目領域レコードの複数が存在するか否かが判断される。そのような注目領域レコードが複数ならば処理はステップS11に進むが、そうでなければ処理はステップS14に進む。ステップS11においては、言語の種類が異なるか否かが判断される。複数の注目領域レコードそれぞれに設定された言語情報で特定される言語の種類が異なれば処理はステップS12に進めるが、すべてが同じならば処理はステップS14に進む。
ステップS12においては、第1文字情報が複数の言語の種類ごとの第2文字情報に変換され、処理はステップS13に進む。例えば、第1文字情報の言語の種類が日本語で、2つの注目領域に関連付けられた言語の種類が、英語と韓国語の場合を例に説明する。この場合、第1文字情報を英語に翻訳した第2文字情報と、第1文字情報を韓国語に翻訳した第2文字情報と、が生成される。ステップS13においては、表示部106に、複数の第2文字情報が注目領域に時分割で表示され、処理はステップS16に進む。
一方、ステップS14においては、第1文字情報が、ステップS08において選択された注目領域レコードに設定された言語の種類の第2文字情報に変換され、処理はステップS15に進む。例えば、第1文字情報の言語の種類が日本語で、注目領域レコードに設定された言語の種類が英語の場合、第1文字情報を英語に翻訳した第2文字情報が生成される。ステップS15においては、表示部106に、第2文字情報が注目領域に表示され、処理はステップS16に進む。
ステップS16においては、処理対象に選択されていない注目領域が存在するか否かが判断される。未選択の注目領域が存在するならば処理はステップS08に戻るが、そうでなければ処理はステップS01に戻る。
以上説明したように、本実施の形態における表示装置100は、文字情報を含むコンテンツを表示する表示部106を備え、CPU101は、人物の視線を検出し、検出された視線に基づいて表示部106の表示面中の注目領域を特定し、スマートフォン等の電子機器に関連付けられた言語の種類を取得し、コンテンツのうち注目領域に表示された第1文字情報を電子機器から取得された言語の種類で表される第2文字情報に変換し、第2文字情報を注目領域に表示する。このため、電子機器に関連付けられた言語の種類の第2文字情報が第1文字情報に代えて注目領域に表示されるので、表示面を見る人物に言語の種類を選択する操作をさせることなく、その人物が見ている部分の文字情報をその人物が携帯する電子機器に設定された言語の種類で表示することができる。したがって、コンテンツが表示された表示面を見る人物に適した言語の種類でコンテンツを自動的に表示することができる。
また、表示装置100が備えるCPU101は、表示部106の表示面と人物の視線とが交わる視線位置を含む領域を注目領域に決定する。このため、コンテンツ中で人物が見ている部分を容易に特定することができる。
また、表示装置100が備えるCPU101は、視線位置が時間の経過に伴って変動する場合、注目領域を視線が変動する方向に拡張する。このため、CPU101は、コンテンツを見る人物の視線の変動に従って注目領域を拡張するので、その人物が次に見ようとしている領域を予測することができる。
また、表示装置100が備えるCPU101は、第1カメラ108および第2カメラ109がそれぞれ出力する第1画像データおよび第2画像データに基づいて人物の位置を検出し、アンテナ121A,121B,121C,121Dそれぞれが電子機器から受信する信号に基づいて電子機器の位置を検出し、人物の位置と電子機器の位置とに基づいて、人物と電子機器とを関連付ける。このため、人物が携帯する電子機器を特定することができる。
また、表示装置100が備えるCPU101は、第1カメラ108および第2カメラ109がそれぞれ出力する第1画像データおよび第2画像データを解析することにより視線を検出する。このため、人物の視線を容易に検出することができる。
また、表示装置100が備えるCPU101は、人物が複数の場合、複数の人物それぞれを複数の電子機器のいずれかに関連付け、複数の人物ごとに、その人物に対応する注目領域を特定し、コンテンツのうち人物に対応する注目領域に表示された第1文字情報を人物に関連付けられた電子機器に関連付けられた言語の種類で表される第2文字情報に変換し、表示する。このため、コンテンツを複数の人物が同時に見ている場合に、複数の人物それぞれに適した言語の種類でコンテンツを自動的に表示することができる。
また、表示装置100が備えるCPU101は、複数の人物にそれぞれ対応して同一の注目領域が特定される場合であって、その注目領域に複数の言語の種類が対応付けられる場合、注目領域に対応する第1文字情報から複数の言語の種類に変換された複数の第2文字情報を注目領域に時分割で表示するかまたは並べて表示する。このため、複数の人物がコンテンツの同じ部分を見ている場合であっても複数の人物それぞれに適した言語の種類でコンテンツを自動的に表示することができる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
100 表示装置、101 CPU、102 ROM、103 RAM、104 EPROM、105 通信部、106 表示部、107 操作部、108 第1カメラ、109 第2カメラ、110 外部記憶装置、111 CD−ROM、112 バス、121A,121B,121C,121D アンテナ、131 基台、132 支柱、133 底板、51 撮像制御部、53 通信制御部、55 コンテンツ取得部、57 表示制御部、59 第1文字情報決定部、61 領域特定部、63 関連付部、65 変換部、71 視線検出部、73 人物位置検出部、75 装置位置検出部、77 言語種類取得部、79 対応言語表示部。
Claims (9)
- 文字情報を含むコンテンツを表示する表示手段と、
人物の視線を検出する視線検出手段と、
検出された前記視線に基づいて前記表示手段の表示面中の注目領域を特定する領域特定手段と、
電子機器に関連付けられた言語の種類を取得する言語種類取得手段と、
前記コンテンツのうち前記注目領域に表示された第1文字情報を前記言語種類取得手段により取得された前記言語の種類で表される第2文字情報に変換する変換手段と、
前記第2文字情報を前記注目領域に表示する対応言語表示手段と、を備えた表示装置。 - 前記領域特定手段は、前記表示手段の前記表示面と前記視線とが交わる視線位置を含む領域を前記注目領域に決定する、請求項1に記載の表示装置。
- 前記領域特定手段は、前記視線位置が時間の経過に伴って変動する場合、前記注目領域を前記視線が変動する方向に拡張する、請求項2に記載の表示装置。
- 前記人物を撮像して画像を出力する撮像手段と、
前記撮像手段が出力する前記画像に基づいて前記人物の位置を検出する人物位置検出手段と、
前記電子機器と通信する通信手段と、
前記通信手段が前記電子機器から受信する信号に基づいて前記電子機器の位置を検出する装置位置検出手段と、
前記人物の位置と前記電子機器の位置とに基づいて、前記人物と前記電子機器とを関連付ける関連付手段と、をさらに備えた請求項1〜3のいずれか1項に記載の表示装置。 - 前記視線検出手段は、前記撮像手段が出力する前記画像を解析することにより前記視線を検出する、請求項4に記載の表示装置。
- 前記関連付手段は、前記人物が複数の場合、複数の前記人物それぞれを複数の前記電子機器のいずれかに関連付け、
前記領域特定手段は、複数の前記人物ごとに、前記人物に対応する前記注目領域を特定し、
前記変換手段は、複数の前記人物ごとに、前記コンテンツのうち前記人物に対応する前記注目領域に表示された前記第1文字情報を前記人物に関連付けられた前記電子機器に関連付けられた前記言語の種類で表される前記第2文字情報に変換し、
前記対応言語表示手段は、複数の前記人物ごとに、前記人物に対応する前記注目領域に前記人物に対応する前記第2文字情報を表示する、請求項4または5に記載の表示装置。 - 前記領域特定手段により複数の前記人物にそれぞれ対応して同一の前記注目領域が特定される場合であって、前記関連付手段により前記注目領域に複数の前記言語の種類が対応付けられる場合、前記対応言語表示手段は、前記注目領域に対応する前記第1文字情報から複数の前記言語の種類に変換された複数の前記第2文字情報を前記注目領域に時分割で表示するかまたは並べて表示する、請求項6に記載の表示装置。
- 文字情報を含むコンテンツを表示する表示ステップと、
人物の視線を検出する視線検出ステップと、
検出された前記視線に基づいて表示された前記コンテンツ中の注目領域を特定する領域特定ステップと、
前記人物が携帯する電子機器に関連付けられた言語の種類を取得する言語種類取得ステップと、
前記コンテンツに含まれる前記注目領域に対応する第1文字情報を取得された前記言語の種類で表される第2文字情報に変換する変換ステップと、
前記第2文字情報を前記注目領域に表示する対応言語表示ステップと、を表示装置に実行させる表示制御方法。 - 文字情報を含むコンテンツを表示する表示ステップと、
人物の視線を検出する視線検出ステップと、
検出された前記視線に基づいて表示された前記コンテンツ中の注目領域を特定する領域特定ステップと、
前記人物が携帯する電子機器に関連付けられた言語の種類を取得する言語種類取得ステップと、
前記コンテンツに含まれる前記注目領域に対応する第1文字情報を取得された前記言語の種類で表される第2文字情報に変換する変換ステップと、
前記第2文字情報を前記注目領域に表示する対応言語表示ステップと、をコンピューターに実行させる表示制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019110248A JP2020201868A (ja) | 2019-06-13 | 2019-06-13 | 表示装置、表示制御方法および表示制御プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019110248A JP2020201868A (ja) | 2019-06-13 | 2019-06-13 | 表示装置、表示制御方法および表示制御プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020201868A true JP2020201868A (ja) | 2020-12-17 |
Family
ID=73744226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019110248A Pending JP2020201868A (ja) | 2019-06-13 | 2019-06-13 | 表示装置、表示制御方法および表示制御プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020201868A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7478339B2 (ja) | 2022-01-17 | 2024-05-07 | エヌエイチエヌ コーポレーション | 視線認識ベースのカスタムコンテンツを提供する装置及び方法 |
-
2019
- 2019-06-13 JP JP2019110248A patent/JP2020201868A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7478339B2 (ja) | 2022-01-17 | 2024-05-07 | エヌエイチエヌ コーポレーション | 視線認識ベースのカスタムコンテンツを提供する装置及び方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10677596B2 (en) | Image processing device, image processing method, and program | |
JP5993127B2 (ja) | 頭部装着型表示装置、情報端末、プログラム、情報記憶媒体、画像処理システム、頭部装着型表示装置の制御方法及び情報端末の制御方法 | |
KR101357260B1 (ko) | 증강 현실 사용자 인터페이스 제공 장치 및 방법 | |
CN107015724B (zh) | 信息处理装置、信息处理方法及存储程序的非临时性计算机可读存储介质 | |
KR102627612B1 (ko) | 증강현실을 이용한 주변 정보 표시 방법 및 그 전자 장치 | |
CN104221077A (zh) | 头戴式显示器 | |
EP3772217A1 (en) | Output control apparatus, display terminal, remote control system, control method, and carrier medium | |
EP3018621A1 (en) | Shopping support device and shopping support method | |
KR102651524B1 (ko) | 전자 장치 및 그 결제 정보 출력 방법 | |
CN104255022A (zh) | 为相机添加虚拟变焦能力的服务器,客户终端,系统和程序 | |
KR102332524B1 (ko) | 모바일 디바이스를 구부리는 사용자 입력에 따라 기설정된 서비스를 제공하는 방법 및 모바일 디바이스 | |
JP2020201868A (ja) | 表示装置、表示制御方法および表示制御プログラム | |
JP6179227B2 (ja) | 情報処理装置、携帯端末および情報入力装置 | |
JP6047939B2 (ja) | 評価システム、プログラム | |
CN110225455B (zh) | 智能救援系统的用户精准定位方法及智能救援系统 | |
JP2007128346A (ja) | 情報提供システム | |
JP2006323466A (ja) | 情報提供装置、端末装置、情報提供システム、及び情報提供方法 | |
JP2017201510A (ja) | コンテキスト認識アプリケーション | |
JP5836670B2 (ja) | 案内システム、撮影装置、および制御装置 | |
JP4951266B2 (ja) | 表示装置、関連情報表示方法およびプログラム | |
JP7013757B2 (ja) | 情報処理装置、情報処理システム及びプログラム | |
JP2018156623A (ja) | 不動産情報提供システム、サーバ、方法およびプログラム | |
KR20120032773A (ko) | 광학문자인식을 이용한 증강 현실 장치 및 그 방법 | |
JP6956376B2 (ja) | 表示制御システム、表示システム、表示制御方法、プログラム、及び移動体 | |
JP2021087029A (ja) | 位置検出システム、位置検出装置及び位置検出方法 |