JP2021131521A - 表示制御装置、表示制御方法およびプログラム - Google Patents
表示制御装置、表示制御方法およびプログラム Download PDFInfo
- Publication number
- JP2021131521A JP2021131521A JP2020028193A JP2020028193A JP2021131521A JP 2021131521 A JP2021131521 A JP 2021131521A JP 2020028193 A JP2020028193 A JP 2020028193A JP 2020028193 A JP2020028193 A JP 2020028193A JP 2021131521 A JP2021131521 A JP 2021131521A
- Authority
- JP
- Japan
- Prior art keywords
- user
- display
- information terminal
- unit
- display area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 16
- 238000001514 detection method Methods 0.000 claims description 106
- 230000008451 emotion Effects 0.000 claims description 4
- 238000004891 communication Methods 0.000 abstract description 68
- 238000005516 engineering process Methods 0.000 abstract description 4
- 238000012545 processing Methods 0.000 description 39
- 238000012790 confirmation Methods 0.000 description 37
- 240000004050 Pentaglottis sempervirens Species 0.000 description 26
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 26
- 238000010586 diagram Methods 0.000 description 16
- 206010048669 Terminal state Diseases 0.000 description 14
- 230000006870 function Effects 0.000 description 9
- 230000004044 response Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 210000001508 eye Anatomy 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】複数の利用者の間でより自然にコミュニケーションを行わせるための技術を提供することを目的とする。【解決手段】第1の利用者が存在する空間が撮像された第1の撮像画像の少なくとも一部が第2の利用者によって視認可能な第2の表示領域に表示され、前記第2の利用者が存在する空間が撮像された第2の撮像画像の少なくとも一部が前記第1の利用者によって視認可能な第1の表示領域に表示されるように制御する表示制御部を備え、前記表示制御部は、前記第2の表示領域における前記第1の利用者の位置が第1の条件を満たす場合に、前記第2の利用者が撮像された人物画像が前記第1の表示領域における前記第2の利用者の位置に応じた位置に表示されるように制御する、表示制御装置が提供される。【選択図】図1
Description
本発明は、表示制御装置、表示制御方法およびプログラムに関する。
空間内の映像を撮像する撮像手段と、空間内における各装置の位置を測位し、撮像手段により撮像された映像上の対応位置を示す測位情報を装置毎に求める位置検出手段と、各装置が設けられた各対象に関する関連情報を収集する関連情報収集手段と、関連情報収集手段により収集された関連情報を、位置検出手段により求められた各装置の測位情報と対応付けて保持する関連情報保持手段とを備える、空間情報可視化システムが提案されている(例えば、特許文献1参照)。
かかるシステムにおいて、表示装置は、位置検出手段からの各装置の測位情報に相当する位置に、当該装置に設けられた対象映像を表示すると共に、対象の関連情報を表示する。また、かかるシステムは、各装置が設けられた各対象との間で所定のアプリケーションを実行するアプリケーション提供手段を備える。そして、表示装置は、表示映像内の対象映像が選択されると、この対象映像の測位情報を含むアプリケーション要求をアプリケーション提供手段に与え、アプリケーション提供手段が、関連情報保持手段を参照して、アプリケーション要求に含まれる測位情報に対応する関連情報を用いて、所定のアプリケーションを提供する。
かかるシステムによれば、空間映像に、対象(例えば、人または機器など)の位置および対象の映像を重畳表示すると共に、対象の関連情報を抽出して重畳表示することにより、人と人との間、または、人と機器との間のコミュニケーションを円滑かつ効率的に行うことができる。例えば、かかるシステムによれば、利用者が表示端末の映像表示ウィンドウまたはオブジェクトリスト上で特定の対象を選択すると、利用者は選択した対象の位置に対応する端末と電話などをすることも可能である。
かかるシステムを利用すれば、第1の情報端末に表示されている映像における第2の情報端末の位置に第2の情報端末の関連情報を対応付けて表示したり、第1の情報端末と第2の情報端末との間で電話をしたりすることが可能である。しかし、複数の利用者の間でより自然にコミュニケーションを行わせるための技術が提供されることが望まれている。
そこで本発明は、複数の利用者の間でより自然にコミュニケーションを行わせるための技術を提供することを目的とする。
上記問題を解決するために、本発明のある観点によれば、第1の利用者が存在する空間が撮像された第1の撮像画像の少なくとも一部が第2の利用者によって視認可能な第2の表示領域に表示され、前記第2の利用者が存在する空間が撮像された第2の撮像画像の少なくとも一部が前記第1の利用者によって視認可能な第1の表示領域に表示されるように制御する表示制御部を備え、前記表示制御部は、前記第2の表示領域における前記第1の利用者の位置が第1の条件を満たす場合に、前記第2の利用者が撮像された人物画像が前記第1の表示領域における前記第2の利用者の位置に応じた位置に表示されるように制御する、表示制御装置が提供される。
前記第1の条件は、前記第2の表示領域における前記第1の利用者の位置が前記第2の表示領域のあらかじめ設定された所定の領域内に存在するという条件を含んでもよい。
前記表示制御部は、前記第2の表示領域における前記第1の利用者の位置が前記第1の条件を満たす場合、かつ、前記第2の表示領域を含む情報端末またはアプリケーション画面内に前記第2の利用者の視点が存在する場合に、前記第2の利用者が撮像された人物画像が表示されるように制御してもよい。
前記第1の条件は、前記第2の表示領域における前記第1の利用者の位置を基準とした所定の視線検出用範囲内に前記第2の利用者の視点が存在するという条件を含んでもよい。
前記視線検出用範囲には、視線検出用オブジェクトが表示されていてもよい。
前記視線検出用オブジェクトのサイズは、前記第1の利用者の状況に応じて変化してもよい。
前記第1の利用者の状況は、前記第1の利用者の位置と前記第1の撮像画像を撮像する撮影部との距離を含んでもよい。
前記第1の利用者の状況は、前記第1の利用者の感情を含んでもよい。
前記表示制御部は、前記第2の表示領域における前記第1の利用者の位置が前記第1の条件を満たす場合、かつ、前記第1の表示領域における前記第2の利用者の位置が第2の条件を満たす場合に、前記第2の利用者が撮像された人物画像が表示されるように制御してもよい。
前記第2の表示領域における前記第1の利用者の位置が前記第1の条件を満たす場合、かつ、前記第1の表示領域における前記第2の利用者の位置が前記第2の条件を満たす場合に、前記第1の利用者が撮像された人物画像が前記第2の表示領域における前記第1の利用者の位置に応じた位置に表示されてもよい。
前記表示制御部は、前記第2の表示領域における前記第1の利用者の位置が前記第1の条件を満たす場合に、前記第2の利用者の位置が前記第1の表示領域における所定の位置に移動するように前記第2の撮像画像を前記第1の表示領域においてスクロールさせてもよい。
前記表示制御部は、前記第1の利用者によって前記第2の利用者が選択された場合に、前記第2の利用者の位置が前記第1の表示領域における所定の位置に移動するように前記第2の撮像画像を前記第1の表示領域においてスクロールさせてもよい。
前記表示制御部は、前記第2の表示領域における前記第1の利用者の位置が前記第1の条件を満たす場合、かつ、前記第2の表示領域を含むアプリケーション画面が最前面に表示されている場合に、前記第2の利用者が撮像された人物画像が表示されるように制御してもよい。
前記第1の利用者の位置は、前記第1の利用者が使用する第1の情報端末の位置であり、前記第2の利用者の位置は、前記第2の利用者が使用する第2の情報端末の位置であってもよい。
また、本発明の他の観点によれば、第1の利用者が存在する空間が撮像された第1の撮像画像の少なくとも一部が第2の利用者によって視認可能な第2の表示領域に表示され、前記第2の利用者が存在する空間が撮像された第2の撮像画像の少なくとも一部が前記第1の利用者によって視認可能な第1の表示領域に表示されるように制御することと、前記第2の表示領域における前記第1の利用者の位置が第1の条件を満たす場合に、前記第2の利用者が撮像された人物画像が前記第1の表示領域における前記第2の利用者の位置に応じた位置に表示されるように制御することと、を含む、表示制御方法が提供される。
また、本発明の他の観点によれば、コンピュータを、第1の利用者が存在する空間が撮像された第1の撮像画像の少なくとも一部が第2の利用者によって視認可能な第2の表示領域に表示され、前記第2の利用者が存在する空間が撮像された第2の撮像画像の少なくとも一部が前記第1の利用者によって視認可能な第1の表示領域に表示されるように制御する表示制御部を備え、前記表示制御部は、前記第2の表示領域における前記第1の利用者の位置が第1の条件を満たす場合に、前記第2の利用者が撮像された人物画像が前記第1の表示領域における前記第2の利用者の位置に応じた位置に表示されるように制御する、表示制御装置として機能させるためのプログラムが提供される。
以上説明したように本発明によれば、複数の利用者の間でより自然にコミュニケーションを行わせるための技術を提供することが可能となる。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
(1.第1の実施形態)
まず、本発明の第1の実施形態について説明する。
まず、本発明の第1の実施形態について説明する。
(1−1.システム構成)
図1は、本発明の第1の実施形態に係る表示制御システムの概略的な構成の一例を示す図である。図1を参照すると、本発明の第1の実施形態に係る表示制御システム1は、複数の拠点(拠点A〜D)と、サーバ20と、ネットワーク30とを有する。
図1は、本発明の第1の実施形態に係る表示制御システムの概略的な構成の一例を示す図である。図1を参照すると、本発明の第1の実施形態に係る表示制御システム1は、複数の拠点(拠点A〜D)と、サーバ20と、ネットワーク30とを有する。
なお、本発明の第1の実施形態においては、図1に示したように、複数の拠点が4つの拠点によって構成される場合を主に想定する。しかし、拠点の数は、4つに限定されない。あるいは、拠点の数は複数でなくてもよく、1つであってもよい。また、本発明の第1の実施形態においては、各拠点がオフィスである場合を主に想定する。しかし、各拠点はオフィスに限定されず、住宅などといった他の場所であってもよい。
図1に示したように、拠点A〜Dそれぞれには、測位部61および俯瞰映像撮影部62が設置されている。また、本発明の第1の実施形態においては、拠点A〜Dの全部に、1または複数の情報端末10が存在する場合を主に想定する(図1に示した例では、拠点Aに存在する3つの情報端末10が図示されている)。しかし、拠点A〜Dの少なくとも一部に、1または複数の情報端末10が存在していればよい。あるいは、拠点A〜Dの中には、情報端末10が1つも存在しない拠点があってもよい。
測位部61は、設置されている拠点に存在する情報端末10の空間における三次元的な位置を測定する(情報端末10を測位する)。例えば、測位部61は、(1または複数の)基地局から送信された無線信号の情報端末10における受信強度に基づいて、情報端末10の三次元的な位置を測定してもよい。しかし、測位部61による情報端末10の測位手法は限定されない。例えば、後にも説明するように、俯瞰映像撮影部62によって撮影された映像における情報端末10の二次元的な位置が直接的に得られる場合には、測位部61は設けられていなくてもよい。
情報端末10の三次元的な位置を示す情報(情報端末10の三次元的な位置情報)は、測位部61からネットワーク30を介してサーバ20に送信される。情報端末10の三次元的な位置情報が測位部61からサーバ20に送信されるタイミングは限定されない。例えば、情報端末10の三次元的な位置情報は、測位部61からサーバ20に所定の時間ごとに送信されてよい。
俯瞰映像撮影部62は、設置されている拠点(空間)の映像(以下、「拠点映像」とも言う。)を撮影する。俯瞰映像撮影部62は、1または複数の可視光カメラによって構成されてよい。また、俯瞰映像撮影部62が全方位カメラによって構成される場合を主に想定する。しかし、俯瞰映像撮影部62の画角は限定されない。例えば、俯瞰映像撮影部62の画角が所定の角度よりも狭い場合には、1つの拠点に複数のカメラが設置され、複数のカメラによって撮影された映像が繋ぎ合わされてもよい。このように、俯瞰映像撮影部62の具体的なハードウェア構成は限定されない。
俯瞰映像撮影部62は、所定のフレームレートで拠点映像を撮影し、サーバ20に対しては所定のフレームレートで拠点映像を送信してよい。以下、拠点映像を構成する各フレームを単に「撮像画像」とも言う。なお、俯瞰映像撮影部62によって撮影される拠点映像は、斜め下方向または下方向に撮影された拠点映像であってよい。これによって、拠点に存在する人を閲覧しやすい拠点映像が得られる。しかし、俯瞰映像撮影部62による撮影方向は限定されない。俯瞰映像撮影部62によって得られた拠点映像は、ネットワーク30を介してサーバ20に送信される。
情報端末10は、自身に対応する利用者によって利用される。情報端末10は、(例えば、無線LAN(Local Area Network)などを介して)ネットワーク30に接続されている。本発明の第1の実施形態においては、情報端末10がPC(Personal Computer)である場合を想定する。しかし、情報端末10の種類は限定されない。例えば、情報端末10は、スマートフォンであってもよいし、携帯電話であってもよいし、タブレット端末などであってもよい。なお、情報端末10は、利用者によって視認される情報の表示を制御する表示制御装置の例として機能し得る。
サーバ20は、コンピュータによって構成される。サーバ20は、俯瞰映像撮影部62から送信された各拠点映像を、ネットワーク30を介して受信する。また、サーバ20は、測位部61から送信された各拠点に存在する情報端末10の位置情報を、ネットワーク30を介して受信する。そして、サーバ20は、各拠点映像と各拠点に存在する情報端末10の位置情報とに基づいて、利用者によって視認される情報を情報端末10に提供する情報提供装置の例として機能し得る。
以上、本発明の第1の実施形態に係る表示制御システム1の概略的な構成の一例について説明した。
(1−2.情報端末の機能構成)
次に、図2を参照して、本発明の第1の実施形態に係る情報端末10の機能構成の一例を説明する。図2は、本発明の第1の実施形態に係る情報端末10の機能構成の一例を示すブロック図である。図2を参照すると、情報端末10は、制御部110、操作部120、音声入力部130、記憶部140、通信部150、音声出力部160、表示部170および撮影部180を備える。
次に、図2を参照して、本発明の第1の実施形態に係る情報端末10の機能構成の一例を説明する。図2は、本発明の第1の実施形態に係る情報端末10の機能構成の一例を示すブロック図である。図2を参照すると、情報端末10は、制御部110、操作部120、音声入力部130、記憶部140、通信部150、音声出力部160、表示部170および撮影部180を備える。
(制御部110)
制御部110は、情報端末10が有する様々な機能を提供する。制御部110は、視線検出部111、表示端末検出部112、端末状態確認部113および表示制御部114を有する。なお、制御部110は、CPU803、ROM805およびRAM807(図13)により実装され、CPU803によってROM805から読み込まれたプログラムがRAM807に展開され、当該プログラムがCPU803によって実行されることによって実現される。
制御部110は、情報端末10が有する様々な機能を提供する。制御部110は、視線検出部111、表示端末検出部112、端末状態確認部113および表示制御部114を有する。なお、制御部110は、CPU803、ROM805およびRAM807(図13)により実装され、CPU803によってROM805から読み込まれたプログラムがRAM807に展開され、当該プログラムがCPU803によって実行されることによって実現される。
(操作部120)
操作部120は、入力部の一例として機能し、利用者からの入力を受け付ける。ここでは、操作部120がタッチパネルを含んでいる場合を想定するが、操作部120の形態は限定されない。例えば、操作部120は、キーボードおよびマウスなどを含んでもよいし、ボタンなどを含んでもよい。操作部120は、利用者からの入力を制御部110へ提供する。なお、操作部120は、入力装置815(図13)により実装され得る。
操作部120は、入力部の一例として機能し、利用者からの入力を受け付ける。ここでは、操作部120がタッチパネルを含んでいる場合を想定するが、操作部120の形態は限定されない。例えば、操作部120は、キーボードおよびマウスなどを含んでもよいし、ボタンなどを含んでもよい。操作部120は、利用者からの入力を制御部110へ提供する。なお、操作部120は、入力装置815(図13)により実装され得る。
(音声入力部130)
音声入力部130は、利用者によって発せられた音声の入力を受け付ける。ここでは、音声入力部130がマイクロフォンによって構成される場合を想定する。しかし、音声入力部130の形態は限定されない。
音声入力部130は、利用者によって発せられた音声の入力を受け付ける。ここでは、音声入力部130がマイクロフォンによって構成される場合を想定する。しかし、音声入力部130の形態は限定されない。
(記憶部140)
記憶部140は、情報端末10の動作を制御するためのプログラムおよびデータを記憶する。当該プログラムには、OS(Operating System)およびアプリケーションなどが含まれる。なお、記憶部140は、記憶装置809(図13)により実装され得る。
記憶部140は、情報端末10の動作を制御するためのプログラムおよびデータを記憶する。当該プログラムには、OS(Operating System)およびアプリケーションなどが含まれる。なお、記憶部140は、記憶装置809(図13)により実装され得る。
(通信部150)
通信部150は、他の装置と通信する。例えば、通信部150は、ネットワーク30に直接的に接続され、ネットワーク30を介してサーバ20と通信する。なお、通信部150は、通信インタフェース811(図13)により実装され得る。
通信部150は、他の装置と通信する。例えば、通信部150は、ネットワーク30に直接的に接続され、ネットワーク30を介してサーバ20と通信する。なお、通信部150は、通信インタフェース811(図13)により実装され得る。
(音声出力部160)
音声出力部160は、提示部の一例として機能し、制御部110による制御に従って、VUI(Voice User Interface)によって提示情報を利用者に提示する(音声を出力する)。なお、音声出力部160は、スピーカ819(図13)により実装され得る。
音声出力部160は、提示部の一例として機能し、制御部110による制御に従って、VUI(Voice User Interface)によって提示情報を利用者に提示する(音声を出力する)。なお、音声出力部160は、スピーカ819(図13)により実装され得る。
(表示部170)
表示部170は、提示部の一例として機能し、表示制御部114による制御に従って、GUI(Graphical User Interface)によって提示情報を利用者に提示する(画面に表示する)。ここでは、表示部170がタッチパネルに積層されたディスプレイによって構成される場合を想定するが、表示部170の形態は限定されない。なお、表示部170は、表示装置823(図13)により実装され得る。
表示部170は、提示部の一例として機能し、表示制御部114による制御に従って、GUI(Graphical User Interface)によって提示情報を利用者に提示する(画面に表示する)。ここでは、表示部170がタッチパネルに積層されたディスプレイによって構成される場合を想定するが、表示部170の形態は限定されない。なお、表示部170は、表示装置823(図13)により実装され得る。
(撮影部180)
撮影部180は、情報端末10の利用者の身体の一部または全体を撮影する。本発明の実施形態では、撮影部180が、情報端末10における利用者の顔に対向する位置に設けられており、情報端末10の利用者の顔を撮影する場合を主に想定する。しかし、撮影部180は、利用者の顔の代わりに、情報端末10の利用者の身体の他の特徴的な部位を撮影してもよい。以下では、撮影部180によって利用者の身体の一部または全体が撮影されて得られた画像を、「人物映像」とも言う。また、人物映像を構成する各フレームを単に「人物画像」とも言う。なお、撮影部180は、可視光カメラによって構成されてよい。
撮影部180は、情報端末10の利用者の身体の一部または全体を撮影する。本発明の実施形態では、撮影部180が、情報端末10における利用者の顔に対向する位置に設けられており、情報端末10の利用者の顔を撮影する場合を主に想定する。しかし、撮影部180は、利用者の顔の代わりに、情報端末10の利用者の身体の他の特徴的な部位を撮影してもよい。以下では、撮影部180によって利用者の身体の一部または全体が撮影されて得られた画像を、「人物映像」とも言う。また、人物映像を構成する各フレームを単に「人物画像」とも言う。なお、撮影部180は、可視光カメラによって構成されてよい。
以上、本発明の第1の実施形態に係る情報端末10の機能構成の一例について説明した。
(1−3.サーバの機能構成)
次に、図3を参照して、本発明の第1の実施形態に係るサーバ20の機能構成の一例について説明する。図3は、本発明の第1の実施形態に係るサーバ20の機能構成の一例を示すブロック図である。図3を参照すると、サーバ20は、制御部210、記憶部240および通信部250を備える。
次に、図3を参照して、本発明の第1の実施形態に係るサーバ20の機能構成の一例について説明する。図3は、本発明の第1の実施形態に係るサーバ20の機能構成の一例を示すブロック図である。図3を参照すると、サーバ20は、制御部210、記憶部240および通信部250を備える。
(制御部210)
制御部210は、サーバ20が有する様々な機能を提供する。制御部210は、取得部212、処理部213および送信制御部214を有する。なお、制御部210は、CPU803、ROM805およびRAM807(図13)により実装され、CPU803によってROM805から読み込まれたプログラムがRAM807に展開され、当該プログラムがCPU803によって実行されることによって実現される。
制御部210は、サーバ20が有する様々な機能を提供する。制御部210は、取得部212、処理部213および送信制御部214を有する。なお、制御部210は、CPU803、ROM805およびRAM807(図13)により実装され、CPU803によってROM805から読み込まれたプログラムがRAM807に展開され、当該プログラムがCPU803によって実行されることによって実現される。
(記憶部240)
記憶部240は、サーバ20の動作を制御するためのプログラムおよびデータを記憶する。当該プログラムには、OS(Operating System)およびアプリケーションなどが含まれる。なお、記憶部240は、記憶装置809(図13)により実装され得る。
記憶部240は、サーバ20の動作を制御するためのプログラムおよびデータを記憶する。当該プログラムには、OS(Operating System)およびアプリケーションなどが含まれる。なお、記憶部240は、記憶装置809(図13)により実装され得る。
(通信部250)
通信部250は、他の装置と通信する。例えば、通信部250は、ネットワーク30に直接的に接続され、ネットワーク30を介して、各拠点に存在する情報端末10、測位部61および俯瞰映像撮影部62と通信する。なお、通信部250は、通信インタフェース811(図13)により実装され得る。
通信部250は、他の装置と通信する。例えば、通信部250は、ネットワーク30に直接的に接続され、ネットワーク30を介して、各拠点に存在する情報端末10、測位部61および俯瞰映像撮影部62と通信する。なお、通信部250は、通信インタフェース811(図13)により実装され得る。
以上、本発明の第1の実施形態に係るサーバ20の機能構成の一例について説明した。
(1−4.システムの利用例)
続いて、本発明の第1の実施形態に係る表示制御システム1の利用例について説明する。まず、拠点A〜Dそれぞれにおいて、俯瞰映像撮影部62によって(俯瞰映像撮影部62が設置された)拠点映像が撮影される。そして、拠点A〜Dそれぞれの俯瞰映像撮影部62によって得られた拠点映像は、(例えば、所定のフレームレートで)ネットワーク30を介してサーバ20に送信される。一方、拠点A〜Dそれぞれにおいて、測位部61によって拠点に存在する情報端末10の三次元的な位置が測定される。拠点A〜Dそれぞれの測位部61によって得られた情報端末10の三次元的な位置情報は、(例えば、所定の時間ごとに)ネットワーク30を介してサーバ20に送信される。
続いて、本発明の第1の実施形態に係る表示制御システム1の利用例について説明する。まず、拠点A〜Dそれぞれにおいて、俯瞰映像撮影部62によって(俯瞰映像撮影部62が設置された)拠点映像が撮影される。そして、拠点A〜Dそれぞれの俯瞰映像撮影部62によって得られた拠点映像は、(例えば、所定のフレームレートで)ネットワーク30を介してサーバ20に送信される。一方、拠点A〜Dそれぞれにおいて、測位部61によって拠点に存在する情報端末10の三次元的な位置が測定される。拠点A〜Dそれぞれの測位部61によって得られた情報端末10の三次元的な位置情報は、(例えば、所定の時間ごとに)ネットワーク30を介してサーバ20に送信される。
サーバ20において、通信部250は、俯瞰映像撮影部62から送信された拠点A〜Dそれぞれの拠点映像を、ネットワーク30を介して受信する。また、通信部250は、測位部61から送信された拠点A〜Dそれぞれに存在する情報端末10の三次元的な位置情報を、ネットワーク30を介して受信する。取得部212は、拠点A〜Dそれぞれの拠点映像および拠点A〜Dそれぞれに存在する情報端末10の三次元的な位置情報を取得する。
各拠点の三次元的な位置と拠点映像における二次元的な位置との対応関係は、サーバ20によってあらかじめ把握されている。処理部213は、かかる対応関係と、情報端末10の三次元的な位置情報とに基づいて、拠点映像における情報端末10の位置(二次元位置)を算出する。なお、俯瞰映像撮影部62が全方位カメラによって構成される場合も想定される。かかる場合には、処理部213は、全方位カメラによって撮影された拠点画像から拠点映像における情報端末10の位置を算出してもよい。あるいは、拠点映像における情報端末10の位置は、あらかじめ固定値として設定されていてもよい。
また、本発明の実施形態において、拠点映像における情報端末10の位置は、拠点映像における情報端末10の利用者の位置の例として用いられる。したがって、拠点映像における情報端末10の位置の代わりに、拠点映像における情報端末10の利用者の位置が直接的に得られる場合には、拠点映像における情報端末10の位置の代わりに、拠点映像における情報端末10の利用者の位置が用いられてもよい。
処理部213は、拠点映像における情報端末10の位置情報を拠点映像に対応付ける処理を拠点ごとに行う。これによって、処理部213は、拠点A〜Dごとに情報端末10の位置情報が付された拠点映像を得る。さらに、処理部213は、拠点A〜Dの拠点映像の解像度を低下させることによって、拠点A〜Dの低解像度データ(以下、「拠点A〜Dのサムネイル映像」とも言う。)を生成する。
ここで、拠点A〜Dそれぞれに存在する情報端末10の表示部170において、所定の表示領域(以下、「メイン領域」とも言う。)には、拠点A〜Dの拠点映像のうち、指定されている拠点映像の少なくとも一部(ここでは、指定されている部分)の映像が表示対象映像として表示される。表示対象映像は、当該表示対象映像の表示を行う情報端末10ごとに異なり得る。一方、メイン領域よりも小さい表示領域(以下、「サムネイル領域」とも言う。)には、拠点A〜Dのサムネイル映像が表示される。
そこで、送信制御部214は、拠点A〜Dのサムネイル映像と表示対象映像とを、通信部150を介して拠点A〜Dそれぞれに存在する情報端末10に提供する。なお、以下では、拠点A〜Dのサムネイル映像と表示対象映像との組み合わせを、「表示用データ」と言う場合がある。
拠点A〜Dそれぞれに存在する情報端末10において、表示制御部114は、通信部150を介して表示用データを取得する。表示制御部114は、表示用データに基づいて、表示用データが表示部170によって表示されるように表示部170を制御する。以下では、(拠点Aに存在する)情報端末10A(図5)の利用者(第2の利用者)の名称を「利用者UA」(図5)とする。また、(拠点Bに存在する)情報端末10B(図4)の利用者(第1の利用者)の名称を「利用者UB」(図4)として説明を続ける。
以下では、利用者UAと利用者UBとの間のコミュニケーションを自然に行わせるための技術について主に説明する。しかし、かかる技術は、他の利用者間でのコミュニケーションにも同様に適用され得る。なお、以下では、利用者UAと利用者UBとが異なる拠点に存在する場合を主に想定する。しかし、利用者UAと利用者UBとは、同じ拠点に存在してもよい。すなわち、利用者UAと利用者UBとの間のコミュニケーションを自然に行わせるための技術は、同じ拠点内に存在する利用者間のコミュニケーションにも適用され得る。
具体的に、以下では、情報端末10Aによって表示される画面例と、情報端末10Bによって表示される画面例とを参照しながら、利用者UAと利用者UBとの間のコミュニケーションを自然に行わせるための技術について主に説明を続ける。
図4は、本発明の第1の実施形態に係る情報端末10Bによって表示される画面例を示す図である。図4を参照すると、(拠点Bに存在する)情報端末10Bによって表示される画面の一例として画面G13が示されている。画面G13は、利用者UBによって視認可能である。画面G13には、メイン領域R1(第1の表示領域)とサムネイル領域R2とが含まれている。ここで、図4に示した例では、メイン領域R1の下にサムネイル領域R2が存在している。しかし、メイン領域R1とサムネイル領域R2との位置関係は限定されない。
情報端末10Bの表示制御部114は、メイン領域R1に表示対象映像が表示されるように表示部170を制御する。ここでは、拠点Aの拠点映像(第2の撮像映像)の一部が表示対象映像に含まれる場合を想定する。したがって、メイン領域R1には、拠点Aの拠点映像の一部(当該一部には、利用者UAと利用者UAによって利用される情報端末10Aとが写っている)が表示されている。一方、情報端末10Bの表示制御部114は、サムネイル領域R2に拠点A〜Dのサムネイル映像が表示されるように表示部170を制御する。サムネイル領域R2の注目領域86には、メイン領域R1に表示されている表示対象映像に対応するデータ(表示対象映像の低解像度データ)が表示されている。
なお、図4に示した例では、サムネイル領域R2に、拠点A〜Dのサムネイル映像が、拠点Cのサムネイル映像の右半分、拠点Dのサムネイル映像、拠点Aのサムネイル映像、拠点Bのサムネイル映像、拠点Cのサムネイル映像の左半分の順に左から右へスペースなく並べられている。しかし、拠点A〜Dのサムネイル映像が並べられる方向は、左右方向に限定されない。例えば、拠点A〜Dのサムネイル映像が並べられる方向は、上下方向であってもよい。
その他、画面G13には、拠点名71、メッセージ入力欄72、メニュー選択欄73、利用者名74、端末名76、および、賛同数77が表示されている。拠点名71は、メイン領域R1に写っている拠点(ここでは、拠点A)の名称である。メッセージ入力欄72は、利用者によるテキストメッセージの入力欄である。メニュー選択欄73は、各種設定のためのメニュー選択欄である。利用者名74は、画面G13を見ている利用者の名称(利用者UB)である。端末名76は、画面G13を表示している情報端末10の名称(情報端末10B)である。賛同数77は、画面G13を見ている利用者UBが他の利用者から得た賛同数である。
また、画面G13には、音量バー84および音声認識中表示85が表示されている。音量バー84は、音声入力部130によって受け付けられた利用者UBが発した音声の音量を示す。音声入力部130によって受け付けられた音声は、通話中である場合には制御部110によって通信部150を介して相手先に送信される。また、通話中に通信部150を介して入力された相手先の音声は、制御部110によって音声出力部160を介して出力される。
音声認識中表示85は、音声入力部130によって受け付けられた利用者UBが発した音声に対して音声認識が実行されていることを示す。音声認識が実行されている場合には、音声認識中表示85に含まれる3つのランプが順に点滅する。なお、音声認識によって得られたテキストデータは、メッセージ入力欄72に設定される。さらに、相手先との接続後には、音声認識によって得られたテキストデータは、制御部110によって通信部150を介して相手先に送信される。
図4に示された例では、メイン領域R1に拠点Aの拠点映像の一部が表示されている。このとき、利用者UBが拠点Aにおける他の領域を閲覧したいと考えた場合、または、拠点Aとは異なる拠点の拠点映像を閲覧したいと考えた場合を想定する。かかる場合には、利用者UBは、メイン領域R1に対するスワイプ操作を入力すればよい。操作部120によってメイン領域R1に対するスワイプ操作が受け付けられると、表示制御部114は、スワイプ操作に基づいてメイン領域R1に表示された表示対象映像をスクロールさせる。
ここで、利用者UBが(拠点Aのサムネイル映像の左隣にサムネイル映像が配置された)拠点Dの拠点映像を閲覧したいと考えた場合を想定する。かかる場合には、メイン領域R1に対する右方向へのスワイプ操作を入力すればよい。このとき、表示制御部114は、右方向へのスワイプ操作に基づいて、メイン領域R1の表示切り替えを行う。これによって、メイン領域R1に表示される表示対象映像が拠点Aの拠点映像の一部を含んだ状態から拠点Dの拠点映像の一部を含んだ状態に切り替わる。より詳細には、メイン領域R1に表示される表示対象映像が拠点Aの拠点映像の左端を超えると、表示制御部114は、拠点Dの拠点映像の右端を表示させ始める。
なお、操作部120によって操作部120を介してメイン領域R1に対するスワイプ操作が受け付けられる場合を主に想定した。しかし、操作部120によってサムネイル領域R2に対するスワイプ操作が受け付けられてもよい。かかる場合には、表示制御部114は、サムネイル領域R2に対するスワイプ操作に基づいてサムネイル領域R2に表示された拠点A〜Dのサムネイル映像をスクロールさせる。なお、スワイプ操作が行われなくても、メイン領域R1に表示される表示対象映像またはサムネイル領域R2に表示された拠点A〜Dのサムネイル映像が自動的にスクロールされてもよい。
上記したように、サムネイル領域R2の注目領域86には、メイン領域R1に表示されている表示対象映像に対応するデータ(表示対象映像の低解像度データ)が表示される。すなわち、メイン領域R1に対してスワイプ操作が行われようと、サムネイル領域R2に対してスワイプ操作が行われようと、表示制御部114は、メイン領域R1に表示される表示対象映像とサムネイル領域R2に表示された拠点A〜Dのサムネイル映像との間でスクロールを連動させるのがよい。
なお、メイン領域R1に表示される表示対象映像とサムネイル領域R2に表示された拠点A〜Dのサムネイル映像との間のスクロールの連動には、時間差があってもよいし、時間差がなくてもよい。あるいは、メイン領域R1に表示される表示対象映像とサムネイル領域R2に表示された拠点A〜Dのサムネイル映像との間のスクロールは、連動しなくてもよい。メイン領域R1には、所定領域C2が設定されているが、所定領域C2については、後に説明する。
図5は、本発明の第1の実施形態に係る情報端末10Aによって表示される画面例を示す図である。図5を参照すると、(拠点Aに存在する)情報端末10Aによって表示される画面の一例として画面G14が示されている。画面G14は、利用者UAによって視認可能である。画面G14には、利用者UBによって視認可能な画面G13(図4)と同様に、メイン領域R1(第2の表示領域)とサムネイル領域R2とが含まれている。
情報端末10Aの表示制御部114は、メイン領域R1に表示対象映像が表示されるように表示部170を制御する。ここでは、拠点Bの拠点映像(第1の撮像映像)の一部が表示対象映像に含まれる場合を想定する。したがって、メイン領域R1には、拠点Bの拠点映像の一部(当該一部には、利用者UBと利用者UBによって利用される情報端末10Bとが写っている)が表示されている。一方、情報端末10Aの表示制御部114は、サムネイル領域R2に拠点A〜Dのサムネイル映像が表示されるように表示部170を制御する。
なお、図5に示した例では、サムネイル領域R2に、拠点A〜Dのサムネイル映像が、拠点Dのサムネイル映像の右半分、拠点Aのサムネイル映像、拠点Bのサムネイル映像、拠点Cのサムネイル映像、拠点Dのサムネイル映像の左半分の順に左から右へスペースなく並べられている。しかし、拠点A〜Dのサムネイル映像が並べられる方向は、左右方向に限定されない。例えば、拠点A〜Dのサムネイル映像が並べられる方向は、上下方向であってもよい。
その他、画面G14には、画面G13(図4)と同様に、拠点名71、メッセージ入力欄72、メニュー選択欄73、利用者名74、端末名76、および、賛同数77が表示されている。図5に示された例では、メイン領域R1に拠点Bの拠点映像の一部が表示されている。メイン領域R1に表示された表示対象映像、および、サムネイル領域R2に表示された拠点A〜Dのサムネイル映像は、画面G13(図4)の表示領域映像およびサムネイル映像と同様にスクロール可能であってよい。メイン領域R1には、所定領域C1が設定されているが、所定領域C1については、後に説明する。
情報端末10Aの視線検出部111は、(画面G14のメイン領域R1を含む)情報端末10Aまたは画面G14(すなわち、アプリケーション画面)を利用者UAが注視しているという条件(以下、「利用者UAの視線に関する条件」とも言う。)が満たされているか否かを検出する。情報端末10Aまたは画面G14の注視は、情報端末10Aまたは画面G14に利用者UAの視点が連続して所定の時間(例えば、5秒)以上存在することを意味してよいが、情報端末10Aまたは画面G14に視点が存在する時間の長さは限定されない。なお、一例として、情報端末10Aの視線検出部111は、情報端末10Aの撮影部180によって撮影された利用者UAの眼球画像に基づいて、利用者UAの視線を検出すればよい。
情報端末10Aの表示端末検出部112は、画面G14のメイン領域R1における利用者UBの位置がある条件(第1の条件)を満たしているか否かを検出する。以下、第1の条件を「利用者UBの表示位置に関する条件」とも言う。ここで、「利用者UBの表示位置に関する条件」は、特に限定されない。本発明の第1の実施形態では、「利用者UBの表示位置に関する条件」が、図5に示されたように、画面G14のメイン領域R1における利用者UBの位置が所定領域C1の内部に存在するという条件を含む場合を想定する。なお、所定領域C1は、あらかじめ設定された領域であり、典型的には、図5に示されたように、メイン領域R1の左右方向への中央領域である場合が想定される。しかし、所定領域C1は、かかる例に限定されない。所定領域C1は、画面G14のメイン領域R1において利用者UAによって視認しやすい位置であればよい。
本発明の第1の実施形態では、「利用者UBの表示位置に関する条件」が満たされていることが表示端末検出部112によって検出された場合、かつ、「利用者UAの視線に関する条件」が満たされていることが視線検出部111によって検出された場合に、端末状態確認部113が、利用者UAが画面G14における利用者UBを視認しているとみなす場合を想定する。しかし、利用者UAが画面G14における利用者UBを視認しているとみなされるための条件は、かかる条件に限定されない。
例えば、「利用者UBの表示位置に関する条件」が満たされていることが表示端末検出部112によって検出された場合に、利用者UAが画面G14における利用者UBを視認しているとみなされてもよい。あるいは、「利用者UBの表示位置に関する条件」(あるいは、「利用者UBの表示位置に関する条件」かつ「利用者UAの視線に関する条件」)に追加して、画面G14が最前面に表示されているという条件が満たされている場合に、利用者UAが画面G14における利用者UBを視認しているとみなされてもよい。
情報端末10Aの端末状態確認部113は、利用者UAが画面G14における利用者UBを視認しているとみなした場合、情報端末10Bの状態(すなわち、情報端末10Bの利用者UBが利用者UAを視認している否か)を確認するための確認要求を、通信部250を介してサーバ20に提供する。サーバ20において、通信部250は、確認要求を受信すると、受信した確認要求を利用者UBの情報端末10Bに送信する。情報端末10Bにおいては、通信部150によって確認要求が受信される。
情報端末10Bにおいて、通信部150によって確認要求が受信されると、情報端末10Bの視線検出部111は、情報端末10Aの視線検出部111と同様に、(画面G13のメイン領域R1を含む)情報端末10Bまたは画面G13を利用者UBが注視しているという条件(以下、「利用者UBの視線に関する条件」とも言う。)を満たしているか否かを検出する。情報端末10Bまたは画面G13の注視は、情報端末10Aまたは画面G14の注視と同様である。また、情報端末10Bの視線検出部111による利用者UBの視線検出は、情報端末10Aの視線検出部111による利用者UAの視線検出と同様に行われればよい。
情報端末10Bの表示端末検出部112は、画面G13のメイン領域R1における利用者UAの位置がある条件(第2の条件)を満たしているか否かを検出する。以下、第2の条件を「利用者UAの表示位置に関する条件」とも言う。ここで、「利用者UAの表示位置に関する条件」は、上記した「利用者UBの表示位置に関する条件」と同様であってよい。なお、所定領域C2は、あらかじめ設定された領域であり、所定領域C1と同様に特に限定されない。
本発明の第1の実施形態では、確認要求の受信から所定の時間(例えば、10秒)以内に、「利用者UAの表示位置に関する条件」が満たされていることが表示端末検出部112によって検出された場合、かつ、「利用者UBの視線に関する条件」が満たされていることが視線検出部111によって検出された場合に、端末状態確認部113が、利用者UAが画面G14における利用者UBを視認しているとみなす場合を想定する。しかし、利用者UBが画面G13における利用者UAを視認しているとみなされるための条件は、上記した、利用者UAが画面G14における利用者UBを視認しているとみなされるための条件と同様に限定されない。
情報端末10Bの端末状態確認部113は、情報端末10Bの状態を示す確認応答を、通信部250を介してサーバ20に提供する。より詳細に、情報端末10Bの端末状態確認部113は、利用者UBが画面G13における利用者UAを視認しているとみなした場合、情報端末10Bの利用者UBが利用者UAを視認していることを示す確認応答を、通信部250を介してサーバ20に提供する。
情報端末10Bにおいて、利用者UBが画面G13における利用者UAを視認しているとみなした場合、撮影部180は、利用者UBの顔の撮影を開始することによって、利用者UBの人物映像を得る。通信部150は、利用者UBの人物映像をサーバ20に送信する。
サーバ20において、通信部250は、情報端末10Bによって送信された確認応答を受信し、取得部212は、確認応答を取得する。送信制御部214は、取得部212によって取得された確認応答が、通信部150によって利用者UAの情報端末10Aに送信されるように通信部150を制御する。情報端末10Aにおいては、通信部150によって確認応答が受信される。
情報端末10Aにおいては、情報端末10Bの利用者UBが利用者UAを視認していることを示す確認応答が、確認要求を送信してから所定の時間(例えば、10秒)以内に通信部150によって受信された場合、撮影部180は、利用者UAの顔の撮影を開始することによって、利用者UAの人物映像を得る。通信部150は、利用者UAの人物映像をサーバ20に送信する。
サーバ20において、取得部212が、通信部250を介して、情報端末10Aから送信された利用者UAの人物映像を取得すると、処理部213は、拠点Aの拠点映像における情報端末10Aの位置に応じた位置に、利用者UAの人物映像を重畳する。同様に、取得部212が、通信部250を介して、情報端末10Bから送信された利用者UBの人物映像を取得すると、処理部213は、拠点Bの拠点映像における情報端末10Bの位置に応じた位置に、利用者UBの人物映像を重畳する。
ここで、「拠点Aの拠点映像における情報端末10Aの位置に応じた位置」は、拠点Aの拠点映像における情報端末10Aの位置そのものであってもよいし、拠点Aの拠点映像における情報端末10Aの位置から所定の方向に所定の長さだけずれた位置であってもよい。例えば、情報端末10Aよりも上側に利用者UAの顔があることがあらかじめ分かっている場合などには、「拠点Aの拠点映像における情報端末10Aの位置に応じた位置」は、拠点Aの拠点映像における情報端末10Aの位置から上に所定の長さだけずれた位置であってもよい。「拠点Bの拠点映像における情報端末10Bの位置に応じた位置」も同様である。
情報端末10Bにおいて、通信部150は、サーバ20から送信された(利用者UAの人物映像が重畳された)表示対象映像を受信する。情報端末10Bにおいて、表示制御部114は、サーバ20から受信された(利用者UAの人物映像が重畳された)表示対象映像がメイン領域R1に表示されるように表示部170を制御する。
図6は、利用者UAの人物映像が重畳された表示対象映像がメイン領域R1に表示された例を示す図である。図6を参照すると、情報端末10Bの表示制御部114は、利用者UAの人物映像91Aが、拠点Aの拠点映像における情報端末10Aの位置に応じた位置(ここでは、拠点Aの拠点映像における情報端末10Aの位置から上に所定の長さだけずれた位置)に重畳された表示対象映像が表示部170によって表示されるように表示部170を制御している例が示されている。
同様に、情報端末10Aにおいて、通信部150は、サーバ20から送信された(利用者UBの人物映像が重畳された)表示対象映像を受信する。情報端末10Aにおいて、表示制御部114は、サーバ20から受信された(利用者UBの人物映像が重畳された)表示対象映像がメイン領域R1に表示されるように表示部170を制御する。
図7は、利用者UBの人物映像が重畳された表示対象映像がメイン領域R1に表示された例を示す図である。図7を参照すると、情報端末10Aの表示制御部114は、利用者UBの人物映像91Bが、拠点Bの拠点映像における情報端末10Bの位置に応じた位置(ここでは、拠点Bの拠点映像における情報端末10Bの位置から上に所定の長さだけずれた位置)に重畳された表示対象映像が表示部170によって表示されるように表示部170を制御している例が示されている。
このようにして表示された利用者UBの人物映像91Bを利用者UAが視認し、かつ、利用者UAの人物映像91Aを利用者UBが視認することによって(すなわち、利用者UAと利用者UBとが互いに相手の人物映像を視認することによって)、利用者UAと利用者UBとの間において、擬似的に互いの目線を合わせる操作体験が可能となる。このとき、例えば、利用者UAと利用者UBとの間において、会釈または手を振るといった自然で気軽なコミュニケーションを交わすことが可能となる。
利用者UBの人物映像91Bを利用者UAが視認し、かつ、利用者UAの人物映像91Aを利用者UBが視認した後は、他のコミュニケーション手段を用いて改めて利用者UAと利用者UBとの間でコミュニケーションが取られてもよい。例えば、利用者UBおよび利用者UAの一方から他方に向けて電話が掛けられてもよい。あるいは、利用者UBおよび利用者UAの一方から他方に向けてメールが送信されてもよい。
情報端末10Aの視線検出部111が、情報端末10Aまたは画面G14に対する利用者UAの視線が所定の時間以上外れたという条件が満たされたと判定した場合、および、情報端末10Bの視線検出部111が、情報端末10Bまたは画面G13に対する利用者UBの視線が所定の時間以上外れたという条件が満たされたと判定した場合の少なくともいずれか一方の場合、情報端末10Aおよび情報端末10Bによる人物映像の表示が解除されてもよい。
ここでは、先に利用者UAが画面G14における利用者UBを視認しているとみなされた後に、利用者UBが画面G13における利用者UAを視認しているとみなされた場合を主に想定した。しかし、利用者UAが画面G14における利用者UBを視認しているとみなされることと、利用者UBが画面G13における利用者UAを視認しているとみなされることとの先後関係は限定されない。すなわち、先に利用者UBが画面G13における利用者UAを視認しているとみなされた後に、利用者UAが画面G14における利用者UBを視認しているとみなされてもよい。
以上、本発明の第1の実施形態に係る表示制御システム1の利用例について説明した。
(1−5.システムの動作例)
続いて、本発明の第1の実施形態に係る表示制御システム1の動作例について説明する。図8は、本発明の第1の実施形態に係る表示制御システム1の動作例を示すフローチャートである。なお、図8に示された例では、先に他の利用者を注視した利用者の情報端末10を「第1の情報端末10」と称し、当該他の利用者の情報端末10を「第2の情報端末10」と称する。
続いて、本発明の第1の実施形態に係る表示制御システム1の動作例について説明する。図8は、本発明の第1の実施形態に係る表示制御システム1の動作例を示すフローチャートである。なお、図8に示された例では、先に他の利用者を注視した利用者の情報端末10を「第1の情報端末10」と称し、当該他の利用者の情報端末10を「第2の情報端末10」と称する。
まず、各拠点の俯瞰映像撮影部62は、各拠点の映像を撮影する。また、各拠点の測位部61は、各拠点に存在する情報端末10の位置を測定する。サーバ20において、取得部212は、拠点A〜Dそれぞれの拠点映像および拠点A〜Dそれぞれに存在する情報端末10の三次元的な位置情報を、通信部250を介して取得する。
処理部213は、拠点A〜Dそれぞれの拠点映像に対して情報端末10の拠点映像における位置情報を付する。また、処理部213は、拠点A〜Dの映像それぞれの解像度を低下させることによって、拠点A〜Dのサムネイル映像を生成する。表示対象映像と拠点A〜Dのサムネイル映像とは表示用データとして生成され、拠点A〜Dそれぞれに存在する情報端末10に配信される。
各拠点に存在する情報端末10において、表示制御部114は、表示対象映像がメイン領域R1に表示されるように制御し、拠点A〜Dのサムネイル映像がサムネイル領域R2に表示されるように制御する。第1の情報端末10の視線検出部111は、第1の情報端末10(またはアプリケーション画面)を利用者が注視しているという条件が満たされているか否かを検出する(S11)。第1の情報端末10の視線検出部111は、第1の情報端末10(またはアプリケーション画面)を利用者が注視しているという条件が満たされていない場合(S11において「NO」)、S11に戻る。
一方、第1の情報端末10の視線検出部111は、第1の情報端末10(またはアプリケーション画面)を利用者が注視しているという条件が満たされている場合(S11において「YES」)、第1の情報端末10の表示端末検出部112は、第1の情報端末10の表示部170の所定領域に第2の情報端末10を表示しているか否かを判定する(S12)。第1の情報端末10の表示端末検出部112は、第1の情報端末10の表示部170の所定領域に第2の情報端末10を表示していない場合には(S12において「NO」)、S11に戻る。
一方、第1の情報端末10の端末状態確認部113は、第2の情報端末10の状態を確認する(S13)。第1の情報端末10の端末状態確認部113は、第2の情報端末10の状態の確認開始から所定の時間を超えた場合には(S14において「NO」)、動作を終了する。一方、第1の情報端末10の端末状態確認部113は、第2の情報端末10の状態の確認開始から所定の時間以内である場合には(S14において「YES」)、S15に動作を移行させる。
第2の情報端末10の視線検出部111は、第2の情報端末10(またはアプリケーション画面)を利用者が注視しているという条件が満たされているか否かを検出する(S15)。第2の情報端末10の視線検出部111は、第2の情報端末10(またはアプリケーション画面)を利用者が注視しているという条件が満たされていない場合(S15において「NO」)、S14に戻る。
一方、第2の情報端末10の視線検出部111は、第2の情報端末10(またはアプリケーション画面)を利用者が注視しているという条件が満たされている場合(S15において「YES」)、第2の情報端末10の表示端末検出部112は、第2の情報端末10の表示部170の所定領域に第1の情報端末10を表示しているか否かを判定する(S16)。第2の情報端末10の表示端末検出部112は、第2の情報端末10の表示部170の所定領域に第1の情報端末10を表示していない場合には(S16において「NO」)、S14に戻る。
一方、第2の情報端末10の表示部170の所定領域に第1の情報端末10を表示している場合には、(S16において「YES」)、サーバ20は、第1の情報端末10に、第2の情報端末10の撮影部180によって撮影された撮影データ(人物映像)を表示対象映像に重畳して表示させる(S17)。それとともに、サーバ20は、第2の情報端末10に、第1の情報端末10の撮影部180によって撮影された撮影データ(人物映像)を表示対象映像に重畳して表示させる(S18)。
第1の情報端末10の視線検出部111が、第1の情報端末10(またはアプリケーション画面)に対する利用者の視線が所定の時間以上外れたという条件が満たされたと判定した場合、および、第2の情報端末10の視線検出部111が、第2の情報端末10(またはアプリケーション画面)に対する利用者の視線が所定の時間以上外れたという条件が満たされたと判定した場合のいずれでもない場合(S19において「NO」)、S17およびS18に動作が移行される。一方、これらの条件の少なくともいずれか一方の場合(S19において「YES」)、動作が終了される。
以上、本発明の第1の実施形態に係る表示制御システム1の動作例について説明した。
(1−6.まとめ)
本発明の第1の実施形態によれば、第2の利用者の人物映像を第1の利用者が視認し、かつ、第1の利用者の人物映像を第2の利用者が視認することによって(すなわち、第1の利用者と第2の利用者とが互いに相手の人物映像を視認することによって)、第1の利用者と第2の利用者との間において、擬似的に互いの目線を合わせる操作体験が可能となる。このとき、例えば、第1の利用者と第2の利用者との間において、会釈または手を振るといった自然で気軽なコミュニケーションを交わすことが可能となる。
本発明の第1の実施形態によれば、第2の利用者の人物映像を第1の利用者が視認し、かつ、第1の利用者の人物映像を第2の利用者が視認することによって(すなわち、第1の利用者と第2の利用者とが互いに相手の人物映像を視認することによって)、第1の利用者と第2の利用者との間において、擬似的に互いの目線を合わせる操作体験が可能となる。このとき、例えば、第1の利用者と第2の利用者との間において、会釈または手を振るといった自然で気軽なコミュニケーションを交わすことが可能となる。
上記では、利用者UAが画面G14における利用者UBを視認しているとみなされた場合、かつ、利用者UBが画面G13における利用者UAを視認しているとみなされた場合に(すなわち、利用者同士がお互いに見合った場合)、情報端末10Aが利用者UBの人物映像を表示し、情報端末10Bが、利用者UBの人物映像を表示する例について説明した。しかし、利用者UAが画面G14における利用者UBを視認しているとみなされた場合に、情報端末10Bの表示制御部114は、利用者UAの人物映像が表示されるように制御してもよい。
このとき、利用者UAの人物映像が情報端末10Bにおいて利用者UBによって視認されやすいように、情報端末10Bの表示制御部114は、メイン領域R1に表示される表示対象領域を自動的にスクロールさせてもよい。より詳細に、情報端末10Bの表示制御部114は、利用者UAが画面G14における利用者UBを視認しているとみなされた場合、利用者UAの位置が画面G13のメイン領域R1における所定の位置(例えば、所定領域C2内の位置)に移動するように表示対象映像をメイン領域R1においてスクロールさせてもよい。
このようなスクロールは、利用者の操作によって行われてもよい。例えば、利用者UBが利用者UAを選択する操作(選択操作)を入力した場合、情報端末10Bの表示制御部114は、利用者UAの位置がメイン領域R1における所定の位置(例えば、所定領域C2内の位置)に移動するように表示対象映像をメイン領域R1においてスクロールさせてもよい。選択操作は、利用者UBの名称を(音声またはテキストによって)入力する操作であってもよいし、リストから利用者UAの名称を選択する操作であってもよい。
以上、本発明の第1の実施形態について説明した。
(2.第2の実施形態)
続いて、本発明の第2の実施形態について説明する。以下では、本発明の第2の実施形態に係る表示制御システムが有する構成のうち、本発明の第1の実施形態に係る表示制御システムが有する構成と異なる構成について主に説明する。そして、本発明の第2の実施形態に係る表示制御システムが有する構成のうち、本発明の第1の実施形態に係る表示制御システムが有する構成と共通する構成については、詳細な説明を省略する。
続いて、本発明の第2の実施形態について説明する。以下では、本発明の第2の実施形態に係る表示制御システムが有する構成のうち、本発明の第1の実施形態に係る表示制御システムが有する構成と異なる構成について主に説明する。そして、本発明の第2の実施形態に係る表示制御システムが有する構成のうち、本発明の第1の実施形態に係る表示制御システムが有する構成と共通する構成については、詳細な説明を省略する。
具体的に、本発明の第2の実施形態では、表示制御システム1が、本発明の第1の実施形態に係る情報端末10の代わりに、情報端末12を有する。また、本発明の第2の実施形態では、表示制御システム1が、本発明の第1の実施形態に係るサーバ20の代わりに、サーバ22を有する。したがって、以下では、本発明の第2の実施形態に係る情報端末12およびサーバ22について主に説明する。
(2−1.情報端末の機能構成)
次に、図9を参照して、本発明の第2の実施形態に係る情報端末12の機能構成の一例を説明する。図9は、本発明の第2の実施形態に係る情報端末12の機能構成の一例を示すブロック図である。図9を参照すると、本発明の第2の実施形態に係る情報端末12は、視線検出部111および表示端末検出部112の代わりに、視線検出部116を有する点において、本発明の第1の実施形態に係る情報端末10と異なっている。したがって、以下では、視線検出部116について主に説明する。
次に、図9を参照して、本発明の第2の実施形態に係る情報端末12の機能構成の一例を説明する。図9は、本発明の第2の実施形態に係る情報端末12の機能構成の一例を示すブロック図である。図9を参照すると、本発明の第2の実施形態に係る情報端末12は、視線検出部111および表示端末検出部112の代わりに、視線検出部116を有する点において、本発明の第1の実施形態に係る情報端末10と異なっている。したがって、以下では、視線検出部116について主に説明する。
以上、本発明の第2の実施形態に係る情報端末12の機能構成の一例について説明した。
(2−2.サーバの機能構成)
次に、図10を参照して、本発明の第2の実施形態に係るサーバ22の機能構成の一例を説明する。図10は、本発明の第2の実施形態に係るサーバ22の機能構成の一例を示すブロック図である。図10を参照すると、本発明の第2の実施形態に係るサーバ22は、対応付け処理部215を有する点において、本発明の第1の実施形態に係るサーバ20と異なっている。したがって、以下では、対応付け処理部215について主に説明する。
次に、図10を参照して、本発明の第2の実施形態に係るサーバ22の機能構成の一例を説明する。図10は、本発明の第2の実施形態に係るサーバ22の機能構成の一例を示すブロック図である。図10を参照すると、本発明の第2の実施形態に係るサーバ22は、対応付け処理部215を有する点において、本発明の第1の実施形態に係るサーバ20と異なっている。したがって、以下では、対応付け処理部215について主に説明する。
以上、本発明の第2の実施形態に係るサーバ22の機能構成の一例について説明した。
(2−3.システムの利用例)
続いて、本発明の第2の実施形態に係る表示制御システム1の利用例について説明する。本発明の第1の実施形態と同様にして、処理部213は、拠点映像における情報端末12の位置(二次元位置)を算出する。対応付け処理部215は、拠点映像における情報端末12の位置を基準とした所定の範囲を視線検出用範囲として設定する。視線検出用範囲は、人物映像の位置と同様に、拠点映像における情報端末12の位置そのものであってもよいし、拠点映像における情報端末12の位置から所定の方向に所定の長さだけずれた位置であってもよい。
続いて、本発明の第2の実施形態に係る表示制御システム1の利用例について説明する。本発明の第1の実施形態と同様にして、処理部213は、拠点映像における情報端末12の位置(二次元位置)を算出する。対応付け処理部215は、拠点映像における情報端末12の位置を基準とした所定の範囲を視線検出用範囲として設定する。視線検出用範囲は、人物映像の位置と同様に、拠点映像における情報端末12の位置そのものであってもよいし、拠点映像における情報端末12の位置から所定の方向に所定の長さだけずれた位置であってもよい。
ここでは、対応付け処理部215が、拠点映像の視線検出用範囲に視線検出用オブジェクトを対応付ける処理を行う場合を主に想定する。これによって、処理部213は、拠点A〜Dごとに情報端末12の位置を基準とした所定の範囲に視線検出用オブジェクトが対応付けられた拠点映像を得る。しかし、視線検出用オブジェクトは、拠点映像の視線検出用範囲に対応付けられなくてもよい。さらに、処理部213は、拠点A〜Dの拠点映像の解像度を低下させることによって、拠点A〜Dのサムネイル映像を生成する。
送信制御部214は、拠点A〜Dのサムネイル映像と視線検出用オブジェクトが対応付けられた表示対象映像とを、通信部150を介して拠点A〜Dそれぞれに存在する情報端末12に提供する。拠点A〜Dそれぞれに存在する情報端末12において、表示制御部114は、通信部150を介して表示用データを取得する。表示制御部114は、表示用データに基づいて、表示用データが表示部170によって表示されるように表示部170を制御する。
図11は、本発明の第2の実施形態に係る情報端末12Bによって表示される画面例を示す図である。図11を参照すると、(拠点Bに存在する)情報端末12Bによって表示される画面の一例として画面G17が示されている。画面G17は、利用者UBによって視認可能である。画面G17には、メイン領域R1とサムネイル領域R2とが含まれている。本発明の第2の実施形態では、図11に示されるように、表示制御部114は、サーバ22によって視線検出用オブジェクト92Aが対応付けられた表示対象領域をメイン領域R1に表示させる。
図11に示されるように、視線検出用オブジェクト92Aは、半透明であるのが望ましい。これによって、利用者UBは、メイン領域R1に表示されている表示対象映像に写る利用者UAを視認しつつ、視線検出用オブジェクト92Aに視線を当てることが可能になる。
ここで、視線検出用オブジェクト92Aのサイズは、固定的に決められていてもよいが、状況に応じて変化してもよい。例えば、視線検出用オブジェクト92Aのサイズは、利用者UAの状況に応じて変化してもよい。すなわち、対応付け処理部215は、利用者UAの状況を計測し、視線検出用オブジェクト92Aのサイズを利用者UAの状況に応じて変化させてもよい。ここで、利用者UAの状況は、利用者UAの特定の状況に限定されない。
一例として、利用者UAの状況は、利用者UAの位置と、画面G17のメイン領域R1に表示される表示対象映像を撮像する俯瞰映像撮影部62との距離を含んでもよい。例えば、当該距離は、対応付け処理部215によって利用者UAの位置と俯瞰映像撮影部62の位置とに基づいて計測されてもよい。例えば、利用者UAの三次元的な位置が拠点Aの俯瞰映像撮影部62から遠くなるにつれて、利用者UAが小さく表示対象映像に写ることになる。そのため、対応付け処理部215は、利用者UAの三次元的な位置が拠点Aの俯瞰映像撮影部62から遠くなるほど、視線検出用オブジェクト92Aのサイズを小さくしてもよい。
これによって、利用者UAのサイズに合わせたサイズの視線検出用オブジェクト92Aが表示されるため、利用者UAに対する利用者UBによる注視の検出精度の低下を抑制しつつ、利用者UAとは異なる被写体に対する注視を誤って利用者UAに対する注視と誤検出してしまう可能性が低減される。
あるいは、利用者UAの状況は、利用者UAの感情を含んでもよい。すなわち、対応付け処理部215は、視線検出用オブジェクト92Aのサイズを利用者UAの感情に応じて変化させてもよい。例えば、利用者UAの感情(例えば、ポジティブ度)は、対応付け処理部215によって利用者UAの人物映像に基づいて計測されてもよい。例えば、対応付け処理部215は、利用者UAのポジティブ度に応じて、視線検出用オブジェクト92Aのサイズを変化させてもよい。利用者UAのポジティブ度が高くなるほど、視線検出用オブジェクト92Aのサイズを大きくしてもよいし、視線検出用オブジェクト92Aのサイズを小さくしてもよい。
なお、本発明の第2の実施形態に係る情報端末12Aによって表示される画面例については、図11に示された情報端末12Bによって表示される画面G17と同様であるため、図示が省略されている。
ここで、本発明の第2の実施形態においては、情報端末12Aの視線検出部116は、視線検出用範囲内(すなわち、視線検出用オブジェクトの範囲内)を利用者UAが注視しているという条件(以下、「利用者UAの利用者UBに対する視線に関する条件」とも言う。)が満たされているか否かを検出する。視線検出用範囲内の注視は、視線検出用範囲内に利用者UAの視点が連続して所定の時間(例えば、5秒)以上存在することを意味してよいが、視線検出用範囲内に視点が存在する時間の長さは限定されない。
本発明の第2の実施形態では、「利用者UAの利用者UBに対する視線に関する条件」が満たされていることが視線検出部116によって検出された場合に、端末状態確認部113が、利用者UAがアプリケーション画面における利用者UBを視認しているとみなす場合を想定する。しかし、利用者UAがアプリケーション画面における利用者UBを視認しているとみなされるための条件は、かかる条件に限定されない。
例えば、「利用者UAの利用者UBに対する視線に関する条件」に追加して、アプリケーション画面が最前面に表示されているという条件が満たされている場合に、利用者UAがアプリケーション画面における利用者UBを視認しているとみなされてもよい。
情報端末12Aの端末状態確認部113は、利用者UAがアプリケーション画面における利用者UBを視認しているとみなした場合、情報端末12Bの状態(すなわち、情報端末12Bの利用者UBが利用者UAを視認している否か)を確認するための確認要求を、通信部250を介してサーバ22に提供する。サーバ22において、通信部250は、確認要求を受信すると、受信した確認要求を利用者UBの情報端末12Bに送信する。情報端末12Bにおいては、通信部150によって確認要求が受信される。
情報端末12Bにおいて、通信部150によって確認要求が受信されると、情報端末12Bの視線検出部116は、情報端末12Aの視線検出部116と同様に、視線検出用範囲内(すなわち、視線検出用オブジェクト92Aの範囲内)を利用者UBが注視しているという条件(以下、「利用者UBの利用者UAに対する視線に関する条件」とも言う。)を満たしているか否かを検出する。利用者UBによる視線検出用オブジェクト92Aの注視は、利用者UAによる視線検出用オブジェクトの注視と同様である。
本発明の第2の実施形態では、確認要求の受信から所定の時間(例えば、10秒)以内に、「利用者UBの利用者UAに対する視線に関する条件」が満たされていることが視線検出部116によって検出された場合に、端末状態確認部113が、利用者UBが画面G17における利用者UAを視認しているとみなす場合を想定する。しかし、利用者UBが画面G17における利用者UAを視認しているとみなされるための条件は、上記した、利用者UAが視線検出オブジェクト内を視認しているとみなされるための条件と同様に限定されない。
情報端末12Bの端末状態確認部113は、情報端末12Bの状態を示す確認応答を、通信部250を介してサーバ22に提供する。以降は、本発明の第1の実施形態と同様の手順に従って、情報端末12Bにおいて、表示制御部114は、サーバ22から受信された(利用者UAの人物映像が重畳された)表示対象映像がメイン領域R1に表示されるように表示部170を制御する。また、情報端末12Aにおいて、表示制御部114は、サーバ22から受信された(利用者UBの人物映像が重畳された)表示対象映像がメイン領域R1に表示されるように表示部170を制御する。
以上、本発明の第2の実施形態に係る表示制御システム1の利用例について説明した。
(2−3.システムの動作例)
続いて、本発明の第2の実施形態に係る表示制御システム1の動作例について説明する。図12は、本発明の第2の実施形態に係る表示制御システム1の動作例を示すフローチャートである。なお、図12に示された例においては、先に他の利用者を注視した利用者の情報端末12を「第1の情報端末12」と称し、当該他の利用者の情報端末12を「第2の情報端末12」と称する。
続いて、本発明の第2の実施形態に係る表示制御システム1の動作例について説明する。図12は、本発明の第2の実施形態に係る表示制御システム1の動作例を示すフローチャートである。なお、図12に示された例においては、先に他の利用者を注視した利用者の情報端末12を「第1の情報端末12」と称し、当該他の利用者の情報端末12を「第2の情報端末12」と称する。
本発明の第1の実施形態と同様に、各拠点の俯瞰映像撮影部62は、各拠点の映像を撮影する。また、各拠点の測位部61は、各拠点に存在する情報端末12の位置を測定する。サーバ22において、取得部212は、拠点A〜Dそれぞれの拠点映像および拠点A〜Dそれぞれに存在する情報端末12の三次元的な位置情報を、通信部250を介して取得する。
処理部213は、拠点A〜Dそれぞれの拠点映像における情報端末12の位置(二次元位置)を算出する。対応付け処理部215は、拠点A〜Dそれぞれの拠点映像における情報端末12の位置を基準とした所定の範囲を視線検出用範囲として設定する。対応付け処理部215は、拠点A〜Dそれぞれの拠点映像の視線検出用範囲に視線検出用オブジェクトを対応付ける処理を行う(S21)。さらに、処理部213は、拠点A〜Dの拠点映像の解像度を低下させることによって、拠点A〜Dのサムネイル映像を生成する。
視線検出用オブジェクトが対応付けられた表示対象映像と拠点A〜Dのサムネイル映像とは表示用データとして生成され、拠点A〜Dそれぞれに存在する情報端末12に配信される。各拠点に存在する情報端末12において、表示制御部114は、表示対象映像がメイン領域R1に表示されるように制御し、拠点A〜Dのサムネイル映像がサムネイル領域R2に表示されるように制御する。
第1の情報端末12の視線検出部116は、第2の情報端末12に対応付けられた視線検出用オブジェクトを利用者が所定の時間以上注視しているという条件が満たされているか否かを検出する(S22)。第1の情報端末12の視線検出部116は、第2の情報端末12に対応付けられた視線検出用オブジェクトに対して利用者が所定の時間以上注視しているという条件が満たされていない場合(S22において「NO」)、S21に戻る。一方、第2の情報端末12に対応付けられた視線検出用オブジェクトを利用者が所定の時間以上注視しているという条件が満たされている場合(S22において「YES」)、S13に動作が移行される。
S13およびS14は、本発明の第1の実施形態に係るS13およびS14と同様に実行される。
第2の情報端末12の視線検出部116は、第1の情報端末12に対応付けられた視線検出用オブジェクトを利用者が所定の時間以上注視しているという条件が満たされているか否かを検出する(S23)。第2の情報端末12の視線検出部116は、第1の情報端末12に対応付けられた視線検出用オブジェクトに対して利用者が所定の時間以上注視しているという条件が満たされていない場合(S23において「NO」)、S14に戻る。一方、第1の情報端末12に対応付けられた視線検出用オブジェクトを利用者が所定の時間以上注視しているという条件が満たされている場合(S23において「YES」)、S17およびS18に動作が移行される。
S17およびS18は、本発明の第1の実施形態に係るS17およびS18と同様に実行される。S17およびS18が実行された後には、S19に動作が移行される。S19も、本発明の第1の実施形態に係るS19と同様に実行される。
以上、本発明の第2の実施形態に係る表示制御システム1の動作例について説明した。
(2−4.まとめ)
本発明の第2の実施形態によれば、本発明の第1の実施形態と同様の効果を奏し得る。さらに、本発明の第2の実施形態によれば、利用者に対応する視線検出用範囲があらかじめ設定されており、視線検出用範囲内が利用者によって注視されていることが、視線検出用範囲内の利用者が注視されていることに置き換えられ得る。したがって、(例えば、画面内に複数の利用者が写っている場合などには)注視されている利用者が容易に特定され得る。
本発明の第2の実施形態によれば、本発明の第1の実施形態と同様の効果を奏し得る。さらに、本発明の第2の実施形態によれば、利用者に対応する視線検出用範囲があらかじめ設定されており、視線検出用範囲内が利用者によって注視されていることが、視線検出用範囲内の利用者が注視されていることに置き換えられ得る。したがって、(例えば、画面内に複数の利用者が写っている場合などには)注視されている利用者が容易に特定され得る。
さらに、本発明の第2の実施形態によれば、本発明の第1の実施形態と異なり、視線検出用範囲内の利用者が注視されるだけで、利用者が視認されているとみなされる。したがって、本発明の第2の実施形態によれば、画面内の所定領域に利用者が位置するまで画面をスクロールさせなくても済む。
以上、本発明の第2の実施形態について説明した。
(3.ハードウェア構成)
図13は、本発明の実施形態に係る情報端末10およびサーバ20(以下、情報端末10およびサーバ20それぞれを区別せずに「本実施形態に係る装置」と言う場合がある。)のハードウェア構成の一例を示すブロック図である。なお、情報端末10およびサーバ20それぞれに下記のハードウェア構成のすべてが備えられている必要はなく(例えば、サーバ20に直接的にセンサが備えられている必要はない)、各装置の機能構成を実現できるハードウェアモジュールが適宜限定して備えられてもよい。
図13は、本発明の実施形態に係る情報端末10およびサーバ20(以下、情報端末10およびサーバ20それぞれを区別せずに「本実施形態に係る装置」と言う場合がある。)のハードウェア構成の一例を示すブロック図である。なお、情報端末10およびサーバ20それぞれに下記のハードウェア構成のすべてが備えられている必要はなく(例えば、サーバ20に直接的にセンサが備えられている必要はない)、各装置の機能構成を実現できるハードウェアモジュールが適宜限定して備えられてもよい。
図13を参照すると、本実施形態に係る装置は、バス801、CPU(Central Processing Unit)803、ROM(Read Only Memory)805、RAM(Random Access Memory)807、記憶装置809、通信インタフェース811、センサ813、入力装置815、表示装置817、スピーカ819を備える。
CPU803は、本実施形態に係る装置における様々な処理を実行する。また、ROM805は、本実施形態に係る装置における処理をCPU803に実行させるためのプログラム及びデータを記憶する。また、RAM807は、CPU803の処理の実行時に、プログラム及びデータを一時的に記憶する。
バス801は、CPU803、ROM805及びRAM807を相互に接続する。バス801には、さらに、記憶装置809、通信インタフェース811、センサ813、入力装置815、表示装置817及びスピーカ819が接続される。バス801は、例えば、複数の種類のバスを含む。一例として、バス801は、CPU803、ROM805及びRAM807を接続する高速バスと、該高速バスよりも低速の1つ以上の別のバスを含む。
記憶装置809は、本実施形態に係る装置内で一時的または恒久的に保存すべきデータを記憶する。記憶装置809は、例えば、ハードディスク(Hard Disk)等の磁気記憶装置であってもよく、または、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュメモリ(flash memory)、MRAM(Magnetoresistive Random Access Memory)、FeRAM(Ferroelectric Random Access Memory)及びPRAM(Phase change Random Access Memory)等の不揮発性メモリ(nonvolatile memory)であってもよい。
通信インタフェース811は、本実施形態に係る装置が備える通信手段であり、ネットワークを介して(あるいは直接的に)外部装置と通信する。通信インタフェース811は、無線通信用のインタフェースであってもよく、この場合に、例えば、通信アンテナ、RF回路及びその他の通信処理用の回路を含んでもよい。また、通信インタフェース811は、有線通信用のインタフェースであってもよく、この場合に、例えば、LAN端子、伝送回路及びその他の通信処理用の回路を含んでもよい。
センサ813は、例えばカメラ、マイクロフォン、生体センサ、その他のセンサまたはそれらの複合である。カメラは、被写体を撮像するもので、例えば光学系、撮像素子及び画像処理回路を含む。マイクロフォンは、周囲の音を収音するもので、該音を電気信号へ変換し該電気信号をデジタルデータに変換する。
入力装置815は、タッチパネル、マウス、カメラなどの視線検出装置、マイクロフォン等である。表示装置817は、本実施形態に係る装置からの出力画像(すなわち表示画面)を表示するもので、例えば液晶、有機EL(Organic Light−Emitting Diode)、CRT(Cathode Ray Tube)等を用いて実現され得る。スピーカ819は、音声を出力するもので、デジタルデータを電気信号に変換し該電気信号を音声に変換する。
(4.変形例)
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
また、上記では、処理部213が、サーバ20の内部に存在する場合を主に説明した。しかし、処理部213は、サーバ20の外部に存在してもよい。例えば、情報端末10の内部に、処理部213が存在してもよい。あるいは、上記では、視線検出部111、表示端末検出部112および端末状態確認部113が、情報端末10の内部に存在する場合を主に説明した。しかし、視線検出部111、表示端末検出部112および端末状態確認部113の少なくともいずれか一つは、情報端末10の外部(例えば、サーバ20の内部)に存在してもよい。
1 表示制御システム
10、12 情報端末
110 制御部
111 視線検出部
112 表示端末検出部
113 端末状態確認部
114 表示制御部
116 視線検出部
120 操作部
130 音声入力部
140 記憶部
150 通信部
160 音声出力部
170 表示部
180 撮影部
20、22 サーバ
210 制御部
212 取得部
213 処理部
214 送信制御部
215 対応付け処理部
240 記憶部
250 通信部
30 ネットワーク
61 測位部
62 俯瞰映像撮影部
92A 視線検出用オブジェクト
10、12 情報端末
110 制御部
111 視線検出部
112 表示端末検出部
113 端末状態確認部
114 表示制御部
116 視線検出部
120 操作部
130 音声入力部
140 記憶部
150 通信部
160 音声出力部
170 表示部
180 撮影部
20、22 サーバ
210 制御部
212 取得部
213 処理部
214 送信制御部
215 対応付け処理部
240 記憶部
250 通信部
30 ネットワーク
61 測位部
62 俯瞰映像撮影部
92A 視線検出用オブジェクト
Claims (16)
- 第1の利用者が存在する空間が撮像された第1の撮像画像の少なくとも一部が第2の利用者によって視認可能な第2の表示領域に表示され、
前記第2の利用者が存在する空間が撮像された第2の撮像画像の少なくとも一部が前記第1の利用者によって視認可能な第1の表示領域に表示されるように制御する表示制御部を備え、
前記表示制御部は、前記第2の表示領域における前記第1の利用者の位置が第1の条件を満たす場合に、前記第2の利用者が撮像された人物画像が前記第1の表示領域における前記第2の利用者の位置に応じた位置に表示されるように制御する、
表示制御装置。 - 前記第1の条件は、前記第2の表示領域における前記第1の利用者の位置が前記第2の表示領域のあらかじめ設定された所定の領域内に存在するという条件を含む、
請求項1に記載の表示制御装置。 - 前記表示制御部は、前記第2の表示領域における前記第1の利用者の位置が前記第1の条件を満たす場合、かつ、前記第2の表示領域を含む情報端末またはアプリケーション画面内に前記第2の利用者の視点が存在する場合に、前記第2の利用者が撮像された人物画像が表示されるように制御する、
請求項1または2に記載の表示制御装置。 - 前記第1の条件は、前記第2の表示領域における前記第1の利用者の位置を基準とした所定の視線検出用範囲内に前記第2の利用者の視点が存在するという条件を含む、
請求項1に記載の表示制御装置。 - 前記視線検出用範囲には、視線検出用オブジェクトが表示されている、
請求項4に記載の表示制御装置。 - 前記視線検出用オブジェクトのサイズは、前記第1の利用者の状況に応じて変化する、
請求項5に記載の表示制御装置。 - 前記第1の利用者の状況は、前記第1の利用者の位置と前記第1の撮像画像を撮像する撮影部との距離を含む、
請求項6に記載の表示制御装置。 - 前記第1の利用者の状況は、前記第1の利用者の感情を含む、
請求項6に記載の表示制御装置。 - 前記表示制御部は、前記第2の表示領域における前記第1の利用者の位置が前記第1の条件を満たす場合、かつ、前記第1の表示領域における前記第2の利用者の位置が第2の条件を満たす場合に、前記第2の利用者が撮像された人物画像が表示されるように制御する、
請求項1〜8のいずれか一項に記載の表示制御装置。 - 前記第2の表示領域における前記第1の利用者の位置が前記第1の条件を満たす場合、かつ、前記第1の表示領域における前記第2の利用者の位置が前記第2の条件を満たす場合に、前記第1の利用者が撮像された人物画像が前記第2の表示領域における前記第1の利用者の位置に応じた位置に表示される、
請求項9に記載の表示制御装置。 - 前記表示制御部は、前記第2の表示領域における前記第1の利用者の位置が前記第1の条件を満たす場合に、前記第2の利用者の位置が前記第1の表示領域における所定の位置に移動するように前記第2の撮像画像を前記第1の表示領域においてスクロールさせる、
請求項1〜8のいずれか一項に記載の表示制御装置。 - 前記表示制御部は、前記第1の利用者によって前記第2の利用者が選択された場合に、前記第2の利用者の位置が前記第1の表示領域における所定の位置に移動するように前記第2の撮像画像を前記第1の表示領域においてスクロールさせる、
請求項1〜11のいずれか一項に記載の表示制御装置。 - 前記表示制御部は、前記第2の表示領域における前記第1の利用者の位置が前記第1の条件を満たす場合、かつ、前記第2の表示領域を含むアプリケーション画面が最前面に表示されている場合に、前記第2の利用者が撮像された人物画像が表示されるように制御する、
請求項1〜12のいずれか一項に記載の表示制御装置。 - 前記第1の利用者の位置は、前記第1の利用者が使用する第1の情報端末の位置であり、
前記第2の利用者の位置は、前記第2の利用者が使用する第2の情報端末の位置である、
請求項1〜13のいずれか一項に記載の表示制御装置。 - 第1の利用者が存在する空間が撮像された第1の撮像画像の少なくとも一部が第2の利用者によって視認可能な第2の表示領域に表示され、
前記第2の利用者が存在する空間が撮像された第2の撮像画像の少なくとも一部が前記第1の利用者によって視認可能な第1の表示領域に表示されるように制御することと、
前記第2の表示領域における前記第1の利用者の位置が第1の条件を満たす場合に、前記第2の利用者が撮像された人物画像が前記第1の表示領域における前記第2の利用者の位置に応じた位置に表示されるように制御することと、
を含む、表示制御方法。 - コンピュータを、
第1の利用者が存在する空間が撮像された第1の撮像画像の少なくとも一部が第2の利用者によって視認可能な第2の表示領域に表示され、
前記第2の利用者が存在する空間が撮像された第2の撮像画像の少なくとも一部が前記第1の利用者によって視認可能な第1の表示領域に表示されるように制御する表示制御部を備え、
前記表示制御部は、前記第2の表示領域における前記第1の利用者の位置が第1の条件を満たす場合に、前記第2の利用者が撮像された人物画像が前記第1の表示領域における前記第2の利用者の位置に応じた位置に表示されるように制御する、
表示制御装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020028193A JP2021131521A (ja) | 2020-02-21 | 2020-02-21 | 表示制御装置、表示制御方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020028193A JP2021131521A (ja) | 2020-02-21 | 2020-02-21 | 表示制御装置、表示制御方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021131521A true JP2021131521A (ja) | 2021-09-09 |
Family
ID=77551052
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020028193A Pending JP2021131521A (ja) | 2020-02-21 | 2020-02-21 | 表示制御装置、表示制御方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021131521A (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016019045A (ja) * | 2014-07-04 | 2016-02-01 | 沖電気工業株式会社 | 情報処理装置、情報処理方法、プログラムおよび情報処理システム |
JP2017034502A (ja) * | 2015-08-03 | 2017-02-09 | 株式会社リコー | 通信装置、通信方法、プログラムおよび通信システム |
US20180070050A1 (en) * | 2016-09-07 | 2018-03-08 | Cisco Technology, Inc. | Participant selection bias for a video conferencing display layout based on gaze tracking |
JP2019169833A (ja) * | 2018-03-23 | 2019-10-03 | 沖電気工業株式会社 | 管理装置、方法、プログラムおよび管理システム |
-
2020
- 2020-02-21 JP JP2020028193A patent/JP2021131521A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016019045A (ja) * | 2014-07-04 | 2016-02-01 | 沖電気工業株式会社 | 情報処理装置、情報処理方法、プログラムおよび情報処理システム |
JP2017034502A (ja) * | 2015-08-03 | 2017-02-09 | 株式会社リコー | 通信装置、通信方法、プログラムおよび通信システム |
US20180070050A1 (en) * | 2016-09-07 | 2018-03-08 | Cisco Technology, Inc. | Participant selection bias for a video conferencing display layout based on gaze tracking |
JP2019169833A (ja) * | 2018-03-23 | 2019-10-03 | 沖電気工業株式会社 | 管理装置、方法、プログラムおよび管理システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11846877B2 (en) | Method and terminal for acquiring panoramic image | |
KR102449670B1 (ko) | 복수의 카메라를 이용하여 영상 데이터를 생성하는 방법 및 서버 | |
US11445026B2 (en) | Methods, systems, and media for indicating a security status of an internet of things device | |
US9654942B2 (en) | System for and method of transmitting communication information | |
EP2840558B1 (en) | Electronic device communicating with external cameras | |
KR20170064242A (ko) | 영상통화를 제공하는 전자 장치 및 방법 | |
CN110266941A (zh) | 一种全景拍摄方法及终端设备 | |
US20140355819A1 (en) | Device and method for allocating data based on an arrangement of elements in an image | |
CN108632543B (zh) | 图像显示方法、装置、存储介质及电子设备 | |
KR20160061133A (ko) | 이미지 표시 방법 및 그 전자 장치 | |
KR20220005087A (ko) | 촬영 방법 및 단말 | |
JP2016213674A (ja) | 表示制御システム、表示制御装置、表示制御方法、及びプログラム | |
CN110086998B (zh) | 一种拍摄方法及终端 | |
KR101672268B1 (ko) | 전시공간 제어 시스템 및 전시공간 제어방법 | |
CN108924413B (zh) | 拍摄方法及移动终端 | |
CN109272549B (zh) | 一种红外热点的位置确定方法及终端设备 | |
JP6413521B2 (ja) | 表示制御方法、情報処理プログラム、及び情報処理装置 | |
CN109804408B (zh) | 一致的球面照片和视频朝向校正 | |
JP6349886B2 (ja) | 画像投射装置、画像投射装置の制御方法、および画像投射装置の制御プログラム | |
JP2021131521A (ja) | 表示制御装置、表示制御方法およびプログラム | |
CN112887770B (zh) | 照片传输方法、装置、电视及存储介质 | |
US20220155856A1 (en) | Electronic Devices and Corresponding Methods for Initiating Electronic Communications with a Remote Electronic Device | |
CN111147745B (zh) | 拍摄方法、装置、电子设备及存储介质 | |
JP7180473B2 (ja) | 表示制御装置、表示制御方法、プログラムおよび表示制御システム | |
KR20140075963A (ko) | 이동 단말을 이용한 카메라 원격 제어 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230712 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230815 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240220 |