JP6959184B2 - 表示制御装置、表示制御方法、及び表示制御プログラム - Google Patents

表示制御装置、表示制御方法、及び表示制御プログラム Download PDF

Info

Publication number
JP6959184B2
JP6959184B2 JP2018116894A JP2018116894A JP6959184B2 JP 6959184 B2 JP6959184 B2 JP 6959184B2 JP 2018116894 A JP2018116894 A JP 2018116894A JP 2018116894 A JP2018116894 A JP 2018116894A JP 6959184 B2 JP6959184 B2 JP 6959184B2
Authority
JP
Japan
Prior art keywords
display
target
user
predetermined
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018116894A
Other languages
English (en)
Other versions
JP2019219514A (ja
Inventor
岩崎 雅二郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2018116894A priority Critical patent/JP6959184B2/ja
Publication of JP2019219514A publication Critical patent/JP2019219514A/ja
Application granted granted Critical
Publication of JP6959184B2 publication Critical patent/JP6959184B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、表示制御装置、表示制御方法、及び表示制御プログラムに関する。
従来、ユーザの利用態様に応じてディスプレイ等の表示面における表示を制御する技術が提供されている。例えば、複数のユーザに対するコンテンツ(表示対象)を表示面の表示領域を分割して表示する技術が提供されている。
特開2013−239085号公報 特開2016−099740号公報
"2009年08月29日 [OpenGL][GLSL][ゼミ] 第5回 座標変換",床井研究室<インターネット>http://marina.sys.wakayama-u.ac.jp/~tokoi/?date=20090829(平成30年6月15日検索)
しかしながら、上記の従来技術では、ユーザの位置に応じて表示対象の適切な表示を可能にすることが難しい場合がある。例えば、複数のユーザに対する表示対象を表示面の表示領域を分割して表示するだけでは、表示面に対してユーザがどのような位置関係にいるかに応じて、表示を適切に制御することが難しい。
本願は、上記に鑑みてなされたものであって、ユーザの位置に応じて適切に表示対象を表示可能にする表示制御装置、表示制御方法、及び表示制御プログラムを提供することを目的とする。
本願に係る表示制御装置は、対象ユーザの3次元位置に関する位置情報と、所定の表示面の形状を示す表示面情報とを取得する取得部と、前記対象ユーザの前記位置情報と前記所定の表示面の前記表示面情報とに基づいて、前記所定の表示面に表示された所定の表示対象を前記対象ユーザに所定の態様で視認させるために、前記所定の表示対象の前記所定の表示面における表示を制御する表示制御部と、を備えることを特徴とする。
実施形態の一態様によれば、ユーザの位置に応じて表示対象の適切な表示を可能にすることができるという効果を奏する。
図1は、実施形態に係る表示制御処理の一例を示す図である。 図2は、実施形態に係る表示制御システムの構成例を示す図である。 図3は、実施形態に係る表示制御装置の構成例を示す図である。 図4は、実施形態に係る表示面情報記憶部の一例を示す図である。 図5は、実施形態に係るユーザ情報記憶部の一例を示す図である。 図6は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。 図7は、実施形態に係る表示制御処理の一例を示すフローチャートである。 図8は、表示面に対する操作の一例を示す図である。 図9は、投影型の表示制御の一例を示す図である。 図10は、複数ユーザによる表示面の共有の一例を示す図である。 図11は、表示制御装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る表示制御装置、表示制御方法、及び表示制御プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る表示制御装置、表示制御方法、及び表示制御プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
(実施形態)
〔1.表示制御処理〕
まず、図1を用いて、実施形態に係る表示制御処理の一例について説明する。図1は、実施形態に係る表示制御処理の一例を示す図である。図1の例では、対象ユーザがユーザU1である場合を一例として説明する。図1では、ユーザU1が斜め上から視認している表示面DSであるディスプレイDP1、DP2における表示対象の表示の制御を表示制御装置10(図3参照)が行う場合を説明する。なお、以下では、ディスプレイDP1、DP2等を区別せずに、表示面DSの一例として説明する場合は、「ディスプレイDP」と記載する場合がある。なお、詳細は後述するが、表示制御装置10は、センサ部16(図3参照)の種々のセンサにより、図1における処理に用いるセンサ情報を取得する。
図1の例では、ユーザU1は、右斜め上から表示面DSであるディスプレイDP1、DP2を見降ろしている。ユーザU1は、右斜め上からディスプレイDP1、DP2の中心(ディスプレイDP1、DP2の連続部分)を視認している。表示制御装置10は、センサ部16により、ユーザU1の頭部HD1の位置LC1やユーザU1の視線情報LS1等を検知する。すなわち、表示制御装置10は、センサ部16により、ユーザU1の視点を検知する。また、表示制御装置10は、センサ部16により、ユーザU1の頭部HD1とディスプレイDP1、DP2との間の距離を検知する。例えば、表示制御装置10は、センサ部16のTOF(Time of Flight)センサにより、ユーザU1の頭部HD1とディスプレイDP1、DP2との位置関係を検知する。例えば、表示制御装置10は、センサ部16のTOFセンサにより、ユーザU1の頭部HD1とディスプレイDP1、DP2との間の距離を検知する。
図1の例では、表示制御装置10は、対象ユーザであるユーザU1に対応してコンテンツCT1を表示するように、表示を制御する。例えば、表示制御装置10は、ユーザU1の頭部HD1の位置LC1やユーザU1の視線情報LS1やユーザU1の頭部HD1とディスプレイDP1、DP2との間の距離に基づいて、表示面DSであるディスプレイDP1、DP2にコンテンツCT1を表示する。このとき、表示制御装置10は、ディスプレイDP1、DP2の形状情報等の表示面情報に基づいて、表示面DSであるディスプレイDP1、DP2にコンテンツCT1を表示する。
図1の例では、表示制御装置10は、ユーザU1による視認において、コンテンツCT1が外形「矩形」となるように、ディスプレイDP1、DP2におけるコンテンツCT1の表示を制御する。表示制御装置10は、ディスプレイDP1、DP2の位置関係(X度等)や、ユーザU1の頭部HD1からの視線情報LS1がディスプレイDP1、DP2と交差する位置や角度に基づいて、コンテンツCT1が外形「矩形」となるように、ディスプレイDP1、DP2におけるコンテンツCT1の表示を制御する。
表示制御装置10は、ディスプレイDP1、DP2である表示面DSにおいて、ユーザU1の視線情報LS1が交差する位置を中心としてコンテンツCT1が表示されるように、ディスプレイDP1、DP2におけるコンテンツCT1の表示を制御する。例えば、表示制御装置10は、ディスプレイDP1、DP2である表示面DSにおいて、ユーザU1の視線情報LS1が交差する位置を中心にコンテンツCT1の中心が表示されるように、ディスプレイDP1、DP2におけるコンテンツCT1の表示を制御してもよい。例えば、表示制御装置10は、ディスプレイDP1の面とユーザU1の視線情報LS1の直線が交差する向きや角度に基づいて、ディスプレイDP1におけるコンテンツCT1の表示を制御する。また、例えば、表示制御装置10は、ディスプレイDP2の面とユーザU1の視線情報LS1の直線が交差する向きや角度に基づいて、ディスプレイDP2におけるコンテンツCT1の表示を制御する。なお、視線は、仮想的な線であってもよい。例えば、視線情報LS1は、ユーザU1の顔の位置等に基づく仮想的な線であってもよい。例えば、表示制御装置10は、ユーザU1の視線が検知できない場合、ユーザU1の顔の中心位置と表示面DSとの位置関係に基づいて、視線情報LS1を導出してもよい。例えば、表示制御装置10は、ユーザU1の顔の中心位置と表示面DSの中心とを通る線(直線)を、ユーザU1の視線情報LS1としてもよい。例えば、表示制御装置10は、ユーザU1の顔の中心位置を始点とし、表示面DSの中心とを通る線(直線)を、ユーザU1の視線情報LS1としてもよい。
例えば、表示制御装置10は、対象ユーザがコンテンツを視認するように、コンテンツCT1をディスプレイDP1、DP2にマッピングすることにより、コンテンツCT1のディスプレイDP1、DP2における表示を制御する。表示制御装置10は、信号処理や画像処理の種々の従来手法等を適宜用いて、コンテンツCT1の表示を制御してもよい。例えば、表示制御装置10は、マッピングに関する画像処理の種々の従来手法等を適宜用いて、コンテンツCT1の表示を制御してもよい。例えば、表示制御装置10は、画像の加工や補正に関する種々の従来手法等を適宜用いて、コンテンツCT1の表示を制御してもよい。表示制御装置10は、射影変換に関する種々の従来手法等を適宜用いて、コンテンツCT1の表示を制御してもよい。例えば、表示制御装置10は、コンテンツCT1のデータ(画像データ等)に対して射影変換行列を用いた変換を行い、変換したコンテンツCT1のデータをディスプレイDP1、DP2のそれぞれ算出した位置にマッピングする。例えば、表示制御装置10は、コンテンツCT1の外形(矩形)に基づいて、コンテンツCT1をユーザU1の位置から視認した場合に、コンテンツCT1の外形通りコンテンツCT1が矩形に見えるように射影変換を行う。例えば、表示制御装置10は、射影変換行列を導出(算出)し、ディスプレイDP1、DP2の位置と導出した射影変換行列を用いてコンテンツCT1をディスプレイDP1、DP2に表示することにより、コンテンツCT1をユーザU1に所定の態様で視認させる。例えば、表示制御装置10は、コンテンツCT1をユーザU1の位置から視認した場合に、コンテンツCT1の外形通りコンテンツCT1の縦横比が「1:2」の矩形に見えるように射影変換を行う。
表示制御装置10は、透視投影変換に関する種々の従来手法等を適宜用いて、コンテンツCT1の表示を制御してもよい。例えば、表示制御装置10は、コンテンツCT1のデータ(画像データ等)に対して透視投影変換行列を用いた変換を行い、変換したコンテンツCT1のデータをディスプレイDP1、DP2のそれぞれ算出した位置にマッピングする。例えば、表示制御装置10は、コンテンツCT1の外形(矩形)に基づいて、コンテンツCT1をユーザU1の位置から視認した場合に、コンテンツCT1の外形通りコンテンツCT1が矩形に見えるように透視投影変換を行う。例えば、表示制御装置10は、所定の透視投影関数を用いて、コンテンツCT1をユーザU1の位置から視認した場合に、コンテンツCT1の外形通りコンテンツCT1が矩形に見えるように透視投影変換を行う。例えば、表示制御装置10は、透視投影変換行列を導出(算出)し、ディスプレイDP1、DP2の位置と導出した透視投影変換行列を用いてコンテンツCT1をディスプレイDP1、DP2に表示することにより、コンテンツCT1をユーザU1に所定の態様で視認させる。例えば、表示制御装置10は、コンテンツCT1をユーザU1の位置から視認した場合に、コンテンツCT1の外形通りコンテンツCT1の縦横比が「1:2」の矩形に見えるように透視投影変換を行う。
例えば、表示制御装置10は、透視投影変換に関する種々の技術を用いて、所定の表示面に表示された所定の表示対象を対象ユーザに所定の態様で視認させるために、所定の表示対象の所定の表示面における表示を制御する。例えば、表示制御装置10は、非特許文献1に開示された技術を用いて、所定の表示面に表示された所定の表示対象を対象ユーザに所定の態様で視認させるために、所定の表示対象の所定の表示面における表示を制御する。例えば、表示制御装置10は、透視投影変換(例えば非特許文献1参照)の技術を用いて、透視投影の視野空間(3次元空間)を生成する。例えば、この場合、透視投影の視野空間は、視点(原点)を頂点とした四角錐を視線に対応する軸(例えばz軸)に垂直な二つの平面(前方面(第1面)、後方面(第2面))で切り取られた錐台になる。例えば、表示制御装置10は、第1面を表示面DSとし、第2面の位置に表示させたいコンテンツを配置する。この場合、例えば、仮想的に表示させたいオブジェクト(コンテンツ)が第2面の位置に配置した形状(矩形等)に対応する。例えば、表示制御装置10は、視点(原点)と第2面上に配置されたコンテンツとの間の第1面の領域をコンテンツの表示領域として算出する。例えば、表示制御装置10は、ユーザの視点の変更に応じて、表示面DSである第1面を視線に対応する軸の直交方向(x軸のプラス方向等)に移動させることにより、ユーザの視点に対応する表示面DSにおけるコンテンツの表示領域を算出する。例えば、表示制御装置10は、視点(原点)との位置関係に基づいて第2面上に配置されたコンテンツを第1面(表示面DS)にマッピングする。これにより、表示制御装置10は、ユーザの視点に基づいて、コンテンツがユーザに所望の表示態様で視認されるように、コンテンツを第1面(表示面DS)にマッピングし、表示面DSにコンテンツを表示する。なお、上記は一例であり、表示制御装置10は、表示対象をユーザに対して所望の視認態様で表示することができれば、どのような方法により、表示対象の表示を制御してもよい。
図1の例では、表示制御装置10は、表示態様DC11に示すように、コンテンツCT1の端部側が上方向に傾斜するようにコンテンツCT1をディスプレイDP1、DP2に表示する。すなわち、表示制御装置10は、ユーザU1による視認において、コンテンツCT1が外形「矩形」となるように、ディスプレイDP1、DP2にコンテンツCT1を表示する(ステップS11)。これにより、表示制御装置10は、視認態様VR11に示すように、ユーザU1による視認において、コンテンツCT1が外形「矩形」となるように、ディスプレイDP1、DP2におけるコンテンツCT1を表示することができる。
上述したように、表示制御装置10は、対象ユーザと表示面との位置関係に基づいて、コンテンツの表示を制御することにより、コンテンツを所望の形状で対象ユーザに視認させることができる。したがって、表示制御装置10は、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。例えば、ユーザU1は、視点が斜め上の場合、斜め上から見て矩形(長方形)になるように変形してコンテンツCT1が表示されるため、コンテンツCT1が表示面DSから宙に浮かんだような表示態様で視認することができる。
一方、ユーザU1に対する表示制御を行わなかった場合、コンテンツCT1は、ディスプレイDP1、DP2に表示態様DC1に示すように表示される。すなわち、コンテンツCT1は、ディスプレイDP1、DP2の左右方向に沿って平行に表示される(ステップS15)。この場合、視認態様VR1に示すように、ユーザU1による視認において、コンテンツCT1は中央部で屈曲した外形「6角形」となる。そのため、ユーザU1に対する表示制御を行わなかった場合、ユーザU1はコンテンツCT1を適切な形状で視認することができない。
しかしながら、表示制御装置10は、ユーザU1に対応してコンテンツCT1の表示を制御するため、ユーザU1がコンテンツCT1を適切な形状で視認することを可能にする。このように、表示制御装置10は、対象ユーザや表示面に対応して表示対象の表示を制御することにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。なお、表示制御装置10は、ユーザの視線に関わらず、ユーザの頭部と表示面との位置関係に基づいて、表示を制御してもよい。
(1−1.表示面)
図1の例では、説明を簡単にするためにディスプレイDP1、DP2の2つのディスプレイを表示面DSの一例として示したが、表示面DSは、コンテンツ等の表示対象を表示可能であれば、どのようなものであってもよい。例えば、表示面DSとしてのディスプレイは、どのように配置(設置)されてもよい。例えば、ディスプレイは、壁の凹凸に沿って配置されてもよい。また、ディスプレイは、部屋の四方や天井や床を囲うように配置あされてもよい。また、ディスプレイは連続していなくてもよい。また、ディスプレイは、別の部屋のディスプレイと連携していてもよい。
また、表示面DSは、ディスプレイに限らず、プロジェクタ等を利用してコンテンツ等の表示対象が投影されるものであってもよい。例えば、表示面DSは、壁面等の構造物であってもよいが、この点についての詳細は図9において詳述する。また、表示面DSには、複数ユーザの表示対象が同時に表示されてもよいが、この点についての詳細は図10において詳述する。
(1−2.表示態様)
なお、表示制御装置10は、種々の情報を適宜用いて、表示面における表示対象の表示を制御してもよい。表示制御装置10は、対象ユーザと所定の表示面との間の距離に応じて、所定の表示対象の表示サイズを制御してもよい。表示制御装置10は、対象ユーザと所定の表示面との間の距離が遠い程、所定の表示対象の表示サイズが多くなるように表示を制御する。
例えば、表示制御装置10は、表示領域や文字サイズを利用者(対象ユーザ)とディスプレイの表示領域の距離に応じて変動させてもよい。例えば、表示制御装置10は、遠い場合には見やすいように大きく表示し、近い場合には小さく表示してもよい。例えば、表示制御装置10は、利用者(対象ユーザ)が対話中に近づいたり、遠ざかったりした場合にはその距離に合わせて表示領域や文字サイズを動的に変更してもよい。例えば、表示制御装置10は、対象ユーザと表示面との間の距離を随時検知し、検知した距離に応じて表示領域や文字サイズを動的に変更してもよい。
(1−3.ユーザの位置変動)
また、表示制御装置10は、対象ユーザの位置の変化に応じて、動的に表示を制御してもよい。表示制御装置10は、対象ユーザの位置の変化に応じて、所定の表示対象の表示位置を変更してもよい。表示制御装置10は、対象ユーザの移動に追従するように、所定の表示対象の表示位置を変更してもよい。
すなわち、表示制御装置10は、利用者(対象ユーザ)が移動した場合には、その表示領域は追従して移動してもよい。移動中に他の表示領域と重なる場合には、表示を邪魔しないように半透明化してもよい。また、表示制御装置10は、表示領域が追従せずに固定して表示させる場合、利用者(対象ユーザ)の移動による相対的な位置変化に応じて表示対象の表示を制御する。表示制御装置10は、表示領域が追従せずに固定して表示させる場合に、利用者が移動すると、表示を変化しなければ、斜め方向から見ることになり見づらくなるが、例えば、斜めから見ても正面から見ているように変形させて表示することにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
(1−4.その他)
また、表示制御装置10は、表示領域が凹凸であっても、利用者(対象ユーザ)から平面に表示されていると視認されるように、表示を変形させてもよい。また、表示制御装置10は、ユーザの顔の向きを認識して、その方向のディスプレイ面に領域を表示してもよい。また、表示制御装置10は、利用者の視点と表示領域を結ぶ直線上に利用者の手がある場合には利用者(対象ユーザ)の手の動きに合わせて操作を受付けてもよい。これにより、表示制御装置10は、あたかも表示物(表示対象)にタッチしている(触っている)ような操作体験をユーザに対して提供可能となる。例えば、表示制御装置10は、視点と指先の延長上にポインタを表示してもよい。例えば、表示制御装置10は、視線センサにより検知された表示面DS上の視線位置にポインタを表示してもよい。この場合、表示制御装置10は、指先の動作、音声、瞬きを合図にポインタ上でのタップとして受け付けてもよい。
また、表示制御装置10は、スマホ等のユーザが利用する端末装置50を壁面等の表示面DSにかざすと、端末装置50の画面(アプリ)が表示面DSに移動するように表示を制御してもよい。また、表示制御装置10は、スマホ等のユーザが利用する端末装置50を表示面DSにかざすと、表示面DSに表示された表示対象が端末装置50の画面に移動するように表示を制御してもよい。また、表示制御装置10は、3D(3次元)のコンテンツの表示を制御してもよい。例えば、表示制御装置10は、3D(3次元)のコンテンツの表示する機能を有してもよい。例えば、表示制御装置10は、3D表示装置であってもよい。表示制御装置10は、3D(3次元)のコンテンツ(表示コンテンツ)を立体表示してもよい。また、表示制御装置10は、3D表示装置を組み合わせて、表示コンテンツの内容自体を立体表示してもよい。また、表示制御装置10は、顔検知の機能により、さらに目の位置を検知してもよい。表示制御装置10は、画像センサが検知したセンサ情報(画像情報)に基づいて、ユーザの顔や目の位置を検知し、さらに目の位置を検知してもよい。また、表示制御装置10は、表示するコンテンツ以外の部分(以下「背景」ともいう)についても表示を制御してもよい。例えば、表示制御装置10は、表示面DSにおいてコンテンツが表示される部分以外の部分(背景)についても表示を制御してもよい。例えば、表示制御装置10は、背景に特定の画像(画像コンテンツ)を表示するように表示を制御してもよい。例えば、表示制御装置10は、所定の静止画や映像やテクスチャなどを背景に表示するように表示を制御してもよい。例えば、表示制御装置10は、仮想的にコンテンツとは違う一定の奥行きに平面として表示させてもよい。例えば、表示制御装置10は、仮想的に一定の奥行きのある空間を背景に表示させてもよい。例えば、表示制御装置10は、仮想的にコンテンツとは違う一定の奥行き空間にコンテンツを平面として表示させてもよい。また、例えば、表示制御装置10は、ユーザから一定距離の球面、または、仮想的な形状を背景に表示させてもよい。例えば、表示制御装置10は、ユーザから一定距離の球面、または、仮想的な形状を持った面上にコンテンツを表示させてもよい。これにより、表示制御装置10は、コンテンツが宙に浮かんだような印象をユーザに与えることができる。
〔2.表示制御システムの構成〕
図2に示すように、表示制御システム1には、表示制御装置10と、端末装置50とが含まれる。表示制御装置10と、端末装置50とは所定のネットワークNを介して、有線または無線により通信可能に接続される。図2は、実施形態に係る表示制御システムの構成例を示す図である。なお、図2に示した表示制御システム1には、複数台の表示制御装置10や、複数台の端末装置50が含まれてもよい。
表示制御装置10は、対象ユーザの3次元位置に関する位置情報と、所定の表示面の形状を示す表示面情報とに基づいて、所定の表示面に表示された所定の表示対象を対象ユーザに所定の態様で視認させるために、所定の表示対象の所定の表示面における表示を制御する情報処理装置である。ここで言う所定の態様とは、例えば所定の表示対象の外形のまま所定の表示対象を視認する態様であってもよい。所定の態様とは、例えば所定の表示対象の外周の形状のまま所定の表示対象を視認する態様であってもよい。例えば、表示制御装置10は、所定の表示対象を表示面に表示するために利用される表示装置(コンピュータ)である。
なお、表示制御装置10は、ディスプレイ(表示面)を有する装置であってもよい。例えば、表示制御装置10は、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等であってもよい。この場合、表示制御装置10は、自装置のディスプレイにおいて動画を表示(再生)してもよい。また、表示制御装置10は、ディスプレイ(表示面)を有しなくてもよい。この場合、表示制御装置10は、壁面等の表示面にコンテンツ等の表示対象を投影してもよいが、この点についての詳細は後述する。
端末装置50は、ユーザによって利用される情報処理装置である。端末装置50は、ユーザによる種々の操作を受け付ける。なお、上述した端末装置50は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。
〔3.表示制御装置の構成〕
次に、図3を用いて、実施形態に係る表示制御装置10の構成について説明する。図3は、実施形態に係る表示制御装置の構成例を示す図である。図3に示すように、表示制御装置10は、通信部11と、入力部12と、出力部13と、記憶部14と、制御部15とを有する。
(通信部11)
通信部11は、例えば、通信回路等によって実現される。そして、通信部11は、図示しない所定の通信網と有線または無線で接続され、外部の情報処理装置との間で情報の送受信を行う。例えば、通信部11は、所定のネットワークN(図2参照)と有線または無線で接続され、端末装置50との間で情報の送受信を行う。
(入力部12)
入力部12は、ユーザから各種操作が入力される。例えば、入力部12は、ユーザが利用する端末装置50へのユーザ操作をユーザによる操作入力として受け付けてもよい。例えば、入力部12は、通信部11を介して、端末装置50へのユーザ操作をユーザによる操作入力として受け付けてもよい。例えば、入力部12は、表示制御装置10とは別体のリモコン(リモートコントローラー:remote controller)等を含んでもよい。例えば、入力部12は、ユーザ操作に応じたリモコンからの情報を、赤外線通信や所定の無線通信等の種々の方式により、受信してもよい。この場合、例えば、入力部12は、通信部11を介して、リモコンを用いたユーザの操作に関する情報を受け付けてもよい。
また、例えば、入力部12は、タッチパネル機能により表示面(例えば表示面DSや出力部13)を介してユーザからの各種操作を受け付けてもよい。また、入力部12は、センサ部16により検知されたユーザのジェスチャをユーザによる操作入力として受け付けてもよい。入力部12は、センサ部16により検知されたユーザの手や指によるジェスチャをユーザによる操作入力として受け付けてもよい。入力部12は、センサ部16により検知されたユーザの音声や目の瞬き等をユーザによる操作入力として受け付けてもよい。
(出力部13)
出力部13は、各種情報を表示制御装置10外へ出力する。例えば、出力部13は、所定のケーブル等が接続されるインターフェイスであってもよい。例えば、出力部13は、ディスプレイDP等の表示面DSに対し、表示対象(出力対象)となる情報を送信するためのインターフェイスであってもよい。例えば、出力部13は、HDMI(登録商標)(High Definition Multimedia Interface)、USB(Universal Serial Bus)やDVI(Digital Visual Interface)といった規格のコネクタにより実現されてもよい。図1の例では、出力部13は、表示面DSに接続されたHDMIケーブルが接続され、表示面DSに表示するコンテンツの種々の情報をディスプレイDP等の表示面DSへ送信する。
なお、表示制御装置10が、表示面DSを有する場合、出力部13は、例えば液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等によって実現されるタブレット端末等の表示画面等の各種情報を表示するための手段であってもよい。
(記憶部14)
記憶部14は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部14は、例えば、表示制御装置10にインストールされているアプリケーションに関する情報、例えばプログラム等を記憶する。また、実施形態に係る記憶部14は、図3に示すように、表示面情報記憶部141と、ユーザ情報記憶部142と、コンテンツ情報記憶部143とを有する。
(表示面情報記憶部141)
実施形態に係る表示面情報記憶部141は、表示面に関する各種情報を記憶する。例えば、表示面情報記憶部141は、各表示面の形状等に関する各種情報を記憶する。図4は、実施形態に係る表示面情報記憶部の一例を示す図である。図4に示す表示面情報記憶部141は、「表示面ID」、「設置箇所」、「サイズ情報」、「形状情報」、「関連表示面情報」といった項目が含まれる。
「表示面ID」は、表示面を識別するための識別情報を示す。「設置箇所」には、対応する表示面が設置された箇所に関する情報が記憶される。「設置箇所」には、対応する表示面が設置場所(設置位置)に関する情報が記憶される。図4では「設置箇所」に「PL1」といった概念的な情報が格納される例を示したが、表示面が設置された位置の具体的な緯度経度を示す情報や高さ方向の位置を示す情報等が含まれてもよい。
「サイズ情報」には、対応する表示面のサイズ(大きさ)に関する情報が記憶される。図4では「サイズ情報」に「SZ1」といった概念的な情報が格納される例を示したが、表示面の具体的な大きさ(例えば縦1m、横1.5m等)を示す情報等が含まれてもよい。
「形状情報」には、対応する表示面の形状に関する情報が記憶される。図4では「形状情報」に「SH1」といった概念的な情報が格納される例を示したが、表示面の具体的な形状を示す情報等が含まれてもよい。例えば、「形状情報」には、外形が四角形、円形等であることを示す外形情報や、表面が平面や曲面であることや凹凸の有無等を示す表面情報等が含まれてもよい。
「関連表示面情報」には、対応する表示面に関連する表示面(関連表示面)に関する情報が記憶される。「関連表示面情報」には、対応する表示面に近接して配置される表示面に関する情報が記憶される。図4では「関連表示面情報」に「RD1」といった概念的な情報が格納される例を示したが、関連表示面を特定する情報やその関連表示面との位置関係を示す情報等が含まれてもよい。
図4に示す例において、表示面ID「DP1」により識別される表示面(図1中のディスプレイDP1に対応)は、設置箇所PL1に配置されることを示す。また、表示面ID「DP1」により識別される表示面は、サイズがサイズ情報SZ1に示すサイズであり、形状が形状情報SH1に示す形状であることを示す。また、表示面ID「DP1」により識別される表示面は、関連表示面情報RD1に示すように、関連表示面が表示面ID「DP2」により識別される表示面(図1中のディスプレイDP2に対応)であることを示す。また、表示面ID「DP1」により識別される表示面は、関連表示面であるディスプレイDP2が左端に位置し、ディスプレイDP2との角度がX度であることを示す。すなわち、ディスプレイDP1の左側にディスプレイDP2が連続して配置され、ディスプレイDP1に対してディスプレイDP2がX度傾けて配置されることを示す。
なお、表示面情報記憶部141は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、表示面情報記憶部141は、表示面が設置された日時に関する情報を記憶してもよい。また、表示面情報記憶部141は、表示面がコンテンツを同時に表示可能なユーザ数を示す情報を記憶してもよい。また、表示面情報記憶部141は、各表示面に広告を表示する場合の価格(単価)を示す情報を記憶してもよい。
(ユーザ情報記憶部142)
実施形態に係るユーザ情報記憶部142は、ユーザに関する各種情報を記憶する。例えば、ユーザ情報記憶部142は、ユーザ属性に関する各種情報を記憶する。また、ユーザ情報記憶部142は、ユーザについて検知されたセンサ情報に関する各種情報を記憶する。図5は、実施形態に係るユーザ情報記憶部の一例を示す図である。図5に示すユーザ情報記憶部142は、「ユーザID」、「年齢」、「性別」、「センシング情報」といった項目が含まれる。「センシング情報」には、「日時」、「種別」、「センサ情報」といった項目が含まれる。
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「年齢」は、ユーザIDにより識別されるユーザの年齢を示す。なお、「年齢」は、例えば35歳など、ユーザIDにより識別されるユーザの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザの性別を示す。
また、「センシング情報」は、ユーザIDにより識別されるユーザについて検知されたセンサ情報に関する種々の情報を示す。「センシング情報」の「日時」は、対応するセンサ情報が検知された日時を示す。「日時」には、「DT1」等のように抽象的に図示するが、「2018年6月12日11時23分49秒」等の具体的な日時が記憶されてもよい。「センシング情報」の「種別」は、対応するセンサ情報の種別を示す。
「センシング情報」の「センサ情報」は、検知されたセンサ情報を示す。図5では「センサ情報」に「SN1」といった概念的な情報が格納される例を示したが、実際には、具体的に検知された情報(センサデータ)、または、その格納場所を示すファイルパス名などが格納されてもよい。例えば、位置情報であるセンサ情報SN1は、具体的な緯度経度を示す情報や高さ方向の位置を示す情報等が含まれてもよい。また、位置情報であるセンサ情報SN1は、所定の表示面に対する相対的な3次元位置を示す情報等が含まれてもよい。例えば、視線情報であるセンサ情報SN2は、ユーザが視認している表示面の箇所(領域)を示す情報等が含まれてもよい。また、視線情報であるセンサ情報SN2は、ユーザの視線と交差する表示面の位置を示す情報等が含まれてもよい。
例えば、図5に示す例において、ユーザID「U1」により識別されるユーザ(ユーザU1)の年齢は、「30代」であり、性別は、「女性」であることを示す。ユーザU1については、種別「位置」に対応するセンサ情報SN1が日時DT1に検知されたことを示す。また、ユーザU1については、種別「視線」に対応するセンサ情報SN2が日時DT2に検知されたことを示す。また、ユーザU1については、種別「位置」に対応するセンサ情報SN3が日時DT3に検知されたことを示す。
なお、ユーザ情報記憶部142は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報記憶部142は、年齢や性別に加えて他のデモグラフィック属性情報やサイコグラフィック属性情報を記憶してもよい。例えば、ユーザ情報記憶部142は、氏名、住所、勤務地、興味関心、家族構成、収入、ライフスタイル、コンテキスト等の情報を記憶してもよい。
(コンテンツ情報記憶部143)
実施形態に係るコンテンツ情報記憶部143は、コンテンツに関する各種情報を記憶する。図6は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。例えば、コンテンツ情報記憶部143は、表示面DSに表示される表示対象の一例であるコンテンツに関する情報を記憶する。なお、コンテンツには、ニュース記事や動画や広告等の種々のコンテンツが含まれてもよい。図6に示すコンテンツ情報記憶部143は、「コンテンツID」、「外径情報」、「内容」といった項目を有する。
「コンテンツID」は、コンテンツを識別するための識別情報を示す。「外形情報」は、コンテンツIDにより識別されるコンテンツの形状を示す。例えば、「外形情報」は、コンテンツの外径がどのような形状であるかを示す。「内容」は、コンテンツIDにより識別されるコンテンツの内容を示す。「内容」には、コンテンツのカテゴリや表示サイズ等の種々の情報が含まれてもよい。また、図6では「内容」に「CN1」といった概念的な情報が格納される例を示したが、実際には、具体的なコンテンツの情報(コンテンツデータ)、または、その格納場所を示すファイルパス名などが格納されてもよい。
例えば、図6に示す例において、コンテンツID「CT1」により識別されるコンテンツ(コンテンツCT1)の外形は、縦横比が「1:2」の矩形(長方形)であることを示す。また、コンテンツCT1の内容は内容CN1であることを示す。
なお、コンテンツ情報記憶部143は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、コンテンツ情報記憶部143は、コンテンツが作成された日時やコンテンツの提供元等に関する情報を記憶してもよい。
(制御部15)
制御部15は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、表示制御装置10内部の記憶部14などの記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。例えば、この各種プログラムは、表示制御処理を行うアプリケーションのプログラムが含まれる。また、制御部15は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図3に示すように、制御部15は、取得部151と、表示制御部152と、表示部153と、受付部154とを有し、以下に説明する表示制御処理の機能や作用を実現または実行する。なお、制御部15の内部構成は、図3に示した構成に限られず、後述する表示制御処理を行う構成であれば他の構成であってもよい。また、制御部15が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。
(取得部151)
取得部151は、各種情報を取得する。取得部151は、記憶部14から各種情報を取得する。取得部151は、表示面情報記憶部141やユーザ情報記憶部142やコンテンツ情報記憶部143等から各種情報を取得する。また、取得部151は、各種情報を外部の情報処理装置から取得してもよい。例えば、取得部151は、端末装置50から各種情報を取得する。取得部151は、入力部12を介して、表示制御装置10を利用するユーザによる各種操作の入力を取得する。取得部151は、センサ部16を介して、表示面DSに対するユーザによる各種操作の入力を取得する。取得部151は、センサ部16が検知したセンサ情報に基づいて、表示面DSに対するユーザによる各種操作の入力を取得する。取得部151は、受付部154により受け付けられたユーザによる各種操作を示す情報を取得する。
取得部151は、対象ユーザの3次元位置に関する位置情報と、所定の表示面の形状を示す表示面情報とを取得する。取得部151は、所定の表示面に対する対象ユーザの位置を示す位置情報を取得する。取得部151は、センサにより検知された対象ユーザの頭部の3次元位置に関する位置情報を取得する。取得部151は、センサにより検知された対象ユーザの視点の3次元位置に関する位置情報を取得する。取得部151は、センサにより検知された対象ユーザの視線の方向を示す視線情報を取得する。取得部151は、第1対象ユーザの3次元位置に関する第1位置情報と、第2対象ユーザの3次元位置に関する第2位置情報とを取得する。
図1の例では、取得部151は、センサ部16の種々のセンサにより、表示制御処理に用いる種々のセンサ情報を取得する。取得部151は、ユーザU1の頭部HD1の位置LC1を示すセンサ情報を取得する。取得部151は、ユーザU1の視線情報LS1を示すセンサ情報を取得する。
(表示制御部152)
表示制御部152は、種々の情報を制御する。表示制御部152は、種々の情報の表示を制御する。表示制御部152は、記憶部14に記憶された各種情報に基づいて、種々の情報の表示を制御する。表示制御部152は、表示面情報記憶部141やユーザ情報記憶部142やコンテンツ情報記憶部143等に記憶された各種情報に基づいて、種々の情報の表示を制御する。表示制御部152は、取得部151により取得された各種情報に基づいて、種々の情報の表示を制御する。
表示制御部152は、対象ユーザの位置情報と所定の表示面の表示面情報とに基づいて、所定の表示面に表示された所定の表示対象を対象ユーザに所定の態様で視認させるために、所定の表示対象の所定の表示面における表示を制御する。表示制御部152は、対象ユーザの位置情報と所定の表示面の表示面情報とに基づいて、所定の表示面に表示された所定の表示対象に対する対象ユーザによる視認が所定の条件を満たすように、所定の表示対象の所定の表示面における表示を制御する。表示制御部152は、対象ユーザによる視認が所定の条件を満たすように、所定の表示面の形状に応じて、所定の表示対象の所定の表示面にマッピングすることにより、所定の表示対象の所定の表示面における表示を制御する。
表示制御部152は、所定の形状を有する所定の表示対象を対象ユーザにより所定の形状で視認させるために、所定の表示対象の所定の表示面における表示を制御する。表示制御部152は、所定の形状を有する所定の表示対象が対象ユーザにより所定の形状で視認されるように、所定の表示対象を所定の表示面にマッピングすることにより、所定の表示対象の所定の表示面における表示を制御する。表示制御部152は、対象ユーザの頭部の位置に応じて、所定の表示対象の所定の表示面における表示を制御する。表示制御部152は、対象ユーザの視点の位置に応じて、所定の表示対象の所定の表示面における表示を制御する。表示制御部152は、対象ユーザの視線情報に基づいて、対象ユーザの視線の方向と交差する点を含む所定の表示面の領域に所定の表示対象を表示するように表示を制御する。
表示制御部152は、対象ユーザと所定の表示面との間の距離に応じて、所定の表示対象の表示サイズを制御する。表示制御部152は、対象ユーザと所定の表示面との間の距離が遠い程、所定の表示対象の表示サイズが多くなるように表示を制御する。表示制御部152は、対象ユーザの位置の変化に応じて、所定の表示対象の表示位置を変更する。表示制御部152は、対象ユーザの移動に追従するように、所定の表示対象の表示位置を変更する。
表示制御部152は、第1対象ユーザの第1位置情報と第2対象ユーザの第2位置情報とに基づいて、第1対象ユーザに対応する第1表示対象に対する第1対象ユーザによる視認、及び第2対象ユーザに対応する第2表示対象に対する第2対象ユーザによる視認が所定の態様になるように、第1表示対象及び第2表示対象の所定の表示面における表示を制御する。表示制御部152は、第1対象ユーザの第1位置情報と第2対象ユーザの第2位置情報とに基づいて、第1対象ユーザに対応する第1表示対象に対する第1対象ユーザによる視認、及び第2対象ユーザに対応する第2表示対象に対する第2対象ユーザによる視認が所定の条件を満たすように、第1表示対象及び第2表示対象の所定の表示面における表示を制御する。表示制御部152は、第1表示対象の表示態様と、第2表示対象の表示態様とを異ならせることにより、第1表示対象と第2表示対象とを識別可能になるように表示を制御する。表示制御部152は、第1表示対象を表示する色と、第2表示対象を表示する色とを異ならせることにより、第1表示対象と第2表示対象とを識別可能になるように表示を制御する。
表示制御部152は、第1対象ユーザ及び第2対象ユーザのいずれか一方のユーザが移動している場合、他方のユーザに対応する表示対象を優先して表示を制御する。表示制御部152は、他方のユーザに対応する表示対象が表示される領域を含まない領域に一方のユーザに対応する表示対象が表示されるように表示を制御する。表示制御部152は、一方のユーザに対応する表示対象を半透明化して表示するように表示を制御する。
図1の例では、表示制御部152は、対象ユーザであるユーザU1に対応してコンテンツCT1を表示するように、表示を制御する。表示制御部152は、ユーザU1による視認において、コンテンツCT1が外形「矩形」となるように、ディスプレイDP1、DP2におけるコンテンツCT1の表示を制御する。表示制御部152は、ディスプレイDP1、DP2の位置関係(X度等)や、ユーザU1の頭部HD1からの視線情報LS1がディスプレイDP1、DP2と交差する位置や角度に基づいて、コンテンツCT1が外形「矩形」となるように、ディスプレイDP1、DP2におけるコンテンツCT1の表示を制御する。表示制御部152は、ディスプレイDP1、DP2である表示面DSにおいて、ユーザU1の視線情報LS1が交差する位置を中心としてコンテンツCT1が表示されるように、ディスプレイDP1、DP2におけるコンテンツCT1の表示を制御する。表示制御部152は、ディスプレイDP1、DP2である表示面DSにおいて、ユーザU1の視線情報LS1が交差する位置を中心にコンテンツCT1の中心が表示されるように、ディスプレイDP1、DP2におけるコンテンツCT1の表示を制御してもよい。表示制御部152は、ディスプレイDP1の面とユーザU1の視線情報LS1の直線が交差する向きや角度に基づいて、ディスプレイDP1におけるコンテンツCT1の表示を制御する。また、例えば、表示制御装置10は、ディスプレイDP2の面とユーザU1の視線情報LS1の直線が交差する向きや角度に基づいて、ディスプレイDP2におけるコンテンツCT1の表示を制御する。
(表示部153)
表示部153は、種々の情報を表示する。表示部153は、種々の情報を表示する。表示部153は、記憶部14に記憶された各種情報に基づいて、種々の情報を表示する。表示部153は、表示面情報記憶部141やユーザ情報記憶部142やコンテンツ情報記憶部143等に記憶された各種情報に基づいて、種々の情報を表示する。表示部153は、取得部151により取得された各種情報に基づいて、種々の情報を表示する。表示部153は、表示制御部152による表示制御に基づいて、種々の情報を表示する。表示部153は、種々のコンテンツを表示する。表示部153は、表示制御部152により表示態様が補正されたコンテンツを表示する。
表示部153は、表示制御部152による表示の制御に応じて、所定の表示対象を表示する。表示部153は、所定の表示面であるディスプレイに所定の表示対象を表示する。表示部153は、所定の表示面に投影することにより所定の表示対象を表示する。
図1の例では、表示部153は、表示態様DC11に示すように、コンテンツCT1の端部側が上方向に傾斜するようにコンテンツCT1をディスプレイDP1、DP2に表示する。表示部153は、ユーザU1による視認において、コンテンツCT1が外形「矩形」となるように、ディスプレイDP1、DP2にコンテンツCT1を表示する。表示部153は、視認態様VR11に示すように、ユーザU1による視認において、コンテンツCT1が外形「矩形」となるように、ディスプレイDP1、DP2におけるコンテンツCT1を表示する。
(受付部154)
受付部154は、各種情報を受け付ける。例えば、受付部154は、ユーザが利用する端末装置50へのユーザ操作をユーザによる操作入力として受け付ける。例えば、受付部154は、通信部11や入力部12を介して、端末装置50へのユーザ操作をユーザによる操作入力として受け付けてもよい。
また、例えば、受付部154は、タッチパネル機能により表示面(例えば表示面DSや出力部13)を介してユーザからの各種操作を受け付けてもよい。また、受付部154は、センサ部16により検知されたユーザのジェスチャをユーザによる操作入力として受け付けてもよい。受付部154は、センサ部16により検知されたユーザの手や指によるジェスチャをユーザによる操作入力として受け付けてもよい。受付部154は、センサ部16により検知されたユーザの音声や目の瞬き等をユーザによる操作入力として受け付けてもよい。
受付部154は、対象ユーザによる所定の表示対象に対する操作を受け付ける。受付部154は、対象ユーザのジェスチャによる所定の表示対象に対する操作を受け付ける。受付部154は、対象ユーザの音声による所定の表示対象に対する操作を受け付ける。
なお、上述した制御部15による表示制御処理等の処理は、所定のアプリケーションにより行われる場合、制御部15の各部は、例えば、所定のアプリケーションにより実現されてもよい。例えば、制御部15による表示制御処理や表示制御処理等の処理は、JavaScript(登録商標)などを含む制御情報により実現されてもよい。また、上述した表示制御処理や表示処理等が専用アプリにより行われる場合、制御部15は、例えば、所定のアプリ(例えば表示制御アプリ等)や専用アプリを制御するアプリ制御部を有してもよい。
また、図示は省略するが、表示制御装置10は送信部を有してもよい。送信部は、各種情報を送信する。例えば、送信部は、端末装置50に各種情報を提供する。例えば、送信部は、端末装置50に表示するコンテンツに関する各種情報の要求を送信する。送信部は、端末装置50に表示面に対するユーザの操作に関する情報等を送信する。例えば、送信部は、端末装置50にコンテンツに対するユーザの操作に関する情報等を送信する。例えば、送信部は、入力部12により入力されたユーザ操作に従って、外部の情報処理装置へ種々の情報を送信してもよい。
(センサ部16)
センサ部16は、所定の情報を検知する。センサ部16は、ユーザの3次元位置を検知する。センサ部16は、ユーザの頭部の3次元位置を検知する。センサ部16は、ユーザの頭部の表示面に対する相対的な3次元位置を検知する。センサ部16は、3次元カメラ(3Dカメラ)を有してもよい。センサ部16は、画像センサを有してもよい。センサ部16の画像センサは、ディスプレイDP等の表示面DSに配置されてもよい。表示面DSに配置された画像センサが撮像したユーザの画像に基づいて、センサ部16は、ユーザの表示面に対する相対的な3次元位置を検知してもよい。表示面DSに配置された画像センサが撮像したユーザの頭部等の画像に基づいて、センサ部16は、ユーザの頭部の表示面に対する相対的な3次元位置を検知してもよい。センサ部16は、画像センサ等のセンサにより顔検知の機能を有してもよい。例えば、センサ部16は、画像センサ等のセンサにより顔認識の機能を有してもよい。センサ部16が顔認識の機能を有することにより、表示制御装置10は、ユーザの特定が可能になる。例えば、センサ部16の顔認識の機能により、表示制御装置10は、多数の人がいても対象となるユーザのみの追跡および表示が可能になる。すなわち、表示制御装置10は、多数の人のうち、対象ユーザのみを追跡し、その対象ユーザに対して表示の制御を行うことができる。
センサ部16は、ユーザの3次元位置のセンシングするためのセンサを有してもよい。センサ部16は、ユーザの頭部の3次元位置のセンシングするためのセンサを有してもよい。センサ部16は、測距センサを有してもよい。例えば、センサ部16は、ToFセンサを有してもよい。センサ部16は、TOF方式の距離画像センサを有してもよい。
なお、ユーザの3次元位置のセンシング方法は、上記に限らず種々の方法であってもよい。ユーザの頭部の3次元位置のセンシング方法は、上記に限らず種々の方法であってもよい。ユーザの頭部の表示面に対する相対的な3次元位置のセンシング方法は、上記に限らず種々の方法であってもよい。例えば、ユーザの3次元位置のセンシング方法は、2つ以上の画像センサ(カメラ)によりステレオカメラ方式等の種々のセンシング方法であってもよい。この場合、センサ部16は、複数の画像センサ(カメラ)を有してもよい。
また、センサ部16は、上記のようなユーザの3次元位置の検知するセンサに限らず、種々のセンサを有する。センサ部16は、ユーザの視線を検知するセンサを有する。センサ部16は、アイトラッキング(視線追跡)センサ(視線センサ)を有する。センサ部16の視線センサは、ディスプレイDP等の表示面DSに配置されてもよい。表示面DSに配置された視線センサが検知したユーザの視線情報に基づいて、センサ部16は、ユーザが視認する表示面の領域を検知してもよい。
センサ部16は、マイクロフォン等の音声センサを含んでもよい。センサ部16は、ユーザの発話を検知する音声センサを含んでもよい。センサ部16の音声センサは、ディスプレイDP等の表示面DSに配置されてもよい。表示面DSに配置された音声センサが検知したユーザの発話に基づいて、センサ部16は、ユーザの操作を検知してもよい。なお、センサ部16には、上記に限らず、種々のセンサが含まれてもよい。例えば、センサ部16は、ユーザのジェスチャによる操作を検知するために用いるジェスチャセンサを有してもよい。例えば、センサ部16は、表示制御装置10がユーザに装着される場合にユーザの移動等による位置のぶれ(変動)を補正するためのジャイロセンサを有してもよい。
また、センサ部16における上記の各種情報を検知するセンサは共通のセンサであってもよいし、各々異なるセンサにより実現されてもよい。センサ部16は、所定のタイミングで種々のセンサ情報を検知する。例えば、センサ部16は、所定の間隔でセンサ情報を検知する。センサ部16は、数秒(1秒や5秒など)おきにセンサ情報を検知してもよい。
〔4.表示制御処理のフロー〕
次に、図7を用いて、実施形態に係る表示制御装置10による表示制御処理の手順について説明する。図7は、実施形態に係る表示制御処理を示すフローチャートである。
図7に示すように、表示制御装置10は、対象ユーザの3次元位置に関する位置情報を取得する(ステップS101)。そして、表示制御装置10は、所定の表示面の形状を示す表示面情報を取得する(ステップS102)。そして、表示制御装置10は、所定の表示面に表示された所定の表示対象に対する対象ユーザによる視認が所定の条件を満たすように、所定の表示対象の所定の表示面における表示を制御する(ステップS103)。また、表示制御装置10は、ステップS103における表示制御に基づいて所定の表示対象を所定の表示面に表示する。
〔5.操作〕
また、上述したように表示制御装置10は、表示したコンテンツ等の表示対象に対するユーザの操作を受付けてもよい。この点について図8を用いて説明する。図8は、表示面に対する操作の一例を示す図である。図8の例では、対象ユーザがユーザU2である場合を一例として説明する。なお、図8では、図1と同様の点についての説明は適宜省略する。
図8の例では、ユーザU2は、右斜め下から表示面DSであるディスプレイDP3を見上げている。表示制御装置10は、センサ部16により、ユーザU2の頭部HD21の位置LC21やユーザU2の視線情報LS21等を検知する。また、表示制御装置10は、センサ部16により、ユーザU2の頭部HD21とディスプレイDP3との間の距離を検知する。例えば、表示制御装置10は、センサ部16のTOFセンサにより、ユーザU2の頭部HD21とディスプレイDP3との間の距離を検知する。そして、表示制御装置10は、ユーザU2の頭部HD21の位置LC21やユーザU2の視線情報LS21やユーザU2の頭部HD21とディスプレイDP3との間の距離に基づいて、表示面DSであるディスプレイDP3にコンテンツCT21〜CT24を表示する(ステップS21)。このとき、表示制御装置10は、ディスプレイDP3の形状情報等の表示面情報に基づいて、表示面DSであるディスプレイDP3にコンテンツCT21〜CT24を表示する。
表示制御装置10は、ユーザU2による視認において、コンテンツCT21〜CT24が外形「矩形」となるように、ディスプレイDP3におけるコンテンツCT21〜CT24の表示を制御する。表示制御装置10は、ユーザU2の頭部HD21からの視線情報LS21がディスプレイDP3と交差する位置や角度に基づいて、コンテンツCT21〜CT24が外形「矩形」となるように、ディスプレイDP3におけるコンテンツCT21〜CT24の表示を制御する。これにより、表示制御装置10は、ユーザU2による視認において、コンテンツCT21〜CT24が外形「矩形」となるように、ディスプレイDP3にコンテンツCT21〜CT24を表示する。
そして、表示制御装置10は、ユーザU2によるコンテンツCT21〜CT24等に対する操作を受け付ける(ステップS22)。表示制御装置10は、ユーザU2のジェスチャをコンテンツCT21〜CT24等に対する操作として受け付ける。例えば、表示制御装置10は、センサ部16のジェスチャセンサによりユーザU2のジェスチャをコンテンツCT21〜CT24等に対する操作として受け付ける。図8の例では、表示制御装置10は、センサ部16のジェスチャセンサによりユーザU2がコンテンツCT24に対して操作を行うジェスチャを受け付ける。センサ部16のジェスチャセンサがユーザU2の指でコンテンツCT24を指し示すジェスチャを操作として検知する。そして、表示制御装置10は、ユーザU2がコンテンツCT24に対する操作に応じて、コンテンツCT24を拡大して表示したり、コンテンツCT24のみを表示したりするように表示を制御する。
なお、ユーザの操作は、表示制御装置10が受付可能であれば、どのような種別の操作であってもよい。例えば、ユーザの操作は、手や指等によるジェスチャに限らず、音声や瞬き等の種々の操作であってもよい。
〔6.投影型〕
また、表示制御装置10は、ディスプレイDPに限らず、種々の表示面に表示対象を表示してもよい。例えば、表示制御装置10は、壁面等の表示面にコンテンツ等の表示対象を投影してもよい。この点について、図9を用いて説明する。図9は、投影型の表示制御の一例を示す図である。図9の例では、対象ユーザがユーザU31であり、ユーザU31の頭部HD31に表示制御装置10が装着されている場合を一例として説明する。なお、図9では、図1と同様の点についての説明は適宜省略する。
図9の例では、ユーザU3は、左側から壁WLの左側の壁面を視認している。そのため、図9の例では、表示制御装置10は、壁WLの左側の壁面を表示面DSとして表示を制御する。表示制御装置10は、センサ部16により、ユーザU31の頭部HD31の位置LC31等を検知する。また、表示制御装置10は、センサ部16により、表示面DSである壁WLの左側の壁面の形状を検知してもよい。表示制御装置10は、センサ部16の画像センサ等により、壁WLの左側の壁面の表面の形状情報(凹凸の有無等)を検知してもよい。また、表示制御装置10は、所定の外部装置から壁WLの左側の壁面の表面の形状情報を取得してもよい。また、表示制御装置10は、センサ部16により、ユーザU31の頭部HD31と壁WLの左側の壁面との間の距離を検知する。例えば、表示制御装置10は、センサ部16のTOFセンサにより、ユーザU31の頭部HD31と壁WLの左側の壁面との間の距離を検知する。そして、表示制御装置10は、ユーザU31の頭部HD31の位置LC31や壁WLの左側の壁面の形状情報やユーザU31の頭部HD31とディスプレイDP3との間の距離に基づいて、表示面DSである壁WLの左側の壁面にコンテンツCT31を表示する(ステップS31)。
表示制御装置10は、ユーザU31による視認において、コンテンツCT31が外形「円形」となるように、表示面DSである壁WLの左側の壁面におけるコンテンツCT31の表示を制御する。表示制御装置10は、ユーザU31の頭部HD31からの投影方向が表示面DSである壁WLの左側の壁面と交差する位置や角度に基づいて、コンテンツCT31が外形「円形」となるように、表示面DSである壁WLの左側の壁面におけるコンテンツCT31の表示を制御する。例えば、表示制御装置10は、コンテンツCT31のデータ(画像データ等)に対して射影変換行列を用いた変換を行い、変換したコンテンツCT31のデータを表示面DSのそれぞれ算出した位置に投影する。これにより、表示制御装置10は、ユーザU31による視認において、コンテンツCT31が外形「円形」となるように、表示面DSである壁WLの左側の壁面にコンテンツCT31を表示(投影)する。例えば、表示制御装置10は、射影変換行列を導出(算出)し、表示面DSである壁WLの左側の壁面の位置と導出した射影変換行列を用いてコンテンツCT31を表示面DSに表示することにより、コンテンツCT31をユーザU31に所定の態様で視認させる。
なお、この場合、表示制御装置10は、プロジェクタとしての機能を実現する構成を備える。例えば、表示制御装置10は、表示対象等の表示物を投影する機能を有する。例えば、表示制御装置10の出力部13は、表示対象等の表示物を投影する機能を有してもよい。この場合、表示制御装置10の出力部13は、表示対象等の表示物を投影する投影部として機能してもよい。また、表示制御装置10の出力部13とは別に、表示対象等の表示物を投影する投影部(図示省略)を有してもよい。
また、表示制御装置10と端末装置50とは一体であってもよい。例えば、表示制御装置10は、ユーザが利用するスマートフォン等の端末装置50であってもよい。また、表示制御装置10はユーザの頭部(目の横)に装着される場合に限らず、ユーザの胸部や腹部等の種々の部位に装着されてもよい。この場合、表示制御装置10が装着されたユーザの部位と、ユーザの頭部との位置関係に応じて、表示制御装置10は、表示を制御(補正)してもよい。表示制御装置10がユーザの胸部に装着された場合、ユーザの頭部とユーザの胸部との間の距離等の位置関係に応じて、表示制御装置10は、表示を制御(補正)してもよい。また、表示制御装置10を対象ユーザが装着する場合、表示制御装置10は、ユーザの体の動きを検知して、検知したユーザの体の動きに応じて、表示する映像等がぶれないよう制御してもよい。この場合、例えば、表示制御装置10のセンサ部16がジャイロセンサを有し、表示制御装置10は、ジャイロセンサが検知するユーザの体の動きに応じて、表示する映像等がぶれないよう制御してもよい。
〔7.複数のユーザに対する表示〕
また、表示制御装置10は、1つの表示面DSを複数のユーザで共有するように表示を制御してもよい。この点について、図10を用いて説明する。図10は、複数ユーザによる表示面の共有の一例を示す図である。図10の例では、対象ユーザがユーザU41とユーザU42の2人であり、ユーザU41とユーザU42の各々に対応するコンテンツを1つの表示面DSに表示する場合を一例として説明する。なお、図10では、図1と同様の点についての説明は適宜省略する。
図10の例では、ユーザU41は、表示面DSであるディスプレイDP41の左側の領域を視認している。また、ユーザU42は、表示面DSであるディスプレイDP41の右側の領域を視認している。そのため、表示制御装置10は、ユーザU41に対応する表示対象であるコンテンツ群CG41をディスプレイDP41の左側に位置する領域AR41に表示する。また、表示制御装置10は、ユーザU42に対応する表示対象であるコンテンツ群CG42をディスプレイDP41の右側に位置する領域AR42に表示する。これにより、表示制御装置10は、各ユーザの表示対象が混在しないように表示を制御することができる。
(7−1.表示区別)
また、表示制御装置10は、複数のユーザのうち、第1ユーザの第1表示対象と第2ユーザの第2表示対象とを識別可能になるように表示を制御してもよい。例えば、表示制御装置10は、各利用者(ユーザ)との対話上で表示される情報を利用者ごとに区別する必要がある場合、各ユーザに対応する情報が識別可能になるように表示を制御してもよい。例えば、各ユーザに対応する情報を色で分けたり、個々の情報(表示領域)を円や矩形等の図形で囲んだりすることにより、各ユーザに対応する情報が識別可能になるように表示を制御してもよい。このように、表示制御装置10は、各利用者との対話上で表示される情報を利用者ごとに色で分けたり、個々の情報(表示領域)を包含する円や矩形で区別したりする。
また、表示制御装置10は、区別された情報がいずれの利用者であるかを判別するために、対話中または対話開始時に発話者を撮影し、その画像をディスプレイ上に表示してもよい。または、表示制御装置10は、個々の利用者に紐付けられたエージェントを示す顔やマークなどを表示してもよい。
また、領域の表示領域の位置は、発話開始時の利用者に最も近いディスプレイの部分領域であってもよい。領域の表示領域の位置は、発話開始時の利用者に最も近いディスプレイの部分領域に表示する。例えば、表示制御装置10は、発話者の位置をデプスカメラ等により計測してもよい。
(7−2.移動による表示変化)
また、表示制御装置10は、一の対象ユーザが移動した場合には、その一の対象ユーザの表示領域は、一の対象ユーザの位置変化に追従して移動してもよい。この場合、表示制御装置10は、2人の対象ユーザのいずれか一方のユーザが移動している場合、移動していない他方のユーザに対応する表示対象を優先して表示を制御する。表示制御装置10は、移動していない他方のユーザに対応する表示対象が表示される領域を含まない領域に、移動しているユーザに対応する表示対象が表示されるように表示を制御してもよい。表示制御装置10は、移動しているユーザに対応する表示対象を半透明化して表示するように表示を制御してもよい。例えば、一の対象ユーザが移動中に一の対象ユーザの表示領域が他の対象ユーザの表示領域と重なる場合には、表示制御装置10は、他の対象ユーザの表示を邪魔しないように半透明化してもよい。
(7−3.モード切替え)
また、表示制御装置10は、ユーザの移動時のモード(移動モード)とユーザの停止時(停止モード)のモードを切り替えてもよい。表示制御装置10は、ユーザの移動時においては、ユーザの視線の向きやユーザの視点の向きやユーザの頭部の向きに関わらず、ユーザの位置変化に追従して表示対象(表示領域)を移動されてもよい。表示制御装置10は、ユーザが移動モードである場合、ユーザの視線の向きやユーザの視点の向きやユーザの頭部の向きに関わらず、ユーザの位置変化に追従して表示対象(表示領域)を移動されてもよい。
〔8.効果〕
上述してきたように、実施形態に係る表示制御装置10は、取得部151と、表示制御部152とを有する。取得部151は、対象ユーザの3次元位置に関する位置情報と、所定の表示面の形状を示す表示面情報とを取得する。表示制御部152は、対象ユーザの位置情報と所定の表示面の表示面情報とに基づいて、所定の表示面に表示された所定の表示対象に対する対象ユーザによる視認が所定の条件を満たすように、所定の表示対象の所定の表示面における表示を制御する。
このように、実施形態に係る表示制御装置10は、対象ユーザの3次元位置に関する位置情報と所定の表示面の表示面情報とに基づいて、所定の表示面に表示された所定の表示対象に対する対象ユーザによる視認が所定の条件を満たすように、所定の表示対象の所定の表示面における表示を制御することにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
また、実施形態に係る表示制御装置10において、取得部151は、所定の表示面に対する対象ユーザの位置を示す位置情報を取得する。
このように、実施形態に係る表示制御装置10は、所定の表示面に対する対象ユーザの位置を示す位置情報を取得することにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
また、実施形態に係る表示制御装置10において、表示制御部152は、所定の形状を有する所定の表示対象を対象ユーザにより所定の形状で視認させるために、所定の表示対象を所定の表示面にマッピングすることにより、所定の表示対象の所定の表示面における表示を制御する。
このように、実施形態に係る表示制御装置10は、所定の形状を有する所定の表示対象を対象ユーザにより所定の形状で視認させるために、所定の表示対象を所定の表示面にマッピングすることにより、所定の表示対象の所定の表示面における表示を制御することにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
また、実施形態に係る表示制御装置10において、取得部151は、センサにより検知された対象ユーザの頭部の3次元位置に関する位置情報を取得する。表示制御部152は、対象ユーザの頭部の位置に応じて、所定の表示対象の所定の表示面における表示を制御する。
このように、実施形態に係る表示制御装置10は、センサにより検知された対象ユーザの頭部の3次元位置に関する位置情報を取得し、対象ユーザの頭部の位置に応じて、所定の表示対象の所定の表示面における表示を制御することにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
また、実施形態に係る表示制御装置10において、取得部151は、センサにより検知された対象ユーザの視点の3次元位置に関する位置情報を取得する。表示制御部152は、対象ユーザの視点の位置に応じて、所定の表示対象の所定の表示面における表示を制御する。
このように、実施形態に係る表示制御装置10は、センサにより検知された対象ユーザの視点の3次元位置に関する位置情報を取得し、対象ユーザの視点の位置に応じて、所定の表示対象の所定の表示面における表示を制御することにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
また、実施形態に係る表示制御装置10において、取得部151は、センサにより検知された対象ユーザの視線の方向を示す視線情報を取得する。表示制御部152は、対象ユーザの視線情報に基づいて、対象ユーザの視線の方向と交差する点を含む所定の表示面の領域に所定の表示対象を表示するように表示を制御する。
このように、実施形態に係る表示制御装置10は、センサにより検知された対象ユーザの視線の方向を示す視線情報を取得し、対象ユーザの視線情報に基づいて、対象ユーザの視線の方向と交差する点を含む所定の表示面の領域に所定の表示対象を表示するように表示を制御することにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
また、実施形態に係る表示制御装置10において、表示制御部152は、対象ユーザと所定の表示面との間の距離に応じて、所定の表示対象の表示サイズを制御する。
このように、実施形態に係る表示制御装置10は、対象ユーザと所定の表示面との間の距離に応じて、所定の表示対象の表示サイズを制御することにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
また、実施形態に係る表示制御装置10において、表示制御部152は、対象ユーザと所定の表示面との間の距離が遠い程、所定の表示対象の表示サイズが多くなるように表示を制御する。
このように、実施形態に係る表示制御装置10は、対象ユーザと所定の表示面との間の距離が遠い程、所定の表示対象の表示サイズが多くなるように表示を制御することにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
また、実施形態に係る表示制御装置10において、表示制御部152は、対象ユーザの位置の変化に応じて、所定の表示対象の表示位置を変更する。
このように、実施形態に係る表示制御装置10は、対象ユーザの位置の変化に応じて、所定の表示対象の表示位置を変更することにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
また、実施形態に係る表示制御装置10において、表示制御部152は、対象ユーザの移動に追従するように、所定の表示対象の表示位置を変更する。
このように、実施形態に係る表示制御装置10は、対象ユーザの移動に追従するように、所定の表示対象の表示位置を変更することにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
また、実施形態に係る表示制御装置10は、表示部153を有する。表示部153は、表示制御部152による表示の制御に応じて、所定の表示対象を表示する。
このように、実施形態に係る表示制御装置10は、表示の制御に応じて、所定の表示対象を表示することにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
また、実施形態に係る表示制御装置10において、表示部153は、所定の表示面であるディスプレイに所定の表示対象を表示する。
このように、実施形態に係る表示制御装置10は、所定の表示面であるディスプレイに所定の表示対象を表示することにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
また、実施形態に係る表示制御装置10において、表示部153は、所定の表示面に投影することにより所定の表示対象を表示する。
このように、実施形態に係る表示制御装置10は、所定の表示面に投影することにより所定の表示対象を表示することにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
また、実施形態に係る表示制御装置10は、受付部154を有する。受付部154は、対象ユーザによる所定の表示対象に対する操作を受け付ける。
このように、実施形態に係る表示制御装置10は、対象ユーザによる所定の表示対象に対する操作を受け付けることにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
また、実施形態に係る表示制御装置10において、受付部154は、対象ユーザのジェスチャによる所定の表示対象に対する操作を受け付ける。
このように、実施形態に係る表示制御装置10は、対象ユーザのジェスチャによる所定の表示対象に対する操作を受け付けることにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
また、実施形態に係る表示制御装置10において、受付部154は、対象ユーザの音声による所定の表示対象に対する操作を受け付ける。
このように、実施形態に係る表示制御装置10は、対象ユーザの音声による所定の表示対象に対する操作を受け付けることにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
また、実施形態に係る表示制御装置10において、取得部151は、第1対象ユーザの3次元位置に関する第1位置情報と、第2対象ユーザの3次元位置に関する第2位置情報とを取得する。表示制御部152は、第1対象ユーザの第1位置情報と第2対象ユーザの第2位置情報とに基づいて、第1対象ユーザに対応する第1表示対象に対する第1対象ユーザによる視認、及び第2対象ユーザに対応する第2表示対象に対する第2対象ユーザによる視認が所定の条件を満たすように、第1表示対象及び第2表示対象の所定の表示面における表示を制御する。
このように、実施形態に係る表示制御装置10は、第1対象ユーザの3次元位置に関する第1位置情報と、第2対象ユーザの3次元位置に関する第2位置情報とを取得し、第1対象ユーザの第1位置情報と第2対象ユーザの第2位置情報とに基づいて、第1対象ユーザに対応する第1表示対象に対する第1対象ユーザによる視認、及び第2対象ユーザに対応する第2表示対象に対する第2対象ユーザによる視認が所定の条件を満たすように、第1表示対象及び第2表示対象の所定の表示面における表示を制御することにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
また、実施形態に係る表示制御装置10において、表示制御部152は、第1表示対象の表示態様と、第2表示対象の表示態様とを異ならせることにより、第1表示対象と第2表示対象とを識別可能になるように表示を制御する。
このように、実施形態に係る表示制御装置10は、第1表示対象の表示態様と、第2表示対象の表示態様とを異ならせることにより、第1表示対象と第2表示対象とを識別可能になるように表示を制御することにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
また、実施形態に係る表示制御装置10において、表示制御部152は、第1表示対象を表示する色と、第2表示対象を表示する色とを異ならせることにより、第1表示対象と第2表示対象とを識別可能になるように表示を制御する。
このように、実施形態に係る表示制御装置10は、第1表示対象を表示する色と、第2表示対象を表示する色とを異ならせることにより、第1表示対象と第2表示対象とを識別可能になるように表示を制御することにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
また、実施形態に係る表示制御装置10において、表示制御部152は、第1対象ユーザ及び第2対象ユーザのいずれか一方のユーザが移動している場合、他方のユーザに対応する表示対象を優先して表示を制御する。
このように、実施形態に係る表示制御装置10は、第1対象ユーザ及び第2対象ユーザのいずれか一方のユーザが移動している場合、他方のユーザに対応する表示対象を優先して表示を制御することにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
また、実施形態に係る表示制御装置10において、表示制御部152は、他方のユーザに対応する表示対象が表示される領域を含まない領域に一方のユーザに対応する表示対象が表示されるように表示を制御する。
このように、実施形態に係る表示制御装置10は、他方のユーザに対応する表示対象が表示される領域を含まない領域に一方のユーザに対応する表示対象が表示されるように表示を制御することにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
また、実施形態に係る表示制御装置10において、表示制御部152は、一方のユーザに対応する表示対象を半透明化して表示するように表示を制御する。
このように、実施形態に係る表示制御装置10は、一方のユーザに対応する表示対象を半透明化して表示するように表示を制御することにより、ユーザの位置に応じて表示対象の適切な表示を可能にすることができる。
〔9.プログラム〕
上述してきた表示制御装置10による処理は、本願に係る表示制御プログラムにより実現される。例えば、表示制御装置10に係る表示部153は、表示制御装置10が有するCPUやMPU等によって、表示制御プログラムがRAMを作業領域として、表示制御プログラムに係る表示手順が実行されることにより実現される。表示制御装置10に係る他の処理部も同様に、表示制御プログラムによる各手順が実行されることにより実現される。
なお、本願に係る表示制御装置10が実行する処理は、必ずしも全てが表示制御プログラムによって実現されるものでなくてもよい。例えば、表示制御装置10外の情報等は、表示制御装置10が有するOS(Operating System)によって取得されてもよい。すなわち、表示制御プログラム自体が、上述してきたような表示制御装置10で実行される処理を実行するのではなく、OSによって取得されたデータ(例えば、表示対象等を表示面に表示するために用いるデータ)を受け取ったりすることにより、上述してきた表示制御装置10の処理を実現するようにしてもよい。
〔10.ハードウェア構成〕
上述してきた実施形態に係る表示制御装置10は、例えば図11に示すような構成のコンピュータ1000によって実現される。図11は、表示制御装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、所定のネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを所定のネットワークNを介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る表示制御装置10として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部15の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定のネットワークNを介してこれらのプログラムを取得してもよい。
以上、本願の実施形態を図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
〔11.その他〕
また、上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上述してきた各実施形態に記載された各処理は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
1 表示制御システム
10 表示制御装置
141 表示面情報記憶部
142 ユーザ情報記憶部
143 コンテンツ情報記憶部
15 制御部
151 取得部
152 表示制御部
153 表示部
154 受付部
50 端末装置
N ネットワーク

Claims (23)

  1. 対象ユーザの3次元位置に関する位置情報と、所定の表示面の形状を示す表示面情報とを取得する取得部と、
    前記対象ユーザの前記位置情報と前記所定の表示面の前記表示面情報とに基づいて、前記所定の表示面に表示された所定の表示対象を前記対象ユーザに所定の態様で視認させるために、前記所定の表示対象の前記所定の表示面における表示を制御する表示制御部と、
    を備え
    前記取得部は、
    第1対象ユーザの3次元位置に関する第1位置情報と、第2対象ユーザの3次元位置に関する第2位置情報とを取得し、
    前記表示制御部は、
    前記第1対象ユーザの前記第1位置情報と前記第2対象ユーザの前記第2位置情報とに基づいて、前記第1対象ユーザに対応する第1表示対象に対する前記第1対象ユーザによる視認、及び前記第2対象ユーザに対応する第2表示対象に対する前記第2対象ユーザによる視認が所定の態様になるように、前記第1表示対象及び前記第2表示対象の前記所定の表示面における表示を制御し、前記第1表示対象を包含する所定の形状である第1図形を表示し、前記第1図形とは形状の異なる第2図形であって、前記第2表示対象を包含する第2図形を表示することにより、前記第1表示対象と前記第2表示対象とを識別可能になるように表示を制御する
    ことを特徴とする表示制御装置。
  2. 前記取得部は、
    前記所定の表示面に対する前記対象ユーザの位置を示す前記位置情報を取得する
    ことを特徴とする請求項1に記載の表示制御装置。
  3. 前記表示制御部は、
    所定の形状を有する前記所定の表示対象を前記対象ユーザにより前記所定の形状で視認させるために、前記所定の表示対象を前記所定の表示面にマッピングすることにより、前記所定の表示対象の前記所定の表示面における表示を制御する
    ことを特徴とする請求項1または請求項2に記載の表示制御装置。
  4. 前記取得部は、
    センサにより検知された前記対象ユーザの頭部の3次元位置に関する前記位置情報を取得し、
    前記表示制御部は、
    前記対象ユーザの前記頭部の位置に応じて、前記所定の表示対象の前記所定の表示面における表示を制御する
    ことを特徴とする請求項1〜3のいずれか1項に記載の表示制御装置。
  5. 前記取得部は、
    センサにより検知された前記対象ユーザの視点の3次元位置に関する前記位置情報を取得し、
    前記表示制御部は、
    前記対象ユーザの前記視点の位置に応じて、前記所定の表示対象の前記所定の表示面における表示を制御する
    ことを特徴とする請求項1〜4のいずれか1項に記載の表示制御装置。
  6. 前記取得部は、
    センサにより検知された前記対象ユーザの視線の方向を示す視線情報を取得し、
    前記表示制御部は、
    前記対象ユーザの前記視線情報に基づいて、前記対象ユーザの前記視線の方向と交差する点を含む前記所定の表示面の領域に前記所定の表示対象を表示するように表示を制御する
    ことを特徴とする請求項1〜5のいずれか1項に記載の表示制御装置。
  7. 前記表示制御部は、
    前記対象ユーザと前記所定の表示面との間の距離に応じて、前記所定の表示対象の表示サイズを制御する
    ことを特徴とする請求項1〜6のいずれか1項に記載の表示制御装置。
  8. 前記表示制御部は、
    前記対象ユーザと前記所定の表示面との間の距離が遠い程、前記所定の表示対象の表示サイズが多くなるように表示を制御する
    ことを特徴とする請求項1〜7のいずれか1項に記載の表示制御装置。
  9. 前記表示制御部は、
    前記対象ユーザの位置の変化に応じて、前記所定の表示対象の表示位置を変更する
    ことを特徴とする請求項1〜8のいずれか1項に記載の表示制御装置。
  10. 前記表示制御部は、
    前記対象ユーザの移動に追従するように、前記所定の表示対象の表示位置を変更する
    ことを特徴とする請求項1〜9のいずれか1項に記載の表示制御装置。
  11. 前記表示制御部による表示の制御に応じて、前記所定の表示対象を表示する表示部、
    をさらに備えることを特徴とする請求項1〜10のいずれか1項に記載の表示制御装置。
  12. 前記表示部は、
    前記所定の表示面であるディスプレイに前記所定の表示対象を表示する
    ことを特徴とする請求項11に記載の表示制御装置。
  13. 前記表示部は、
    前記所定の表示面に投影することにより前記所定の表示対象を表示する
    ことを特徴とする請求項11に記載の表示制御装置。
  14. 前記対象ユーザによる前記所定の表示対象に対する操作を受け付ける受付部、
    をさらに備えることを特徴とする請求項1〜13のいずれか1項に記載の表示制御装置。
  15. 前記受付部は、
    前記対象ユーザのジェスチャによる前記所定の表示対象に対する操作を受け付ける
    ことを特徴とする請求項14に記載の表示制御装置。
  16. 前記受付部は、
    前記対象ユーザの音声による前記所定の表示対象に対する操作を受け付ける
    ことを特徴とする請求項14または請求項15に記載の表示制御装置。
  17. 前記表示制御部は、
    前記第1表示対象の表示態様と、前記第2表示対象の表示態様とを異ならせることにより、前記第1表示対象と前記第2表示対象とを識別可能になるように表示を制御する
    ことを特徴とする請求項1〜16のいずれか1項に記載の表示制御装置。
  18. 前記表示制御部は、
    前記第1表示対象を表示する色と、前記第2表示対象を表示する色とを異ならせることにより、前記第1表示対象と前記第2表示対象とを識別可能になるように表示を制御する
    ことを特徴とする請求項17に記載の表示制御装置。
  19. 前記表示制御部は、
    前記第1対象ユーザ及び前記第2対象ユーザのいずれか一方のユーザが移動している場合、他方のユーザに対応する表示対象を優先して表示を制御する
    ことを特徴とする請求項1〜18のいずれか1項に記載の表示制御装置。
  20. 前記表示制御部は、
    前記他方のユーザに対応する表示対象が表示される領域を含まない領域に前記一方のユーザに対応する表示対象が表示されるように表示を制御する
    ことを特徴とする請求項19に記載の表示制御装置。
  21. 前記表示制御部は、
    前記一方のユーザに対応する表示対象を半透明化して表示するように表示を制御する
    ことを特徴とする請求項19に記載の表示制御装置。
  22. コンピュータが実行する表示制御方法であって、
    対象ユーザの3次元位置に関する位置情報と、所定の表示面の形状を示す表示面情報とを取得する取得工程と、
    前記対象ユーザの前記位置情報と前記所定の表示面の前記表示面情報とに基づいて、前記所定の表示面に表示された所定の表示対象を前記対象ユーザに所定の態様で視認させるために、前記所定の表示対象の前記所定の表示面における表示を制御する表示制御工程と、
    を含み、
    前記取得工程は、
    第1対象ユーザの3次元位置に関する第1位置情報と、第2対象ユーザの3次元位置に関する第2位置情報とを取得し、
    前記表示制御工程は、
    前記第1対象ユーザの前記第1位置情報と前記第2対象ユーザの前記第2位置情報とに基づいて、前記第1対象ユーザに対応する第1表示対象に対する前記第1対象ユーザによる視認、及び前記第2対象ユーザに対応する第2表示対象に対する前記第2対象ユーザによる視認が所定の態様になるように、前記第1表示対象及び前記第2表示対象の前記所定の表示面における表示を制御し、前記第1表示対象を包含する所定の形状である第1図形を表示し、前記第1図形とは形状の異なる第2図形であって、前記第2表示対象を包含する第2図形を表示することにより、前記第1表示対象と前記第2表示対象とを識別可能になるように表示を制御する
    ことを特徴とする表示制御方法。
  23. 対象ユーザの3次元位置に関する位置情報と、所定の表示面の形状を示す表示面情報とを取得する取得手順と、
    前記対象ユーザの前記位置情報と前記所定の表示面の前記表示面情報とに基づいて、前記所定の表示面に表示された所定の表示対象を前記対象ユーザに所定の態様で視認させるために、前記所定の表示対象の前記所定の表示面における表示を制御する表示制御手順と、
    をコンピュータに実行させ
    前記取得手順は、
    第1対象ユーザの3次元位置に関する第1位置情報と、第2対象ユーザの3次元位置に関する第2位置情報とを取得し、
    前記表示制御手順は、
    前記第1対象ユーザの前記第1位置情報と前記第2対象ユーザの前記第2位置情報とに基づいて、前記第1対象ユーザに対応する第1表示対象に対する前記第1対象ユーザによる視認、及び前記第2対象ユーザに対応する第2表示対象に対する前記第2対象ユーザによる視認が所定の態様になるように、前記第1表示対象及び前記第2表示対象の前記所定の表示面における表示を制御し、前記第1表示対象を包含する所定の形状である第1図形を表示し、前記第1図形とは形状の異なる第2図形であって、前記第2表示対象を包含する第2図形を表示することにより、前記第1表示対象と前記第2表示対象とを識別可能になるように表示を制御す
    ことを特徴とする表示制御プログラム。
JP2018116894A 2018-06-20 2018-06-20 表示制御装置、表示制御方法、及び表示制御プログラム Active JP6959184B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018116894A JP6959184B2 (ja) 2018-06-20 2018-06-20 表示制御装置、表示制御方法、及び表示制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018116894A JP6959184B2 (ja) 2018-06-20 2018-06-20 表示制御装置、表示制御方法、及び表示制御プログラム

Publications (2)

Publication Number Publication Date
JP2019219514A JP2019219514A (ja) 2019-12-26
JP6959184B2 true JP6959184B2 (ja) 2021-11-02

Family

ID=69096388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018116894A Active JP6959184B2 (ja) 2018-06-20 2018-06-20 表示制御装置、表示制御方法、及び表示制御プログラム

Country Status (1)

Country Link
JP (1) JP6959184B2 (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5100003B2 (ja) * 2005-01-06 2012-12-19 キヤノン株式会社 情報処理装置、方法、記憶媒体並びプログラム
JP2010091764A (ja) * 2008-10-08 2010-04-22 Toshiba Corp 画像表示装置、方法およびプログラム
JP2013115644A (ja) * 2011-11-29 2013-06-10 Canon Inc 表示装置及び表示方法
JP2013179553A (ja) * 2012-01-30 2013-09-09 Sharp Corp 画面分割表示システム及び画面分割表示方法
WO2015053188A1 (ja) * 2013-10-10 2015-04-16 Necカシオモバイルコミュニケーションズ株式会社 表示装置及び画像変形方法
KR102311051B1 (ko) * 2014-08-27 2021-10-13 삼성전자주식회사 웨어러블 워치 및 그것의 디스플레이 방법
JPWO2016080321A1 (ja) * 2014-11-21 2017-05-25 シャープ株式会社 表示投影制御装置、表示投影システム、該表示投影制御装置の制御プログラム、該制御プログラムを記録したコンピュータ読み取り可能な記録媒体、および該表示投影制御装置の制御方法
WO2016129697A1 (ja) * 2015-02-13 2016-08-18 株式会社ニコン 画像表示装置及び画像生成装置

Also Published As

Publication number Publication date
JP2019219514A (ja) 2019-12-26

Similar Documents

Publication Publication Date Title
US10936874B1 (en) Controller gestures in virtual, augmented, and mixed reality (xR) applications
CN105452811B (zh) 用于显示地图的用户终端设备及其方法
US9852546B2 (en) Method and system for receiving gesture input via virtual control objects
US10290155B2 (en) 3D virtual environment interaction system
US9671938B2 (en) Navigating visual data associated with a point of interest
US9348411B2 (en) Object display with visual verisimilitude
US10796445B2 (en) Method and device for detecting planes and/or quadtrees for use as a virtual substrate
US11315296B2 (en) Dynamically varying visual properties of indicators on a digital map
TWI493388B (zh) 用於行動裝置的全三維互動的設備與方法、行動裝置及非暫時性電腦可讀取儲存媒體
WO2016055317A1 (en) Docking system
US20200394841A1 (en) Information processing apparatus, information processing method, and storage medium
JP2015095147A (ja) 表示制御装置、表示制御方法、およびプログラム
KR102302210B1 (ko) 인터페이스에서의 공간 객체들의 상대적 표현 및 명확화를 위한 시스템들 및 방법들
US10970460B2 (en) Information processing apparatus, method of displaying image, storage medium, and system
US10802784B2 (en) Transmission of data related to an indicator between a user terminal device and a head mounted display and method for controlling the transmission of data
JP2015503162A (ja) 3次元で表示されるオブジェクトのユーザの選択ジェスチャに応答する方法およびシステム
US10620807B2 (en) Association of objects in a three-dimensional model with time-related metadata
CN110999307A (zh) 显示装置和服务器及其控制方法
US11057549B2 (en) Techniques for presenting video stream next to camera
JP6959184B2 (ja) 表示制御装置、表示制御方法、及び表示制御プログラム
TW201539252A (zh) 觸控系統
US20210258548A1 (en) Information processing device, information processing method, and recording medium
JP2018005663A (ja) 情報処理装置、表示システム、プログラム
TWI766258B (zh) 用於選擇在設備的顯示媒介上的交互物件的方法
JP2016029591A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211007

R150 Certificate of patent or registration of utility model

Ref document number: 6959184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350