JP2014225727A - Display control device, display control method, and recording medium - Google Patents

Display control device, display control method, and recording medium Download PDF

Info

Publication number
JP2014225727A
JP2014225727A JP2013102884A JP2013102884A JP2014225727A JP 2014225727 A JP2014225727 A JP 2014225727A JP 2013102884 A JP2013102884 A JP 2013102884A JP 2013102884 A JP2013102884 A JP 2013102884A JP 2014225727 A JP2014225727 A JP 2014225727A
Authority
JP
Japan
Prior art keywords
display control
virtual object
unit
user
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013102884A
Other languages
Japanese (ja)
Other versions
JP2014225727A5 (en
JP6318470B2 (en
Inventor
康之 古賀
Yasuyuki Koga
康之 古賀
哲男 池田
Tetsuo Ikeda
哲男 池田
厚史 泉原
Atsushi Izumihara
厚史 泉原
池田 卓郎
Takuro Ikeda
卓郎 池田
健太郎 木村
Kentaro Kimura
健太郎 木村
翼 塚原
Tsubasa Tsukahara
翼 塚原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013102884A priority Critical patent/JP6318470B2/en
Priority to EP14723136.9A priority patent/EP2997445A1/en
Priority to CN201480025979.6A priority patent/CN105210009B/en
Priority to PCT/JP2014/002065 priority patent/WO2014185002A1/en
Priority to US14/888,788 priority patent/US20160078685A1/en
Publication of JP2014225727A publication Critical patent/JP2014225727A/en
Publication of JP2014225727A5 publication Critical patent/JP2014225727A5/ja
Application granted granted Critical
Publication of JP6318470B2 publication Critical patent/JP6318470B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique enabling stereoscopic display of a virtual object so that a user can more easily browse it.SOLUTION: A display control device comprises: a viewpoint acquisition unit that acquires a user's viewpoint detected by a viewpoint detection unit; and a display control unit that controls a display unit so that a virtual object is stereoscopically displayed by the display unit. The display control unit controls the position in a depth direction of the virtual object presented to the user on the basis of the viewpoint.

Description

本開示は、表示制御装置、表示制御方法および記録媒体に関する。   The present disclosure relates to a display control device, a display control method, and a recording medium.

近年、ユーザの頭部に装着するディスプレイとしてHMD(Head Mounted Display)の開発が進んでいる。ユーザの頭部に装着されたHMDによるコンテンツの表示動作は、ユーザの状況に依存せず一定である場合も想定されるが、ユーザの状況に基づいて制御される場合も想定される。例えば、ユーザの状況に応じてコンテンツの表示動作を制御する技術が開示されている(例えば、特許文献1参照)。   In recent years, development of HMD (Head Mounted Display) as a display to be worn on a user's head has been progressing. The display operation of the content by the HMD attached to the user's head is assumed to be constant without depending on the user's situation, but is also assumed to be controlled based on the user's situation. For example, a technique for controlling a content display operation according to a user's situation is disclosed (for example, see Patent Document 1).

特開2008−65169号公報JP 2008-65169 A

しかしながら、立体表示により仮想オブジェクトをユーザに提示するHMDも開発されている。そこで、ユーザがより閲覧しやすくなるように仮想オブジェクトの立体表示を行うことが可能な技術が実現されることが望ましい。   However, an HMD that presents a virtual object to a user by stereoscopic display has also been developed. Therefore, it is desirable to realize a technique capable of performing a stereoscopic display of a virtual object so that the user can more easily browse.

本開示によれば、視点検出部によって検出されたユーザの視点を取得する視点取得部と、仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御する表示制御部と、を備え、前記表示制御部は、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、表示制御装置が提供される。   According to the present disclosure, a viewpoint acquisition unit that acquires the viewpoint of the user detected by the viewpoint detection unit, and a display control unit that controls the display unit so that a virtual object is stereoscopically displayed by the display unit, A display control device is provided, wherein the display control unit controls a position in the depth direction of the virtual object presented to the user based on the viewpoint.

また、本開示によれば、視点検出部によって検出されたユーザの視点を取得することと、仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御することと、を含み、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御すること、を含む、表示制御方法が提供される。   In addition, according to the present disclosure, the viewpoint includes: acquiring a user's viewpoint detected by the viewpoint detection unit; and controlling the display unit so that a virtual object is stereoscopically displayed by the display unit. A display control method including controlling a position in the depth direction of the virtual object presented to the user.

また、本開示によれば、コンピュータを、視点検出部によって検出されたユーザの視点を取得する視点取得部と、仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御する表示制御部と、を備え、前記表示制御部は、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、表示制御装置として機能させるためのプログラムを記録した、コンピュータに読み取り可能な記録媒体が提供される。   In addition, according to the present disclosure, the computer includes a viewpoint acquisition unit that acquires the viewpoint of the user detected by the viewpoint detection unit, and a display control unit that controls the display unit so that the virtual object is stereoscopically displayed by the display unit. The display control unit controls a position in the depth direction of the virtual object presented to the user based on the viewpoint, and records a program for causing the computer to function as a display control device. A readable recording medium is provided.

以上説明したように本開示によれば、ユーザがより閲覧しやすくなるように仮想オブジェクトの立体表示を行うことが可能な技術を提供することが可能である。   As described above, according to the present disclosure, it is possible to provide a technique capable of performing a stereoscopic display of a virtual object so that the user can more easily browse.

本開示の実施形態に係る情報処理システムの構成例を示す図である。It is a figure showing an example of composition of an information processing system concerning an embodiment of this indication. 本開示の実施形態に係る情報処理システムの機能構成例を示す図である。It is a figure showing an example of functional composition of an information processing system concerning an embodiment of this indication. ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する手法の例を説明するための図である。It is a figure for demonstrating the example of the method of controlling the position of the depth direction of the virtual object shown to a user. 静止時におけるユーザへの天気予報画面の提示の例を示す図である。It is a figure which shows the example of the presentation of the weather forecast screen to the user at the time of stationary. 歩行時におけるユーザへの天気予報画面の提示の例を示す図である。It is a figure which shows the example of the presentation of the weather forecast screen to the user at the time of a walk. 走行時におけるユーザへの天気予報画面の提示の例を示す図である。It is a figure which shows the example of the presentation of the weather forecast screen to the user at the time of driving | running | working. 運転時におけるユーザへの天気予報画面の提示の例を示す図である。It is a figure which shows the example of the presentation of the weather forecast screen to the user at the time of a driving | operation. 静止時におけるユーザへのナビゲーション画面の提示の例を示す図である。It is a figure which shows the example of presentation of the navigation screen to the user at the time of stillness. 歩行時におけるユーザへのナビゲーション画面の提示の例を示す図である。It is a figure which shows the example of the presentation of the navigation screen to the user at the time of a walk. 走行時におけるユーザへのナビゲーション画面の提示の例を示す図である。It is a figure which shows the example of the presentation of the navigation screen to the user at the time of driving | running | working. 静止時におけるユーザへのランニングアプリケーション画面の提示の例を示す図である。It is a figure which shows the example of the presentation of the running application screen to the user at the time of stillness. 歩行時におけるユーザへのランニングアプリケーション画面の提示の例を示す図である。It is a figure which shows the example of the presentation of the running application screen to the user at the time of walking. 走行時におけるユーザへのランニングアプリケーション画面の提示の例を示す図である。It is a figure which shows the example of the presentation of the running application screen to the user at the time of driving | running | working. 撮像画像の輝度情報に基づいて仮想オブジェクトの表示位置を制御する例を示す図である。It is a figure which shows the example which controls the display position of a virtual object based on the luminance information of a captured image. 撮像画像の色情報に基づいて仮想オブジェクトの表示位置を制御する例を示す図である。It is a figure which shows the example which controls the display position of a virtual object based on the color information of a captured image. 撮像画像の輝度情報に基づいて遮光量を制御する例を示す図である。It is a figure which shows the example which controls the light shielding amount based on the luminance information of a captured image. 撮像画像の輝度情報に基づいて遮光量を制御する例を示す図である。It is a figure which shows the example which controls the light shielding amount based on the luminance information of a captured image. 本開示の実施形態に係る表示制御装置の動作の流れを示すフローチャートである。5 is a flowchart showing a flow of operations of a display control apparatus according to an embodiment of the present disclosure. 本開示の実施形態に係る表示制御装置のハードウェア構成例を示す図である。FIG. 3 is a diagram illustrating a hardware configuration example of a display control device according to an embodiment of the present disclosure.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.

また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットまたは数字を付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。   In the present specification and drawings, a plurality of constituent elements having substantially the same functional configuration may be distinguished by attaching different alphabets or numbers after the same reference numeral. However, when it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given.

また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
1.実施形態
1−1.情報処理システムの構成例
1−2.情報処理システムの機能構成例
1−3.表示制御装置の機能詳細
1−4.表示制御装置の動作
1−5.ハードウェア構成例
2.むすび
Further, the “DETAILED DESCRIPTION OF THE INVENTION” will be described according to the following item order.
1. Embodiment 1-1. Configuration example of information processing system 1-2. Functional configuration example of information processing system 1-3. Detailed function of display control device 1-4. Operation of display control apparatus 1-5. 1. Hardware configuration example Conclusion

<<1.実施形態>>
まず、本開示の実施形態について説明する。
<< 1. Embodiment >>
First, an embodiment of the present disclosure will be described.

[1−1.情報処理システムの構成例]
最初に、本開示の実施形態に係る情報処理システム1の構成例について説明する。図1は、本開示の実施形態に係る情報処理システム1の構成例を示す図である。図1に示すように、情報処理システム1は、表示制御装置10と、撮像部130と、センサ部140と、表示部150と、遮光部160とを備える。
[1-1. Configuration example of information processing system]
First, a configuration example of the information processing system 1 according to the embodiment of the present disclosure will be described. FIG. 1 is a diagram illustrating a configuration example of an information processing system 1 according to an embodiment of the present disclosure. As illustrated in FIG. 1, the information processing system 1 includes a display control device 10, an imaging unit 130, a sensor unit 140, a display unit 150, and a light shielding unit 160.

撮像部130は、撮像範囲を撮像する機能を有する。例えば、撮像部130は、ユーザの視線方向を撮像することができるようにユーザの頭部に装着されている。撮像部130によって撮像されて得られた撮像画像30は、例えば、無線信号または有線信号により表示制御装置10に提供される。なお、図1に示した例では、撮像部130は表示制御装置10と別体に構成されているが、撮像部130は、表示制御装置10と一体化されていてもよい。   The imaging unit 130 has a function of imaging the imaging range. For example, the imaging unit 130 is mounted on the user's head so that the user's line-of-sight direction can be captured. The captured image 30 obtained by imaging by the imaging unit 130 is provided to the display control device 10 by, for example, a wireless signal or a wired signal. In the example illustrated in FIG. 1, the imaging unit 130 is configured separately from the display control device 10, but the imaging unit 130 may be integrated with the display control device 10.

センサ部140は、センサデータを検出する。例えば、センサ部140は、ユーザUの目領域を撮像して撮像結果を取得する。以下の説明においては、センサ部140によってユーザUの両方の目領域が撮像される場合を主に想定するが、センサ部140はユーザUの片方の目領域を撮像してもよい。センサ部140によって撮像されて得られた撮像結果40は、例えば、無線信号または有線信号により表示制御装置10に提供される。   The sensor unit 140 detects sensor data. For example, the sensor unit 140 captures an image of the user U's eye area and obtains an imaging result. In the following description, it is mainly assumed that both eye regions of the user U are imaged by the sensor unit 140, but the sensor unit 140 may image one eye region of the user U. The imaging result 40 obtained by imaging by the sensor unit 140 is provided to the display control device 10 by a wireless signal or a wired signal, for example.

なお、本明細書においては、センサ部140がユーザUの目領域を撮像する場合について主に説明するが、ユーザUの身体に関する他の測定を行ってもよい。例えば、センサ部140は、ユーザUの筋電を測定してもよい。かかる場合、センサ部140によって撮像されて得られた筋電の測定結果は、例えば、無線信号または有線信号により表示制御装置10に提供される。   In addition, in this specification, although the case where the sensor part 140 images mainly the user's U eye area | region is mainly demonstrated, you may perform the other measurement regarding the user's U body. For example, the sensor unit 140 may measure the myoelectricity of the user U. In such a case, the myoelectric measurement result obtained by being imaged by the sensor unit 140 is provided to the display control device 10 by, for example, a wireless signal or a wired signal.

また、図1に示した例では、センサ部140は表示制御装置10と別体に構成されているが、センサ部140は、表示制御装置10と一体化されていてもよい。また、後に説明するように、情報処理システム1は、センサ部140の他にセンサを有していてもよい。   In the example illustrated in FIG. 1, the sensor unit 140 is configured separately from the display control device 10, but the sensor unit 140 may be integrated with the display control device 10. Further, as will be described later, the information processing system 1 may include a sensor in addition to the sensor unit 140.

表示部150は、表示制御装置10から無線信号または有線信号により提供された制御信号に従って仮想オブジェクトを表示する機能を有する。表示部150によって表示される仮想オブジェクトの種類は特に限定されない。また、本明細書においては、表示部150が透過型HMD(Head Mount Display)である場合を主に想定する。なお、図1に示した例では、表示部150は表示制御装置10と別体に構成されているが、表示部150は、表示制御装置10と一体化されていてもよい。   The display unit 150 has a function of displaying a virtual object according to a control signal provided from the display control device 10 by a wireless signal or a wired signal. The type of virtual object displayed by the display unit 150 is not particularly limited. Further, in this specification, it is assumed that the display unit 150 is a transmissive HMD (Head Mount Display). In the example illustrated in FIG. 1, the display unit 150 is configured separately from the display control device 10, but the display unit 150 may be integrated with the display control device 10.

遮光部160は、ユーザUの目領域に到達する光の量を調整する機能を有する。遮光部160は、表示部150を通過した光の一部だけを遮光してもよいし、全部を遮光してもよいし、全部を透過させてもよい。図1に示した例では、表示部150の外側に遮光部160が設けられているが、遮光部160が設けられる位置は特に限定されない。遮光部160は、例えば、液晶シャッタにより構成されていてよい。なお、図1に示した例では、遮光部160は表示制御装置10と別体に構成されているが、遮光部160は、表示制御装置10と一体化されていてもよい。   The light shielding unit 160 has a function of adjusting the amount of light reaching the eye area of the user U. The light blocking unit 160 may block only a part of the light that has passed through the display unit 150, may block all of the light, or may transmit all of the light. In the example illustrated in FIG. 1, the light shielding unit 160 is provided outside the display unit 150, but the position where the light shielding unit 160 is provided is not particularly limited. The light shielding unit 160 may be configured by a liquid crystal shutter, for example. In the example illustrated in FIG. 1, the light shielding unit 160 is configured separately from the display control device 10, but the light shielding unit 160 may be integrated with the display control device 10.

以上、本開示の実施形態に係る情報処理システム1の構成例について説明した。   The configuration example of the information processing system 1 according to the embodiment of the present disclosure has been described above.

[1−2.情報処理システムの機能構成例]
続いて、本開示の実施形態に係る情報処理システム1の機能構成例について説明する。図2は、本開示の実施形態に係る情報処理システム1の機能構成例を示す図である。図2に示すように、本開示の実施形態に係る表示制御装置10は、制御部110と、記憶部120とを備える。上記したように、撮像部130、センサ部140、表示部150および遮光部160それぞれは、表示制御装置10と無線または有線により接続されている。
[1-2. Functional configuration example of information processing system]
Subsequently, a functional configuration example of the information processing system 1 according to the embodiment of the present disclosure will be described. FIG. 2 is a diagram illustrating a functional configuration example of the information processing system 1 according to the embodiment of the present disclosure. As illustrated in FIG. 2, the display control apparatus 10 according to the embodiment of the present disclosure includes a control unit 110 and a storage unit 120. As described above, each of the imaging unit 130, the sensor unit 140, the display unit 150, and the light shielding unit 160 is connected to the display control device 10 wirelessly or by wire.

制御部110は、例えば、CPU(Central Processing Unit)などのプロセッサに相当する。制御部110は、記憶部120または他の記憶媒体に記憶されるプログラムを実行することにより、制御部110が有する様々な機能を発揮する。制御部110は、視点検出部111と、視点取得部112と、表示制御部113と、行動認識部114と、行動取得部115と、画像取得部116と、遮光制御部117とを有する。これらの各機能ブロックそれぞれが有する機能については後に説明する。   The control unit 110 corresponds to a processor such as a CPU (Central Processing Unit), for example. The control unit 110 exhibits various functions of the control unit 110 by executing a program stored in the storage unit 120 or another storage medium. The control unit 110 includes a viewpoint detection unit 111, a viewpoint acquisition unit 112, a display control unit 113, an action recognition unit 114, an action acquisition unit 115, an image acquisition unit 116, and a light shielding control unit 117. The functions of each of these functional blocks will be described later.

記憶部120は、半導体メモリまたはハードディスクなどの記憶媒体を用いて、制御部110を動作させるためのプログラムを記憶する。また、例えば、記憶部120は、プログラムによって使用される各種のデータ(例えば、仮想オブジェクトを立体表示させるための画像など)を記憶することもできる。なお、図2に示した例では、記憶部120は表示制御装置10と一体化されているが、記憶部120は表示制御装置10と別体に構成されていてもよい。   The storage unit 120 stores a program for operating the control unit 110 using a storage medium such as a semiconductor memory or a hard disk. For example, the storage unit 120 can also store various data used by the program (for example, an image for stereoscopically displaying a virtual object). In the example illustrated in FIG. 2, the storage unit 120 is integrated with the display control device 10, but the storage unit 120 may be configured separately from the display control device 10.

以上、本開示の実施形態に係る情報処理システム1の機能構成例について説明した。   The functional configuration example of the information processing system 1 according to the embodiment of the present disclosure has been described above.

[1−3.表示制御装置の機能詳細]
続いて、本開示の実施形態に係る表示制御装置10の機能詳細について説明する。まず、表示制御部113は、仮想オブジェクトが表示部150によって立体表示されるように表示部150を制御する機能を有し、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する機能を有している。そこで、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する手法の例について説明する。
[1-3. Detailed functions of display control unit]
Subsequently, functional details of the display control apparatus 10 according to the embodiment of the present disclosure will be described. First, the display control unit 113 has a function of controlling the display unit 150 so that the virtual object is stereoscopically displayed by the display unit 150, and has a function of controlling the depth direction position of the virtual object presented to the user. doing. Therefore, an example of a method for controlling the position in the depth direction of the virtual object presented to the user will be described.

図3は、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する手法の例を説明するための図である。図3を参照すると、ユーザの左眼位置elおよび右眼位置erが示されている。ここで、表示制御部113は、ユーザの左眼に提示される左眼画像を表示部150Lの表示位置dlに表示させるとともにユーザの右眼に提示される右眼画像を表示部150Rの表示位置drに表示させた場合、仮想オブジェクトは、表示位置Pに立体表示される。表示位置Pは、左眼位置elおよび表示位置dlを結ぶ直線と右眼位置erおよび表示位置drを結ぶ直線との交点に相当する   FIG. 3 is a diagram for explaining an example of a technique for controlling the position in the depth direction of the virtual object presented to the user. Referring to FIG. 3, the left eye position el and the right eye position er of the user are shown. Here, the display control unit 113 displays the left eye image presented to the user's left eye at the display position dl of the display unit 150L and displays the right eye image presented to the user's right eye at the display position of the display unit 150R. When displayed on dr, the virtual object is stereoscopically displayed at the display position P. The display position P corresponds to the intersection of a straight line connecting the left eye position el and the display position dl and a straight line connecting the right eye position er and the display position dr.

図3に示した例において、表示位置Pからユーザの左眼位置elと右眼位置erとを結ぶ直線までの距離を輻輳距離Dとし、左眼位置elと表示位置Pとを結ぶ線分と右眼位置erと表示位置Pとを結ぶ線分とのなす角を輻輳角aとする。表示制御部113は、表示位置dlと表示位置drとの間隔を広げることによって、輻輳距離Dを大きくするほど(または輻輳角を小さくするほど)、ユーザに提示される仮想オブジェクトの奥行方向の位置をユーザから遠ざけることができる。   In the example shown in FIG. 3, a distance from the display position P to a straight line connecting the user's left eye position el and right eye position er is a convergence distance D, and a line segment connecting the left eye position el and the display position P An angle formed by a line segment connecting the right eye position er and the display position P is defined as a convergence angle a. The display control unit 113 increases the distance between the display position dl and the display position dr, thereby increasing the convergence distance D (or decreasing the convergence angle), and the position of the virtual object presented to the user in the depth direction. Can be kept away from the user.

一方、表示制御部113は、表示位置dlと表示位置drとの間隔を狭めることによって、輻輳距離Dを小さくするほど(または輻輳角を大きくするほど)、ユーザに提示される仮想オブジェクトの奥行方向の位置をユーザに近づけることができる。このようにして、表示制御部113は、左眼画像の表示位置dlと右眼画像の表示位置drとを制御することによって、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御することが可能である。しかし、ここで説明した手法は、単なる一例に過ぎない。したがって、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する手法は特に限定されない。   On the other hand, the display control unit 113 reduces the interval between the display position dl and the display position dr, thereby reducing the convergence distance D (or increasing the convergence angle), and the depth direction of the virtual object presented to the user. Can be brought closer to the user. In this way, the display control unit 113 can control the position in the depth direction of the virtual object presented to the user by controlling the display position dl of the left eye image and the display position dr of the right eye image. Is possible. However, the technique described here is merely an example. Therefore, the method for controlling the position in the depth direction of the virtual object presented to the user is not particularly limited.

例えば、表示制御部113は、サイズが大きい仮想オブジェクトほど手前に存在するように見えるという特性を利用し、仮想オブジェクトのサイズを制御することによってユーザに提示される仮想オブジェクトの奥行方向の位置を制御してもよい。また、表示制御部113は、仮想オブジェクトのピントが合う位置を制御することによってユーザに提示される仮想オブジェクトの奥行方向の位置を制御してもよい。さらに、表示制御部113は、視差の大きさを制御することによって、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御してもよい。   For example, the display control unit 113 controls the position of the virtual object in the depth direction that is presented to the user by controlling the size of the virtual object by using the characteristic that the larger virtual object appears to exist in the foreground. May be. Further, the display control unit 113 may control the position in the depth direction of the virtual object presented to the user by controlling the position where the virtual object is focused. Furthermore, the display control unit 113 may control the position in the depth direction of the virtual object presented to the user by controlling the magnitude of the parallax.

以上、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する手法の例を説明した。ここで、仮想オブジェクトの奥行方向の位置とユーザの視点との間にずれが生じてしまうような場合には、仮想オブジェクトを閲覧しにくくなるという状況が起こり得る。そのため、本明細書においては、ユーザがより閲覧しやすくなるように仮想オブジェクトの立体表示を行うことが可能な技術を提案する。   The example of the method for controlling the position in the depth direction of the virtual object presented to the user has been described above. Here, in a case where a shift occurs between the position of the virtual object in the depth direction and the user's viewpoint, a situation may occur in which it is difficult to view the virtual object. Therefore, the present specification proposes a technique capable of performing a stereoscopic display of a virtual object so that the user can more easily browse.

視点検出部111は、センサ部140によって検出されたセンサデータに基づいてユーザの視点を検出する。例えば、視点検出部111は、センサ部140により撮像された撮像結果40に基づいてユーザの視点を検出する。視点検出部111による視点の検出手法としては、例えば、特開2012−8746号公報に開示された技術を用いることができるが、視点検出部111による視点の検出手法は特に限定されない。   The viewpoint detection unit 111 detects the user's viewpoint based on the sensor data detected by the sensor unit 140. For example, the viewpoint detection unit 111 detects the user's viewpoint based on the imaging result 40 captured by the sensor unit 140. As a viewpoint detection method by the viewpoint detection unit 111, for example, the technique disclosed in Japanese Patent Application Laid-Open No. 2012-8746 can be used, but the viewpoint detection method by the viewpoint detection unit 111 is not particularly limited.

例えば、視点検出部111は、センサ部140による筋電の測定結果に基づいて、ユーザの視点を検出してもよい。図2に示した例では、視点検出部111が表示制御装置10に備えられているが、表示制御装置10の代わりにセンサ部140に備えられていてもよい。視点検出部111によって検出されたユーザの視点は、視点取得部112によって取得される。   For example, the viewpoint detection unit 111 may detect the user's viewpoint based on the measurement result of myoelectricity by the sensor unit 140. In the example illustrated in FIG. 2, the viewpoint detection unit 111 is provided in the display control device 10, but may be provided in the sensor unit 140 instead of the display control device 10. The viewpoint of the user detected by the viewpoint detection unit 111 is acquired by the viewpoint acquisition unit 112.

行動認識部114は、ユーザの行動を認識する。例えば、行動認識部114は、ユーザの行動を認識する手法としては、例えば、特開2006−345269号公報により開示されている技術を採用することができる。かかる技術によれば、例えば、センサによりユーザの動きが検出され、検出された動きが行動認識部114により解析されることにより、ユーザの行動が認識される。   The behavior recognition unit 114 recognizes user behavior. For example, the behavior recognition unit 114 can employ a technique disclosed in, for example, Japanese Patent Application Laid-Open No. 2006-345269 as a method for recognizing a user's behavior. According to this technique, for example, a user's movement is detected by a sensor, and the detected movement is analyzed by the action recognition unit 114, whereby the user's action is recognized.

しかしながら、行動認識部114による行動の認識手法は、かかる例に限定されない。例えば、行動認識部114は、ユーザから行動の入力が受け付けられた場合には、ユーザからの入力が受け付けられた行動を取得してもよい。図2に示した例では、行動認識部114が表示制御装置10に備えられているが、表示制御装置10の代わりにセンサ部140に備えられていてもよい。行動認識部114によって認識されたユーザの行動は、行動取得部115によって取得される。   However, the action recognition method by the action recognition unit 114 is not limited to such an example. For example, when an action input is received from the user, the action recognition unit 114 may acquire the action for which the input from the user is received. In the example illustrated in FIG. 2, the action recognition unit 114 is provided in the display control device 10, but may be provided in the sensor unit 140 instead of the display control device 10. The action of the user recognized by the action recognition unit 114 is acquired by the action acquisition unit 115.

続いて、表示制御部113は、視点取得部112によって取得された視点に基づいて、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する。かかる制御によって、ユーザの視点の遠近に応じて、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御することが可能となり、ユーザがより閲覧しやすくなるように仮想オブジェクトの立体表示を行うことが可能となる。   Subsequently, the display control unit 113 controls the position in the depth direction of the virtual object presented to the user based on the viewpoint acquired by the viewpoint acquisition unit 112. Such control makes it possible to control the position in the depth direction of the virtual object presented to the user according to the perspective of the user's viewpoint, and to perform a stereoscopic display of the virtual object so that the user can more easily view it. Is possible.

以下、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する手法の例をより詳細に説明する。まず、図4〜図7を参照しながら、仮想オブジェクトが天気予報画面である場合について説明する。しかし、仮想オブジェクトの種類が特に限定されない旨は上記した通りであるため、仮想オブジェクトが天気予報画面に限定されないことは言うまでもない。   Hereinafter, an example of a technique for controlling the position in the depth direction of the virtual object presented to the user will be described in more detail. First, a case where the virtual object is a weather forecast screen will be described with reference to FIGS. However, since the type of the virtual object is not particularly limited as described above, it goes without saying that the virtual object is not limited to the weather forecast screen.

図4〜図6は、静止時、歩行時および走行時それぞれにおけるユーザへの天気予報画面50−A1〜50−A3の提示の例を示す図である。図4〜図6に示すように、静止時よりも歩行時のほうがユーザの視点が遠くなり、歩行時よりも走行時のほうがユーザの視点が遠くなっている。そこで、例えば、表示制御部113は、視点がユーザから遠くなるほど、ユーザに提示される天気予報画面の奥行方向の位置を遠ざければよい。   4-6 is a figure which shows the example of presentation of the weather forecast screen 50-A1-50-A3 to a user at the time of stillness, a walk, and each time of a run. As shown in FIGS. 4 to 6, the viewpoint of the user is farther when walking than when stationary, and the viewpoint of the user is farther when traveling than when walking. Therefore, for example, the display control unit 113 only needs to move the position in the depth direction of the weather forecast screen presented to the user as the viewpoint is farther from the user.

なお、一時的に視点を変更したに過ぎない場合なども想定される。このような場合にまで、ユーザの視点の遠近が変わる度に、ユーザに提示される仮想オブジェクトの奥行方向の位置を変更してしまうと、ユーザに煩わしさを与えてしまう可能性もある。したがって、表示制御部113は、所定時間を超えても視点が変更されなかった場合に、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御するようにしてもよい。   In addition, the case where only a viewpoint was changed temporarily is assumed. In such a case, if the position in the depth direction of the virtual object presented to the user is changed every time the perspective of the user changes, there is a possibility that the user will be bothered. Therefore, the display control unit 113 may control the position in the depth direction of the virtual object presented to the user when the viewpoint has not been changed even after the predetermined time.

また、天気予報画面50−A1〜50−A3それぞれには、コンテンツ(例えば、文字データ、画像データなど)が含まれている。コンテンツはユーザの行動に依存せずに一定であってもよいが、ユーザの行動に応じて変更されてもよい。例えば、表示制御部113は、行動取得部115によって取得された行動に基づいて天気予報画面に含まれるコンテンツを制御してもよい。   Each of the weather forecast screens 50-A1 to 50-A3 includes content (for example, character data, image data, etc.). The content may be constant without depending on the user's behavior, but may be changed according to the user's behavior. For example, the display control unit 113 may control content included in the weather forecast screen based on the behavior acquired by the behavior acquisition unit 115.

天気予報画面に含まれるコンテンツの制御はどのようになされてもよいが、表示制御部113は、ユーザの行動に基づいて、仮想オブジェクトに含まれるコンテンツの情報量を制御してもよい。例えば、図4〜図6に示すように、静止時よりも歩行時のほうがコンテンツを閲覧しにくい状況が起こり得る。また、歩行時よりも走行時のほうがコンテンツを閲覧しにくい状況が起こり得る。そこで、表示制御部113は、行動の移動速度が大きいほど、ユーザに提示される天気予報画面に含まれるコンテンツの情報量が小さくなるように制御してよい。   The content included in the weather forecast screen may be controlled in any way, but the display control unit 113 may control the information amount of the content included in the virtual object based on the user's behavior. For example, as shown in FIGS. 4 to 6, a situation may occur in which it is more difficult to view content when walking than when stationary. In addition, it may occur that it is more difficult to browse content when running than when walking. Therefore, the display control unit 113 may perform control so that the information amount of the content included in the weather forecast screen presented to the user decreases as the action movement speed increases.

また、表示制御部113は、ユーザの行動に基づいて、仮想オブジェクトに含まれるコンテンツの表示サイズを制御してもよい。例えば、上記したように、静止時よりも歩行時のほうがコンテンツを閲覧しにくい状況が起こり得る。また、歩行時よりも走行時のほうがコンテンツを閲覧しにくい状況が起こり得る。そこで、表示制御部113は、行動の移動速度が大きいほど、ユーザに提示される天気予報画面に含まれるコンテンツの表示サイズが大きくなるように制御してよい。   Further, the display control unit 113 may control the display size of the content included in the virtual object based on the user's action. For example, as described above, a situation may occur where it is more difficult to view content when walking than when stationary. In addition, it may occur that it is more difficult to browse content when running than when walking. Therefore, the display control unit 113 may perform control so that the display size of the content included in the weather forecast screen presented to the user increases as the action movement speed increases.

また、表示制御部113は、ユーザの行動に基づいて、仮想オブジェクトに含まれるコンテンツの仮想オブジェクトにおける位置を制御してもよい。例えば、上記したように、静止時よりも歩行時のほうがコンテンツを閲覧しにくい状況が起こり得る。また、歩行時よりも走行時のほうがコンテンツを閲覧しにくい状況が起こり得る。そこで、表示制御部113は、行動の移動速度が大きいほど、ユーザに提示される天気予報画面に含まれるコンテンツの仮想オブジェクトにおける位置が仮想オブジェクトの端部により偏るように制御してよい。   Further, the display control unit 113 may control the position of the content included in the virtual object in the virtual object based on the user's action. For example, as described above, a situation may occur where it is more difficult to view content when walking than when stationary. In addition, it may occur that it is more difficult to browse content when running than when walking. Therefore, the display control unit 113 may perform control so that the position of the content included in the weather forecast screen presented to the user in the virtual object is biased toward the end of the virtual object as the action movement speed increases.

ユーザの行動に対応する天気予報画面は、あらかじめ作成されていてもよいし、表示が必要となる度に作成してもよい。例えば、天気予報画面があらかじめ作成されている場合、表示制御部113は、ユーザの行動に対応する天気予報画面をユーザに提示するようにすればよい。また、表示制御部113は、ユーザの行動に対応するコンテンツの情報量に基づいて天気予報画面を作成してもよい。   The weather forecast screen corresponding to the user's action may be created in advance or may be created every time display is required. For example, when a weather forecast screen is created in advance, the display control unit 113 may present a weather forecast screen corresponding to the user's behavior to the user. Further, the display control unit 113 may create a weather forecast screen based on the information amount of content corresponding to the user's action.

同様に、表示制御部113は、ユーザの行動に対応するコンテンツの表示サイズに基づいて天気予報画面を作成してもよい。また、表示制御部113は、コンテンツの仮想オブジェクトにおける位置に基づいて天気予報画面を作成してもよい。   Similarly, the display control unit 113 may create a weather forecast screen based on the display size of content corresponding to the user's action. The display control unit 113 may create a weather forecast screen based on the position of the content in the virtual object.

なお、表示制御部113は、ユーザの行動に基づいて、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御してもよい。例えば、表示制御部113は、行動が示す移動速度が大きくなるほど、ユーザに提示される天気予報画面の奥行方向の位置が遠くなるように制御してもよい。   The display control unit 113 may control the depth direction position of the virtual object presented to the user based on the user's behavior. For example, the display control unit 113 may perform control so that the position in the depth direction of the weather forecast screen presented to the user becomes farther as the movement speed indicated by the action increases.

また、表示制御部113は、ユーザの行動および視点のいずれか一方に基づいて、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御してもよいが、ユーザの行動および視点の双方に基づいて、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御してもよい。あるいは、表示制御部113は、状況に応じてユーザの行動および視点のいずれを優先して利用するかを決めてもよい。   The display control unit 113 may control the depth direction position of the virtual object presented to the user based on either the user's behavior or the viewpoint, but based on both the user's behavior and the viewpoint. Then, the position in the depth direction of the virtual object presented to the user may be controlled. Alternatively, the display control unit 113 may determine which of the user's action and viewpoint is used with priority according to the situation.

図7は、運転時におけるユーザへの天気予報画面50−A4の提示の例を示す図である。図7に示すように、ユーザが自動車を運転している場合、行動は「静止時」であるが、視点はユーザから遠いことがよくある。そのため、表示制御部113は、行動よりも視点を優先して利用し、視点に基づいて、ユーザに提示される天気予報画面50−A4の奥行方向の位置を制御すればよい。   FIG. 7 is a diagram illustrating an example of presentation of the weather forecast screen 50-A4 to the user during driving. As shown in FIG. 7, when the user is driving a car, the behavior is “at rest”, but the viewpoint is often far from the user. Therefore, the display control unit 113 may use the viewpoint with priority over the action, and may control the position in the depth direction of the weather forecast screen 50-A4 presented to the user based on the viewpoint.

図8〜図10は、静止時、歩行時および走行時それぞれにおけるユーザへのナビゲーション画面50−B1〜50−B3の提示の例を示す図である。図8〜図10に示したように、仮想オブジェクトがナビゲーション画面である場合も、仮想オブジェクトが天気予報画面である場合と同様にして、ユーザに提示される仮想オブジェクトの奥行方向の位置が制御され得る。仮想オブジェクトがナビゲーション画面に限定されないことは言うまでもない。   8-10 is a figure which shows the example of presentation of navigation screen 50-B1-50-B3 to a user at the time of stillness, a walk, and a driving | running | working, respectively. As shown in FIGS. 8 to 10, when the virtual object is the navigation screen, the depth direction position of the virtual object presented to the user is controlled in the same manner as when the virtual object is the weather forecast screen. obtain. Needless to say, the virtual object is not limited to the navigation screen.

また、図11〜図13は、静止時、歩行時および走行時それぞれにおけるユーザへのランニングアプリケーション画面50−C1〜50−C3の提示の例を示す図である。図11〜図13に示したように、仮想オブジェクトがランニングアプリケーション画面である場合も、仮想オブジェクトが天気予報画面である場合と同様にして、ユーザに提示される仮想オブジェクトの奥行方向の位置が制御され得る。仮想オブジェクトがランニングアプリケーション画面に限定されないことは言うまでもない。   11 to 13 are diagrams showing examples of presentation of the running application screens 50-C1 to 50-C3 to the user when stationary, walking and running. As shown in FIGS. 11 to 13, when the virtual object is the running application screen, the depth direction position of the virtual object presented to the user is controlled in the same manner as when the virtual object is the weather forecast screen. Can be done. Needless to say, the virtual object is not limited to the running application screen.

上記した例では、ユーザ自身の視点や行動に基づいて仮想オブジェクトを制御する手法について説明したが、他にも様々な要因に基づいて仮想オブジェクトを制御することも考えられる。一例として、画像取得部116は、撮像部130によって撮像された撮像画像30を取得し、表示制御部113は、画像取得部116によって取得された撮像画像30に基づいて仮想オブジェクトを制御してもよい。かかる制御によれば、ユーザの周囲の環境に応じて仮想オブジェクトを制御することが可能となる。   In the example described above, the method of controlling the virtual object based on the user's own viewpoint and behavior has been described, but it is also conceivable to control the virtual object based on various other factors. As an example, the image acquisition unit 116 acquires the captured image 30 captured by the imaging unit 130, and the display control unit 113 controls the virtual object based on the captured image 30 acquired by the image acquisition unit 116. Good. According to such control, it becomes possible to control the virtual object according to the environment around the user.

撮像画像30に基づいた仮想オブジェクトの制御の手法は特に限定されないが、例えば、表示制御部113は、撮像画像30の輝度情報に基づいて仮想オブジェクトの表示位置を制御してもよい。図14は、撮像画像30の輝度情報に基づいて仮想オブジェクト50の表示位置を制御する例を示す図である。図14を参照すると、撮像画像30−Aには、領域30−A1と領域30−A2が映っている。   The method for controlling the virtual object based on the captured image 30 is not particularly limited. For example, the display control unit 113 may control the display position of the virtual object based on the luminance information of the captured image 30. FIG. 14 is a diagram illustrating an example of controlling the display position of the virtual object 50 based on the luminance information of the captured image 30. Referring to FIG. 14, the captured image 30-A includes a region 30-A1 and a region 30-A2.

ここで、表示制御部113は、仮想オブジェクト50を領域30−A1に表示させようとしたところ、領域30−A1の輝度が閾値より高いことを検出したとする。一方、表示制御部113は、領域30−A2の輝度が閾値より低いことを検出したとする。かかる場合、表示制御部113は、仮想オブジェクト50の表示位置を領域30−A2に変更することが可能である。このようにすれば、ユーザがより閲覧しやすい仮想オブジェクト50を提示することが可能となる。   Here, it is assumed that the display control unit 113 detects that the luminance of the region 30-A1 is higher than the threshold value when trying to display the virtual object 50 in the region 30-A1. On the other hand, it is assumed that the display control unit 113 detects that the brightness of the region 30-A2 is lower than the threshold value. In such a case, the display control unit 113 can change the display position of the virtual object 50 to the region 30-A2. In this way, it is possible to present the virtual object 50 that is easier for the user to browse.

なお、表示制御部113が仮想オブジェクト50の表示位置を制御する例を説明したが、表示制御部113は、撮像画像30の輝度情報に基づいて仮想オブジェクトの輝度を制御してもよい。例えば、図14に示した例において、表示制御部113は、仮想オブジェクト50の表示位置を領域30−A2に変更する代わりに、仮想オブジェクト50の輝度を高めてもよい。このようにしても、ユーザが閲覧しやすい仮想オブジェクト50を提示することが可能となる。   Although the example in which the display control unit 113 controls the display position of the virtual object 50 has been described, the display control unit 113 may control the luminance of the virtual object based on the luminance information of the captured image 30. For example, in the example illustrated in FIG. 14, the display control unit 113 may increase the brightness of the virtual object 50 instead of changing the display position of the virtual object 50 to the region 30 -A 2. Even in this way, it is possible to present the virtual object 50 that is easy for the user to browse.

また、表示制御部113は、撮像画像30の色情報に基づいて仮想オブジェクトの表示位置を制御してもよい。図15は、撮像画像30の色情報に基づいて仮想オブジェクト50の表示位置を制御する例を示す図である。図15を参照すると、撮像画像30−Bには、領域30−B1と領域30−B2が映っている。   Further, the display control unit 113 may control the display position of the virtual object based on the color information of the captured image 30. FIG. 15 is a diagram illustrating an example of controlling the display position of the virtual object 50 based on the color information of the captured image 30. Referring to FIG. 15, the captured image 30-B includes a region 30-B1 and a region 30-B2.

ここで、表示制御部113は、仮想オブジェクト50を領域30−B1に表示させようとしたところ、領域30−B1と仮想オブジェクト50とが類似色であることを検出したとする。一方、表示制御部113は、領域30−B2と仮想オブジェクト50とは類似色ではないことを検出したとする。かかる場合、表示制御部113は、仮想オブジェクト50の表示位置を領域30−B2に変更することが可能である。このようにすれば、ユーザがより閲覧しやすい仮想オブジェクト50を提示することが可能となる。   Here, it is assumed that the display control unit 113 detects that the region 30-B1 and the virtual object 50 have similar colors when attempting to display the virtual object 50 in the region 30-B1. On the other hand, it is assumed that the display control unit 113 detects that the region 30-B2 and the virtual object 50 are not similar colors. In such a case, the display control unit 113 can change the display position of the virtual object 50 to the region 30-B2. In this way, it is possible to present the virtual object 50 that is easier for the user to browse.

例えば、表示制御部113は、領域30−B2の色と仮想オブジェクト50の色との距離が閾値を下回る場合に、領域30−B2と仮想オブジェクト50とが類似色であることを検出する。領域30−B2の色と仮想オブジェクト50の色との距離は、領域30−B2のR値、G値およびB値をX軸、Y軸およびZ軸にプロットし、仮想オブジェクト50のR値、G値およびB値をX軸、Y軸およびZ軸にプロットした場合に、2点間の3次元的な距離により算出され得る。   For example, when the distance between the color of the region 30-B2 and the color of the virtual object 50 is less than the threshold, the display control unit 113 detects that the region 30-B2 and the virtual object 50 are similar colors. The distance between the color of the region 30-B2 and the color of the virtual object 50 is obtained by plotting the R value, G value, and B value of the region 30-B2 on the X axis, the Y axis, and the Z axis. When the G value and the B value are plotted on the X axis, the Y axis, and the Z axis, they can be calculated from a three-dimensional distance between the two points.

なお、表示制御部113が仮想オブジェクト50の表示位置を制御する例を説明したが、表示制御部113は、撮像画像30の色情報に基づいて仮想オブジェクトの色を制御してもよい。例えば、図15に示した例において、表示制御部113は、仮想オブジェクト50の表示位置を領域30−B2に変更する代わりに、仮想オブジェクト50の色を変更してもよい。表示制御部113は、仮想オブジェクト50の色を領域30−B2の色の補色に変更してもよい。このようにしても、ユーザが閲覧しやすい仮想オブジェクト50を提示することが可能となる。   Although the example in which the display control unit 113 controls the display position of the virtual object 50 has been described, the display control unit 113 may control the color of the virtual object based on the color information of the captured image 30. For example, in the example illustrated in FIG. 15, the display control unit 113 may change the color of the virtual object 50 instead of changing the display position of the virtual object 50 to the region 30 -B 2. The display control unit 113 may change the color of the virtual object 50 to the complementary color of the color of the region 30-B2. Even in this way, it is possible to present the virtual object 50 that is easy for the user to browse.

また、例えば、表示制御部113は、撮像画像30から抽出された特徴量に基づいて、仮想オブジェクト50の表示位置を制御してもよい。再度、図14を参照する。ここで、表示制御部113は、仮想オブジェクト50を領域30−A1に表示させようとしたところ、領域30−A1には壁の前に物体が映っているため、領域30−A1から抽出した特徴量の安定度が閾値より小さいことを検出する。一方、表示制御部113は、領域30−A2には壁の前に物体が映っていないため、領域30−A2から抽出した特徴量の安定度が閾値より大きいことを検出する。   For example, the display control unit 113 may control the display position of the virtual object 50 based on the feature amount extracted from the captured image 30. Reference is again made to FIG. Here, when the display control unit 113 tries to display the virtual object 50 in the region 30-A1, since an object is reflected in front of the wall in the region 30-A1, the feature extracted from the region 30-A1. Detect that quantity stability is less than threshold. On the other hand, the display control unit 113 detects that the stability of the feature amount extracted from the region 30-A2 is larger than the threshold because no object is reflected in front of the wall in the region 30-A2.

かかる場合、表示制御部113は、仮想オブジェクト50の表示位置を領域30−A2に変更することが可能である。このようにすれば、ユーザがより閲覧しやすい仮想オブジェクト50を提示することが可能となる。各領域における特徴量の安定度はどのように算出されてもよいが、例えば、表示制御部113は、各領域における特徴量の最大値と最小値との差分値が小さいほど安定度を高く算出してよい。   In such a case, the display control unit 113 can change the display position of the virtual object 50 to the region 30-A2. In this way, it is possible to present the virtual object 50 that is easier for the user to browse. For example, the display control unit 113 calculates higher stability as the difference value between the maximum value and the minimum value of the feature amount in each region is smaller. You can do it.

また、例えば、表示制御部113は、撮像画像30から物体が検出された場合、物体の位置に基づいて、ユーザに提示される仮想オブジェクト50の位置を制御してもよい。再度、図14を参照しながら、壁を物体の例として取り上げて説明する。ここで、表示制御部113は、仮想オブジェクト50を表示させようとしたところ、領域30−A2に壁が映っていることを認識したとする。かかる場合、表示制御部113は、壁が映っていると認識した領域30−A2に仮想オブジェクト50を表示させればよい。   For example, when an object is detected from the captured image 30, the display control unit 113 may control the position of the virtual object 50 presented to the user based on the position of the object. Again, referring to FIG. 14, a description will be given by taking a wall as an example of an object. Here, it is assumed that the display control unit 113 recognizes that a wall is reflected in the region 30-A2 when trying to display the virtual object 50. In such a case, the display control unit 113 may display the virtual object 50 in the region 30-A2 that has been recognized that the wall is reflected.

さらに、表示制御部113は、仮想オブジェクト50の奥行方向の位置を制御してもよい。例えば、表示制御部113は、撮像部130からフォーカスが合っている対象までの距離を壁の奥行方向における位置として測定し、仮想オブジェクト50の奥行方向の位置が壁の奥行方向における位置に合うようにすればよい。このようにすれば、物体の奥行方向における位置に合わせて仮想オブジェクト50の奥行方向の位置も調整されるため、より自然に仮想オブジェクト50を提示することが可能となる。   Further, the display control unit 113 may control the position of the virtual object 50 in the depth direction. For example, the display control unit 113 measures the distance from the imaging unit 130 to the focused target as the position in the depth direction of the wall, and the position in the depth direction of the virtual object 50 matches the position in the depth direction of the wall. You can do it. In this way, the position of the virtual object 50 in the depth direction is also adjusted according to the position of the object in the depth direction, so that the virtual object 50 can be presented more naturally.

ここで、上記したように、情報処理システム1には、ユーザUの目領域に到達する光の量を調整する遮光部160が備えられている。遮光部160による遮光量は一定であってもよいが、状況に応じて制御されてもよい。例えば、遮光制御部117は、撮像画像30の輝度情報に基づいて遮光部160による遮光量を制御してもよい。図16および図17は、撮像画像30の輝度情報に基づいて遮光量を制御する例を示す図である。   Here, as described above, the information processing system 1 includes the light shielding unit 160 that adjusts the amount of light reaching the eye area of the user U. The light shielding amount by the light shielding unit 160 may be constant, but may be controlled according to the situation. For example, the light shielding control unit 117 may control the light shielding amount by the light shielding unit 160 based on the luminance information of the captured image 30. 16 and 17 are diagrams illustrating an example of controlling the light shielding amount based on the luminance information of the captured image 30. FIG.

図16に示した例では、画像取得部116によって撮像画像30−C1が取得されている。ここで、撮像画像30−C1が明るい場所において撮像されたため、輝度が大きかったとする。かかる場合、遮光制御部117は、遮光量が大きくなるように遮光部160(遮光部160Lおよび遮光部160R)を制御してもよい。   In the example illustrated in FIG. 16, the captured image 30 -C 1 is acquired by the image acquisition unit 116. Here, it is assumed that the brightness is high because the captured image 30-C1 is captured in a bright place. In such a case, the light shielding control unit 117 may control the light shielding unit 160 (the light shielding unit 160L and the light shielding unit 160R) so that the amount of light shielding increases.

一方、図17に示した例では、画像取得部116によって撮像画像30−C2が取得されている。ここで、撮像画像30−C2が暗い場所において撮像されたため、輝度が小さかったとする。かかる場合、遮光制御部117は、遮光量が小さくなるように遮光部160(遮光部160Lおよび遮光部160R)を制御してもよい。   On the other hand, in the example illustrated in FIG. 17, the captured image 30 -C 2 is acquired by the image acquisition unit 116. Here, it is assumed that the brightness is low because the captured image 30-C2 is captured in a dark place. In such a case, the light shielding control unit 117 may control the light shielding unit 160 (the light shielding unit 160L and the light shielding unit 160R) so as to reduce the light shielding amount.

このようにして、遮光制御部117は、撮像画像30の輝度が高いほど、遮光部160による遮光量が大きくなるように遮光部160を制御してよい。かかる制御によれば、ユーザの視野が明るいときほど、ユーザの目に入射する光の量をより小さくすることが可能となり、ユーザが仮想オブジェクト50をさらに閲覧しやすくなることが期待できる。   In this way, the light shielding control unit 117 may control the light shielding unit 160 so that the light shielding amount by the light shielding unit 160 increases as the brightness of the captured image 30 increases. According to such control, the brighter the user's field of view, the smaller the amount of light incident on the user's eyes, and it can be expected that the user can more easily view the virtual object 50.

以上、本開示の実施形態に係る表示制御装置10の機能詳細について説明した。   The function details of the display control apparatus 10 according to the embodiment of the present disclosure have been described above.

[1−4.表示制御装置の動作]
続いて、本開示の実施形態に係る表示制御装置10の動作の流れについて説明する。図18は、本開示の実施形態に係る表示制御装置10の動作の流れを示すフローチャートである。なお、図18に示した例は、本開示の実施形態に係る表示制御装置10の動作の流れの一例に過ぎない。したがって、本開示の実施形態に係る表示制御装置10の動作の流れは、図18に示した例に限定されない。
[1-4. Operation of display control device]
Subsequently, a flow of operations of the display control apparatus 10 according to the embodiment of the present disclosure will be described. FIG. 18 is a flowchart illustrating an operation flow of the display control apparatus 10 according to the embodiment of the present disclosure. Note that the example illustrated in FIG. 18 is only an example of the operation flow of the display control apparatus 10 according to the embodiment of the present disclosure. Therefore, the operation flow of the display control apparatus 10 according to the embodiment of the present disclosure is not limited to the example illustrated in FIG.

図18に示すように、まず、視点取得部112は、視点検出部111によって検出されたユーザの視点を取得し(S11)、行動取得部115は、行動認識部114によって認識されたユーザの行動を取得する(S12)。また、画像取得部116は、撮像部130によって撮像された撮像画像を取得する(S13)。表示制御部113は、視点取得部112によって取得された視点に基づいて、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する(S14)。   As illustrated in FIG. 18, first, the viewpoint acquisition unit 112 acquires the user's viewpoint detected by the viewpoint detection unit 111 (S <b> 11), and the behavior acquisition unit 115 recognizes the user's behavior recognized by the behavior recognition unit 114. Is acquired (S12). Further, the image acquisition unit 116 acquires a captured image captured by the imaging unit 130 (S13). The display control unit 113 controls the position in the depth direction of the virtual object presented to the user based on the viewpoint acquired by the viewpoint acquisition unit 112 (S14).

また、表示制御部113は、行動取得部115によって取得された行動に基づいて、仮想オブジェクトに含まれるコンテンツを制御する(S15)。さらに、表示制御部113は、撮像部130によって撮像された撮像画像に基づいて仮想オブジェクトを制御する(S16)。遮光制御部117は、撮像画像の輝度情報に基づいて遮光部160による遮光量を制御する(S17)。制御部110は、S17の動作が終了した後は、S11の動作に再度戻ってもよいし、動作を終了させてもよい。   Further, the display control unit 113 controls the content included in the virtual object based on the behavior acquired by the behavior acquisition unit 115 (S15). Further, the display control unit 113 controls the virtual object based on the captured image captured by the imaging unit 130 (S16). The light shielding control unit 117 controls the light shielding amount by the light shielding unit 160 based on the luminance information of the captured image (S17). After the operation of S17 ends, the control unit 110 may return to the operation of S11 again or may end the operation.

以上、本開示の実施形態に係る表示制御装置10の動作の流れについて説明した。   The flow of operations of the display control apparatus 10 according to the embodiment of the present disclosure has been described above.

[1−5.ハードウェア構成例]
続いて、本開示の実施形態に係る表示制御装置10のハードウェア構成例について説明する。図19は、本開示の実施形態に係る表示制御装置10のハードウェア構成例を示す図である。ただし、図19に示したハードウェア構成例は、表示制御装置10のハードウェア構成の一例を示したに過ぎない。したがって、表示制御装置10のハードウェア構成は、図19に示した例に限定されない。
[1-5. Hardware configuration example]
Subsequently, a hardware configuration example of the display control apparatus 10 according to the embodiment of the present disclosure will be described. FIG. 19 is a diagram illustrating a hardware configuration example of the display control apparatus 10 according to the embodiment of the present disclosure. However, the hardware configuration example illustrated in FIG. 19 is merely an example of the hardware configuration of the display control apparatus 10. Therefore, the hardware configuration of the display control apparatus 10 is not limited to the example shown in FIG.

図19に示したように、表示制御装置10は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、入力装置908と、出力装置910と、ストレージ装置911と、ドライブ912とを備える。   As shown in FIG. 19, the display control device 10 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, a RAM (Random Access Memory) 903, an input device 908, an output device 910, and the like. A storage device 911 and a drive 912.

CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って表示制御装置10内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。   The CPU 901 functions as an arithmetic processing device and a control device, and controls the overall operation in the display control device 10 according to various programs. Further, the CPU 901 may be a microprocessor. The ROM 902 stores programs used by the CPU 901, calculation parameters, and the like. The RAM 903 temporarily stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus including a CPU bus.

入力装置908は、センサ部140により測定されたセンサデータ(例えば、センサ部140により撮像された撮像結果)および撮像部130により撮像された撮像画像の入力を受け付ける。入力装置908により入力が受け付けられたセンサデータおよび撮像画像は、CPU901に出力される。また、入力装置908は、他のセンサにより検出された検出結果を、CPU901に出力してもよい。   The input device 908 receives input of sensor data measured by the sensor unit 140 (for example, an imaging result captured by the sensor unit 140) and a captured image captured by the imaging unit 130. The sensor data and captured image whose input is received by the input device 908 are output to the CPU 901. Further, the input device 908 may output a detection result detected by another sensor to the CPU 901.

出力装置910は、表示部150に対して出力データを提供する。例えば、出力装置910は、CPU901による制御に従って表示データを表示部150に提供する。また、表示部150が音声出力装置により構成されている場合には、出力装置910は、CPU901による制御に従って音声データを表示部150に提供する。   The output device 910 provides output data to the display unit 150. For example, the output device 910 provides display data to the display unit 150 according to control by the CPU 901. When the display unit 150 is configured by an audio output device, the output device 910 provides audio data to the display unit 150 according to control by the CPU 901.

ストレージ装置911は、表示制御装置10の記憶部120の一例として構成されたデータ格納用の装置である。ストレージ装置911は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置911は、CPU901が実行するプログラムや各種データを格納する。   The storage device 911 is a data storage device configured as an example of the storage unit 120 of the display control device 10. The storage device 911 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like. The storage device 911 stores programs executed by the CPU 901 and various data.

ドライブ912は、記憶媒体用リーダライタであり、表示制御装置10に内蔵、あるいは外付けされる。ドライブ912は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体71に記録されている情報を読み出して、RAM903に出力する。また、ドライブ912は、リムーバブル記憶媒体71に情報を書き込むこともできる。   The drive 912 is a storage medium reader / writer, and is built in or externally attached to the display control device 10. The drive 912 reads information recorded on a removable storage medium 71 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs the information to the RAM 903. The drive 912 can also write information into the removable storage medium 71.

以上、本開示の実施形態に係る表示制御装置10のハードウェア構成例について説明した。   Heretofore, the hardware configuration example of the display control apparatus 10 according to the embodiment of the present disclosure has been described.

<<2.むすび>>
以上説明したように、本開示の実施形態によれば、視点検出部111によって検出されたユーザの視点を取得する視点取得部112と、仮想オブジェクト50が表示部150によって立体表示されるように表示部150を制御する表示制御部113と、を備え、表示制御部113は、視点に基づいて、ユーザに提示される仮想オブジェクト50の奥行方向の位置を制御する、表示制御装置10が提供される。かかる構成によれば、ユーザがより閲覧しやすくなるように仮想オブジェクトの立体表示を行うことが可能となる。
<< 2. Conclusion >>
As described above, according to the embodiment of the present disclosure, the viewpoint acquisition unit 112 that acquires the viewpoint of the user detected by the viewpoint detection unit 111 and the virtual object 50 are displayed so as to be stereoscopically displayed on the display unit 150. A display control unit 113 that controls the unit 150, and the display control unit 113 controls the position in the depth direction of the virtual object 50 presented to the user based on the viewpoint. . According to this configuration, it is possible to perform a stereoscopic display of the virtual object so that the user can more easily browse.

なお、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。   In addition, although preferred embodiment of this indication was described in detail, referring an accompanying drawing, the technical scope of this indication is not limited to this example. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.

また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した表示制御装置10が有する構成と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。   In addition, it is possible to create a program for causing hardware such as a CPU, ROM, and RAM incorporated in a computer to exhibit functions equivalent to the configuration of the display control apparatus 10 described above. Also, a computer-readable recording medium that records the program can be provided.

なお、以下のような構成も本開示の技術的範囲に属する。
(1)
視点検出部によって検出されたユーザの視点を取得する視点取得部と、
仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御する表示制御部と、を備え、
前記表示制御部は、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、
表示制御装置。
(2)
前記表示制御装置は、
行動認識部によって認識されたユーザの行動を取得する行動取得部をさらに備え、
前記表示制御部は、前記行動に基づいて前記仮想オブジェクトに含まれるコンテンツを制御する、
前記(1)に記載の表示制御装置。
(3)
前記表示制御部は、前記行動に基づいて、前記仮想オブジェクトに含まれるコンテンツの情報量を制御する、
前記(2)に記載の表示制御装置。
(4)
前記表示制御部は、前記行動に基づいて、前記仮想オブジェクトに含まれるコンテンツの表示サイズを制御する、
前記(2)に記載の表示制御装置。
(5)
前記表示制御部は、前記行動に基づいて、前記仮想オブジェクトに含まれるコンテンツの前記仮想オブジェクトにおける位置を制御する、
前記(2)に記載の表示制御装置。
(6)
前記表示制御装置は、
行動認識部によって認識されたユーザの行動を取得する行動取得部をさらに備え、
前記表示制御部は、前記行動に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、
前記(1)に記載の表示制御装置。
(7)
前記表示制御装置は、
撮像部によって撮像された撮像画像を取得する画像取得部をさらに備え、
前記表示制御部は、前記撮像画像に基づいて前記仮想オブジェクトを制御する、
前記(1)〜(6)のいずれか一項に記載の表示制御装置。
(8)
前記表示制御部は、前記撮像画像の輝度情報に基づいて前記仮想オブジェクトの表示位置を制御する、
前記(7)に記載の表示制御装置。
(9)
前記表示制御部は、前記撮像画像の輝度情報に基づいて前記仮想オブジェクトの輝度を制御する、
前記(7)に記載の表示制御装置。
(10)
前記表示制御部は、前記撮像画像の色情報に基づいて前記仮想オブジェクトの表示位置を制御する、
前記(7)に記載の表示制御装置。
(11)
前記表示制御部は、前記撮像画像の色情報に基づいて前記仮想オブジェクトの色を制御する、
前記(7)に記載の表示制御装置。
(12)
前記表示制御部は、前記撮像画像から抽出された特徴量に基づいて、前記仮想オブジェクトの表示位置を制御する、
前記(7)に記載の表示制御装置。
(13)
前記表示制御装置は、
撮像部によって撮像された撮像画像を取得する画像取得部と、
前記撮像画像の輝度情報に基づいて遮光部による遮光量を制御する遮光制御部と、
をさらに備える、
前記(1)〜(12)のいずれか一項に記載の表示制御装置。
(14)
前記表示制御部は、前記ユーザの左眼に提示される左眼画像の表示位置と前記ユーザの右眼に提示される右眼画像の表示位置とを制御することによって、前記ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する、
前記(1)〜(13)のいずれか一項に記載の表示制御装置。
(15)
前記表示制御装置は、
撮像部によって撮像された撮像画像を取得する画像取得部をさらに備え、
前記表示制御部は、前記撮像画像から物体が検出された場合、前記物体の位置に基づいて、前記ユーザに提示される前記仮想オブジェクトの位置を制御する、
前記(1)〜(14)のいずれか一項に記載の表示制御装置。
(16)
前記表示制御部は、前記視点が前記ユーザから遠くなるほど、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を遠ざける、
前記(1)〜(15)のいずれか一項に記載の表示制御装置。
(17)
視点検出部によって検出されたユーザの視点を取得することと、
仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御することと、を含み、
前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御すること、
を含む、表示制御方法。
(18)
コンピュータを、
視点検出部によって検出されたユーザの視点を取得する視点取得部と、
仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御する表示制御部と、を備え、
前記表示制御部は、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、
表示制御装置として機能させるためのプログラムを記録した、コンピュータに読み取り可能な記録媒体。
The following configurations also belong to the technical scope of the present disclosure.
(1)
A viewpoint acquisition unit that acquires the viewpoint of the user detected by the viewpoint detection unit;
A display control unit that controls the display unit so that the virtual object is stereoscopically displayed by the display unit,
The display control unit controls the position in the depth direction of the virtual object presented to the user based on the viewpoint.
Display control device.
(2)
The display control device includes:
An action acquisition unit for acquiring the user's action recognized by the action recognition unit;
The display control unit controls content included in the virtual object based on the behavior.
The display control device according to (1).
(3)
The display control unit controls an information amount of content included in the virtual object based on the behavior;
The display control apparatus according to (2).
(4)
The display control unit controls a display size of content included in the virtual object based on the behavior;
The display control apparatus according to (2).
(5)
The display control unit controls a position of the content included in the virtual object in the virtual object based on the behavior;
The display control apparatus according to (2).
(6)
The display control device includes:
An action acquisition unit for acquiring the user's action recognized by the action recognition unit;
The display control unit controls the position in the depth direction of the virtual object presented to the user based on the action.
The display control device according to (1).
(7)
The display control device includes:
An image acquisition unit that acquires a captured image captured by the imaging unit;
The display control unit controls the virtual object based on the captured image;
The display control apparatus according to any one of (1) to (6).
(8)
The display control unit controls a display position of the virtual object based on luminance information of the captured image;
The display control apparatus according to (7).
(9)
The display control unit controls the luminance of the virtual object based on luminance information of the captured image.
The display control apparatus according to (7).
(10)
The display control unit controls a display position of the virtual object based on color information of the captured image;
The display control apparatus according to (7).
(11)
The display control unit controls a color of the virtual object based on color information of the captured image;
The display control apparatus according to (7).
(12)
The display control unit controls a display position of the virtual object based on a feature amount extracted from the captured image;
The display control apparatus according to (7).
(13)
The display control device includes:
An image acquisition unit for acquiring a captured image captured by the imaging unit;
A light shielding control unit that controls a light shielding amount by the light shielding unit based on luminance information of the captured image;
Further comprising
The display control apparatus according to any one of (1) to (12).
(14)
The display control unit is presented to the user by controlling a display position of a left eye image presented to the left eye of the user and a display position of a right eye image presented to the right eye of the user. Control the position of the virtual object in the depth direction,
The display control apparatus according to any one of (1) to (13).
(15)
The display control device includes:
An image acquisition unit that acquires a captured image captured by the imaging unit;
The display control unit, when an object is detected from the captured image, controls the position of the virtual object presented to the user based on the position of the object.
The display control apparatus according to any one of (1) to (14).
(16)
The display control unit increases the depth direction position of the virtual object presented to the user as the viewpoint is farther from the user.
The display control apparatus according to any one of (1) to (15).
(17)
Obtaining the user's viewpoint detected by the viewpoint detector;
Controlling the display unit such that the virtual object is stereoscopically displayed by the display unit,
Controlling the position in the depth direction of the virtual object presented to the user based on the viewpoint;
Including a display control method.
(18)
Computer
A viewpoint acquisition unit that acquires the viewpoint of the user detected by the viewpoint detection unit;
A display control unit that controls the display unit so that the virtual object is stereoscopically displayed by the display unit,
The display control unit controls the position in the depth direction of the virtual object presented to the user based on the viewpoint.
A computer-readable recording medium having recorded thereon a program for causing it to function as a display control device.

1 情報処理システム
10 表示制御装置
30 撮像画像
40 撮像結果
50 仮想オブジェクト
110 制御部
111 視点検出部
112 視点取得部
113 表示制御部
114 行動認識部
115 行動取得部
116 画像取得部
117 遮光制御部
120 記憶部
130 撮像部
140 センサ部
150(150L、150R) 表示部
160(160L、160R) 遮光部

DESCRIPTION OF SYMBOLS 1 Information processing system 10 Display control apparatus 30 Captured image 40 Imaging result 50 Virtual object 110 Control part 111 View point detection part 112 View point acquisition part 113 Display control part 114 Action recognition part 115 Action acquisition part 116 Image acquisition part 117 Light-shielding control part 120 Storage Unit 130 imaging unit 140 sensor unit 150 (150L, 150R) display unit 160 (160L, 160R) light shielding unit

Claims (18)

視点検出部によって検出されたユーザの視点を取得する視点取得部と、
仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御する表示制御部と、を備え、
前記表示制御部は、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、
表示制御装置。
A viewpoint acquisition unit that acquires the viewpoint of the user detected by the viewpoint detection unit;
A display control unit that controls the display unit so that the virtual object is stereoscopically displayed by the display unit,
The display control unit controls the position in the depth direction of the virtual object presented to the user based on the viewpoint.
Display control device.
前記表示制御装置は、
行動認識部によって認識されたユーザの行動を取得する行動取得部をさらに備え、
前記表示制御部は、前記行動に基づいて前記仮想オブジェクトに含まれるコンテンツを制御する、
請求項1に記載の表示制御装置。
The display control device includes:
An action acquisition unit for acquiring the user's action recognized by the action recognition unit;
The display control unit controls content included in the virtual object based on the behavior.
The display control apparatus according to claim 1.
前記表示制御部は、前記行動に基づいて、前記仮想オブジェクトに含まれるコンテンツの情報量を制御する、
請求項2に記載の表示制御装置。
The display control unit controls an information amount of content included in the virtual object based on the behavior;
The display control apparatus according to claim 2.
前記表示制御部は、前記行動に基づいて、前記仮想オブジェクトに含まれるコンテンツの表示サイズを制御する、
請求項2に記載の表示制御装置。
The display control unit controls a display size of content included in the virtual object based on the behavior;
The display control apparatus according to claim 2.
前記表示制御部は、前記行動に基づいて、前記仮想オブジェクトに含まれるコンテンツの前記仮想オブジェクトにおける位置を制御する、
請求項2に記載の表示制御装置。
The display control unit controls a position of the content included in the virtual object in the virtual object based on the behavior;
The display control apparatus according to claim 2.
前記表示制御装置は、
行動認識部によって認識されたユーザの行動を取得する行動取得部をさらに備え、
前記表示制御部は、前記行動に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、
請求項1に記載の表示制御装置。
The display control device includes:
An action acquisition unit for acquiring the user's action recognized by the action recognition unit;
The display control unit controls the position in the depth direction of the virtual object presented to the user based on the action.
The display control apparatus according to claim 1.
前記表示制御装置は、
撮像部によって撮像された撮像画像を取得する画像取得部をさらに備え、
前記表示制御部は、前記撮像画像に基づいて前記仮想オブジェクトを制御する、
請求項1に記載の表示制御装置。
The display control device includes:
An image acquisition unit that acquires a captured image captured by the imaging unit;
The display control unit controls the virtual object based on the captured image;
The display control apparatus according to claim 1.
前記表示制御部は、前記撮像画像の輝度情報に基づいて前記仮想オブジェクトの表示位置を制御する、
請求項7に記載の表示制御装置。
The display control unit controls a display position of the virtual object based on luminance information of the captured image;
The display control apparatus according to claim 7.
前記表示制御部は、前記撮像画像の輝度情報に基づいて前記仮想オブジェクトの輝度を制御する、
請求項7に記載の表示制御装置。
The display control unit controls the luminance of the virtual object based on luminance information of the captured image.
The display control apparatus according to claim 7.
前記表示制御部は、前記撮像画像の色情報に基づいて前記仮想オブジェクトの表示位置を制御する、
請求項7に記載の表示制御装置。
The display control unit controls a display position of the virtual object based on color information of the captured image;
The display control apparatus according to claim 7.
前記表示制御部は、前記撮像画像の色情報に基づいて前記仮想オブジェクトの色を制御する、
請求項7に記載の表示制御装置。
The display control unit controls a color of the virtual object based on color information of the captured image;
The display control apparatus according to claim 7.
前記表示制御部は、前記撮像画像から抽出された特徴量に基づいて、前記仮想オブジェクトの表示位置を制御する、
請求項7に記載の表示制御装置。
The display control unit controls a display position of the virtual object based on a feature amount extracted from the captured image;
The display control apparatus according to claim 7.
前記表示制御装置は、
撮像部によって撮像された撮像画像を取得する画像取得部と、
前記撮像画像の輝度情報に基づいて遮光部による遮光量を制御する遮光制御部と、
をさらに備える、
請求項1に記載の表示制御装置。
The display control device includes:
An image acquisition unit for acquiring a captured image captured by the imaging unit;
A light shielding control unit that controls a light shielding amount by the light shielding unit based on luminance information of the captured image;
Further comprising
The display control apparatus according to claim 1.
前記表示制御部は、前記ユーザの左眼に提示される左眼画像の表示位置と前記ユーザの右眼に提示される右眼画像の表示位置とを制御することによって、前記ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する、
請求項1に記載の表示制御装置。
The display control unit is presented to the user by controlling a display position of a left eye image presented to the left eye of the user and a display position of a right eye image presented to the right eye of the user. Control the position of the virtual object in the depth direction,
The display control apparatus according to claim 1.
前記表示制御装置は、
撮像部によって撮像された撮像画像を取得する画像取得部をさらに備え、
前記表示制御部は、前記撮像画像から物体が検出された場合、前記物体の位置に基づいて、前記ユーザに提示される前記仮想オブジェクトの位置を制御する、
請求項1に記載の表示制御装置。
The display control device includes:
An image acquisition unit that acquires a captured image captured by the imaging unit;
The display control unit, when an object is detected from the captured image, controls the position of the virtual object presented to the user based on the position of the object.
The display control apparatus according to claim 1.
前記表示制御部は、前記視点が前記ユーザから遠くなるほど、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を遠ざける、
請求項1に記載の表示制御装置。
The display control unit increases the depth direction position of the virtual object presented to the user as the viewpoint is farther from the user.
The display control apparatus according to claim 1.
視点検出部によって検出されたユーザの視点を取得することと、
仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御することと、を含み、
前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御すること、
を含む、表示制御方法。
Obtaining the user's viewpoint detected by the viewpoint detector;
Controlling the display unit such that the virtual object is stereoscopically displayed by the display unit,
Controlling the position in the depth direction of the virtual object presented to the user based on the viewpoint;
Including a display control method.
コンピュータを、
視点検出部によって検出されたユーザの視点を取得する視点取得部と、
仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御する表示制御部と、を備え、
前記表示制御部は、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、
表示制御装置として機能させるためのプログラムを記録した、コンピュータに読み取り可能な記録媒体。

Computer
A viewpoint acquisition unit that acquires the viewpoint of the user detected by the viewpoint detection unit;
A display control unit that controls the display unit so that the virtual object is stereoscopically displayed by the display unit,
The display control unit controls the position in the depth direction of the virtual object presented to the user based on the viewpoint.
A computer-readable recording medium having recorded thereon a program for causing it to function as a display control device.

JP2013102884A 2013-05-15 2013-05-15 Display control device, display control method, and recording medium Active JP6318470B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013102884A JP6318470B2 (en) 2013-05-15 2013-05-15 Display control device, display control method, and recording medium
EP14723136.9A EP2997445A1 (en) 2013-05-15 2014-04-10 Display control device, display control method, and recording medium
CN201480025979.6A CN105210009B (en) 2013-05-15 2014-04-10 Display control unit, display control method and recording medium
PCT/JP2014/002065 WO2014185002A1 (en) 2013-05-15 2014-04-10 Display control device, display control method, and recording medium
US14/888,788 US20160078685A1 (en) 2013-05-15 2014-04-10 Display control device, display control method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013102884A JP6318470B2 (en) 2013-05-15 2013-05-15 Display control device, display control method, and recording medium

Publications (3)

Publication Number Publication Date
JP2014225727A true JP2014225727A (en) 2014-12-04
JP2014225727A5 JP2014225727A5 (en) 2016-03-17
JP6318470B2 JP6318470B2 (en) 2018-05-09

Family

ID=50687547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013102884A Active JP6318470B2 (en) 2013-05-15 2013-05-15 Display control device, display control method, and recording medium

Country Status (5)

Country Link
US (1) US20160078685A1 (en)
EP (1) EP2997445A1 (en)
JP (1) JP6318470B2 (en)
CN (1) CN105210009B (en)
WO (1) WO2014185002A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016143744A1 (en) * 2015-03-12 2016-09-15 日本精機株式会社 Head mounted display device
JP2016171550A (en) * 2015-03-12 2016-09-23 日本精機株式会社 Head-mounted display device
US9977241B2 (en) 2015-03-17 2018-05-22 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
JP2019512769A (en) * 2016-02-18 2019-05-16 イーディーエックス テクノロジーズ インコーポレイテッド System and method for augmented reality representation of a network
JP6892961B1 (en) * 2020-09-29 2021-06-23 Kddi株式会社 Control device, display control method and display control program

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11508257B2 (en) * 2017-03-07 2022-11-22 8259402 Canada Inc. Method to control a virtual image in a display
CN111034190B (en) * 2017-08-29 2022-04-15 索尼公司 Information processing apparatus, information processing method, and program
KR102486421B1 (en) * 2017-10-16 2023-01-10 삼성디스플레이 주식회사 Head mount display device and operation method of the same
US20230186434A1 (en) * 2021-12-09 2023-06-15 Unity Technologies Sf Defocus operations for a virtual display with focus and defocus determined based on camera settings

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09322197A (en) * 1996-05-24 1997-12-12 Olympus Optical Co Ltd Stereoscopic vision display device
WO2006064655A1 (en) * 2004-12-14 2006-06-22 Matsushita Electric Industrial Co., Ltd. Information presentation device and information presentation method
JP2007210462A (en) * 2006-02-09 2007-08-23 Mitsubishi Motors Corp Display control device for vehicle and display system for vehicle
JP2007219081A (en) * 2006-02-15 2007-08-30 Canon Inc Image display system
JP2008065169A (en) * 2006-09-08 2008-03-21 Sony Corp Display device and display method
JP2008176096A (en) * 2007-01-19 2008-07-31 Brother Ind Ltd Image display
JP2010170316A (en) * 2009-01-22 2010-08-05 Konami Digital Entertainment Co Ltd Apparatus, method and program for displaying augmented reality
JP2011128220A (en) * 2009-12-15 2011-06-30 Toshiba Corp Information presenting device, information presenting method, and program
JP2012078224A (en) * 2010-10-01 2012-04-19 Olympus Corp Image generation system, program, and information storage medium
JP2012118121A (en) * 2010-11-29 2012-06-21 Canon Inc Video display device, video display method, and program

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040243307A1 (en) * 2003-06-02 2004-12-02 Pieter Geelen Personal GPS navigation device
JP4507992B2 (en) * 2005-06-09 2010-07-21 ソニー株式会社 Information processing apparatus and method, and program
WO2009002567A1 (en) * 2007-06-27 2008-12-31 The University Of Hawaii Virtual reality overlay
WO2010089989A1 (en) * 2009-02-05 2010-08-12 パナソニック株式会社 Information display device and information display method
JP5343676B2 (en) * 2009-04-08 2013-11-13 ソニー株式会社 Image processing apparatus, image processing method, and computer program
JP5548042B2 (en) 2010-06-23 2014-07-16 ソフトバンクモバイル株式会社 User terminal device and shopping system
JP5499985B2 (en) * 2010-08-09 2014-05-21 ソニー株式会社 Display assembly
JP5726201B2 (en) * 2010-10-19 2015-05-27 三菱電機株式会社 Three-dimensional stereoscopic display device, three-dimensional stereoscopic display control device, and LSI circuit
US9727132B2 (en) * 2011-07-01 2017-08-08 Microsoft Technology Licensing, Llc Multi-visor: managing applications in augmented reality environments
JP5960466B2 (en) * 2012-03-28 2016-08-02 京セラ株式会社 Image processing apparatus, imaging apparatus, vehicle driving support apparatus, and image processing method
DE102012224173A1 (en) * 2012-07-04 2013-03-14 Continental Teves Ag & Co. Ohg Fastening device for fixing cable of wheel speed sensor at vehicle body of motor vehicle, has guide element mounted in clamp at support partially surrounding clamp corresponding to outer surface, and clamp for receiving and fixing cable
US9568735B2 (en) * 2012-08-07 2017-02-14 Industry-University Cooperation Foundation Hanyang University Wearable display device having a detection function
KR101845350B1 (en) * 2013-03-26 2018-05-18 세이코 엡슨 가부시키가이샤 Head-mounted display device, control method of head-mounted display device, and display system
US9317114B2 (en) * 2013-05-07 2016-04-19 Korea Advanced Institute Of Science And Technology Display property determination

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09322197A (en) * 1996-05-24 1997-12-12 Olympus Optical Co Ltd Stereoscopic vision display device
WO2006064655A1 (en) * 2004-12-14 2006-06-22 Matsushita Electric Industrial Co., Ltd. Information presentation device and information presentation method
JP2007210462A (en) * 2006-02-09 2007-08-23 Mitsubishi Motors Corp Display control device for vehicle and display system for vehicle
JP2007219081A (en) * 2006-02-15 2007-08-30 Canon Inc Image display system
JP2008065169A (en) * 2006-09-08 2008-03-21 Sony Corp Display device and display method
JP2008176096A (en) * 2007-01-19 2008-07-31 Brother Ind Ltd Image display
JP2010170316A (en) * 2009-01-22 2010-08-05 Konami Digital Entertainment Co Ltd Apparatus, method and program for displaying augmented reality
JP2011128220A (en) * 2009-12-15 2011-06-30 Toshiba Corp Information presenting device, information presenting method, and program
JP2012078224A (en) * 2010-10-01 2012-04-19 Olympus Corp Image generation system, program, and information storage medium
JP2012118121A (en) * 2010-11-29 2012-06-21 Canon Inc Video display device, video display method, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016143744A1 (en) * 2015-03-12 2016-09-15 日本精機株式会社 Head mounted display device
JP2016171550A (en) * 2015-03-12 2016-09-23 日本精機株式会社 Head-mounted display device
US10288882B2 (en) 2015-03-12 2019-05-14 Nippon Seiki Co., Ltd. Head mounted display device
US9977241B2 (en) 2015-03-17 2018-05-22 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
US10175484B2 (en) 2015-03-17 2019-01-08 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
JP2019512769A (en) * 2016-02-18 2019-05-16 イーディーエックス テクノロジーズ インコーポレイテッド System and method for augmented reality representation of a network
US11120628B2 (en) 2016-02-18 2021-09-14 Edx Technologies, Inc. Systems and methods for augmented reality representations of networks
JP7133470B2 (en) 2016-02-18 2022-09-08 イーディーエックス テクノロジーズ インコーポレイテッド System and method for network augmented reality representation
JP6892961B1 (en) * 2020-09-29 2021-06-23 Kddi株式会社 Control device, display control method and display control program
JP2022055698A (en) * 2020-09-29 2022-04-08 Kddi株式会社 Control device, display control method, and display control program

Also Published As

Publication number Publication date
WO2014185002A1 (en) 2014-11-20
US20160078685A1 (en) 2016-03-17
CN105210009A (en) 2015-12-30
JP6318470B2 (en) 2018-05-09
CN105210009B (en) 2018-08-14
EP2997445A1 (en) 2016-03-23

Similar Documents

Publication Publication Date Title
JP6318470B2 (en) Display control device, display control method, and recording medium
US10943409B2 (en) Information processing apparatus, information processing method, and program for correcting display information drawn in a plurality of buffers
KR102358983B1 (en) Human-body-gesture-based region and volume selection for hmd
CA2998600C (en) Vehicular display apparatus and vehicular display method
US9563981B2 (en) Information processing apparatus, information processing method, and program
US10534428B2 (en) Image processing device and image processing method, display device and display method, and image display system
CN108292448B (en) Information processing apparatus, information processing method, and program
US9375639B2 (en) Image display system and head-mounted display device
US8847850B1 (en) Head mounted display device for displaying augmented reality image capture guide and control method for the same
EP2933707A1 (en) Head mounted display presentation adjustment
KR102114618B1 (en) Portable and method for controlling the same
JP2016520891A5 (en)
WO2017169273A1 (en) Information processing device, information processing method, and program
JP6292478B2 (en) Information display system having transmissive HMD and display control program
CN104977716A (en) Eyepiece-type display apparatus and display control method therefor
KR20160138193A (en) Multi mode display system
GB2540032A (en) Data browse apparatus, data browse method, program, and storage medium
CN108885497B (en) Information processing apparatus, information processing method, and computer readable medium
US20200057494A1 (en) Electronic device
EP3316117A1 (en) Controlling content displayed in a display
US10586392B2 (en) Image display apparatus using foveated rendering
US11366318B2 (en) Electronic device and control method thereof
US10650601B2 (en) Information processing device and information processing method
JP2012058353A (en) Image display device and control method thereof
JP6713591B1 (en) Display control device, display control method, program, and non-transitory computer-readable information recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180319

R151 Written notification of patent or utility model registration

Ref document number: 6318470

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151