JP2014225727A - Display control device, display control method, and recording medium - Google Patents
Display control device, display control method, and recording medium Download PDFInfo
- Publication number
- JP2014225727A JP2014225727A JP2013102884A JP2013102884A JP2014225727A JP 2014225727 A JP2014225727 A JP 2014225727A JP 2013102884 A JP2013102884 A JP 2013102884A JP 2013102884 A JP2013102884 A JP 2013102884A JP 2014225727 A JP2014225727 A JP 2014225727A
- Authority
- JP
- Japan
- Prior art keywords
- display control
- virtual object
- unit
- user
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
Abstract
Description
本開示は、表示制御装置、表示制御方法および記録媒体に関する。 The present disclosure relates to a display control device, a display control method, and a recording medium.
近年、ユーザの頭部に装着するディスプレイとしてHMD(Head Mounted Display)の開発が進んでいる。ユーザの頭部に装着されたHMDによるコンテンツの表示動作は、ユーザの状況に依存せず一定である場合も想定されるが、ユーザの状況に基づいて制御される場合も想定される。例えば、ユーザの状況に応じてコンテンツの表示動作を制御する技術が開示されている(例えば、特許文献1参照)。 In recent years, development of HMD (Head Mounted Display) as a display to be worn on a user's head has been progressing. The display operation of the content by the HMD attached to the user's head is assumed to be constant without depending on the user's situation, but is also assumed to be controlled based on the user's situation. For example, a technique for controlling a content display operation according to a user's situation is disclosed (for example, see Patent Document 1).
しかしながら、立体表示により仮想オブジェクトをユーザに提示するHMDも開発されている。そこで、ユーザがより閲覧しやすくなるように仮想オブジェクトの立体表示を行うことが可能な技術が実現されることが望ましい。 However, an HMD that presents a virtual object to a user by stereoscopic display has also been developed. Therefore, it is desirable to realize a technique capable of performing a stereoscopic display of a virtual object so that the user can more easily browse.
本開示によれば、視点検出部によって検出されたユーザの視点を取得する視点取得部と、仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御する表示制御部と、を備え、前記表示制御部は、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、表示制御装置が提供される。 According to the present disclosure, a viewpoint acquisition unit that acquires the viewpoint of the user detected by the viewpoint detection unit, and a display control unit that controls the display unit so that a virtual object is stereoscopically displayed by the display unit, A display control device is provided, wherein the display control unit controls a position in the depth direction of the virtual object presented to the user based on the viewpoint.
また、本開示によれば、視点検出部によって検出されたユーザの視点を取得することと、仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御することと、を含み、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御すること、を含む、表示制御方法が提供される。 In addition, according to the present disclosure, the viewpoint includes: acquiring a user's viewpoint detected by the viewpoint detection unit; and controlling the display unit so that a virtual object is stereoscopically displayed by the display unit. A display control method including controlling a position in the depth direction of the virtual object presented to the user.
また、本開示によれば、コンピュータを、視点検出部によって検出されたユーザの視点を取得する視点取得部と、仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御する表示制御部と、を備え、前記表示制御部は、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、表示制御装置として機能させるためのプログラムを記録した、コンピュータに読み取り可能な記録媒体が提供される。 In addition, according to the present disclosure, the computer includes a viewpoint acquisition unit that acquires the viewpoint of the user detected by the viewpoint detection unit, and a display control unit that controls the display unit so that the virtual object is stereoscopically displayed by the display unit. The display control unit controls a position in the depth direction of the virtual object presented to the user based on the viewpoint, and records a program for causing the computer to function as a display control device. A readable recording medium is provided.
以上説明したように本開示によれば、ユーザがより閲覧しやすくなるように仮想オブジェクトの立体表示を行うことが可能な技術を提供することが可能である。 As described above, according to the present disclosure, it is possible to provide a technique capable of performing a stereoscopic display of a virtual object so that the user can more easily browse.
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットまたは数字を付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。 In the present specification and drawings, a plurality of constituent elements having substantially the same functional configuration may be distinguished by attaching different alphabets or numbers after the same reference numeral. However, when it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given.
また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
1.実施形態
1−1.情報処理システムの構成例
1−2.情報処理システムの機能構成例
1−3.表示制御装置の機能詳細
1−4.表示制御装置の動作
1−5.ハードウェア構成例
2.むすび
Further, the “DETAILED DESCRIPTION OF THE INVENTION” will be described according to the following item order.
1. Embodiment 1-1. Configuration example of information processing system 1-2. Functional configuration example of information processing system 1-3. Detailed function of display control device 1-4. Operation of display control apparatus 1-5. 1. Hardware configuration example Conclusion
<<1.実施形態>>
まず、本開示の実施形態について説明する。
<< 1. Embodiment >>
First, an embodiment of the present disclosure will be described.
[1−1.情報処理システムの構成例]
最初に、本開示の実施形態に係る情報処理システム1の構成例について説明する。図1は、本開示の実施形態に係る情報処理システム1の構成例を示す図である。図1に示すように、情報処理システム1は、表示制御装置10と、撮像部130と、センサ部140と、表示部150と、遮光部160とを備える。
[1-1. Configuration example of information processing system]
First, a configuration example of the
撮像部130は、撮像範囲を撮像する機能を有する。例えば、撮像部130は、ユーザの視線方向を撮像することができるようにユーザの頭部に装着されている。撮像部130によって撮像されて得られた撮像画像30は、例えば、無線信号または有線信号により表示制御装置10に提供される。なお、図1に示した例では、撮像部130は表示制御装置10と別体に構成されているが、撮像部130は、表示制御装置10と一体化されていてもよい。
The
センサ部140は、センサデータを検出する。例えば、センサ部140は、ユーザUの目領域を撮像して撮像結果を取得する。以下の説明においては、センサ部140によってユーザUの両方の目領域が撮像される場合を主に想定するが、センサ部140はユーザUの片方の目領域を撮像してもよい。センサ部140によって撮像されて得られた撮像結果40は、例えば、無線信号または有線信号により表示制御装置10に提供される。
The sensor unit 140 detects sensor data. For example, the
なお、本明細書においては、センサ部140がユーザUの目領域を撮像する場合について主に説明するが、ユーザUの身体に関する他の測定を行ってもよい。例えば、センサ部140は、ユーザUの筋電を測定してもよい。かかる場合、センサ部140によって撮像されて得られた筋電の測定結果は、例えば、無線信号または有線信号により表示制御装置10に提供される。
In addition, in this specification, although the case where the
また、図1に示した例では、センサ部140は表示制御装置10と別体に構成されているが、センサ部140は、表示制御装置10と一体化されていてもよい。また、後に説明するように、情報処理システム1は、センサ部140の他にセンサを有していてもよい。
In the example illustrated in FIG. 1, the
表示部150は、表示制御装置10から無線信号または有線信号により提供された制御信号に従って仮想オブジェクトを表示する機能を有する。表示部150によって表示される仮想オブジェクトの種類は特に限定されない。また、本明細書においては、表示部150が透過型HMD(Head Mount Display)である場合を主に想定する。なお、図1に示した例では、表示部150は表示制御装置10と別体に構成されているが、表示部150は、表示制御装置10と一体化されていてもよい。
The
遮光部160は、ユーザUの目領域に到達する光の量を調整する機能を有する。遮光部160は、表示部150を通過した光の一部だけを遮光してもよいし、全部を遮光してもよいし、全部を透過させてもよい。図1に示した例では、表示部150の外側に遮光部160が設けられているが、遮光部160が設けられる位置は特に限定されない。遮光部160は、例えば、液晶シャッタにより構成されていてよい。なお、図1に示した例では、遮光部160は表示制御装置10と別体に構成されているが、遮光部160は、表示制御装置10と一体化されていてもよい。
The
以上、本開示の実施形態に係る情報処理システム1の構成例について説明した。
The configuration example of the
[1−2.情報処理システムの機能構成例]
続いて、本開示の実施形態に係る情報処理システム1の機能構成例について説明する。図2は、本開示の実施形態に係る情報処理システム1の機能構成例を示す図である。図2に示すように、本開示の実施形態に係る表示制御装置10は、制御部110と、記憶部120とを備える。上記したように、撮像部130、センサ部140、表示部150および遮光部160それぞれは、表示制御装置10と無線または有線により接続されている。
[1-2. Functional configuration example of information processing system]
Subsequently, a functional configuration example of the
制御部110は、例えば、CPU(Central Processing Unit)などのプロセッサに相当する。制御部110は、記憶部120または他の記憶媒体に記憶されるプログラムを実行することにより、制御部110が有する様々な機能を発揮する。制御部110は、視点検出部111と、視点取得部112と、表示制御部113と、行動認識部114と、行動取得部115と、画像取得部116と、遮光制御部117とを有する。これらの各機能ブロックそれぞれが有する機能については後に説明する。
The
記憶部120は、半導体メモリまたはハードディスクなどの記憶媒体を用いて、制御部110を動作させるためのプログラムを記憶する。また、例えば、記憶部120は、プログラムによって使用される各種のデータ(例えば、仮想オブジェクトを立体表示させるための画像など)を記憶することもできる。なお、図2に示した例では、記憶部120は表示制御装置10と一体化されているが、記憶部120は表示制御装置10と別体に構成されていてもよい。
The
以上、本開示の実施形態に係る情報処理システム1の機能構成例について説明した。
The functional configuration example of the
[1−3.表示制御装置の機能詳細]
続いて、本開示の実施形態に係る表示制御装置10の機能詳細について説明する。まず、表示制御部113は、仮想オブジェクトが表示部150によって立体表示されるように表示部150を制御する機能を有し、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する機能を有している。そこで、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する手法の例について説明する。
[1-3. Detailed functions of display control unit]
Subsequently, functional details of the
図3は、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する手法の例を説明するための図である。図3を参照すると、ユーザの左眼位置elおよび右眼位置erが示されている。ここで、表示制御部113は、ユーザの左眼に提示される左眼画像を表示部150Lの表示位置dlに表示させるとともにユーザの右眼に提示される右眼画像を表示部150Rの表示位置drに表示させた場合、仮想オブジェクトは、表示位置Pに立体表示される。表示位置Pは、左眼位置elおよび表示位置dlを結ぶ直線と右眼位置erおよび表示位置drを結ぶ直線との交点に相当する
FIG. 3 is a diagram for explaining an example of a technique for controlling the position in the depth direction of the virtual object presented to the user. Referring to FIG. 3, the left eye position el and the right eye position er of the user are shown. Here, the
図3に示した例において、表示位置Pからユーザの左眼位置elと右眼位置erとを結ぶ直線までの距離を輻輳距離Dとし、左眼位置elと表示位置Pとを結ぶ線分と右眼位置erと表示位置Pとを結ぶ線分とのなす角を輻輳角aとする。表示制御部113は、表示位置dlと表示位置drとの間隔を広げることによって、輻輳距離Dを大きくするほど(または輻輳角を小さくするほど)、ユーザに提示される仮想オブジェクトの奥行方向の位置をユーザから遠ざけることができる。
In the example shown in FIG. 3, a distance from the display position P to a straight line connecting the user's left eye position el and right eye position er is a convergence distance D, and a line segment connecting the left eye position el and the display position P An angle formed by a line segment connecting the right eye position er and the display position P is defined as a convergence angle a. The
一方、表示制御部113は、表示位置dlと表示位置drとの間隔を狭めることによって、輻輳距離Dを小さくするほど(または輻輳角を大きくするほど)、ユーザに提示される仮想オブジェクトの奥行方向の位置をユーザに近づけることができる。このようにして、表示制御部113は、左眼画像の表示位置dlと右眼画像の表示位置drとを制御することによって、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御することが可能である。しかし、ここで説明した手法は、単なる一例に過ぎない。したがって、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する手法は特に限定されない。
On the other hand, the
例えば、表示制御部113は、サイズが大きい仮想オブジェクトほど手前に存在するように見えるという特性を利用し、仮想オブジェクトのサイズを制御することによってユーザに提示される仮想オブジェクトの奥行方向の位置を制御してもよい。また、表示制御部113は、仮想オブジェクトのピントが合う位置を制御することによってユーザに提示される仮想オブジェクトの奥行方向の位置を制御してもよい。さらに、表示制御部113は、視差の大きさを制御することによって、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御してもよい。
For example, the
以上、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する手法の例を説明した。ここで、仮想オブジェクトの奥行方向の位置とユーザの視点との間にずれが生じてしまうような場合には、仮想オブジェクトを閲覧しにくくなるという状況が起こり得る。そのため、本明細書においては、ユーザがより閲覧しやすくなるように仮想オブジェクトの立体表示を行うことが可能な技術を提案する。 The example of the method for controlling the position in the depth direction of the virtual object presented to the user has been described above. Here, in a case where a shift occurs between the position of the virtual object in the depth direction and the user's viewpoint, a situation may occur in which it is difficult to view the virtual object. Therefore, the present specification proposes a technique capable of performing a stereoscopic display of a virtual object so that the user can more easily browse.
視点検出部111は、センサ部140によって検出されたセンサデータに基づいてユーザの視点を検出する。例えば、視点検出部111は、センサ部140により撮像された撮像結果40に基づいてユーザの視点を検出する。視点検出部111による視点の検出手法としては、例えば、特開2012−8746号公報に開示された技術を用いることができるが、視点検出部111による視点の検出手法は特に限定されない。
The
例えば、視点検出部111は、センサ部140による筋電の測定結果に基づいて、ユーザの視点を検出してもよい。図2に示した例では、視点検出部111が表示制御装置10に備えられているが、表示制御装置10の代わりにセンサ部140に備えられていてもよい。視点検出部111によって検出されたユーザの視点は、視点取得部112によって取得される。
For example, the
行動認識部114は、ユーザの行動を認識する。例えば、行動認識部114は、ユーザの行動を認識する手法としては、例えば、特開2006−345269号公報により開示されている技術を採用することができる。かかる技術によれば、例えば、センサによりユーザの動きが検出され、検出された動きが行動認識部114により解析されることにより、ユーザの行動が認識される。
The
しかしながら、行動認識部114による行動の認識手法は、かかる例に限定されない。例えば、行動認識部114は、ユーザから行動の入力が受け付けられた場合には、ユーザからの入力が受け付けられた行動を取得してもよい。図2に示した例では、行動認識部114が表示制御装置10に備えられているが、表示制御装置10の代わりにセンサ部140に備えられていてもよい。行動認識部114によって認識されたユーザの行動は、行動取得部115によって取得される。
However, the action recognition method by the
続いて、表示制御部113は、視点取得部112によって取得された視点に基づいて、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する。かかる制御によって、ユーザの視点の遠近に応じて、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御することが可能となり、ユーザがより閲覧しやすくなるように仮想オブジェクトの立体表示を行うことが可能となる。
Subsequently, the
以下、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する手法の例をより詳細に説明する。まず、図4〜図7を参照しながら、仮想オブジェクトが天気予報画面である場合について説明する。しかし、仮想オブジェクトの種類が特に限定されない旨は上記した通りであるため、仮想オブジェクトが天気予報画面に限定されないことは言うまでもない。 Hereinafter, an example of a technique for controlling the position in the depth direction of the virtual object presented to the user will be described in more detail. First, a case where the virtual object is a weather forecast screen will be described with reference to FIGS. However, since the type of the virtual object is not particularly limited as described above, it goes without saying that the virtual object is not limited to the weather forecast screen.
図4〜図6は、静止時、歩行時および走行時それぞれにおけるユーザへの天気予報画面50−A1〜50−A3の提示の例を示す図である。図4〜図6に示すように、静止時よりも歩行時のほうがユーザの視点が遠くなり、歩行時よりも走行時のほうがユーザの視点が遠くなっている。そこで、例えば、表示制御部113は、視点がユーザから遠くなるほど、ユーザに提示される天気予報画面の奥行方向の位置を遠ざければよい。
4-6 is a figure which shows the example of presentation of the weather forecast screen 50-A1-50-A3 to a user at the time of stillness, a walk, and each time of a run. As shown in FIGS. 4 to 6, the viewpoint of the user is farther when walking than when stationary, and the viewpoint of the user is farther when traveling than when walking. Therefore, for example, the
なお、一時的に視点を変更したに過ぎない場合なども想定される。このような場合にまで、ユーザの視点の遠近が変わる度に、ユーザに提示される仮想オブジェクトの奥行方向の位置を変更してしまうと、ユーザに煩わしさを与えてしまう可能性もある。したがって、表示制御部113は、所定時間を超えても視点が変更されなかった場合に、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御するようにしてもよい。
In addition, the case where only a viewpoint was changed temporarily is assumed. In such a case, if the position in the depth direction of the virtual object presented to the user is changed every time the perspective of the user changes, there is a possibility that the user will be bothered. Therefore, the
また、天気予報画面50−A1〜50−A3それぞれには、コンテンツ(例えば、文字データ、画像データなど)が含まれている。コンテンツはユーザの行動に依存せずに一定であってもよいが、ユーザの行動に応じて変更されてもよい。例えば、表示制御部113は、行動取得部115によって取得された行動に基づいて天気予報画面に含まれるコンテンツを制御してもよい。
Each of the weather forecast screens 50-A1 to 50-A3 includes content (for example, character data, image data, etc.). The content may be constant without depending on the user's behavior, but may be changed according to the user's behavior. For example, the
天気予報画面に含まれるコンテンツの制御はどのようになされてもよいが、表示制御部113は、ユーザの行動に基づいて、仮想オブジェクトに含まれるコンテンツの情報量を制御してもよい。例えば、図4〜図6に示すように、静止時よりも歩行時のほうがコンテンツを閲覧しにくい状況が起こり得る。また、歩行時よりも走行時のほうがコンテンツを閲覧しにくい状況が起こり得る。そこで、表示制御部113は、行動の移動速度が大きいほど、ユーザに提示される天気予報画面に含まれるコンテンツの情報量が小さくなるように制御してよい。
The content included in the weather forecast screen may be controlled in any way, but the
また、表示制御部113は、ユーザの行動に基づいて、仮想オブジェクトに含まれるコンテンツの表示サイズを制御してもよい。例えば、上記したように、静止時よりも歩行時のほうがコンテンツを閲覧しにくい状況が起こり得る。また、歩行時よりも走行時のほうがコンテンツを閲覧しにくい状況が起こり得る。そこで、表示制御部113は、行動の移動速度が大きいほど、ユーザに提示される天気予報画面に含まれるコンテンツの表示サイズが大きくなるように制御してよい。
Further, the
また、表示制御部113は、ユーザの行動に基づいて、仮想オブジェクトに含まれるコンテンツの仮想オブジェクトにおける位置を制御してもよい。例えば、上記したように、静止時よりも歩行時のほうがコンテンツを閲覧しにくい状況が起こり得る。また、歩行時よりも走行時のほうがコンテンツを閲覧しにくい状況が起こり得る。そこで、表示制御部113は、行動の移動速度が大きいほど、ユーザに提示される天気予報画面に含まれるコンテンツの仮想オブジェクトにおける位置が仮想オブジェクトの端部により偏るように制御してよい。
Further, the
ユーザの行動に対応する天気予報画面は、あらかじめ作成されていてもよいし、表示が必要となる度に作成してもよい。例えば、天気予報画面があらかじめ作成されている場合、表示制御部113は、ユーザの行動に対応する天気予報画面をユーザに提示するようにすればよい。また、表示制御部113は、ユーザの行動に対応するコンテンツの情報量に基づいて天気予報画面を作成してもよい。
The weather forecast screen corresponding to the user's action may be created in advance or may be created every time display is required. For example, when a weather forecast screen is created in advance, the
同様に、表示制御部113は、ユーザの行動に対応するコンテンツの表示サイズに基づいて天気予報画面を作成してもよい。また、表示制御部113は、コンテンツの仮想オブジェクトにおける位置に基づいて天気予報画面を作成してもよい。
Similarly, the
なお、表示制御部113は、ユーザの行動に基づいて、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御してもよい。例えば、表示制御部113は、行動が示す移動速度が大きくなるほど、ユーザに提示される天気予報画面の奥行方向の位置が遠くなるように制御してもよい。
The
また、表示制御部113は、ユーザの行動および視点のいずれか一方に基づいて、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御してもよいが、ユーザの行動および視点の双方に基づいて、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御してもよい。あるいは、表示制御部113は、状況に応じてユーザの行動および視点のいずれを優先して利用するかを決めてもよい。
The
図7は、運転時におけるユーザへの天気予報画面50−A4の提示の例を示す図である。図7に示すように、ユーザが自動車を運転している場合、行動は「静止時」であるが、視点はユーザから遠いことがよくある。そのため、表示制御部113は、行動よりも視点を優先して利用し、視点に基づいて、ユーザに提示される天気予報画面50−A4の奥行方向の位置を制御すればよい。
FIG. 7 is a diagram illustrating an example of presentation of the weather forecast screen 50-A4 to the user during driving. As shown in FIG. 7, when the user is driving a car, the behavior is “at rest”, but the viewpoint is often far from the user. Therefore, the
図8〜図10は、静止時、歩行時および走行時それぞれにおけるユーザへのナビゲーション画面50−B1〜50−B3の提示の例を示す図である。図8〜図10に示したように、仮想オブジェクトがナビゲーション画面である場合も、仮想オブジェクトが天気予報画面である場合と同様にして、ユーザに提示される仮想オブジェクトの奥行方向の位置が制御され得る。仮想オブジェクトがナビゲーション画面に限定されないことは言うまでもない。 8-10 is a figure which shows the example of presentation of navigation screen 50-B1-50-B3 to a user at the time of stillness, a walk, and a driving | running | working, respectively. As shown in FIGS. 8 to 10, when the virtual object is the navigation screen, the depth direction position of the virtual object presented to the user is controlled in the same manner as when the virtual object is the weather forecast screen. obtain. Needless to say, the virtual object is not limited to the navigation screen.
また、図11〜図13は、静止時、歩行時および走行時それぞれにおけるユーザへのランニングアプリケーション画面50−C1〜50−C3の提示の例を示す図である。図11〜図13に示したように、仮想オブジェクトがランニングアプリケーション画面である場合も、仮想オブジェクトが天気予報画面である場合と同様にして、ユーザに提示される仮想オブジェクトの奥行方向の位置が制御され得る。仮想オブジェクトがランニングアプリケーション画面に限定されないことは言うまでもない。 11 to 13 are diagrams showing examples of presentation of the running application screens 50-C1 to 50-C3 to the user when stationary, walking and running. As shown in FIGS. 11 to 13, when the virtual object is the running application screen, the depth direction position of the virtual object presented to the user is controlled in the same manner as when the virtual object is the weather forecast screen. Can be done. Needless to say, the virtual object is not limited to the running application screen.
上記した例では、ユーザ自身の視点や行動に基づいて仮想オブジェクトを制御する手法について説明したが、他にも様々な要因に基づいて仮想オブジェクトを制御することも考えられる。一例として、画像取得部116は、撮像部130によって撮像された撮像画像30を取得し、表示制御部113は、画像取得部116によって取得された撮像画像30に基づいて仮想オブジェクトを制御してもよい。かかる制御によれば、ユーザの周囲の環境に応じて仮想オブジェクトを制御することが可能となる。
In the example described above, the method of controlling the virtual object based on the user's own viewpoint and behavior has been described, but it is also conceivable to control the virtual object based on various other factors. As an example, the
撮像画像30に基づいた仮想オブジェクトの制御の手法は特に限定されないが、例えば、表示制御部113は、撮像画像30の輝度情報に基づいて仮想オブジェクトの表示位置を制御してもよい。図14は、撮像画像30の輝度情報に基づいて仮想オブジェクト50の表示位置を制御する例を示す図である。図14を参照すると、撮像画像30−Aには、領域30−A1と領域30−A2が映っている。
The method for controlling the virtual object based on the captured
ここで、表示制御部113は、仮想オブジェクト50を領域30−A1に表示させようとしたところ、領域30−A1の輝度が閾値より高いことを検出したとする。一方、表示制御部113は、領域30−A2の輝度が閾値より低いことを検出したとする。かかる場合、表示制御部113は、仮想オブジェクト50の表示位置を領域30−A2に変更することが可能である。このようにすれば、ユーザがより閲覧しやすい仮想オブジェクト50を提示することが可能となる。
Here, it is assumed that the
なお、表示制御部113が仮想オブジェクト50の表示位置を制御する例を説明したが、表示制御部113は、撮像画像30の輝度情報に基づいて仮想オブジェクトの輝度を制御してもよい。例えば、図14に示した例において、表示制御部113は、仮想オブジェクト50の表示位置を領域30−A2に変更する代わりに、仮想オブジェクト50の輝度を高めてもよい。このようにしても、ユーザが閲覧しやすい仮想オブジェクト50を提示することが可能となる。
Although the example in which the
また、表示制御部113は、撮像画像30の色情報に基づいて仮想オブジェクトの表示位置を制御してもよい。図15は、撮像画像30の色情報に基づいて仮想オブジェクト50の表示位置を制御する例を示す図である。図15を参照すると、撮像画像30−Bには、領域30−B1と領域30−B2が映っている。
Further, the
ここで、表示制御部113は、仮想オブジェクト50を領域30−B1に表示させようとしたところ、領域30−B1と仮想オブジェクト50とが類似色であることを検出したとする。一方、表示制御部113は、領域30−B2と仮想オブジェクト50とは類似色ではないことを検出したとする。かかる場合、表示制御部113は、仮想オブジェクト50の表示位置を領域30−B2に変更することが可能である。このようにすれば、ユーザがより閲覧しやすい仮想オブジェクト50を提示することが可能となる。
Here, it is assumed that the
例えば、表示制御部113は、領域30−B2の色と仮想オブジェクト50の色との距離が閾値を下回る場合に、領域30−B2と仮想オブジェクト50とが類似色であることを検出する。領域30−B2の色と仮想オブジェクト50の色との距離は、領域30−B2のR値、G値およびB値をX軸、Y軸およびZ軸にプロットし、仮想オブジェクト50のR値、G値およびB値をX軸、Y軸およびZ軸にプロットした場合に、2点間の3次元的な距離により算出され得る。
For example, when the distance between the color of the region 30-B2 and the color of the
なお、表示制御部113が仮想オブジェクト50の表示位置を制御する例を説明したが、表示制御部113は、撮像画像30の色情報に基づいて仮想オブジェクトの色を制御してもよい。例えば、図15に示した例において、表示制御部113は、仮想オブジェクト50の表示位置を領域30−B2に変更する代わりに、仮想オブジェクト50の色を変更してもよい。表示制御部113は、仮想オブジェクト50の色を領域30−B2の色の補色に変更してもよい。このようにしても、ユーザが閲覧しやすい仮想オブジェクト50を提示することが可能となる。
Although the example in which the
また、例えば、表示制御部113は、撮像画像30から抽出された特徴量に基づいて、仮想オブジェクト50の表示位置を制御してもよい。再度、図14を参照する。ここで、表示制御部113は、仮想オブジェクト50を領域30−A1に表示させようとしたところ、領域30−A1には壁の前に物体が映っているため、領域30−A1から抽出した特徴量の安定度が閾値より小さいことを検出する。一方、表示制御部113は、領域30−A2には壁の前に物体が映っていないため、領域30−A2から抽出した特徴量の安定度が閾値より大きいことを検出する。
For example, the
かかる場合、表示制御部113は、仮想オブジェクト50の表示位置を領域30−A2に変更することが可能である。このようにすれば、ユーザがより閲覧しやすい仮想オブジェクト50を提示することが可能となる。各領域における特徴量の安定度はどのように算出されてもよいが、例えば、表示制御部113は、各領域における特徴量の最大値と最小値との差分値が小さいほど安定度を高く算出してよい。
In such a case, the
また、例えば、表示制御部113は、撮像画像30から物体が検出された場合、物体の位置に基づいて、ユーザに提示される仮想オブジェクト50の位置を制御してもよい。再度、図14を参照しながら、壁を物体の例として取り上げて説明する。ここで、表示制御部113は、仮想オブジェクト50を表示させようとしたところ、領域30−A2に壁が映っていることを認識したとする。かかる場合、表示制御部113は、壁が映っていると認識した領域30−A2に仮想オブジェクト50を表示させればよい。
For example, when an object is detected from the captured
さらに、表示制御部113は、仮想オブジェクト50の奥行方向の位置を制御してもよい。例えば、表示制御部113は、撮像部130からフォーカスが合っている対象までの距離を壁の奥行方向における位置として測定し、仮想オブジェクト50の奥行方向の位置が壁の奥行方向における位置に合うようにすればよい。このようにすれば、物体の奥行方向における位置に合わせて仮想オブジェクト50の奥行方向の位置も調整されるため、より自然に仮想オブジェクト50を提示することが可能となる。
Further, the
ここで、上記したように、情報処理システム1には、ユーザUの目領域に到達する光の量を調整する遮光部160が備えられている。遮光部160による遮光量は一定であってもよいが、状況に応じて制御されてもよい。例えば、遮光制御部117は、撮像画像30の輝度情報に基づいて遮光部160による遮光量を制御してもよい。図16および図17は、撮像画像30の輝度情報に基づいて遮光量を制御する例を示す図である。
Here, as described above, the
図16に示した例では、画像取得部116によって撮像画像30−C1が取得されている。ここで、撮像画像30−C1が明るい場所において撮像されたため、輝度が大きかったとする。かかる場合、遮光制御部117は、遮光量が大きくなるように遮光部160(遮光部160Lおよび遮光部160R)を制御してもよい。
In the example illustrated in FIG. 16, the captured image 30 -
一方、図17に示した例では、画像取得部116によって撮像画像30−C2が取得されている。ここで、撮像画像30−C2が暗い場所において撮像されたため、輝度が小さかったとする。かかる場合、遮光制御部117は、遮光量が小さくなるように遮光部160(遮光部160Lおよび遮光部160R)を制御してもよい。
On the other hand, in the example illustrated in FIG. 17, the captured image 30 -C 2 is acquired by the
このようにして、遮光制御部117は、撮像画像30の輝度が高いほど、遮光部160による遮光量が大きくなるように遮光部160を制御してよい。かかる制御によれば、ユーザの視野が明るいときほど、ユーザの目に入射する光の量をより小さくすることが可能となり、ユーザが仮想オブジェクト50をさらに閲覧しやすくなることが期待できる。
In this way, the light
以上、本開示の実施形態に係る表示制御装置10の機能詳細について説明した。
The function details of the
[1−4.表示制御装置の動作]
続いて、本開示の実施形態に係る表示制御装置10の動作の流れについて説明する。図18は、本開示の実施形態に係る表示制御装置10の動作の流れを示すフローチャートである。なお、図18に示した例は、本開示の実施形態に係る表示制御装置10の動作の流れの一例に過ぎない。したがって、本開示の実施形態に係る表示制御装置10の動作の流れは、図18に示した例に限定されない。
[1-4. Operation of display control device]
Subsequently, a flow of operations of the
図18に示すように、まず、視点取得部112は、視点検出部111によって検出されたユーザの視点を取得し(S11)、行動取得部115は、行動認識部114によって認識されたユーザの行動を取得する(S12)。また、画像取得部116は、撮像部130によって撮像された撮像画像を取得する(S13)。表示制御部113は、視点取得部112によって取得された視点に基づいて、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する(S14)。
As illustrated in FIG. 18, first, the
また、表示制御部113は、行動取得部115によって取得された行動に基づいて、仮想オブジェクトに含まれるコンテンツを制御する(S15)。さらに、表示制御部113は、撮像部130によって撮像された撮像画像に基づいて仮想オブジェクトを制御する(S16)。遮光制御部117は、撮像画像の輝度情報に基づいて遮光部160による遮光量を制御する(S17)。制御部110は、S17の動作が終了した後は、S11の動作に再度戻ってもよいし、動作を終了させてもよい。
Further, the
以上、本開示の実施形態に係る表示制御装置10の動作の流れについて説明した。
The flow of operations of the
[1−5.ハードウェア構成例]
続いて、本開示の実施形態に係る表示制御装置10のハードウェア構成例について説明する。図19は、本開示の実施形態に係る表示制御装置10のハードウェア構成例を示す図である。ただし、図19に示したハードウェア構成例は、表示制御装置10のハードウェア構成の一例を示したに過ぎない。したがって、表示制御装置10のハードウェア構成は、図19に示した例に限定されない。
[1-5. Hardware configuration example]
Subsequently, a hardware configuration example of the
図19に示したように、表示制御装置10は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、入力装置908と、出力装置910と、ストレージ装置911と、ドライブ912とを備える。
As shown in FIG. 19, the
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って表示制御装置10内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。
The
入力装置908は、センサ部140により測定されたセンサデータ(例えば、センサ部140により撮像された撮像結果)および撮像部130により撮像された撮像画像の入力を受け付ける。入力装置908により入力が受け付けられたセンサデータおよび撮像画像は、CPU901に出力される。また、入力装置908は、他のセンサにより検出された検出結果を、CPU901に出力してもよい。
The
出力装置910は、表示部150に対して出力データを提供する。例えば、出力装置910は、CPU901による制御に従って表示データを表示部150に提供する。また、表示部150が音声出力装置により構成されている場合には、出力装置910は、CPU901による制御に従って音声データを表示部150に提供する。
The
ストレージ装置911は、表示制御装置10の記憶部120の一例として構成されたデータ格納用の装置である。ストレージ装置911は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置911は、CPU901が実行するプログラムや各種データを格納する。
The
ドライブ912は、記憶媒体用リーダライタであり、表示制御装置10に内蔵、あるいは外付けされる。ドライブ912は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体71に記録されている情報を読み出して、RAM903に出力する。また、ドライブ912は、リムーバブル記憶媒体71に情報を書き込むこともできる。
The
以上、本開示の実施形態に係る表示制御装置10のハードウェア構成例について説明した。
Heretofore, the hardware configuration example of the
<<2.むすび>>
以上説明したように、本開示の実施形態によれば、視点検出部111によって検出されたユーザの視点を取得する視点取得部112と、仮想オブジェクト50が表示部150によって立体表示されるように表示部150を制御する表示制御部113と、を備え、表示制御部113は、視点に基づいて、ユーザに提示される仮想オブジェクト50の奥行方向の位置を制御する、表示制御装置10が提供される。かかる構成によれば、ユーザがより閲覧しやすくなるように仮想オブジェクトの立体表示を行うことが可能となる。
<< 2. Conclusion >>
As described above, according to the embodiment of the present disclosure, the
なお、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 In addition, although preferred embodiment of this indication was described in detail, referring an accompanying drawing, the technical scope of this indication is not limited to this example. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した表示制御装置10が有する構成と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
In addition, it is possible to create a program for causing hardware such as a CPU, ROM, and RAM incorporated in a computer to exhibit functions equivalent to the configuration of the
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
視点検出部によって検出されたユーザの視点を取得する視点取得部と、
仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御する表示制御部と、を備え、
前記表示制御部は、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、
表示制御装置。
(2)
前記表示制御装置は、
行動認識部によって認識されたユーザの行動を取得する行動取得部をさらに備え、
前記表示制御部は、前記行動に基づいて前記仮想オブジェクトに含まれるコンテンツを制御する、
前記(1)に記載の表示制御装置。
(3)
前記表示制御部は、前記行動に基づいて、前記仮想オブジェクトに含まれるコンテンツの情報量を制御する、
前記(2)に記載の表示制御装置。
(4)
前記表示制御部は、前記行動に基づいて、前記仮想オブジェクトに含まれるコンテンツの表示サイズを制御する、
前記(2)に記載の表示制御装置。
(5)
前記表示制御部は、前記行動に基づいて、前記仮想オブジェクトに含まれるコンテンツの前記仮想オブジェクトにおける位置を制御する、
前記(2)に記載の表示制御装置。
(6)
前記表示制御装置は、
行動認識部によって認識されたユーザの行動を取得する行動取得部をさらに備え、
前記表示制御部は、前記行動に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、
前記(1)に記載の表示制御装置。
(7)
前記表示制御装置は、
撮像部によって撮像された撮像画像を取得する画像取得部をさらに備え、
前記表示制御部は、前記撮像画像に基づいて前記仮想オブジェクトを制御する、
前記(1)〜(6)のいずれか一項に記載の表示制御装置。
(8)
前記表示制御部は、前記撮像画像の輝度情報に基づいて前記仮想オブジェクトの表示位置を制御する、
前記(7)に記載の表示制御装置。
(9)
前記表示制御部は、前記撮像画像の輝度情報に基づいて前記仮想オブジェクトの輝度を制御する、
前記(7)に記載の表示制御装置。
(10)
前記表示制御部は、前記撮像画像の色情報に基づいて前記仮想オブジェクトの表示位置を制御する、
前記(7)に記載の表示制御装置。
(11)
前記表示制御部は、前記撮像画像の色情報に基づいて前記仮想オブジェクトの色を制御する、
前記(7)に記載の表示制御装置。
(12)
前記表示制御部は、前記撮像画像から抽出された特徴量に基づいて、前記仮想オブジェクトの表示位置を制御する、
前記(7)に記載の表示制御装置。
(13)
前記表示制御装置は、
撮像部によって撮像された撮像画像を取得する画像取得部と、
前記撮像画像の輝度情報に基づいて遮光部による遮光量を制御する遮光制御部と、
をさらに備える、
前記(1)〜(12)のいずれか一項に記載の表示制御装置。
(14)
前記表示制御部は、前記ユーザの左眼に提示される左眼画像の表示位置と前記ユーザの右眼に提示される右眼画像の表示位置とを制御することによって、前記ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する、
前記(1)〜(13)のいずれか一項に記載の表示制御装置。
(15)
前記表示制御装置は、
撮像部によって撮像された撮像画像を取得する画像取得部をさらに備え、
前記表示制御部は、前記撮像画像から物体が検出された場合、前記物体の位置に基づいて、前記ユーザに提示される前記仮想オブジェクトの位置を制御する、
前記(1)〜(14)のいずれか一項に記載の表示制御装置。
(16)
前記表示制御部は、前記視点が前記ユーザから遠くなるほど、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を遠ざける、
前記(1)〜(15)のいずれか一項に記載の表示制御装置。
(17)
視点検出部によって検出されたユーザの視点を取得することと、
仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御することと、を含み、
前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御すること、
を含む、表示制御方法。
(18)
コンピュータを、
視点検出部によって検出されたユーザの視点を取得する視点取得部と、
仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御する表示制御部と、を備え、
前記表示制御部は、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、
表示制御装置として機能させるためのプログラムを記録した、コンピュータに読み取り可能な記録媒体。
The following configurations also belong to the technical scope of the present disclosure.
(1)
A viewpoint acquisition unit that acquires the viewpoint of the user detected by the viewpoint detection unit;
A display control unit that controls the display unit so that the virtual object is stereoscopically displayed by the display unit,
The display control unit controls the position in the depth direction of the virtual object presented to the user based on the viewpoint.
Display control device.
(2)
The display control device includes:
An action acquisition unit for acquiring the user's action recognized by the action recognition unit;
The display control unit controls content included in the virtual object based on the behavior.
The display control device according to (1).
(3)
The display control unit controls an information amount of content included in the virtual object based on the behavior;
The display control apparatus according to (2).
(4)
The display control unit controls a display size of content included in the virtual object based on the behavior;
The display control apparatus according to (2).
(5)
The display control unit controls a position of the content included in the virtual object in the virtual object based on the behavior;
The display control apparatus according to (2).
(6)
The display control device includes:
An action acquisition unit for acquiring the user's action recognized by the action recognition unit;
The display control unit controls the position in the depth direction of the virtual object presented to the user based on the action.
The display control device according to (1).
(7)
The display control device includes:
An image acquisition unit that acquires a captured image captured by the imaging unit;
The display control unit controls the virtual object based on the captured image;
The display control apparatus according to any one of (1) to (6).
(8)
The display control unit controls a display position of the virtual object based on luminance information of the captured image;
The display control apparatus according to (7).
(9)
The display control unit controls the luminance of the virtual object based on luminance information of the captured image.
The display control apparatus according to (7).
(10)
The display control unit controls a display position of the virtual object based on color information of the captured image;
The display control apparatus according to (7).
(11)
The display control unit controls a color of the virtual object based on color information of the captured image;
The display control apparatus according to (7).
(12)
The display control unit controls a display position of the virtual object based on a feature amount extracted from the captured image;
The display control apparatus according to (7).
(13)
The display control device includes:
An image acquisition unit for acquiring a captured image captured by the imaging unit;
A light shielding control unit that controls a light shielding amount by the light shielding unit based on luminance information of the captured image;
Further comprising
The display control apparatus according to any one of (1) to (12).
(14)
The display control unit is presented to the user by controlling a display position of a left eye image presented to the left eye of the user and a display position of a right eye image presented to the right eye of the user. Control the position of the virtual object in the depth direction,
The display control apparatus according to any one of (1) to (13).
(15)
The display control device includes:
An image acquisition unit that acquires a captured image captured by the imaging unit;
The display control unit, when an object is detected from the captured image, controls the position of the virtual object presented to the user based on the position of the object.
The display control apparatus according to any one of (1) to (14).
(16)
The display control unit increases the depth direction position of the virtual object presented to the user as the viewpoint is farther from the user.
The display control apparatus according to any one of (1) to (15).
(17)
Obtaining the user's viewpoint detected by the viewpoint detector;
Controlling the display unit such that the virtual object is stereoscopically displayed by the display unit,
Controlling the position in the depth direction of the virtual object presented to the user based on the viewpoint;
Including a display control method.
(18)
Computer
A viewpoint acquisition unit that acquires the viewpoint of the user detected by the viewpoint detection unit;
A display control unit that controls the display unit so that the virtual object is stereoscopically displayed by the display unit,
The display control unit controls the position in the depth direction of the virtual object presented to the user based on the viewpoint.
A computer-readable recording medium having recorded thereon a program for causing it to function as a display control device.
1 情報処理システム
10 表示制御装置
30 撮像画像
40 撮像結果
50 仮想オブジェクト
110 制御部
111 視点検出部
112 視点取得部
113 表示制御部
114 行動認識部
115 行動取得部
116 画像取得部
117 遮光制御部
120 記憶部
130 撮像部
140 センサ部
150(150L、150R) 表示部
160(160L、160R) 遮光部
DESCRIPTION OF
Claims (18)
仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御する表示制御部と、を備え、
前記表示制御部は、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、
表示制御装置。 A viewpoint acquisition unit that acquires the viewpoint of the user detected by the viewpoint detection unit;
A display control unit that controls the display unit so that the virtual object is stereoscopically displayed by the display unit,
The display control unit controls the position in the depth direction of the virtual object presented to the user based on the viewpoint.
Display control device.
行動認識部によって認識されたユーザの行動を取得する行動取得部をさらに備え、
前記表示制御部は、前記行動に基づいて前記仮想オブジェクトに含まれるコンテンツを制御する、
請求項1に記載の表示制御装置。 The display control device includes:
An action acquisition unit for acquiring the user's action recognized by the action recognition unit;
The display control unit controls content included in the virtual object based on the behavior.
The display control apparatus according to claim 1.
請求項2に記載の表示制御装置。 The display control unit controls an information amount of content included in the virtual object based on the behavior;
The display control apparatus according to claim 2.
請求項2に記載の表示制御装置。 The display control unit controls a display size of content included in the virtual object based on the behavior;
The display control apparatus according to claim 2.
請求項2に記載の表示制御装置。 The display control unit controls a position of the content included in the virtual object in the virtual object based on the behavior;
The display control apparatus according to claim 2.
行動認識部によって認識されたユーザの行動を取得する行動取得部をさらに備え、
前記表示制御部は、前記行動に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、
請求項1に記載の表示制御装置。 The display control device includes:
An action acquisition unit for acquiring the user's action recognized by the action recognition unit;
The display control unit controls the position in the depth direction of the virtual object presented to the user based on the action.
The display control apparatus according to claim 1.
撮像部によって撮像された撮像画像を取得する画像取得部をさらに備え、
前記表示制御部は、前記撮像画像に基づいて前記仮想オブジェクトを制御する、
請求項1に記載の表示制御装置。 The display control device includes:
An image acquisition unit that acquires a captured image captured by the imaging unit;
The display control unit controls the virtual object based on the captured image;
The display control apparatus according to claim 1.
請求項7に記載の表示制御装置。 The display control unit controls a display position of the virtual object based on luminance information of the captured image;
The display control apparatus according to claim 7.
請求項7に記載の表示制御装置。 The display control unit controls the luminance of the virtual object based on luminance information of the captured image.
The display control apparatus according to claim 7.
請求項7に記載の表示制御装置。 The display control unit controls a display position of the virtual object based on color information of the captured image;
The display control apparatus according to claim 7.
請求項7に記載の表示制御装置。 The display control unit controls a color of the virtual object based on color information of the captured image;
The display control apparatus according to claim 7.
請求項7に記載の表示制御装置。 The display control unit controls a display position of the virtual object based on a feature amount extracted from the captured image;
The display control apparatus according to claim 7.
撮像部によって撮像された撮像画像を取得する画像取得部と、
前記撮像画像の輝度情報に基づいて遮光部による遮光量を制御する遮光制御部と、
をさらに備える、
請求項1に記載の表示制御装置。 The display control device includes:
An image acquisition unit for acquiring a captured image captured by the imaging unit;
A light shielding control unit that controls a light shielding amount by the light shielding unit based on luminance information of the captured image;
Further comprising
The display control apparatus according to claim 1.
請求項1に記載の表示制御装置。 The display control unit is presented to the user by controlling a display position of a left eye image presented to the left eye of the user and a display position of a right eye image presented to the right eye of the user. Control the position of the virtual object in the depth direction,
The display control apparatus according to claim 1.
撮像部によって撮像された撮像画像を取得する画像取得部をさらに備え、
前記表示制御部は、前記撮像画像から物体が検出された場合、前記物体の位置に基づいて、前記ユーザに提示される前記仮想オブジェクトの位置を制御する、
請求項1に記載の表示制御装置。 The display control device includes:
An image acquisition unit that acquires a captured image captured by the imaging unit;
The display control unit, when an object is detected from the captured image, controls the position of the virtual object presented to the user based on the position of the object.
The display control apparatus according to claim 1.
請求項1に記載の表示制御装置。 The display control unit increases the depth direction position of the virtual object presented to the user as the viewpoint is farther from the user.
The display control apparatus according to claim 1.
仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御することと、を含み、
前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御すること、
を含む、表示制御方法。 Obtaining the user's viewpoint detected by the viewpoint detector;
Controlling the display unit such that the virtual object is stereoscopically displayed by the display unit,
Controlling the position in the depth direction of the virtual object presented to the user based on the viewpoint;
Including a display control method.
視点検出部によって検出されたユーザの視点を取得する視点取得部と、
仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御する表示制御部と、を備え、
前記表示制御部は、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、
表示制御装置として機能させるためのプログラムを記録した、コンピュータに読み取り可能な記録媒体。
Computer
A viewpoint acquisition unit that acquires the viewpoint of the user detected by the viewpoint detection unit;
A display control unit that controls the display unit so that the virtual object is stereoscopically displayed by the display unit,
The display control unit controls the position in the depth direction of the virtual object presented to the user based on the viewpoint.
A computer-readable recording medium having recorded thereon a program for causing it to function as a display control device.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013102884A JP6318470B2 (en) | 2013-05-15 | 2013-05-15 | Display control device, display control method, and recording medium |
EP14723136.9A EP2997445A1 (en) | 2013-05-15 | 2014-04-10 | Display control device, display control method, and recording medium |
CN201480025979.6A CN105210009B (en) | 2013-05-15 | 2014-04-10 | Display control unit, display control method and recording medium |
PCT/JP2014/002065 WO2014185002A1 (en) | 2013-05-15 | 2014-04-10 | Display control device, display control method, and recording medium |
US14/888,788 US20160078685A1 (en) | 2013-05-15 | 2014-04-10 | Display control device, display control method, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013102884A JP6318470B2 (en) | 2013-05-15 | 2013-05-15 | Display control device, display control method, and recording medium |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2014225727A true JP2014225727A (en) | 2014-12-04 |
JP2014225727A5 JP2014225727A5 (en) | 2016-03-17 |
JP6318470B2 JP6318470B2 (en) | 2018-05-09 |
Family
ID=50687547
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013102884A Active JP6318470B2 (en) | 2013-05-15 | 2013-05-15 | Display control device, display control method, and recording medium |
Country Status (5)
Country | Link |
---|---|
US (1) | US20160078685A1 (en) |
EP (1) | EP2997445A1 (en) |
JP (1) | JP6318470B2 (en) |
CN (1) | CN105210009B (en) |
WO (1) | WO2014185002A1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016143744A1 (en) * | 2015-03-12 | 2016-09-15 | 日本精機株式会社 | Head mounted display device |
JP2016171550A (en) * | 2015-03-12 | 2016-09-23 | 日本精機株式会社 | Head-mounted display device |
US9977241B2 (en) | 2015-03-17 | 2018-05-22 | Seiko Epson Corporation | Head-mounted display device, control method for head-mounted display device, and computer program |
JP2019512769A (en) * | 2016-02-18 | 2019-05-16 | イーディーエックス テクノロジーズ インコーポレイテッド | System and method for augmented reality representation of a network |
JP6892961B1 (en) * | 2020-09-29 | 2021-06-23 | Kddi株式会社 | Control device, display control method and display control program |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11508257B2 (en) * | 2017-03-07 | 2022-11-22 | 8259402 Canada Inc. | Method to control a virtual image in a display |
CN111034190B (en) * | 2017-08-29 | 2022-04-15 | 索尼公司 | Information processing apparatus, information processing method, and program |
KR102486421B1 (en) * | 2017-10-16 | 2023-01-10 | 삼성디스플레이 주식회사 | Head mount display device and operation method of the same |
US20230186434A1 (en) * | 2021-12-09 | 2023-06-15 | Unity Technologies Sf | Defocus operations for a virtual display with focus and defocus determined based on camera settings |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09322197A (en) * | 1996-05-24 | 1997-12-12 | Olympus Optical Co Ltd | Stereoscopic vision display device |
WO2006064655A1 (en) * | 2004-12-14 | 2006-06-22 | Matsushita Electric Industrial Co., Ltd. | Information presentation device and information presentation method |
JP2007210462A (en) * | 2006-02-09 | 2007-08-23 | Mitsubishi Motors Corp | Display control device for vehicle and display system for vehicle |
JP2007219081A (en) * | 2006-02-15 | 2007-08-30 | Canon Inc | Image display system |
JP2008065169A (en) * | 2006-09-08 | 2008-03-21 | Sony Corp | Display device and display method |
JP2008176096A (en) * | 2007-01-19 | 2008-07-31 | Brother Ind Ltd | Image display |
JP2010170316A (en) * | 2009-01-22 | 2010-08-05 | Konami Digital Entertainment Co Ltd | Apparatus, method and program for displaying augmented reality |
JP2011128220A (en) * | 2009-12-15 | 2011-06-30 | Toshiba Corp | Information presenting device, information presenting method, and program |
JP2012078224A (en) * | 2010-10-01 | 2012-04-19 | Olympus Corp | Image generation system, program, and information storage medium |
JP2012118121A (en) * | 2010-11-29 | 2012-06-21 | Canon Inc | Video display device, video display method, and program |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040243307A1 (en) * | 2003-06-02 | 2004-12-02 | Pieter Geelen | Personal GPS navigation device |
JP4507992B2 (en) * | 2005-06-09 | 2010-07-21 | ソニー株式会社 | Information processing apparatus and method, and program |
WO2009002567A1 (en) * | 2007-06-27 | 2008-12-31 | The University Of Hawaii | Virtual reality overlay |
WO2010089989A1 (en) * | 2009-02-05 | 2010-08-12 | パナソニック株式会社 | Information display device and information display method |
JP5343676B2 (en) * | 2009-04-08 | 2013-11-13 | ソニー株式会社 | Image processing apparatus, image processing method, and computer program |
JP5548042B2 (en) | 2010-06-23 | 2014-07-16 | ソフトバンクモバイル株式会社 | User terminal device and shopping system |
JP5499985B2 (en) * | 2010-08-09 | 2014-05-21 | ソニー株式会社 | Display assembly |
JP5726201B2 (en) * | 2010-10-19 | 2015-05-27 | 三菱電機株式会社 | Three-dimensional stereoscopic display device, three-dimensional stereoscopic display control device, and LSI circuit |
US9727132B2 (en) * | 2011-07-01 | 2017-08-08 | Microsoft Technology Licensing, Llc | Multi-visor: managing applications in augmented reality environments |
JP5960466B2 (en) * | 2012-03-28 | 2016-08-02 | 京セラ株式会社 | Image processing apparatus, imaging apparatus, vehicle driving support apparatus, and image processing method |
DE102012224173A1 (en) * | 2012-07-04 | 2013-03-14 | Continental Teves Ag & Co. Ohg | Fastening device for fixing cable of wheel speed sensor at vehicle body of motor vehicle, has guide element mounted in clamp at support partially surrounding clamp corresponding to outer surface, and clamp for receiving and fixing cable |
US9568735B2 (en) * | 2012-08-07 | 2017-02-14 | Industry-University Cooperation Foundation Hanyang University | Wearable display device having a detection function |
KR101845350B1 (en) * | 2013-03-26 | 2018-05-18 | 세이코 엡슨 가부시키가이샤 | Head-mounted display device, control method of head-mounted display device, and display system |
US9317114B2 (en) * | 2013-05-07 | 2016-04-19 | Korea Advanced Institute Of Science And Technology | Display property determination |
-
2013
- 2013-05-15 JP JP2013102884A patent/JP6318470B2/en active Active
-
2014
- 2014-04-10 CN CN201480025979.6A patent/CN105210009B/en active Active
- 2014-04-10 US US14/888,788 patent/US20160078685A1/en not_active Abandoned
- 2014-04-10 EP EP14723136.9A patent/EP2997445A1/en not_active Withdrawn
- 2014-04-10 WO PCT/JP2014/002065 patent/WO2014185002A1/en active Application Filing
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09322197A (en) * | 1996-05-24 | 1997-12-12 | Olympus Optical Co Ltd | Stereoscopic vision display device |
WO2006064655A1 (en) * | 2004-12-14 | 2006-06-22 | Matsushita Electric Industrial Co., Ltd. | Information presentation device and information presentation method |
JP2007210462A (en) * | 2006-02-09 | 2007-08-23 | Mitsubishi Motors Corp | Display control device for vehicle and display system for vehicle |
JP2007219081A (en) * | 2006-02-15 | 2007-08-30 | Canon Inc | Image display system |
JP2008065169A (en) * | 2006-09-08 | 2008-03-21 | Sony Corp | Display device and display method |
JP2008176096A (en) * | 2007-01-19 | 2008-07-31 | Brother Ind Ltd | Image display |
JP2010170316A (en) * | 2009-01-22 | 2010-08-05 | Konami Digital Entertainment Co Ltd | Apparatus, method and program for displaying augmented reality |
JP2011128220A (en) * | 2009-12-15 | 2011-06-30 | Toshiba Corp | Information presenting device, information presenting method, and program |
JP2012078224A (en) * | 2010-10-01 | 2012-04-19 | Olympus Corp | Image generation system, program, and information storage medium |
JP2012118121A (en) * | 2010-11-29 | 2012-06-21 | Canon Inc | Video display device, video display method, and program |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016143744A1 (en) * | 2015-03-12 | 2016-09-15 | 日本精機株式会社 | Head mounted display device |
JP2016171550A (en) * | 2015-03-12 | 2016-09-23 | 日本精機株式会社 | Head-mounted display device |
US10288882B2 (en) | 2015-03-12 | 2019-05-14 | Nippon Seiki Co., Ltd. | Head mounted display device |
US9977241B2 (en) | 2015-03-17 | 2018-05-22 | Seiko Epson Corporation | Head-mounted display device, control method for head-mounted display device, and computer program |
US10175484B2 (en) | 2015-03-17 | 2019-01-08 | Seiko Epson Corporation | Head-mounted display device, control method for head-mounted display device, and computer program |
JP2019512769A (en) * | 2016-02-18 | 2019-05-16 | イーディーエックス テクノロジーズ インコーポレイテッド | System and method for augmented reality representation of a network |
US11120628B2 (en) | 2016-02-18 | 2021-09-14 | Edx Technologies, Inc. | Systems and methods for augmented reality representations of networks |
JP7133470B2 (en) | 2016-02-18 | 2022-09-08 | イーディーエックス テクノロジーズ インコーポレイテッド | System and method for network augmented reality representation |
JP6892961B1 (en) * | 2020-09-29 | 2021-06-23 | Kddi株式会社 | Control device, display control method and display control program |
JP2022055698A (en) * | 2020-09-29 | 2022-04-08 | Kddi株式会社 | Control device, display control method, and display control program |
Also Published As
Publication number | Publication date |
---|---|
WO2014185002A1 (en) | 2014-11-20 |
US20160078685A1 (en) | 2016-03-17 |
CN105210009A (en) | 2015-12-30 |
JP6318470B2 (en) | 2018-05-09 |
CN105210009B (en) | 2018-08-14 |
EP2997445A1 (en) | 2016-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6318470B2 (en) | Display control device, display control method, and recording medium | |
US10943409B2 (en) | Information processing apparatus, information processing method, and program for correcting display information drawn in a plurality of buffers | |
KR102358983B1 (en) | Human-body-gesture-based region and volume selection for hmd | |
CA2998600C (en) | Vehicular display apparatus and vehicular display method | |
US9563981B2 (en) | Information processing apparatus, information processing method, and program | |
US10534428B2 (en) | Image processing device and image processing method, display device and display method, and image display system | |
CN108292448B (en) | Information processing apparatus, information processing method, and program | |
US9375639B2 (en) | Image display system and head-mounted display device | |
US8847850B1 (en) | Head mounted display device for displaying augmented reality image capture guide and control method for the same | |
EP2933707A1 (en) | Head mounted display presentation adjustment | |
KR102114618B1 (en) | Portable and method for controlling the same | |
JP2016520891A5 (en) | ||
WO2017169273A1 (en) | Information processing device, information processing method, and program | |
JP6292478B2 (en) | Information display system having transmissive HMD and display control program | |
CN104977716A (en) | Eyepiece-type display apparatus and display control method therefor | |
KR20160138193A (en) | Multi mode display system | |
GB2540032A (en) | Data browse apparatus, data browse method, program, and storage medium | |
CN108885497B (en) | Information processing apparatus, information processing method, and computer readable medium | |
US20200057494A1 (en) | Electronic device | |
EP3316117A1 (en) | Controlling content displayed in a display | |
US10586392B2 (en) | Image display apparatus using foveated rendering | |
US11366318B2 (en) | Electronic device and control method thereof | |
US10650601B2 (en) | Information processing device and information processing method | |
JP2012058353A (en) | Image display device and control method thereof | |
JP6713591B1 (en) | Display control device, display control method, program, and non-transitory computer-readable information recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160202 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170922 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180306 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180319 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6318470 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |