JP2014225727A - 表示制御装置、表示制御方法および記録媒体 - Google Patents

表示制御装置、表示制御方法および記録媒体 Download PDF

Info

Publication number
JP2014225727A
JP2014225727A JP2013102884A JP2013102884A JP2014225727A JP 2014225727 A JP2014225727 A JP 2014225727A JP 2013102884 A JP2013102884 A JP 2013102884A JP 2013102884 A JP2013102884 A JP 2013102884A JP 2014225727 A JP2014225727 A JP 2014225727A
Authority
JP
Japan
Prior art keywords
display control
virtual object
unit
user
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013102884A
Other languages
English (en)
Other versions
JP2014225727A5 (ja
JP6318470B2 (ja
Inventor
康之 古賀
Yasuyuki Koga
康之 古賀
哲男 池田
Tetsuo Ikeda
哲男 池田
厚史 泉原
Atsushi Izumihara
厚史 泉原
池田 卓郎
Takuro Ikeda
卓郎 池田
健太郎 木村
Kentaro Kimura
健太郎 木村
翼 塚原
Tsubasa Tsukahara
翼 塚原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013102884A priority Critical patent/JP6318470B2/ja
Priority to CN201480025979.6A priority patent/CN105210009B/zh
Priority to US14/888,788 priority patent/US20160078685A1/en
Priority to EP14723136.9A priority patent/EP2997445A1/en
Priority to PCT/JP2014/002065 priority patent/WO2014185002A1/en
Publication of JP2014225727A publication Critical patent/JP2014225727A/ja
Publication of JP2014225727A5 publication Critical patent/JP2014225727A5/ja
Application granted granted Critical
Publication of JP6318470B2 publication Critical patent/JP6318470B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

【課題】ユーザがより閲覧しやすくなるように仮想オブジェクトの立体表示を行うことが可能な技術を提供する。
【解決手段】視点検出部によって検出されたユーザの視点を取得する視点取得部と、仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御する表示制御部と、を備え、前記表示制御部は、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、表示制御装置が提供される。
【選択図】図1

Description

本開示は、表示制御装置、表示制御方法および記録媒体に関する。
近年、ユーザの頭部に装着するディスプレイとしてHMD(Head Mounted Display)の開発が進んでいる。ユーザの頭部に装着されたHMDによるコンテンツの表示動作は、ユーザの状況に依存せず一定である場合も想定されるが、ユーザの状況に基づいて制御される場合も想定される。例えば、ユーザの状況に応じてコンテンツの表示動作を制御する技術が開示されている(例えば、特許文献1参照)。
特開2008−65169号公報
しかしながら、立体表示により仮想オブジェクトをユーザに提示するHMDも開発されている。そこで、ユーザがより閲覧しやすくなるように仮想オブジェクトの立体表示を行うことが可能な技術が実現されることが望ましい。
本開示によれば、視点検出部によって検出されたユーザの視点を取得する視点取得部と、仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御する表示制御部と、を備え、前記表示制御部は、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、表示制御装置が提供される。
また、本開示によれば、視点検出部によって検出されたユーザの視点を取得することと、仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御することと、を含み、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御すること、を含む、表示制御方法が提供される。
また、本開示によれば、コンピュータを、視点検出部によって検出されたユーザの視点を取得する視点取得部と、仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御する表示制御部と、を備え、前記表示制御部は、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、表示制御装置として機能させるためのプログラムを記録した、コンピュータに読み取り可能な記録媒体が提供される。
以上説明したように本開示によれば、ユーザがより閲覧しやすくなるように仮想オブジェクトの立体表示を行うことが可能な技術を提供することが可能である。
本開示の実施形態に係る情報処理システムの構成例を示す図である。 本開示の実施形態に係る情報処理システムの機能構成例を示す図である。 ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する手法の例を説明するための図である。 静止時におけるユーザへの天気予報画面の提示の例を示す図である。 歩行時におけるユーザへの天気予報画面の提示の例を示す図である。 走行時におけるユーザへの天気予報画面の提示の例を示す図である。 運転時におけるユーザへの天気予報画面の提示の例を示す図である。 静止時におけるユーザへのナビゲーション画面の提示の例を示す図である。 歩行時におけるユーザへのナビゲーション画面の提示の例を示す図である。 走行時におけるユーザへのナビゲーション画面の提示の例を示す図である。 静止時におけるユーザへのランニングアプリケーション画面の提示の例を示す図である。 歩行時におけるユーザへのランニングアプリケーション画面の提示の例を示す図である。 走行時におけるユーザへのランニングアプリケーション画面の提示の例を示す図である。 撮像画像の輝度情報に基づいて仮想オブジェクトの表示位置を制御する例を示す図である。 撮像画像の色情報に基づいて仮想オブジェクトの表示位置を制御する例を示す図である。 撮像画像の輝度情報に基づいて遮光量を制御する例を示す図である。 撮像画像の輝度情報に基づいて遮光量を制御する例を示す図である。 本開示の実施形態に係る表示制御装置の動作の流れを示すフローチャートである。 本開示の実施形態に係る表示制御装置のハードウェア構成例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットまたは数字を付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
1.実施形態
1−1.情報処理システムの構成例
1−2.情報処理システムの機能構成例
1−3.表示制御装置の機能詳細
1−4.表示制御装置の動作
1−5.ハードウェア構成例
2.むすび
<<1.実施形態>>
まず、本開示の実施形態について説明する。
[1−1.情報処理システムの構成例]
最初に、本開示の実施形態に係る情報処理システム1の構成例について説明する。図1は、本開示の実施形態に係る情報処理システム1の構成例を示す図である。図1に示すように、情報処理システム1は、表示制御装置10と、撮像部130と、センサ部140と、表示部150と、遮光部160とを備える。
撮像部130は、撮像範囲を撮像する機能を有する。例えば、撮像部130は、ユーザの視線方向を撮像することができるようにユーザの頭部に装着されている。撮像部130によって撮像されて得られた撮像画像30は、例えば、無線信号または有線信号により表示制御装置10に提供される。なお、図1に示した例では、撮像部130は表示制御装置10と別体に構成されているが、撮像部130は、表示制御装置10と一体化されていてもよい。
センサ部140は、センサデータを検出する。例えば、センサ部140は、ユーザUの目領域を撮像して撮像結果を取得する。以下の説明においては、センサ部140によってユーザUの両方の目領域が撮像される場合を主に想定するが、センサ部140はユーザUの片方の目領域を撮像してもよい。センサ部140によって撮像されて得られた撮像結果40は、例えば、無線信号または有線信号により表示制御装置10に提供される。
なお、本明細書においては、センサ部140がユーザUの目領域を撮像する場合について主に説明するが、ユーザUの身体に関する他の測定を行ってもよい。例えば、センサ部140は、ユーザUの筋電を測定してもよい。かかる場合、センサ部140によって撮像されて得られた筋電の測定結果は、例えば、無線信号または有線信号により表示制御装置10に提供される。
また、図1に示した例では、センサ部140は表示制御装置10と別体に構成されているが、センサ部140は、表示制御装置10と一体化されていてもよい。また、後に説明するように、情報処理システム1は、センサ部140の他にセンサを有していてもよい。
表示部150は、表示制御装置10から無線信号または有線信号により提供された制御信号に従って仮想オブジェクトを表示する機能を有する。表示部150によって表示される仮想オブジェクトの種類は特に限定されない。また、本明細書においては、表示部150が透過型HMD(Head Mount Display)である場合を主に想定する。なお、図1に示した例では、表示部150は表示制御装置10と別体に構成されているが、表示部150は、表示制御装置10と一体化されていてもよい。
遮光部160は、ユーザUの目領域に到達する光の量を調整する機能を有する。遮光部160は、表示部150を通過した光の一部だけを遮光してもよいし、全部を遮光してもよいし、全部を透過させてもよい。図1に示した例では、表示部150の外側に遮光部160が設けられているが、遮光部160が設けられる位置は特に限定されない。遮光部160は、例えば、液晶シャッタにより構成されていてよい。なお、図1に示した例では、遮光部160は表示制御装置10と別体に構成されているが、遮光部160は、表示制御装置10と一体化されていてもよい。
以上、本開示の実施形態に係る情報処理システム1の構成例について説明した。
[1−2.情報処理システムの機能構成例]
続いて、本開示の実施形態に係る情報処理システム1の機能構成例について説明する。図2は、本開示の実施形態に係る情報処理システム1の機能構成例を示す図である。図2に示すように、本開示の実施形態に係る表示制御装置10は、制御部110と、記憶部120とを備える。上記したように、撮像部130、センサ部140、表示部150および遮光部160それぞれは、表示制御装置10と無線または有線により接続されている。
制御部110は、例えば、CPU(Central Processing Unit)などのプロセッサに相当する。制御部110は、記憶部120または他の記憶媒体に記憶されるプログラムを実行することにより、制御部110が有する様々な機能を発揮する。制御部110は、視点検出部111と、視点取得部112と、表示制御部113と、行動認識部114と、行動取得部115と、画像取得部116と、遮光制御部117とを有する。これらの各機能ブロックそれぞれが有する機能については後に説明する。
記憶部120は、半導体メモリまたはハードディスクなどの記憶媒体を用いて、制御部110を動作させるためのプログラムを記憶する。また、例えば、記憶部120は、プログラムによって使用される各種のデータ(例えば、仮想オブジェクトを立体表示させるための画像など)を記憶することもできる。なお、図2に示した例では、記憶部120は表示制御装置10と一体化されているが、記憶部120は表示制御装置10と別体に構成されていてもよい。
以上、本開示の実施形態に係る情報処理システム1の機能構成例について説明した。
[1−3.表示制御装置の機能詳細]
続いて、本開示の実施形態に係る表示制御装置10の機能詳細について説明する。まず、表示制御部113は、仮想オブジェクトが表示部150によって立体表示されるように表示部150を制御する機能を有し、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する機能を有している。そこで、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する手法の例について説明する。
図3は、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する手法の例を説明するための図である。図3を参照すると、ユーザの左眼位置elおよび右眼位置erが示されている。ここで、表示制御部113は、ユーザの左眼に提示される左眼画像を表示部150Lの表示位置dlに表示させるとともにユーザの右眼に提示される右眼画像を表示部150Rの表示位置drに表示させた場合、仮想オブジェクトは、表示位置Pに立体表示される。表示位置Pは、左眼位置elおよび表示位置dlを結ぶ直線と右眼位置erおよび表示位置drを結ぶ直線との交点に相当する
図3に示した例において、表示位置Pからユーザの左眼位置elと右眼位置erとを結ぶ直線までの距離を輻輳距離Dとし、左眼位置elと表示位置Pとを結ぶ線分と右眼位置erと表示位置Pとを結ぶ線分とのなす角を輻輳角aとする。表示制御部113は、表示位置dlと表示位置drとの間隔を広げることによって、輻輳距離Dを大きくするほど(または輻輳角を小さくするほど)、ユーザに提示される仮想オブジェクトの奥行方向の位置をユーザから遠ざけることができる。
一方、表示制御部113は、表示位置dlと表示位置drとの間隔を狭めることによって、輻輳距離Dを小さくするほど(または輻輳角を大きくするほど)、ユーザに提示される仮想オブジェクトの奥行方向の位置をユーザに近づけることができる。このようにして、表示制御部113は、左眼画像の表示位置dlと右眼画像の表示位置drとを制御することによって、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御することが可能である。しかし、ここで説明した手法は、単なる一例に過ぎない。したがって、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する手法は特に限定されない。
例えば、表示制御部113は、サイズが大きい仮想オブジェクトほど手前に存在するように見えるという特性を利用し、仮想オブジェクトのサイズを制御することによってユーザに提示される仮想オブジェクトの奥行方向の位置を制御してもよい。また、表示制御部113は、仮想オブジェクトのピントが合う位置を制御することによってユーザに提示される仮想オブジェクトの奥行方向の位置を制御してもよい。さらに、表示制御部113は、視差の大きさを制御することによって、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御してもよい。
以上、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する手法の例を説明した。ここで、仮想オブジェクトの奥行方向の位置とユーザの視点との間にずれが生じてしまうような場合には、仮想オブジェクトを閲覧しにくくなるという状況が起こり得る。そのため、本明細書においては、ユーザがより閲覧しやすくなるように仮想オブジェクトの立体表示を行うことが可能な技術を提案する。
視点検出部111は、センサ部140によって検出されたセンサデータに基づいてユーザの視点を検出する。例えば、視点検出部111は、センサ部140により撮像された撮像結果40に基づいてユーザの視点を検出する。視点検出部111による視点の検出手法としては、例えば、特開2012−8746号公報に開示された技術を用いることができるが、視点検出部111による視点の検出手法は特に限定されない。
例えば、視点検出部111は、センサ部140による筋電の測定結果に基づいて、ユーザの視点を検出してもよい。図2に示した例では、視点検出部111が表示制御装置10に備えられているが、表示制御装置10の代わりにセンサ部140に備えられていてもよい。視点検出部111によって検出されたユーザの視点は、視点取得部112によって取得される。
行動認識部114は、ユーザの行動を認識する。例えば、行動認識部114は、ユーザの行動を認識する手法としては、例えば、特開2006−345269号公報により開示されている技術を採用することができる。かかる技術によれば、例えば、センサによりユーザの動きが検出され、検出された動きが行動認識部114により解析されることにより、ユーザの行動が認識される。
しかしながら、行動認識部114による行動の認識手法は、かかる例に限定されない。例えば、行動認識部114は、ユーザから行動の入力が受け付けられた場合には、ユーザからの入力が受け付けられた行動を取得してもよい。図2に示した例では、行動認識部114が表示制御装置10に備えられているが、表示制御装置10の代わりにセンサ部140に備えられていてもよい。行動認識部114によって認識されたユーザの行動は、行動取得部115によって取得される。
続いて、表示制御部113は、視点取得部112によって取得された視点に基づいて、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する。かかる制御によって、ユーザの視点の遠近に応じて、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御することが可能となり、ユーザがより閲覧しやすくなるように仮想オブジェクトの立体表示を行うことが可能となる。
以下、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する手法の例をより詳細に説明する。まず、図4〜図7を参照しながら、仮想オブジェクトが天気予報画面である場合について説明する。しかし、仮想オブジェクトの種類が特に限定されない旨は上記した通りであるため、仮想オブジェクトが天気予報画面に限定されないことは言うまでもない。
図4〜図6は、静止時、歩行時および走行時それぞれにおけるユーザへの天気予報画面50−A1〜50−A3の提示の例を示す図である。図4〜図6に示すように、静止時よりも歩行時のほうがユーザの視点が遠くなり、歩行時よりも走行時のほうがユーザの視点が遠くなっている。そこで、例えば、表示制御部113は、視点がユーザから遠くなるほど、ユーザに提示される天気予報画面の奥行方向の位置を遠ざければよい。
なお、一時的に視点を変更したに過ぎない場合なども想定される。このような場合にまで、ユーザの視点の遠近が変わる度に、ユーザに提示される仮想オブジェクトの奥行方向の位置を変更してしまうと、ユーザに煩わしさを与えてしまう可能性もある。したがって、表示制御部113は、所定時間を超えても視点が変更されなかった場合に、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御するようにしてもよい。
また、天気予報画面50−A1〜50−A3それぞれには、コンテンツ(例えば、文字データ、画像データなど)が含まれている。コンテンツはユーザの行動に依存せずに一定であってもよいが、ユーザの行動に応じて変更されてもよい。例えば、表示制御部113は、行動取得部115によって取得された行動に基づいて天気予報画面に含まれるコンテンツを制御してもよい。
天気予報画面に含まれるコンテンツの制御はどのようになされてもよいが、表示制御部113は、ユーザの行動に基づいて、仮想オブジェクトに含まれるコンテンツの情報量を制御してもよい。例えば、図4〜図6に示すように、静止時よりも歩行時のほうがコンテンツを閲覧しにくい状況が起こり得る。また、歩行時よりも走行時のほうがコンテンツを閲覧しにくい状況が起こり得る。そこで、表示制御部113は、行動の移動速度が大きいほど、ユーザに提示される天気予報画面に含まれるコンテンツの情報量が小さくなるように制御してよい。
また、表示制御部113は、ユーザの行動に基づいて、仮想オブジェクトに含まれるコンテンツの表示サイズを制御してもよい。例えば、上記したように、静止時よりも歩行時のほうがコンテンツを閲覧しにくい状況が起こり得る。また、歩行時よりも走行時のほうがコンテンツを閲覧しにくい状況が起こり得る。そこで、表示制御部113は、行動の移動速度が大きいほど、ユーザに提示される天気予報画面に含まれるコンテンツの表示サイズが大きくなるように制御してよい。
また、表示制御部113は、ユーザの行動に基づいて、仮想オブジェクトに含まれるコンテンツの仮想オブジェクトにおける位置を制御してもよい。例えば、上記したように、静止時よりも歩行時のほうがコンテンツを閲覧しにくい状況が起こり得る。また、歩行時よりも走行時のほうがコンテンツを閲覧しにくい状況が起こり得る。そこで、表示制御部113は、行動の移動速度が大きいほど、ユーザに提示される天気予報画面に含まれるコンテンツの仮想オブジェクトにおける位置が仮想オブジェクトの端部により偏るように制御してよい。
ユーザの行動に対応する天気予報画面は、あらかじめ作成されていてもよいし、表示が必要となる度に作成してもよい。例えば、天気予報画面があらかじめ作成されている場合、表示制御部113は、ユーザの行動に対応する天気予報画面をユーザに提示するようにすればよい。また、表示制御部113は、ユーザの行動に対応するコンテンツの情報量に基づいて天気予報画面を作成してもよい。
同様に、表示制御部113は、ユーザの行動に対応するコンテンツの表示サイズに基づいて天気予報画面を作成してもよい。また、表示制御部113は、コンテンツの仮想オブジェクトにおける位置に基づいて天気予報画面を作成してもよい。
なお、表示制御部113は、ユーザの行動に基づいて、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御してもよい。例えば、表示制御部113は、行動が示す移動速度が大きくなるほど、ユーザに提示される天気予報画面の奥行方向の位置が遠くなるように制御してもよい。
また、表示制御部113は、ユーザの行動および視点のいずれか一方に基づいて、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御してもよいが、ユーザの行動および視点の双方に基づいて、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御してもよい。あるいは、表示制御部113は、状況に応じてユーザの行動および視点のいずれを優先して利用するかを決めてもよい。
図7は、運転時におけるユーザへの天気予報画面50−A4の提示の例を示す図である。図7に示すように、ユーザが自動車を運転している場合、行動は「静止時」であるが、視点はユーザから遠いことがよくある。そのため、表示制御部113は、行動よりも視点を優先して利用し、視点に基づいて、ユーザに提示される天気予報画面50−A4の奥行方向の位置を制御すればよい。
図8〜図10は、静止時、歩行時および走行時それぞれにおけるユーザへのナビゲーション画面50−B1〜50−B3の提示の例を示す図である。図8〜図10に示したように、仮想オブジェクトがナビゲーション画面である場合も、仮想オブジェクトが天気予報画面である場合と同様にして、ユーザに提示される仮想オブジェクトの奥行方向の位置が制御され得る。仮想オブジェクトがナビゲーション画面に限定されないことは言うまでもない。
また、図11〜図13は、静止時、歩行時および走行時それぞれにおけるユーザへのランニングアプリケーション画面50−C1〜50−C3の提示の例を示す図である。図11〜図13に示したように、仮想オブジェクトがランニングアプリケーション画面である場合も、仮想オブジェクトが天気予報画面である場合と同様にして、ユーザに提示される仮想オブジェクトの奥行方向の位置が制御され得る。仮想オブジェクトがランニングアプリケーション画面に限定されないことは言うまでもない。
上記した例では、ユーザ自身の視点や行動に基づいて仮想オブジェクトを制御する手法について説明したが、他にも様々な要因に基づいて仮想オブジェクトを制御することも考えられる。一例として、画像取得部116は、撮像部130によって撮像された撮像画像30を取得し、表示制御部113は、画像取得部116によって取得された撮像画像30に基づいて仮想オブジェクトを制御してもよい。かかる制御によれば、ユーザの周囲の環境に応じて仮想オブジェクトを制御することが可能となる。
撮像画像30に基づいた仮想オブジェクトの制御の手法は特に限定されないが、例えば、表示制御部113は、撮像画像30の輝度情報に基づいて仮想オブジェクトの表示位置を制御してもよい。図14は、撮像画像30の輝度情報に基づいて仮想オブジェクト50の表示位置を制御する例を示す図である。図14を参照すると、撮像画像30−Aには、領域30−A1と領域30−A2が映っている。
ここで、表示制御部113は、仮想オブジェクト50を領域30−A1に表示させようとしたところ、領域30−A1の輝度が閾値より高いことを検出したとする。一方、表示制御部113は、領域30−A2の輝度が閾値より低いことを検出したとする。かかる場合、表示制御部113は、仮想オブジェクト50の表示位置を領域30−A2に変更することが可能である。このようにすれば、ユーザがより閲覧しやすい仮想オブジェクト50を提示することが可能となる。
なお、表示制御部113が仮想オブジェクト50の表示位置を制御する例を説明したが、表示制御部113は、撮像画像30の輝度情報に基づいて仮想オブジェクトの輝度を制御してもよい。例えば、図14に示した例において、表示制御部113は、仮想オブジェクト50の表示位置を領域30−A2に変更する代わりに、仮想オブジェクト50の輝度を高めてもよい。このようにしても、ユーザが閲覧しやすい仮想オブジェクト50を提示することが可能となる。
また、表示制御部113は、撮像画像30の色情報に基づいて仮想オブジェクトの表示位置を制御してもよい。図15は、撮像画像30の色情報に基づいて仮想オブジェクト50の表示位置を制御する例を示す図である。図15を参照すると、撮像画像30−Bには、領域30−B1と領域30−B2が映っている。
ここで、表示制御部113は、仮想オブジェクト50を領域30−B1に表示させようとしたところ、領域30−B1と仮想オブジェクト50とが類似色であることを検出したとする。一方、表示制御部113は、領域30−B2と仮想オブジェクト50とは類似色ではないことを検出したとする。かかる場合、表示制御部113は、仮想オブジェクト50の表示位置を領域30−B2に変更することが可能である。このようにすれば、ユーザがより閲覧しやすい仮想オブジェクト50を提示することが可能となる。
例えば、表示制御部113は、領域30−B2の色と仮想オブジェクト50の色との距離が閾値を下回る場合に、領域30−B2と仮想オブジェクト50とが類似色であることを検出する。領域30−B2の色と仮想オブジェクト50の色との距離は、領域30−B2のR値、G値およびB値をX軸、Y軸およびZ軸にプロットし、仮想オブジェクト50のR値、G値およびB値をX軸、Y軸およびZ軸にプロットした場合に、2点間の3次元的な距離により算出され得る。
なお、表示制御部113が仮想オブジェクト50の表示位置を制御する例を説明したが、表示制御部113は、撮像画像30の色情報に基づいて仮想オブジェクトの色を制御してもよい。例えば、図15に示した例において、表示制御部113は、仮想オブジェクト50の表示位置を領域30−B2に変更する代わりに、仮想オブジェクト50の色を変更してもよい。表示制御部113は、仮想オブジェクト50の色を領域30−B2の色の補色に変更してもよい。このようにしても、ユーザが閲覧しやすい仮想オブジェクト50を提示することが可能となる。
また、例えば、表示制御部113は、撮像画像30から抽出された特徴量に基づいて、仮想オブジェクト50の表示位置を制御してもよい。再度、図14を参照する。ここで、表示制御部113は、仮想オブジェクト50を領域30−A1に表示させようとしたところ、領域30−A1には壁の前に物体が映っているため、領域30−A1から抽出した特徴量の安定度が閾値より小さいことを検出する。一方、表示制御部113は、領域30−A2には壁の前に物体が映っていないため、領域30−A2から抽出した特徴量の安定度が閾値より大きいことを検出する。
かかる場合、表示制御部113は、仮想オブジェクト50の表示位置を領域30−A2に変更することが可能である。このようにすれば、ユーザがより閲覧しやすい仮想オブジェクト50を提示することが可能となる。各領域における特徴量の安定度はどのように算出されてもよいが、例えば、表示制御部113は、各領域における特徴量の最大値と最小値との差分値が小さいほど安定度を高く算出してよい。
また、例えば、表示制御部113は、撮像画像30から物体が検出された場合、物体の位置に基づいて、ユーザに提示される仮想オブジェクト50の位置を制御してもよい。再度、図14を参照しながら、壁を物体の例として取り上げて説明する。ここで、表示制御部113は、仮想オブジェクト50を表示させようとしたところ、領域30−A2に壁が映っていることを認識したとする。かかる場合、表示制御部113は、壁が映っていると認識した領域30−A2に仮想オブジェクト50を表示させればよい。
さらに、表示制御部113は、仮想オブジェクト50の奥行方向の位置を制御してもよい。例えば、表示制御部113は、撮像部130からフォーカスが合っている対象までの距離を壁の奥行方向における位置として測定し、仮想オブジェクト50の奥行方向の位置が壁の奥行方向における位置に合うようにすればよい。このようにすれば、物体の奥行方向における位置に合わせて仮想オブジェクト50の奥行方向の位置も調整されるため、より自然に仮想オブジェクト50を提示することが可能となる。
ここで、上記したように、情報処理システム1には、ユーザUの目領域に到達する光の量を調整する遮光部160が備えられている。遮光部160による遮光量は一定であってもよいが、状況に応じて制御されてもよい。例えば、遮光制御部117は、撮像画像30の輝度情報に基づいて遮光部160による遮光量を制御してもよい。図16および図17は、撮像画像30の輝度情報に基づいて遮光量を制御する例を示す図である。
図16に示した例では、画像取得部116によって撮像画像30−C1が取得されている。ここで、撮像画像30−C1が明るい場所において撮像されたため、輝度が大きかったとする。かかる場合、遮光制御部117は、遮光量が大きくなるように遮光部160(遮光部160Lおよび遮光部160R)を制御してもよい。
一方、図17に示した例では、画像取得部116によって撮像画像30−C2が取得されている。ここで、撮像画像30−C2が暗い場所において撮像されたため、輝度が小さかったとする。かかる場合、遮光制御部117は、遮光量が小さくなるように遮光部160(遮光部160Lおよび遮光部160R)を制御してもよい。
このようにして、遮光制御部117は、撮像画像30の輝度が高いほど、遮光部160による遮光量が大きくなるように遮光部160を制御してよい。かかる制御によれば、ユーザの視野が明るいときほど、ユーザの目に入射する光の量をより小さくすることが可能となり、ユーザが仮想オブジェクト50をさらに閲覧しやすくなることが期待できる。
以上、本開示の実施形態に係る表示制御装置10の機能詳細について説明した。
[1−4.表示制御装置の動作]
続いて、本開示の実施形態に係る表示制御装置10の動作の流れについて説明する。図18は、本開示の実施形態に係る表示制御装置10の動作の流れを示すフローチャートである。なお、図18に示した例は、本開示の実施形態に係る表示制御装置10の動作の流れの一例に過ぎない。したがって、本開示の実施形態に係る表示制御装置10の動作の流れは、図18に示した例に限定されない。
図18に示すように、まず、視点取得部112は、視点検出部111によって検出されたユーザの視点を取得し(S11)、行動取得部115は、行動認識部114によって認識されたユーザの行動を取得する(S12)。また、画像取得部116は、撮像部130によって撮像された撮像画像を取得する(S13)。表示制御部113は、視点取得部112によって取得された視点に基づいて、ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する(S14)。
また、表示制御部113は、行動取得部115によって取得された行動に基づいて、仮想オブジェクトに含まれるコンテンツを制御する(S15)。さらに、表示制御部113は、撮像部130によって撮像された撮像画像に基づいて仮想オブジェクトを制御する(S16)。遮光制御部117は、撮像画像の輝度情報に基づいて遮光部160による遮光量を制御する(S17)。制御部110は、S17の動作が終了した後は、S11の動作に再度戻ってもよいし、動作を終了させてもよい。
以上、本開示の実施形態に係る表示制御装置10の動作の流れについて説明した。
[1−5.ハードウェア構成例]
続いて、本開示の実施形態に係る表示制御装置10のハードウェア構成例について説明する。図19は、本開示の実施形態に係る表示制御装置10のハードウェア構成例を示す図である。ただし、図19に示したハードウェア構成例は、表示制御装置10のハードウェア構成の一例を示したに過ぎない。したがって、表示制御装置10のハードウェア構成は、図19に示した例に限定されない。
図19に示したように、表示制御装置10は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、入力装置908と、出力装置910と、ストレージ装置911と、ドライブ912とを備える。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って表示制御装置10内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。
入力装置908は、センサ部140により測定されたセンサデータ(例えば、センサ部140により撮像された撮像結果)および撮像部130により撮像された撮像画像の入力を受け付ける。入力装置908により入力が受け付けられたセンサデータおよび撮像画像は、CPU901に出力される。また、入力装置908は、他のセンサにより検出された検出結果を、CPU901に出力してもよい。
出力装置910は、表示部150に対して出力データを提供する。例えば、出力装置910は、CPU901による制御に従って表示データを表示部150に提供する。また、表示部150が音声出力装置により構成されている場合には、出力装置910は、CPU901による制御に従って音声データを表示部150に提供する。
ストレージ装置911は、表示制御装置10の記憶部120の一例として構成されたデータ格納用の装置である。ストレージ装置911は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置911は、CPU901が実行するプログラムや各種データを格納する。
ドライブ912は、記憶媒体用リーダライタであり、表示制御装置10に内蔵、あるいは外付けされる。ドライブ912は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体71に記録されている情報を読み出して、RAM903に出力する。また、ドライブ912は、リムーバブル記憶媒体71に情報を書き込むこともできる。
以上、本開示の実施形態に係る表示制御装置10のハードウェア構成例について説明した。
<<2.むすび>>
以上説明したように、本開示の実施形態によれば、視点検出部111によって検出されたユーザの視点を取得する視点取得部112と、仮想オブジェクト50が表示部150によって立体表示されるように表示部150を制御する表示制御部113と、を備え、表示制御部113は、視点に基づいて、ユーザに提示される仮想オブジェクト50の奥行方向の位置を制御する、表示制御装置10が提供される。かかる構成によれば、ユーザがより閲覧しやすくなるように仮想オブジェクトの立体表示を行うことが可能となる。
なお、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した表示制御装置10が有する構成と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
視点検出部によって検出されたユーザの視点を取得する視点取得部と、
仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御する表示制御部と、を備え、
前記表示制御部は、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、
表示制御装置。
(2)
前記表示制御装置は、
行動認識部によって認識されたユーザの行動を取得する行動取得部をさらに備え、
前記表示制御部は、前記行動に基づいて前記仮想オブジェクトに含まれるコンテンツを制御する、
前記(1)に記載の表示制御装置。
(3)
前記表示制御部は、前記行動に基づいて、前記仮想オブジェクトに含まれるコンテンツの情報量を制御する、
前記(2)に記載の表示制御装置。
(4)
前記表示制御部は、前記行動に基づいて、前記仮想オブジェクトに含まれるコンテンツの表示サイズを制御する、
前記(2)に記載の表示制御装置。
(5)
前記表示制御部は、前記行動に基づいて、前記仮想オブジェクトに含まれるコンテンツの前記仮想オブジェクトにおける位置を制御する、
前記(2)に記載の表示制御装置。
(6)
前記表示制御装置は、
行動認識部によって認識されたユーザの行動を取得する行動取得部をさらに備え、
前記表示制御部は、前記行動に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、
前記(1)に記載の表示制御装置。
(7)
前記表示制御装置は、
撮像部によって撮像された撮像画像を取得する画像取得部をさらに備え、
前記表示制御部は、前記撮像画像に基づいて前記仮想オブジェクトを制御する、
前記(1)〜(6)のいずれか一項に記載の表示制御装置。
(8)
前記表示制御部は、前記撮像画像の輝度情報に基づいて前記仮想オブジェクトの表示位置を制御する、
前記(7)に記載の表示制御装置。
(9)
前記表示制御部は、前記撮像画像の輝度情報に基づいて前記仮想オブジェクトの輝度を制御する、
前記(7)に記載の表示制御装置。
(10)
前記表示制御部は、前記撮像画像の色情報に基づいて前記仮想オブジェクトの表示位置を制御する、
前記(7)に記載の表示制御装置。
(11)
前記表示制御部は、前記撮像画像の色情報に基づいて前記仮想オブジェクトの色を制御する、
前記(7)に記載の表示制御装置。
(12)
前記表示制御部は、前記撮像画像から抽出された特徴量に基づいて、前記仮想オブジェクトの表示位置を制御する、
前記(7)に記載の表示制御装置。
(13)
前記表示制御装置は、
撮像部によって撮像された撮像画像を取得する画像取得部と、
前記撮像画像の輝度情報に基づいて遮光部による遮光量を制御する遮光制御部と、
をさらに備える、
前記(1)〜(12)のいずれか一項に記載の表示制御装置。
(14)
前記表示制御部は、前記ユーザの左眼に提示される左眼画像の表示位置と前記ユーザの右眼に提示される右眼画像の表示位置とを制御することによって、前記ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する、
前記(1)〜(13)のいずれか一項に記載の表示制御装置。
(15)
前記表示制御装置は、
撮像部によって撮像された撮像画像を取得する画像取得部をさらに備え、
前記表示制御部は、前記撮像画像から物体が検出された場合、前記物体の位置に基づいて、前記ユーザに提示される前記仮想オブジェクトの位置を制御する、
前記(1)〜(14)のいずれか一項に記載の表示制御装置。
(16)
前記表示制御部は、前記視点が前記ユーザから遠くなるほど、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を遠ざける、
前記(1)〜(15)のいずれか一項に記載の表示制御装置。
(17)
視点検出部によって検出されたユーザの視点を取得することと、
仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御することと、を含み、
前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御すること、
を含む、表示制御方法。
(18)
コンピュータを、
視点検出部によって検出されたユーザの視点を取得する視点取得部と、
仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御する表示制御部と、を備え、
前記表示制御部は、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、
表示制御装置として機能させるためのプログラムを記録した、コンピュータに読み取り可能な記録媒体。
1 情報処理システム
10 表示制御装置
30 撮像画像
40 撮像結果
50 仮想オブジェクト
110 制御部
111 視点検出部
112 視点取得部
113 表示制御部
114 行動認識部
115 行動取得部
116 画像取得部
117 遮光制御部
120 記憶部
130 撮像部
140 センサ部
150(150L、150R) 表示部
160(160L、160R) 遮光部

Claims (18)

  1. 視点検出部によって検出されたユーザの視点を取得する視点取得部と、
    仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御する表示制御部と、を備え、
    前記表示制御部は、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、
    表示制御装置。
  2. 前記表示制御装置は、
    行動認識部によって認識されたユーザの行動を取得する行動取得部をさらに備え、
    前記表示制御部は、前記行動に基づいて前記仮想オブジェクトに含まれるコンテンツを制御する、
    請求項1に記載の表示制御装置。
  3. 前記表示制御部は、前記行動に基づいて、前記仮想オブジェクトに含まれるコンテンツの情報量を制御する、
    請求項2に記載の表示制御装置。
  4. 前記表示制御部は、前記行動に基づいて、前記仮想オブジェクトに含まれるコンテンツの表示サイズを制御する、
    請求項2に記載の表示制御装置。
  5. 前記表示制御部は、前記行動に基づいて、前記仮想オブジェクトに含まれるコンテンツの前記仮想オブジェクトにおける位置を制御する、
    請求項2に記載の表示制御装置。
  6. 前記表示制御装置は、
    行動認識部によって認識されたユーザの行動を取得する行動取得部をさらに備え、
    前記表示制御部は、前記行動に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、
    請求項1に記載の表示制御装置。
  7. 前記表示制御装置は、
    撮像部によって撮像された撮像画像を取得する画像取得部をさらに備え、
    前記表示制御部は、前記撮像画像に基づいて前記仮想オブジェクトを制御する、
    請求項1に記載の表示制御装置。
  8. 前記表示制御部は、前記撮像画像の輝度情報に基づいて前記仮想オブジェクトの表示位置を制御する、
    請求項7に記載の表示制御装置。
  9. 前記表示制御部は、前記撮像画像の輝度情報に基づいて前記仮想オブジェクトの輝度を制御する、
    請求項7に記載の表示制御装置。
  10. 前記表示制御部は、前記撮像画像の色情報に基づいて前記仮想オブジェクトの表示位置を制御する、
    請求項7に記載の表示制御装置。
  11. 前記表示制御部は、前記撮像画像の色情報に基づいて前記仮想オブジェクトの色を制御する、
    請求項7に記載の表示制御装置。
  12. 前記表示制御部は、前記撮像画像から抽出された特徴量に基づいて、前記仮想オブジェクトの表示位置を制御する、
    請求項7に記載の表示制御装置。
  13. 前記表示制御装置は、
    撮像部によって撮像された撮像画像を取得する画像取得部と、
    前記撮像画像の輝度情報に基づいて遮光部による遮光量を制御する遮光制御部と、
    をさらに備える、
    請求項1に記載の表示制御装置。
  14. 前記表示制御部は、前記ユーザの左眼に提示される左眼画像の表示位置と前記ユーザの右眼に提示される右眼画像の表示位置とを制御することによって、前記ユーザに提示される仮想オブジェクトの奥行方向の位置を制御する、
    請求項1に記載の表示制御装置。
  15. 前記表示制御装置は、
    撮像部によって撮像された撮像画像を取得する画像取得部をさらに備え、
    前記表示制御部は、前記撮像画像から物体が検出された場合、前記物体の位置に基づいて、前記ユーザに提示される前記仮想オブジェクトの位置を制御する、
    請求項1に記載の表示制御装置。
  16. 前記表示制御部は、前記視点が前記ユーザから遠くなるほど、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を遠ざける、
    請求項1に記載の表示制御装置。
  17. 視点検出部によって検出されたユーザの視点を取得することと、
    仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御することと、を含み、
    前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御すること、
    を含む、表示制御方法。
  18. コンピュータを、
    視点検出部によって検出されたユーザの視点を取得する視点取得部と、
    仮想オブジェクトが表示部によって立体表示されるように前記表示部を制御する表示制御部と、を備え、
    前記表示制御部は、前記視点に基づいて、前記ユーザに提示される前記仮想オブジェクトの奥行方向の位置を制御する、
    表示制御装置として機能させるためのプログラムを記録した、コンピュータに読み取り可能な記録媒体。

JP2013102884A 2013-05-15 2013-05-15 表示制御装置、表示制御方法および記録媒体 Active JP6318470B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013102884A JP6318470B2 (ja) 2013-05-15 2013-05-15 表示制御装置、表示制御方法および記録媒体
CN201480025979.6A CN105210009B (zh) 2013-05-15 2014-04-10 显示控制装置、显示控制方法和记录介质
US14/888,788 US20160078685A1 (en) 2013-05-15 2014-04-10 Display control device, display control method, and recording medium
EP14723136.9A EP2997445A1 (en) 2013-05-15 2014-04-10 Display control device, display control method, and recording medium
PCT/JP2014/002065 WO2014185002A1 (en) 2013-05-15 2014-04-10 Display control device, display control method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013102884A JP6318470B2 (ja) 2013-05-15 2013-05-15 表示制御装置、表示制御方法および記録媒体

Publications (3)

Publication Number Publication Date
JP2014225727A true JP2014225727A (ja) 2014-12-04
JP2014225727A5 JP2014225727A5 (ja) 2016-03-17
JP6318470B2 JP6318470B2 (ja) 2018-05-09

Family

ID=50687547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013102884A Active JP6318470B2 (ja) 2013-05-15 2013-05-15 表示制御装置、表示制御方法および記録媒体

Country Status (5)

Country Link
US (1) US20160078685A1 (ja)
EP (1) EP2997445A1 (ja)
JP (1) JP6318470B2 (ja)
CN (1) CN105210009B (ja)
WO (1) WO2014185002A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016143744A1 (ja) * 2015-03-12 2016-09-15 日本精機株式会社 ヘッドマウントディスプレイ装置
JP2016171550A (ja) * 2015-03-12 2016-09-23 日本精機株式会社 ヘッドマウントディスプレイ装置
US9977241B2 (en) 2015-03-17 2018-05-22 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
JP2019512769A (ja) * 2016-02-18 2019-05-16 イーディーエックス テクノロジーズ インコーポレイテッド ネットワークの拡張現実表現のためのシステムおよび方法
JP6892961B1 (ja) * 2020-09-29 2021-06-23 Kddi株式会社 制御装置、表示制御方法及び表示制御プログラム
US12033380B2 (en) 2018-08-07 2024-07-09 Sony Corporation Information processing apparatus and information processing method

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7227165B2 (ja) * 2017-03-07 2023-02-21 8259402 カナダ インコーポレイテッド ディスプレイにおける虚像を制御する方法
CN111034190B (zh) * 2017-08-29 2022-04-15 索尼公司 信息处理设备、信息处理方法和程序
KR102486421B1 (ko) * 2017-10-16 2023-01-10 삼성디스플레이 주식회사 헤드 마운트 디스플레이 장치 및 이의 동작 방법
US11488348B1 (en) * 2021-12-09 2022-11-01 Unity Technologies Sf Computing virtual screen imagery based on a stage environment, camera position, and/or camera settings

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09322197A (ja) * 1996-05-24 1997-12-12 Olympus Optical Co Ltd 立体視ディスプレイ装置
WO2006064655A1 (ja) * 2004-12-14 2006-06-22 Matsushita Electric Industrial Co., Ltd. 情報提示装置及び情報提示方法
JP2007210462A (ja) * 2006-02-09 2007-08-23 Mitsubishi Motors Corp 車両用表示制御装置および車両用表示システム
JP2007219081A (ja) * 2006-02-15 2007-08-30 Canon Inc 画像表示システム
JP2008065169A (ja) * 2006-09-08 2008-03-21 Sony Corp 表示装置、表示方法
JP2008176096A (ja) * 2007-01-19 2008-07-31 Brother Ind Ltd 画像表示装置
JP2010170316A (ja) * 2009-01-22 2010-08-05 Konami Digital Entertainment Co Ltd 拡張現実表示装置、拡張現実表示方法、ならびに、プログラム
JP2011128220A (ja) * 2009-12-15 2011-06-30 Toshiba Corp 情報提示装置、情報提示方法及びプログラム
JP2012078224A (ja) * 2010-10-01 2012-04-19 Olympus Corp 画像生成システム、プログラム及び情報記憶媒体
JP2012118121A (ja) * 2010-11-29 2012-06-21 Canon Inc 映像表示装置、映像表示方法及びプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040243307A1 (en) * 2003-06-02 2004-12-02 Pieter Geelen Personal GPS navigation device
JP4507992B2 (ja) * 2005-06-09 2010-07-21 ソニー株式会社 情報処理装置および方法、並びにプログラム
WO2009002567A1 (en) * 2007-06-27 2008-12-31 The University Of Hawaii Virtual reality overlay
EP2395420B1 (en) * 2009-02-05 2018-07-11 Panasonic Intellectual Property Corporation of America Information display device and information display method
JP5343676B2 (ja) * 2009-04-08 2013-11-13 ソニー株式会社 画像処理装置、画像処理方法およびコンピュータプログラム
JP5548042B2 (ja) 2010-06-23 2014-07-16 ソフトバンクモバイル株式会社 ユーザ端末装置及びショッピングシステム
JP5499985B2 (ja) * 2010-08-09 2014-05-21 ソニー株式会社 表示装置組立体
US9179140B2 (en) * 2010-10-19 2015-11-03 Mitsubishi Electric Corporation 3dimension stereoscopic display device
US9727132B2 (en) * 2011-07-01 2017-08-08 Microsoft Technology Licensing, Llc Multi-visor: managing applications in augmented reality environments
JP5960466B2 (ja) * 2012-03-28 2016-08-02 京セラ株式会社 画像処理装置、撮像装置、車両の運転支援装置、及び画像処理方法
DE102012224173A1 (de) * 2012-07-04 2013-03-14 Continental Teves Ag & Co. Ohg Befestigungseinrichtung zur Fixierung eines Kabels
US9568735B2 (en) * 2012-08-07 2017-02-14 Industry-University Cooperation Foundation Hanyang University Wearable display device having a detection function
BR112015024910A2 (pt) * 2013-03-26 2017-07-18 Seiko Epson Corp dispositivo de exibição montado na cabeça, método de controle de dispositivo de exibição montado na cabeça e sistema de exibição
US9317114B2 (en) * 2013-05-07 2016-04-19 Korea Advanced Institute Of Science And Technology Display property determination

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09322197A (ja) * 1996-05-24 1997-12-12 Olympus Optical Co Ltd 立体視ディスプレイ装置
WO2006064655A1 (ja) * 2004-12-14 2006-06-22 Matsushita Electric Industrial Co., Ltd. 情報提示装置及び情報提示方法
JP2007210462A (ja) * 2006-02-09 2007-08-23 Mitsubishi Motors Corp 車両用表示制御装置および車両用表示システム
JP2007219081A (ja) * 2006-02-15 2007-08-30 Canon Inc 画像表示システム
JP2008065169A (ja) * 2006-09-08 2008-03-21 Sony Corp 表示装置、表示方法
JP2008176096A (ja) * 2007-01-19 2008-07-31 Brother Ind Ltd 画像表示装置
JP2010170316A (ja) * 2009-01-22 2010-08-05 Konami Digital Entertainment Co Ltd 拡張現実表示装置、拡張現実表示方法、ならびに、プログラム
JP2011128220A (ja) * 2009-12-15 2011-06-30 Toshiba Corp 情報提示装置、情報提示方法及びプログラム
JP2012078224A (ja) * 2010-10-01 2012-04-19 Olympus Corp 画像生成システム、プログラム及び情報記憶媒体
JP2012118121A (ja) * 2010-11-29 2012-06-21 Canon Inc 映像表示装置、映像表示方法及びプログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016143744A1 (ja) * 2015-03-12 2016-09-15 日本精機株式会社 ヘッドマウントディスプレイ装置
JP2016171550A (ja) * 2015-03-12 2016-09-23 日本精機株式会社 ヘッドマウントディスプレイ装置
US10288882B2 (en) 2015-03-12 2019-05-14 Nippon Seiki Co., Ltd. Head mounted display device
US9977241B2 (en) 2015-03-17 2018-05-22 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
US10175484B2 (en) 2015-03-17 2019-01-08 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
JP2019512769A (ja) * 2016-02-18 2019-05-16 イーディーエックス テクノロジーズ インコーポレイテッド ネットワークの拡張現実表現のためのシステムおよび方法
US11120628B2 (en) 2016-02-18 2021-09-14 Edx Technologies, Inc. Systems and methods for augmented reality representations of networks
JP2022119858A (ja) * 2016-02-18 2022-08-17 イーディーエックス テクノロジーズ インコーポレイテッド ネットワークの拡張現実表現のためのシステムおよび方法
JP7133470B2 (ja) 2016-02-18 2022-09-08 イーディーエックス テクノロジーズ インコーポレイテッド ネットワークの拡張現実表現のためのシステムおよび方法
US12033380B2 (en) 2018-08-07 2024-07-09 Sony Corporation Information processing apparatus and information processing method
JP6892961B1 (ja) * 2020-09-29 2021-06-23 Kddi株式会社 制御装置、表示制御方法及び表示制御プログラム
JP2022055698A (ja) * 2020-09-29 2022-04-08 Kddi株式会社 制御装置、表示制御方法及び表示制御プログラム

Also Published As

Publication number Publication date
WO2014185002A1 (en) 2014-11-20
CN105210009B (zh) 2018-08-14
EP2997445A1 (en) 2016-03-23
CN105210009A (zh) 2015-12-30
US20160078685A1 (en) 2016-03-17
JP6318470B2 (ja) 2018-05-09

Similar Documents

Publication Publication Date Title
JP6318470B2 (ja) 表示制御装置、表示制御方法および記録媒体
EP3195595B1 (en) Technologies for adjusting a perspective of a captured image for display
US10943409B2 (en) Information processing apparatus, information processing method, and program for correcting display information drawn in a plurality of buffers
CA2998600C (en) Vehicular display apparatus and vehicular display method
KR102358983B1 (ko) Hdm에 대한 인간―신체―제스처―기반 영역 및 볼륨 선택
US9563981B2 (en) Information processing apparatus, information processing method, and program
US10534428B2 (en) Image processing device and image processing method, display device and display method, and image display system
CN108292448B (zh) 信息处理装置、信息处理方法和程序
US8847850B1 (en) Head mounted display device for displaying augmented reality image capture guide and control method for the same
EP2933707A1 (en) Head mounted display presentation adjustment
US20140256429A1 (en) Image display system and head-mounted display device
KR102114618B1 (ko) 포터블 디바이스 및 그 제어 방법
WO2017169273A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6292478B2 (ja) 透過型hmdを有する情報表示システム及び表示制御プログラム
CN104977716A (zh) 目镜型显示装置及其显示控制方法
KR20160138193A (ko) 멀티모드 디스플레이 시스템
US20180218714A1 (en) Image display apparatus, image processing apparatus, image display method, image processing method, and storage medium
CN108885497B (zh) 信息处理装置、信息处理方法和计算机可读介质
EP3316117A1 (en) Controlling content displayed in a display
US10586392B2 (en) Image display apparatus using foveated rendering
US11366318B2 (en) Electronic device and control method thereof
US10650601B2 (en) Information processing device and information processing method
JP2012058353A (ja) 画像表示装置、及びその制御方法
JP6713591B1 (ja) 表示制御装置、表示制御方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
KR102542977B1 (ko) Mr 시뮬레이션 기반 표지판 시인성을 평가하는 장치 및 그 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180319

R151 Written notification of patent or utility model registration

Ref document number: 6318470

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151