JP7367689B2 - 情報処理装置、情報処理方法、及び記録媒体 - Google Patents
情報処理装置、情報処理方法、及び記録媒体 Download PDFInfo
- Publication number
- JP7367689B2 JP7367689B2 JP2020550211A JP2020550211A JP7367689B2 JP 7367689 B2 JP7367689 B2 JP 7367689B2 JP 2020550211 A JP2020550211 A JP 2020550211A JP 2020550211 A JP2020550211 A JP 2020550211A JP 7367689 B2 JP7367689 B2 JP 7367689B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- display
- display information
- viewpoint
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 196
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000012545 processing Methods 0.000 claims description 128
- 230000008859 change Effects 0.000 claims description 66
- 230000033001 locomotion Effects 0.000 claims description 66
- 238000012937 correction Methods 0.000 claims description 52
- 210000001508 eye Anatomy 0.000 claims description 29
- 210000003128 head Anatomy 0.000 claims description 15
- 238000000034 method Methods 0.000 description 63
- 238000003384 imaging method Methods 0.000 description 62
- 230000036544 posture Effects 0.000 description 45
- 238000004364 calculation method Methods 0.000 description 41
- 238000010586 diagram Methods 0.000 description 35
- 238000005516 engineering process Methods 0.000 description 35
- 238000001514 detection method Methods 0.000 description 30
- 230000008569 process Effects 0.000 description 24
- 239000003550 marker Substances 0.000 description 22
- 238000004891 communication Methods 0.000 description 19
- 230000003287 optical effect Effects 0.000 description 19
- 230000004048 modification Effects 0.000 description 18
- 238000012986 modification Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 6
- 230000004270 retinal projection Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000000691 measurement method Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 210000005252 bulbus oculi Anatomy 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000012538 light obscuration Methods 0.000 description 2
- 238000004020 luminiscence type Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 102100035964 Gastrokine-2 Human genes 0.000 description 1
- 101001075215 Homo sapiens Gastrokine-2 Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000004305 hyperopia Effects 0.000 description 1
- 201000006318 hyperopia Diseases 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000004379 myopia Effects 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/002—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/22—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
- G09G5/32—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory with means for controlling the display position
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
- G09G2320/0261—Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0464—Positioning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2360/00—Aspects of the architecture of display systems
- G09G2360/14—Detecting light within display terminals, e.g. using a single or a plurality of photosensors
- G09G2360/144—Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2360/00—Aspects of the architecture of display systems
- G09G2360/14—Detecting light within display terminals, e.g. using a single or a plurality of photosensors
- G09G2360/145—Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light originating from the display screen
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/10—Intensity circuits
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Description
本開示は、情報処理装置、情報処理方法、及び記録媒体に関する。
近年、画像認識技術の高度化に伴い、撮像装置により撮像された画像に含まれる実オブジェクト(即ち、実空間内の物体)の位置及び姿勢を認識することが可能となっている。このような物体認識の応用例の一つとして、拡張現実(AR:Augmented Reality)と称される技術が挙げられる。AR技術を利用することで、実空間内の物体(以下、「実オブジェクト」とも称する)に対して、テキスト、アイコン、またはアニメーション等の様々な態様の仮想的なコンテンツ(以降では、「仮想オブジェクト」とも称する)を重畳させてユーザに提示することが可能となる。例えば、特許文献1には、AR技術を利用して仮想的なコンテンツをユーザに提示する技術の一例が開示されている。
AR技術を利用してユーザに情報を提示する手法の一例として、所謂透過型のディスプレイを利用する方法が挙げられる。具体的には、ユーザの眼前に透過型のディスプレイが支持され、当該ディスプレイに表示情報(例えば、表示画像)が提示されることで、当該ユーザに対して、実空間の光学像に対して当該表示情報が重畳した画像を視認させることが可能となる。
ところで、ディスプレイ等のような出力部を利用して情報を提示するような状況下では、周囲の環境の明るさ(照度)が、提示される表示情報の視認性に影響を及ぼす場合がある。具体的な一例として、周囲の環境の照度が変化し得る条件下では、同じ明るさで表示情報が提示されたとしても、屋外のような照度が比較的高い場合には、屋内のように照度が比較的低い場合に比べて提示される表示情報の視認性が低下し、ひいては視認が困難となる場合もある。このような背景から、例えば、表示情報の提示に係る発光期間を制御してユーザに視認される表示情報の明るさを制御することで、当該表示情報の視認性を向上させることが可能なディスプレイも提案されている。
一方で、表示情報の提示に係る発光期間の制御に伴い、当該表示情報の提示位置が、実際に提示されている位置からずれているようにユーザに知覚される場合がある。特に、AR技術を利用して、表示情報を実オブジェクトに重畳させてユーザに提示するような状況下では、上述のような表示情報の提示位置のずれがよりユーザに知覚されやすくなる傾向にある。
そこで、本開示では、表示情報の提示に係る発光期間が変化し得る状況下においても、より好適な態様で当該表示情報を提示可能とする技術を提案する。
本開示によれば、視点と表示情報との間の相対的な動きに関する第1の情報と、表示領域への前記表示情報の提示のための発光期間に関する第2の情報と、を取得する取得部と、前記第1の情報及び前記第2の情報に基づき、前記表示情報が前記表示領域に提示されるように制御する制御部と、を備え、前記制御部は、前記発光期間における前記視点と前記表示情報との間の相対的な動きに応じて、前記表示領域における前記表示情報の提示位置を補正する、情報処理装置が提供される。
また、本開示によれば、コンピュータが、視点と表示情報との間の相対的な動きに関する第1の情報と、表示領域への前記表示情報の提示のための発光期間に関する第2の情報と、を取得することと、前記第1の情報及び前記第2の情報に基づき、前記表示情報が前記表示領域に提示されるように制御することと、を含み、前記発光期間における前記視点と前記表示情報との間の相対的な動きに応じて、前記表示領域における前記表示情報の提示位置が補正される、情報処理方法が提供される。
また、本開示によれば、コンピュータに、視点と表示情報との間の相対的な動きに関する第1の情報と、表示領域への前記表示情報の提示のための発光期間に関する第2の情報と、を取得することと、前記第1の情報及び前記第2の情報に基づき、前記表示情報が前記表示領域に提示されるように制御することと、を実行させ、前記発光期間における前記視点と前記表示情報との間の相対的な動きに応じて、前記表示領域における前記表示情報の提示位置が補正される、プログラムが記録された記録媒体が提供される。
また、本開示によれば、頭部装着型の表示装置の光学的透過性を有する表示部に、当該表示装置を装着したユーザから見て、実空間の所定の絶対座標に仮想オブジェクトが位置するように前記表示部を制御する表示制御部と、照度センサから外光の照度に関する情報を取得する照度情報取得部と、を備え、前記表示制御部は、前記外光の照度が高いほど、発光期間がより長くなるように前記表示部を制御し、前記表示制御部は、前記仮想オブジェクトが前記表示部の表示領域内で一方向に向けて移動する場合において、前記外光の照度が第1の照度である場合に、前記ユーザから見て、前記表示領域内の第1の位置に前記仮想オブジェクトを表示させ、前記外光の照度が前記第1の照度よりも高い第2の照度である場合に、前記ユーザから見て、前記水平方向において前記表示領域内の前記第1の位置よりも前記一方向側の第2の位置に前記仮想オブジェクトを表示させる、情報処理装置が提供される。
以上説明したように本開示によれば、表示情報の提示に係る発光期間が変化し得る状況下においても、より好適な態様で当該表示情報を提示可能とする技術が提供される。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.概要
1.1.概略構成
1.2.入出力装置の構成
1.3.自己位置推定の原理
2.周囲の環境の明るさの変化に応じた表示制御に関する検討
3.技術的特徴
3.1.基本原理
3.2.機能構成
3.3.処理
3.4.変形例
3.4.1.変形例1:スキャンライン発光への適用例
3.4.2.変形例2:表示情報の移動を想定した制御の一例
4.ハードウェア構成
4.1.独立して動作可能な装置としての構成例
4.2.チップとして実現する場合の構成例
5.むすび
1.概要
1.1.概略構成
1.2.入出力装置の構成
1.3.自己位置推定の原理
2.周囲の環境の明るさの変化に応じた表示制御に関する検討
3.技術的特徴
3.1.基本原理
3.2.機能構成
3.3.処理
3.4.変形例
3.4.1.変形例1:スキャンライン発光への適用例
3.4.2.変形例2:表示情報の移動を想定した制御の一例
4.ハードウェア構成
4.1.独立して動作可能な装置としての構成例
4.2.チップとして実現する場合の構成例
5.むすび
<<1.概要>>
<1.1.概略構成>
まず、図1を参照して、本開示の一実施形態に係る情報処理システムの概略的な構成の一例について説明する。図1は、本開示の一実施形態に係る情報処理システムの概略的な構成の一例について説明するための説明図である。図1において、参照符号M11は、実空間内に位置する物体(即ち、実オブジェクト)を模式的に示している。また、参照符号V13及びV15は、実空間に重畳するように提示される仮想的なコンテンツ(即ち、仮想オブジェクト)を模式的に示している。即ち、本実施形態に係る情報処理システム1は、所謂AR(Augmented Reality)技術に基づき、例えば、実オブジェクトM11等の実空間内の物体に対して、仮想オブジェクトを重畳してユーザに提示する。なお、図1では、本実施形態に係る情報処理システムの特徴をよりわかりやすくするために、実オブジェクトと仮想オブジェクトとの双方をあわせて提示している。
<1.1.概略構成>
まず、図1を参照して、本開示の一実施形態に係る情報処理システムの概略的な構成の一例について説明する。図1は、本開示の一実施形態に係る情報処理システムの概略的な構成の一例について説明するための説明図である。図1において、参照符号M11は、実空間内に位置する物体(即ち、実オブジェクト)を模式的に示している。また、参照符号V13及びV15は、実空間に重畳するように提示される仮想的なコンテンツ(即ち、仮想オブジェクト)を模式的に示している。即ち、本実施形態に係る情報処理システム1は、所謂AR(Augmented Reality)技術に基づき、例えば、実オブジェクトM11等の実空間内の物体に対して、仮想オブジェクトを重畳してユーザに提示する。なお、図1では、本実施形態に係る情報処理システムの特徴をよりわかりやすくするために、実オブジェクトと仮想オブジェクトとの双方をあわせて提示している。
図1に示すように、本実施形態に係る情報処理システム1は、情報処理装置10と、入出力装置20とを含む。情報処理装置10と入出力装置20とは、所定のネットワークを介して互いに情報を送受信可能に構成されている。なお、情報処理装置10と入出力装置20とを接続するネットワークの種別は特に限定されない。具体的な一例として、当該ネットワークは、Wi-Fi(登録商標)規格に基づくネットワークのような、所謂無線のネットワークにより構成されていてもよい。また、他の一例として、当該ネットワークは、インターネット、専用線、LAN(Local Area Network)、または、WAN(Wide Area Network)等により構成されていてもよい。また、当該ネットワークは、複数のネットワークを含んでもよく、少なくとも一部が有線のネットワークとして構成されていてもよい。また、情報処理装置10は、例えば、スマートフォン等のような無線の通信経路を介して他の装置と通信可能に構成された装置であってもよい。この場合には、入出力装置20は、例えば、当該スマートフォンの付属アクセサリとして提供されるようなウェアラブルディスプレイとして構成されていてもよい。即ち、入出力装置20は、スマートフォン等として構成された情報処理装置10と上述のようにネットワークを介して接続されることで、当該情報処理装置10と連動して動作するデバイス(例えば、ウェアラブルデバイス等)として構成されていてもよい。
入出力装置20は、各種入力情報の取得や、当該入出力装置20を保持するユーザに対して各種出力情報を提示するための構成である。また、入出力装置20による出力情報の提示は、情報処理装置10により、当該入出力装置20により取得された入力情報に基づき制御される。例えば、入出力装置20は、実オブジェクトM11を認識するための情報を入力情報として取得し、取得した情報を情報処理装置10に出力する。情報処理装置10は、入出力装置20から取得した情報に基づき、実空間内における実オブジェクトM11の位置(即ち、実オブジェクトM11の絶対座標)を認識し、当該認識結果に基づき、入出力装置20に仮想オブジェクトV13及びV15を提示させる。このような制御により、入出力装置20は、所謂AR技術に基づき、実オブジェクトM11に対して仮想オブジェクトV13及びV15が重畳するように、当該仮想オブジェクトV13及びV15をユーザに提示することが可能となる。なお、図1では、入出力装置20と情報処理装置10とが互いに異なる装置として示されているが、入出力装置20及び情報処理装置10は一体的に構成されていてもよい。また、入出力装置20及び情報処理装置10の構成及び処理の詳細については別途後述する。
以上、図1を参照して、本開示の一実施形態に係る情報処理システムの概略的な構成の一例について説明した。
<1.2.入出力装置の構成>
続いて、図2を参照して、図1に示した本実施形態に係る入出力装置20の概略的な構成の一例について説明する。図2は、本実施形態に係る入出力装置の概略的な構成の一例について説明するための説明図である。
続いて、図2を参照して、図1に示した本実施形態に係る入出力装置20の概略的な構成の一例について説明する。図2は、本実施形態に係る入出力装置の概略的な構成の一例について説明するための説明図である。
本実施形態に係る入出力装置20は、ユーザが頭部の少なくとも一部に装着して使用する、所謂頭部装着型デバイスとして構成されている。例えば、図2に示す例では、入出力装置20は、所謂アイウェア型(メガネ型)のデバイスとして構成されており、レンズ293a及び293bのうち少なくともいずれかが透過型のディスプレイ(出力部211)として構成されている。また、入出力装置20は、第1撮像部201a及び201bと、第2撮像部203a及び203bと、操作部207と、メガネのフレームに相当する保持部291とを備える。保持部291は、入出力装置20がユーザの頭部に装着されたときに、出力部211と、第1撮像部201a及び201bと、第2撮像部203a及び203bと、操作部207とを、当該ユーザの頭部に対して所定の位置関係となるように保持する。また、図2には図示していないが、入出力装置20は、ユーザの音声を集音するための集音部を備えていてもよい。
ここで、入出力装置20のより具体的な構成について説明する。例えば、図2に示す例では、レンズ293aが、右眼側のレンズに相当し、レンズ293bが、左眼側のレンズに相当する。即ち、保持部291は、入出力装置20が装着された場合に、出力部211(換言すると、レンズ293a及び293b)がユーザの眼前に位置するように、当該出力部211を保持する。換言すると、当該保持部291により、出力部211がユーザの眼前に位置するように支持される。即ち、保持部291が、「支持部」の一例に相当する。
第1撮像部201a及び201bは、所謂ステレオカメラとして構成されており、入出力装置20がユーザの頭部に装着されたときに、当該ユーザの頭部が向いた方向(即ち、ユーザの前方)を向くように、保持部291によりそれぞれ保持される。このとき、第1撮像部201aが、ユーザの右眼の近傍に保持され、第1撮像部201bが、当該ユーザの左眼の近傍に保持される。このような構成に基づき、第1撮像部201a及び201bは、入出力装置20の前方に位置する被写体(換言すると、実空間に位置する実オブジェクト)を互いに異なる位置から撮像する。これにより、入出力装置20は、ユーザの前方に位置する被写体の画像を取得するとともに、第1撮像部201a及び201bそれぞれにより撮像された画像間の視差に基づき、当該入出力装置20から、当該被写体までの距離を算出することが可能となる。なお、本開示において「画像」と記載した場合には、特に説明がない限りは「静止画像」と「動画像」とを含み得るものとする。
なお、入出力装置20と被写体との間の距離を測定可能であれば、その構成や方法は特に限定されない。具体的な一例として、マルチカメラステレオ、移動視差、TOF(Time Of Flight)、Structured Light等の方式に基づき、入出力装置20と被写体との間の距離が測定されてもよい。ここで、TOFとは、被写体に対して赤外線等の光を投光し、投稿した光が当該被写体で反射して戻るまでの時間を画素ごとに測定することで、当該測定結果に基づき被写体までの距離(深度)を含めた画像(所謂距離画像)を得る方式である。また、Structured Lightは、被写体に対して赤外線等の光によりパターンを照射しそれを撮像することで、撮像結果から得られる当該パターンの変化に基づき、被写体までの距離(深度)を含めた距離画像を得る方式である。また、移動視差とは、所謂単眼カメラにおいても、視差に基づき被写体までの距離を測定する方法である。具体的には、カメラを移動させることで、被写体を互いに異なる視点から撮像し、撮像された画像間の視差に基づき被写体までの距離を測定する。なお、このとき各種センサによりカメラの移動距離及び移動方向を認識することで、被写体までの距離をより精度良く測定することが可能となる。なお、距離の測定方法に応じて、撮像部の構成(例えば、単眼カメラ、ステレオカメラ等)を変更してもよい。
また、第2撮像部203a及び203bは、入出力装置20がユーザの頭部に装着されたときに、それぞれの撮像範囲内に当該ユーザの眼球が位置するように、保持部291によりそれぞれ保持される。具体的な一例として、第2撮像部203aは、撮像範囲内にユーザの右眼が位置するように保持される。このような構成に基づき、第2撮像部203aにより撮像された右眼の眼球の画像と、当該第2撮像部203aと当該右眼との間の位置関係と、に基づき、当該右眼の視線が向いている方向を認識することが可能となる。同様に、第2撮像部203bは、撮像範囲内に当該ユーザの左眼が位置するように保持される。即ち、第2撮像部203bにより撮像された左眼の眼球の画像と、当該第2撮像部203bと当該左眼との間の位置関係と、に基づき、当該左眼の視線が向いている方向を認識することが可能となる。なお、図2に示す例では、入出力装置20が第2撮像部203a及び203bの双方を含む構成について示しているが、第2撮像部203a及び203bのうちいずれかのみが設けられていてもよい。
操作部207は、入出力装置20に対するユーザからの操作を受け付けるための構成である。操作部207は、例えば、タッチパネルやボタン等のような入力デバイスにより構成されていてもよい。操作部207は、保持部291により、入出力装置20の所定の位置に保持されている。例えば、図2に示す例では、操作部207は、メガネのテンプルに相当する位置に保持されている。
また、本実施形態に係る入出力装置20は、例えば、加速度センサや、角速度センサ(ジャイロセンサ)が設けられ、当該入出力装置20を装着したユーザの頭部の動き(換言すると、入出力装置20自体の動き)を検出可能に構成されていてもよい。具体的な一例として、入出力装置20は、ユーザの頭部の動きとして、ヨー(yaw)方向、ピッチ(pitch)方向、及びロール(roll)方向それぞれの成分を検出することで、当該ユーザの頭部の位置及び姿勢のうち少なくともいずれかの変化を認識してもよい。
以上のような構成に基づき、本実施形態に係る入出力装置20は、ユーザの頭部の動きに応じた、実空間内における自身の位置や姿勢の変化を認識することが可能となる。また、このとき入出力装置20は、所謂AR技術に基づき、実空間に位置する実オブジェクトに対して、仮想的なコンテンツ(即ち、仮想オブジェクト)が重畳するように、出力部211に当該コンテンツを提示することも可能となる。なお、入出力装置20が、実空間内における自身の位置及び姿勢を推定するための方法(即ち、自己位置推定)の一例については、詳細を別途後述する。
なお、入出力装置20として適用可能な頭部装着型の表示装置(HMD:Head Mounted Display)の一例としては、例えば、シースルー型HMD、ビデオシースルー型HMD、及び網膜投射型HMDが挙げられる。
シースルー型HMDは、例えば、ハーフミラーや透明な導光板を用いて、透明な導光部等からなる虚像光学系(即ち、光学的透過性を有する表示部)をユーザの眼前に保持し、当該虚像光学系の内側に画像を表示させる。そのため、シースルー型HMDを装着したユーザは、虚像光学系の内側に表示された画像を視聴している間も、外部の風景を視野に入れることが可能となる。このような構成により、シースルー型HMDは、例えば、AR技術に基づき、当該シースルー型HMDの位置及び姿勢のうち少なくともいずれかの認識結果に応じて、実空間に位置する実オブジェクトの光学像に対して仮想オブジェクトの画像を重畳させることも可能となる。なお、シースルー型HMDの具体的な一例として、メガネのレンズに相当する部分を虚像光学系として構成した、所謂メガネ型のウェアラブルデバイスが挙げられる。例えば、図2に示した入出力装置20は、シースルー型HMDの一例に相当する。
ビデオシースルー型HMDは、ユーザの頭部または顔部に装着された場合に、ユーザの眼を覆うように装着され、ユーザの眼前にディスプレイ等の表示部が保持される。また、ビデオシースルー型HMDは、周囲の風景を撮像するための撮像部を有し、当該撮像部により撮像されたユーザの前方の風景の画像を表示部に表示させる。このような構成により、ビデオシースルー型HMDを装着したユーザは、外部の風景を直接視野に入れることは困難ではあるが、表示部に表示された画像により、外部の風景を確認することが可能となる。また、このときビデオシースルー型HMDは、例えば、AR技術に基づき、当該ビデオシースルー型HMDの位置及び姿勢のうち少なくともいずれかの認識結果に応じて、外部の風景の画像に対して仮想オブジェクトを重畳させてもよい。
網膜投射型HMDは、ユーザの眼前に投影部が保持されており、当該投影部からユーザの眼に向けて、外部の風景に対して画像が重畳するように当該画像が投影される。より具体的には、網膜投射型HMDでは、ユーザの眼の網膜に対して、投影部から画像が直接投射され、当該画像が網膜上で結像する。このような構成により、近視や遠視のユーザの場合においても、より鮮明な画像を視聴することが可能となる。また、網膜投射型HMDを装着したユーザは、投影部から投影される画像を視聴している間も、外部の風景を視野に入れることが可能となる。このような構成により、網膜投射型HMDは、例えば、AR技術に基づき、当該網膜投射型HMDの位置や姿勢のうち少なくともいずれかの認識結果に応じて、実空間に位置する実オブジェクトの光学像に対して仮想オブジェクトの画像を重畳させることも可能となる。
また、上記に説明した例以外にも、没入型HMDと呼ばれるHMDが挙げられる。没入型HMDは、ビデオシースルー型HMDと同様に、ユーザの眼を覆うように装着され、ユーザの眼前にディスプレイ等の表示部が保持される。そのため、没入型HMDを装着したユーザは、外部の風景(即ち、現実世界の風景)を直接視野に入れることが困難であり、表示部に表示された画像のみが視界に入ることとなる。このような構成により、没入型HMDは、画像を視聴しているユーザに対して没入感を与えることが可能となる。そのため、没入型HMDは、例えば、主にVR(Virtual Reality)技術に基づき情報を提示する場合に適用され得る。
以上、図2を参照して、本開示の一実施形態に係る入出力装置の概略的な構成の一例について説明した。
<1.3.自己位置推定の原理>
次いで、入出力装置20が、実オブジェクトに対して仮想オブジェクトを重畳させる際に、実空間内における自身の位置及び姿勢を推定するための手法(即ち、自己位置推定)の原理の一例について説明する。
次いで、入出力装置20が、実オブジェクトに対して仮想オブジェクトを重畳させる際に、実空間内における自身の位置及び姿勢を推定するための手法(即ち、自己位置推定)の原理の一例について説明する。
自己位置推定の具体的な一例として、入出力装置20は、実空間内の実オブジェクト上に提示されたサイズが既知のマーカ等を、自身に設けられたカメラ等の撮像部により撮像する。そして、入出力装置20は、撮像された画像を解析することで、マーカ(ひいては、当該マーカが提示された実オブジェクト)に対する自身の相対的な位置及び姿勢のうち少なくともいずれかを推定する。なお、以降の説明では、入出力装置20が自身の位置及び姿勢を推定する場合に着目して説明するが、当該入出力装置20は、自身の位置及び姿勢のうちいずれかのみを推定してもよい。
具体的には、画像中に撮像されたマーカの向き(例えば、マーカの模様等の向き)に応じて、当該マーカに対する撮像部(ひいては、当該撮像部を備える入出力装置20)の相対的な方向を推定することが可能である。また、マーカのサイズが既知の場合には、画像中におけるマーカのサイズに応じて、当該マーカと撮像部(即ち、当該撮像部を備える入出力装置20)との間の距離を推定することが可能である。より具体的には、マーカをより遠くから撮像すると、当該マーカは、より小さく撮像されることとなる。また、このとき画像中に撮像される実空間内の範囲は、撮像部の画角に基づき推定することが可能である。以上の特性を利用することで、画像中に撮像されたマーカの大きさ(換言すると、画角内においてマーカが占める割合)に応じて、当該マーカと撮像部との間の距離を逆算することが可能である。以上のような構成により、入出力装置20は、マーカに対する自身の相対的な位置及び姿勢を推定することが可能となる。
また、所謂SLAM(simultaneous localization and mapping)と称される技術が、入出力装置20の自己位置推定に利用されてもよい。SLAMとは、カメラ等の撮像部、各種センサ、エンコーダ等を利用することにより、自己位置推定と環境地図の作成とを並行して行う技術である。より具体的な一例として、SLAM(特に、Visual SLAM)では、撮像部により撮像された動画像に基づき、撮像されたシーン(または、被写体)の3次元形状を逐次的に復元する。そして、撮像されたシーンの復元結果を、撮像部の位置及び姿勢の検出結果と関連付けることで、周囲の環境の地図の作成と、当該環境における撮像部(ひいては、入出力装置20)の位置及び姿勢の推定とが行われる。なお、撮像部の位置及び姿勢については、例えば、入出力装置20に加速度センサや角速度センサ等の各種センサを設けることで、当該センサの検出結果に基づき相対的な変化を示す情報として推定することが可能である。もちろん、撮像部の位置及び姿勢を推定可能であれば、その方法は、必ずしも加速度センサや角速度センサ等の各種センサの検知結果に基づく方法のみには限定されない。
以上のような構成のもとで、例えば、撮像部による既知のマーカの撮像結果に基づく、当該マーカに対する入出力装置20の相対的な位置及び姿勢の推定結果が、上述したSLAMにおける初期化処理や位置補正に利用されてもよい。このような構成により、入出力装置20は、マーカが撮像部の画角内に含まれない状況下においても、従前に実行された初期化や位置補正の結果を受けたSLAMに基づく自己位置推定により、当該マーカ(ひいては、当該マーカが提示された実オブジェクト)に対する自身の位置及び姿勢を推定することが可能となる。
また、上記では、主にマーカの撮像結果に基づき自己位置推定を行う場合の例に着目して説明したが、自己位置推定の基準として利用可能であれば、当該マーカ以外の他の対象の検知結果が当該自己位置推定に利用されてもよい。具体的な一例として、上記マーカに替えて、実空間内の物体(実オブジェクト)の形状や模様等のような当該物体の特徴的な部分の検出結果が、SLAMにおける初期化処理や位置補正に利用されてもよい。
以上、入出力装置20が、実オブジェクトに対して仮想オブジェクトを重畳させる際に、実空間内における自身の位置及び姿勢を推定するための手法(即ち、自己位置推定)の原理の一例について説明した。なお、以降においては、例えば、上述した原理に基づき、実空間内の物体(実オブジェクト)に対する入出力装置20の位置及び姿勢を推定することが可能であるものして説明する。
<<2.周囲の環境の明るさの変化に応じた表示制御に関する検討>>
続いて、所謂透過型のディスプレイが利用される場合のように周囲の環境の明るさが情報の提示に影響し得るような状況下で、当該環境の明るさの変化に応じた表示制御に関して概要を説明したうえで、本開示の一実施形態に係る情報処理システムの技術的課題について説明する。なお、本開示において「表示情報」と記載した場合には、特に説明がない限りは、画像(例えば、静止画像や動画像)や文字情報等のように、ディスプレイ等の出力部を介してユーザに視覚的に提示される情報を示すものとする。
続いて、所謂透過型のディスプレイが利用される場合のように周囲の環境の明るさが情報の提示に影響し得るような状況下で、当該環境の明るさの変化に応じた表示制御に関して概要を説明したうえで、本開示の一実施形態に係る情報処理システムの技術的課題について説明する。なお、本開示において「表示情報」と記載した場合には、特に説明がない限りは、画像(例えば、静止画像や動画像)や文字情報等のように、ディスプレイ等の出力部を介してユーザに視覚的に提示される情報を示すものとする。
所謂ディスプレイ等のような出力部を利用して情報を提示するような状況下では、周囲の環境の明るさ(照度)が、提示される表示情報の視認性に影響を及ぼす場合がある。具体的な一例として、屋内のように周囲の環境の照度が比較的低い場合と、屋外のように周囲の環境の照度が比較的高い場合とでは、照度が大きく異なる(例えば、100lx~数万lx)。このように周囲の環境の照度が変化し得る条件下では、同じ明るさで表示情報が提示されたとしても、屋外のような照度が比較的高い場合には、屋内のように照度が比較的低い場合に比べて提示される表示情報の視認性が低下し、ひいては視認が困難となる場合もある。このような周囲の環境の明るさの違いによる影響は、例えば、透過型のディスプレイが利用される場合にはより顕在化しやすい傾向にある。
このような背景から、例えば、周囲の環境の明るさ(照度)の変化に応じて、以下に示すような制御を適用することで、出力部を介して提示される表示情報(表示画像)の視認性の向上を図る場合がある。
・出力部を介した表示情報(表示画像)の提示に係る発光出力を制御する
・出力部を介した表示情報(表示画像)の提示に係る発光期間を制御する
・ユーザに視認される外部の環境の光を調光する
・出力部を介した表示情報(表示画像)の提示に係る発光出力を制御する
・出力部を介した表示情報(表示画像)の提示に係る発光期間を制御する
・ユーザに視認される外部の環境の光を調光する
「出力部を介した表示情報(表示画像)の提示に係る発光出力を制御する」方法では、出力部を介して情報を提示するための発光体(例えば、バックライト)の輝度を上げることで、ユーザに視認される表示情報の明るさが制御される。これに対して、「出力部を介した表示情報(表示画像)の提示に係る発光期間を制御する」方法では、上記発光体の発光期間を長くすることで、ユーザに視認される表示情報の明るさが制御される。なお、以降の説明では、単に「発光期間」と記載した場合には、特に説明が無い限りは、出力部を介した表示情報の提示に係る発光期間(例えば、ディスプレイ等の出力部の発光期間)を示すものとする。また、単に「消灯期間」と記載した場合には、上記発光期間に対する消灯期間(例えば、ディスプレイ等の出力部の消灯期間)を示すものとする。
また、「ユーザに視認される外部の環境の光を調光する」方法では、例えば、出力部に対して偏光素子等を適用することで、当該出力部を透過してユーザに視認される外部の環境の光(以下、「外光」とも称する)の影響を調整する。このような調光制御により、屋外のように外部の照度がより高い状況下においても、ユーザが表示情報を視認する環境の照度を抑えることが可能となるため、出力部を介して提示される表示情報の視認性を向上させることが可能となる。
以上のように、上述した表示情報の提示に係る制御のうちのいずれか、または複数の制御の組み合わせの適用により、周囲の環境の照度が比較的高い状況下においても、表示情報の視認性を向上させる効果が期待される。
一方で、図1を参照して説明した所謂AR技術が適用される場合のように、視点の位置や姿勢の変化に応じて表示情報が提示されるような状況下では、上記発光期間の制御に応じて、表示情報の提示位置が本来想定される位置からずれたように知覚される場合がある。
ここで、本開示に係る情報処理システムの技術的課題をよりわかりやすくするために、発光期間の制御、換言すると、発光期間と消灯期間との間のデューティー比の制御により、ユーザに視認される表示情報の明るさを制御する方法について概要を説明する。
例えば、図3は、発光期間の制御により、ユーザに視認される表示情報の明るさを制御する方法について概要を説明するための説明図である。図3において、Vsyncは、ディスプレイ等のような出力部の垂直同期信号のタイミングを模式的に示している。即ち、V_TOTALは、上記垂直同期信号の周期を示しており、換言すると、ディスプレイ等のような出力部のリフレッシュレートに相当する。
VALID_STは、上記出力部を介して提示される画像が置換されるタイミングを模式的に示している。即ち、図3に示すように、垂直同期信号の周期に連動して画像置換が行われる。
EMIT_Nは、上記出力部を介して表示情報を提示するための発光期間と消灯期間との間の関係を模式的に示しており、換言すると、垂直同期信号の周期ごとに時系列に沿って設定される発光期間及び消灯期間を示している。具体的には、EMIT_N_Dで示されたタイミングは発光タイミングを示しており、EMIT_N_Uで示されたタイミングは消灯タイミングを示している。発光タイミングEMIT_N_D及び消灯タイミングEMIT_N_Uのそれぞれは、垂直同期信号の周期ごとの画像置換が行われるタイミング間に設定される。また、画像置換が行われるタイミング間の期間のうち、発光タイミングEMIT_N_Dから消灯タイミングEMIT_N_Uまでの期間が発光期間に相当し、その他の期間が消灯期間に相当する。
発光期間の長さは、直前の画像置換により設定された提示対象となる画像(即ち、表示情報)の明るさに応じて制御され得る。なお、図3に示す例では、発光タイミングEMIT_N_Dが画像置換のタイミングの直後に固定されており、消灯タイミングEMIT_N_Uが適宜制御されることで発光期間の長さが制御される。もちろん、図3に示す例はあくまで一例であり、必ずしも発光期間の制御方法を限定するものではない。即ち、発光タイミングEMIT_N_Dと消灯タイミングEMIT_N_Uとのうち少なくともいずれかを制御することで、発光期間を制御することが可能である。
続いて、発光期間の制御に応じて、表示情報の提示位置が本来想定される位置からずれたように知覚される仕組みについて、所謂AR技術に基づき実空間内の物体(実オブジェクト)に重畳するように(換言すると、実空間の所定の絶対座標に位置するように)表示情報を提示する場合を例に概要を説明する。
例えば、図4は、AR技術の概要について説明するための説明図であり、表示情報が実空間内の物体に重畳するように当該表示情報を提示する仕組みについて模式的に示している。図4において、参照符号P101は、視点の位置及び姿勢を模式的に示しており、具体的な一例として、入出力装置20の位置及び姿勢(より厳密には、入出力装置20を装着したユーザの眼の位置及び姿勢)に相当する。参照符号M121は、実空間内の物体(実オブジェクト)を模式的に示している。参照符号V100は、表示情報が提示される表示領域を模式的に示しており、例えば、入出力装置20の出力部211の表示領域に相当し得る。参照符号V111は、出力部211を介してユーザに提示される表示情報(例えば、仮想オブジェクト)を模式的に示している。なお、以降の説明では、便宜上、視点P101から見た場合における横方向、縦方向、及び奥行き方向をそれぞれ、「X方向」、「Y方向」、及び「Z方向」と称する場合がある。
AR技術に基づき表示情報V111が提示される場合には、例えば、観察点(視点P101)を基準として、当該観察点からの視野(画角)に応じて規定されるスクリーン面に対して、対象となるオブジェクトを投影する。即ち、スクリーン面が投影面に相当する。例えば、図4に示す例の場合には、表示領域V100中の少なくとも一部の領域をスクリーン面(投影面)として、提示対象となるオブジェクト(例えば、仮想オブジェクト等)が投影される。そして、当該オブジェクトの投影結果が2次元的な情報として描画され、当該描画の結果が表示情報V111として表示領域V100に提示される。このとき、表示領域V100中における表示情報V111の提示位置が、例えば、視点P101と実オブジェクトM121との間の相対的な位置や姿勢の関係に応じて制御される。このような制御により、実オブジェクトM121に対して表示情報V111が重畳するように、当該表示情報V111を提示することが可能となる。
例えば、図5は、AR技術に基づく表示情報の提示態様の一例について示した図であり、図4に示す例において、実オブジェクトM121に対して重畳するように表示情報V111が提示された状態のうち、特に理想的な状態を模式的に示している。具体的には、図5は、図4に示すような状況下で、図2に示す出力部211(即ち、透過型のディスプレイ)の表示領域V100に対して表示情報V111が提示されている状態で、ユーザに視認される結合された像(即ち、実オブジェクトM121の光学像及び表示情報V111)を模式的に示している。即ち、図4に示す例においては、理想的には、図5に示すように実オブジェクトM121に対して表示情報V111が重畳した画像がユーザに視認されることとなる。
一方で、前述したように発光期間の長さの制御によりユーザに視認される表示情報の明るさを制御する場合には、例えば、当該発光期間中に視点の位置や姿勢が変化することで、表示情報の提示位置が本来想定される位置からずれたように知覚される場合がある。
例えば、図6は、発光期間中に視点の位置や姿勢が変化することで、表示情報の提示位置がずれたように知覚されるような状況の一例について説明するための説明図である。具体的には、図6は、図4に示す例において、発光期間中に視点の位置や姿勢が変化する状況を模式的に示している。図6において、参照符号P101、V111、及びM121は、図4に示す例において同様の符号が付された対象を示している。また、図6に示すX方向、Y方向、及びZ方向は、図4に示す例におけるX方向、Y方向、及びZ方向にそれぞれ対応している。即ち、図6では、図4に示す例において、発光期間中に視点P101の位置や姿勢が横方向(X方向)に変化するような状況を模式的に示している。
また、図7及び図8は、発光期間中に視点の位置や姿勢が変化することで、表示情報の提示位置がずれたように知覚される仕組みについて概要を説明するための説明図である。
具体的には、図7は、図6に示すような状況下で、透過型のディスプレイとして構成された出力部(例えば、図2に示す出力部211)を介して、撮像部により結合像(即ち、実空間の光学像及び出力部に提示された表示情報)を再撮することで得られる画像の一例を示している。なお、図7に示す例では、再撮に利用される当該撮像部は、ユーザの眼を模しており、視点P101の位置や姿勢が変化した場合に、当該視点P101と一体的に位置や姿勢が変化するものとする。また、図7に示す例では、発光期間(ホールド期間)を「1ms」、「8ms」、及び「16ms」に設定した場合について、再撮結果(換言すると、視点P101から視認される結合像)をそれぞれ示している。また、ディスプレイ等の出力部が情報を提示する方式として、例えば、画面全体を同時に書き換える方式(グローバル発光)と、画面をライン単位で逐次的に書き換える方式(スキャンライン発光)と、が挙げられるが、説明をよりわかりやすくするためにグローバル発光が適用されているものとする。
発光期間中に視点P101の位置や姿勢が変化するような状況下では、再撮に利用される撮像部と表示情報V111との間の相対的な位置や姿勢の関係は固定され、当該撮像部と実オブジェクトM121との間の相対的な位置や姿勢の関係が変化する。そのため、例えば、図7に示すように、発光期間中の視点P101の移動に伴い、当該移動の方向(即ち、視点の位置や姿勢の変化方向)に沿って実オブジェクトM121にブレ(例えば、モーションブラー)が生じたような再撮結果が得られる。このような、実オブジェクトM121のブレは、例えば、視点P101の位置や姿勢の変化の度合い(例えば、視点P101の位置や姿勢の変化速度)が大きいほどより大きくなり、発光期間がより長いほどより大きくなる傾向にある。そのため、例えば、発光期間に関わらず視点P101の位置や姿勢の変化の度合いが同じである場合には、図7に示すように、発光期間がより長くなるほど、実オブジェクトM121のブレはより大きくなる。
上記のように、実オブジェクトM121にブレが生じるような状況下においては、図7に示すように、当該実オブジェクトM121の再撮結果の中心(即ち、ブレが生じた実オブジェクトM121の中心)と、表示情報V111の再撮結果の中心(即ち、表示情報V111の中心)と、の間に、視点P101の位置や姿勢の変化方向に沿ってずれが生じる場合がある。
これに対して、図8は、図6に示すような状況下で、透過型のディスプレイとして構成された出力部(例えば、図2に示す出力部211)を介して、ユーザに視認される結合像を模式的に示している。図8において、参照符号V100、V111、及びM121のそれぞれは、図7に示す例において同様の符号が付された対象を示している。
具体的には、AR技術に基づき実オブジェクトM121に重畳するように表示情報V111を提示する状況下では、例えば、輻輳角が実オブジェクトM121側に合うように出力部を介した表示情報V111の提示が制御される。より具体的には、ユーザが両眼を利用して表示情報V111を視認するような状況下において、例えば、左右の眼それぞれで視認される表示情報V111の提示位置を調整することで、輻輳角が視点P101から実オブジェクトM121までの距離に略一致するように調整される。また、このとき出力部が表示情報を提示する方式に応じて、焦点距離が調整されてもよい。
このように、輻輳角が視点P101から実オブジェクトM121までの距離に略一致するように調整されるような状況下では、例えば、図8に示すように、実オブジェクトM121にはブレが生じず、表示情報V111にブレ(モーションブラー)が生じたような結合像がユーザに視認され得る。なお、この場合においても、図8に示すように、実オブジェクトM121の光学像の中心と、ユーザに視認される表示情報V111の中心(即ち、ブレが生じた表示情報V111の中心)と、の間に、視点P101の位置や姿勢の変化方向にずれが生じる場合がある。また、図8に示す、実オブジェクトM121の光学像の中心と、ユーザに視認される表示情報V111の中心と、の間のずれの量は、理論的には、図7に示す、実オブジェクトM121の再撮結果の中心と、表示情報V111の再撮結果の中心と、の間のずれの量と一致することとなる。
図7及び図8に示すように、実オブジェクトM121の中心と、表示情報V111の中心と、の間にずれが生じているような状況下では、ユーザには、あたかも表示情報V111の提示位置がずれたように知覚されることとなる。また、このような視点P101の位置や姿勢の変化に伴いユーザに知覚される表示情報V111の提示位置のずれは、上述の通り、発光期間がより長くなるほどより大きくなる傾向にある。
以上のような状況を鑑み、本開示では、表示情報の提示に係る発光期間が変化し得るような状況下においても、より好適な態様で当該表示情報を提示可能とする技術を提案する。具体的には、視点の位置や姿勢の変化に伴い、発光期間に応じた画像のブレが生じるような状況下においても、表示情報の提示位置のずれがユーザに知覚されるような状態の顕在化を抑制可能とする技術を提案する。
<<3.技術的特徴>>
以下に、本開示の一実施形態に係る情報処理システム1の技術的特徴について説明する。
以下に、本開示の一実施形態に係る情報処理システム1の技術的特徴について説明する。
<3.1.基本原理>
まず、本開示の一実施形態に係る情報処理システム1が、視点の位置や姿勢の変化に伴い、発光期間に応じた画像のブレが生じるような状況下において、表示情報の提示位置のずれがユーザに知覚されるような状態の顕在化を抑制するための技術の基本原理について説明する。例えば、図9は、本開示の一実施形態に係る情報処理システム1の技術的特長の基本原理について説明するための説明図である。
まず、本開示の一実施形態に係る情報処理システム1が、視点の位置や姿勢の変化に伴い、発光期間に応じた画像のブレが生じるような状況下において、表示情報の提示位置のずれがユーザに知覚されるような状態の顕在化を抑制するための技術の基本原理について説明する。例えば、図9は、本開示の一実施形態に係る情報処理システム1の技術的特長の基本原理について説明するための説明図である。
図7を参照して前述したように、視点の位置や姿勢の変化に伴い、実オブジェクトM121に対して発光期間に応じたブレが生じるような状況下においては、ブレが生じた実オブジェクトM121の中心と、表示情報V111の中心と、の間にずれが生じる。そこで、本実施形態に係る情報処理システム1では、視点の位置や姿勢の変化や発光期間に応じて生じる、ブレが生じた実オブジェクトM121の中心と、表示情報V111の中心と、の間のずれを推測し、当該ずれが解消されるように表示情報V111の提示位置を補正する。
例えば、図9において、参照符号V100及びM121は、図7に示す例において同様の符号が付された対象をそれぞれ示している。また、参照符号V115は、補正が適用される前の表示情報V111の提示位置を模式的に示している。また、参照符号V113は、提示位置が補正された後の表示情報V111を模式的に示している。また、図9に示す例では、上記補正の適用結果の一例を、発光期間(ホールド期間)を「1ms」、「8ms」、及び「16ms」に設定した場合のそれぞれについて示している。なお、実際には、視点の位置や姿勢の変化や発光期間に応じて、図8に示すように表示情報V111側にブレが生じるようにユーザには知覚されるが、説明をよりわかりやすくするために、便宜上、図7に示すように、実オブジェクトM121側にブレが生じるものとして説明する。
図7を参照して前述したように、実オブジェクトM121のブレは、例えば、視点P101の位置や姿勢の変化の度合いが大きいほどより大きくなり、発光期間がより長いほどより大きくなる傾向にある。そこで、本実施形態に係る情報処理システム1では、視点P101の動き(例えば、視点P101の位置や姿勢の変化)の検知結果と、発光期間と、に基づき、ブレが生じた実オブジェクトM121の中心と、表示情報V111の中心と、の間にずれを推測する。そして、情報処理システム1は、当該ずれの推測結果に基づき、表示領域V100中における表示情報V111の提示位置を補正することで、当該ずれを解消する。
ここで、図10を参照して、発光期間に応じて表示情報V111の提示位置を補正する方法についてより詳しく説明する。図10は、本開示の一実施形態に係る情報処理システムにおいて、発光期間に応じた表示情報V111の提示位置の補正方法について説明するための説明図である。図10において、Vsync、VALID_ST、及びEMIT_Nは、図3に示す例と同様に、垂直同期信号のタイミング、出力部を介して提示される画像が置換されるタイミング、及び発光期間及び消灯期間の開始タイミングをそれぞれ示している。
また、図10において、参照符号T101及びT103は、垂直同期信号のn番目の周期(nV)について設定された発光期間及び消灯期間を示している。同様に、参照符号T111及びT113は、垂直同期信号のn+1番目の周期(n+1V)について設定された発光期間及び消灯期間を示している。
情報処理システム1は、外光の明るさや表示情報V111の明るさに応じて発光期間を決定すると、時間軸上における当該発光期間の中心に相当するタイミング(以降では、単に「発光期間の中心」とも称する)を特定する。なお、当該発光期間の中心は、例えば、図9に示す例において、発光期間中の視点の位置や姿勢の変化に伴いブレが生じた実オブジェクトM121が視認される状況下で、ブレが生じた実オブジェクトM121の中心に相当する位置に、実際に当該実オブジェクトM121が位置するように視認されるタイミングに相当する。
次いで、情報処理システム1は、表示情報V111の提示位置の補正量を算出するために設定された予測の基点(即ち、ブレが生じることでユーザに知覚される表示情報の提示位置のずれを予測するための基点)となるタイミングと、特定した発光中心と、の間の期間の長さを予測時間として算出する。即ち、予測時間は、予測の基点となるタイミングから、対象となる表示情報が表示領域に提示されユーザに視認されるまでの遅延に相当する。より厳密には、上記予測時間は、予測の基点となるタイミングから、発光期間中の視点の位置や姿勢の変化に伴いブレが生じたように視認される実オブジェクトM121の中心に相当する位置に、実際に当該実オブジェクトM121が位置するように視認されるタイミングまでの期間に相当する。
例えば、図10において、参照符号T105は、発光期間T101に基づき算出された、垂直同期信号のn番目の周期(nV)に対応する予測時間を示している。また、参照符号T115は、発光期間T111に基づき算出された、垂直同期信号のn+1番目の周期(n+1V)に対応する予測時間を示している。
なお、予測時間の算出に係る予測の基点となるタイミングについては、表示情報V111の提示位置を補正する契機ごと(例えば、垂直同期信号の周期ごと)に、当該契機に対応した発光期間の開始以前のタイミングとして設定されればよい。また、当該予測の基点となるタイミングについては、表示情報V111の提示位置の補正に際し、当該表示情報V111の提示に係る一連の処理の流れのうちいずれの処理による遅延を考慮するかに応じて設定すればよい。なお、上記予測の基点となるタイミングの設定方法のより詳細については、情報処理システム1の機能構成の説明とあわせて別途後述する。
そして、情報処理システム1は、算出した予測時間において、視点P101と表示情報V111との間の相対的な位置や姿勢の関係の変化を推測し、当該推測の結果に応じて表示領域V100中における当該表示情報V111の提示位置を補正する。
より具体的には、情報処理システム1は、例えば、視点P101の位置や姿勢の変化や、アニメーション等による表示情報V111自体の動き等に応じて、予測時間における視点P101と表示情報V111との間の相対的な位置や姿勢の関係の変化を推測する。なお、以降では、説明をより簡略化するために、図6に示す例のように、表示情報V111自体は動かず、視点P101の位置や姿勢の変化する場合に着目して説明し、表示情報V111自体が動く場合の例については変形例として別途後述する。
情報処理システム1は、算出した予測時間に基づき、当該予測時間における視点P101の位置や姿勢の変化に応じて、ユーザに提示される画像にブレが生じる方向や、当該ブレの量を算出する。例えば、図6に示すように、視点P101の位置や姿勢がX方向に変化するような状況下では、画像(または光学像)のブレ(例えば、図7及び図9に示す実オブジェクトM121のブレ)は、当該X方向に沿って生じる。また、このとき生じるブレの量は、視点P101の位置や姿勢の変化量と、上記予測時間(換言すると、発光期間)と、に依存することとなる。
以上のようにして、情報処理システム1は、視点P101の位置や姿勢の変化に伴いブレが生じた実オブジェクトM121の中心と、表示情報V111の中心と、の間のずれを算出する。そして、情報処理システム1は、図9に示すように表示領域V100中における当該表示情報V111の提示位置を補正することで、ブレが生じた実オブジェクトM121の中心と、表示情報V111の中心との間のずれを解消する。即ち、表示領域V100中において当該ずれが生じた方向に沿って、表示情報V111の提示位置が補正されることで、当該ずれが解消される。より具体的な一例として、図9に示す例の場合には、視点P101の位置や姿勢の変化に応じて、入出力装置20を装着するユーザから見て、表示情報V111の提示位置が一方向に向けて移動するように提示されることとなる。なお、本開示において上記「一方向」とは、特定の方向性をもったベクトル的な性質を有するものである。具体的な一例として、図9に示す例の場合には、視点P101の位置や姿勢が右方向に向けて移動することで、入出力装置20を装着するユーザから見て、表示情報V111の提示位置が左方向に移動することとなる。このとき、表示情報V111の提示位置が移動する方向(左方向)が、上記「一方向」の一例に相当する。また、このとき、発光期間がより長くなるほど、表示情報V111の提示位置の補正量は上記一方向に向けてより大きくなる。即ち、発光期間がより長くなるほど、表示情報V111が上記一方向側(例えば、図9に示す例の場合には左方向側)に位置するように、当該表示情報V111の提示位置が補正されることとなる。なお、このとき表示情報のV111の提示位置が補正される方向は、例えば、視点の位置や姿勢の変化に伴う上記ブレ(モーションブラー)が発生する方向(即ち、上記ブレが視認される方向)に応じて推測すればよい。また、上記予測時間における視点P101の位置や姿勢の変化に応じて算出される上記ずれの量が、表示情報V111の提示位置の補正量に相当する。
以上、図9及び図10を参照して、本開示の一実施形態に係る情報処理システム1が、視点の位置や姿勢の変化に伴い、発光期間に応じた画像のブレが生じるような状況下において、表示情報の提示位置のずれがユーザに知覚されるような状態の顕在化を抑制するための技術の基本原理について説明した。
<3.2.機能構成>
続いて、本開示の一実施形態に係る情報処理システム1の機能構成の一例について説明する。例えば、図11は、本実施形態に係る情報処理システム1の機能構成の一例を示したブロック図である。具体的には、図11は、図1に示す情報処理システム1の機能構成の一例ついて、特に、情報処理装置10が、入出力装置20の位置や姿勢の変化に応じて、当該入出力装置20の出力部211を介してユーザに情報を提示するための構成に着目して示している。
続いて、本開示の一実施形態に係る情報処理システム1の機能構成の一例について説明する。例えば、図11は、本実施形態に係る情報処理システム1の機能構成の一例を示したブロック図である。具体的には、図11は、図1に示す情報処理システム1の機能構成の一例ついて、特に、情報処理装置10が、入出力装置20の位置や姿勢の変化に応じて、当該入出力装置20の出力部211を介してユーザに情報を提示するための構成に着目して示している。
図11に示すように、本実施形態に係る情報処理システム1は、撮像部201と、出力部211と、第1検知部251と、第2検知部253と、情報処理装置10とを含む。なお、出力部211は、例えば、図2を参照して説明した出力部211に相当する。
撮像部201は、図2においてステレオカメラとして構成された第1撮像部201a及び201bに相当する。撮像部201は、実空間内の物体(被写体)の画像を撮像し、撮像した当該画像を情報処理装置10に出力する。
第1検知部251は、入出力装置20の位置や姿勢の変化(ひいては、当該入出力装置20を装着したユーザの頭部の動き)を検出するための情報の取得に係る部分を模式的に示している。換言すると、第1検知部251は、視点の位置や姿勢の変化(換言すると、入出力装置20の位置や姿勢の変化)を検出するための情報を取得する。具体的な一例として、第1検知部251は、加速度センサや角速度センサ等のような物体の動きの検出に係る各種センサを含んでもよい。第1検知部251は、取得した情報を情報処理装置10に出力する。これにより、情報処理装置10は、入出力装置20の位置や姿勢の変化を認識することが可能となる。
第2検知部253は、入出力装置20の周囲の環境の状態(換言すると、当該入出力装置20を装着したユーザの周囲の環境の状態)に関する情報の取得に係る部分を模式的に示している。具体的な一例として、第2検知部253は、入出力装置20の周囲の環境の明るさ(照度)に関する情報を取得してもよい。この場合には、例えば、第2検知部253は、照度センサ等のような周囲の環境の明るさの検出に係る各種センサを含んでもよい。第2検知部253は、取得した情報を情報処理装置10に出力する。これにより、情報処理装置10は、入出力装置20の周囲の環境の状態(例えば、入出力装置20の周囲の環境の明るさ)を認識することが可能となる。なお、以降の説明では、第2検知部253は、入出力装置20の周囲の環境の状態に関する情報として、少なくとも当該入出力装置20の周囲の明るさに関する情報(例えば、外光の照度の検出結果等)を取得するものとする。
次いで、情報処理装置10の構成について説明する。図11に示すように、情報処理装置10は、認識処理部101と、描画処理部103と、補正処理部105と、出力制御部107と、演算部109とを含む。
認識処理部101は、撮像部201から撮像された画像を取得し、取得した画像に対して解析処理を施すことで、当該画像に撮像された実空間内の物体(被写体)を認識する。具体的な一例として、認識処理部101は、ステレオカメラとして構成された撮像部201から、互いに異なる複数の視点から撮像された画像(以降では、「ステレオ画像」とも称する)を取得し、取得した画像間の視差に基づき、画像中に撮像された物体までの距離を、当該画像の画素ごとに測定する。これにより、認識処理部101は、当該画像が撮像されたタイミングにおける、撮像部201(ひいては、入出力装置20)と、当該画像に撮像された各物体との間の、実空間内における相対的な位置関係(特に、奥行き方向の位置関係)を推定または認識することが可能となる。もちろん上記はあくまで一例であり、実空間内の物体を認識することが可能であれば、その方法やそのための構成は特に限定されない。即ち、実空間内の物体の認識方法に応じて、撮像部201等の構成が適宜変更されてもよい。
また、認識処理部101は、例えば、自己位置推定の技術に基づき、視点の位置や姿勢を認識してもよい。具体的な一例として、認識処理部101は、SLAMに基づき自己位置推定と環境地図の作成とを行うことで、入出力装置20(換言すると、視点)と、画像中に撮像された物体との間の、実空間内における位置関係を認識してもよい。この場合には、例えば、認識処理部101は、第1検知部251から入出力装置20の位置及び姿勢の変化の検知結果に関する情報を取得し、当該情報をSLAMに基づく自己位置推定に利用してもよい。なお、上記はあくまで一例であり、視点の位置や姿勢を認識することが可能であれば、その方法やそのための構成は特に限定されない。即ち、視点の位置や姿勢の認識方法に応じて、撮像部201や第1検知部251等の構成が適宜変更されてもよい。
そして、認識処理部101は、入出力装置20の自己位置推定の結果(即ち、視点の位置や姿勢の認識結果)に関する情報を後述する描画処理部103や補正処理部105に出力する。なお、当該自己位置推定の結果に関する情報が逐次取得されることで、例えば、入出力装置20の位置や姿勢の変化(即ち、視点の位置や姿勢の変化)を認識することが可能である。即ち、当該自己位置推定の結果に関する情報、即ち、視点の位置及び姿勢のうち少なくともいずれかの認識結果に関する情報が、「第1の情報」の一例に相当する。
また、認識処理部101は、画像中に撮像された各物体(即ち、実オブジェクト)の実空間内における位置を認識し、当該認識結果に関する情報を描画処理部103や補正処理部105に出力してもよい。具体的な一例として、認識処理部101は、画像中の画素ごとに測定された深度(物体までの距離)を示す情報(即ち、デプスマップ)を、描画処理部103や補正処理部105に出力してもよい。これにより、描画処理部103や補正処理部105は、当該情報に基づき、実空間内の物体を認識することが可能となる。
なお、前述したように、被写体までの距離の測定方法は、上述したステレオ画像に基づく測定方法のみには限定されない。そのため、撮像部201に相当する構成を、距離の測定方法にあわせて適宜変更してもよい。具体的な一例として、TOFに基づき被写体までの距離を測定する場合には、撮像部201に替えて、赤外線を投光する光源と、当該光源から投光され被写体で反射した赤外線を検知するための受光素子とを設けてもよい。また、物体までの距離を測定する際に、複数の測定方法が利用されてもよい。この場合には、利用される測定方法に応じて、当該測定に利用する情報を取得するための構成が、入出力装置20または情報処理装置10に設けられていてもよい。もちろん、画像中に撮像された各物体の実空間内における位置の認識結果を示す情報(例えば、デプスマップ)の内容についても、適用される測定方法に応じて適宜変更されてもよいことは言うまでもない。
以上のようにして、認識処理部101は、視点の位置や姿勢を逐次認識し、当該視点の位置や姿勢の認識結果に関する情報(換言すると、当該視点の動きに関する情報)を、後述する描画処理部103や補正処理部105に出力する。
描画処理部103は、視点の位置や姿勢の認識結果に関する情報(例えば、自己位置推定の結果に関する情報)を認識処理部101から取得し、取得した当該情報に基づく視点の位置や姿勢に応じて、提示対象となる表示情報を所定のバッファ(例えば、フレームバッファ)に描画する。このとき、描画処理部103は、例えば、視点の位置や姿勢に応じて、対象となるオブジェクト(例えば、3次元的な情報を有する仮想オブジェクト)を表示領域に投影し、当該投影の結果に応じた表示情報(即ち、2次元的な表示情報)を上記バッファに描画してもよい。
また、描画処理部103は、認識処理部101から実空間内の物体の位置の認識結果に関する情報を取得してもよい。この場合には、例えば、描画処理部103は、実空間内の物体(実オブジェクト)の認識結果に応じて表示情報の描画を行ってもよい。具体的な一例として、描画処理部103は、実空間内の物体と、提示対象となるオブジェクトと、の間の位置や姿勢の関係に応じて、当該オブジェクトを表示領域に投影し、当該投影の結果に応じた表示情報を上記バッファに描画してもよい。
また、描画処理部103は、上記バッファに描画する表示情報の色や明るさを、各種条件に応じて制御してもよい。具体的な一例として、描画処理部103は、対象となるオブジェクトを表示領域に投影した際に、3次元空間上に規定された光源と当該オブジェクトとの間の位置関係に応じて、当該オブジェクトを表示情報として描画する際の色や明るさ制御してもよい。また、描画処理部103は、AR技術に基づき実空間内の物体に重畳するように表示情報を提示する場合に、当該物体と当該表示情報との間の位置関係に応じて、当該表示情報を描画する際の色や明るさを制御してもよい。また、描画処理部103は、上記のように描画する表示情報の色や明るさを制御する場合には、当該表示情報の色や明るさに関する情報を後述する演算部109に出力してもよい。これにより、演算部109は、提示対象となる表示情報の色や明るさを鑑みて、各種演算(例えば、発光期間の算出)を実行することが可能となる。
演算部109は、情報処理装置10が各種処理の実行に利用する各種情報の演算を実行するための構成を模式的に示している。具体的な一例として、演算部109は、各種条件に応じて、後述するする出力制御部107が、出力部211を介して表示情報をユーザに提示する際の発光期間を算出する。この場合には、演算部109は、第2検知部253から周囲の環境の明るさ(照度)に関する情報を取得し、当該情報に基づき発光期間を算出してもよい。なお、演算部109のうち、第2検知部253(例えば、照度センサ)から周囲の環境の明るさ(即ち、外光の照度)に関する情報を取得する部分が、「照度情報取得部」の一例に相当する。また、他の一例として、演算部109は、撮像部201による周囲の環境(即ち、実空間)の撮像結果に応じた画像を取得し、当該画像を解析することで周囲の環境の明るさを認識してもよい。また、演算部109は、描画処理部103から提示対象となる表示情報の色や明るさに関する情報を取得し、当該情報に基づき発光期間を算出してもよい。
また、前述したように、ユーザに視認される表示情報の明るさについては、発光期間の制御のみに限らず、表示情報の提示に係る発光出力の制御や、周囲の環境の影響の調整に係る制御(即ち、調光機能の制御)により制御することも可能である。そのため、演算部109は、当該発光出力や、当該調光機能の制御量(即ち、外光の明るさの影響の調整量)に応じて、発光期間を算出してもよい。より具体的な一例として、演算部109は、発光出力がより高くなるように制御することで、発光期間がより短くなるように制御してもよい。また、他の一例として、演算部109は、調光機能により周囲の環境の明るさの影響を低減する(即ち、ユーザに視認される外光を低減する)ことで、発光期間がより短くなるように制御してもよい。
そして、演算部109は、各種演算結果に応じた情報を、当該情報を利用する各部に出力する。具体的な一例として、演算部109は、上述の通り算出した発光期間に関する情報を、補正処理部105及び出力制御部107に出力する。なお、発光期間に関する情報としては、当該発光期間の特定に利用可能な情報が含まれていればよく、例えば、発光期間の開始タイミングや終了タイミングに関する情報や、当該発光期間の長さに関する情報等が含まれ得る。
補正処理部105は、描画処理部103によりバッファに描画された表示情報に対して各種補正を施す。具体的な一例として、補正処理部105は、描画処理部103によりバッファに描画された表示情報が、後述する出力制御部107により出力部211に提示されるまでに、視点の位置や姿勢が変化した場合に、当該視点の位置や姿勢の変化に応じて当該表示情報の補正(所謂リプロジェクション)を行ってもよい。この場合には、補正処理部105は、認識処理部101から視点の動きに関する情報(例えば、視点の位置や姿勢の認識結果に応じた情報)を取得し、当該情報に基づき表示情報を補正してもよい。なお、認識処理部101から取得される視点の動きに関する情報が、「第1の情報」の一例に相当する。
具体的な一例として、補正処理部105は、認識処理部101から取得した情報に基づき、視点の動きに応じて当該視点からの視野が変化する方向や変化量(換言すると、当該視点と当該物体との間の相対的な位置や姿勢の変化)を算出してもよい。これにより、補正処理部105は、表示情報が重畳される実空間内の物体の、当該視野内における位置の変化(換言すると、表示領域内における位置の変化)を認識し、当該認識の結果に応じて、表示情報の提示位置の補正を行うことが可能となる。
また、補正処理部105は、図8及び図9を参照して前述したように、視点の位置や姿勢の変化に伴い、発光期間に応じて生じる画像のブレを鑑みて、表示領域中における表示情報の提示位置を補正してもよい。
具体的には、補正処理部105は、演算部109から発光期間に関する情報を取得し、当該情報に基づき発光期間の中心を算出する。なお、演算部109から取得される発光期間に関する情報が、「第2の情報」の一例に相当する。
そして、補正処理部105は、予測の基点となるタイミングと、算出した発光期間の中止と、の間の期間を予測時間として算出する。このとき、予測の基点となるタイミングについては、視点の位置や変化に伴う影響の算出に考慮する遅延に応じて決定されるとよい。
例えば、図12は、予測時間の算出に係る処理の概要について説明するための説明図であり、予測の基点となるタイミングの決定方法の一例について示している。
図12において、「発光」として示した期間が、図10に示す各発光期間に相当し、当該期間において出力部の表示領域に表示情報が提示される。即ち、対象となるオブジェクトが表示情報として提示される場合には、図12に示すように、視点の位置や姿勢に応じた当該オブジェクトの投影結果が表示情報として描画され、当該表示情報に対して補正(リプロジェクション)が行われた後に、補正後の当該表示情報が出力部を介して提示される。そのため、例えば、発光の直前に実行される表示情報に対する補正(リプロジェクション)に関する処理遅延や、当該補正の前に実行される表示情報の描画に関する処理遅延が、表示情報の提示位置がずれたようにユーザに知覚される現象の顕在化の一要因となり得る。例えば、図12において、dt_renderとして示された期間は、描画に係る処理遅延を模式的に示している。また、dt_reproとして示された期間は、リプロジェクションに係る処理遅延を模式的に示している。また、dt_emitとして示された期間は、発光期間を示している。
上述のような背景から、例えば、図9に示すように表示情報の提示位置の補正を行う際に、リプロジェクションに係る処理遅延と、描画及びリプロジェクションの双方に係る処理遅延と、のいずれを考慮するかに応じて、予測の基点となるタイミングが決定されるとよい。
例えば、リプロジェクションに係る処理遅延を考慮し、描画に係る処理遅延については考慮しない場合には、当該リプロジェクションに係る処理の開始タイミングに応じて予測の基点となるタイミングを決定すればよい。また、この場合における予測時間をT1とすると、当該予測時間T1は、以下に(式1)として示す計算式で表される。
また、他の一例として、描画及びリプロジェクションの双方に係る処理遅延を考慮する場合には、当該描画に係る処理の開始タイミングに応じて予測の基点となるタイミングを決定すればよい。また、この場合における予測時間をT2とすると、当該予測時間T2は、以下に(式2)として示す計算式で表される。
以上のようにして、補正処理部105は、予測時間を算出すると、認識処理部101から取得した視点の動きに関する情報と、当該予測時間の算出結果と、に基づき、当該予測時間中の当該視点の動きを推測する。これにより、予測時間中における視点からの視野の変化(例えば、視野の変化方向や変化量)を推測することが可能となる。即ち、図9に示す例における、視点P101の位置や姿勢の変化に伴いブレが生じた実オブジェクトM121の中心と、表示情報V111の中心と、の間のずれを、当該視野の変化の推測結果に基づき算出することが可能となる。
そして、補正処理部105は、予測時間中の視点の動きの推測結果に基づき、表示領域中の表示情報の提示位置を補正する。具体的には、表示情報の提示位置を補正する方向については、視点の動きに応じて当該視点からの視野が変化する方向に基づき算出することが可能である。また、表示情報の提示位置の補正量については、視点の動きに応じて当該視点からの視野が変化する量に基づき算出することが可能である。即ち、当該補正量は、予測時間に依存することとなる。
以上のようにして、補正処理部105によりバッファに描画された表示情報に対して各種補正が行われると、出力制御部107は、出力部211に情報を表示するタイミング(即ち、発光タイミング)にあわせて、当該バッファに保持された補正後の表示情報を当該出力部211に表示させる。このとき、出力制御部107は、演算部109から発光期間に関する情報を取得し、当該情報に基づき、上記表示情報の提示に係る出力部211の発光期間を制御してもよい。これにより、出力部211を介してユーザに視認される当該表示情報の明るさが制御される。
なお、図11に示した情報処理システム1の機能構成のうち、例えば、参照符号111で示した処理ブロック(即ち、描画処理部103、補正処理部105、及び出力制御部107を含む処理ブロック)が、表示情報が出力部211の表示領域に表示されるように制御する「制御部」の一例に相当する。また、当該処理ブロック111のうち、認識処理部101から視点の動きに関する情報を取得する部分や、演算部109から発光期間に関する情報を取得する部分が、当該発光期間に関する情報を取得する「取得部」の一例に相当する。また、出力部211が「表示部」の一例に相当する。また、処理ブロック111(特に、出力制御部107)が、上記出力部211に表示情報(例えば、仮想オブジェクト等)が表示されるように制御する「表示制御部」の一例に相当する。なお、処理ブロック111を実行するプロセッサが「表示制御部」の一例に相当すると見做されても良く、「制御部」と実質的に同一の構成を有するものと見做されても良い。
また、図11に示した情報処理システム1の機能構成はあくまで一例であり、上述した各構成の動作を実現することが可能であれば、当該情報処理システム1の機能構成は必ずしも図11に示す例には限定されない。具体的な一例として、撮像部201、第1検知部251、第2検知部253、及び出力部211の少なくともいずれかと、情報処理装置10とが一体的に構成されていてもよい。また、他の一例として、情報処理装置10の一部の機能が、当該情報処理装置10の外部に設けられていてもよい。具体的な一例として、認識処理部101や演算部109に相当する部分が、情報処理装置10の外部に設けられていてもよい。なお、この場合には、情報処理装置10の外部に設けられた認識処理部101や演算部109に相当する部分から情報を取得するインタフェースが、発光期間に関する情報を取得する「取得部」の一例に相当し得る。また、情報処理装置10の少なくとも一部の機能が、複数の装置が連携して動作することで実現されてもよい。
以上、図11及び図12を参照して、本開示の一実施形態に係る情報処理システム1の機能構成の一例について説明した。
<3.3.処理>
続いて、本開示の一実施形態に係る情報処理システム1の一連の処理の流れの一例について、特に、図1に示す情報処理装置10の動作に着目して説明する。例えば、図13は、本実施形態に係る情報処理システム1の一連の処理の流れの一例について示したフローチャートであり、情報処理装置10が視点の位置や姿勢の認識結果に応じて表示領域に表示情報が提示されるように制御する処理の流れの一例を示している。
続いて、本開示の一実施形態に係る情報処理システム1の一連の処理の流れの一例について、特に、図1に示す情報処理装置10の動作に着目して説明する。例えば、図13は、本実施形態に係る情報処理システム1の一連の処理の流れの一例について示したフローチャートであり、情報処理装置10が視点の位置や姿勢の認識結果に応じて表示領域に表示情報が提示されるように制御する処理の流れの一例を示している。
図13に示すように、情報処理装置10(認識処理部101)は、撮像部201による画像の撮像結果や、第1検知部251による入出力装置20の位置や姿勢の変化の検知結果に関する情報に基づき、視点の位置及び姿勢のうち少なくともいずれかを認識する。当該視点の位置や姿勢の認識には、例えば、SLAM等の自己位置推定の技術が利用されてもよい。以上のようにして、情報処理装置10は、視点の位置や姿勢を逐次認識することで、当該視点の動き(即ち、視点の位置や姿勢の変化)を認識することが可能となる(S101)。
次いで、情報処理装置10(描画処理部103)は、視点の位置や姿勢に応じて、提示対象となる表示情報を所定のバッファに描画する。具体的な一例として、情報処理装置10は、視点の位置や姿勢に応じて、対象となるオブジェクトを表示領域に投影し、当該投影の結果に応じた表示情報を上記バッファに描画してもよい(S103)。
また、情報処理装置10(演算部109)は、各種条件に応じて、出力部211を介して表示情報をユーザに提示する際の発光期間を決定する。具体的な一例として、情報処理装置10は、周囲の環境の明るさ(照度)に応じて発光期間を算出してもよい。この場合には、情報処理装置10は、例えば、第2検知部253による周囲の環境の明るさ(照度)の検知結果に応じた情報を、発光期間の算出に利用してもよい(S105)。
次いで、情報処理装置10(補正処理部105)は、発光期間の算出結果に基づき、当該発光期間中の視点の動き(例えば、視点の位置や姿勢の変化)を推測し、当該推測の結果に応じてバッファに描画した表示情報を補正する。具体的には、情報処理装置10は、発光期間の中心を算出し、予測の基点となるタイミングと、当該発光期間の中心と、の間の期間を予測時間として算出する。そして、情報処理装置10は、視点の位置や姿勢を逐次認識することで当該視点の動きを認識し、当該視点の動きの認識結果と、予測時間の算出結果と、に基づき、当該予測時間における当該視点の動きを推測する。そして、情報処理装置10は、予測時間における当該視点の動きに応じて推測される当該視点からの視野の変化に基づき、表示領域中における上記表示情報の提示位置を補正する(S107)。
そして、情報処理装置10(出力制御部107)は、出力部211に情報を表示するタイミング(即ち、発光タイミング)にあわせて、上記バッファに保持された補正後の表示情報を当該出力部211に表示させる。これにより、当該出力部211を介して当該表示情報がユーザに提示される(S109)。
以上のようにして、情報処理装置10は、一連の処理の終了が指示されない限り(S111、NO)、参照符号S101~S109で示した一連の処理を、所定の期間ごとに逐次実行する。具体的な一例として、情報処理装置10は、図3に示す垂直同期信号の周期V_TOTALのように、出力部211を介して情報が提示される周期ごとに、参照符号S101~S109で示した一連の処理を逐次実行してもよい。そして、情報処理装置10は、一連の処理の実行の終了の指示を受けると(S111、YES)、参照符号S101~S109で示した一連の処理の実行を終了する。
なお、参照符号S101~S109で示した各処理のうち、一部の処理が他の処理と並行して実行されてもよい。具体的な一例として、参照符号S103で示した表示情報の描画に係る処理の少なくとも一部と、参照符号S105で示した発光期間の決定に係る処理と、が並行して実行されてもよい。
以上、図13を参照して、本開示の一実施形態に係る情報処理システム1の一連の処理の流れの一例について、特に、図1に示す情報処理装置10の動作に着目して説明した。
<3.4.変形例>
続いて、本開示の一実施形態に係る情報処理システム1の変形例について説明する。
続いて、本開示の一実施形態に係る情報処理システム1の変形例について説明する。
<3.4.1.変形例1:スキャンライン発光への適用例>
まず、変形例1として、所謂スキャンライン発光が適用された場合のように、出力部の表示領域を複数の部分領域(例えば、ライン)に分割し、当該部分領域ごとに順次表示情報を表示する場合の制御の一例について説明する。
まず、変形例1として、所謂スキャンライン発光が適用された場合のように、出力部の表示領域を複数の部分領域(例えば、ライン)に分割し、当該部分領域ごとに順次表示情報を表示する場合の制御の一例について説明する。
この場合には、情報処理装置10は、グローバル発光の場合において、出力部211を介した表示情報を提示する契機ごと(例えば、水著同期信号の周期V_TOTALごと)に実行していた一連の処理を、部分領域ごとに表示情報を提示する契機ごとに実行すればよい。具体的には、情報処理装置10は、部分領域ごとに表示情報を提示する際に、当該部分領域に表示情報を提示するための発光期間に基づき、当該部分領域に対応する予測時間を算出する。そして、情報処理装置10は、当該予測時間の算出結果に基づき、当該部分領域中における表示情報の提示位置を補正すればよい。なお、上記部分領域については、例えば、ラインやタイル等のような出力部の表示領域を構成する単位領域を1以上含むように規定され得る。
以上、変形例1として、所謂スキャンライン発光が適用された場合のように、出力部の表示領域を複数の部分領域(例えば、ライン)に分割し、当該部分領域ごとに順次表示情報を表示する場合の制御の一例について説明した。
<3.4.2.変形例2:表示情報の移動を想定した制御の一例>
続いて、変形例2として、例えば、アニメーション等により表示情報自体が移動し得るような状況下における、出力部を介した当該表示情報の提示に係る制御の一例について、特に、当該表示情報の移動に伴い発光期間を制御する状況に着目して説明する。
続いて、変形例2として、例えば、アニメーション等により表示情報自体が移動し得るような状況下における、出力部を介した当該表示情報の提示に係る制御の一例について、特に、当該表示情報の移動に伴い発光期間を制御する状況に着目して説明する。
まず、図14を参照して、表示情報自体(換言すると、表示情報として提示されるオブジェクト)が移動し得るような状況下で、当該表示情報の移動に伴い発光期間を制御する状況の一例について説明する。図14は、変形例2に係る情報処理システムによる表示情報の提示に係る処理の概要について説明するための説明図であり、アニメーション等により表示情報自体が移動することで、当該表示情報の明るさが制御される状況を模式的に示している。なお、図14に示すX方向、Y方向、及びZ方向は、図4に示す例におけるX方向、Y方向、及びZ方向にそれぞれ対応している。即ち、図14は、例えば、図2に示す出力部211を介して視認される結合像(即ち、実空間内の物体の光学像や、表示領域に表示される表示情報)を模式的に示している。
具体的には、図14に示す例では、表示領域に表示情報V201が提示されている状況を示している。このとき、表示情報V201は、アニメーション等により移動することで、表示領域中における提示位置が、時系列に沿って変化している。より具体的には、図14に示す例では、表示情報V201は、移動に伴い重畳される位置が暗所から明所に変化するように移動し、その後、重畳される位置が当該明所から暗所に変化するように移動している。なお、本説明において「明所」とは、例えば、屋外等のように外光により照度が比較的高くなっている場所を示している。これに対して「暗所」とは、例えば、遮蔽物等により外光が遮蔽されることで、照度が比較的低くなっている場所を示している。換言すると、「暗所」は、「明所」に比べて相対的に照度が低くなっている場所に相当する。また、本説明では、説明をよりわかりやすくするために視点の位置や姿勢(例えば、入出力装置20の位置や姿勢)は固定されており変化しないものとする。
例えば、表示情報V201が明所に重畳するように提示される状況下では、外光の明るさの影響により出力部を介して提示される当該表示情報V201の視認性が低下する場合がある。そのため、このような場合には、表示情報V201がより明るく提示されるように制御することで、当該表示情報V201の視認性の向上を図る場合がある。即ち、この場合には、例えば、発光期間がより長くなるように制御され得る。
これに対して、表示情報V201が暗所に重畳するように提示される状況下では、明所に重畳するように提示される場合に比べて、当該表示情報V201の視認性が高い。そのため、この場合には、表示情報V201が明所に重畳するように提示される場合に比べて、当該表示情報V201の明るさを抑えたとしても、当該表示情報V201を視認することが可能となり得る。即ち、表示情報V201が暗所に重畳するように提示される場合には、当該表示情報V201が明所に重畳するように提示される場合に比べて、発光期間がより短くなるように制御したとしても、所望の視認性を確保することが可能となる。
そのため、図14に示す例では、例えば、表示情報V201が暗所から明所に移動することで発光期間がより長くなるように制御され、表示情報V201が当該明所から暗所に移動することで発光期間がより短くなるように制御される。なお、このような状況下においても、発光期間がより長くなるように制御されることで、当該発光期間中における表示情報V201の提示位置の変化に応じて、ユーザに視認される画像(例えば、表示情報V201)にブレが生じ、当該表示情報V201の提示位置がずれたように知覚される場合がある。
例えば、図15は、変形例2に係る情報処理システムによる表示情報の提示に係る処理の概要について説明するための説明図であり、発光期間の制御に伴い表示情報の提示位置がずれたように知覚される仕組みの概要について示している。具体的には、図15において、横軸は時間を示しており、縦軸は表示情報の提示位置を示している。また、図15において、参照符号G201は、表示情報の提示に係る出力部の発光の開始タイミングと、当該表示情報の提示位置と、の関係を模式的に示している。即ち、参照符号G201は、暗所に重畳するように表示情報が提示される場合のように、ユーザに視認される画像にブレが生じない状況下における、当該表示情報の提示位置の軌跡を模式的に示している。
また、図15に示す例では、図14に示すように、表示情報が重畳される位置が時間の経過と共に暗所から明所に変化するように移動し、その後、重畳される位置が当該明所から暗所に変化するように移動している状況を、時間軸(横軸)に沿って模式的に示している。そのため、図15に示す例では、表示情報が明所に重畳される期間中において、発光期間がより長くなるように制御されている。例えば、参照符号T203は、表示情報が明所に重畳するように提示される場合における発光期間を模式的に示している。
図15に示すように、発光期間がより長くなるように制御されることで、表示情報の提示位置の変化に応じて、ユーザに視認される画像にブレが生じ、当該表示情報の提示位置がずれたように知覚される場合がある。例えば、参照符号G205は、明所においてユーザに視認される表示情報の軌跡を模式的に示している。具体的には、前述した実施形態と同様に、発光期間の中心に応じた位置に表示情報が提示されているようにユーザには知覚されることとなる。
図15において、表示情報が暗所に重畳するように提示される場合における、軌跡G201と軌跡G205とを比較するとわかるように、表示情報自体が移動するような状況下においても、発光期間がより長くなるように制御されることで、表示情報の提示位置がずれたように知覚される場合がある。
このような状況を鑑み、変形例2に係る情報処理システムは、表示情報の提示位置の変化や発光期間に応じて、ブレが生じた当該表示情報の中心と、当該表示情報が重畳される実オブジェクトの中心と、の間のずれを推測し、当該ずれが解消されるように表示情報の提示位置を補正する。
例えば、図16は、変形例2に係る情報処理システムによる表示情報の提示に係る処理の概要について説明するための説明図であり、当該情報処理システムにより表示情報の提示位置が補正された状況を模式的に示している。図16において、縦軸及び横軸は、図15における縦軸及び横軸と同様である。また、参照符号G201は、暗所に重畳するように表示情報が提示される場合における、当該表示情報の提示に係る出力部の発光タイミングと、当該表情報の提示位置と、の間の関係を模式的に示している。換言すると、参照符号G201は、暗所に重畳するように表示情報が提示される場合のように、ユーザに視認される画像にブレが生じない状況下における、当該表示情報の提示位置の軌跡を模式的に示している。
また、図16に示す例では、図15に示す例と同様に、表示情報が重畳される位置が時間の経過と共に暗所から明所に変化するように移動し、その後、重畳される位置が当該明所から暗所に変化するように移動している状況を、時間軸(横軸)に沿って模式的に示している。即ち、参照符号T203は、図15に示す例と同様に、表示情報が明所に重畳するように提示される場合における発光期間を模式的に示している。
また、参照符号G211は、明所に重畳するように表示情報が提示される場合に、発光期間T203に応じて提示位置の補正が行われた後の、当該表示情報の提示に係る出力部の発光の開始タイミングと、当該表情報の提示位置と、の間の関係を模式的に示している。換言すると、参照符号G211は、明所に重畳するように表示情報が提示される場合の出力部の発光の開始タイミングにおける、補正後の表示情報の提示位置の軌跡を模式的に示している。
これに対して、参照符号G215は、表示情報の提示位置が補正された後の、明所においてユーザに視認される当該表示情報の軌跡を模式的に示している。また、参照符号G217は、明所に重畳するように表示情報が提示される場合に、発光期間T203に応じて適用される提示位置の補正(即ち、適用される補正の補正方向及び補正量)を模式的に示している。
即ち、図16に示す例では、明所に重畳されるように表示情報が提示される場合に、表示情報の提示位置に対して、発光期間T203と表示情報の動きとに応じた補正G217が適用されている。これにより、暗所に重畳するように提示される場合における表示情報の軌跡G201の延長線上に、明所においてユーザに視認される当該表示情報の軌跡G215が略一致することとなる。これは、表示情報が重畳される位置が暗所から明所に変化するように移動した場合と、当該表示情報が重畳される位置が当該明所から暗所に変化するように移動する場合と、のいずれにおいても同様である。また、変形例2においては、表示情報の動き(換言すると、表示情報として提示されるオブジェクトの動き)に関する情報が「第1の情報」の一例に相当する。
以上のような制御により、表示情報自体が動くような状況下においても、発光期間T203と表示情報の動きとに応じて当該表示情報の提示位置が補正されることで、当該発光期間T203に応じてユーザに知覚される表示情報の提示位置のずれを解消することが可能となる。
このように、本開示の一実施形態に係る情報処理システムにおいては、視点の位置や姿勢が変化するか否かに関わらず、当該視点と表示情報との間の相対的な動き(例えば、相対的な位置や姿勢の変化)に応じて、当該表示情報の提示位置の補正を適用することで、ユーザに知覚される表示情報の提示位置のずれを解消することが可能となる。即ち、視点の位置や姿勢が変化し、かつ表示情報自体が動くような状況下においても、当該視点と当該表示情報との間の相対的な動きと、当該表示情報の提示に係る発光期間と、に応じて、当該表示情報の提示位置が補正されればよい。なお、この場合には、視点と表示情報との間の相対的な位置や姿勢の変化方向に沿って当該表示情報の提示位置が補正されればよい。また、表示情報の提示位置の補正量については、発光期間に基づき算出される予測時間と、当該予測時間における視点と表示情報との間の相対的な動きの量(例えば、位置や姿勢の変化量)と、に応じて算出することが可能である。また、この場合には、視点と表示情報との間の相対的な動きに関する情報が「第1の情報」の一例に相当する。
以上、変形例2として、図14~図16を参照して、例えば、アニメーション等により表示情報自体が移動し得るような状況下における、出力部を介した当該表示情報の提示に係る制御の一例について、特に、当該表示情報の移動に伴い発光期間を制御する状況に着目して説明した。
<<4.ハードウェア構成>>
続いて、本実施形態に係る情報処理システムを構成する情報処理装置10のハードウェア構成の一例について説明する。
続いて、本実施形態に係る情報処理システムを構成する情報処理装置10のハードウェア構成の一例について説明する。
<4.1.独立して動作可能な装置としての構成例>
まず、図17を参照して、前述した情報処理装置10に相当する構成を、PC、スマートフォン、サーバ等のような独立して動作可能な装置(以降では、便宜上「情報処理装置900」とも称する)として実現する場合における、当該情報処理装置900のハードウェア構成の一例について、詳細に説明する。図17は、本開示の一実施形態に係る情報処理システムを構成する情報処理装置900のハードウェア構成の一例を示す機能ブロック図である。
まず、図17を参照して、前述した情報処理装置10に相当する構成を、PC、スマートフォン、サーバ等のような独立して動作可能な装置(以降では、便宜上「情報処理装置900」とも称する)として実現する場合における、当該情報処理装置900のハードウェア構成の一例について、詳細に説明する。図17は、本開示の一実施形態に係る情報処理システムを構成する情報処理装置900のハードウェア構成の一例を示す機能ブロック図である。
本実施形態に係る情報処理システム1を構成する情報処理装置900は、主に、CPU901と、ROM902と、RAM903と、を備える。また、情報処理装置900は、更に、ホストバス907と、ブリッジ909と、外部バス911と、インタフェース913と、入力装置915と、出力装置917と、ストレージ装置919と、ドライブ921と、接続ポート923と、通信装置925とを備える。
CPU901は、演算処理装置及び制御装置として機能し、ROM902、RAM903、ストレージ装置919又はリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般又はその一部を制御する。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。なお、図11を参照して前述した、認識処理部101、描画処理部103、補正処理部105、出力制御部107、及び演算部109は、例えば、CPU901により実現され得る。
ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。また、外部バス911には、インタフェース913を介して、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923及び通信装置925が接続される。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、レバー及びペダル等、ユーザが操作する操作手段である。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器929であってもよい。さらに、入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置900のユーザは、この入力装置915を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置917は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置917は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト又はイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。なお、図11を参照して前述した、出力部211は、例えば、出力装置917により実現され得る。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ等を格納する。
ドライブ921は、記録媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に記録されている情報を読み出して、RAM903に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に記録を書き込むことも可能である。リムーバブル記録媒体927は、例えば、DVDメディア、HD-DVDメディア又はBlu-ray(登録商標)メディア等である。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CF:CompactFlash)、フラッシュメモリ又はSDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。
接続ポート923は、情報処理装置900に直接接続するためのポートである。接続ポート923の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート923の別の例として、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポート等がある。この接続ポート923に外部接続機器929を接続することで、情報処理装置900は、外部接続機器929から直接各種のデータを取得したり、外部接続機器929に各種のデータを提供したりする。
通信装置925は、例えば、通信網(ネットワーク)931に接続するための通信デバイス等で構成された通信インタフェースである。通信装置925は、例えば、有線若しくは無線LAN(Local Area Network)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置925に接続される通信網931は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。
以上、本開示の実施形態に係る情報処理システム1を構成する情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。なお、図17では図示しないが、本実施形態に係る情報処理システム1を構成する情報処理装置900に対応する各種の構成を当然備える。
なお、上述のような本実施形態に係る情報処理システム1を構成する情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。また、当該コンピュータプログラムを実行させるコンピュータの数は特に限定されない。例えば、当該コンピュータプログラムを、複数のコンピュータ(例えば、複数のサーバ等)が互いに連携して実行してもよい。なお、単数のコンピュータ、または、複数のコンピュータが連携するものを、「コンピュータシステム」とも称する。
以上、図17を参照して、前述した情報処理装置10に相当する構成を、PC、スマートフォン、サーバ等のような独立して動作可能な情報処理装置900として実現する場合における、当該情報処理装置900のハードウェア構成の一例について、詳細に説明した。
<4.2.チップとして実現する場合の構成例>
続いて、図18を参照して、前述した情報処理装置10に相当する構成を、GPU等のようなチップ(以降では、便宜上「チップ950」とも称する)として実現する場合における、当該チップ950のハードウェア構成の一例について、詳細に説明する。図18は、本開示の一実施形態に係る情報処理システムを構成する情報処理装置をチップとして実現した場合のハードウェア構成の一例を示す機能ブロック図である。
続いて、図18を参照して、前述した情報処理装置10に相当する構成を、GPU等のようなチップ(以降では、便宜上「チップ950」とも称する)として実現する場合における、当該チップ950のハードウェア構成の一例について、詳細に説明する。図18は、本開示の一実施形態に係る情報処理システムを構成する情報処理装置をチップとして実現した場合のハードウェア構成の一例を示す機能ブロック図である。
図18に示すように、チップ950は、画像処理ユニット(GCA:Graphics and Compute Array)951と、記憶デバイス(GMC:Graphics Memory Controller)953と、ディスプレイインタフェース(DIF:Display Interface)955と、バスインタフェース(BIF:Bus Interface)957と、電源制御ユニット(PMU:Power Management Unit)961と、起動制御ユニット(VGABIOS)963とを含む。また、画像処理ユニット951と記憶デバイス953との間に圧縮処理ユニット(Compression Unit)959が介在してもよい。
画像処理ユニット951は、画像処理に係る各種処理を実行するプロセッサに相当する。具体的な一例として、画像処理ユニット951は、前述したオブジェクトの投影に係る処理、当該投影の結果に応じた表示情報の描画に係る処理、及びリプロジェクション等のような当該表示情報の補正に係る処理等のような各種演算処理を実行する。また、このとき画像処理ユニット951は、記憶デバイス953に記憶されたデータを読み出し、当該データを各種演算処理の実行に利用してもよい。なお、図11を参照して前述した、認識処理部101、描画処理部103、補正処理部105、出力制御部107、及び演算部109の各処理は、例えば、画像処理ユニット951による演算処理により実現され得る。
記憶デバイス953は、各種データを一時的または恒久的に記憶するための構成である。具体的な一例として、記憶デバイス953は、画像処理ユニット951による各種演算処理の実行結果に応じたデータを記憶してもよい。記憶デバイス953は、例えば、VRAM(Video RAM)、WRAM(Window RAM)、MDRAM(Multibank DRAM)、DDR(Double-Data-Rate)、GDDR(Graphics DDR)、HBM(High Bandwidth Memory)等の技術に基づき実現され得る。
圧縮処理ユニット959は、各種データの圧縮及び解凍を行う。具体的な一例として、圧縮処理ユニット959は、画像処理ユニット951による演算結果に応じたデータが記憶デバイス953に記憶される際に、当該データを圧縮してもよい。また、圧縮処理ユニット959は、画像処理ユニット951が記憶デバイス953に記憶されたデータを読み出す際に、当該データが圧縮されている場合には、当該データを解凍してもよい。
ディスプレイインタフェース955は、チップ950がディスプレイ(例えば、図11に示す出力部211)との間でデータの送受信を行うためのインタフェースである。具体的な一例として、画像処理ユニット951による表示情報の描画の結果が、ディスプレイインタフェース955を介してディスプレイに出力される。また、他の一例として、画像処理ユニット951による表示情報の描画の結果が記憶デバイス953に保持されている場合には、記憶デバイス953に保持された当該描画の結果が、ディスプレイインタフェース955を介してディスプレイに出力される。
バスインタフェース957は、チップ950が他の機器や外部の装置とデータの送受信を行うためのインタフェースである。具体的な一例として、記憶デバイス953に記憶されたデータが、バスインタフェース957を介して、他の機器や外部の装置に送信される。また、他の機器や外部の装置から送信されたデータは、バスインタフェース957を介してチップ950に入力される。なお、チップ950に入力されたデータは、例えば、記憶デバイス953に記憶される。
電源制御ユニット961は、チップ950の各部への電力の供給を制御するための構成である。
起動制御ユニット963は、チップ950の起動時に、当該起動に係る各種処理や情報の入出力等の管理や管制を行うための構成である。起動制御ユニット963は、所謂VGABIOS(Video Graphics Array Basic Input/Output System)に相当する。
以上、図18を参照して、前述した情報処理装置10に相当する構成を、GPU等のようなチップ950として実現する場合における、当該チップ950のハードウェア構成の一例について、詳細に説明した。なお、本開示においては、「情報処理装置」として記載した場合には、図17に示すような1つの装置として実現する場合に加え、図18に示すように、装置に組み込まれるチップ(換言すると、部品)として実現する場合も含み得るものとする。
<<5.むすび>>
以上説明したように、本開示の一実施形態に係る情報処理システムにおいて、情報処理装置は、取得部と、制御部とを備える。取得部は、視点と表示情報との間の相対的な動きに関する第1の情報と、表示領域への前記表示情報の提示のための発光期間に関する第2の情報と、を取得する。制御部は、上記第1の情報及び上記第2の情報に基づき、前記表示情報が前記表示領域に提示されるように制御する。また、上記制御部は、上記発光期間における上記視点と上記表示情報との間の相対的な動きに応じて、上記表示領域における上記表示情報の提示位置を補正する。具体的には、上記制御部は、予測の基点として設定されたタイミングと、上記第2の情報に応じた前記発光期間の中心と、に基づき、予測時間を算出し、当該予測時間における上記視点と上記表示情報との間の相対的な位置の変化に基づき、上記表示領域における上記表示情報の提示位置を補正する。
以上説明したように、本開示の一実施形態に係る情報処理システムにおいて、情報処理装置は、取得部と、制御部とを備える。取得部は、視点と表示情報との間の相対的な動きに関する第1の情報と、表示領域への前記表示情報の提示のための発光期間に関する第2の情報と、を取得する。制御部は、上記第1の情報及び上記第2の情報に基づき、前記表示情報が前記表示領域に提示されるように制御する。また、上記制御部は、上記発光期間における上記視点と上記表示情報との間の相対的な動きに応じて、上記表示領域における上記表示情報の提示位置を補正する。具体的には、上記制御部は、予測の基点として設定されたタイミングと、上記第2の情報に応じた前記発光期間の中心と、に基づき、予測時間を算出し、当該予測時間における上記視点と上記表示情報との間の相対的な位置の変化に基づき、上記表示領域における上記表示情報の提示位置を補正する。
以上のような制御により、本開示の一実施形態に係る情報処理システムに依れば、発光期間の制御に応じて、表示情報の提示位置が本来想定される位置からずれたように知覚されるような事態の発生を防止することが可能となる。そのため、本開示の一実施形態に係る情報処理システムに依れば、表示情報の提示に係る発光期間が変化し得る状況下においても、より好適な態様で当該表示情報を提示可能となる。換言すると、本開示の一実施形態に係る情報処理システムに依れば、周囲の環境の明るさ(照度)が変化した場合においても、当該明るさの変化に応じてより好適な態様でユーザに表示情報を提示することが可能となる。
なお、上記では、出力部として透過型のディスプレイを適用した頭部装着型のデバイスに対して本開示の一実施形態に係る技術を適用する場合に着目して説明したが、必ずしも当該技術の適用先を限定するものではない。即ち、視点に対して表示情報が相対的に動くような状況での利用が想定され、かつ発光期間により当該表示情報の明るさを制御することが可能なデバイスであれば、本開示の一実施形態に係る技術を適用することが可能である。具体的な一例として、出力部として、投影面に対して画像を投影することでユーザに表示情報を提示するデバイスについても、本開示の一実施形態に係る技術を適用することが可能である。なお、この場合においても、視点(換言すると、プロジェクタ)に対して表示情報が相対的に動くような状況であれば、当該視点が動くか否かに関わらず、本開示の一実施形態に係る技術を適用することが可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
視点と表示情報との間の相対的な動きに関する第1の情報と、表示領域への前記表示情報の提示のための発光期間に関する第2の情報と、を取得する取得部と、
前記第1の情報及び前記第2の情報に基づき、前記表示情報が前記表示領域に提示されるように制御する制御部と、
を備え、
前記制御部は、前記発光期間における前記視点と前記表示情報との間の相対的な動きに応じて、前記表示領域における前記表示情報の提示位置を補正する、
情報処理装置。
(2)
前記制御部は、前記第2の情報に応じた前記発光期間の中心に基づき、前記表示領域における前記表示情報の提示位置を補正する、前記(1)に記載の情報処理装置。
(3)
前記制御部は、ユーザに知覚される前記提示位置のずれを予測するための基点として設定されたタイミングと前記発光期間の中心との間の予測時間を算出し、当該予測時間における前記視点と前記表示情報との間の相対的な位置の変化に基づき、前記表示領域における前記表示情報の提示位置を補正する、前記(2)に記載の情報処理装置。
(4)
前記制御部は、前記予測時間に応じて、前記表示領域における前記表示情報の提示位置の補正量を制御する、前記(3)に記載の情報処理装置。
(5)
前記制御部は、前記視点の位置及び姿勢のうち少なくともいずれかに応じた、前記表示情報の提示位置の補正に係る遅延と、前記表示情報の描画に係る遅延と、のうちの少なくともいずれかに基づき、前記予測時間を算出する、前記(3)または(4)に記載の情報処理装置。
(6)
前記制御部は、前記視点と前記表示情報との間の相対的な位置の変化方向に沿って、前記表示領域における当該表示情報の提示位置を補正する、前記(1)~(5)のいずれか一項に記載の情報処理装置。
(7)
前記制御部は、前記視点と前記表示情報との間の相対的な位置の変化量に応じて、前記表示領域における当該表示情報の提示位置の補正量を制御する、前記(1)~(6)のいずれか一項に記載の情報処理装置。
(8)
前記発光期間は、外光の明るさに応じて制御される、前記(1)~(7)のいずれか一項に記載の情報処理装置。
(9)
前記発光期間は、外光の影響の調整量に応じて制御される、前記(8)に記載の情報処理装置。
(10)
前記発光期間は、前記表示領域への前記表示情報の提示のための発光出力に応じて制御される、前記(1)~(9)のいずれか一項に記載の情報処理装置。
(11)
前記第1の情報は、前記視点の位置及び姿勢のうち少なくともいずれかの変化に応じた情報である、前記(1)~(10)のいずれか一項に記載の情報処理装置。
(12)
前記第1の情報は、前記表示情報として表示されるオブジェクトの動きに応じた情報である、前記(1)~(11)のいずれか一項に記載の情報処理装置。
(13)
前記表示領域は、透過型の出力部の表示領域である、前記(1)~(12)のいずれか一項に記載の情報処理装置。
(14)
ユーザの頭部に対して装着された状態において、前記出力部の前記表示領域が当該ユーザの眼前に位置するように支持する支持部を備える、前記(13)に記載の情報処理装置。
(15)
前記制御部は、前記第1の情報に基づき、実空間内の物体に対して前記表示情報が重畳するように制御する、前記(1)~(14)のいずれか一項に記載の情報処理装置。
(16)
前記制御部は、前記表示領域に含まれる部分領域のそれぞれについて、当該部分領域に対する前記表示情報の提示に係る前記発光期間における前記視点と前記表示情報との間の相対的な動きに基づき、当該部分領域における当該表示情報の提示位置を補正する、前記(1)~(15)のいずれか一項に記載の情報処理装置。
(17)
コンピュータが、
視点と表示情報との間の相対的な動きに関する第1の情報と、表示領域への前記表示情報の提示のための発光期間に関する第2の情報と、を取得することと、
前記第1の情報及び前記第2の情報に基づき、前記表示情報が前記表示領域に提示されるように制御することと、
を含み、
前記発光期間における前記視点と前記表示情報との間の相対的な動きに応じて、前記表示領域における前記表示情報の提示位置が補正される、
情報処理方法。
(18)
コンピュータに、
視点と表示情報との間の相対的な動きに関する第1の情報と、表示領域への前記表示情報の提示のための発光期間に関する第2の情報と、を取得することと、
前記第1の情報及び前記第2の情報に基づき、前記表示情報が前記表示領域に提示されるように制御することと、
を実行させ、
前記発光期間における前記視点と前記表示情報との間の相対的な動きに応じて、前記表示領域における前記表示情報の提示位置が補正される、
プログラムが記録された記録媒体。
(19)
頭部装着型の表示装置の光学的透過性を有する表示部に、当該表示装置を装着したユーザから見て、実空間の所定の絶対座標に仮想オブジェクトが位置するように前記表示部を制御する表示制御部と、
照度センサから外光の照度に関する情報を取得する照度情報取得部と、
を備え、
前記表示制御部は、前記外光の照度が高いほど、発光期間がより長くなるように前記表示部を制御し、
前記表示制御部は、前記仮想オブジェクトが前記表示部の表示領域内で一方向に向けて移動する場合において、
前記外光の照度が第1の照度である場合に、前記ユーザから見て、前記表示領域内の第1の位置に前記仮想オブジェクトを表示させ、
前記外光の照度が前記第1の照度よりも高い第2の照度である場合に、前記ユーザから見て、前記水平方向において前記表示領域内の前記第1の位置よりも前記一方向側の第2の位置に前記仮想オブジェクトを表示させる、
情報処理装置。
(20)
前記ユーザの視点と前記仮想オブジェクトとの間の相対的な動きに関する情報を取得する認識処理部をさらに備え、
前記表示制御部は、前記発光期間における前記視点と前記仮想オブジェクトとの間の相対的な動きに応じて、前記表示部における前記仮想オブジェクトの提示位置を補正する、
前記(19)に記載の情報処理装置。
(1)
視点と表示情報との間の相対的な動きに関する第1の情報と、表示領域への前記表示情報の提示のための発光期間に関する第2の情報と、を取得する取得部と、
前記第1の情報及び前記第2の情報に基づき、前記表示情報が前記表示領域に提示されるように制御する制御部と、
を備え、
前記制御部は、前記発光期間における前記視点と前記表示情報との間の相対的な動きに応じて、前記表示領域における前記表示情報の提示位置を補正する、
情報処理装置。
(2)
前記制御部は、前記第2の情報に応じた前記発光期間の中心に基づき、前記表示領域における前記表示情報の提示位置を補正する、前記(1)に記載の情報処理装置。
(3)
前記制御部は、ユーザに知覚される前記提示位置のずれを予測するための基点として設定されたタイミングと前記発光期間の中心との間の予測時間を算出し、当該予測時間における前記視点と前記表示情報との間の相対的な位置の変化に基づき、前記表示領域における前記表示情報の提示位置を補正する、前記(2)に記載の情報処理装置。
(4)
前記制御部は、前記予測時間に応じて、前記表示領域における前記表示情報の提示位置の補正量を制御する、前記(3)に記載の情報処理装置。
(5)
前記制御部は、前記視点の位置及び姿勢のうち少なくともいずれかに応じた、前記表示情報の提示位置の補正に係る遅延と、前記表示情報の描画に係る遅延と、のうちの少なくともいずれかに基づき、前記予測時間を算出する、前記(3)または(4)に記載の情報処理装置。
(6)
前記制御部は、前記視点と前記表示情報との間の相対的な位置の変化方向に沿って、前記表示領域における当該表示情報の提示位置を補正する、前記(1)~(5)のいずれか一項に記載の情報処理装置。
(7)
前記制御部は、前記視点と前記表示情報との間の相対的な位置の変化量に応じて、前記表示領域における当該表示情報の提示位置の補正量を制御する、前記(1)~(6)のいずれか一項に記載の情報処理装置。
(8)
前記発光期間は、外光の明るさに応じて制御される、前記(1)~(7)のいずれか一項に記載の情報処理装置。
(9)
前記発光期間は、外光の影響の調整量に応じて制御される、前記(8)に記載の情報処理装置。
(10)
前記発光期間は、前記表示領域への前記表示情報の提示のための発光出力に応じて制御される、前記(1)~(9)のいずれか一項に記載の情報処理装置。
(11)
前記第1の情報は、前記視点の位置及び姿勢のうち少なくともいずれかの変化に応じた情報である、前記(1)~(10)のいずれか一項に記載の情報処理装置。
(12)
前記第1の情報は、前記表示情報として表示されるオブジェクトの動きに応じた情報である、前記(1)~(11)のいずれか一項に記載の情報処理装置。
(13)
前記表示領域は、透過型の出力部の表示領域である、前記(1)~(12)のいずれか一項に記載の情報処理装置。
(14)
ユーザの頭部に対して装着された状態において、前記出力部の前記表示領域が当該ユーザの眼前に位置するように支持する支持部を備える、前記(13)に記載の情報処理装置。
(15)
前記制御部は、前記第1の情報に基づき、実空間内の物体に対して前記表示情報が重畳するように制御する、前記(1)~(14)のいずれか一項に記載の情報処理装置。
(16)
前記制御部は、前記表示領域に含まれる部分領域のそれぞれについて、当該部分領域に対する前記表示情報の提示に係る前記発光期間における前記視点と前記表示情報との間の相対的な動きに基づき、当該部分領域における当該表示情報の提示位置を補正する、前記(1)~(15)のいずれか一項に記載の情報処理装置。
(17)
コンピュータが、
視点と表示情報との間の相対的な動きに関する第1の情報と、表示領域への前記表示情報の提示のための発光期間に関する第2の情報と、を取得することと、
前記第1の情報及び前記第2の情報に基づき、前記表示情報が前記表示領域に提示されるように制御することと、
を含み、
前記発光期間における前記視点と前記表示情報との間の相対的な動きに応じて、前記表示領域における前記表示情報の提示位置が補正される、
情報処理方法。
(18)
コンピュータに、
視点と表示情報との間の相対的な動きに関する第1の情報と、表示領域への前記表示情報の提示のための発光期間に関する第2の情報と、を取得することと、
前記第1の情報及び前記第2の情報に基づき、前記表示情報が前記表示領域に提示されるように制御することと、
を実行させ、
前記発光期間における前記視点と前記表示情報との間の相対的な動きに応じて、前記表示領域における前記表示情報の提示位置が補正される、
プログラムが記録された記録媒体。
(19)
頭部装着型の表示装置の光学的透過性を有する表示部に、当該表示装置を装着したユーザから見て、実空間の所定の絶対座標に仮想オブジェクトが位置するように前記表示部を制御する表示制御部と、
照度センサから外光の照度に関する情報を取得する照度情報取得部と、
を備え、
前記表示制御部は、前記外光の照度が高いほど、発光期間がより長くなるように前記表示部を制御し、
前記表示制御部は、前記仮想オブジェクトが前記表示部の表示領域内で一方向に向けて移動する場合において、
前記外光の照度が第1の照度である場合に、前記ユーザから見て、前記表示領域内の第1の位置に前記仮想オブジェクトを表示させ、
前記外光の照度が前記第1の照度よりも高い第2の照度である場合に、前記ユーザから見て、前記水平方向において前記表示領域内の前記第1の位置よりも前記一方向側の第2の位置に前記仮想オブジェクトを表示させる、
情報処理装置。
(20)
前記ユーザの視点と前記仮想オブジェクトとの間の相対的な動きに関する情報を取得する認識処理部をさらに備え、
前記表示制御部は、前記発光期間における前記視点と前記仮想オブジェクトとの間の相対的な動きに応じて、前記表示部における前記仮想オブジェクトの提示位置を補正する、
前記(19)に記載の情報処理装置。
1 情報処理システム
10 情報処理装置
101 認識処理部
103 描画処理部
105 補正処理部
107 出力制御部
109 演算部
111 処理ブロック
20 入出力装置
201 撮像部
211 出力部
251 第1検知部
253 第2検知部
10 情報処理装置
101 認識処理部
103 描画処理部
105 補正処理部
107 出力制御部
109 演算部
111 処理ブロック
20 入出力装置
201 撮像部
211 出力部
251 第1検知部
253 第2検知部
Claims (20)
- 視点と表示情報との間の相対的な動きに関する第1の情報と、表示領域への前記表示情報の提示のための発光期間に関する第2の情報と、を取得する取得部と、
前記第1の情報及び前記第2の情報に基づき、前記表示情報が前記表示領域に提示されるように制御する制御部と、
を備え、
前記制御部は、前記発光期間における前記視点と前記表示情報との間の相対的な動きに応じて、前記表示領域における前記表示情報の提示位置を補正する、
情報処理装置。 - 前記制御部は、前記第2の情報に応じた前記発光期間の中心に基づき、前記表示領域における前記表示情報の提示位置を補正する、請求項1に記載の情報処理装置。
- 前記制御部は、ユーザに知覚される前記提示位置のずれを予測するための基点として設定されたタイミングと前記発光期間の中心との間の予測時間を算出し、当該予測時間における前記視点と前記表示情報との間の相対的な位置の変化に基づき、前記表示領域における前記表示情報の提示位置を補正する、請求項2に記載の情報処理装置。
- 前記制御部は、前記予測時間に応じて、前記表示領域における前記表示情報の提示位置の補正量を制御する、請求項3に記載の情報処理装置。
- 前記制御部は、前記視点の位置及び姿勢のうち少なくともいずれかに応じた、前記表示情報の提示位置の補正に係る遅延と、前記表示情報の描画に係る遅延と、のうちの少なくともいずれかに基づき、前記予測時間を算出する、請求項3に記載の情報処理装置。
- 前記制御部は、前記視点と前記表示情報との間の相対的な位置の変化方向に沿って、前記表示領域における当該表示情報の提示位置を補正する、請求項1に記載の情報処理装置。
- 前記制御部は、前記視点と前記表示情報との間の相対的な位置の変化量に応じて、前記表示領域における当該表示情報の提示位置の補正量を制御する、請求項1に記載の情報処理装置。
- 前記発光期間は、外光の明るさに応じて制御される、請求項1に記載の情報処理装置。
- 前記発光期間は、外光の影響の調整量に応じて制御される、請求項8に記載の情報処理装置。
- 前記発光期間は、前記表示領域への前記表示情報の提示のための発光出力に応じて制御される、請求項1に記載の情報処理装置。
- 前記第1の情報は、前記視点の位置及び姿勢のうち少なくともいずれかの変化に応じた情報である、請求項1に記載の情報処理装置。
- 前記第1の情報は、前記表示情報として表示されるオブジェクトの動きに応じた情報である、請求項1に記載の情報処理装置。
- 前記表示領域は、透過型の出力部の表示領域である、請求項1に記載の情報処理装置。
- ユーザの頭部に対して装着された状態において、前記出力部の前記表示領域が当該ユーザの眼前に位置するように支持する支持部を備える、請求項13に記載の情報処理装置。
- 前記制御部は、前記第1の情報に基づき、実空間内の物体に対して前記表示情報が重畳するように制御する、請求項1に記載の情報処理装置。
- 前記制御部は、前記表示領域に含まれる部分領域のそれぞれについて、当該部分領域に対する前記表示情報の提示に係る前記発光期間における前記視点と前記表示情報との間の相対的な動きに基づき、当該部分領域における当該表示情報の提示位置を補正する、請求項1に記載の情報処理装置。
- コンピュータが、
視点と表示情報との間の相対的な動きに関する第1の情報と、表示領域への前記表示情報の提示のための発光期間に関する第2の情報と、を取得することと、
前記第1の情報及び前記第2の情報に基づき、前記表示情報が前記表示領域に提示されるように制御することと、
を含み、
前記発光期間における前記視点と前記表示情報との間の相対的な動きに応じて、前記表示領域における前記表示情報の提示位置が補正される、
情報処理方法。 - コンピュータに、
視点と表示情報との間の相対的な動きに関する第1の情報と、表示領域への前記表示情報の提示のための発光期間に関する第2の情報と、を取得することと、
前記第1の情報及び前記第2の情報に基づき、前記表示情報が前記表示領域に提示されるように制御することと、
を実行させ、
前記発光期間における前記視点と前記表示情報との間の相対的な動きに応じて、前記表示領域における前記表示情報の提示位置が補正される、
プログラムが記録された記録媒体。 - 頭部装着型の表示装置の光学的透過性を有する表示部に、当該表示装置を装着したユーザから見て、実空間の所定の絶対座標に仮想オブジェクトが位置するように前記表示部を制御する表示制御部と、
照度センサから外光の照度に関する情報を取得する照度情報取得部と、
を備え、
前記表示制御部は、前記外光の照度が高いほど、発光期間がより長くなるように前記表示部を制御し、
前記表示制御部は、前記仮想オブジェクトが前記表示部の表示領域内で一方向に向けて移動する場合において、
前記外光の照度が第1の照度である場合に、前記ユーザから見て、前記表示領域内の第1の位置に前記仮想オブジェクトを表示させ、
前記外光の照度が前記第1の照度よりも高い第2の照度である場合に、前記ユーザから見て、前記表示領域内の前記第1の位置よりも前記一方向側の第2の位置に前記仮想オブジェクトを表示させる、
情報処理装置。 - 前記ユーザの視点と前記仮想オブジェクトとの間の相対的な動きに関する情報を取得する認識処理部をさらに備え、
前記表示制御部は、前記発光期間における前記視点と前記仮想オブジェクトとの間の相対的な動きに応じて、前記表示部における前記仮想オブジェクトの提示位置を補正する、
請求項19に記載の情報処理装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018189081 | 2018-10-04 | ||
JP2018189081 | 2018-10-04 | ||
PCT/JP2019/034353 WO2020071029A1 (ja) | 2018-10-04 | 2019-09-02 | 情報処理装置、情報処理方法、及び記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020071029A1 JPWO2020071029A1 (ja) | 2021-10-07 |
JP7367689B2 true JP7367689B2 (ja) | 2023-10-24 |
Family
ID=70055790
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020550211A Active JP7367689B2 (ja) | 2018-10-04 | 2019-09-02 | 情報処理装置、情報処理方法、及び記録媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11749141B2 (ja) |
EP (1) | EP3862981A4 (ja) |
JP (1) | JP7367689B2 (ja) |
CN (1) | CN112805755B (ja) |
WO (1) | WO2020071029A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220008118A (ko) | 2020-07-13 | 2022-01-20 | 삼성전자주식회사 | 가상 객체들의 밝기를 다르게 표시하는 방법 및 장치 |
US12028507B2 (en) * | 2021-03-11 | 2024-07-02 | Quintar, Inc. | Augmented reality system with remote presentation including 3D graphics extending beyond frame |
WO2023013130A1 (ja) * | 2021-08-05 | 2023-02-09 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び記録媒体 |
KR20240049158A (ko) * | 2022-10-07 | 2024-04-16 | 삼성전자주식회사 | 센서를 포함하는 웨어러블 전자 장치 및 이의 동작 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017183346A1 (ja) | 2016-04-18 | 2017-10-26 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2018503114A (ja) | 2014-12-30 | 2018-02-01 | 株式会社ソニー・インタラクティブエンタテインメント | 仮想現実用ヘッドマウントディスプレイにおける走査ディスプレイシステム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013065991A (ja) * | 2011-09-16 | 2013-04-11 | Hitachi Consumer Electronics Co Ltd | 映像表示装置 |
US9230473B2 (en) | 2013-06-24 | 2016-01-05 | Microsoft Technology Licensing, Llc | Dual duty cycle OLED to enable dynamic control for reduced motion blur control with constant brightness in augmented reality experiences |
CN105980962B (zh) * | 2014-02-17 | 2019-07-23 | 索尼公司 | 信息处理设备和信息处理方法 |
WO2017047178A1 (ja) * | 2015-09-16 | 2017-03-23 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP6629889B2 (ja) * | 2016-02-05 | 2020-01-15 | マクセル株式会社 | ヘッドアップディスプレイ装置 |
JP6898430B2 (ja) * | 2016-08-26 | 2021-07-07 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 仮想現実および拡張現実ディスプレイシステムのための連続時間ワーピングおよび両眼時間ワーピングおよび方法 |
KR102650572B1 (ko) * | 2016-11-16 | 2024-03-26 | 삼성전자주식회사 | 전자 장치 및 그의 제어 방법 |
-
2019
- 2019-09-02 US US17/278,817 patent/US11749141B2/en active Active
- 2019-09-02 JP JP2020550211A patent/JP7367689B2/ja active Active
- 2019-09-02 WO PCT/JP2019/034353 patent/WO2020071029A1/ja unknown
- 2019-09-02 CN CN201980063614.5A patent/CN112805755B/zh active Active
- 2019-09-02 EP EP19868863.2A patent/EP3862981A4/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018503114A (ja) | 2014-12-30 | 2018-02-01 | 株式会社ソニー・インタラクティブエンタテインメント | 仮想現実用ヘッドマウントディスプレイにおける走査ディスプレイシステム |
WO2017183346A1 (ja) | 2016-04-18 | 2017-10-26 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN112805755B (zh) | 2024-04-12 |
JPWO2020071029A1 (ja) | 2021-10-07 |
WO2020071029A1 (ja) | 2020-04-09 |
US20220036779A1 (en) | 2022-02-03 |
EP3862981A1 (en) | 2021-08-11 |
CN112805755A (zh) | 2021-05-14 |
EP3862981A4 (en) | 2021-12-01 |
US11749141B2 (en) | 2023-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108292489B (zh) | 信息处理装置和图像生成方法 | |
JP7367689B2 (ja) | 情報処理装置、情報処理方法、及び記録媒体 | |
JP6860488B2 (ja) | 複合現実システム | |
KR102291461B1 (ko) | 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들 | |
US10365711B2 (en) | Methods, systems, and computer readable media for unified scene acquisition and pose tracking in a wearable display | |
CN107430785B (zh) | 用于显示三维对象的方法和系统 | |
US20190371072A1 (en) | Static occluder | |
WO2020003860A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN114647318A (zh) | 跟踪设备的位置的方法 | |
JP2022517991A (ja) | 眼追跡に基づく動的レンダリング時間ターゲット化 | |
US12112449B2 (en) | Camera-based transparent display | |
US11353955B1 (en) | Systems and methods for using scene understanding for calibrating eye tracking | |
US12010288B2 (en) | Information processing device, information processing method, and program | |
US10248842B1 (en) | Face tracking using structured light within a head-mounted display | |
CN110895433B (zh) | 用于增强现实中用户交互的方法和装置 | |
US11615767B2 (en) | Information processing apparatus, information processing method, and recording medium | |
US12058452B2 (en) | Image blending | |
US11030817B2 (en) | Display system and method of using environment map to generate extended-reality images | |
US20230403386A1 (en) | Image display within a three-dimensional environment | |
WO2018165906A1 (zh) | 一种头戴式显示装置及其显示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220722 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230912 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230925 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7367689 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |