JP2018055589A - プログラム、物体の追跡方法、表示装置 - Google Patents
プログラム、物体の追跡方法、表示装置 Download PDFInfo
- Publication number
- JP2018055589A JP2018055589A JP2016193867A JP2016193867A JP2018055589A JP 2018055589 A JP2018055589 A JP 2018055589A JP 2016193867 A JP2016193867 A JP 2016193867A JP 2016193867 A JP2016193867 A JP 2016193867A JP 2018055589 A JP2018055589 A JP 2018055589A
- Authority
- JP
- Japan
- Prior art keywords
- posture
- image
- display
- captured image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 75
- 238000003384 imaging method Methods 0.000 claims description 15
- 230000036544 posture Effects 0.000 description 130
- 230000008569 process Effects 0.000 description 61
- 230000003287 optical effect Effects 0.000 description 30
- 238000012545 processing Methods 0.000 description 18
- 239000011159 matrix material Substances 0.000 description 15
- 230000005540 biological transmission Effects 0.000 description 9
- 210000003128 head Anatomy 0.000 description 9
- 238000012795 verification Methods 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 8
- 230000009466 transformation Effects 0.000 description 7
- 238000012937 correction Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 238000005401 electroluminescence Methods 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 206010016173 Fall Diseases 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000011347 resin Substances 0.000 description 2
- 229920005989 resin Polymers 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/003—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】ARの姿勢がドリフトした場合に、姿勢の再初期化を実行する一方で、ARの表示を継続すること。
【解決手段】撮像部と表示部とを備える表示装置に、前記撮像部を用いて、物体の撮像画像を取得する機能と、前記撮像部に対する前記物体の第1姿勢を、初期時刻での前記撮像画像、及び前記初期時刻より後の時刻での前記撮像画像との何れかに基づき検出する機能と、現在時刻での前記撮像画像に対応する前記物体の第2姿勢を、前記第1姿勢と、前記現在時刻での前記撮像画像と、に基づき、検出する機能と、前記現在時刻での前記撮像画像に対する前記第2姿勢の精度が予め定められた基準に達していない場合に、前記第2姿勢に基づく仮想姿勢でAR画像を前記表示部に表示する表示機能と、前記精度が前記予め定められた基準に達していない場合に、前記現在時刻での前記撮像画像に基づき前記物体の第3姿勢を検出する機能と、を実現させるためのプログラム。
【選択図】図11
【解決手段】撮像部と表示部とを備える表示装置に、前記撮像部を用いて、物体の撮像画像を取得する機能と、前記撮像部に対する前記物体の第1姿勢を、初期時刻での前記撮像画像、及び前記初期時刻より後の時刻での前記撮像画像との何れかに基づき検出する機能と、現在時刻での前記撮像画像に対応する前記物体の第2姿勢を、前記第1姿勢と、前記現在時刻での前記撮像画像と、に基づき、検出する機能と、前記現在時刻での前記撮像画像に対する前記第2姿勢の精度が予め定められた基準に達していない場合に、前記第2姿勢に基づく仮想姿勢でAR画像を前記表示部に表示する表示機能と、前記精度が前記予め定められた基準に達していない場合に、前記現在時刻での前記撮像画像に基づき前記物体の第3姿勢を検出する機能と、を実現させるためのプログラム。
【選択図】図11
Description
本開示は、物体の追跡に関する。
従来、ユーザーの頭部に装着される頭部装着型表示装置(Head Mounted Display:HMD)が知られている。例えば、特許文献1には、ビデオシースルー型HMDが記載されている。
HMDを用いて表示される拡張現実(AR)において、実世界と仮想世界とがシームレスに一つにされている印象を実現するには、仮想物体が実世界のそれぞれの対応物(カウンターパート)に高精度で重畳(オーバーレイ)されることが好ましい。このような重畳を、AR重畳と呼ぶ。
AR重畳に利用される3D物体追跡器は、それぞれの映像フレームにて、追跡される3D物体の位置を精度よく推定することが好ましい。それにも関わらず、動きの速度、視角変化による特徴点の消失、モーションブラー、見えおよび照明条件の変化、複雑な(散らかった)背景、およびオクルージョン(遮蔽)を含む多くの要因が、3D位置の推定に誤差を生じさせる。
追跡精度およびAR重畳の連続性を維持するために、これらの誤差は、その場で(その都度)修正されることが好ましい。追跡誤差の修正に対処する異なる幾つかのアプローチは存在する。それらの適時の適用を可能とするためには、物体追跡の期間中で追跡誤差が生じた時点が精度よく検出されることが好ましい。
標準的な3D追跡器は、有効姿勢状態および姿勢喪失状態を定義している。これは、追跡器の性能を制限する。すなわち、有効姿勢状態は、姿勢検証のために事前に定義された状態が満たされた場合に割り当てられる。この状態の厳格性は、高くてもよいし、低くてもよい。
厳格性が低い場合には、ドリフト量が多少大きくても、姿勢が有効であるとマークされ得る。つまり、仮想物体の姿勢が対応物とずれていても、正しく姿勢が追跡されていると判定されやすくなる。この場合、姿勢の再初期化は実行されない一方で、ARの表示は継続される。但し、ARの表示は、ドリフトした姿勢に基づき表示される。
一方、厳格性が高い場合には、わずかな姿勢のみしか有効とされない。つまり、わずかなドリフト量である場合にのみ、有効であることになる。このため、姿勢を再初期化するブロック(つまり処理)が頻繁に実行される。再初期化プロセスは、多数の映像フレーム(場合によっては10フレーム以上)を用い、且つ、その期間中、追跡器は姿勢喪失状態になる。この結果、この期間中は、ARの表示が停止する。
本開示は、上記を踏まえ、姿勢がドリフトした(ずれた)場合に、物体に対してドリフトの大きいAR画像をユーザーに提示している期間、および/またはAR画像が消失している期間を短縮することを目的の一つとする。
本開示は、上記課題を解決するためのものであり、以下の形態として実現できる。
本開示の一形態は、撮像部と表示部とを備える表示装置に;前記撮像部を用いて、物体の撮像画像を取得する機能と;前記撮像部に対する前記物体の第1姿勢を、初期時刻での前記撮像画像、及び前記初期時刻より後の時刻での前記撮像画像との何れかに基づき検出する機能と;現在時刻での前記撮像画像に対応する前記物体の第2姿勢を、前記第1姿勢と、前記現在時刻での前記撮像画像と、に基づき、検出する機能と;前記現在時刻での前記撮像画像に対する前記第2姿勢の精度が予め定められた基準に達していない場合に、前記第2姿勢に基づく仮想姿勢でAR画像を前記表示部に表示する表示機能と;前記精度が前記予め定められた基準に達していない場合に、前記現在時刻での前記撮像画像に基づき前記物体の第3姿勢を検出する機能と;を実現させるためのプログラムである。この形態によれば、第2姿勢が予め定められた基準に達していない場合に、第3姿勢を検出しながら、AR表示を継続できる。つまり、導出された物体の姿勢の精度が基準に達していない場合に、当該姿勢の再初期化を実行する一方で、ARの表示を継続できる。
上記形態において、前記予め定められた基準は、第2基準であり;第1基準は、前記第2基準よりも緩やかな基準であり;前記第2姿勢が前記第1基準に達していない場合に、前記表示機能によるAR画像の表示を停止させる機能を実現させてもよい。この形態によれば、第2姿勢が第1基準に達していない場合に、AR表示を停止できる。
本開示は、上記以外の種々の形態で実現できる。例えば、追跡方法や、この方法を実現する表示装置の形態で実現できる。
図1は、HMD100の概略構成を示す。HMD100は、頭部装着型表示装置(ヘッドマウントディスプレイ:Head Mounted Display)である。HMD100は、光学透過型である。つまり、HMD100は、ユーザーに対して、虚像を知覚させると同時に、外景も直接視認させることができる。
HMD100は、ユーザーの頭部に装着可能な装着帯90と、画像を表示する表示部20と、表示部20を制御する制御部10と、を備えている。表示部20は、ユーザーの頭部に装着された状態においてユーザーに虚像を知覚させる。表示部20がユーザーに虚像を知覚させることを「ARを表示する」ともいう。ユーザーが知覚する虚像のことを、AR画像ともいう。
装着帯90は、樹脂製の装着基部91と、装着基部91に連結される布製のベルト92と、カメラ60と、IMU71と、を備える。装着基部91は、人の前頭部の形に合った湾曲した形状を有する。ベルト92は、ユーザーの頭部の周りに装着される。
カメラ60は、撮像部として機能する。カメラ60は、外景を撮像可能で、装着基部91の中心部分に配置されている。換言すると、カメラ60は、装着帯90がユーザーの頭部に装着された状態で、ユーザーの額の中央に対応する位置に配置されている。そのため、カメラ60は、ユーザーが装着帯90を頭部に装着した状態において、ユーザーの視線方向の外部の景色である外景を撮像し、撮像された画像である撮像画像を取得する。
カメラ60は、装着基部91に対して回転するカメラ基部61と、カメラ基部61に対して相対位置が固定されたレンズ部62と、を有する。カメラ基部61は、装着帯90がユーザーの頭部に装着された際に、ユーザーの中心軸を含む面に含まれる軸の所定の範囲である矢印CS1に沿って回転可能に配置されている。そのため、カメラ60の光軸であるレンズ部62の光軸は矢印CS1の範囲で向きを変更可能である。レンズ部62は、光軸を中心としたズームによって変化する範囲を撮像する。
IMU71(Inertial Measurement Unit)は、加速度を検出する慣性センサーである。IMU71は、加速度に加えて、角速度と、地磁気とを検出できる。IMU71は、装着基部91に内蔵されている。そのため、IMU71は、装着帯90及びカメラ基部61の加速度と角速度と地磁気とを検出する。
IMU71は装着基部91との相対位置が固定されているので、カメラ60はIMU71に対して可動である。さらに、表示部20は、装着基部91との相対位置が固定されているので、カメラ60は表示部20に対する相対位置が可動である。
表示部20は、装着帯90の装着基部91に連結される。表示部20は、眼鏡型である。表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、を含んでいる。
右光学像表示部26及び左光学像表示部28は、それぞれ、ユーザーが表示部20を装着した際にユーザーの右および左の眼前に位置する。右光学像表示部26の一端および左光学像表示部28の一端は、ユーザーが表示部20を装着した際のユーザーの眉間に対応する位置で、互いに接続されている。
右保持部21は、右光学像表示部26の他端である端部ERから略水平方向に延び、途中から斜め上方へ傾斜した形状を有し、端部ERと装着基部91の右側の連結部93との間を結ぶ。
同様に、左保持部23は、左光学像表示部28の他端である端部ELから略水平方向に延び、途中から斜め上方へ傾斜した形状を有し、端部ELと装着基部91の左側の連結部(図示せず)との間を結ぶ。
右保持部21及び左保持部23が左右の連結部93によって装着基部91に連結されることで、右光学像表示部26と左光学像表示部28をユーザーの眼前に位置させる。なお、各連結部93は、右保持部21及び左保持部23を回転可能に、且つ任意の回転位置に固定可能に連結する。この結果、表示部20は、装着基部91に対して回転可能に設けられることになる。
右保持部21は、右光学像表示部26の他端である端部ERから、ユーザーが表示部20を装着した際のユーザーの側頭部に対応する位置にかけて、延伸して設けられた部材である。
同様に、左保持部23は、左光学像表示部28の他端である端部ELから、ユーザーが表示部20を装着した際のユーザーの側頭部に対応する位置にかけて、延伸して設けられた部材である。右表示駆動部22及び左表示駆動部24は、ユーザーが表示部20を装着した際のユーザーの頭部に対向する側に配置されている。
表示駆動部22,24は、後述する液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」とも呼ぶ)や投写光学系251,252等を含む。表示駆動部22,24の構成の詳細な説明は後述する。
光学像表示部26,28は、後述する導光板261,262(後述)と調光板とを含んでいる。導光板261,262は、光透過性の樹脂材料等によって形成され、表示駆動部22,24から出力された画像光をユーザーの眼に導く。
調光板は、薄板状の光学素子であり、ユーザーの眼の側とは反対の側である表示部20の表側を覆うように配置されている。調光板の光透過率を調整することによって、ユーザーの眼に入る外光量を調整して虚像の見えやすさを調整できる。
表示部20は、さらに、表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、右コード42と、左コード44と、連結部材46と、を含んでいる。
右コード42及び左コード44は、本体コード48が2本に分岐したコードである。表示部20及び制御部10は、接続部40を介して各種信号の伝送を実行する。右コード42と、左コード44と、本体コード48とには、例えば、金属ケーブルや光ファイバーを採用できる。
制御部10は、HMD100を制御するための装置である。制御部10は、静電式のトラックパッドや押下可能な複数のボタンなどを含む操作部135を有する。操作部135は、制御部10の表面に配置されている。
図2は、HMD100の構成を機能的に示すブロック図である。図2に示すように、制御部10は、ROM121と、RAM122と、電源130と、操作部135と、CPU140と、インターフェース180と、送信部51(Tx51)および送信部52(Tx52)と、を有している。
電源130は、HMD100の各部に給電する。ROM121には、種々のプログラムが格納されている。CPU140は、ROM121に格納された各種プログラムを、RAM122に展開することで、各種プログラムを実行する。各種プログラムには、後述する追跡処理とAR表示処理とを実現するためのものが含まれる。
CPU140は、ROM121に格納されているプログラムを、RAM122に展開することにより、オペレーティングシステム150(OS150)、表示制御部190、音声処理部170、画像処理部160及び処理部167として機能する。
表示制御部190は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成する。表示制御部190は、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。
表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号のそれぞれを、送信部51及び52を介して送信する。表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号のそれぞれを送信する。
画像処理部160は、コンテンツに含まれる画像信号を取得し、送信部51,52を介して、取得した画像信号を表示部20の受信部53,54へと送信する。音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内のスピーカー(図示しない)および左イヤホン34内のスピーカー(図示しない)に対して供給する。
処理部167は、カメラ60から撮像画像を、時刻に関連付けて取得する。本実施形態における時刻とは、標準時に基づくものでもよいし、そうでなくてもよい。処理部167は、例えばホモグラフィー行列により、物体(実物体)の姿勢を算出する。物体の姿勢とは、カメラ60と物体との空間的関係(回転関係)のことである。処理部167は、算出した上記空間的関係と、IMU71によって検出された加速度等の検出値と、を用いて、カメラに固定された座標系からIMU71に固定された座標系へと変換するための回転行列を算出する。処理部167の機能は、後述する追跡処理およびAR表示処理に用いられる。
インターフェース180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するための入出力インターフェースである。外部機器OAとしては、例えば、ARシナリオを記憶している記憶装置、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等がある。インターフェース180としては、例えば、USBインターフェース、マイクロUSBインターフェース、メモリーカード用インターフェース等を用いることができる。
表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、を備えている。
右表示駆動部22は、受信部53(Rx53)と、右バックライト制御部201及び右バックライト221と、右LCD制御部211及び右LCD241と、右投写光学系251と、を含んでいる。右バックライト制御部201及び右バックライト221は、光源として機能する。
右LCD制御部211及び右LCD241は、表示素子として機能する。なお、他の実施形態では、右表示駆動部22は、上記構成に代えて、有機EL表示素子などの自発光型表示素子を備えてもよいし、レーザーダイオードからの光ビームを網膜上でスキャンするスキャン型の表示素子を備えてもよい。左表示駆動部24についても、同様である。
受信部53は、制御部10と表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネッセンス(EL)等の発光体である。右LCD制御部211は、画像処理部160及び表示制御部190から送信された制御信号に基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
右投写光学系251は、右LCD241から射出された画像光を平行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつユーザーの右眼REに導く。なお、左表示駆動部24は、右表示駆動部22と同様の構成を有し、ユーザーの左眼LEに対応するため、説明を省略する。
IMU71及びカメラ60を用いたキャリブレーションは、慣性センサーであるIMU71の性能によって精度が異なる。精度が高くない安価なIMUが用いられると、キャリブレーションには、大きな誤差やドリフトが発生することがある。
本実施形態では、IMU71を用いたマルチポジション法を用いたバッチ・ソリューション・ベース・アルゴリズムによってキャリブレーションを実行する。本実施形態では、IMU71とカメラ60との間の並進関係については、製造時の設計データを用いる。
IMU71とカメラ60とのそれぞれに対して、別々のキャリブレーション(以下、独立キャリブレーション)が実行される。独立キャリブレーションの具体的な方法については、周知技術を用いる。
独立キャリブレーションでは、IMU71が較正される。具体的には、IMU71に含まれる3軸の加速度センサー(Ax,Ay,Az)と、3軸のジャイロセンサー(Gx,Gy,Gz)と、3軸の地磁気センサー(Mx,My,Mz)とに対して、ゲイン/スケールと、静的なバイアス/オフセットと、3軸間のスキューと、についてキャリブレーションが実行される。
これらのキャリブレーションが実行されると、IMU71は、加速度、角速度、地磁気のそれぞれについての出力値として、加速度と角速度と地磁気とを出力する。これらの出力値は、ゲイン、静的なバイアス/オフセット、および3軸間のミスアライメントを修正した値である。これらのキャリブレーションは、本実施形態では、HMD100の製造時において製造工場などで実施される。
独立キャリブレーションで実行されるカメラ60のキャリブレーションでは、カメラ60における焦点距離、スキュー、主点位置、歪みを含むカメラ60の内部パラメーターがキャリブレーションされる。カメラ60のキャリブレーションには、周知技術を適用できる。
IMU71に含まれる各センサーのキャリブレーションが実行された後においては、IMU71における加速度、角速度、地磁気のそれぞれのセンサーの検出値(計測された出力)を融合して、精度の高いIMU配向を得ることができる。
ここで、本実施形態に特徴的な処理の概要を説明する。詳細は後述する。
AR重畳に利用される3D姿勢追跡のプロセスは、検出プロセスと、それに続く追跡プロセスと、を含む。追跡されている姿勢に大きなドリフト(誤差)が生じた結果、姿勢を喪失した場合には、再度、検出プロセスを実施する(再初期化)。従来、再初期化によって、再び姿勢が得られるまで、AR重畳を停止していた。そこで、本実施形態においては、許容できる程度のドリフトの段階で、AR重畳を継続しながら姿勢検出プロセス(再初期化)を開始する。
単眼の映像において、3D物体のカメラ60に対する相対的な動きを追跡することは、カメラ座標系に対する3D物体の位置(6自由度で表されている位置)の連続的な(フレーム毎の)回復を包含する。
本実施形態において、3D物体に対応する3Dモデルは、既知である。このため、3D物体の追跡は、次の2つの問題に帰着する。1つ目は、3Dモデルの3D点と、映像シーケンスにおける2D点と、の間の正確な対応付けを確立することである。2つ目は、透視n点問題(PnP問題)を解いて、3D物体の位置を推定することである。
以下、処理の詳細を説明する。
図3は、追跡処理を示すフローチャートである。追跡処理に含まれる各ステップの実行主体は、CPU140である。
まず、初期化を実行する(S300)。この初期化によって、追跡状態が、正確姿勢状態になる。S300によって検出された正確な姿勢を、第1姿勢ともいう。S300によって検出される第1姿勢は、初期時刻における撮像画像に基づき検出される。第1姿勢は、カメラ60に対する姿勢である。
図4は、初期化のフローチャートである。初めに、カメラ60を用いて物体を撮像する(S321)。撮像画像には背景が含まれてもよい。続いて、撮像された物体の画像に対して、以下に述べるエッジ検出を実行する(S323)。
S323は、撮像された物体と、2Dテンプレートとを対応付けるために実行される。2Dテンプレートは、撮像された物体に対応するとともに、その物体の位置と姿勢を反映する。制御部10は、複数の2Dテンプレートを予め記憶している。
ここで、各2Dテンプレートは、当該物体に対応する3Dモデルを、それぞれのビューに基づいて、仮想的な画像平面(イメージプレーン)にレンダリングすることで得られるそれぞれの2Dモデルに基づいて作成されたデータである。
ビューとは、仮想カメラに対する回転と並進を表す3次元剛体変換行列、およびカメラパラメーターを含む透視写像(透視投影)変換行列を含んでいる。具体的には、各2Dテンプレートは、2Dモデルの特徴点(本実施形態ではエッジに含まれる点)を表す2Dモデル点と、当該2Dモデル点に対応する3Dモデル点と、当該ビューと、を含んでいる。2Dモデル点は、当該イメージプレーン上に原点を有する2D座標系(イメージプレーン座標系)で表されている。3Dモデル点は、3Dモデルに原点が固定された3D座標系(3Dモデル座標系)で表されている。
エッジの検出のために、撮像画像のピクセルに基づいて、エッジとなる特徴要素を計算する。本実施形態では、物体の撮像画像のピクセル毎の輝度のグラディエントを計算することで、特徴要素を決定する。本実施形態では、エッジを検出するために、カニーエッジ検出方法における手続と同様に、単に、エッジを閾値と比較し、最大でないものを抑制する(non-maxima suppression)。
次に、記憶されている複数の2Dテンプレートの中から、撮像された物体の画像の姿勢に最も近いビューから生成された2Dテンプレートを選択する(S325)。
この選択のために、物体の大まかな姿勢を推定する既存の3次元姿勢推定アルゴリズムが別途利用されてもよい。
但し、3D姿勢の高精度化を行なう際に、既に選択したビューよりも、物体の画像の姿勢に近い新たなビューを見つけることがある。新たなビューを見つけた場合には、新たなビューの3D姿勢の高精度化を行なう。
なお、他の実施形態では、予め作成された2Dテンプレートを用いるのではなく、物体を撮像すると共に、その場で(on the fly)、しかも必要であれば照明などの撮像環境をレンダリングに反映しながら、3DCADデータから2Dモデルを含む2Dテンプレートを作成することで、なるべく多くの視認可能なエッジを抽出してもよい。
続いて、物体の画像のエッジに含まれる画像点と、2Dテンプレートに含まれる2Dモデル点との対応付けを実行する(S327)。
本実施形態では、それぞれの写像された2Dモデル点の周囲の局所的近隣に含まれる全ての画像点について、同様性スコアを計算する。同様性スコアの計算については、周知の手法を適用する。
次に、画像点に対応付けられた2Dモデル点に対応する3Dモデル点と、当該2Dモデル点を作成したときのビューの情報と、を取得する(S329)。
次に、取得されたビューを表す変換行列を読み出す(S331)。変換行列とは、カメラ60を原点とした座標系で表された3次元剛体変換行列、および透視写像(透視投影)変換行列である。
最後に、カメラ60によって撮像された物体の姿勢を最適化する(S333)。この最適化によって姿勢の初期化が完了する。S333は、画像点と、画像点に対応する3Dモデル点と、S331で取得したビューとに基づき、最適な回転行列と並進行列とを導出するように繰り返し計算により実行される。
上記のようにして初期化が完了した後、第1姿勢に対応する仮想姿勢で、AR画像を表示部に表示する。そうすると、本実施形態では、ユーザーに、物体OBの3D姿勢に、AR画像の3D姿勢が一致するように視認させることができる。そして、新しい画像フレームを取得する(S420)。新しい画像フレームは、カメラ60による連続的な撮像から取得される。続いて、新しい画像フレームで追跡を実施する(S430)。追跡は、新しい画像フレームにおいて、物体OBの姿勢を最適化することを含み得る。
S430は、第1姿勢と、S420による撮像画像と、に基づき実行される。S420による撮像画像は、現在時刻での撮像画像である。S430によって検出された姿勢を、第2姿勢ともいう。具体的には、初期化により導出された姿勢(第1姿勢)と、第1姿勢に対応する2Dモデル点と、3Dモデル点と、を含むデータを一つの2Dテンプレートのように扱うことで、第2姿勢を導出することができる。
次に、残差角度決定処理(後述)を実行し(S500)、追跡状態が第1基準(第1レベル)に達しているかを判定する(S610)。つまり、現在時刻における姿勢の精度が、第1基準に達しているかを判定する。さらに言い換えると、現在時刻での撮像画像に対応する第2姿勢の精度が第1基準に達しているかを判定する。
追跡状態には、先述した正確姿勢状態に加え、許容姿勢状態および姿勢喪失状態の3通りがある。図5,図6及び図7は、物体OBと、輪郭OLとの位置関係を示す。輪郭OLは、ARとして表示される。輪郭OLは、追跡した姿勢に基づき、3Dモデルをレンダリングすることによって決定される。
図5は、正確姿勢状態を例示する。図6は、許容姿勢状態を例示する。図7は、姿勢喪失状態を例示する。本実施形態では、有効姿勢状態として、次の2つの状態(レベル)を許容する。1つ目は、正確姿勢状態である。2つ目は、許容姿勢状態である。これは、図5,図6,図7に示すような3状態追跡器をもたらす。2つの基準による姿勢検証が、3つの状態間を区別するために用いられる。
S610は、姿勢検証の第1基準(第1レベル:FLPV:First Level Pose Value)を用いて、姿勢が許容できるか否かを試すものである。後述するS630は、姿勢検証の第2基準(第2レベル:SLPV:Second Level Pose Value)を用いて、姿勢の精度を判定するためのものである。このため、第2基準は、第1基準よりも厳格(精密)な基準である。つまり、第1基準は、第2基準よりも緩やかな基準である。
3状態追跡器の利点は、少なくとも次の2つである。1つ目の利点は、追跡における連続性があることである。追跡器は、第1基準(FLPV)が認定される場合、再初期化において、姿勢喪失状態の代わりに許容姿勢状態に維持される。この結果、AR表示処理(図11)と共に後述するように、第1基準が認定される場合、ARの表示を継続する。
2つ目の利点は、姿勢の有効性のレベル(許容可能な精度)に依存して、2つの異なる修正方法を採用する可能性があることである。つまり、誤差のタイプ(程度)に合わせて、修正方法を採用する可能性があることである。
先述したFLPV3D位置検証プロセス及びSLPV3D位置検証プロセスは、多様なアプローチを採用できる。多様なアプローチとは、例えば、本実施形態のように単眼カメラによる3D物体追跡の場合については、再写像エラー、透視n点(PnP)内のインライアー総数(count)/比率(fraction)などである。
本実施形態では、S610,S630において、ドリフト検出のためのPnP推定のグローバル残差角度誤差(以下、残差角度誤差)を用いる。他の形態では、残差角度誤差と、PnPインライアー・フラクションと、の組み合わせを用いることもできる。残差角度誤差は、計測される基準である。
図8は、残差角度決定処理を示すフローチャートである。残差角度決定処理は、残差角度誤差を用いた検証プロセスに利用される。図9は、残差角度誤差θを示す。残差角度誤差θは、後述するように、この検証プロセスにおいて求められる。
まず、PnP問題を解く手順の出口において、1つ目の3D点P1を求める(S510)。1つ目の3D点P1は、3DモデルMDLに含まれる3Dモデル点P3Dを変換した点である。この変換は、3Dモデル座標系で表された3Dモデル点P3Dを、現行の映像(画像)フレームに対応する姿勢を表す3D変換行列[R|T]を用いてカメラ座標系に変換することによって実現される。3D変換行列[R|T]は、物体OBの3D位置の推定を生じるPnPに関連した現在時刻(現行の画像フレーム)の行列である。Rは、行列の回転成分である。Tは、行列の並進成分である。
次に、2つ目の3D点P2を求める(S520)。2つ目の3D点P2は、映像フレームの解析に関連した2D対応点(画像点)P2Dの逆投影(3Dバック写像)によって求まる点である。このとき、奥行情報は、画像点に対応する3Dモデル点のZ座標に基づけばよい。
なお、3D点P2は、後述するように、S530において残差角度誤差を計算するために求める。他の実施形態では、残差角度誤差を計算するためには、S520において、2D対応点P2Dとカメラパラメーターの焦点FP(本実施形態では、カメラ座標系の原点)とを通る直線を求めることでも十分である。3D点P2は、この直線上に位置する。
続いて、対応する3D点P1,P2の対それぞれについて残差角度誤差を計算する(S530)。つまり、3D点P1と、3D点P2とがなす角度を、3D点の対それぞれについて計算する。この個々の角度誤差は、各対応点の対について、焦点FPから3Dフレーム点P1,P2それぞれに連結されたカメラ光線(直線)に沿った単位ベクトルのドット積(内積)から推論される。
次に、上記のように算出された残差角度誤差を対象に、簡単な統計学的データが計算され、グローバル角度誤差閾値(以下、残差角度)として保存される(S540)。統計学的データとは、合計値、平均値、中央値、最大値などである。
次に、これら残差角度を、各フレームで計測された1秒当たりのフレーム数(fps)に応じて、残差角度を増減し(S550)、残差角度決定処理を終える。この増減は、カメラのフレームレートに対して不変にするために実行される。つまり、この増減は、角度閾値を、フレームレートに応じて調整するために実行される。残差角度は、ドリフト量を示すパラメーターの1つである。
先述したS610では、上記のように決定された残差角度が、第1基準として予め定められた角度値よりも小さいか否かによって判定される。後述するS630でも同様である。他の実施形態では、残差角度と、PnPインライアー・フラクションとが、第1基準として予め定められたそれぞれの値を達成するか否かによって判定されてもよい。
第1基準(FLPV)のパラメーターの調整、及び第2基準(SLPV)のパラメーターの調整は、経験的であり、3D姿勢の精度を支持するコスト関数を最適化することから生じる。そして、同時に、追跡器を正確姿勢状態へ再初期化するために用いられる誤り訂正(誤差修正ブロック)の具体化(instantiation:インスタンス化)にペナルティを課す。
S610は、第2姿勢に基づき実行される。S610において、第2姿勢の精度が第1基準にすら達していないと判定した場合(S610,NO)、フラグを姿勢喪失状態にセットし(S620)、再初期化処理(後述)に進む(S700)。
S610において、第1基準に達していると判定した場合(S610,YES)、追跡状態が第2基準に達しているかを判定する(S630)。つまり、現在時刻における姿勢(第2姿勢)の精度が、第2基準に達しているかを判定する。さらに言い換えると、現在時刻での撮像画像(現行画像フレーム)における第2姿勢の精度が第2基準に達しているかを判定する。S630は、第2姿勢に基づき実行される。S630では、残差角度誤差の検証において、上記のように決定された角度閾値が第2基準未満であるか否かに基づく。
第2基準に達していないと判定した場合(S630,NO)、フラグを許容姿勢状態にセットし(S640)、再初期化処理に進む(S700)。
S630において、第2基準に達していると判定した場合(S630,YES)、追跡処理を終了するかを判定する(S650)。終了しない場合(S650,NO)、S420に戻る。終了する場合(S650,YES)、追跡処理を終了する。追跡処理の終了は、ユーザーからの指示などに基づく。
なお、第2基準に達していることは、正確姿勢状態であることを意味する。S430によって第2姿勢として検出された姿勢は、正確姿勢状態であることが確認されたことで、新たな第1姿勢になる。このように検出された第1姿勢は、初期時刻よりも後の時刻での撮像画像に基づき検出されたものである。
図10は、再初期化処理を示すフローチャートである。まず、誤り訂正を実行する(S710)。つまり、姿勢の再初期化を試みる。再初期化は、先述した初期化と同様に実行される。再初期化によって検出される姿勢は、第3姿勢ともいう。初期化(再初期化)では、複数の2Dテンプレート、つまり複数のビュー、を広範囲にわたって検索することを含むことから、物体OBの姿勢が短時間で急激に変わったこと、および/または物体OBがカメラ60の視野から一旦外れたことに起因して追跡がずれ、または消失した場合であっても、精度よく物体OBの姿勢を導出する。
再初期化に成功した場合(S720,YES)、第2姿勢の精度は正確姿勢状態になるから、正確姿勢状態を表すフラグをセットし(S730)、再初期化処理を終える。S710によって第3姿勢として検出された姿勢は、正確姿勢状態であることが確認されたことで、新たな第1姿勢になる。このように検出された第1姿勢は、初期時刻よりも後の時刻での撮像画像に基づき検出されたものである。再初期化処理を終えると、図3に示すように、S420に戻る。再初期化(再初期化)直後に引き続いて導出される第2姿勢では高精度が維持されやすいことから、ユーザーに、物体OBの3D姿勢に、AR画像の3D姿勢が一致するように視認させることができる。なお、S420に戻る前に、再初期化により第1姿勢(第3姿勢)が導出された時点に対応する画像フレーム上に、第1姿勢に対応する仮想姿勢で、AR画像を表示部に表示してもよい。
再初期化に失敗した場合(S720,NO)、姿勢喪失状態であるかを判定する(S740)。つまり、第1基準未満であるかを判定する。姿勢喪失状態ではない場合(S740,NO)、第3姿勢の精度は許容姿勢状態になるから、許容姿勢状態を表すフラグをセットし(S750)、再初期化処理を終える。
姿勢喪失状態である場合(S740,YES)、フラグを姿勢喪失状態にセットし(S760)、新しい画像フレームを撮像し(S770)、S710に戻る。つまり、再初期化を再度、試みる。
図11は、AR表示処理を示すフローチャートである。AR表示処理に含まれる各ステップの実行主体は、CPU140である。AR表示処理は、ARの表示を実行したり、停止したりするための処理である。AR表示処理の一部のステップは、追跡処理に含まれるステップと同じ内容である。つまり、追跡処理およびAR表示処理は、各々が独立して実行される訳ではなく、一部の処理を共有している。
上記一部のステップは、山括弧<>内に、追跡処理と共有されるステップ番号を示す。なお、追跡処理における初期化(S410)は、AR表示処理の開始前に、実施済みとする。
まず、新しい画像フレームを撮像する(S810<S420>)。次に、正確姿勢状態であるかを判定する(S820<S630>)。正確姿勢状態でない場合(S820,NO)、許容姿勢状態であるかを判定する(S830<S610>)。許容姿勢状態である場合(S830,YES)、又は、正確姿勢状態である場合(S820,YES)、ARを表示する(S840)。
正確姿勢状態である場合に表示されるARも、許容姿勢状態である場合に表示されるARも、第2姿勢に基づく仮想姿勢で表示される画像である。
許容姿勢状態である場合は、先述したように再初期化処理が実行される。このため、許容姿勢状態である場合、第2姿勢に基づく仮想姿勢でAR画像を表示しながら、再初期化処理を実行する。これにより、AR画像の3D姿勢の精度がユーザーにとって許容できない程度になる前に、再初期化により精度を向上させることができる。また、ユーザーにとって当該精度が許容できない程度になる前に開始される再初期化の期間中では、AR画像の表示が維持されることから、AR重畳が消失する時間を短くすることができる。
一方、許容姿勢状態でない場合(S830,NO)、ARの表示を停止する(S850)。S840又はS850の後、AR表示処理を終了するかを判定する(S860<S650>)。終了しない場合(S860,NO)、S810に戻る。終了する場合(S860,YES)、AR表示処理を終了する。AR表示処理の終了は、ユーザーからの指示などに基づく。
本開示は、本明細書の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現できる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、先述の課題の一部又は全部を解決するために、或いは、先述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせができる。その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除できる。例えば、以下のものが例示される。
上記実施形態において、ソフトウエアによって実現された機能及び処理の一部又は全部は、ハードウエアによって実現されてもよい。また、ハードウエアによって実現された機能及び処理の一部又は全部は、ソフトウエアによって実現されてもよい。ハードウエアとしては、例えば、集積回路、ディスクリート回路、又は、それらの回路を組み合わせた回路モジュールなど、各種回路を用いてもよい。
上記の追跡処理およびAR表示処理を実行する表示装置は、ビデオシースルー型HMDでよいし、HMD(頭部装着型)でなくてもよい。HMD以外としては、ロボットに適用してもよいし、携帯型の表示装置(例えばスマートフォン)でもよいし、ヘッドアップディスプレイ(HUD)でもよいし、据え置き型の表示装置でもよい。
10…制御部、20…表示部、21…右保持部、22…右表示駆動部、23…左保持部、24…左表示駆動部、26…右光学像表示部、28…左光学像表示部、40…接続部、42…右コード、44…左コード、46…連結部材、48…本体コード、51…送信部、52…送信部、53…受信部、54…受信部、60…カメラ、61…カメラ基部、62…レンズ部、71…IMU、90…装着帯、91…装着基部、92…ベルト、93…連結部、121…ROM、122…RAM、130…電源、135…操作部、140…CPU、150…オペレーティングシステム、160…画像処理部、167…処理部、170…音声処理部、180…インターフェース、190…表示制御部、201…右バックライト制御部、202…左バックライト制御部、211…右LCD制御部、212…左LCD制御部、221…右バックライト、222…左バックライト、241…液晶ディスプレイ、242…液晶ディスプレイ、251…右投写光学系、252…左投写光学系、261…右導光板、262…左導光板
Claims (4)
- 撮像部と表示部とを備える表示装置に、
前記撮像部を用いて、物体の撮像画像を取得する機能と、
前記撮像部に対する前記物体の第1姿勢を、初期時刻での前記撮像画像、及び前記初期時刻より後の時刻での前記撮像画像との何れかに基づき検出する機能と、
現在時刻での前記撮像画像に対応する前記物体の第2姿勢を、前記第1姿勢と、前記現在時刻での前記撮像画像と、に基づき、検出する機能と、
前記現在時刻での前記撮像画像に対する前記第2姿勢の精度が予め定められた基準に達していない場合に、前記第2姿勢に基づく仮想姿勢でAR画像を前記表示部に表示する表示機能と、
前記精度が前記予め定められた基準に達していない場合に、前記現在時刻での前記撮像画像に基づき前記物体の第3姿勢を検出する機能と、
を実現させるためのプログラム。 - 前記予め定められた基準は、第2基準であり、
第1基準は、前記第2基準よりも緩やかな基準であり、
前記第2姿勢が前記第1基準に達していない場合に、前記表示機能によるAR画像の表示を停止させる機能
を実現させるための請求項1に記載のプログラム。 - 撮像部と、
表示部と、
前記撮像部を用いて、物体の撮像画像を取得する機能と、
を備える表示装置が、
前記撮像部に対する前記物体の第1姿勢を、初期時刻での前記撮像画像、及び前記初期時刻より後の時刻での前記撮像画像との何れかに基づき検出し、
現在時刻での前記撮像画像に対応する前記物体の第2姿勢を、前記第1姿勢と、前記現在時刻での前記撮像画像と、に基づき検出し、
前記現在時刻での前記撮像画像に対する前記第2姿勢の精度が予め定められた基準に達していない場合、前記第2姿勢に基づく仮想姿勢でAR画像を前記表示部に表示することと、前記現在時刻での前記撮像画像に基づき前記物体の第3姿勢を検出することとを実行する
物体の追跡方法。 - 撮像部と、
表示部と、
前記撮像部を用いて、物体の撮像画像を取得する機能と、
前記撮像部に対する前記物体の第1姿勢を、初期時刻での前記撮像画像、及び前記初期時刻より後の時刻での前記撮像画像との何れかに基づき検出する機能と、
現在時刻での前記撮像画像に対応する前記物体の第2姿勢を、前記第1姿勢と、前記現在時刻での前記撮像画像と、に基づき、検出する機能と、
前記現在時刻での前記撮像画像に対する前記第2姿勢の精度が予め定められた基準に達していない場合に、前記第2姿勢に基づく仮想姿勢でAR画像を前記表示部に表示する表示機能と、
前記精度が前記予め定められた基準に達していない場合に、前記現在時刻での前記撮像画像に基づき前記物体の第3姿勢を検出する機能と、
を備える表示装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016193867A JP2018055589A (ja) | 2016-09-30 | 2016-09-30 | プログラム、物体の追跡方法、表示装置 |
US15/710,148 US10304253B2 (en) | 2016-09-30 | 2017-09-20 | Computer program, object tracking method, and display device |
EP17193997.8A EP3301545B1 (en) | 2016-09-30 | 2017-09-29 | Computer program, object tracking method, and display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016193867A JP2018055589A (ja) | 2016-09-30 | 2016-09-30 | プログラム、物体の追跡方法、表示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018055589A true JP2018055589A (ja) | 2018-04-05 |
Family
ID=60019702
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016193867A Pending JP2018055589A (ja) | 2016-09-30 | 2016-09-30 | プログラム、物体の追跡方法、表示装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10304253B2 (ja) |
EP (1) | EP3301545B1 (ja) |
JP (1) | JP2018055589A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021514092A (ja) * | 2018-08-20 | 2021-06-03 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | 位置姿勢検出方法及び装置、電子機器並びに記憶媒体 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10712573B2 (en) * | 2015-07-06 | 2020-07-14 | Frank Jones | Methods and devices for demountable head mounted displays |
CN107102735B (zh) * | 2017-04-24 | 2018-06-19 | 广东虚拟现实科技有限公司 | 一种对齐方法及对齐装置 |
US10769437B2 (en) * | 2018-04-10 | 2020-09-08 | Seiko Epson Corporation | Adaptive sampling of training views |
CN108734736B (zh) * | 2018-05-22 | 2021-10-26 | 腾讯科技(深圳)有限公司 | 相机姿态追踪方法、装置、设备及存储介质 |
CN110286768B (zh) * | 2019-06-27 | 2022-05-17 | Oppo广东移动通信有限公司 | 虚拟物体显示方法、终端设备及计算机可读存储介质 |
EP4081938A4 (en) * | 2020-01-29 | 2024-03-20 | Intrinsic Innovation LLC | SYSTEMS AND METHODS FOR POSE DETECTION AND MEASUREMENT |
CN111752386A (zh) * | 2020-06-05 | 2020-10-09 | 深圳市欢创科技有限公司 | 一种空间定位方法、系统及头戴式设备 |
CN112199061B (zh) * | 2020-09-30 | 2023-06-27 | 联想(北京)有限公司 | 一种显示方法和设备 |
CN113766119B (zh) * | 2021-05-11 | 2023-12-05 | 腾讯科技(深圳)有限公司 | 虚拟形象显示方法、装置、终端及存储介质 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005038321A (ja) | 2003-07-18 | 2005-02-10 | Canon Inc | ヘッドマウントディスプレイ装置 |
JP2009077362A (ja) * | 2007-08-24 | 2009-04-09 | Sony Corp | 画像処理装置、動画再生装置、これらにおける処理方法およびプログラム |
US20100157079A1 (en) * | 2008-12-19 | 2010-06-24 | Qualcomm Incorporated | System and method to selectively combine images |
EP2413725B1 (en) * | 2009-03-31 | 2018-08-29 | 3M Innovative Properties Company | Wrist brace |
US8416263B2 (en) * | 2010-03-08 | 2013-04-09 | Empire Technology Development, Llc | Alignment of objects in augmented reality |
US9348141B2 (en) | 2010-10-27 | 2016-05-24 | Microsoft Technology Licensing, Llc | Low-latency fusing of virtual and real content |
US9285652B2 (en) * | 2012-06-21 | 2016-03-15 | California Institute Of Technology | Point-wise phase matching for nonlinear frequency generation in dielectric resonators |
JP6304242B2 (ja) * | 2013-04-04 | 2018-04-04 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
US9443355B2 (en) * | 2013-06-28 | 2016-09-13 | Microsoft Technology Licensing, Llc | Reprojection OLED display for augmented reality experiences |
US9514571B2 (en) | 2013-07-25 | 2016-12-06 | Microsoft Technology Licensing, Llc | Late stage reprojection |
US9652893B2 (en) * | 2014-04-29 | 2017-05-16 | Microsoft Technology Licensing, Llc | Stabilization plane determination based on gaze location |
-
2016
- 2016-09-30 JP JP2016193867A patent/JP2018055589A/ja active Pending
-
2017
- 2017-09-20 US US15/710,148 patent/US10304253B2/en active Active
- 2017-09-29 EP EP17193997.8A patent/EP3301545B1/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021514092A (ja) * | 2018-08-20 | 2021-06-03 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | 位置姿勢検出方法及び装置、電子機器並びに記憶媒体 |
US11107239B2 (en) | 2018-08-20 | 2021-08-31 | Beijing Sensetime Technology Development Co., Ltd. | Pose detection method and device, electronic device and storage medium |
Also Published As
Publication number | Publication date |
---|---|
EP3301545A1 (en) | 2018-04-04 |
US10304253B2 (en) | 2019-05-28 |
EP3301545B1 (en) | 2020-10-14 |
US20180096534A1 (en) | 2018-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3301545B1 (en) | Computer program, object tracking method, and display device | |
US10242504B2 (en) | Head-mounted display device and computer program | |
US9401050B2 (en) | Recalibration of a flexible mixed reality device | |
US10373334B2 (en) | Computer program, object tracking method, and object tracking device | |
US11127380B2 (en) | Content stabilization for head-mounted displays | |
US11269402B1 (en) | User interface interaction paradigms for eyewear device with limited field of view | |
US10269139B2 (en) | Computer program, head-mounted display device, and calibration method | |
US20170324899A1 (en) | Image pickup apparatus, head-mounted display apparatus, information processing system and information processing method | |
US10365710B2 (en) | Head-mounted display device configured to display a visual element at a location derived from sensor data and perform calibration | |
JP2018511098A (ja) | 複合現実システム | |
US20180144500A1 (en) | Computer program, pose derivation method, and pose derivation device | |
JP2017224984A (ja) | プログラム、装置、キャリブレーション方法 | |
WO2020003860A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6485819B2 (ja) | 視線検出システム、ずれ検出方法、ずれ検出プログラム | |
US12010288B2 (en) | Information processing device, information processing method, and program | |
CN110895433A (zh) | 用于增强现实中用户交互的方法和装置 | |
CN110769245A (zh) | 一种校准方法及相关设备 | |
US11829530B2 (en) | Electronic device, control method of electronic device, and non-transitory computer readable medium | |
US20230376109A1 (en) | Image processing apparatus, image processing method, and storage device | |
US11954269B2 (en) | Information processing apparatus, information processing method, and program for generating location data |