JP2004205711A - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP2004205711A
JP2004205711A JP2002373108A JP2002373108A JP2004205711A JP 2004205711 A JP2004205711 A JP 2004205711A JP 2002373108 A JP2002373108 A JP 2002373108A JP 2002373108 A JP2002373108 A JP 2002373108A JP 2004205711 A JP2004205711 A JP 2004205711A
Authority
JP
Japan
Prior art keywords
image
marker
imaging
observer
real space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002373108A
Other languages
Japanese (ja)
Inventor
Takashi Aso
隆 麻生
Kenji Morita
憲司 守田
Taichi Matsui
太一 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002373108A priority Critical patent/JP2004205711A/en
Publication of JP2004205711A publication Critical patent/JP2004205711A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a display device with which an observer easily recognizes a marker in the vicinity while observing far real space. <P>SOLUTION: The display device mounted on an observer's head and presenting an image to the observer is provided with 1st cameras 2 and 3 for photographing the video (real space) of external environment, 2nd cameras 4 and 5 for photographing the marker (virtual image) for alignment, and a display part synthesizing the videos imaged by the 1st and the 2nd cameras and displaying the video. Then, focal distances in imaging by the 1st and the 2nd cameras are different from each other. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、外界の映像を取り込んで撮像素子に形成する撮像光学ユニットと液晶などの表示部とを具備した表示装置とそれを使用した技術に関するものである。
【0002】
【従来の技術】
近年、仮想空間と現実空間の繋ぎ目のない結合を目的とした複合現実感(以下「MR」(Mixed Reality)と称す)に関する研究が盛んになってきている。このMRは、従来、現実空間と切り離された状況でのみ体験可能であったバーチャルリアリティ(以下VRと略す)の世界と現実空間との共存を目的とし、VRを増強する技術として注目されている。このMRの応用としては、患者の体内の様子を透視しているように医師に提示する医療補助の用途や、工場において製品の組み立て手順を実物に重ねて表示する作業補助の用途など、今までのVRとは質的に全く異なった新たな分野が期待されている。
【0003】
これらの応用に対して共通に要求されるのは、現実空間と仮想空間の間の"ずれ"をいかにして取り除くかという技術である。この"ずれ"は、位置ずれ、時間ずれ、質的ずれに分類可能であり、この中でも最も基本的な要求といえる位置ずれの解消については、従来から多くの取り組みが行われてきた。
【0004】
撮像カメラで撮影された映像に仮想物体を重畳してヘッドマウントディスプレイ(HMD)に表示するビデオシースルー(Video-See-Through)方式のMRの場合、この位置合せの問題は、HMDに搭載された撮像カメラの現実空間内の3次元位置を正確に求める問題に帰結される。
【0005】
また、半透過型のHMDを用いる光学シースルー(Optical-See-Through)方式のMRの場合における位置合せの問題は、ユーザの視点の現実空間内の3次元位置を求める問題といえる。
従来、このような3次元位置の計測法としては、磁気センサや超音波センサ、ジャイロといった3次元位置方位センサを利用するのが一般的であるが、これらの精度は必ずしも十分とはいえず、その誤差が位置ずれの原因となる。
またビデオシースルー方式の場合には、撮像カメラを用いて現実空間内の映像を取り込んでいるので,このようなセンサを用いずに取り込んだ画像情報を基に画像上での位置合わせを直接行うことも可能である。例えば、空間中に色マーカや幾何学模様のマーカなどを提示し、画像中よりそのマーカ位置を検出し、予め計測しておいたマーカの空間的な位置から現実空間内の3次元位置を算出する手法などがある。
【0006】
【発明が解決しようとする課題】
このようなマーカを使った手法では、位置ずれを直接取り扱えるため、位置合わせが精度良く行える反面、信頼性の面で依然として問題があった。例えば、視線が移動することによりマーカが視野から外れた場合には、視線方向の計測ができなくなるという問題があった。特に、遠方の現実空間に仮想物体を重畳するような場合には、少しの視線移動でも入力される映像が大きく移動するため、遠方の物体に配置されたマーカは視野から外れる可能性が高くなり、その物体の位置情報が得られなくなる確率が高まることになる。このような場合には、現実空間中に配置するマーカの数を増やし、視線が移動する範囲を網羅する空間内にマーカを配置することで対処可能である。
【0007】
しかしこのような方法では、遠方の広範囲な領域にマーカを配置する必要が生じるため、マーカの設置場所、マーカ自体の大きさや形状,模様などの面で実用的ではない。即ち、入力映像からマーカを認識するためには、ある程度の大きさのマーカが必要であり、遠方に設置すればするほど、そのマーカの面積を大きくする必要が生じる。
そこで、マーカを視点位置の近傍に配置すれば、マーカを設置する領域を狭くすることができるが、マーカ越しに遠方の現実空間を観察するために、以下のような問題がある。
(1)視界が遮られて現実空間の臨場感が損なわれる。
(2)入力手段である撮像カメラの焦点が遠方に設定された場合に、近接のマーカに焦点が合わずマーカの認識ができない。
【0008】
本発明は上記従来例に鑑みてなされたもので、遠方の現実空間を観察しながら近傍のマーカを容易に認識できるようにすることを目的とする。
【0009】
【課題を解決するための手段】
上記目的を達成するために本発明の表示装置は以下のような構成を備える。即ち、
観察者の頭部に装着されて当該観察者に画像を提示する表示装置であって、
外界の映像を撮影する第1撮像手段と、
位置合わせのためのマーカを撮影するための第2撮像手段と、
前記第1及び第2撮像手段により撮像された映像とを合成して表示する表示手段とを有し、
前記第1と第2の撮像手段による撮像の焦点距離が互いに異なっていることを特徴とする。
【0010】
【発明の実施の形態】
以下、添付図面を参照して本発明の好適な実施の形態を詳細に説明する。
【0011】
[実施の形態1]
図1は、本発明の実施の形態1に係る頭部搭載型表示装置(HMD)の装着状態を示す概略図である。尚、この図1では、電源や入力信号源、ケーブル類などの図示は省略している。
【0012】
図において、1は後述するHMDの表示光学系を保持している筐体を示している。2,3,4,5はそれぞれ撮像カメラである。尚、本実施の形態に係るHMDに採用できる表示光学系は特に制限はないが、例えば図2、図3及び図4に示すような構成を有する表示光学系を用いることができる。尚、この図1に示す頭部搭載型表示装置(HMD)1の構成は、後述する図22の構成と同じであるため、その説明は後述する。また図22に示すHMD2201とPC2202とが一体に形成されたものであってもよい。
【0013】
図2は、本実施の形態に係るHMDの光学系の一例を説明する図である。
【0014】
液晶表示部(LCD)11に表示された画像をレンズ12(ここでは1枚のレンズで略示している)を用いて拡大表示し、その拡大した画像をユーザ(観察者)へ虚像として表示している。
【0015】
また図3に示すように、反射鏡13をハーフミラーなどにすることで、光学シースルータイプのHMDを構成することも可能である。
【0016】
図3は最も単純な構成を有する、本実施の形態に係るHMDの表示光学系を示し、LCD11に表示された画像をレンズ12(ここでは1枚のレンズで略示している)を用いて拡大し、それを反射ミラー13により反射してユーザに見えるようにしている。
【0017】
図4は、自由曲面プリズムと呼ばれる非回転対称非球面の光学面(自由曲面)をプリズム14の3面に適用し、図2及び図3に示した光学系のレンズ12と同等の作用を持たせた構成を示している。このような構成を有する表示光学系が筐体1に保持され、HMDを装着したユーザに仮想現実空間を提示する。
【0018】
本実施の形態に係るHMDにおいて、撮像カメラ2,3は表示光学系を通して観察者に提示する現実空間の映像を入力するためのカメラで、撮像カメラ4,5はマーカを映像として入力するためのカメラである。
【0019】
具体的には、図5において、撮像カメラ2,3は、L地点の現実空間に存在する観察物体の映像を入力するもので、カメラ2,3の焦点もL地点に合うように調整されている。また撮像カメラ4,5は、M地点のマーカ領域に配置されたマーカを映像として入力するもので、これらカメラ4,5の焦点はM地点に合うように調整されている。このときのそれぞれの撮像カメラで入力された映像の例を図6及び図7に示す。尚、ここでは現実空間の撮像領域に応じて、マーカの設置領域50の画角が設定されている。
【0020】
図6は、L地点の現実空間に焦点を合わせた撮像カメラ2、3で入力した映像を示し、図7は、マーカ領域に焦点を合わされた撮像カメラ4,5で入力した映像の一例をそれぞれ示している。
【0021】
ここで観察者に提示されるのは図6に示す映像であり、焦点が遠方の現実空間に設定されているために、マーカは焦点がぼやけて表示されている。
【0022】
一方、マーカの位置検出には、図7に示すような映像に基づいてマーカ位置が認識される。このマーカ認識手法については、特に限定されるものではなく、既存技術を使うことで実現可能である。
【0023】
即ち、本願の実施の形態1に係る表示装置は、現実空間を撮像する少なくとも2台の第1撮像装置と、前記現実空間とは異なる空間でマーカを撮像する少なくとも2台の第2撮像装置とを有する。ここで、前記第1及び第2撮像装置の焦点距離はそれぞれ異なっている。
【0024】
このように本実施の形態1に係るHMDによれば、マーカを認識して位置計測が容易に行なえるHMDを実現できる。
【0025】
[実施の形態2]
通常、本実施の形態で説明するようなHMDにおいて、外界の映像を入力する場合には、カメラの画角を現実空間と入力映像との大きさが1:1になるように調整するのが一般的である。上述の実施の形態1では、撮像カメラ2,3(現実空間入力用)と撮像カメラ4,5(マーカ映像入力用)のカメラの画角は同一であるのを前提にしていた。しかし、撮像カメラ4,5(マーカ映像入力用)の画角は、撮像カメラ2,3と同一である必要はない。そこで、なるべく多くのマーカが同一の映像内に入るように、撮像カメラ4,5の画角を広くとることでマーカの検出エラーが減少し、精度良く位置情報の検出が可能となる。
【0026】
この実施の形態2の原理を表わす図を図8に、この場合の入力映像の図を図9、図10にそれぞれ示す。
【0027】
図8は本発明の実施の形態2に係る現実空間とマーカ設置領域との関係を説明する図である。
【0028】
ここで前述の実施の形態1に係る図5と図8とを比較すると明らかなように、図8では、マーカの設置領域を撮像するカメラ4,5の画角80が図5の場合の画角50と比較して大きくなっていることが分かる。
【0029】
図9は、現実空間用の撮像カメラ2,3で入力した映像例を示す図、図10は、マーカ用の撮像カメラ4,5で入力した映像例を示す図である。
【0030】
即ち、本願の実施の形態2に係る表示装置は、現実空間を撮像する少なくとも2台の第1撮像装置と、前記現実空間とは異なる空間でマーカを撮像する少なくとも2台の第2撮像装置とを有し、第2撮像装置の画角を第1撮像装置の画角よりも大きくしている。
【0031】
このように、マーカ映像入力用の画角80を広くとることで、マーカによる位置計測の精度を更に向上することが可能となる。
【0032】
[実施の形態3]
前述の実施の形態1,2においては、可視光によるマーカを前提としていた。即ち、通常の撮像カメラで撮影可能な「色」や「記号」などをマーカとして使うことを前提としていた。可視光によるマーカの場合、観察者にも映像の一部として提示されるため臨場感が損なわれるなどの問題が生じる。そこで、本実施の形態3では、図1における撮像カメラ4,5(マーカ映像入力用)を赤外線カメラとし、マーカを赤外線ランプ或いは赤外線LEDなどの赤外光発光素子とする。
【0033】
即ち、本願の実施の形態3に係る表示装置は、現実空間を撮像する少なくとも2台の第1撮像装置と、前記現実空間とは異なる空間でマーカを撮像する少なくとも2台の第2撮像装置とを有し、マーカを赤外線マーカとし、第2撮像装置を赤外線カメラとしている。
【0034】
このように、マーカを赤外線マーカとし、撮像カメラ4,5を赤外線カメラで構成することにより、観察者においてはマーカが不可視となるため、マーカの存在を気にすることなく現実空間の映像を楽しむことが可能となる。また、マーカの認識時には、赤外光のマーカのみを認識すればよいので認識手段の簡素化が図れるなどの効果がある。
【0035】
[実施の形態4]
前述の実施の形態3においては、現実空間の入力用の撮像カメラ2,3とマーカ映像入力用赤外線撮像カメラ4,5は各々独立に配置されているが、これら2種類の撮像カメラを同一のカメラで実現することも可能である。
【0036】
従来の撮像カメラの撮像素子として、CCDを使ったものが一般的である。このCCDカメラにおいては、RGBの各色に対応した3枚のCCD素子を配置している。更には、RB用各1枚、G用2枚に対応した4枚のCCD素子を配置するものも存在する。そこで、本実施の形態4においては、図11に示すように、この撮像カメラを、RGB各色に対応したCCD121,122,123に加え、赤外光に対応したCCD124を設けて構成する。
【0037】
これにより、CCD121,122,123により現実空間を撮影し、CCD124により赤外マーカを検出することができる。
【0038】
図12は、この実施の形態4に係る表示装置の構成を示す概観図である。
【0039】
図12の撮像カメラ131,132は、それぞれ図11に示すような構成を有しており、RGB用と赤外光用の映像を得ることが出来る。
【0040】
即ち、本願の実施の形態3に係る表示装置は、撮像装置内にRGB用の撮像素子と赤外光用の撮像素子を備えることにより、一つの撮像装置で現実空間とマーカとを撮影することができる。
【0041】
このように、一つのカメラで現実空間とマーカ映像とを入力可能にすることにより、図12に示すように機器構成を簡易にすることが可能となり、またカメラ位置による視差の影響を少なくすることが可能となる。
【0042】
[実施の形態5]
実施の形態4においては、撮像カメラ131、132の位置と実際の観察者の眼球位置にはオフセットが有るために、視差ずれが発生する。そこでHMDの光学系を変形することで、この視差ずれを解消することが可能である。
【0043】
図13及び図14は、視差ずれが存在しない光学シースルHMDの光学系の概略図を示す。
【0044】
図14は前述した図3のHMDの光学系を基に、それを変形した構成を示すブロック図で、図3と共通する部分は同じ記号で示している。
【0045】
ここではLCD11の画像を光学系(ここでは1枚のレンズで図示している)12を用いて拡大表示し観察者へ虚像を表示する。このとき、反射鏡13をハーフミラーとすることにより、観察者はハーフミラー13を透過して視認できる外界と、ハーフミラー13に反射したLCD11の仮想空間画像表示を同時に観察できることになり、仮想現実空間観察用のいわゆる光学シースルーHMDを形成する事ができる。
【0046】
一方、ハーフミラー13を挟んでLCD11に対向して、外界撮影用の撮像カメラ27(図13においては光学系16(簡略化のため1枚のレンズで代表して表す)及びCCD等の撮像素子17のみを示す)が設けられている。ここで、撮像カメラ27の入射瞳16Pは、観察者の眼球の瞳Pと光学的に等価な位置になるように構成されている。これにより、外界画像用のカメラ27の瞳位置と観察者の瞳位置が一致するので、カメラ27の映像に対する視差ずれの補正処理が不要となる。
【0047】
また、図13の構成において、撮像カメラ27に外界だけでなく、対向するLCD11からの画像が写り込むことを防止するために、撮像素子17とハーフミラー13の間にLCD11の画像光の偏光軸と直交する偏光軸を有する偏光板(不図示)を設けて、写り込みを防止することができる。LCD11の表示画像写り込みを防止する方法としては、例えば光路分離手段としてハーフミラー13の代りに偏光ビームスプリッタを用いる方法など、偏光板を用いる以外にも種々の方法を用いることが可能であり、任意に採用できる。
【0048】
図14は、前述した図4のHMD光学系をベースとするものであり、自由曲面プリズム14と呼ばれる非回転対称非球面の光学面(自由曲面)をプリズムの3面に適用しレンズ作用を持たせた光学系をベースとする。
【0049】
LCD11からの画像光は、レンズ作用を有する自由曲面プリズム14へ入射し、ハーフミラーが形成された光路分離手段である面14aで反射して観察者へ虚像を表示する。この自由曲面プリズム14にはその光学パワーをキャンセルするような補正用自由曲面プリズム18が接合されており、外界の画像はこの接合されたプリズム14,18を介して観察できる。
【0050】
一方、面14aで反射された外界画像が観察されるプリズム18の下方には、外界映像撮影用の撮像カメラ28(図13と同様にレンズ19で示される光学系と、撮像素子20で代表して示す)が設けられている。この構成においては、補正用自由曲面プリズム18も外界画像撮影用の光学系(撮像光学系)の一部を形成している。
【0051】
また、図13に示した構成と同様に、撮像光学系28の入射瞳19Pは観察者の眼球の瞳Pと光学的に等価な位置になるように構成されている。これにより、撮像光学系28で得られた画像は視差ずれの補正処理を行う必要がなくなる。
【0052】
本実施の形態5に係る構成においても、LCD11からの画像光がCCD等の撮像素子20へ入射することを防止することができ、撮像素子20とプリズム18との間にLCD11の画像光の偏光軸と直交する偏光軸を有する偏光板(不図示)を設けることができる。
【0053】
即ち、本願の実施の形態5に係る表示装置は、観察者の視点近傍もしくは光学的に視点位置と撮影位置が実質的に等価な位置に、現実空間入力用(外界画像用のカメラ27)とマーカ映像入力(仮想空間)用(LCD11、レンズ12等)の2種類の入力素子を配置することができる。
【0054】
以上説明したように本実施の形態によれば、観察者頭部に装着するHMDにおいて、観察者の視点近傍もしくは光学的に視点位置と撮影位置が実質的に等価な位置に、現実空間入力用とマーカ映像入力用の2種類の入力素子を配置することにより、位置合わせすることを容易にすることが可能なHMDを実現できる。
【0055】
[実施の形態6]
本実施の形態6では、撮像カメラを備えた半透過型(シースルー型)のヘッドマウントディスプレイ(HMD)を搭載した観察者がマーカ付き囲いに囲まれた観察場所で囲いの外に表示される仮想世界を観察する場合で説明する。
【0056】
図21は、本発明の実施の形態6に係る表示システムの流れを説明する図である。
【0057】
HMD2101には、入力された画像を表示する画像表示装置2103と撮像カメラ2104とが備えられている。HMD2101は、PC2102と接続されている。この構成で、撮像カメラ2104で撮影された画像(現実空間画像)は、PC2102のキャプチャ装置2105で取り込まれる。このキャプチャ装置2105で取り込まれた画像は、マーカ認識部2106と画像合成部2107に送られる。マーカ認識部2106はマーカの位置を検出し、その検出したマーカの位置からHMD2101の位置姿勢を計算する。CG作成部2108では、仮想空間上のオブジェクトが作成され、このオブジェクト画像(仮想空間画像)が画像合成部2107に送られる。画像合成部2107では、キャプチャ装置2105でキャプチャされた現実空間の画像と、CG作成部8で作成された仮想画像とが合成され、実空間と仮想空間とが融合されたMR空間が作成される。こうして画像合成部2107で合成されて作成された画像は、HMD2101の画像表示装置2103に送られて表示される。
【0058】
図15は、本実施の形態6に係るマーカ付囲いの一例を示す図である。
【0059】
この囲いは、透明の円筒を縦に半分に切ったものにマーカ1500を配置したものである。このHMD2101に装着された撮像カメラ2104が撮影した画像はコンピュータ2102でキャプチャされる。尚、囲いに付けるマーカは、観察者の観察方向にあればよく、図15は前方のみを観察する場合を示している。
【0060】
図16は、図15の囲いを、観察者1600の前に配置したものを正面から見た図である。
【0061】
観察者1600は、数十センチメートルから数メートル先にある囲いの先方で、数メートルから数百メートル先に仮想のオブジェクトを見ることになる。マーカ1500は小さく、またオブジェクトと囲いとの距離があるため、オブジェクトの手前にマーカ1500が位置していても、観察者はそれほど気にすることなく観察を行える。
【0062】
この囲いにはもう一つの働きがある。それは観察者の観察位置を限定することである。観察位置が限定されたMRシステムでは、この働きも有効である。
【0063】
図17は、図16を横から見た図である。
【0064】
観察者1600からは、この図のように、囲いの向こうにオブジェクト1700が見える。
【0065】
全周囲を見渡す時は図18に示すような円筒の全周囲にマーカ1801を配置する。又、観察領域が観察者の上部にも及ぶ時には、図19に示すようなドーム形状の囲いを使用する。
【0066】
更に、図20は、他の囲いの一例を示す図で、ここでは細いワイヤー上にマーカが配置されている。
【0067】
即ち、本願の実施の形態6に係る表示システムでは、透明の部材上に複数のマーカを配置し、その透明部材を通して観察者が現実空間を見るようにすることにより、位置合わせのためのマーカの配置を容易にできるという効果がある。
【0068】
[実施の形態7]
図22は、本発明の実施の形態7に係るシステムにマーカ用カメラ2211と、そのカメラ2211からの映像をキャプチャするキャプチャ装置2212とを追加したシステムである。
【0069】
マーカ用カメラ2211は、HMD2201に組込まれてマーカの読み取り専用として動作する。キャプチャ装置2212はPC2202に組込まれ、マーカ用カメラ2211が撮影した映像をキャプチャする。このキャプチャ装置2212からマーカ認識部2206にマーカの画像が送られるので、キャプチャ装置2212からマーカ認識部2206に画像が送られることはない。
【0070】
このように観察空間を撮影する撮像カメラ2204とマーカを撮影するマーカ用カメラ221とをそれぞれ別に設けることにより、観察空間を撮影する撮像カメラ2204の焦点を遠距離に合わせ、マーカを撮影するマーカ用カメラ2211は焦点を近距離に合わせることになる。それによって、観察空間を撮影する映像にはマーカがはっきりと映らないので、観察者が手前のマーカをあまり気にしないで良い。
【0071】
即ち、本願の実施の形態7に係る表示システムによれば、位置合わせのために用いるマーカを観察者の周囲に立てる囲いに配置し、現実空間を撮影する撮像カメラと、仮想空間を撮影するマーカ用カメラとによりそれぞれ別々に撮影することにより、マーカによる位置合わせと、現実空間の撮影とを容易にできる。
【0072】
以上説明したように本実施の形態7によれば、位置合わせのために用いられるマーカを観察者の周囲に立てる囲いに配置し、マーカの設置が困難なイベント会場や屋外においても設置することが容易になる。
【0073】
[その他の実施の形態]
なお本発明は、複数の機器(例えばホストコンピュータ、インタフェイス機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用しても良い。
【0074】
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUまたはMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても達成されることは言うまでもない。
【0075】
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
【0076】
プログラムコードを供給するための記憶媒体としては、例えば、フロッピィディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることが出来る。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。
【0077】
更に、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれる。
【0078】
以上説明した実施の形態は、以下の実施態様により実現できる。
【0079】
[実施態様1] 観察者の頭部に装着されて当該観察者に画像を提示する表示装置であって、
外界の映像を撮影する第1撮像手段と、
位置合わせのためのマーカを撮影するための第2撮像手段と、
前記第1及び第2撮像手段により撮像された映像とを合成して表示する表示手段とを有し、
前記第1と第2の撮像手段による撮像の焦点距離が互いに異なっていることを特徴とする表示装置。
【0080】
[実施態様2] 前記第2撮像手段による撮像画角は、前記第1撮像手段の画角よりも大きいことを特徴とする実施態様1に記載の表示装置。
【0081】
[実施態様3] 前記第2撮像手段は、赤外光を撮影することを特徴とする実施態様1又は2に記載の表示装置。
【0082】
[実施態様4] 前記第1撮像手段は、可視光による撮影を行い、前記第2撮像手段は、不可視波長による撮像が可能であることを特徴とする実施態様1乃至3のいずれかに記載の表示装置。
【0083】
[実施態様5] 前記第1及び第2撮像手段はそれぞれ少なくとも2つのカメラを有し、各カメラは前記観察者の右目及び左目の視点位置と光学的に実質的に等価な位置になるようにそれぞれ配置されることを特徴とする実施態様4に記載の表示装置。
【0084】
[実施態様6] 前記マーカは前記観察者の周辺に配置された透明部材上に複数配置されており、前記観察者は前記透明部材を通して仮想画像を見ることを特徴とする実施態様1乃至5のいずれかに記載の表示装置。
【0085】
[実施態様7] 観察者の頭部に装着されて当該観察者に画像を提示する表示装置における撮像方法であって、
外界の映像を撮影する第1カメラと、位置合わせのためのマーカを撮影するための第2カメラにより撮像された映像とを合成して表示する表示工程を有し、前記第1と第2カメラによる撮像の焦点距離が互いに異なっている。
【0086】
[実施態様8] 前記第2カメラによる撮像画角は、前記第1カメラの画角よりも大きいことを特徴とする実施態様7に記載の表示方法。
【0087】
[実施態様9] 前記第2カメラは赤外光を撮影することを特徴とする実施態様7又は8に記載の表示方法。
【0088】
[実施態様10] 前記第1カメラは可視光による撮影を行い、前記第2カメラは不可視波長による撮像が可能であることを特徴とする実施態様7乃至9のいずれかに記載の表示方法。
【0089】
[実施態様11] 前記第1及び第2カメラはそれぞれ少なくとも2つのカメラを有し、各カメラは前記観察者の右目及び左目の視点位置と光学的に実質的に等価な位置になるようにそれぞれ配置されることを特徴とする実施態様10に記載の表示方法。
【0090】
[実施態様12] 前記マーカは前記観察者の周辺に配置された透明部材上に複数配置されており、前記観察者は前記透明部材を通して仮想画像を見ることを特徴とする実施態様7乃至11のいずれかに記載の表示方法。
【0091】
【発明の効果】
以上説明したように本発明によれば、遠方の現実空間を観察しながら近傍のマーカを容易に認識できるという効果がある。
【図面の簡単な説明】
【図1】本発明の実施の形態1に係るHMDの外観斜視図である。
【図2】本実施の形態1に係るHMDに採用可能な光学系の概略構成を示す側面図である。
【図3】本実施の形態1に係るHMDに採用可能な別の光学系の概略構成を示す側面図である。
【図4】本実施の形態1に係るHMDに採用可能な更に別の光学系の概略構成を示す側面図である。
【図5】本実施の形態1に係る現実空間の映像とマーカ映像との関係を説明する図である。
【図6】本実施の形態1に係る現実空間の映像例を説明する図である。
【図7】本実施の形態1に係るマーカの映像例を説明する図である。
【図8】本発明の実施の形態2に係る現実空間の映像とマーカの映像との関係を説明する図である。
【図9】実施の形態2に係る現実空間の映像例を説明する図である。
【図10】実施の形態2に係るマーカの映像例を説明する図である。
【図11】本発明の実施の形態4に係る撮像素子の構成例を説明する図である。
【図12】実施の形態4に係るHMDの略外観図である。
【図13】本発明の実施の形態5に係るHMDに採用可能な光学系の概略構成を示す側面図である。
【図14】実施の形態5に係るHMDに採用可能な別の光学系の概略構成を示す側面図である。
【図15】本発明の実施の形態6に係る半円筒形のマーカを備えた透明な囲い例を示す図である。
【図16】図15の囲いの中に観察者が立った状態を示す図である。
【図17】図16と横から見た図に仮想のオブジェクトを加えて示す図である。
【図18】実施の形態6に係る円筒形のマーカを備えた透明な囲いの一例を示す図である。
【図19】実施の形態6に係るドーム形状のマーカを備えた細いワイヤーで形成された囲いの一例を示す図である。
【図20】実施の形態6に係る半円筒形のマーカを備えた細いワイヤーで形成された囲いの一例を示す図である。
【図21】実施の形態6に係るMRシステムの構成を示すブロック図である。
【図22】本発明の実施の形態7に係るMRシステムの構成を示すブロック図である。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a display device having an image pickup optical unit for capturing an external image and forming the image pickup device on an image pickup device, and a display unit such as a liquid crystal display, and a technique using the display device.
[0002]
[Prior art]
2. Description of the Related Art In recent years, research on mixed reality (hereinafter referred to as “MR” (Mixed Reality)) for the purpose of seamless connection between a virtual space and a real space has been actively conducted. Conventionally, this MR aims at coexistence of a virtual reality (hereinafter abbreviated as VR) world and a real space, which can be experienced only in a state separated from the real space, and is attracting attention as a technology for enhancing the VR. . Applications of this MR include medical assistance, which presents a doctor with a perspective of the inside of a patient's body, and work assistance, which superimposes the product assembly procedure on a real product at a factory. Is expected to be a new field qualitatively completely different from VR.
[0003]
A common requirement for these applications is how to remove the "shift" between real and virtual space. This "shift" can be classified into a position shift, a time shift, and a qualitative shift, and among them, many efforts have been made to eliminate the position shift, which is the most basic requirement.
[0004]
In the case of a video-see-through type MR in which a virtual object is superimposed on a video image captured by an imaging camera and displayed on a head-mounted display (HMD), the problem of this alignment is that the HMD is mounted on the HMD. This results in the problem of accurately determining the three-dimensional position of the imaging camera in the real space.
[0005]
In addition, the problem of alignment in the case of an optical-see-through MR using a transflective HMD can be said to be a problem of obtaining a three-dimensional position of a user's viewpoint in the real space.
Conventionally, as a method of measuring such a three-dimensional position, it is common to use a three-dimensional position and orientation sensor such as a magnetic sensor, an ultrasonic sensor, and a gyro, but the accuracy of these is not necessarily sufficient. The error causes a displacement.
In the case of the video see-through method, since the image in the real space is captured using the imaging camera, it is necessary to directly perform registration on the image based on the captured image information without using such a sensor. Is also possible. For example, a color marker or a geometric pattern marker is presented in a space, the marker position is detected from an image, and a three-dimensional position in a real space is calculated from a previously measured marker spatial position. There is a method to do.
[0006]
[Problems to be solved by the invention]
In the method using such a marker, since the displacement can be directly handled, the positioning can be performed with high accuracy, but there is still a problem in reliability. For example, when the marker moves out of the field of view due to the movement of the line of sight, there is a problem that the measurement of the line of sight cannot be performed. In particular, when a virtual object is superimposed on a distant real space, the input image moves greatly even with a slight movement of the line of sight, and the marker placed on the distant object is likely to be out of the field of view. Therefore, the probability that the position information of the object will not be obtained increases. Such a case can be dealt with by increasing the number of markers arranged in the real space and arranging the markers in a space covering the range in which the line of sight moves.
[0007]
However, in such a method, it is necessary to arrange the marker in a wide area far away, so that it is not practical in terms of the installation location of the marker, the size, shape, and pattern of the marker itself. That is, in order to recognize a marker from an input video, a marker having a certain size is required, and the more distant the marker is, the larger the area of the marker needs to be.
Therefore, if the marker is arranged near the viewpoint position, the area where the marker is installed can be narrowed. However, the following problem arises in observing the real space far away through the marker.
(1) The view is obstructed and the sense of reality in the real space is impaired.
(2) When the focus of the imaging camera, which is the input means, is set to a distant place, the focus cannot be focused on a nearby marker and the marker cannot be recognized.
[0008]
The present invention has been made in view of the above conventional example, and has as its object to enable easy recognition of a nearby marker while observing a distant real space.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, a display device of the present invention has the following configuration. That is,
A display device attached to the observer's head and presenting an image to the observer,
First image capturing means for capturing an image of the outside world;
Second imaging means for photographing a marker for alignment,
Display means for combining and displaying the images picked up by the first and second image pickup means,
It is characterized in that the focal lengths of the first and second imaging means are different from each other.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[0011]
[Embodiment 1]
FIG. 1 is a schematic diagram showing a mounted state of a head mounted display (HMD) according to Embodiment 1 of the present invention. In FIG. 1, illustration of a power supply, an input signal source, cables, and the like is omitted.
[0012]
In the figure, reference numeral 1 denotes a housing holding a display optical system of an HMD described later. Reference numerals 2, 3, 4, and 5 are imaging cameras. The display optical system that can be employed in the HMD according to the present embodiment is not particularly limited. For example, a display optical system having a configuration as shown in FIGS. 2, 3, and 4 can be used. The configuration of the head mounted display (HMD) 1 shown in FIG. 1 is the same as the configuration shown in FIG. 22 described later, and the description thereof will be described later. Further, the HMD 2201 and the PC 2202 shown in FIG. 22 may be integrally formed.
[0013]
FIG. 2 is a diagram illustrating an example of the optical system of the HMD according to the present embodiment.
[0014]
An image displayed on a liquid crystal display (LCD) 11 is enlarged and displayed using a lens 12 (shown as a single lens here), and the enlarged image is displayed to a user (observer) as a virtual image. ing.
[0015]
Also, as shown in FIG. 3, an optical see-through type HMD can be configured by using a half mirror or the like for the reflecting mirror 13.
[0016]
FIG. 3 shows a display optical system of the HMD according to the present embodiment having the simplest configuration, and an image displayed on the LCD 11 is enlarged by using a lens 12 (here, schematically shown by one lens). Then, the light is reflected by the reflection mirror 13 so as to be seen by the user.
[0017]
FIG. 4 shows that a non-rotationally symmetric aspherical optical surface (free-form surface) called a free-form surface prism is applied to three surfaces of the prism 14, and has the same operation as the lens 12 of the optical system shown in FIGS. FIG. The display optical system having such a configuration is held in the housing 1, and presents a virtual reality space to a user wearing the HMD.
[0018]
In the HMD according to the present embodiment, imaging cameras 2 and 3 are cameras for inputting an image of a real space presented to an observer through a display optical system, and imaging cameras 4 and 5 are for inputting a marker as an image. Camera.
[0019]
Specifically, in FIG. 5, the imaging cameras 2 and 3 are for inputting an image of an observation object existing in the real space at the point L, and the cameras 2 and 3 are also adjusted so that the focal points are adjusted to the point L. I have. The imaging cameras 4 and 5 are for inputting a marker arranged in the marker area at the M point as an image, and the focus of the cameras 4 and 5 is adjusted so as to be at the M point. FIGS. 6 and 7 show examples of images input by the respective imaging cameras at this time. Here, the angle of view of the marker installation area 50 is set according to the imaging area in the real space.
[0020]
FIG. 6 shows images input by the imaging cameras 2 and 3 focused on the real space at the point L, and FIG. 7 shows examples of images input by the imaging cameras 4 and 5 focused on the marker area, respectively. Is shown.
[0021]
Here, what is presented to the observer is the image shown in FIG. 6, and the marker is displayed with a blurred focus because the focus is set in a distant real space.
[0022]
On the other hand, in the marker position detection, the marker position is recognized based on an image as shown in FIG. This marker recognition method is not particularly limited, and can be realized by using an existing technology.
[0023]
That is, the display device according to Embodiment 1 of the present application includes at least two first imaging devices that image a real space, and at least two second imaging devices that image markers in a space different from the real space. Having. Here, the first and second imaging devices have different focal lengths.
[0024]
As described above, according to the HMD according to the first embodiment, it is possible to realize an HMD that can easily perform position measurement by recognizing a marker.
[0025]
[Embodiment 2]
Normally, in an HMD as described in the present embodiment, when an external image is input, the angle of view of the camera is adjusted so that the size of the real space and the input image is 1: 1. General. In the first embodiment described above, it is assumed that the angle of view of the imaging cameras 2 and 3 (for inputting a real space) and the imaging cameras 4 and 5 (for inputting a marker image) are the same. However, the angle of view of the imaging cameras 4 and 5 (for marker video input) does not need to be the same as that of the imaging cameras 2 and 3. Therefore, by increasing the angle of view of the imaging cameras 4 and 5 so that as many markers as possible are included in the same image, marker detection errors are reduced, and position information can be detected with high accuracy.
[0026]
FIG. 8 shows the principle of the second embodiment, and FIGS. 9 and 10 show the input video in this case.
[0027]
FIG. 8 is a diagram for explaining a relationship between a physical space and a marker installation area according to Embodiment 2 of the present invention.
[0028]
Here, as apparent from a comparison between FIG. 5 and FIG. 8 according to the first embodiment, in FIG. 8, the angle of view 80 of the cameras 4 and 5 for imaging the marker installation area is the same as that in FIG. It can be seen that it is larger than the angle 50.
[0029]
FIG. 9 is a diagram illustrating an example of an image input by the imaging cameras 2 and 3 for real space, and FIG. 10 is a diagram illustrating an example of an image input by the imaging cameras 4 and 5 for the marker.
[0030]
That is, the display device according to Embodiment 2 of the present application includes at least two first imaging devices that image a real space, and at least two second imaging devices that image markers in a space different from the real space. And the angle of view of the second imaging device is larger than the angle of view of the first imaging device.
[0031]
As described above, by increasing the angle of view 80 for inputting a marker image, it is possible to further improve the accuracy of position measurement using the marker.
[0032]
[Embodiment 3]
In the first and second embodiments described above, the marker based on visible light is assumed. That is, it has been assumed that "colors" or "symbols" that can be photographed by a normal imaging camera are used as markers. In the case of a marker using visible light, there is a problem in that the presence of the marker is impaired because the marker is presented to the observer as a part of the image. Therefore, in the third embodiment, the imaging cameras 4 and 5 (for marker image input) in FIG. 1 are infrared cameras, and the markers are infrared light emitting elements such as infrared lamps or infrared LEDs.
[0033]
That is, the display device according to Embodiment 3 of the present application includes at least two first imaging devices that image a real space, and at least two second imaging devices that image markers in a space different from the real space. , The marker is an infrared marker, and the second imaging device is an infrared camera.
[0034]
As described above, since the markers are infrared markers and the imaging cameras 4 and 5 are infrared cameras, the markers are invisible to the observer, so that the viewer can enjoy the real space video without worrying about the presence of the markers. It becomes possible. Further, when recognizing a marker, only the marker of infrared light needs to be recognized, so that there is an effect that the recognition means can be simplified.
[0035]
[Embodiment 4]
In the above-described third embodiment, the imaging cameras 2 and 3 for inputting a real space and the infrared imaging cameras 4 and 5 for inputting a marker image are arranged independently of each other. It can also be realized by a camera.
[0036]
2. Description of the Related Art As an image pickup device of a conventional image pickup camera, a device using a CCD is generally used. In this CCD camera, three CCD elements corresponding to each color of RGB are arranged. Further, there is a device in which four CCD elements corresponding to one RB image and two G images are arranged. Therefore, in the fourth embodiment, as shown in FIG. 11, this imaging camera is configured by providing a CCD 124 corresponding to infrared light in addition to CCDs 121, 122, and 123 corresponding to RGB colors.
[0037]
Thus, the real space can be photographed by the CCDs 121, 122, and 123, and the infrared marker can be detected by the CCD.
[0038]
FIG. 12 is a schematic diagram showing the configuration of the display device according to the fourth embodiment.
[0039]
Each of the imaging cameras 131 and 132 in FIG. 12 has a configuration as shown in FIG. 11, and can obtain images for RGB and infrared light.
[0040]
That is, the display device according to the third embodiment of the present application includes the image pickup device for RGB and the image pickup device for infrared light in the image pickup device, so that the real space and the marker can be photographed by one image pickup device. Can be.
[0041]
In this way, by enabling the input of the real space and the marker image with one camera, the device configuration can be simplified as shown in FIG. 12, and the influence of parallax due to the camera position can be reduced. Becomes possible.
[0042]
[Embodiment 5]
In the fourth embodiment, since there is an offset between the positions of the imaging cameras 131 and 132 and the actual eyeball position of the observer, a parallax shift occurs. Therefore, it is possible to eliminate this parallax shift by modifying the optical system of the HMD.
[0043]
13 and 14 are schematic diagrams of an optical system of an optical sheath HMD having no parallax displacement.
[0044]
FIG. 14 is a block diagram showing a modified configuration of the optical system of the HMD in FIG. 3 described above, and portions common to FIG. 3 are indicated by the same symbols.
[0045]
Here, an image on the LCD 11 is enlarged and displayed using an optical system (shown here with one lens) 12 to display a virtual image to an observer. At this time, by using the reflecting mirror 13 as a half mirror, the observer can simultaneously observe the outside world that can be seen through the half mirror 13 and the virtual space image display of the LCD 11 reflected on the half mirror 13, thereby realizing the virtual reality. A so-called optical see-through HMD for space observation can be formed.
[0046]
On the other hand, facing the LCD 11 with the half mirror 13 interposed therebetween, an imaging camera 27 for photographing the outside world (in FIG. 13, an optical system 16 (represented by one lens for simplification) and an imaging device such as a CCD) 17 is shown). Here, the entrance pupil 16P of the imaging camera 27 is configured to be at a position optically equivalent to the pupil P of the eyeball of the observer. Thereby, the pupil position of the camera 27 for the external world image matches the pupil position of the observer, so that the parallax displacement correction processing for the image of the camera 27 becomes unnecessary.
[0047]
In addition, in the configuration of FIG. 13, in order to prevent not only the outside world but also the image from the LCD 11 facing the image camera 27 from being reflected, the polarization axis of the image light of the LCD 11 is located between the image sensor 17 and the half mirror 13. By providing a polarizing plate (not shown) having a polarizing axis orthogonal to the above, reflection can be prevented. As a method for preventing the display image from being reflected on the LCD 11, various methods other than using a polarizing plate, such as a method using a polarizing beam splitter instead of the half mirror 13 as an optical path separating unit, can be used. Can be adopted arbitrarily.
[0048]
FIG. 14 is based on the HMD optical system of FIG. 4 described above, and has a lens function by applying a non-rotationally symmetric aspherical optical surface (free-form surface) called a free-form surface prism 14 to three surfaces of the prism. Based optical system.
[0049]
Image light from the LCD 11 is incident on a free-form surface prism 14 having a lens function, and is reflected by a surface 14a, which is an optical path separating means provided with a half mirror, to display a virtual image to an observer. The free-form surface prism 14 is joined with a correction free-form surface prism 18 for canceling the optical power, and an image of the outside world can be observed through the joined prisms 14 and 18.
[0050]
On the other hand, below the prism 18 where the external image reflected by the surface 14a is observed, an imaging camera 28 for capturing an external image (an optical system shown by a lens 19 as in FIG. Are shown). In this configuration, the correction free-form surface prism 18 also forms a part of an optical system (imaging optical system) for photographing an external image.
[0051]
Further, similarly to the configuration shown in FIG. 13, the entrance pupil 19P of the imaging optical system 28 is configured to be at a position optically equivalent to the pupil P of the eyeball of the observer. This eliminates the need to perform parallax displacement correction processing on the image obtained by the imaging optical system 28.
[0052]
Also in the configuration according to the fifth embodiment, it is possible to prevent the image light from the LCD 11 from being incident on the image pickup device 20 such as a CCD, and the polarization of the image light of the LCD 11 between the image pickup device 20 and the prism 18. A polarizing plate (not shown) having a polarization axis orthogonal to the axis can be provided.
[0053]
That is, the display device according to the fifth embodiment of the present invention is provided with a real space input (external image camera 27) near the viewpoint of the observer or at a position where the viewpoint position and the photographing position are substantially equivalent optically. Two types of input elements for marker image input (virtual space) (LCD 11, lens 12, etc.) can be arranged.
[0054]
As described above, according to the present embodiment, in the HMD mounted on the observer's head, a real space input position is set near the observer's viewpoint or at a position where the viewpoint position and the photographing position are substantially equivalent optically. By arranging two types of input elements for inputting a marker image and a marker image, it is possible to realize an HMD capable of easily performing alignment.
[0055]
Embodiment 6
In the sixth embodiment, an observer equipped with a translucent (see-through) head-mounted display (HMD) equipped with an imaging camera is displayed outside the enclosure at an observation place surrounded by a marker-equipped enclosure. The case of observing the world will be explained.
[0056]
FIG. 21 is a diagram illustrating a flow of the display system according to Embodiment 6 of the present invention.
[0057]
The HMD 2101 includes an image display device 2103 that displays an input image and an imaging camera 2104. The HMD 2101 is connected to the PC 2102. With this configuration, an image (real space image) captured by the imaging camera 2104 is captured by the capture device 2105 of the PC 2102. The image captured by the capture device 2105 is sent to a marker recognition unit 2106 and an image synthesis unit 2107. The marker recognizing unit 2106 detects the position of the marker, and calculates the position and orientation of the HMD 2101 from the detected position of the marker. The CG creation unit 2108 creates an object in the virtual space, and sends the object image (virtual space image) to the image synthesis unit 2107. The image combining unit 2107 combines the image of the real space captured by the capture device 2105 with the virtual image created by the CG creating unit 8, and creates an MR space in which the real space and the virtual space are merged. . The image combined and created by the image combining unit 2107 in this manner is sent to the image display device 2103 of the HMD 2101 and displayed.
[0058]
FIG. 15 is a diagram showing an example of a marker-enclosed box according to the sixth embodiment.
[0059]
In this enclosure, a marker 1500 is arranged on a transparent cylinder cut in half vertically. An image captured by the imaging camera 2104 mounted on the HMD 2101 is captured by the computer 2102. The marker attached to the enclosure only needs to be in the observation direction of the observer, and FIG. 15 shows a case where only the front is observed.
[0060]
FIG. 16 is a front view of the enclosure of FIG. 15 arranged in front of the observer 1600.
[0061]
The observer 1600 will see a virtual object several meters to several hundred meters away from an enclosure several tens of centimeters to several meters away. Since the marker 1500 is small and has a distance between the object and the enclosure, even if the marker 1500 is located in front of the object, the observer can observe without much concern.
[0062]
This enclosure has another function. It is to limit the observer's observation position. This function is also effective in an MR system in which the observation position is limited.
[0063]
FIG. 17 is a side view of FIG.
[0064]
The observer 1600 can see the object 1700 beyond the enclosure as shown in this figure.
[0065]
When looking around the entire circumference, the marker 1801 is arranged around the entire circumference of the cylinder as shown in FIG. When the observation area extends to the upper part of the observer, a dome-shaped enclosure as shown in FIG. 19 is used.
[0066]
FIG. 20 is a view showing an example of another enclosure, in which a marker is arranged on a thin wire.
[0067]
That is, in the display system according to Embodiment 6 of the present application, a plurality of markers are arranged on a transparent member, and the observer looks at the real space through the transparent member so that the marker for alignment can be obtained. There is an effect that the arrangement can be facilitated.
[0068]
Embodiment 7
FIG. 22 shows a system in which a marker camera 2211 and a capture device 2212 for capturing an image from the camera 2211 are added to the system according to Embodiment 7 of the present invention.
[0069]
The marker camera 2211 is incorporated in the HMD 2201 and operates as a marker read-only. The capture device 2212 is incorporated in the PC 2202 and captures an image captured by the marker camera 2211. Since the image of the marker is sent from the capture device 2212 to the marker recognition unit 2206, the image is not sent from the capture device 2212 to the marker recognition unit 2206.
[0070]
By separately providing the imaging camera 2204 for photographing the observation space and the marker camera 221 for photographing the marker in this manner, the imaging camera 2204 for photographing the observation space is focused at a long distance, and the marker camera for photographing the marker is used. The camera 2211 will focus on a short distance. As a result, the marker is not clearly seen in the video of the observation space, and the observer does not have to care much about the marker in front.
[0071]
That is, according to the display system of Embodiment 7 of the present invention, a marker used for positioning is arranged in an enclosure set up around the observer, and an imaging camera that captures real space and a marker that captures virtual space are provided. By separately photographing with the camera, positioning with the marker and photographing of the real space can be easily performed.
[0072]
As described above, according to the seventh embodiment, the marker used for the alignment can be arranged in the enclosure set up around the observer, and can be installed even in an event venue or an outdoor where it is difficult to install the marker. It will be easier.
[0073]
[Other embodiments]
The present invention can be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), but also to a device including one device (for example, a copying machine, a facsimile machine, etc.). May be applied.
[0074]
Further, an object of the present invention is to provide a storage medium storing a program code of software for realizing the functions of the above-described embodiments to a system or an apparatus, and a computer (or CPU or MPU) of the system or apparatus to store the storage medium. Needless to say, this can also be achieved by reading out and executing the program code stored in the.
[0075]
In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.
[0076]
As a storage medium for supplying the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, etc. can be used. When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also an OS (Operating System) running on the computer based on the instruction of the program code. This includes a case where a part of the actual processing is performed and the function of the above-described embodiment is realized by the processing.
[0077]
Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. This includes the case where the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
[0078]
The embodiment described above can be realized by the following embodiments.
[0079]
[Embodiment 1] A display device that is mounted on a head of an observer and presents an image to the observer,
First image capturing means for capturing an image of the outside world;
Second imaging means for photographing a marker for alignment,
Display means for combining and displaying the images picked up by the first and second image pickup means,
A display device wherein the focal lengths of the first and second imaging means are different from each other.
[0080]
Second Embodiment The display device according to the first embodiment, wherein an angle of view of the second imaging unit is larger than an angle of view of the first imaging unit.
[0081]
[Embodiment 3] The display device according to Embodiment 1 or 2, wherein the second imaging means captures infrared light.
[0082]
[Embodiment 4] The apparatus according to any one of Embodiments 1 to 3, wherein the first imaging unit performs imaging with visible light, and the second imaging unit is capable of imaging with an invisible wavelength. Display device.
[0083]
[Embodiment 5] Each of the first and second imaging means has at least two cameras, and each camera is located at a position optically substantially equivalent to the viewpoint positions of the right and left eyes of the observer. The display device according to embodiment 4, wherein the display device is arranged.
[0084]
[Embodiment 6] A plurality of the markers are arranged on a transparent member arranged around the observer, and the observer views a virtual image through the transparent member. The display device according to any one of the above.
[0085]
[Embodiment 7] An imaging method in a display device mounted on a head of an observer and presenting an image to the observer,
A display step of combining and displaying a first camera that captures an image of the outside world and a video captured by a second camera that captures a marker for alignment, the first and second cameras Have different focal lengths.
[0086]
[Eighth Embodiment] The display method according to the seventh embodiment, wherein the angle of view taken by the second camera is larger than the angle of view of the first camera.
[0087]
Embodiment 9 The display method according to embodiment 7 or 8, wherein the second camera captures infrared light.
[0088]
[Embodiment 10] The display method according to any one of Embodiments 7 to 9, wherein the first camera captures an image using visible light, and the second camera captures an image using an invisible wavelength.
[0089]
[Embodiment 11] Each of the first and second cameras has at least two cameras, and each camera is located at a position optically substantially equivalent to the viewpoint position of the right eye and the left eye of the observer. The display method according to embodiment 10, wherein the display method is arranged.
[0090]
[Embodiment 12] The marker according to any one of Embodiments 7 to 11, wherein a plurality of the markers are arranged on a transparent member arranged around the observer, and the observer views a virtual image through the transparent member. Display method described in any of them.
[0091]
【The invention's effect】
As described above, according to the present invention, there is an effect that a nearby marker can be easily recognized while observing a distant real space.
[Brief description of the drawings]
FIG. 1 is an external perspective view of an HMD according to Embodiment 1 of the present invention.
FIG. 2 is a side view showing a schematic configuration of an optical system that can be employed in the HMD according to the first embodiment.
FIG. 3 is a side view showing a schematic configuration of another optical system that can be employed in the HMD according to the first embodiment.
FIG. 4 is a side view showing a schematic configuration of still another optical system that can be employed in the HMD according to the first embodiment.
FIG. 5 is a diagram for explaining a relationship between a real space video and a marker video according to the first embodiment.
FIG. 6 is a diagram illustrating an example of a video in a real space according to the first embodiment.
FIG. 7 is a diagram illustrating an example of a marker image according to the first embodiment.
FIG. 8 is a diagram illustrating a relationship between an image of a real space and an image of a marker according to Embodiment 2 of the present invention.
FIG. 9 is a diagram illustrating an example of an image in a real space according to the second embodiment.
FIG. 10 is a diagram illustrating an example of a marker image according to the second embodiment.
FIG. 11 is a diagram illustrating a configuration example of an imaging device according to a fourth embodiment of the present invention.
FIG. 12 is a schematic external view of an HMD according to a fourth embodiment.
FIG. 13 is a side view showing a schematic configuration of an optical system that can be employed in the HMD according to Embodiment 5 of the present invention.
FIG. 14 is a side view showing a schematic configuration of another optical system that can be employed in the HMD according to the fifth embodiment.
FIG. 15 is a diagram showing an example of a transparent enclosure provided with a semi-cylindrical marker according to Embodiment 6 of the present invention.
FIG. 16 is a diagram showing a state where an observer stands in the enclosure of FIG. 15;
FIG. 17 is a diagram showing a virtual object added to FIG. 16 and a diagram viewed from the side.
FIG. 18 is a diagram illustrating an example of a transparent enclosure including a cylindrical marker according to the sixth embodiment.
FIG. 19 is a diagram showing an example of an enclosure formed by a thin wire provided with a dome-shaped marker according to the sixth embodiment.
FIG. 20 is a diagram illustrating an example of an enclosure formed of a thin wire having a semi-cylindrical marker according to the sixth embodiment.
FIG. 21 is a block diagram showing a configuration of an MR system according to a sixth embodiment.
FIG. 22 is a block diagram showing a configuration of an MR system according to Embodiment 7 of the present invention.

Claims (1)

観察者の頭部に装着されて当該観察者に画像を提示する表示装置であって、
外界の映像を撮影する第1撮像手段と、
位置合わせのためのマーカを撮影するための第2撮像手段と、
前記第1及び第2撮像手段により撮像された映像とを合成して表示する表示手段とを有し、
前記第1と第2の撮像手段による撮像の焦点距離が互いに異なっていることを特徴とする表示装置。
A display device attached to the observer's head and presenting an image to the observer,
First image capturing means for capturing an image of the outside world;
Second imaging means for photographing a marker for alignment,
Display means for combining and displaying the images picked up by the first and second image pickup means,
A display device wherein the focal lengths of the first and second imaging means are different from each other.
JP2002373108A 2002-12-24 2002-12-24 Display device Withdrawn JP2004205711A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002373108A JP2004205711A (en) 2002-12-24 2002-12-24 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002373108A JP2004205711A (en) 2002-12-24 2002-12-24 Display device

Publications (1)

Publication Number Publication Date
JP2004205711A true JP2004205711A (en) 2004-07-22

Family

ID=32811507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002373108A Withdrawn JP2004205711A (en) 2002-12-24 2002-12-24 Display device

Country Status (1)

Country Link
JP (1) JP2004205711A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070267A (en) * 2006-09-14 2008-03-27 Canon Inc Method for measuring position and attitude, and device
JP2010276816A (en) * 2009-05-28 2010-12-09 Seiko Epson Corp Liquid crystal unit and head-mounted display apparatus using the same
JP2014093703A (en) * 2012-11-06 2014-05-19 Sony Computer Entertainment Inc Head mount display, movement detection device, movement detection method and video presentation system
WO2016006731A1 (en) * 2014-07-09 2016-01-14 엘지전자 주식회사 Portable device that controls photography mode, and control method therefor
JP2017010119A (en) * 2015-06-17 2017-01-12 キヤノン株式会社 Information processing device, image processing device, control method for those, and program
US20170061695A1 (en) * 2015-08-27 2017-03-02 Canon Kabushiki Kaisha Wearable display apparatus, information processing apparatus, and control method therefor
JP6368005B1 (en) * 2017-05-16 2018-08-01 雅文 越山 Medical magnifier device
US10122980B2 (en) 2015-03-02 2018-11-06 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US10297136B2 (en) 2015-06-26 2019-05-21 Sony Interactive Entertainment Inc. Head-mounting display, notification apparatus, notification system, notification method, and program
US10368007B2 (en) 2015-10-08 2019-07-30 Sony Interactive Entertainment Inc. Control apparatus, head-mounted display, control system, control method, and program
US10504247B2 (en) 2015-04-23 2019-12-10 Canon Kabushiki Kaisha Transmission apparatus, mixed reality system, transmission method, and program
US10685211B2 (en) 2015-08-04 2020-06-16 Sony Interactive Entertainment Inc. Head-mounted display, display control method, and program
US10715735B2 (en) 2015-06-10 2020-07-14 Sony Interactive Entertainment Inc. Head-mounted display, display control method, and program
US20220094883A1 (en) * 2019-01-15 2022-03-24 Longan Vision Corp. Augmented reality display device, and apparatus comprising same

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1901029A3 (en) * 2006-09-14 2016-01-27 Canon Kabushiki Kaisha Position and orientation measurement method and apparatus
US8019114B2 (en) 2006-09-14 2011-09-13 Canon Kabushiki Kaisha Position and orientation measurement method and apparatus
JP2008070267A (en) * 2006-09-14 2008-03-27 Canon Inc Method for measuring position and attitude, and device
JP2010276816A (en) * 2009-05-28 2010-12-09 Seiko Epson Corp Liquid crystal unit and head-mounted display apparatus using the same
US9448405B2 (en) 2012-11-06 2016-09-20 Sony Corporation Head mounted display, motion detector, motion detection method, image presentation system and program
US10241331B2 (en) 2012-11-06 2019-03-26 Sony Interactive Entertainment Inc. Head mounted display, motion detector, motion detection method, image presentation system and program
JP2014093703A (en) * 2012-11-06 2014-05-19 Sony Computer Entertainment Inc Head mount display, movement detection device, movement detection method and video presentation system
WO2016006731A1 (en) * 2014-07-09 2016-01-14 엘지전자 주식회사 Portable device that controls photography mode, and control method therefor
US10334233B2 (en) 2014-07-09 2019-06-25 Lg Electronics Inc. Portable device that controls photography mode, and control method therefor
US11128851B2 (en) 2015-03-02 2021-09-21 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US10122980B2 (en) 2015-03-02 2018-11-06 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US10455208B2 (en) 2015-03-02 2019-10-22 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US10504247B2 (en) 2015-04-23 2019-12-10 Canon Kabushiki Kaisha Transmission apparatus, mixed reality system, transmission method, and program
US10715735B2 (en) 2015-06-10 2020-07-14 Sony Interactive Entertainment Inc. Head-mounted display, display control method, and program
JP2017010119A (en) * 2015-06-17 2017-01-12 キヤノン株式会社 Information processing device, image processing device, control method for those, and program
US10297136B2 (en) 2015-06-26 2019-05-21 Sony Interactive Entertainment Inc. Head-mounting display, notification apparatus, notification system, notification method, and program
US10685211B2 (en) 2015-08-04 2020-06-16 Sony Interactive Entertainment Inc. Head-mounted display, display control method, and program
US11417126B2 (en) 2015-08-04 2022-08-16 Sony Interactive Entertainment Inc. Head-mounted display, display control method, and program
US11763578B2 (en) 2015-08-04 2023-09-19 Sony Interactive Entertainment Inc. Head-mounted display, display control method, and program
EP3136724B1 (en) * 2015-08-27 2020-04-22 Canon Kabushiki Kaisha Wearable display apparatus, information processing apparatus, and control method therefor
JP2017046233A (en) * 2015-08-27 2017-03-02 キヤノン株式会社 Display device, information processor, and control method of the same
US20170061695A1 (en) * 2015-08-27 2017-03-02 Canon Kabushiki Kaisha Wearable display apparatus, information processing apparatus, and control method therefor
US10368007B2 (en) 2015-10-08 2019-07-30 Sony Interactive Entertainment Inc. Control apparatus, head-mounted display, control system, control method, and program
US10488654B2 (en) 2015-10-08 2019-11-26 Sony Interactive Entertainment Inc. Control apparatus, head-mounted display, control system, control method, and program
JP2018191845A (en) * 2017-05-16 2018-12-06 雅文 越山 Magnifying glass device for medical use
JP6368005B1 (en) * 2017-05-16 2018-08-01 雅文 越山 Medical magnifier device
US20220094883A1 (en) * 2019-01-15 2022-03-24 Longan Vision Corp. Augmented reality display device, and apparatus comprising same
US11665319B2 (en) * 2019-01-15 2023-05-30 Longan Vision Corp. Augmented reality display device, and apparatus comprising same

Similar Documents

Publication Publication Date Title
US7369101B2 (en) Calibrating real and virtual views
CN106062862B (en) System and method for immersive and interactive multimedia generation
CN110275297B (en) Head-mounted display device, display control method, and recording medium
US7728280B2 (en) Multi-band tracking and calibration system
JP5295714B2 (en) Display device, image processing method, and computer program
WO2018076202A1 (en) Head-mounted display device that can perform eye tracking, and eye tracking method
JP2001211403A (en) Head mount display device and head mount display system
JP2004205711A (en) Display device
JPH10327433A (en) Display device for composted image
KR20180023983A (en) Head Mount Display
CN114761909A (en) Content stabilization for head-mounted displays
JPH11102438A (en) Distance image generation device and image display device
JP6828465B2 (en) Endoscope operation support system
TW201843494A (en) Display system with video see-through
US20210398306A1 (en) Dense depth computations aided by sparse feature matching
CN114503011A (en) Compact retinal scanning device that tracks the movement of the pupil of the eye and uses thereof
US11681148B2 (en) Compact catadioptric projector
JP2022501876A (en) Reduced bandwidth stereo distortion compensation for fisheye lenses in head-mounted displays
JP2003284096A (en) Stereoscopic photographing apparatus, finder, eyemark presenting member, and photographing method in stereoscopic photographing apparatus
US10992928B1 (en) Calibration system for concurrent calibration of device sensors
US20240073392A1 (en) Optical waveguide combiner systems and methods
JP2021071497A (en) Head mount display
US20220350149A1 (en) Waveguide configurations in a head-mounted display (hmd) for improved field of view (fov)
JP2000132329A (en) Device and method for recognizing surface and virtual image solid synthesizer
US10678048B1 (en) Head mounted display with tiled optical assembly

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060307