JP5443134B2 - シースルー・ディスプレイに現実世界の対象物の位置をマークする方法及び装置 - Google Patents

シースルー・ディスプレイに現実世界の対象物の位置をマークする方法及び装置 Download PDF

Info

Publication number
JP5443134B2
JP5443134B2 JP2009260903A JP2009260903A JP5443134B2 JP 5443134 B2 JP5443134 B2 JP 5443134B2 JP 2009260903 A JP2009260903 A JP 2009260903A JP 2009260903 A JP2009260903 A JP 2009260903A JP 5443134 B2 JP5443134 B2 JP 5443134B2
Authority
JP
Japan
Prior art keywords
real
world
display
see
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009260903A
Other languages
English (en)
Other versions
JP2010123121A5 (ja
JP2010123121A (ja
Inventor
ランドルフ・ジー・ハートマン
デューク・バスター
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell International Inc
Original Assignee
Honeywell International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell International Inc filed Critical Honeywell International Inc
Publication of JP2010123121A publication Critical patent/JP2010123121A/ja
Publication of JP2010123121A5 publication Critical patent/JP2010123121A5/ja
Application granted granted Critical
Publication of JP5443134B2 publication Critical patent/JP5443134B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明はディスプレイに関し、より具体的には、ディスプレイに現実世界の対象物の位置をマークする方法及びシステムに関する。
仮想画像や映像と現実世界のキャプチャ画像や映像との組み合わせは、一般に、拡張現実(augmented reality)ビジョンと呼ばれる。拡張現実ビジョン・システムは、様々な状況において用途を有するようになり始めている。
例えば、拡張現実の用途の1つはシースルー・ディスプレイにあり、シースルー・ディスプレイでは、ユーザは、現実世界を直接的に見ると共に、シースルー・ディスプレイを用いて見ているものに追加の情報を重ね合わせる。拡張現実は、生映像放送などの現実世界に関する映像を補足するために使用することもできる。ここでは、元の映像は現実世界を直接に取り込み、図形や他の情報が、現実世界の映像に重ね合わされる。現在、多くのテレビのニュース放送は、現実世界の映像に追加の仮想情報が重ね合わされたものの例である。拡張現実システムが更に広く行き渡るようになるにつれて、追加の機能性が望まれることになる。
以下の概要は、例として挙げられており、限定するためのものではない。一実施形態では、シースルー・ディスプレイ上で現実世界の対象物の位置をマークする方法が提供される。この方法は、イメージング・デバイスを用いて現実世界の対象物の画像を取り込むステップを含む。対象物に対するビューイング・アングル(viewing angle、見ている角度)及び距離が決定される。対象物の現実世界の位置は、対象物に対するビューイング・アングル及び対象物までの距離に基づいて計算される。現実世界における対象物の位置に対応するシースルー・ディスプレイ上の位置が決定される。次いで、マークが、現実世界の対象物に対応する位置でシースルー・ディスプレイ上に表示される。
図1は、現実世界における指し示す物に基づいてディスプレイにおいてマーキングを行うシステムの一実施形態のブロック図である。 図2は、アイコンを用いて背景を補うディスプレイ・デバイスを見た図である。 図3は、ユーザの視野の説明図であり、シースルー・ディスプレイ上でアイコンを伴う背景シーンを示している。 図4は、現実世界における指し示す物に基づいてディスプレイにおいてマーキングを行う方法の一実施形態を示す流れ図である。 図5は、図3からのユーザの視野の説明図であり、人差し指を用いてマークの位置を調節しているところを示す。 図6は、現実世界に関連してシースルー・ディスプレイ上でマークの位置を維持する方法の一実施形態を示す流れ図である。 図7は、ユーザに装着されたシステム100一実施形態の斜視図である。
図1は、現実世界のシーン(光景)に関連してディスプレイ上でマークの位置を選択及び保持するシステム100の一実施形態である。システム100は、イメージング・デバイス102と、ディスプレイ・デバイス104と、少なくとも1つのプロセッサ106と、記憶媒体108とを含む。イメージング・デバイス102、ディスプレイ・デバイス104、及び記憶媒体108は、少なくとも1つのプロセッサ106と通信可能に結合される。適当なイメージング・デバイス102の例は、EOカメラ、赤外線カメラ、LIDARデバイス、RADARデバイス、ソナー・デバイスなどを含むが、これらには限定されない。本実施形態では、イメージング・デバイス102は、フレーム毎に映像を取り込むビデオ・カメラである。システム100は、距離測定デバイス110、慣性測定ユニット(IMU)112、及び全地球測位システムの受信機(GPS)114も含む。慣性測定ユニット112及びグローバル・ポジション・システム114は、イメージング・デバイス102と共に取り付けられ、イメージング・デバイス102の向き(向いている方向)及び位置を求めるために使用される。距離測定デバイス110も、イメージング・デバイス102と共に取り付けられ、距離測定デバイス110から現実世界における対象物/面までの距離を求めるように構成される。一実施形態では、イメージング・デバイス102及び距離測定デバイス110は共に、単一の光強度及び距離測定デバイス(LIDAR:Light Intensity and Ranging Device)を用いて実施される。最後に、システム100は、ユーザによる動作を認識するためのセンサ116と、ユーザからの指令を取り込むためのマイクロフォン118とを含む。
図2は、ディスプレイ・デバイス104及び現実世界の背景202の一実施形態を示す。一実施形態では、ディスプレイ・デバイス104は、シースルー・ディスプレイ(本明細書ではシースルー・ディスプレイ104と呼ぶ)であり、ユーザは、シースルー・ディスプレイ104を通じて背景202を直接に眺め、ユーザの眺めはシースルー・ディスプレイ104により補われる。
図2に示すように、シースルー・ディスプレイ104は、マーク204を表示している。マーク204は、現実世界における空間の或る点(ポイント)の仮想表現である。具体的には、マーク204は、背景202中の対象物上の又はマーク204の「後ろにある」面上のポイントを表す。システム100は、シースルー・ディスプレイ104上で背景202に対してマーク204の位置を保持する。図2に示すように、マーク204は、背景202内の立方体206に固定される。従って、ユーザが移動や回転する際には、マーク204は、マーク204が背景202の一部であり立方体206の位置にあるかのように、立方体206に対して固定された状態を維持する。図2に示す実施形態では、マーク204は示されるように或る形状及び大きさを有するが、他の実施形態では、テキスト、線、ドット又は他の図形を含むがそれらに限定されない他のマークが、ディスプレイ・デバイス104上に作成される。
イメージング・デバイス102は、ユーザがシースルー・ディスプレイ104を通じて見ているときに、イメージング・ビューがユーザの眺めと少なくとも部分的に重なり合うように、配置される。更に、本実施形態では、イメージング・デバイス102及びイメージング・デバイス102の視野は、ユーザの視野に対して固定され、それらが同じローカル・ビューであるようにする。同様に、距離測定デバイス110は、シースルー・ディスプレイ104を通じての眺めるときに、距離測定デバイス110がユーザからユーザの視野内の対象物又は面までの距離を決定するように、向けられる。
図3は、シースルー・ディスプレイ104を覗いたときのユーザの視野内における指示対象物(pointing object、指し示すための物)306に基づいて生成されるマークの一実施形態を示す。図3では、ユーザの視野が示されており、ユーザの人差し指306が、シースルー・ディスプレイ104上のマークへと変換されている。ボックス302は、シースルー・ディスプレイ104を通じて眺められるユーザの視野の領域を示す。示されるように、シースルー・ディスプレイ104は、アイコン304をユーザの眺めの中に重ね合わせている。システム100は、イメージング・デバイス102を用いてユーザの人差し指306のフレームを取り込むことにより、シースルー・ディスプレイ104のフィールド内のユーザの人差し指306を認識する。システム100は、人差し指306が向けられる位置にアイコン304を置く。このようにして、システム100は、人差し指306をシースルー・ディスプレイ104上のマーク(アイコン304)へと変換する。次いで、システム100は、以下に説明するようにアイコン304の現実世界での位置を決定し、後に参照するため又は他の処理のために、その現実世界での位置を記憶デバイス108に記憶する。加えて、方法600に関して後に説明するように、このマークは、IMU112、GPS114及びイメージング・デバイス102の様々な組み合わせを用いてシースルー・ディスプレイの向き及びシースルー・ディスプレイの位置の変化を監視することにより、シースルー・ディスプレイ104上の同じ位置に保持される。
図4は、指示対象物に基づいてシースルー・ディスプレイ上でマーキングを行う(マークをつける)方法400の一実施形態を示す流れ図である。方法400のブロック402では、イメージング・デバイス102は、イメージング・デバイス102の視野のフレームを取り込む。イメージング・デバイス102により取り込まれたフレーム(1又は複数)は、プロセッサ106へ送られる。イメージング・デバイス102がビデオ・カメラである実施形態では、イメージング・デバイス102はフレームを継続的に記録しており、それらはプロセッサ106へ送られて解析されている。ブロック404では、プロセッサ106は、フレーム内の指示対象物についてフレームをチェックする。一実施形態では、プロセッサ106は、イメージング・デバイス102からのフレームに関する特徴認識を行って、フレーム内の指示対象物を識別する。ブロック406では、指示対象物がフレーム内で識別されたら、プロセッサ106は、指示対象物の先端を決定する。例えば、人差し指を出した手が、指示を行うための物(指示対象物)である場合、プロセッサ106は、指の端をポイントとして識別する。ブロック408では、指示対象物の先端が識別されると、システム100は、指示対象物の先端に対応するシースルー・ディスプレイ104の位置を識別する。次いで、ブロック410では、マークが、ポインティング(指示)・デバイスのポイントに対応すると決定されたシースルー・ディスプレイ104の位置に、置かれる。方法400のステップに関しての更なる詳細は後に述べる。
下記の実施形態は、人差し指を出した手を指示対象物とした観点で説明されるが、他の実施形態では、他のものが指示対象物として使用されてよい。例えば、一実施形態では、細長いポインティング・スティックが、指示対象物として使用される。別の実施形態では鉛筆が指示対象物として使用される。
ブロック404では、プロセッサ106は、イメージング・デバイス102から受け取ったフレーム(1又は複数)内に指示対象物があるか否かを判定する。上述のように、一実施形態では、特徴認識アルゴリズムを使用してフレーム内の指示対象物を識別する。例えば、一実施形態では、プロセッサ106は、人差し指を出した手に関してイメージング・デバイス102からのフレームを探すために特徴認識を使用するように、プログラムされる。ここで、特徴認識アルゴリズムは、手の形状、及び/又は手及び指が腕の端にある状態の腕を認識することになる。当業者に知られているように、従来の特徴認識アルゴリズムを使用してフレーム内の指示対象物を識別することができる。他の実施形態では、他の特徴が、特徴認識アルゴリズムにより認識されてもよい。加えて、一実施形態では、この特徴認識アルゴリズムは、フレームの一定の領域から延びる指示対象物についてチェックする。ここで、特徴認識は、イメージング・デバイス102の視野の中へ指示対象物が入ってくるときの考えられる入口領域に対してのイメージング・デバイス102の位置を考慮に入れる。例えば、図7に示す実施形態では、イメージング・デバイス102は、ユーザの頭部のゴーグルに取り付けられ、指示対象物としてのユーザの手の指差し動作を認識するように構成される。この状況では、プロセッサ106の特徴認識システムは、フレームの下側に入る手及び/又は腕を認識するように構成され得る。指示対象物の予期された領域を使用することは、指示対象物を誤って識別することを減らすのに役立ち得る。
一実施形態では、システム100は、指令がシステム100へ与えられると指示対象物を探す。例えば、ユーザは、システム100に接続されたボタンを押して指示対象物を探すようにシステム100を動かすことができる。他の実施形態では、他の方法を使用して指令を与えることができ、それには、マイクロフォン210を通じての言葉による指令やシステム100上で動作するソフトウェアに基づいたプログラムされたルーチンなども含まれるが、それらには限定されない。この指令がシステム100により受け取られると、イメージング・デバイス102は、オンになり(オンでない場合)、その視野からフレームを取り込む。このフレームはプロセッサ106へ送られ、プロセッサ106は、起動指令を受け取った後に、指示対象物を求めて受け取ったフレームを探す。
一実施形態では、システム100により受け取られる指令は、ユーザの腕に装着されるセンサ116からのものである。ユーザの腕のセンサ116は、腕の動作を感知する。腕が持ち上げられると、センサ116は、信号をプロセッサ106へ送る。プロセッサ106は、この信号を使用して、イメージング・デバイス102から受け取ったフレーム内で人差し指を求めてフレームをチェックするプロセスを始める。このようにして、システム100は、ユーザの腕が持ち上げられると、ユーザの手を指示対象物として探す。別の実施形態では、センサ116は、より精度が高く、腕の相対位置を感知し、腕がイメージング・デバイス102の視野の特定の領域に到達すると信号をプロセッサ106へ送る。他の実施形態では、センサ116は、システム100に関しての他の動きを感知する。
プロセッサ106がフレーム内の指示対象物を識別すると、プロセッサ106は、指示対象物の先端を決定する。例えば、本実施形態では、ユーザの手は、下からイメージング・デバイス102の視野に入る。従って、指した指の先端は、フレーム中の指の先を探すことにより識別される。従って、プロセッサ106は、指の先が指の先端であると決定することになる。他の実施形態では、特徴認識アルゴリズムを含む指示(ポインティング)デバイスのポイントを決定する他の方法が使用され得る。
指示デバイスの先端が識別されたら、プロセッサ106は、指示デバイスの先端に対応するシースルー・ディスプレイ104のディスプレイ上の位置を決定する。これを決定するために、プロセッサ106へは、イメージング・デバイス102の視野とシースルー・ディスプレイ104上のディスプレイとの間の関係が与えられる。イメージング・デバイス102及びシースルー・ディスプレイ104は、イメージング・デバイス102の視野(又は視野の一部)が、シースルー・ディスプレイ104上のディスプレイ(又はシースルー・ディスプレイ104上のディスプレイの一部)と関連付けられるように、調整される。イメージング・デバイス102の視野は、イメージング・デバイス102の視野とシースルー・ディスプレイ104の位置との間の関係をセットアップすることにより、シースルー・ディスプレイ104と関連付けられる。言い換えれば、イメージング・デバイス102の視野内の対象物の位置は、ディスプレイ・デバイス104の位置と関連付けられる。例えば、イメージング・デバイス102の視野の左上部分は、シースルー・ディスプレイ104の左上と関連付けられる。同様に、イメージング・デバイス102の視野の左下部分は、シースルー・ディスプレイ104の左下と関連付けられる。イメージング・デバイス102の視野の他の部分は、ディスプレイ・デバイスのディスプレイの対応する部分と関連付けられる。このようにして、イメージング・デバイス102の視野の左上部分に生じる指示対象物の動作は、シースルー・ディスプレイ104の左上におけるマークへと変換される。
一実施形態では、イメージング・デバイス102の視野及びシースルー・ディスプレイ104は、システム100の製造中に関連付けられる。例えば、イメージング・デバイス102及びディスプレイ・デバイス104は、固定された関係で取り付けられる。次いで、イメージング・デバイス102はフレームを取り込む。画像は、シースルー・ディスプレイを通じてのユーザの視野と比較され、イメージング・デバイス102からのフレームの画素をシースルー・ディスプレイ104上の位置へマップするチャートが作成される。次いで、このチャートを使用してイメージング・デバイス102の画像の画素をシースルー・ディスプレイ104上の位置へ変換する。望ましい場合、イメージング・デバイス102又はシースルー・ディスプレイ104の向きを変更して、これらのデバイス間での所望の重なり合いを達成する。ここでの目標は、ユーザが(シースルー・ディスプレイ通して見たときに)指示対象物の先端を見たときの位置をプロセッサ106により選択される位置にできるだけ近くすることである。
イメージング・デバイス102との関連付けがなされると、シースルー・ディスプレイ104は、決定された位置でマークを出力する。シースルー・ディスプレイ104上に作成されるマークは、ディスプレイ・デバイス上で使用される任意のタイプのマークでよく、指示対象物が動くと指示対象物に追従するフリーフロー・ラインや、アイコンや、或る形状などを含むが、それらには限定されない。
一実施形態では、当初のマークは、指示対象物の先端に対応するシースルー・ディスプレイ104の位置に置かれるが、このマークは、シースルー・ディスプレイ104の後ろにある現実世界の位置とすぐには固定されない。このマークは、指示対象物がイメージング・デバイス102の視野及びシースルー・ディスプレイ104と相対して動く際にコヒーレントに調節され動かされ得る。このようにしてユーザは、シースルー・ディスプレイ104中のアイコンの位置を微調整することができる。図5は、シースルー・ディスプレイ104を通じての眺めを示し、シースルー・ディスプレイ内のアイコン304の動きを示している。図5に示すように、ユーザがユーザの腕及びユーザの人差し指306を動かすと、アイコン304はディスプレイ上で動く。シースルー・ディスプレイ104のディスプレイ全体にわたって指示対象物の先端を追従するために、プロセッサ106は、イメージング・デバイス102からのフレームを継続的に解析して、指示対象物の先端の位置を決定し、指示対象物の先端の更新した位置(動かされた場合)にアイコンを置く。このアイコンは、指示対象物の位置に固定するようにユーザから指令が与えられるまで、指示対象物を追従する。一実施形態では、システム100がユーザから受け取る指令は、マイクロフォン118から受け取られる音声による指令である。しかしながら、他の実施形態では、他の方法を使用して指令をシステム100に与えることができ、それには、ボタンの押下、マウスのクリック、及び一連のキーボードのキー入力を含まれるが、それらには限定されない。
別の実施形態では、マークはフリーフロー・ラインであり、指令があると描くことを開始し、指示対象物がイメージング・デバイス102の視野を動きにつれて描き続ける。フリーフロー・ラインは、指令があると停止させられる。フリーフロー・ラインを開始及び停止する指令は、システム100上のボタン、マイクロフォン118を通じて受け取られる音声による指令、及び他のものを含む。
指示デバイスを用いてアイコンを動かすが、指令が与えられるまでロックしないということは、ユーザがシステム100により配置されるマークの位置を調節することを可能にするので、好都合である。ユーザが、初挑戦で、シースルー・ディスプレイ104のディスプレイ上で正確に所望の位置を指すことは難しい場合がある。従って、これにより、ユーザが、マークが置かれることになる位置や、システム100によるマークの初期の配置に基づいてフリーフロー・ラインがて始まることになる位置を、調節することを可能にする。
指示対象物が画面全体にわたって動く際に、継続的なフリーフロー・ラインを描くため、又はアイコンをドラッグする(調節する)ために、プロセッサ106は、新しいフレームがイメージング・デバイス102から受け取られると、シースルー・ディスプレイ104上の何れの位置が指示デバイスの先端に対応するかの決定(シースルー・ディスプレイ104上における指示デバイスの先端の対応する位置)を更新する。例えば、マークが第1のフレームに基づいてディスプレイに置かれた後、第2のフレームがプロセッサ106により受け取られ、指示デバイス及びその先端がその新しいフレームにおいて識別される。次いで、指示デバイスの先端の位置は、ディスプレイの位置と関連付けられる。次いで、第2のフレーム中の指示デバイスの先端が、第1のフレームにおける位置とは異なる位置と関連付けられるか否かが判定される。次いで、その更新した位置を、新しい描写のマーク又はアイコンの新しい位置のために使用する。
一実施形態では、ポインティング方法を用いてあるユーザにより識別されるマークは、第2のユーザに識別されるように通信される。第2のユーザのプロセッサは、第1のユーザから得られる位置情報に基づいて、第2のユーザのイメージング・デバイスの視野内に同じ立方体を見つける。こうして、立方体は第2のユーザに識別され得る。
背景202に対して同じ位置にマーク204を保持するために、システム100は、対象物についての現実世界の位置を決定し、その位置に基づいてディスプレイ・デバイス104上のマーク204の位置を計算する。対象物の現実世界の位置とは、現実世界における対象物の位置を言うものである。この位置は、別の現実世界の対象物(ユーザなど)に相対的なものであり得、また、全地球測位システムに関するものでもよい。
図3は、シースルー・ディスプレイ上で現実世界の対象物の位置をマークする方法600の一実施形態を示す。マーク204は、当業者に知られている多くの方式でシースルー・ディスプレイ104上に生成又は配置され得る。例えば、一実施形態では、マーク204は、上記のように、指示対象物を認識し、その指示対象物の先端のところでマーク204を生成するシステム100に基づいて、生成される。別の実施形態では、マーク204は、システム100へ与えられる指令により生成され、この指令は、システム100にシースルー・ディスプレイ104上の一般的な位置にマーク204を生成させる。次いで、マーク204は、シースルー・ディスプレイ104のディスプレイの所望される位置まで動くように指令される。マーク204を生成し動かすための指令は、押しボタン、トグル・スティック、音声指令、又は他の指令を含む当業者に知られている任意の指令であり得る。更に別の実施形態では、マーク204は、マウスのクリックなどにより生成及び調節される。
マーク204は、シースルー・ディスプレイ104内の、ユーザが現実世界に関連してマーク204を固定するように望む位置に置かれる。例えば、図2では、ユーザがマーク204を用いて立方体206をマークすることを望むので、マーク204は立方体206に重ねて置かれる。
ブロック602では、マーク204が重ね合わされる対象物(本実施形態では立方体206)についてのビューイング・アングルが決定される。このビューイング・アングルは、イメージング・デバイス102の視野内の対象物の位置に基づいて決定される。対象物がイメージング・デバイス102の視野の中心に配置される場合、立方体206に対するビューイング・アングルは、高さ方向0度、方位方向0度であることになる。対象物がイメージング・デバイス102の視野の右下近くに配置される場合、ビューイング・アングルは例えば、高さ方向−25度及び方位方向30度であり得る。
ブロック604では、立方体206までの距離が、ビューイング・アングルに基づいて決定される。一実施形態では、この距離は、距離測定デバイス110を用いて決定される。距離測定デバイス110は、距離測定デバイス110がユーザの視点から立方体206までの距離を決定するように、このビューイング・アングルに狙いを合わせる。例えば、図2に示すように、距離測定デバイスは、ユーザの視点から立方体206までの距離を決定する。一実施形態では、プロセッサ106は、ベクトルの方位及び高さを決定することにより距離測定デバイス110に対して角度を決定する。一実施形態では、距離測定デバイス110はレーザであり、レーザ・ビームがレーザから対象物へ、そして戻るまでにかかる時間量を求める。
一実施形態では、ビューイング・アングルは、ユーザから始まり、マーク204についての代表位置を通って進み、立方体206で終わる仮想のベクトルに基づいて、決定される。すなわち、このベクトルは、マーク204を通って「指している」。このベクトルを使用して、ユーザの向きに対してのこの位置が配されている角度を決定する。このビューイング・アングルから、距離測定デバイス110は、ユーザから、マーク204が重ね合わされている対象物又は背景202の表面(本実施形態では立方体206)までの距離を決定する。従って、図2に示す実施形態では、このベクトルは、ユーザの視点からマーク204の中心を通って立方体206で終わる。別の実施形態では、ビューイング・アングルは、ユーザから対象物に向かう指示デバイスの先端への線に沿って決定される。
プロセッサ106は、ユーザの視点とシースルー・ディスプレイ104のディスプレイ内の位置との間の知られた関係に基づいてベクトルを計算する。例えば、シースルー・ディスプレイ104のディスプレイの下半分の位置を通って進むベクトルは、ユーザの視野の中心に対して下向きの角度を有することになる。ユーザの視野の中心に対する位置についての関係(及び結果として生じるベクトル)は、システム100の初期設定中に決定される。次いで、このベクトルは、マーク204が配置されるビューイング・アングルとして使用される。
ブロック606では、立方体206までの距離が知られると、ユーザの視点の向きが決定される。ユーザの視点の向きは、IMU112により決定され、ユーザの視点の現在の位置は、GPS114により決定される。IMU112は、ユーザの回転及び加速に関して追加の情報をプロセッサ106に与える。GPS114は、ユーザの視点のグローバルな基準位置に関しての情報をプロセッサ106に与える。プロセッサ106は、GPS114及びIMU112からの情報を使用して、ユーザの向きを決定する。一実施形態では、この向きは、ユーザに関してのピッチ、ロール及び進行方向として表される。GPS及びIMUからの情報を組み合わせて向きを決定する方法は、当業者に知られており、本明細書では説明しない。他の実施形態では、向きは、イメージング・デバイス102を用い、取り込まれた画像内の特徴に基づいて求め、イメージング・デバイス102の位置は、GPS114に基づいて決定する。
ブロック608では、ユーザの向きが知られると、立方体206の現実世界の位置が決定される。対象物の現実世界の位置とは、現実世界における対象物の位置を言うものである。一実施形態では、立方体206の現実世界の位置は、ユーザと相対して決定される。プロセッサ106は、IMU112及びGPS114から得られる向きの情報、並びに距離測定デバイス110により得られるユーザの視点から立方体206までの距離を使用して、立方体206のジオ・ポジション(geo-position、地理的位置)を決定する。例えば、立方体206がユーザから200フィート(約60.96m)であると判定され、ユーザが北西の方向を向いている場合、立方体206の現実世界の位置は、ユーザの北西200フィート(約60.96m)である。当業者に知られているように、他の実施形態では、他の単位及び位置に関する用語を、ユーザに対する立方体206の位置を説明するために使用することができる。
一実施形態では、立方体206の現実世界の位置は、グローバルな基準座標系を用いて決定される。例えば、立方体206の緯度座標及び経度座標が決定される。立方体206の緯度座標及び経度座標は、ユーザの緯度座標及び経度座標、並びにユーザに対する立方体206の距離及び方位(bearing)に基づいて決定される。ユーザの緯度座標及び経度座標は、GPS114から得られる。次いで、立方体206の座標が、ユーザの座標、ユーザから立方体206までの距離、及び上記で求めたような立方体206がユーザに対して配置されている方向に基づいて、計算される。他の実施形態では、この座標は、ローカルの基準フレームに対して計算される。
何れにしても、立方体206の現実世界の位置が決定されると、システム100は、マーク204が現実世界の位置に配置されているかのようにシースルー・ディスプレイ104においてユーザには見えるように、シースルー・ディスプレイ104内のマーク204の位置を継続して求める。従って、システム100は、ユーザの視点の動きによりマーク204の位置を調節する。マーク204をシースルー・ディスプレイ104のディスプレイ内のどこに配置するかを決定するために、システム100は、ユーザの動きを追跡する。マーク204の現実世界の位置がユーザに対する関係により識別される上記の実施形態では、ユーザの動きを使用してユーザと立方体206との間の関係を更新する。例えば、立方体206がユーザの北西600フィート(約182.9m)にあり、このユーザが西へ100フィート(約30.48m)動く場合、マーク204の相対的な現実世界の位置は、ユーザの視点の北へ200フィート(約60.96m)となるように更新される。立方体206の更新した相対位置に従って、シースルー・ディスプレイ104内のマーク204の位置は、ユーザの目からマーク204を通って進むベクトルが立方体206で終わるように、更新されることになる。ユーザが西へ100フィート(約30.48m)動く上記の例では、動きの間にユーザが一定の向きを保持した場合、マーク204は、シースルー・ディスプレイ104の右へ調節されることになる。従って、マーク204は、マーク204が立方体206の位置にあるかのように背景と共に動く。
プロセッサ106は、ユーザの視野の中心から立方体206の相対位置への角度、及びユーザとシースルー・ディスプレイ104との間の知られた関係に基づいて、シースルー・ディスプレイ104内のマーク204の位置を計算する。ユーザの視点の動きは、IMU112及びGPS114の測定値により決定される。加えて、システム100は、ユーザの向きの変化に基づいてマーク204の位置を調節することにより、ユーザの向きの変化を明らかにする。ユーザの向きは、IMU112により決定され、このユーザの向きは、シースルー・ディスプレイ104内のマーク204の位置を調節するために使用される。例えば、マーク204が、シースルー・ディスプレイ104の中心に配置され、ユーザが右へ回転する場合、マーク204は、シースルー・ディスプレイ104上で左へ動かされる。
立方体206の現実世界の位置がグローバルな基準座標系を参照して知られている別の実施形態では、シースルー・ディスプレイ104内のマーク204の位置は、更新したユーザの視点のグローバルな基準座標系の位置に基づいて決定される。例えば、ユーザが動くと、ユーザの緯度座標及び経度座標は、GPS114により更新される。プロセッサ106は、ユーザの座標及び立方体206の座標に基づいて、立方体206に対する角度を決定する。この角度を計算するために、プロセッサ106は、IMU112及びGPS114から現在の向きも受け取る。向きから2つの座標点の間の角度を計算するための式及び方法は当業者に知られている。上述のように、ユーザ200と立方体206との間の関係が知られると、プロセッサ106は、シースルー・ディスプレイ104内のマーク204の位置を計算する。マーク204の位置は、ユーザの目からシースルー・ディスプレイ104を通って立方体206へ向かう角度に基づく。加えて、システム100は、上記のようにユーザの向きの変化に基づいてマーク204の位置を調節することにより、ユーザ112の向きの変化を明らかにする。
図7は、ユーザ700がゴーグル702に取り付けられたシースルー・ディスプレイ104を有するシステム100の一実施形態を示す。この実施形態では、シースルー・ディスプレイ104は、ゴーグル702のレンズに組み込まれている。適当なシースルー・ディスプレイの一例は、Lumus社により製造されたLumus Professional TD−18シースルー・ディスプレイである。ユーザ700は、シースルー・ディスプレイ104を通して現実世界のシーン(光景)を観察し、シースルー・ディスプレイ104は、図形又は他のマーキングを重ね合わせることにより現実世界のシーンを増補する。現実世界のシーン及びシースルー・ディスプレイ104からのマーキングは、ユーザ700の目の中で組み合わされる。図4に示すように、IMU112、イメージング・デバイス102、及び距離測定デバイス110も、ゴーグル702に取り付けられる。
好都合なことに、IMU112、イメージング・デバイス102、距離測定デバイス110、及びシースルー・ディスプレイをゴーグル702に取り付けることにより、IMU、イメージング・デバイス102、距離測定デバイス110、及びシースルー・ディスプレイ104の間の向きの関係が保持される。代替例として、同様の結果を達成するために、IMU112、イメージング・デバイス102、距離測定デバイス110、及びシースルー・ディスプレイ104は、GPS114の場合と同様に、ユーザのヘルメット上などの他の位置に取り付けられてもよい。プロセッサ106及び記憶デバイス108は、ユーザ700の背中に取り付けられる。マイクロフォン110及びセンサ112も、ユーザ700上に含まれており、これについては以下において更に詳細に説明される。
上記の方法のオペレーションで使用される様々なプロセス・タスク、計算及び信号及び他のデータの発生を実行するための命令は、ソフトウェア、ファームウェア、又は他のプロセッサ可読命令を含むプログラム製品で実施することができる。典型的には、これら命令は、プロセッサ可読命令又はデータ構造の記憶に使用される任意の適当なプロセッサ可読媒体に記憶される。そのようなプロセッサ可読媒体は、汎用若しくは専用のコンピューター若しくはプロセッサ、又は任意のプログラム可能論理デバイスによりアクセスできる任意の利用可能な媒体であり得る。
適当なプロセッサ可読媒体は、例えば、EPROMデバイス、EEPROMデバイス、フラッシュ・メモリ・デバイスなどの半導体メモリ・デバイスを含む不揮発性メモリ・デバイス、内蔵ハードディスクやリムーバブル・ディスクなどの磁気ディスク、光磁気ディスク、CD、DVD又は他の光記憶ディスク、不揮発性ROM、RAM及び他の同様の媒体、或いは所望されるプログラム・コードをプロセッサ実行可能命令又はデータ構造の形態で担持または記憶するために使用することができる任意の他の媒体を含み得る。前述の何れかのものは、特別に設計された特定用途向け集積回路(ASIC)やフィールド・プログラマブル・ゲート・アレイ(FPGA)により補足されたり、それらの中に組み込まれてもよい。情報がネットワーク又は別の通信接続(有線、無線、又は有線と無線の組み合わせ)によりプロセッサへ伝達又は供給される場合、プロセッサは、その接続をプロセッサ可読媒体として適切に見る。このように、任意のそのような接続もプロセッサ可読媒体と適切に称される。上記のものの組み合わせもプロセッサ可読媒体の範囲内に含まれる。
本明細書で説明される方法は、データ・プロセッサにより実行されるプログラム・モジュールやアプリケーションなどのような、プロセッサ可読命令で実施することができる。一般に、プログラム・モジュールやアプリケーションは、ルーチン、プログラム、オブジェクト、データ・コンポーネント、データ構造、アルゴリズムなどを含み、これらは特定のタスクを行ったり特定の抽象データ型をインプリメントする。これらは、本明細書で開示される方法のステップを実行するためのプログラム・コードの例を表す。そのような実行可能命令や関係するデータ構造の特定のシーケンスは、そのようなステップにおいて説明される機能を実施するための対応する動作の例を表す。
本明細書で具体的な実施形態を例示及び説明してきたが、同じ目的を達成するように作られる任意の配置を、ここに示された具体的な実施形態の代わりにしてもよいことが、当業者には理解されよう。何れの発明も特許請求の範囲及びその均等物によりのみ限定されることが明らかに意図される。

Claims (8)

  1. シースルー・ディスプレイ上で現実世界の対象物の位置をマークする方法であって、
    イメージング・デバイスを用いて現実世界の対象物の画像を取り込むステップと、
    前記イメージング・デバイスの視野内のポインティング・デバイスを識別するステップ(406)と、
    前記現実世界の対象物に対する、ユーザから前記ポインティング・デバイスの先端への線に沿ったビューイング・アングルを決定するステップ(602)と、
    距離測定デバイスを用いて、前記現実世界の対象物までの現実世界の距離を決定するステップ(604)と、
    前記ユーザの向きを決定するステップ(606)と、
    前記対象物に対する前記ビューイング・アングル前記対象物までの前記距離、及び前記ユーザの向きに基づいて前記現実世界の対象物の現実世界の位置を計算するステップ(608)と、
    前記現実世界の対象物の前記現実世界の位置に対応する前記シースルー・ディスプレイ上の第1の位置を決定するステップ(406及び408)と、
    前記シースルー・ディスプレイ上で前記現実世界の対象物前記現実世界の位置に対応する前記第1の位置にマークを表示するステップ(410)と
    前記現実世界の対象物の前記計算された現実世界の位置、に対する前記シースルー・ディスプレイの動きにより、前記シースルー・ディスプレイに表示された、前記マークの前記第1の位置を調整するステップと、
    を備える方法。
  2. シースルー・ディスプレイ上で現実世界の対象物の位置をマークするシステムであって、
    プロセッサ(106)と、
    前記プロセッサと通信可能に結合されるシースルー・ディスプレイ(104)と、
    前記プロセッサと通信可能に結合されるイメージング・デバイス(102)と、
    前記プロセッサと通信可能に結合される距離測定デバイス(110)と
    を備え、
    前記イメージング・デバイスが、
    前記イメージング・デバイスを用いて現実世界の対象物の画像を取り込む
    ように構成され、
    前記プロセッサが、
    前記イメージング・デバイスの視野内のポインティング・デバイス(306)を識別し、
    前記現実世界の対象物に対する、ユーザから前記ポインティング・デバイスの先端への線に沿ったビューイング・アングルを決定し(602)
    距離測定デバイスを用いて、前記現実世界の対象物までの現実世界の距離を決定し、
    ユーザの向きを決定し(606)、
    前記現実世界の対象物に対する前記ビューイング・アングル前記現実世界の対象物までの前記距離、及び、前記ユーザの向きに基づいて前記現実世界の対象物の現実世界の位置を計算し(608)
    前記現実世界の対象物の前記現実世界の位置に対応する前記シースルー・ディスプレイ上の第1の位置を決定し(406及び408)
    前記シースルー・ディスプレイ上の前記現実世界の対象物の現実世界の位置に対応する前記第1の位置にマークを表示し、
    前記現実世界の対象物の前記計算された現実世界の位置、に対する前記シースルー・ディスプレイの動きにより、前記シースルー・ディスプレイに表示された、前記マークの前記第1の位置を調整する、
    ように構成される、
    システム。
  3. 処理装置(106)と、
    前記処理装置に通信可能に結合されるシースルー・ディスプレイ(104)と、
    前記処理装置(106)と結合されるレーザー距離測定デバイス(110)であって、前記レーザー距離測定デバイス(110)からのレーザー・ビームを特定の方向へ向けることができるようにステアリング可能である、レーザー距離測定デバイス(110)と、
    前記処理装置(106)と結合されるイメージング・デバイス(102)と、
    を備える装置であって、
    前記処理装置(106)が、
    イメージング・デバイスの視野内の点であって、前記イメージング・デバイスの視野内の現実世界の対象物に対応する点を識別し、
    前記イメージング・デバイスの前記視野内の前記点の位置に基づいて、前記イメージング・デバイスと前記イメージング・デバイスの前記視野内の前記点との間での向きを決定し、
    決定された前記向きを前記レーザーに伝え、
    前記レーザーからの情報に基づいて、前記レーザーから前記の決定された向きに位置する現実世界の対象物までの距離を決定し、
    前記現実世界の対象物の、前記計算された現実世界の位置に対応する、前記シースルー・ディスプレイ上の第1の位置を決定し、
    前記現実世界の対象物の前記計算された現実世界の位置に対応する、前記第1の位置において、前記シースルー・ディスプレイ上にマークを表示する、
    ように構成される、
    装置。
  4. 前記現実世界の対象物の前記現実世界の位置を、遠隔デバイスに通信するステップを更に含む、請求項1に記載の方法。
  5. 前記現実世界の対象物の前記現実世界の位置の識別をユーザに伝えるステップを更に含む、請求項4に記載の方法。
  6. 前記プロセッサが、更に、前記システムに、前記現実世界の対象物の前記現実世界の位置を、前記遠隔デバイスへ通信させるように構成される、請求項2に記載のシステム。
  7. 前記処理装置が、更に、
    慣性センサを用いて、前記現実世界の対象物の、前記計算された現実世界の位置に対する前記シースルー・ディスプレイの動きを追跡し、
    前記現実世界の対象物の前記現実世界の位置に対する前記シースルー・ディスプレイの動きにより、前記シースルー・ディスプレイに表示された前記マークの前記第1の位置を調整するように構成される、
    請求項3に記載の装置。
  8. 前記処理装置が、更に、
    前記装置に、前記現実世界の対象物の前記現実世界の位置を、遠隔デバイスに通信させることによって、前記現実世界の対象物の前記現実世界の位置が、前記遠隔デバイスのユーザによって識別され得るようにさせる、
    ように構成される、
    請求項3又は7の装置。
JP2009260903A 2008-11-17 2009-11-16 シースルー・ディスプレイに現実世界の対象物の位置をマークする方法及び装置 Expired - Fee Related JP5443134B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/272,395 US8397181B2 (en) 2008-11-17 2008-11-17 Method and apparatus for marking a position of a real world object in a see-through display
US12/272,395 2008-11-17

Publications (3)

Publication Number Publication Date
JP2010123121A JP2010123121A (ja) 2010-06-03
JP2010123121A5 JP2010123121A5 (ja) 2012-08-09
JP5443134B2 true JP5443134B2 (ja) 2014-03-19

Family

ID=41509319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009260903A Expired - Fee Related JP5443134B2 (ja) 2008-11-17 2009-11-16 シースルー・ディスプレイに現実世界の対象物の位置をマークする方法及び装置

Country Status (4)

Country Link
US (1) US8397181B2 (ja)
JP (1) JP5443134B2 (ja)
GB (1) GB2465280B (ja)
IL (1) IL202185A0 (ja)

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010073616A1 (ja) * 2008-12-25 2010-07-01 パナソニック株式会社 情報表示装置および情報表示方法
US20100228476A1 (en) * 2009-03-04 2010-09-09 Microsoft Corporation Path projection to facilitate engagement
US8494215B2 (en) * 2009-03-05 2013-07-23 Microsoft Corporation Augmenting a field of view in connection with vision-tracking
US8943420B2 (en) * 2009-06-18 2015-01-27 Microsoft Corporation Augmenting a field of view
JP5218354B2 (ja) * 2009-09-16 2013-06-26 ブラザー工業株式会社 ヘッドマウントディスプレイ
US20110164108A1 (en) * 2009-12-30 2011-07-07 Fivefocal Llc System With Selective Narrow FOV and 360 Degree FOV, And Associated Methods
JP2013521576A (ja) 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US20120120103A1 (en) * 2010-02-28 2012-05-17 Osterhout Group, Inc. Alignment control in an augmented reality headpiece
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US20150309316A1 (en) * 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US20120212484A1 (en) * 2010-02-28 2012-08-23 Osterhout Group, Inc. System and method for display content placement using distance and location information
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
KR101606727B1 (ko) 2010-06-25 2016-03-28 엘지전자 주식회사 휴대 단말기 및 그 동작 방법
US8665286B2 (en) * 2010-08-12 2014-03-04 Telefonaktiebolaget Lm Ericsson (Publ) Composition of digital images for perceptibility thereof
US20120038663A1 (en) * 2010-08-12 2012-02-16 Harald Gustafsson Composition of a Digital Image for Display on a Transparent Screen
EP2619605A1 (en) * 2010-09-23 2013-07-31 Telefónica, S.A. Method and system for calculating the geo-location of a personal device
EP2439920B1 (en) * 2010-10-08 2019-07-03 BlackBerry Limited System and Method for Displaying Object Location in Augmented Reality
US8315674B2 (en) 2010-10-08 2012-11-20 Research In Motion Limited System and method for displaying object location in augmented reality
JP5472056B2 (ja) * 2010-11-19 2014-04-16 コニカミノルタ株式会社 表示システム、表示処理装置、表示方法、および表示プログラム
US9507416B2 (en) * 2011-02-22 2016-11-29 Robert Howard Kimball Providing a corrected view based on the position of a user with respect to a mobile platform
US20120229509A1 (en) * 2011-03-07 2012-09-13 Liu Guangsong System and method for user interaction
EP2500815B1 (en) * 2011-03-13 2018-02-28 LG Electronics Inc. Transparent display apparatus and method for operating the same
EP2500814B1 (en) * 2011-03-13 2019-05-08 LG Electronics Inc. Transparent display apparatus and method for operating the same
EP2500816B1 (en) 2011-03-13 2018-05-16 LG Electronics Inc. Transparent display apparatus and method for operating the same
US9196086B2 (en) 2011-04-26 2015-11-24 Here Global B.V. Method, system, and computer-readable data storage device for creating and displaying three-dimensional features on an electronic map display
JP5830987B2 (ja) * 2011-07-06 2015-12-09 ソニー株式会社 表示制御装置、表示制御方法およびコンピュータプログラム
US8558759B1 (en) 2011-07-08 2013-10-15 Google Inc. Hand gestures to signify what is important
DE102011080582A1 (de) 2011-08-08 2013-02-14 Robert Bosch Gmbh Bilderfassungsvorrichtung
JP5532026B2 (ja) * 2011-08-10 2014-06-25 カシオ計算機株式会社 表示装置、表示方法及びプログラム
JP5694883B2 (ja) * 2011-08-23 2015-04-01 京セラ株式会社 表示機器
KR20190133080A (ko) 2011-09-19 2019-11-29 아이사이트 모빌 테크놀로지 엘티디 증강 현실 시스템용 터치프리 인터페이스
US9230171B2 (en) * 2012-01-06 2016-01-05 Google Inc. Object outlining to initiate a visual search
US9052804B1 (en) * 2012-01-06 2015-06-09 Google Inc. Object occlusion to initiate a visual search
US9625720B2 (en) 2012-01-24 2017-04-18 Accipiter Radar Technologies Inc. Personal electronic target vision system, device and method
US10067568B2 (en) 2012-02-28 2018-09-04 Qualcomm Incorporated Augmented reality writing system and method thereof
US8482527B1 (en) 2012-09-14 2013-07-09 Lg Electronics Inc. Apparatus and method of providing user interface on head mounted display and head mounted display thereof
US9298970B2 (en) * 2012-11-27 2016-03-29 Nokia Technologies Oy Method and apparatus for facilitating interaction with an object viewable via a display
US9374429B2 (en) 2012-12-18 2016-06-21 Sony Corporation System and method for sharing event information using icons
US20140173458A1 (en) * 2012-12-18 2014-06-19 Sony Corporation System and method for sharing event information using icons
HUP1300328A3 (en) 2013-05-23 2017-03-28 Mta Szamitastechnika Es Automatizalasi Ki Method and system for integrated three dimensional modelling
JP6016732B2 (ja) * 2013-08-21 2016-10-26 三菱電機株式会社 表示制御装置
EP2843507A1 (en) 2013-08-26 2015-03-04 Thomson Licensing Display method through a head mounted device
JP5877824B2 (ja) * 2013-09-20 2016-03-08 ヤフー株式会社 情報処理システム、情報処理方法および情報処理プログラム
KR102119659B1 (ko) * 2013-09-23 2020-06-08 엘지전자 주식회사 영상표시장치 및 그것의 제어 방법
KR101878144B1 (ko) * 2013-11-06 2018-07-13 엘지전자 주식회사 헤드 마운트 디스플레이를 위한 사용자 인터페이스 제공 장치 및 방법
CN105765490B (zh) * 2014-01-03 2020-03-10 英特尔公司 用于用户界面控制的系统和技术
US9761049B2 (en) * 2014-03-28 2017-09-12 Intel Corporation Determination of mobile display position and orientation using micropower impulse radar
GB2539182A (en) * 2015-06-02 2016-12-14 Vision Augmented Reality Ltd Dynamic augmented reality system
US9739012B1 (en) 2016-02-22 2017-08-22 Honeywell Limited Augmented reality of paper sheet with quality measurement information
CN107024677B (zh) * 2016-11-15 2021-07-27 上海乐相科技有限公司 一种虚拟现实定位系统
US10796487B2 (en) * 2017-09-27 2020-10-06 Fisher-Rosemount Systems, Inc. 3D mapping of a process control environment
DE102018105917A1 (de) 2018-03-14 2019-09-19 tooz technologies GmbH Verfahren zur benutzerindividuellen Kalibrierung einer auf den Kopf eines Benutzers aufsetzbaren Anzeigevorrichtung für eine augmentierte Darstellung
CN110555358B (zh) * 2018-06-01 2023-09-12 苹果公司 用于检测和识别ar/vr场景中的特征部的方法和设备
US10565961B1 (en) * 2018-07-25 2020-02-18 Honeywell International Inc. Dynamic contrast equalization for see through displays in varying light conditions
US11244164B2 (en) 2020-02-03 2022-02-08 Honeywell International Inc. Augmentation of unmanned-vehicle line-of-sight

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01245180A (ja) * 1988-03-28 1989-09-29 Takenaka Komuten Co Ltd 距離測定装置
US5988862A (en) * 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US6625299B1 (en) 1998-04-08 2003-09-23 Jeffrey Meisner Augmented reality technology
JP2001356875A (ja) * 2000-06-13 2001-12-26 Toshiba Corp ポインタ表示システム
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US6753828B2 (en) * 2000-09-25 2004-06-22 Siemens Corporated Research, Inc. System and method for calibrating a stereo optical see-through head-mounted display system for augmented reality
GB2377147A (en) 2001-06-27 2002-12-31 Nokia Corp A virtual reality user interface
JP3920067B2 (ja) 2001-10-09 2007-05-30 株式会社イーアイティー 座標入力装置
JP2004287699A (ja) * 2003-03-20 2004-10-14 Tama Tlo Kk 画像合成装置及びその合成方法
US7369101B2 (en) * 2003-06-12 2008-05-06 Siemens Medical Solutions Usa, Inc. Calibrating real and virtual views
JP3864150B2 (ja) * 2003-06-18 2006-12-27 オリンパス株式会社 情報呈示装置及び情報呈示方法
JP4135934B2 (ja) * 2004-03-30 2008-08-20 株式会社ナック映像センター 電子機器
EP1741059B1 (de) 2004-04-26 2013-10-02 Siemens Aktiengesellschaft Verfahren zur bestimmung einer position eines markers in einem augmented-reality-system
DE602005013752D1 (de) 2005-05-03 2009-05-20 Seac02 S R L Augmented-Reality-System mit Identifizierung der realen Markierung des Objekts
JP4834424B2 (ja) * 2006-03-03 2011-12-14 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP4777182B2 (ja) * 2006-08-01 2011-09-21 キヤノン株式会社 複合現実感提示装置及びその制御方法、プログラム
JP2008058264A (ja) * 2006-09-04 2008-03-13 Kobe Univ 実河川を対象とした流速観測装置、流速観測方法,および流速観測プログラム
US20080266323A1 (en) 2007-04-25 2008-10-30 Board Of Trustees Of Michigan State University Augmented reality user interaction system

Also Published As

Publication number Publication date
GB2465280A (en) 2010-05-19
US20100125812A1 (en) 2010-05-20
GB2465280B (en) 2011-03-16
US8397181B2 (en) 2013-03-12
IL202185A0 (en) 2010-06-16
GB0919884D0 (en) 2009-12-30
JP2010123121A (ja) 2010-06-03

Similar Documents

Publication Publication Date Title
JP5443134B2 (ja) シースルー・ディスプレイに現実世界の対象物の位置をマークする方法及び装置
US10366511B2 (en) Method and system for image georegistration
US11796309B2 (en) Information processing apparatus, information processing method, and recording medium
JP6763448B2 (ja) 視覚強化ナビゲーション
CN107402000B (zh) 用于将显示装置相对于测量仪器相互关联的方法和系统
AU2015265416B2 (en) Method and system for image georegistration
JP6586834B2 (ja) 作業支援方法、作業支援プログラム、及び作業支援システム
WO2018032457A1 (en) Systems and methods for augmented stereoscopic display
WO2019037489A1 (zh) 地图显示方法、装置、存储介质及终端
WO2017126172A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
US10948994B2 (en) Gesture control method for wearable system and wearable system
CN110895676B (zh) 动态对象跟踪
WO2018134897A1 (ja) 位置姿勢検出装置、ar表示装置、位置姿勢検出方法およびar表示方法
CN112525185B (zh) 基于定位的ar导览方法及ar头戴式显示装置
JP5086824B2 (ja) 追尾装置及び追尾方法
US11875080B2 (en) Object sharing method and apparatus
KR101455236B1 (ko) 이동형 증강현실 제공 장치 및 그 방법
EP3903285B1 (en) Methods and systems for camera 3d pose determination
US20220166917A1 (en) Information processing apparatus, information processing method, and program
CN112416124A (zh) 舞蹈姿势反馈方法及装置
CN214122904U (zh) 舞蹈姿势反馈装置
CN116974497A (zh) 增强现实显示方法、装置、设备及存储介质
CN117017523A (zh) 一种医疗辅助视频系统及方法
IL265171A (en) Methods and systems for determining camera 3D positioning

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131219

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees