JP4663077B2 - オブジェクト検証方法及び拡張現実感ディスプレイシステム - Google Patents
オブジェクト検証方法及び拡張現実感ディスプレイシステム Download PDFInfo
- Publication number
- JP4663077B2 JP4663077B2 JP2000253690A JP2000253690A JP4663077B2 JP 4663077 B2 JP4663077 B2 JP 4663077B2 JP 2000253690 A JP2000253690 A JP 2000253690A JP 2000253690 A JP2000253690 A JP 2000253690A JP 4663077 B2 JP4663077 B2 JP 4663077B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- view plane
- paper
- user
- page
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Closed-Circuit Television Systems (AREA)
- Processing Or Creating Images (AREA)
Description
【発明の属する技術分野】
本発明は、一般的には、表示される文書を実際にプリントせずに、電子文書のプリントされたバージョンを保持するような錯覚を与えるために、画像及び/又はテキストの仮想表示を用いて、ページなどの現実世界のアイテムを見て対話的に操作するための方法及び装置に関する。拡張現実感(augmented-reality)では、めがね、ゴーグル、又はヘルメットに装着したディスプレイといったある形態の物理的ディスプレイを用いて、コンピュータ生成画像をユーザの現実世界のビュー(view)に投影したり重ね合わせる。このシステムは、ビューアの画像をリアルタイムで解析し、実際のビューと対応するようにコンピュータ生成画像を調整する。そのような対話的操作は、紙などの実在するアイテムの感触及び機能(紙を持つ、紙に書く)を、電子文書の機能(動的、対話式の)と組み合わせる。しかしながら、本発明は、例えば、文書を表示する以外の他の目的で、類似の画像形成方法が他の現実のアイテムと好適に関連づけられているような、他の環境での使用に、容易に適応可能であることは、当業者には理解されるであろう。
【0002】
【従来の技術】
PCワークステーションの遍在的な使用とワールドワイドウェブの能力により、電子文書の使用並びにハイパーリンク及びビデオなどの動的な要素が含まれるようになってきた。これらの電子文書は、用紙プリントの静的要件に適合しないことが多い。しかし、人々は依然として、長い文書を読むには紙の方を好むとともに、紙は容易に注釈づけでき、持ち運べる。静的な紙とCRTやLCDディスプレイの動的な能力との望ましい特性を組みあわせた表示機構が必要である。その目標に向けた研究としては、持ち運びのできる文書読取り装置(Portable Document Reader)及び電子用紙(Electric Paper)に関する研究が挙げられる。本発明は、それとは別の、拡張現実感の概念に基づく手法に関する。
【0003】
拡張現実感では、ビデオカメラを用いて、コンピュータにユーザが見ているのと同じビューを提供でき、そのビューにコンピュータ生成画像が重ねられる。これは、完全合成のコンピュータ生成環境にユーザが没入する仮想現実感ではない。むしろ、拡張現実感とは、現実世界の日常的なオブジェクトに、合成されたコンピュータ生成画像を重ねる、といった組み合わせである。
【0004】
拡張現実感表示システムは公知であるが、その用途及び有用性は限られていた。特に、ビデオカメラによって識別される現実の部分は、主に単一設定の固定されたビューに限られていた。この設定は予め決められており、表示可能なものやカメラの画像から識別可能なものに極めて限られている。更に、この制御された設定に表示できるものも、通常は単一画像だけというに限定されており、望ましくない。ディスプレイとの対話は本質的に知られていない。
【0005】
人々が、従来の紙の出版の代わりとして電子マルチメディア出版にますます慣れてくるにつれて、電子ディスプレイを見ることに関して快適かつ便利で容易に制御可能な、ユーザ環境において表示画像の自由度、多様性及び品質を高めるために、より一層便利で改良された対話式制御が実質的に必要となる。電子出版用の公知のアプリケーションプログラムは、拡張現実感表示システムとの互換性がない。そのようなプログラムでは、ユーザによる命令用の、マウス、キーボード又は押ボタン表示を含む命令処理が、通常使われる。上記のように考えた場合、改良された対話式表示スキーム用に、拡張現実感の設定における便利なユーザのコマンド、即ち、用紙の操作、手及び指のジェスチャ、又は選択された音声コマンドを、リアルタイム処理設定で、認識して変換できるアプリケーションプログラムが特に必要である。
【0006】
拡張現実感ディスプレイシステムに関して解決を要するもうひとつの特別な問題は、画像のビュー平面(view plane)内の特定の予め選択されたオブジェクトを認識するための信頼できるシステムである。例えば、ユーザが、拡張(現実感)ディスプレイの基準面として1枚の用紙を用いることを意図する場合、画像内のその用紙と共通する特徴を有する他のオブジェクトから、その用紙を区別することは、或一つの問題となる。ビュー平面を制御して、1枚の用紙の背後に識別可能な背景を与えることができれば、識別問題は簡単にできる。しかし、机上や作業面でよくあるように、背景が異なるアイテム、即ちデスクパッド、封筒、ファイルフォルダー、コーヒーカップ、或いはユーザのシャツの袖口までもが集まったものである場合、その全てが直線的なエッジ及びコーナーを有するものとしてビュー平面に出現し得るものであり、特定の用紙を識別する現実世界の事柄は容易に理解できる。より具体的に言えば、この問題は、ビュー平面内で見られる用紙のページと共通する二次元の特徴を有する画像を、対応する三次元オブジェクトに変換し、そのオブジェクトが1枚の用紙と適度に一致するか否かを検証することにある。
【0007】
【発明が解決しようとする課題】
本発明は、現実の画像がユーザがアクセスできる1枚の用紙か複数枚の用紙であるように、特定のアプリケーションで、合成画像と現実の画像とを、テキスト及び画像を有する文書ディスプレイへと統合することを意図するものである。ユーザは、複数の用紙を用いて拡張された電子文書を、それらの用紙の選択的な配置及び移動という自然なメカニズムによって編成するように、操作できる。ユーザの目に対する用紙の位置によって画像の拡大縮小が制御されるので、ユーザはCRT又はLCDディスプレイの限られた画面空間に制限されず、1枚の用紙から別の用紙へと頭を動かすだけで、多くの文書を使用できる(マルチウィンドウ電子ディスプレイに類似)。異なる文書又は画像間の移動は、表示されたハイパーリンクのアクセスによって容易に実現される。そのようなシステムは、様々な寸法及び特徴の現実の基準をもつ複数の使用に対して容易に適応可能であり、このシステムは、ユーザとユーザにとって快適で便利な選択的に多様な対話式操作ツールをもつコンピュータディスプレイシステムとの間によりすぐれた通信及び対話式機能を提供する。
【0008】
さらに、本発明は、標準用紙などの、ユーザによる基準ツールとしての使用を意図した予め選択されたオブジェクトの存在を検証することを意図している。その結果、基準ツールは、仕事設定においてはどこにでもある複数の現実世界のアイテムから容易に見分けられる。
【0009】
【課題を解決するための手段】
本発明に従い、拡張現実感タイプの表示用に、現実世界の基準アイテムに関連づけられる電子的に生成された画像及び/又はテキストを表示するための、方法及び装置を提供する。シンプルな空白の用紙などの現実のアイテム、即ち基準画面は、ユーザの視野及び制御の内に配置され、現実のアイテムの操作がユーザの命令と通信できるように意図される。このアイテムは、ディスプレイを制御するアプリケーションプログラムにある命令を通信する目的で、ユーザによって選択的に配置可能である。他の命令は、手やツールのジェスチャ、又は音声コマンドを介してアプリケーションプログラムによって取得(captured)できる。ビデオカメラのような感知装置は、現実のアイテムの存在及び配置を識別する。ヘッドセット、ゴーグル、又はめがねなどのディスプレイ装置は、画像を現実のアイテム上に重なる仮想(現実感)ディスプレイとして表示する。画像は、ユーザによるアイテムの選択的な配置に従って表示される。アイテムが1枚の用紙からなる場合は、用紙がユーザに向かって移動すると、効果的に表示が拡大される。
【0010】
本発明の別の態様に従い、表示システムのビュー平面内の投影画像が、システムのインタフェースツールとして用いることができる、用紙などの予め選択されたオブジェクトと対応するか否かを検証するための方法が提供される。この方法は、ディスプレイシステムの既知の特徴を用いて候補オブジェクトを三次元座標に非投影(unprojecting)することを含む。次に、この三次元バージョンは、直角のコーナー、適切な位置関係、及び平面的な構造などといった予測されるオブジェクト特性を検証するためにテストされる。この方法は、まず、ビュー平面内の候補オブジェクトの代表的な特徴(例えば直角をなすコーナー等)を特定することを含む。次に、コーナーと対角線上の中心点との間の長さ及び対角線等のオブジェクトの寸法的なアスペクトが、投影された画像から決定される。次に、そのオブジェクトについて、ビュー平面に対する、対応する三次元的同一性及び位置が計算される。次に、寸法的同一性及び位置が現実の用紙と適切に一致するか否かを検証するために、得られた座標が、標準用紙寸法のような所定の基準と比較される。
【0011】
本発明の第1の態様は、拡張現実感ディスプレイシステムのビュー平面内に投影された画像を、システムのインタフェースツールとして用いることができる予め選択されたオブジェクトとして検証する方法であって、ビュー平面内のオブジェクトの代表的な特徴を識別するステップ(22)と、投影された画像からオブジェクトの寸法的なアスペクトを決定するステップ(28)と、ビュー平面に対するオブジェクト点で、対応するオブジェクトの寸法的同一性及び位置を計算するステップ(28)と、寸法的同一性及び位置がオブジェクトに対する所定の基準と適切に一致するか否かを検証するステップ(24)と、を有する、オブジェクト検証方法である。
本発明の第2の態様は、第1の態様において、前記予め選択されたオブジェクトが、スクリーン、タブレット、又は用紙(8)等の基準パネルからなり、前記識別ステップがパネルのコーナーの認識(42)を含む。
本発明の第3の態様は、システム画像内の所定の基準フレーム(8)の存在を検証するための拡張現実感ディスプレイシステムであって、システムのビュー平面内に配置された現実のアイテム(8)と、ビュー平面から、所定の基準フレームと関連づけられた現実のアイテムの特徴を識別するための感知装置(22)と、ビュー平面内の現実のアイテムの寸法を決定し、ビュー平面に対する現実のアイテムの対応する寸法的同一性及び位置を計算し、前記寸法的同一性及び位置が所定の基準フレームと対応するか否かを検証するコントローラ(18)と、を有する、拡張現実感ディスプレイシステムである。
【0012】
【発明の実施の形態】
次に、図面を参照する。図面は、本発明の好ましい実施の形態及び代替の実施の形態を説明することのみを目的とし、本発明を限定することは目的としない。
図面は、ユーザが画像自体を対話的に操作することで画像を調整可能にした、拡張現実感ディスプレイシステムを示す。
【0013】
図1を参照すると、拡張画像は、めがね又はゴーグル10のセットを通して、又は、めがね又はゴーグル10のセットの中でユーザに知覚される。このめがね又はゴーグル10は任意のタイプのヘッドセットからなることを意図し、それを通して又はその中に、装着者に対する電子画像を表示することができる。ビデオカメラ12のような感知装置は、ヘッドセット10のユーザの通常の視野を取得(capture)する。従って、ユーザに、自分が知覚している画像がヘッドセット10を装着していないときに見る画像と実質的に同様なものであるという快適な印象を与える方法でヘッドセットに好ましく取り付けられるように、十分に小さくなくてはならない。ヘッド・マウント(頭に装着する)型のディスプレイは市販のものが多数ある。その幾つかは、現実世界を完全に遮断する、完全没頭タイプである。 “ヘッド・アップ(heads-up)”ディスプレイとして知られる他のタイプは、現実世界のビューに電子ディスプレイを重ねるものである。どちらのタイプのディスプレイシステムも本発明の範囲内にるが、重要なのは、ユーザが保持し操作している視野内で、現実の基準アイテム即ち1枚の用紙との快適で使い易い対話式操作が行えるように、合成画像が表示されるように、カメラ12がコンピュータ18にユーザが見ているのと同じビューを与えることである。
【0014】
ビデオ取得ハードウェア(video capture hardware)14は、カメラ12からのアナログ信号を、詳細を後述する解析のためのコンピュータ18に格納可能なデジタル化フレームに変換できる回路を有する。本質的には、ハードウェア14は、ユーザがカメラの視野から見ているもののデジタル化されて処理可能な表現としての信号を、コンピュータに出力する。ビデオ生成ハードウェア16は、コンピュータ18から画素値のビットマップをとり出し、それをヘッドセット10に表示できるテレビジョン形式に変換する。拡張現実感表示としての合成画像を形成するためにコンピュータ生成電子画像を追加することにより、カメラ12が生成する信号はヘッドセット10に表示される信号とは異なっている。
【0015】
図2を参照すると、このハードウェアのある種のソフトウェア機能が示されている。コンピュータ18は、取得されたビデオフレームを解釈して、カメラビュー内の用紙の位置を割り出さなくてはならない。本願は、カメラが感知する現実アイテムとして紙を好ましい例として開示するが、例えば、合成画像が、デザイン又は動作テストプログラムによって生成することができるような動くイラストレーション又は三次元オブジェクトからなる場合、スクリーンや基準テンプレートなどの別の便利な基準アイテム等を用いることも本発明の範囲内である。
【0016】
図2は、コンピュータ18の解析及び画像作成処理に関係する機能を詳細に示す。この取得情報処理の全体的な目的は、カメラのビュー内の用紙の位置を割り出すためにビデオフレームを解釈することである。更に、コンピュータ生成画像がヘッド・マウント・ディスプレイ10内に表示される際、ユーザが見ている用紙に重なるように、画像が変換され変形される。ページ位置解析モジュール22がデジタル化された取得ビデオフレーム20を解析して、カメラ12のビュー内の1枚又は複数の用紙の位置を割り出す。1枚の用紙は、暗い背景に対する用紙の白い色によって識別される。取得されたビデオ画像内のページの存在を確認するために、解析器22は画像内のサンプル画素を調べて、少しでも白があるかどうかを確認することができる。白い画素(ページの存在を示す)を検出したら、周知のエッジ検出技術を用いてページの位置を決定できる。例えば、既知の白い画素から開始して(上下左右の)画素に進み、ページのエッジを示す白ではない値を検出するまで、各画素を連続して調べることができる。ページのコーナーの位置を検出する別の手法は、2つのエッジ点を検出するまで、両辺に対して斜めの方向にページ内の白い点を追って行くことである。
【0017】
図5では、エッジ点間を結ぶ線の中点が、原対角線(original diagonal)に垂直なサーチの始点として用いられていることに注意されたい。この最新のサーチによって検出されるエッジ点を、コーナー50に到達して2つのエッジ点が重なるまでの処理を繰り返すための開始点として用いる。この手法は、用紙の真直ぐなエッジが(ページを持つ手によって等)部分的に隠されている場合に用いることができる。前者の手法はコーナーが隠されている場合に用いることができる。前述したエッジ検出技術は共に、当該技術において周知である。アプリケーションプログラムモジュールは、ユーザがCRT又はLCD上で電子画像として選択できるあらゆる画像を生成する。従って、アプリケーション画像26は、画面上にウィンドウを開くことに相当する。例えば、ユーザは、アプリケーション画像26として、位置を割り出された用紙の向きに基き、特定のインターネットブラウザエンジンを選択でき、このインターネットブラウザエンジンは、ユーザが保持している空白の用紙上にウェブページが実際に出現しているという錯覚を表示画像30が与えるように、検出された用紙の向きと正確にマッチするように変換される(28)。言い換えれば、用紙ページの位置(例えばそのコーナーの位置)が決定されると、この情報を用いて、アプリケーションの画像を、ユーザの目に映る用紙と重なるように正確に変形できる。これは、コンピュータグラフィックスで周知の、投影画像へのテキスチュア(アプリケーション画像)マッピングの問題である。平行移動、回転、スケーリング操作、及び遠近操作を標準的な画像処理を用いる画像に適用できる。又は、処理速度を向上するために、特殊なテキスチュアルマッピングハードウェアを用いてもよい。ユーザに画像表示をできるだけ本物に見えるように、情報解析及び画像の作成は本質的にリアルタイムで遂行される必要がある。
【0018】
特に図3を参照すると、典型的なユーザアプリケーションの対話的操作を高めるもうひとつのシステムアーキテクチャが示されている。特に、図2のページ位置解析モジュールは、情報解析モジュール32及び事象処理モジュール34を含むように拡張されている。
【0019】
図4の動作フロー図を参照すると、ユーザがアプリケーション画像を画像及び音声の両方で通信及び操作できるように、情報取得モジュール20は、ビデオ画像取得42に対して強張されているだけでなく、音声コマンド44に対しても強張されている。
【0020】
それに対応して、情報解析モジュールは、音声認識46及び画像解析に対して強張されている。ページ位置割出し処理48は、例えば、ページの最近の既知の位置及び向きを与えることができ、また、現在フレームに対するページ位置を予測することができるページのモデル52を参照することができる。ジェスチャ検出モジュール54は、コンピュータ18へのユーザコマンドとして選択され、識別可能な手、指、又はツールによるジェスチャを識別する。例えば、ここでも画像がインターネットブラウザであると仮定し、操作をマウスポインタ及びボタン押圧で対話が生じるスクリーンと類比させると、ユーザの指は、マウスポインタと丁度同じ機能を実現することができ、「選択」などのコマンドの音声認識は、ボタン押圧の機能を実現する。従って、あるジェスチャと音声の組み合わせにより、ユーザは別のウェブサイトへのハイパーリンクを実行できる。更に、現在のページのモデル52も、ジェスチャ検出モジュールに有用な情報を供給してもよく、例えば、ポインティングのジェスチャを、ページ上の位置にとして表すことができる。ページ識別56には、適合する可能性のあるページのデータベースが必要なこともある。適合する可能性のあるページのデータベース58からの参照ページを比較することが必要なこともある。データベース58からの参照ページを現在のページ識別56と比較することで、ページに注釈が付加されたかどうかを検出する(60)方法も提供できる。もちろん、入力取得(input capture)、解析及びサポート情報を追加することが可能である。例示されるモジュールは、1つの特定のシステムアーキテクチャを説明するものである。情報解析モジュール32の出力は、ページ位置の変更などの事象や新しいページ位置などの事象に関連する情報である。ジェスチャの変化、ページの識別、又はコマンドの入力などの他の事象も、事象の例である。これらの事象及び関連データは、事象処理モジュール34に送られる。事象処理モジュール34のジョブは、情報解析モジュール32からの事象及びデータを、アプリケーションに適した事象に変換することと、表示画像の構築に必要な解析データを供給することである。ほとんどのアプリケーションプログラム24は、一般に、インタフェース機構としてキーボード及びマウスを想定して設計されている。本発明の拡張現実感システムでは、これらの装置の代わりに、ジェスチャ、用紙の動き及び音声コマンドが使われる。事象処理モジュールは、ジェスチャ、動き及びコマンドを、対応するキーボード及びマウス事象又アプリケーションプログラムが理解する事象のシーケンスに変換しなくてはならない。ウィンドウズ・システム(windows system)で実行されるアプリケーションについては、変換されたコマンドをウィンドウシステムによって生成することができるので、入力のためにアプリケーションを変更する必要がない。
【0021】
ウィンドウイング・システムは、仮想フレームバッファにおけるアプリケーション画像26の生成に備えることができる。この画像は実際には表示されないが、画像処理モジュール28による更なる処理に利用可能である。この手法は、アプリケーションプログラムモジュール24を変更せずにアプリケーションを実行できるようにする。例えば、単に水平方向にページをめくることは、テキスチュアル文書の次のページに進むジェスチャコマンドとして解釈できる。従って、このジェスチャは、アプリケーションプログラムがテキスチュアル文書表示の次ページアイコン上のボタン押圧から受け取るのと同じ信号に、変換されなければならない。同様に、ページを垂直方向にめくることは、文書をスクロールするコマンドとして解釈できる。従って、事象処理モジュール34は、本発明のシステムが多くの既存のアプリケーションプログラムを包含するための簡単な方法を提供する。
【0022】
画像作成モジュール28は2つの主要機能を有する。第1の機能は、アプリケーション画像をユーザが見ているページに適合する位置及び形状にワープ(warp)することである。第2の機能は、カメラ画像とワープされたアプリケーション画像とを組み合わせて(図4の72参照)、ユーザに対して表示される拡張画像を生成することである。適正なディスプレイ画像を供給するために、画像の作成はリアルタイムで起こる。このため、最小時間でワープ及びブレンド処理を遂行するために、画像の作成に専用ハードウェアを用いてもよい。
【0023】
このアーキテクチャを、複数のアプリケーションを支持するように一般化することができる。各アプリケーションは、その画像を独自の仮想フレームバッファに書き込み、各々が、ビュー領域(viewing area)内で識別される複数枚の用紙の個別のページに適合するようにワープされる。カメラ画像とブレンドして表示画像を形成するために、ワープされた画像を単一の重ね合わせ(overlay)として組み合わせることができる。
【0024】
特に図6を参照すると、ビュー平面内の候補オブジェクトから予め選択された基準アイテムが存在するかどうを検証するための方法及び装置が開示されている。予め選択されたオブジェクトは、拡張現実感表示システムにおいてユーザがインタフェースツールとして使用し得るアイテムを有するのが好ましく、基準パネル、スクリーン、又はタブレットのようなアイテムを有してもよいが、本明細書の以下の部分のために、普通サイズの用紙として説明される。本発明は、カメラのビュー平面上に受け取った取得画像内の標準用紙の存在を検証するための方法及び装置を提供する。この方法は、カメラ特性の知識を用いて、候補オブジェクトを三次元座標に非投影する(unproject)ことを含む。この三次元座標バージョンは、直角のコーナー、適切な位置、平面構造及び標準的な用紙寸法等といった標準用紙に合致する特徴的な性質について、テストできる。
【0025】
コーナー位置80は、図5を参照して開示される方法で実行され、全ての標準用紙にはコーナーがあるはずなので、ビュー平面内のコーナーは、最終的に標準用紙として検証可能な候補オブジェクトの代表的な特徴として効果的に識別される。
【0026】
取得画像(image captured)内のページの位置は、まず、その4つのコーナーの座標によって表される。しかし、システムをより強固にするためには、検出されたコーナーが、シーン内の例えばユーザのシャツの袖口などの他のオブジェクトに属しているのではなく、実際に用紙に属していることを検証する必要がある。検証テストの1つは、オブジェクトが、適切な目視距離から見える標準(例えばレターサイズ)用紙の予測されるサイズ及び形状を有するか否かの決定をすることである。しかし、オブジェクトの真のサイズ及び形状は未知であるため、本発明は、カメラのビュー平面へのオブジェクトの透視投影(perspective projection)を解析できるのみである。
【0027】
非投影モジュール82は、先に述べた(antecedent)投影を行うために次のモデルの形をとる(assume):すなわち取得された画像は、視点からのある目視距離dに位置する二次元のビュー平面上に描かれたのと同じに見える。この視点は、画像を受け取るユーザの目又はカメラの目の位置であり、ビュー平面は、カメラのフレームバッファ内の平面画像の位置である。これら2点間の距離dは、システムの既知の定数である。(この解析方法における構成要素の寸法を図で定義する図7参照。)オブジェクト上の点に対応するビュー平面内の点の位置は、ビュー平面とオブジェクト点から視点を結ぶ線(線86を参照)との交点である。言い換えれば、「非投影」というのは、三次元オブジェクトが二次元ビュー平面に投影される場合に、三次元オブジェクトによって二次元画像が生じることを意味する。明らかに、この投影ステップで、幾つかのデータが必然的に失われる。更に、遠近法(perspective)では、画像は通常、多少なりともワープされている。非投影ステップは、二次元画像を取得するステップと、三次元オブジェクトが何であるべきかを決定するステップ(即ち、オブジェクトの実体及びその位置に関連づけられた2次元の画像)から成る数学的計算を含むものである。本発明は、カメラシステム及びビュー平面(viewing plane)に関する既知の寸法を、仮定した用紙の特徴と組み合わせて用いて、非投影処理を完了(完成)する。
【0028】
図7のモデルを用いると、オブジェクト点の高さyと投影点の高さypとの関係は、
y=yp(z+d)/d、
又は、y=B(z+d)(但し、B=yp/d)
で表わされる。
【0029】
同様に、オブジェクトの水平位置xとその投影位置xpとの関係は、
x=A(z+d)(但し、A=xp/d)
で表わされる。
【0030】
用紙については、対角線の中心点及び2つのコーナーは等間隔であると仮定できる。既知のシステム定数及び検出されたオブジェクトのビュー平面内における寸法を考慮すれば、この仮定は空間内のオブジェクトの座標の計算に十分な情報を与える。
【0031】
オブジェクト上の直線に沿った等間隔の点1、2及び3(図8(A)参照)の3点において、点1と点3との間の距離をDとすると、ユークリッド距離を表わす式によって、
D2=(x1-x3) 2+(y1-y3) 2+(z1-z3) 2
を得る。
【0032】
点2は点1と点3との中間点なので、
x2=(x1+x3)/2、y2=(y1+y3)/2、z2=(z1+z3)/2
となり、これらの点は直線上にあるので、
x1-x2=z2-x3及びy1-y2=y2-y3
が成り立ち、その結果、
A1(z1+d)-A2((z1+z3)/2+d)=A2((z1+z3)/2+d)-A3(z3+d)及び
B1(z1+d)-B2((z1+z3)/2+d)=B2((z1+z3)/2+d)-B3(z3+d)
を得る。
【0033】
(z1+d)についてこれらの式を解くと、
(z1+d)=g(z3+d)
となり、ここで、g=(A3-A2)/(A2-A1)=(B3-B2)/(B2-B1)である。
【0034】
上記の距離式からz1+dを消去して、z3+dについて解くと、z3+d=D/(A3-gA1)2+(B3-gB1) 2+(1-g)2) 1/2
となる。
【0035】
上記により、オブジェクト点のz位置について解く式が与えられ、それらからx及びy座標が得られる。
【0036】
この方法を適用するために、等間隔に配置された3点は、オブジェクト(この場合は1枚の用紙)上の直線上にあり、更に、ページの2つの対角及びページの中心上、即ちページの対角線上にあると仮定する。これらの点を選んだ理由は、対角線の長さは既知であり、この長さはページの向きに依存しないからである。(この時、長いエッジか短いエッジかを知る必要はない。)中心点は、対角線の交点として見つけることができる。透視投影は直線を保つので(図8(B)参照)、ページが遠近的に見られてもこの規則は成り立つ。
【0037】
ページの中心は次式で与えられる。
【数1】
【0038】
非投影法は、各対角線について1回ずつ2回適用される。つまり、1回目は点1、2及び3を用いて、2回目は点4、2及び5を用いる。このようにして、4つのコーナーの点の全ての三次元座標を見つけることができる。
【0039】
一旦、非投影オブジェクト座標が決定されれば、それが用紙であることを検証するための多くのテストが可能になる。複数の辺の長さを調べて、それらがある誤差の範囲内で予測される用紙の寸法に一致したかを確認できる。また、その結果、それらが予測される比率を有することを検証できる。
【数2】
【0040】
全てのコーナーが直角であることがチェックできる。これは、辺に沿ったベクトルの点乗積(dot product)が0であることをチェックすることで行える。実際の点乗積はある誤差の範囲内にあるべきである。
【数3】
【0041】
2つの個別の非投影から計算された中心点が(ある誤差の範囲内で)一致していることが確認できる。
z1+z3=z4+z5
【0042】
4つの非投影されたコーナーが、ある誤差の範囲内で同一平面上にあるかどうかが確認できる。
【数4】
【0043】
また、ページが以下に示すような予測されるビューイング(vewing)範囲内にあることが確認できる。
zi>zmin zi<zmax
ここで、i=1, 3, 4, 5であり、zmin及びzmaxはそれぞれ最小及び最大の許容可能なページビューイング距離(viewing distance)を示す。
【0044】
誤差の値は、画像取得装置の精度及び解像度、並びに特定のアプリケーションに依存する。例えば、ビュー内にページ以外の物が何もなさそうな場合、誤差は比較的大きくてもよい。誤差は経験に基いて設定されてよい。
【0045】
本発明は、三次元世界の座標が、取得された二次元画像の座標と同じ単位で計算される方法について記述するものである。通常では、画素のような画像座標が付与され、インチなどのワールド座標(world coordinates)が好ましいことがある。このため、特定のシステムについては、目視距離dのような特性とともに、経験的に決定できる簡単なスケール変換ファクター(scaling factor)の適用が必要となる。
【図面の簡単な説明】
【図1】本発明の基本的な構成要素の単純化したブロック図である。
【図2】本発明を実施するための操作モジュールのブロック図である。
【図3】本発明の他の実施の形態による操作モジュールのブロック図である。
【図4】図3のあるモジュールを拡張付加した操作フロー図である。
【図5】カメラのビュー領域(viewing area)内の用紙を識別するための1つのスキームを示す模式図である。
【図6】ビューフレーム(view frame)内の標準用紙などの予め選択されたオブジェクトの存在を検証するためのシステムの操作モジュールを示すブロック図である。
【図7】図6のシステムの計算ステップを示す幾何学的な図である。
【図8】(A)及び(B)は、図6のシステムのための方法ステップを説明するのを更に補うための幾何学的な図である。
【符号の説明】
8 用紙
10 ヘッドセット(めがね・ゴーグル)
12 ヘッドマウント型カメラ
14 ビデオ取得ハードウェア(video capture hardware)
16 ビデオ生成ハードウェア
18 コンピュータ(コントローラ)
Claims (1)
- 撮像手段が所定領域を撮像して得た画像データに基づいて拡張現実感ディスプレイシステムのビュー平面内に投影された画像に、システムのインタフェースツールとして用いることができる予め選択されたオブジェクトが存在するか否かを検証する方法であって、
前記ビュー平面に投影された画像内に存在すると予想される前記オブジェクトの候補である候補オブジェクトの予め定められた複数の特徴点の前記画像上の位置を識別するステップ(22)と、
前記撮像手段の前記撮像の基準となる位置を、前記ビュー平面を見る者の視点に位置させ、該視点の位置と前記識別された前記候補オブジェクトの前記複数の特徴点の前記位置とに基づいて、前記候補オブジェクトの前記所定領域内の現実の位置を計算するステップ(28)と、
前記計算された前記候補オブジェクトの前記所定領域内の現実の位置と、前記候補オブジェクトが前記オブジェクトであれば前記候補オブジェクトの前記計算された現実の位置が満たすべき予め定められた幾何学的条件と、に基づいて、前記候補オブジェクトが前記オブジェクトか否かを検証するステップ(24)と、
を有し、
前記投影された投影画像を別の投影画像に変更するコマンドに対応して、前記ビュー平面を見る者の手または指の動きと音声とが予め定められ、
音声検出手段が、前記ビュー平面を見る者の音声を検出するステップと、
前記撮像手段により撮像して得られた画像データと前記音声検出手段により検出された音声とに基づいて、前記ビュー平面を見る者の手または指の動きと音声とが前記コマンドに対応して予め定められた前記動きと前記音声とであるか否かを判断するステップと、
前記ビュー平面を見る者の手または指の動きと音声とが前記コマンドに対応して予め定められた前記動きと前記音声とであると判断された場合、前記投影された投影画像を別の投影画像に変更するステップと、
を更に備えたオブジェクト検証方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/400,755 US6898307B1 (en) | 1999-09-22 | 1999-09-22 | Object identification method and system for an augmented-reality display |
US400755 | 1999-09-22 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001142604A JP2001142604A (ja) | 2001-05-25 |
JP4663077B2 true JP4663077B2 (ja) | 2011-03-30 |
Family
ID=23584874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000253690A Expired - Fee Related JP4663077B2 (ja) | 1999-09-22 | 2000-08-24 | オブジェクト検証方法及び拡張現実感ディスプレイシステム |
Country Status (2)
Country | Link |
---|---|
US (1) | US6898307B1 (ja) |
JP (1) | JP4663077B2 (ja) |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020094189A1 (en) * | 2000-07-26 | 2002-07-18 | Nassir Navab | Method and system for E-commerce video editing |
US20040001074A1 (en) * | 2002-05-29 | 2004-01-01 | Hideki Oyaizu | Image display apparatus and method, transmitting apparatus and method, image display system, recording medium, and program |
US20050219695A1 (en) * | 2004-04-05 | 2005-10-06 | Vesely Michael A | Horizontal perspective display |
US7796134B2 (en) | 2004-06-01 | 2010-09-14 | Infinite Z, Inc. | Multi-plane horizontal perspective display |
WO2006112896A2 (en) * | 2004-11-30 | 2006-10-26 | Vesely Michael A | Horizontal perspective representation |
JP4726194B2 (ja) * | 2005-04-01 | 2011-07-20 | キヤノン株式会社 | キャリブレーション方法及び装置 |
US20060250390A1 (en) * | 2005-04-04 | 2006-11-09 | Vesely Michael A | Horizontal perspective display |
US20060252979A1 (en) * | 2005-05-09 | 2006-11-09 | Vesely Michael A | Biofeedback eyewear system |
US8717423B2 (en) | 2005-05-09 | 2014-05-06 | Zspace, Inc. | Modifying perspective of stereoscopic images based on changes in user viewpoint |
WO2006121957A2 (en) | 2005-05-09 | 2006-11-16 | Michael Vesely | Three dimensional horizontal perspective workstation |
US7875132B2 (en) * | 2005-05-31 | 2011-01-25 | United Technologies Corporation | High temperature aluminum alloys |
US11632498B1 (en) * | 2005-06-03 | 2023-04-18 | Craig P. Mowry | Multi-dimensional imaging system and method |
US20070040905A1 (en) * | 2005-08-18 | 2007-02-22 | Vesely Michael A | Stereoscopic display using polarized eyewear |
US20070043466A1 (en) * | 2005-08-18 | 2007-02-22 | Vesely Michael A | Stereoscopic display using polarized eyewear |
WO2007030947A1 (en) * | 2005-09-16 | 2007-03-22 | Anthony Szturm | Mapping motion sensors to standard input devices |
US7509588B2 (en) | 2005-12-30 | 2009-03-24 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
US7864163B2 (en) | 2006-09-06 | 2011-01-04 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
US10313505B2 (en) | 2006-09-06 | 2019-06-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface for configuring and displaying widgets |
US8842074B2 (en) * | 2006-09-06 | 2014-09-23 | Apple Inc. | Portable electronic device performing similar operations for different gestures |
US7956849B2 (en) | 2006-09-06 | 2011-06-07 | Apple Inc. | Video manager for portable multifunction device |
US8519964B2 (en) | 2007-01-07 | 2013-08-27 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
US9772751B2 (en) | 2007-06-29 | 2017-09-26 | Apple Inc. | Using gestures to slide between user interfaces |
US9619143B2 (en) | 2008-01-06 | 2017-04-11 | Apple Inc. | Device, method, and graphical user interface for viewing application launch icons |
US11126321B2 (en) | 2007-09-04 | 2021-09-21 | Apple Inc. | Application menu user interface |
US8619038B2 (en) | 2007-09-04 | 2013-12-31 | Apple Inc. | Editing interface |
US8624962B2 (en) | 2009-02-02 | 2014-01-07 | Ydreams—Informatica, S.A. Ydreams | Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images |
JP2010217719A (ja) * | 2009-03-18 | 2010-09-30 | Ricoh Co Ltd | 装着型表示装置、その制御方法及びプログラム |
US8717360B2 (en) | 2010-01-29 | 2014-05-06 | Zspace, Inc. | Presenting a view within a three dimensional scene |
US9213410B2 (en) | 2010-03-26 | 2015-12-15 | Hewlett-Packard Development Company L.P. | Associated file |
US20110310227A1 (en) * | 2010-06-17 | 2011-12-22 | Qualcomm Incorporated | Mobile device based content mapping for augmented reality environment |
KR20110137607A (ko) * | 2010-06-17 | 2011-12-23 | 삼성전자주식회사 | 디스플레이 장치 및 그 3d 영상 인식 진단 방법 |
KR101429250B1 (ko) * | 2010-08-20 | 2014-09-25 | 주식회사 팬택 | 단계별 객체 정보 제공이 가능한 단말 장치 및 방법 |
JP5769392B2 (ja) * | 2010-08-26 | 2015-08-26 | キヤノン株式会社 | 情報処理装置およびその方法 |
US9292973B2 (en) | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
US9846688B1 (en) | 2010-12-28 | 2017-12-19 | Amazon Technologies, Inc. | Book version mapping |
US9069767B1 (en) | 2010-12-28 | 2015-06-30 | Amazon Technologies, Inc. | Aligning content items to identify differences |
US8798366B1 (en) | 2010-12-28 | 2014-08-05 | Amazon Technologies, Inc. | Electronic book pagination |
US9881009B1 (en) | 2011-03-15 | 2018-01-30 | Amazon Technologies, Inc. | Identifying book title sets |
US8738754B2 (en) * | 2011-04-07 | 2014-05-27 | International Business Machines Corporation | Systems and methods for managing computing systems utilizing augmented reality |
US8786529B1 (en) | 2011-05-18 | 2014-07-22 | Zspace, Inc. | Liquid crystal variable drive voltage |
US9323325B2 (en) | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
EP3435250A1 (en) | 2017-07-27 | 2019-01-30 | Vestel Elektronik Sanayi ve Ticaret A.S. | Method, apparatus and computer program for overlaying a web page on a 3d object |
US11475636B2 (en) * | 2017-10-31 | 2022-10-18 | Vmware, Inc. | Augmented reality and virtual reality engine for virtual desktop infrastucture |
US10621768B2 (en) | 2018-01-09 | 2020-04-14 | Vmware, Inc. | Augmented reality and virtual reality engine at the object level for virtual desktop infrastucture |
EP3948747A4 (en) * | 2019-04-03 | 2022-07-20 | Magic Leap, Inc. | MANAGEMENT AND DISPLAY OF WEB PAGES IN A VIRTUAL THREE-DIMENSIONAL SPACE USING A MIXED REALITY SYSTEM |
US11604612B1 (en) | 2021-09-21 | 2023-03-14 | Xerox Corporation | System and method for analyzing decurler settings using augmented reality |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07311857A (ja) * | 1994-05-16 | 1995-11-28 | Fujitsu Ltd | 画像合成表示装置およびシミュレーションシステム |
US6266057B1 (en) * | 1995-07-05 | 2001-07-24 | Hitachi, Ltd. | Information processing system |
US6064749A (en) * | 1996-08-02 | 2000-05-16 | Hirota; Gentaro | Hybrid tracking for augmented reality using both camera motion detection and landmark tracking |
US6317127B1 (en) * | 1996-10-16 | 2001-11-13 | Hughes Electronics Corporation | Multi-user real-time augmented reality system and method |
JP3114862B2 (ja) * | 1997-07-28 | 2000-12-04 | 日本電信電話株式会社 | 相互利用型景観ラベリングシステム |
US6278479B1 (en) * | 1998-02-24 | 2001-08-21 | Wilson, Hewitt & Associates, Inc. | Dual reality system |
US6408257B1 (en) * | 1999-08-31 | 2002-06-18 | Xerox Corporation | Augmented-reality display method and system |
-
1999
- 1999-09-22 US US09/400,755 patent/US6898307B1/en not_active Expired - Fee Related
-
2000
- 2000-08-24 JP JP2000253690A patent/JP4663077B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US6898307B1 (en) | 2005-05-24 |
JP2001142604A (ja) | 2001-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4663077B2 (ja) | オブジェクト検証方法及び拡張現実感ディスプレイシステム | |
US6408257B1 (en) | Augmented-reality display method and system | |
EP3316080B1 (en) | Virtual reality interaction method, apparatus and system | |
Kato et al. | Marker tracking and hmd calibration for a video-based augmented reality conferencing system | |
Fuhrmann et al. | Occlusion in collaborative augmented environments | |
US9619104B2 (en) | Interactive input system having a 3D input space | |
CN107992188B (zh) | 虚拟现实交互方法、装置与系统 | |
JP3834766B2 (ja) | マンマシーン・インターフェース・システム | |
Lee et al. | Occlusion based interaction methods for tangible augmented reality environments | |
US8274535B2 (en) | Video-based image control system | |
CN107615214A (zh) | 界面控制系统、界面控制装置、界面控制方法及程序 | |
US20040095311A1 (en) | Body-centric virtual interactive apparatus and method | |
US20010030668A1 (en) | Method and system for interacting with a display | |
EP2237134A1 (en) | Spatial input operation display apparatus | |
US7982751B2 (en) | Methods and systems for controlling a computer using a video image and for combining the video image with a computer desktop | |
CN102110379A (zh) | 多媒体增强现实读物 | |
CN108027656B (zh) | 输入设备、输入方法和程序 | |
US20190266405A1 (en) | Virtual reality interaction method, apparatus and system | |
US20090184943A1 (en) | Displaying Information Interactively | |
KR100971667B1 (ko) | 증강 책을 통한 실감 콘텐츠를 제공하는 방법 및 장치 | |
Robinson et al. | The LivePaper system: augmenting paper on an enhanced tabletop | |
KR102360172B1 (ko) | 사용자와 3d 객체 간 인터랙션을 제어하는 방법 및 장치 | |
WO2020190305A1 (en) | Scaling and rendering virtual hand | |
JP5533311B2 (ja) | 展示物用情報提示装置および提示方法 | |
JP2007179565A (ja) | 携帯機器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090915 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20091215 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20091218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101019 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101207 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110105 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140114 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |