JP2006313549A - 実マーカオブジェクトを識別する拡張現実システム - Google Patents

実マーカオブジェクトを識別する拡張現実システム Download PDF

Info

Publication number
JP2006313549A
JP2006313549A JP2006127301A JP2006127301A JP2006313549A JP 2006313549 A JP2006313549 A JP 2006313549A JP 2006127301 A JP2006127301 A JP 2006127301A JP 2006127301 A JP2006127301 A JP 2006127301A JP 2006313549 A JP2006313549 A JP 2006313549A
Authority
JP
Japan
Prior art keywords
image data
virtual
augmented reality
data
real environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006127301A
Other languages
English (en)
Other versions
JP4880350B2 (ja
Inventor
Andrea Carignano
カリグナノ アンドレア
Simona Martini
マルティーニ シモナ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seac02 Srl
Original Assignee
Seac02 Srl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seac02 Srl filed Critical Seac02 Srl
Publication of JP2006313549A publication Critical patent/JP2006313549A/ja
Application granted granted Critical
Publication of JP4880350B2 publication Critical patent/JP4880350B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/175Controlling the light source by remote control

Abstract

【課題】拡張現実システムとその方法に対して、仮想オブジェクトの追跡、および、仮想オブジェクトへの特定の実環境の挿入の際に、柔軟性を高め、“忠実性”(fidelity)を向上させる。
【解決手段】実環境から画像データを収集する手段と、前記画像データから仮想画像を生成する手段と、画像データに基づいて実環境の既定マーカオブジェクトを識別する手段と、前記既定マーカオブジェクトに対応する仮想画像の位置において、オブジェクト画像データに前記仮想画像データを重ね合わせる手段と、を備える拡張現実システムを提供する。
【選択図】図1d

Description

概して、本発明は、実世界環境を調査し、その画像データを生成し、仮想画像データをレンダリングし、その仮想画像データに、実世界環境を“拡張”するために、付加的なオブジェクトデータを重ね合わせる拡張現実システムに関する。
コンピュータ技術のめざましい発展は、画像処理、ソフトウェア開発、その他様々な技術分野についても重要な進歩をもたらしている。この結果、小規模なコンピュータ装置までもがリアルタイムで画像データを操作することのできる演算力と資源を備え、日常的な用途に利用される多くの技術の発展の可能性に寄与している。そのような重要な例の一つが、いわゆる拡張現実技術と呼ばれるものである。拡張現実技術では、実環境の画像データを生成するために実環境を調査し、実環境からの画像データを処理及び加工し、この画像データを“仮想オブジェクト”からのオブジェクト画像データによって補足し、ユーザに、仮想オブジェクトを含む画像を提供するものである。加えて、ユーザの実環境に対する認識は、対象用途に応じてどのような情報によっても拡張することができる。通常、拡張現実システムは、実環境の画像データを生成するためのビデオカメラなどの画像システムを有する。次いで、ユーザを拡張環境に置くために、実環境の画像データはコンピュータによって生成された画像やその他の情報と組み合わされ、ユーザに提供される。例えば、ユーザが、その所有する家の居間やキッチンを設計しようとする場合、対象の部屋(これはいくつかの家具を有する可能性がある)は、ビデオカメラが捉える実環境を表し、ユーザの適切な表示装置に提供される拡張現実は、適切なデータベースに基づいてコンピュータによって生成された付加的な家具を備えるかもしれない。この用途のため、画像化された実環境の特定の位置は、対応するカーソル、またはそれに似たもので通常印付けられる。そして、ユーザによって一つ、選択されたデータベース上のオブジェクトを、仮想オブジェクトと“実”オブジェクトの位置関係を見ながら、画像に挿入することができる。これら従来の拡張現実システムは、例えば、部屋や家を設計するための安価な選択肢を提供するが、仮想オブジェクトを実環境に配置する際に、例えば、仮想オブジェクトに対して観察者の位置を高い自由度で変化させたいような場合、柔軟性に乏しい。
よって、仮想オブジェクトの追跡、および、仮想オブジェクトへの特定の実環境の挿入の際に、柔軟性を高め、“忠実性”(fidelity)を向上させる拡張現実システムとその方法が必要とされている。
本発明の特徴の一つによると、この課題は、実環境の画像データを収集する手段と、画像データから仮想画像データを生成する手段と、画像データに基づいて、実環境の既定マーカオブジェクトを識別する手段と、そして、既定マーカオブジェクトに対応する仮想画像における位置で、オブジェクト画像データに仮想画像データを重ね合わせる手段と、を備える拡張現実システムによって解決される。
したがって、本発明の拡張現実システムによると、既定マーカオブジェクト(実環境の任意の場所に配置することができる)は、実環境に対応する画像データに基づいて、自動的に識別される。これにより、例えば所望のどの視点からでも仮想オブジェクトを“見る”ことを可能にする高い柔軟性が得られる。実環境の画像に基づいて仮想オブジェクトの位置が通常選択される、従来の拡張現実システムと反して、本発明は、プレースホルダ、即ち、マーカオブジェクトを、観測することで実環境にすでにある仮想オブジェクトを“見る”ことを可能とする。したがって、様々な視角や視点を選択することが可能となり、環境内の仮想オブジェクトと実オブジェクトの空間的な関係に関する詳細情報が生成され、実環境の近隣へ仮想オブジェクトをさらに現実的に埋め込むことを支援する。たとえば、マーカオブジェクトは頻繁に環境内において再配置されてもよい。このとき、再構成された実環境から生成された画像データは(特に視点も変化した場合に)、照明条件(illumination conditions)をより正確に考慮することを可能とする場合がある。例えば、部屋を通過するユーザは、連続的にマーカオブジェクトを指すことで、仮想オブジェクトの複数の異なる視点に関する実条件についての複数の情報によって部屋が表される、仮想画像データを生成してもよい。よって、仮想オブジェクトの挿入はより現実的な方法で達成することが可能となる。
さらなる好ましい実施例では、複数のオブジェクトデータの組を既定マーカオブジェクトと相互に関連付けるための手段が提供される。よって、ユーザが選択した際に、選択された特定の仮想オブジェクトの一つが仮想現実内のマーカオブジェクトを置換するように、実環境の一つのマーカオブジェクトを複数の仮想オブジェクトに関連付けることができる。要求に応じて、複数のオブジェクト画像データの組が、適切なデータ(これは事前に記録されていても、要求に応じて生成されてもよい)から生成されることが可能である点は認識すべきである。例えば、仮想オブジェクトを表すデータは、異なる実環境の画像データから得られたものであるかもしれない。これは、仮想オブジェクトを実環境の画像データ上に埋め込む際に、仮想オブジェクトの特定された空間方向性に基づいて、必要に応じて三次元画像データの生成を可能とするように、加工、操作してもよい。同様に、オブジェクト画像データを生成するためのデータは対象の実環境から得ることもできる。例えば、画像データの一部を孤立させ、任意の方法でこのデータを加工し、必要に応じてオブジェクト画像データを提供する。その他の実施例では、オブジェクト画像データは、全てソフトウェア資源によって生成されたデータであっても、あるいは一部をソフトウェアツールによって生成されたデータであってもよい。ここで、ソフトウェアツールとは、デザインソフトウェアなどを指す。
さらなる好ましい実施例では、仮想画像データを重ね合わせるために、オブジェクト画像データの組のうち一つを選択する手段を備える。オブジェクト画像データの組とマーカオブジェクトとの間の相互関係はいくつかの用途において、システムによって既定されるものがある(例えば、各オブジェクト画像の組が、適時の既定順序で拡張現実を生成するために利用されるような場合)。しかし、本実施例においては、オブジェクト画像データとマーカオブジェクトの各々の関連は、ユーザが選択できる。
図示された実施例の一つでは、相互関係を選択する手段は、実環境に組み込む、複数の仮想オブジェクトを簡便に選択できるように、音声認識システムを備える。
さらなる好ましい実施例では、システムは少なくとも仮想画像データだけでも表示する出力手段を備える。仮想画像データを好ましくはリアルタイムでユーザに表示することで、オブジェクト画像データの組の数に応じて、異なる視点や複数の仮想オブジェクトが実現される拡張現実環境を、実質的に瞬時にユーザに提供することが可能となる。
その他の実施例では、出力手段は、仮想画像データに加えて、音声情報、感触情報、嗅覚情報、あるいはその他の類似情報を提供するように構成されている。例えば、パニック状況をシミュレーションする場合、実環境には可視的な仮想オブジェクトだけでなく、音声や嗅覚“オブジェクト”を含むことが適切だと考えられる。無論、これらは仮想オブジェクトとして考慮されなくてもよい。
さらなる好ましい実施例では、出力手段はヘッドマウント型表示手段を備えている。拡張現実が極めて現実的な三次元であるという印象を提供するために、例えば、ヘッドマウント型表示手段は、レンズの代わりに液晶ディスプレイなどの適切な表示面を有する、眼鏡などの形状で提供されてもよい。ヘッドマウント型表示手段は音声データそして/あるいは嗅覚データを、例えば、ガス状の要素などの形で提供する相応の手段、を有することができる。
さらなる好ましい実施例では、ヘッドマウント型表示手段は実環境の画像データを収集するための手段を有する。よって、ヘッドマウント型表示手段を装着しているユーザは、例えば、適切に配置されたカメラや、その他によって収集された仮想画像データに基づいて、実環境を“見る”ことができる。一方、マーカオブジェクトは特定されたオブジェクトデータの組と置換される。したがって、例えば、ユーザの目の位置に対応する場所に配置されている対応する画像要素を置換することで、極めて忠実な三次元画像データが実環境から得られる。即ち、仮想オブジェクトによって置換されたマーカオブジェクトはユーザに実際には可視でなくとも、見ることが可能となり、仮想オブジェクトを含む環境に高い“現実感”を作り上げる。
さらなる好ましい実施例では、既定マーカオブジェクトを識別するための手段は、追跡システムを有する。追跡システムは、実環境の画像データを収集する手段に対してのマーカオブジェクトの相対位置データおよび方向性データを特定するよう構成される。よって、追跡システムは視点(すなわち、カメラなどの視点)、とマーカオブジェクトとの空間的関係を特定することを可能とする。これにより、マーカオブジェクト、そして仮想オブジェクトの方向性と位置を、視点の動きに応じて、連続的に更新することができる。さらに、相対位置データと方向性データに基づいて、仮想オブジェクトを適切に縮尺変更し、視点とマーカオブジェクトの相対距離を考慮に入れることができる。さらに、追跡システムは、縮尺変更(scaling)システムを有し、仮想オブジェクトの一般的なサイズを実環境に適合させることができる。この目的のために、追跡システムは、距離測定システムを備えることができる。距離測定システムは、実環境にあるオブジェクト同士の距離の絶対値を一つ以上、画像データに基づいて特定するよう構成される。例えば、家具が、実環境に組み込まれるべき複数の仮想オブジェクトだとすると、これら仮想オブジェクトの絶対寸法は、仮想オブジェクトをアクセスするときに得ることが通常可能である。追跡システムから得られた、これら絶対的寸法と絶対距離に基づいて、仮想オブジェクトは適切に拡大縮小され、過度の変形なく、実環境に組み込まれる。
追跡システムは、実質上リアルタイムで、相対位置データと方向性データの他に、絶対距離を提供・操作するように構成されていることが好ましい。これによって、オブジェクト画像データのリアルタイムな操作が可能となり、拡張現実も実質上リアルタイムで提供できる。ここで、“リアルタイム”とは、観察者に対し、実質的に過度の遅延なく拡張現実を認識できるようにするデータ操作時間を意味する。例えば、実環境の視点を比較的ゆっくりと変化させた場合、人間の知覚で感知できる遅延を生じることなく、対応する拡張現実が実質的に提供される。例えば、実環境の画像データを得るカメラを備えた、前述のヘッドマウント型表示手段を利用した場合、表示された拡張現実は、ゆっくりと頭部を回したり、環境の中を歩いたりと言った、ユーザの任意の動作に実質上対応することとなる。
システムはさらに、オブジェクト画像データの一つ以上の組を得るためのオブジェクトデータ生成機を備えていることが好ましい。
オブジェクトデータ生成機は、仮想オブジェクトとして利用される“実”オブジェクトの画像データ、および/または少なくとも仮想オブジェクトの一部を仮想的に生成するグラフィックツール、および/または対象の仮想オブジェクトに関連するその他の情報(音声データ、嗅覚データ、等)に基づくことができる。例えば、生成機は、リアルタイムに仮想オブジェクトを提供するために、オブジェクトベースのソフトウェアツールを有してもよい。ここで、仮想オブジェクトの外観は、前述のように、追跡システムによって適切な方法で実環境の画像データに適合される。その他の例では、既定の手順フローや、ユーザの選択に応じて、仮想オブジェクトの大きさや形の変化を可能にするために、リアルタイムアニメーションを備えてもよい。例えば、建物の火事などのパニック状況をシミュレーションする際、当初マーカオブジェクトによって指定された位置に配置された仮想オブジェクトの大きさや形を変化させたり、どのマーカオブジェクトにも指定されなかった位置にさらなる仮想オブジェクトが新たに配置されたりしてもよい。対象仮想オブジェクトの実質上動的な性質を提供するためである。
その他の実施例では、複数マーカオブジェクトを識別できるようマーカオブジェクトの認識手段が構成される。ここで、マーカオブジェクトのそれぞれは、一つ以上の仮想オブジェクトと相互に関係づけられている。実環境はこのようにして環境内の各マーカオブジェクトを置換することで適合されるため、高い柔軟性が提供される。
さらなる好ましい実施例では、オブジェクト画像データを、仮想画像データによって表される照明条件に適合するために、システムは、オブジェクト画像データの組、および仮想画像データに対して操作を行うレンダリングシステムを備える。実環境に挿入された仮想オブジェクトに関しても高い“現実性”を確保するために、本発明は仮想オブジェクトの外観を、実環境における照明条件に関して、適切に適合することを可能とする。通常、仮想オブジェクトは実環境の画像データからは独立して生成され、仮想オブジェクトの大きさと方向性は、実際の視点とマーカオブジェクトの位置に適切に適合される。仮想オブジェクトの画像データを生成する際には、マーカオブジェクトの位置やその周辺におけるローカルな照明状況を、レンダリングシステムを用いて、考慮に入れることができる。よって、実環境、とくにマーカオブジェクトの位置、における特定の照明条件に影響されるグローバル、またはローカルな輝度、そして色変化を、オブジェクト画像データの生成時に作り出すことができる。
レンダリングシステムは、実環境におけるマーカオブジェクトの位置、オブジェクト画像データの組、そして照明条件に基づいて、仮想影を生成するよう構成されていることが好ましい。これにより、仮想オブジェクトの極めて現実的な実環境への挿入を達成することができる。例えば、マーカオブジェクトは、実際には“実”照明システムに、マーカオブジェクトの位置で大きく影響するオブジェクトを表すものではなく、二次元の記号のみを実質的には表すものであるかもしれない。そうであったとしても、レンダリングシステムは拡張現実の仮想照明状況を、適切な仮想影を生成するために、推定することができる。ここで、仮想影は、仮想オブジェクト、および/または仮想オブジェクト上の実オブジェクト、あるいは、その一部によって生じるものであってもよい。
さらなる有利な実施例では、システムは、収集した画像データに基づいて、実環境内の、少なくとも一つの実光源の少なくとも位置および/または光強度、および/または色分布を特定するよう構成されている仮想照明システムを有している。よって、仮想照明システムは、少なくとも一つの光源を特定し、その特性の少なくともいくつかを数値的に特徴づけることで、実環境の照明条件を数値的に分析することを可能にする。例えば、実環境が一つ以上の電球や窓を備える部屋を表すとき、現在“有効(active)”な光源を特定し、対応する情報を、この特定された光源の仮想オブジェクトへの影響を考慮しつつ、実環境に仮想オブジェクトを適切に導入するために利用することができる。
さらなる実施例では、仮想照明システムは、特定された実光源のうち、少なくとも一つに対応する仮想光源を生成するように構成される。したがって、光源は仮想現実に統合することができ、仮想光源によって提供される照明条件に、仮想オブジェクトを、精度良く適合する。仮想照明システムは、仮想光源の位置、および/または光強度、および/または色を変化できるように構成される。よって実環境は、現在の照明状況とは異なる照明条件の下で“観測”が可能となる。これによって、仮想オブジェクトを色々な異なる環境条件の下で評価することができる。例えば、アクセサリー、衣服などの影響を、異なる光の条件の下で評価してもよい。仮想照明システムは、一つ以上のさらなる仮想光源を生成するよう構成されていることが好ましい。“仮想”照明条件の生成の際に、より正確には、実環境の現在の照明条件をシミュレーションする際に、柔軟性を提供するためである。例えば、拡散された照明を考えた場合、実環境の照明条件は、一つ、あるいは少数の光源では容易にシミュレーションできない。また、比較的大きな三次元仮想オブジェクトを組み込めば、全体の照明条件を大きく変えてしまうかもしれない。その他の実施例では、仮想オブジェクト自体が光源であるとしてもよい。すなわち、仮想オブジェクト自体が一つ以上のさらなる光源を実環境に取り入れていると考えてもよい。
本発明のさらなる特徴として、前述の実施例、そして、添付の図を参照して以降説明される実施例に記載される拡張現実システムを備える仮想ミラーシステムが提供される。さらに、仮想ミラーシステムは、実環境における関心部分の前部に配置された表示面を備える表示手段を備える。このとき、実環境の画像データを収集する手段は、関心部分の前部に配置されている光学的画像化システムを備える。
したがって、表示面の配置と、光学的画像化システムの配置によって、システムの鏡像機能を得ることが可能となる。このとき、ユーザが関心部分であってもよい。このとき、ユーザは自分自身の姿を対応する仮想オブジェクトで置換されるマーカオブジェクトとともに見ることができる。例えば、マーカオブジェクトはアクセサリー、衣服、化粧小物、異なる髪型などの仮想オブジェクトを表すことができる。
仮想ミラーシステムは関心部分に提供される、複数の既定マーカオブジェクトを識別できるような構成であることが好ましい。よって、複数の仮想オブジェクトを様々な組み合わせで、ユーザが評価することができる。例えば、イヤリングを、ネックレスとともに眺めたり、異なる衣服の部分を組み合わせたりすることも可能となる。さらに、美容整形や外科手術の評価をユーザが前もって行うことも可能となる。
本発明のさらなる特徴として、拡張現実を生成するための方法が提供される。この方法は実環境から画像データを収集し、画像データに基づいて実環境に提供される既定マーカオブジェクトを識別する手順を備える。さらに、実環境の仮想画像データが生成され、少なくとも既定マーカオブジェクトに対応する仮想画像データが、既定のマーカオブジェクトに関連付けられているオブジェクト画像データによって置換される。
よって、方法の発明は、前述した拡張現実システムと組み合わせて用いることで、実質的に同様の強みを提供する。
方法は、実環境から、変更された画像データが収集された際に、既定マーカオブジェクトを追跡する手順を備えていることが好ましい。即ち、変化した画像データが実環境から得られても、既定マーカオブジェクトが“観測”される。これにより、仮想画像データにおいて、マーカオブジェクトを置換する仮想オブジェクトを、適切に再構成することが可能となる。
図示される実施例の一つでは、既定マーカオブジェクトの追跡は、少なくとも既定マーカオブジェクトの仮想基準点に対する相対位置と方向性を特定する手順より構成される。よって、実環境において自由に動くことのできる仮想基準点(例えば、カメラなどの光学的画像化システムの位置など)を適切に選択することで、仮想オブジェクトは、実環境の仮想画像に、適切な位置、寸法、そして方向で組み込まれることが可能となる。その他の場合では、例えば、ある環境内で移動するオブジェクトの影響を可視化するために、マーカオブジェクトを環境内で移動させてもよい。このとき、仮想基準点に対する相対位置データおよび方向性は、仮想環境内で仮想オブジェクトが適切に拡大縮小、配置、方向づけ、される可能性を提供する。
その他の好ましい実施例では、オブジェクト画像データは、実環境と異なる第二の実環境からの画像データに基づいて、および/または、実環境からの画像データに基づいて、および/または、仮想現実に基づいて、生成することができる。前述したように、実オブジェクトから得られるデータ(即ち、実オブジェクトの画像データ)を適切な画像処理ツールとともに用いることで、仮想オブジェクトを生成するための高い柔軟性を示した。これにより、追跡システムが、仮想オブジェクトを実環境画像データに正しく統合するのに必要な拡大縮小、配置、方向づけを実施するために、追跡システムの操作する、対応する三次元データを得ることができる。さらに、本発明は、例えばデザインソフトウェアなどの適切なソフトウェアツールによって、あるいはその他適切なグラフィックツールによって仮想的に生成されたオブジェクトデータのどのような組み合わせをも可能にする。あるいは、純粋に仮想的に生成されたオブジェクトデータを、実オブジェクトを画像化して得られたデータと合成することができる。オブジェクトデータの生成は、対応する拡張現実システムのコンピュータ資源に応じて、任意の適切な時間に実施することが可能である。例えば、一つ以上のオブジェクトデータの組を予めデータベースに保存しておき、続いて、要求に応じて読み出してもよい。その他の例では、拡張現実システムと同時に動作するソフトウェアアプリケーションによって、一つ以上の仮想オブジェクトを生成する。このとき、可視データの生成に影響を与えるように、ユーザはソフトウェアアプリケーションと対話式にコミュニケーションを行ってもよい。その他の場合では、ソフトウェアアプリケーション自体が仮想オブジェクトの具体的情報を少なくとも部分的に特定してもよい。例えば、あるパニック状況をシミュレーションする場合、ソフトウェアアプリケーションは、無作為に、および/またはユーザ対話に基づいて、および/または既定の手順フローに基づいて、仮想オブジェクトデータを提供することができる。
さらなる有利な実施例では、方法は、スキャンデータを生成するために、少なくとも実環境の一部をスキャンし、このスキャンデータに基づいて実環境の照明条件を特定する手順を備える。例えば、視角を270度、あるいは360度の範囲内で変化させることで実施する実世界のスキャニングは、照度マップの作成を可能にする。この照度マップは、仮想オブジェクトの外観を、与えられた照明条件下に適切に適合するために使用することができる。実環境の一部のスキャニングは少なくとも二つの異なる照明条件について実施されることが好ましい。したがって、少なくとも二つの異なる照明条件の対応する照度マップはより正確に、仮想オブジェクトの正しい輝度と色を推定するために利用することができる。さらに、スキャンデータに基づいて、異なる照明条件を基準にして、ユーザに対して拡張現実システムを表示することができる。これらの異なる仮想照明条件は測定データに基づいているため、高い“現実性”をしたがって提供する。例えば、異なる露光量および/または異なる色で様々なスキャン操作を実施してもよい。こうすることで、環境における実オブジェクトの対応する変化(例えば、マーカオブジェクトやマーカオブジェクトの周辺の任意のオブジェクト)に基づいて、仮想オブジェクトの輝度や色の様々な違いを計算できる可能性を提供する。
照明条件の特定は、実環境を照らす、少なくとも一つの光源を識別することと、その光源の位置、および/または光強度、および/または色を特定することから成る。例えば、スキャンデータに基づいて、光強度や色の分布、そして、特に、実環境に対する“仮想”または実の光の放射の基点、及び、対応する入射角を特定することができる。例えば、天井、あるいは対応する部屋の壁が有する一つ以上の電球は、スキャンデータに基づいて容易に特定することが可能となり、仮想オブジェクトに対する入射角を、対応する仮想光源を生成することで、算出することが可能となる。よって、対応する仮想影やその他の輝度の変化を仮想光源に基づいて算出することが可能となる。さらに、実照明条件に対応する仮想光源を、例えばユーザの要求に応じて変更してもよい。これにより、仮想オブジェクトを有する実環境に対して、実環境の現在の照明条件を表すものとは異なる照明条件を提供する。仮想光源をさらに付加的に生成してもよい。これにより、実環境から得られない光に関する条件を確立することが可能となる。例えば、仮想オブジェクト自体が、部屋や家、そして庭や公園などの屋外空間の照明システムを表してもよい。これによって、異なる照明システムが実環境に対して及ぼす影響を調査することも可能となる。仮想光源に、極めて高い“現実性”を授けるために、一つ以上の実照明条件に関して実環境から得られたスキャンデータに基づいて、付加された仮想光源の影響を効率よく算出することができる。
好ましい実施例では、マーカオブジェクトがオブジェクト画像データによって少なくとも置換されて、仮想画像データがユーザに表示される。よって、仮想オブジェクトを有する仮想画像データは特定の用途に適した任意の形で表示されてもよく、本発明の拡張現実手法を用いる際に高い柔軟性を提供する。例えば、ユーザによって操作されるカメラなどで実環境の画像データを収集する場合、仮想オブジェクトを有する、対応する仮想現実は、適切な表示装置がないがために、適切にカメラに表示されない一方で、仮想画像データは、対応画像データの操作と処理を経て、適切な表示装置に表示される場合がある。実環境からの画像データの収集と、仮想オブジェクトデータの組み込みは、極めて複雑なデータ操作を経て実質的に同時に実施されるため、いくつかの応用では、そのとき提供されるコンピュータ資源に応じて、システムのリアルタイムな作動が許されない場合がある。このような場合、実環境の画像データを、適切に選択された時間間隔に基づいて適切に分割し、この分割画像データに基づいて仮想オブジェクトを組み込むための相応したデータ操作を実施し、それらを合わせて適切に表示することができる。よって、画像データの収集に対して、ある遅延が生じる。一方で、さらに入来する実環境の画像データを対応するバッファに記録することができる。入来する画像データに関する変更は、実イベントに対してある絶対的な時間遅延を伴うが、仮想画像データに“瞬時”に反映されるため、画像データの処理は、“リアルタイム”であると言える。
さらなる好ましい実施例では、方法は、一つ上のオブジェクトデータの組を一つ以上のマーカオブジェクトと関連付ける手順を有する。よって、マーカオブジェクトと対応する仮想オブジェクトの間に適切な関係を、前もって、またはリアルタイムで、またはその他任意の構成で、築くことができる。これは、拡張現実システムの利用において、高い柔軟性を可能とする。よって、一つ以上のオブジェクトデータの組をマーカオブジェクトに関連付けた後、特定のオブジェクトデータの組を選択すると、選択されたオブジェクトデータの組で複数のオブジェクトデータの組と関連づけられた特定のマーカオブジェクトを置換できる。したがって、同じマーカオブジェクトに関連づけられたオブジェクトデータの異なる組を選択した際には、仮想オブジェクトを迅速に置き換えることが可能となる。所望の仮想オブジェクトの選択は、音声認識、ユーザ手動の相互作用、ソフトウェアアプリケーションなどによって行ってもよい。
本発明のさらなる特徴として、仮想鏡像画像を生成する方法は、表示手段および画像取得手段を実環境の関心部分の前部に配置すること、そして画像取得手段を作動することで関心部分から画像データを収集すること、から成る。さらに、関心部分において提供される既定オブジェクトマーカが画像データに基づいて識別され、関心部分に対応する仮想画像データが生成される。最後に、少なくとも、既定マーカオブジェクトに対応する仮想画像データが、既定マーカオブジェクトに関連づけられているオブジェクト画像データによって置換される。よって、仮想画像(例えば、ユーザの仮想画像)を得ることができる。このときユーザの外観は、ユーザに付随する任意のマーカオブジェクトに応じて変更することが可能となる。
本発明のさらなる好ましい実施例は、付随の請求項に定義されるとともに、添付の図に関連して、以下に説明される。
図1aは本発明に関する拡張現実システム100の概略を、簡略図にて図解するものである。システム100は実環境120から画像データを収集する手段110を有する。手段110は、ビデオカメラ、複数のビデオカメラ、あるいは、その他適切な画像取得装置やそれに類似するものを代表する。加えて、いくつかの実施例では、手段110は、実環境120から以前取得された画像データソースである。以降、画像データを収集するための手段110をカメラ110と呼ぶ。これは、本発明を特定の光学的(optical)画像化システムに制限するものではない。実環境120は、例えば、家の部屋、特定の地形の一部、または、その他対象としている任意の適当な領域を表す。図1aに示す代表的な実施例では、例えば、実環境120は居間である。居間は、壁124、および家具121、122、そして123という、複数の実オブジェクト121から124を有している。加えて、実環境120は、マーカオブジェクト125、126とされる実オブジェクトを有することも可能である。これらマーカオブジェクトは、自動化された画像処理アルゴリズムによって容易に識別されるような任意の適当な構成を備えている。例として、マーカオブジェクト125、126は容易に識別できる顕著なパターンを各自に形成していてもよい。一方マーカオブジェクト125、126の形状は、複数の異なる視角から識別が可能なように形づくることができる。ただし、マーカオブジェクト125、126は、それらそれぞれに識別パターンを持つ二次元形態であってもよい、という点を認識すべきである。システム100はさらにマーカオブジェクト125、126を、カメラ110の提供する画像に基づいて識別する識別手段130を備える。識別手段130は、マーカオブジェクト125、126を代表する既定のテンプレートを有した、画像を比較する既知のパターン認識アルゴリズムを備えることができる。例えば、識別手段130はカメラ110から取得された画像を、既定の照度に関するしきい値に基づいて、白黒画像に変換するようなアルゴリズムを実装してもよい。アルゴリズムは、画像を、正方形などの既定された区分に分割し、学習されたパターンテンプレートをその各区分で検索するように構成することもできる。このテンプレートはマーカオブジェクト125、126の特徴的な部分を表してもよい。識別手段130には、その他のパターン認識手法を実装してもよい。
図示された実施例の1つでは生ビデオ画像が照明に関するしきい値に基づいて白黒に変換される。次いで、この画像について正方形の領域が検索される。ソフトウェアはバイナリ画像の全ての正方形を検索する。この正方形のうち、多くはオブジェクト125、126などの追跡マーカではない。各正方形について、正方形内のパターンと学習されたパターンテンプレートを照合する。照合すれば、オブジェクト125、126などの追跡マーカの一つを、ソフトウェアが見つけたことになる。続いて、ソフトウェアは既知の正方形のサイズとパターンの方向性(orientation)を利用して、オブジェクト125、126などの物理的なマーカに対する実ビデオカメラの位置を計算する。そして、3x4のマトリクスは、識別されたマーカに対するビデオカメラの実世界の座標で埋められる。このマトリクスは次いで仮想カメラの座標位置を設定するために利用される。仮想カメラと実カメラの座標は同じであるため、描画されたコンピュータ画像は特定された位置に実マーカオブジェクトを正確に重ね合わせる。それ以降は、仮想カメラ座標を設定し、仮想画像を描画するためにレンダリングエンジンを用いてもよい。
システム100はさらに、カメラ110から得られた画像データと、オブジェクトデータ生成機150から得られたオブジェクトデータとを合成する合成手段140を備える。合成手段140は追跡システム、距離測定システム、そしてレンダリングシステムを備えることができる。詳細については図1bに関する記述において説明する。通常、合成手段140は、マーカオブジェクト125、126に対応する仮想オブジェクトを付加された、実環境120の三次元画像を表現する仮想画像データを生成するために、識別されたマーカオブジェクトに対応する、オブジェクトデータ生成機150から得られた、画像データを導入するように構成されている。このようにして、合成手段140は実環境120におけるマーカオブジェクト125、126のそれぞれの位置を特定するように、そして、マーカオブジェクト125、126と実環境120における静止物との間、および、マーカオブジェクト125、126とカメラ110の視点との間の相対的な動きを特定するように構成される。
システム100はさらに、オブジェクトデータ生成機150によって生成された仮想オブジェクトを含む、仮想画像データを提供するように構成された、出力手段160を有することもできる。ここで、好ましい実施例として、出力手段160は画像データに加えて、その他のデータの種類、例えば、音声データ、嗅覚データ、感触データ、など、を提供するように構成してもよい。
作動中において、カメラ110は環境120の画像データを生成する。ここで、画像データは環境120の動的な状態に対応できることが望ましい。動的な状態は、例えば、カメラ110を環境120に対して動かすことや、あるいは、移動可能なオブジェクトを環境に配置することで表すことができる。例えば、マーカオブジェクト125、126やオブジェクト121から123のうちの一つ以上のオブジェクトを移動可能とすることができる。環境120の視点はカメラ110を環境120内で動かすことによって変えることができるため、特にマーカオブジェクト125、126を異なる観点から観測することが可能となる。これにより、オブジェクトデータ生成機150の生成した仮想オブジェクトを様々な視点から評価できる。カメラ110の提供する、連続的に更新される画像データは、マーカオブジェクト125、126を認識する識別手段130によって受け取られる。カメラ110を動かしたり、マーカオブジェクト125、126を動かしたりすることで、連続的に視点が変化し、パターン認識が阻止されても、判断手段130は一度マーカオブジェクト125、126を識別すると、それらの追跡を可能とする。例えば、マーカオブジェクト125、126に関連する既定のパターンの存在を画像データ内に認識すると、判断手段130は、合成手段140に、特定の画像データ領域内のマーカオブジェクトの存在を通知する。次いで、この情報を基に、時間と共にマーカオブジェクト125、126が消滅しないことを前提に、判断手段140は、マーカオブジェクト125、126を識別するために利用される画像データによって表わされる対応オブジェクトを、連続的に追跡する。その他の実施例では、マーカオブジェクト125、126の存在を確認し、合成手段140の追跡精度を検証、あるいは上げるために、マーカオブジェクト125、126を識別する手順を実質上連続的に、あるいは少なくとも十分定期的に繰り返して実施してもよい。環境の画像データと識別手段130の提供する情報を基に、合成手段140は三次元画像を生成し、オブジェクト生成機150から受け取った対応する三次元画像データを重ね合わせる。ここで、三次元画像データは合成手段140の追跡動作に基づいて、永久に更新される。例えば、合成手段140は、識別手段130の情報に基づいて、マーカオブジェクト125、126に対するカメラ110の相対的な位置を算出してもよい。そしてこの座標情報を、仮想カメラの座標を決定するために利用してもよい。これによって、マーカオブジェクト125、126と、オブジェクトデータ生成機150によって届けられたオブジェクトデータの正確な“重ね合わせ”が可能となる。座標情報はカメラ110に対してのマーカオブジェクト125、126の相対的な方向性データをも含む。これによって、合成手段140は仮想オブジェクトの方向性を正しく適合できるようになる。最後に、合成された三次元仮想画像データは出力手段160によって任意の適切な形で表現することができる。例えば、出力手段160は、マーカオブジェクト125、126に関連する仮想オブジェクトを含む環境120を可視化するための、適切な表示手段を備えることができる。システム100を作動する際、少なくともマーカオブジェクト125、126のうち、1つに関する認識基準をプリインストールすることは効果的である。これによって、実質的に信頼性のあるリアルタイムでの画像処理が可能となる。加えて、それぞれのマーカオブジェクトと一つかそれ以上の仮想オブジェクトとの相互関係をシステム100の動作の前に設定したり、仮想オブジェクトをマーカオブジェクトに割り当てるため、双方向(interactive)定義が可能なように設計したりしてもよい。例えばユーザの要求に応じて、初期にマーカオブジェクト125に割り当てられた仮想オブジェクトを、マーカオブジェクト126に割り当てることや、その逆もまた可能である。加えて、複数の仮想オブジェクトを単一のマーカオブジェクトに割り当ててもよく、複数の仮想オブジェクトから一つが、ユーザ、ソフトウェアアプリケーション、あるいはそれに類似するものによって、選択される。
図1bは模式的に合成手段140の詳細を示す。この実施例では、合成手段140は追跡システム141、距離測定システム142,そしてレンダリングシステム143から構成される。前述したように、追跡システム141はマーカオブジェクト125、126の相対的な位置と方向性を追跡するために構成される。これによって、オブジェクトデータ生成機150の提供するオブジェクトデータを適合することが可能となる。しかしながら、多くのアプリケーションでは、初期状態では環境120で遭遇される絶対的な寸法は未知であるため、仮想オブジェクトの環境120への正確な適合は、実環境120において、絶対的な基準距離が必要となる場合がある。この目的のため、距離測定システム142が追跡システム141に接続され、少なくとも一つの絶対的な尺度を特定するために適合される。絶対的な尺度とは、例えば、環境120内で容易に識別できる二つのオブジェクト間の距離や、その一部である。距離測定システム142は、環境120のいくつかの要素に関する絶対尺度を特定するために、例えば、干渉計測ツール、高音波測定装置などの、任意の適切なハードウェアおよびソフトウェア資源を有することができる。距離測定システム142は、環境120内の要素に関する絶対尺度を特定するために、追跡システム141によって制御してもよい。絶対尺度は、追跡システムによって認識することもできる。これによって、絶対尺度の結果を各特定された要素を表現する画像データのそれぞれに適用することができる。図示された実施例の1つでは、一つ以上のマーカオブジェクト125、126をその最大絶対距離を特定するための基準要素として利用してもよい。マーカオブジェクト125、126は識別手段130によって容易に特定されるからである。その他の実施例では、距離測定システム142は利用されなくてもよく、仮想オブジェクトを正しく測定するための対応する情報は、ユーザが入力してもよい。
合成手段140はカメラ110から得られた画像データと、オブジェクトデータ生成機150のデータに基づいて三次元仮想画像データを生成するための、データレンダリングシステム143を備える。加えて、環境120の照明条件を特定し、それに応じて、出力手段160の提供する三次元画像データの“仮想”照明条件を適合するようにレンダリングシステム143を構成してもよい。この目的のため、レンダリングシステム143は、例えば、環境120を適切にスキャンし、照明マップを作成し、実光源を特定することで、環境120の実際の照明条件を決定してもよい。
図1cは、既定位置に配置されたマーカオブジェクト125、126、および実オブジェクト121、122を含む環境120の概略を示す。ここで、複数の実光源127は、環境120内の、特定の照明条件を既定することができる。この状況において、レンダリングシステム143はカメラ110からスキャンデータを受け取ることができる。カメラ110は光源127の特性を少しでも特定できるように、動かしてもよい。例えば、カメラ110を、その相対位置に応じて、環境120に対応する立体角の大部分に渡って動かしてもよい。スキャンデータに基づいて、レンダリングシステム143は、次いで複数の光源127に関する、位置、光強度、そして場合によっては色分布を特定してもよい。
図1dは、環境120の照明条件に関する情報を得るために、レンダリングシステム143が実施する、典型的な手順のフローを図示する模式的なフローチャート180を示す。
ステップ181で、ユーザ、および/またはソフトウェアの要請によって手順フローが開始される。ここで、過度のカメラの動きはスキャン活動とみなしても、現在の照明条件やその他の基準に関する評価を行うと判断してもよい。ステップ182では、適切な数の区画を有する照明マップとして整備された、カメラ110から得られた画像データが、それまでに全ての区画で評価されたかどうかについて評価される。全区画の分析が終了していれば、手順フローは189に遷移し、その場面において最も光強度の高い光(図1cでは複数の光源127)の情報がさらなるデータ処理に利用される。全区画の分析が終了していない場合は、手順フローはステップ183に遷移し、それら区画は、光源を特定するために適した区画探索範囲として設定される。次いでステップ184で、対象区画に関する、光強度やその他光に関する特性を推定するために必要な貢献(contributions)が全て加算されているか否かが判断される。全ての貢献が考慮されていない場合は、ステップ185で全ての貢献が加えられ、手順フローは184へと戻る。一方、全ての貢献が考慮されている場合、手順フローは186へと進み、対象区画の光強度は、例えば、貢献数を評価して、推定される。貢献の値が異なる場合は、それぞれの大きさから推定される。ステップ187では、対象区画の光強度を現在最も高い光強度と比較し、その場面における最も高い光強度を特定する。ステップ187で、対象区画が、現在処理されている場面で最も高い光強度を有していないと判断された場合、手順フローはステップ182へと戻る。一方、対象区画の光強度が、現在処理されている場面において最も高いと判断された場合、手順はステップ188へと遷移する。ここで、この区画に関する適切な情報が記録され、全区画が分析された後にステップ189で提供することができる。
再度図1cを参照すると、例えば手順フロー180によって、環境120で識別された位置データと光源の光強度に基づき、レンダリングシステム143は、環境120の照明条件をシミュレーションするために三次元画像空間にて対応する仮想光源を特定してもよい。次いで、レンダリングシステム143は、図1cにて破線で示されるマーカオブジェクト125、126に対応する仮想オブジェクトを環境120に導入した際の、環境120に対する仮想光源の影響を算出してもよい。図1cから解されるように、光源127の特定の構成によって、実環境120には実質的には影が存在しないかもしれない。しかしながら、仮想オブジェクト125vおよび126vを“挿入”することで、仮想オブジェクト125v、126vが仮想配光に影響を与え、仮想影や輝度に変動を生じる可能性が生じる。例えば、仮想オブジェクト125vは、光源の光を遮ることによって、実オブジェクト122上に輝度の低減した領域128を生じる可能性がある。同様に、オブジェクト125vおよび126vの存在によって、実オブジェクト122は仮想影129を生じるかもしれない。したがって、レンダリングシステム143は、仮想オブジェクト125v、126vの外観を、実オブジェクト121、122の外観とともに、適合してもよく、適合は、スキャンデータおよび実照明条件に基づいて生成された仮想光源を踏まえて行われる。
いくつかの実施例では、異なる照明条件に応じて、対応する照明マップを設けるために、例えば、光源の露光量を変化させ、実照明条件を変えてもよい。したがって、対応する仮想光源は多様な実照明条件に対応するように生成されてもよい。加えて、レンダリングシステム143は付加的な仮想光源や仮想照明条件を提供するように構成されてもよい。これにより、スキャンデータから導くことのできないどのような照明条件をも確立することが可能となる。例えば、仮想オブジェクトが反射率の高いオブジェクトを表すことや、仮想オブジェクト自体が光源を表すことも可能である。この場合、これらは、スキャンデータから導くことのできない、環境120内の照明条件を提供することになる。
図2は本発明による拡張現実システムのさらなる実施例を概略的にしめしたものである。この実施例では、システム200はデータ操作部201を有する。データ操作部201は、例えば、図1aから1cに図解された構成と同様の構成を備え、マーカオブジェクト識別手段230、合成手段240、そして仮想オブジェクト生成機250を有する。特に、合成手段240は、対応するシステム141および143のような、追跡システム、およびレンダリングシステムを備えてもよい。データ操作システム201には、ヘッドマウント型表示装置270が接続されている。ヘッドマウント型表示装置270は表示面260、および、2つの適切に配置されたカメラの形で提供される光学的画像化システム210により構成されている。加えて、各マーカオブジェクトを有する実環境220が提供される。
システム200の動作はシステム100のものに類似する。しかしながら、データ操作システム201は、大きな遅延を生じることなく、実質上はリアルタイムで画像データを処理するように構成されている。この場合、ヘッドマウント型表示装置270を装着しているユーザは、同様に各マーカオブジェクトに関連する仮想オブジェクトによって補足される実環境220に対して、とても正確な印象を得るかもしれない。カメラ210は実質的にユーザの目に相当するように配置してもよい。カメラ210は、環境220から光を転送するための表示面260は必要ないため、ここに示す方法とは異なり、表示面260内に配置してもよい。結果、環境220の高度な三次元仮想画像が実現され、環境220、および対応する仮想オブジェクトから得られた仮想画像の“現実感”を増すこととなる。加えて、ヘッドマウント装置270は、環境220内の実オブジェクトに対する仮想オブジェクトの正確な測定を可能にする、距離測定システムを有してもよい。
図3は、仮想ミラーシステム300の概略を示す。仮想ミラーシステムは、データ操作システム301を備える。データ操作システム301は、マーカ識別手段330、画像データを合成する合成手段340a、そして仮想オブジェクト生成機350を有することができる。データ操作システム301における対応する要素は、システム100、およびシステム200の要素に関して説明したものと同様な構成をしている。
加えて、システム300は、環境320における関心部分の前部に配置される表示面を備える、出力手段360を有する。加えて、システム300は、同様に関心部分の前部に配置される光学的画像化システム310を有している。これによって、仮想的な“鏡像”画像が、システム300の作動時に、表示面360上に表示されることとなる。原理的には、システム300の動作はシステム100およびシステム200の動作と同様である。光学画像化システム310から画像データを収集すると、マーカオブジェクトが、例えば、ユーザに付着しているとして識別される。ユーザは光学的画像化システム310と表示面360に面した位置に存在する。そして、マーカオブジェクトは前述のように、識別され追跡される。さらに、既定、あるいはユーザ駆動による一つ以上のマーカオブジェクトと各仮想オブジェクトの関連、に基づいて、オブジェクト生成機350は対応するオブジェクトデータを合成手段340に提供する。合成手段340は仮想オブジェクトを含む対応する仮想画像データを生成してもよい。対応する仮想画像データは次いで、ユーザに鏡像画像としての印象を与えるために、出力手段360へと提供される。また、システム300の出力機能、および/または、入力機能を拡張するために、例えば、スピーカ、マイク、その他の、さらなる入出力手段361が提供されてもよい。例えば、仮想画像のマーカオブジェクトを置換する特定の仮想オブジェクトを選択するような場合に、ユーザがデータ操作システム301を制御するために、音声認識システムを入出力手段361に実装してもよい。また、システム300において、マーカ識別手段330は実質的に同時に複数のマーカオブジェクトを認識できるよう構成することができる。これにより、仮想画像内に複数の仮想オブジェクトが存在することが可能となる。例えば、アクセサリー、衣服、その他を仮想オブジェクトとして逐次的に、あるいは同時に利用することができる。さらに、合成手段340はレンダリングシステム143と同様のレンダリングシステムを有することが可能である。これにより、様々な実、または仮想の光の条件下で仮想鏡像が提供され、適切な照明条件が適合されるため、アクセサリー、衣服、美容または外科手術、その他の評価などへの応用に有利であると考えられる。
本発明に基づいた拡張現実システムを概略的に示した図である。 図1aの実施例において、追跡システム、距離測定システム、レンダリングシステムなどの付加的な要素を概略的に示した図である。 図1bに示すレンダリングシステムの作動原理を概略的に示す図である。 レンダリングシステムの動作を図示したフローチャート図である。 図示された実施例の一つに基づいた、ヘッドマウント型表示装置を備える実施例を概略的に示した図である。 本発明の図示された実施例の一つに基づいた、仮想ミラーシステムを概略的に示した図である。
符号の説明
100 拡張現実システム
110 カメラ
120 実環境
125、126 マーカオブジェクト
127 実光源
130 識別手段
140 合成手段
150 オブジェクトデータ生成機
160 出力手段
270 ヘッドマウント型表示装置
360 出力手段

Claims (40)

  1. 実環境の画像データを収集する手段と、
    前記画像データから仮想画像データを生成する手段と、
    前記実環境から前記画像データに基づいて、既定マーカオブジェクトを識別する手段と、
    前記既定マーカオブジェクトに対応する仮想画像の位置において、オブジェクト画像データに前記仮想画像データを重ね合わせる手段と、
    を備える拡張現実システム。
  2. 複数のオブジェクト画像データの組と、前記既定マーカオブジェクトとを相互に関係付けるための手段をさらに備える、ことを特徴とする請求項1記載の拡張現実システム。
  3. 複数のオブジェクト画像データの組から、前記仮想画像データと重ね合わせるものを一つ選択する手段をさらに備える、ことを特徴とする請求項2記載の拡張現実システム。
  4. 複数のオブジェクト画像データの組から一つを選択する前記手段は、音声認識システムをさらに備える、ことを特徴とする請求項3記載の拡張現実システム。
  5. 複数のオブジェクト画像データの組から一つを選択する前記手段は、手動の入力手段を有する、ことを特徴とする請求項3または4記載の拡張現実システム。
  6. 少なくとも前記仮想画像データを表示するための出力手段をさらに有する、ことを特徴とする請求項1乃至5いずれかに記載の拡張現実システム。
  7. 前記出力手段はヘッドマウント型表示手段から成る、ことを特徴とする請求項6記載の拡張現実システム。
  8. 前記ヘッドマウント型表示手段は、実環境から画像データを収集する前記手段を備える、ことを特徴とする請求項7記載の拡張現実システム。
  9. 既定マーカオブジェクトを識別する前記手段は、実環境の画像データを収集する前記手段に関する、相対位置データ、および方向性データを特定するよう構成された追跡システムから成る、ことを特徴とする請求項1乃至8いずれに記載の拡張現実システム。
  10. 前記追跡システムは、実質的にリアルタイムで、前記相対位置データおよび方向性データを提供するよう構成されている、ことを特徴とする請求項9記載の拡張現実システム。
  11. 前記オブジェクト画像データの組を得るためのオブジェクトデータ生成機をさらに有する、ことを特徴とする請求項1乃至10いずれかに記載の拡張現実システム。
  12. 前記オブジェクト画像データ、および、前記仮想画像データを操作して前記オブジェクトが画像データを、前記仮想画像データによって表される照明条件に適合させるよう構成されるレンダリングシステムをさらに有する、ことを特徴とする請求項1乃至11いずれかに記載の拡張現実システム。
  13. 前記レンダリングシステムは、前記マーカオブジェクト、前記オブジェクト画像データ、そして、前記照明条件に基づいて、仮想影を生成するようさらに構成されている、ことを特徴とする請求項12記載の拡張現実システム。
  14. 前期画像データから少なくとも一つの実光源の、少なくとも位置、および/または、光強度、および/または色分布を特定するよう構成された仮想照明システムをさらに備える、ことを特徴とする請求項13記載の拡張現実システム。
  15. 前記照明システムは、前記少なくとも一つの実光源に対応する仮想光源を生成するよう、さらに構成されている、ことを特徴とする請求項14記載の拡張現実システム。
  16. 前記仮想照明システムは、前記仮想光源の位置、光強度、色分布のうち一つを変化させるようさらに構成されている、ことを特徴とする請求項15記載の拡張現実システム。
  17. 前記仮想照明システムは、前記少なくとも一つの実光源に対応する前記仮想光源の他に、第二の仮想光源を生成するようさらに構成されている、ことを特徴とする請求項15乃至16いずれかに記載の拡張現実システム。
  18. 請求項1乃至17いずれかに関する拡張現実システムと、
    実環境の関心のある部分の前に配置された表示面を備える表示手段と、
    を備え、
    画像データを実環境から収集する前記手段は、前記関心のある部分の前に配置された光学的画像化システムを備える、ことを特徴とする仮想ミラーシステム。
  19. 既定マーカオブジェクトを識別するための前記手段は、前記関心部分に提供されている複数の既定マーカオブジェクトを識別するよう構成されている、ことを特徴とする請求項18記載の仮想ミラーシステム。
  20. 実環境から画像データを生成し、
    前記画像データに基づいて、前記実環境に提供されている既定マーカオブジェクトを識別し、
    前記実環境の仮想画像データを生成し、
    少なくとも、前記既定マーカオブジェクトに対応する仮想画像データを前記既定マーカオブジェクトに関連するオブジェクト画像データで置き換える、
    手順から成る、拡張現実を生成する方法。
  21. マーカオブジェクトの移動を示す、変更された画像データが前記実環境から収集された際に、前記マーカオブジェクトの追跡を行う手順をさらに含む、ことを特徴とする請求項20記載の方法。
  22. 前記マーカオブジェクトの追跡を行う手順は少なくとも、仮想基準点に対する、前記既定マーカオブジェクトの相対位置および方向性を特定する手順を備えることを特徴とする請求項21記載の方法。
  23. 前記実環境と異なる第二の実環境からの画像データに基づいて、前記オブジェクト画像データを生成する手順を備える、ことを特徴とする請求項20乃至22いずれかに記載の方法。
  24. 前記実環境からの前記画像データに基づいて、前記オブジェクト画像データを生成する手順をさらに備える、ことを特徴とする請求項20乃至22いずれかに記載の方法。
  25. 仮想現実に基づいて、前記オブジェクト画像データを生成する手順をさらに備える、ことを特徴とする請求項20乃至24のいずれかに記載の方法。
  26. スキャンデータを生成し、前記スキャンデータに基づいて、前記実環境の照明条件を特定するために、実環境の少なくとも一部をスキャンする手順をさらに備える、ことを特徴とする請求項20乃至25いずれかに記載の方法。
  27. 前記実環境の前記部分をスキャンする手順は、少なくとも二つの異なる照明条件に関して実施される、ことを特徴とする請求項26記載の方法。
  28. 照明条件を特定する手段は、前記実環境の少なくとも一つの光源を識別する手順と、前記少なくとも一つの光源の位置、および/または光強度、および/または色を特定する手順とをさらに備える、ことを特徴とする請求項26または27記載の方法。
  29. 前記少なくとも一つの特定された光源に基づいて仮想照明条件を生成する手順をさらに含む、ことを特徴とする請求項28記載の方法。
  30. 前記仮想照明条件を生成する手順は、前記オブジェクト画像データ、および/または前記実環境に対応する前記仮想画像データによって生じる仮想影を生成する手順を備える、ことを特徴とする請求項29記載の方法。
  31. 前記仮想照明条件を生成する手順は、前記少なくとも一つの光源の位置、光強度、および色のうち少なくとも一つを変化させる手順を含む、ことを特徴とする請求項29または請求項30記載の方法。
  32. 少なくとも一つの仮想光源を生成する手順をさらに備え、前記少なくとも一つの仮想光源は、前記実環境に対応する光源を有さない、ことを特徴とする請求項20乃至31いずれかに記載の方法。
  33. 前記オブジェクト画像データによって、少なくとも前記マーカオブジェクト画像データが置き換えられている前記仮想画像データを表示する手順をさらに含む、ことを特徴とする請求項20乃至32いずれかに記載の方法。
  34. 一つ以上のオブジェクトデータの組と一つ以上のマーカオブジェクトとを関連づける手順をさらに備える、ことを特徴とする請求項20乃至33いずれかに記載の方法。
  35. 複数のオブジェクトデータの組と関連づけられている特定のマーカオブジェクトに対応する前記仮想画像データを置き換えるために、特定のオブジェクトデータの組を選択する手順をさらに備える、ことを特徴とする請求項34記載の方法。
  36. 前記特定のオブジェクトデータの組を選択する手順は、音声データを認識する手順と、前記音声データが複数のオブジェクトデータの組の内一つに対応するかどうかを特定する手順とを備える、ことを特徴とする請求項35記載の方法。
  37. 表示手段と画像キャプチャ手段とを実環境の関心のある部分の前に配置する手順と、
    前記画像キャプチャ手段によって、前記関心の部分から画像データを収集する手順と、
    前記画像データに基づいて、前記関心の部分に提供されている既定マーカオブジェクトを識別する手段と、
    前記関心のある部分の仮想画像データを生成する手順と、
    少なくとも前記既定マーカオブジェクトに対応する仮想画像データを、前記既定マーカオブジェクトに関連付けられたオブジェクト画像データによって置き換える手順と、
    を備える、仮想鏡像を生成する方法。
  38. 前記関心の部分は前記既定マーカオブジェクトを装着しているユーザの一部分を少なくとも含む、ことを特徴とする請求項37記載の方法。
  39. 前記オブジェクト画像データは衣服を表すことを特徴とする請求項38記載の方法。
  40. 第二のオブジェクト画像データに関連付けられている、第二の既定マーカオブジェクトを提供する、ことを特徴とする請求項37乃至39いずれかに記載の方法。
JP2006127301A 2005-05-03 2006-05-01 実マーカオブジェクトを識別する拡張現実システム Expired - Fee Related JP4880350B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP05009717.9 2005-05-03
EP05009717A EP1720131B1 (en) 2005-05-03 2005-05-03 An augmented reality system with real marker object identification

Publications (2)

Publication Number Publication Date
JP2006313549A true JP2006313549A (ja) 2006-11-16
JP4880350B2 JP4880350B2 (ja) 2012-02-22

Family

ID=34936101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006127301A Expired - Fee Related JP4880350B2 (ja) 2005-05-03 2006-05-01 実マーカオブジェクトを識別する拡張現実システム

Country Status (6)

Country Link
US (1) US20070038944A1 (ja)
EP (1) EP1720131B1 (ja)
JP (1) JP4880350B2 (ja)
AT (1) ATE428154T1 (ja)
DE (1) DE602005013752D1 (ja)
ES (1) ES2325374T3 (ja)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009058504A2 (en) * 2007-10-31 2009-05-07 Motorola, Inc. Mobile virtual and augmented reality system
JP2010011055A (ja) * 2008-06-26 2010-01-14 Olympus Corp 立体視画像表示装置、立体視画像表示方法
KR100945555B1 (ko) 2007-03-20 2010-03-08 인천대학교 산학협력단 증강현실 공간을 제공하는 장치 및 방법
JP2010102215A (ja) * 2008-10-27 2010-05-06 Sony Computer Entertainment Inc 表示装置、画像処理方法、及びコンピュータプログラム
JP2010170316A (ja) * 2009-01-22 2010-08-05 Konami Digital Entertainment Co Ltd 拡張現実表示装置、拡張現実表示方法、ならびに、プログラム
JP2010231459A (ja) * 2009-03-26 2010-10-14 Kyocera Corp 画像合成装置
JP2010267138A (ja) * 2009-05-15 2010-11-25 Panasonic Electric Works Co Ltd 設計支援方法、設計支援システムおよび設計支援装置
US7844229B2 (en) 2007-09-21 2010-11-30 Motorola Mobility, Inc Mobile virtual and augmented reality system
KR101056418B1 (ko) 2011-03-31 2011-08-11 주식회사 맥스트 모바일 센서를 이용한 증강 현실 콘텐츠 추적 장치 및 방법
KR101085762B1 (ko) * 2009-07-02 2011-11-21 삼성에스디에스 주식회사 증강현실을 이용한 주얼리 착용 모습 디스플레이 장치 및 방법
KR101159420B1 (ko) 2009-12-11 2012-06-28 주식회사 메타코 증강 현실을 이용한 학습 장치 및 방법
JP2012141779A (ja) * 2010-12-28 2012-07-26 Ns Solutions Corp 拡張現実提供装置、拡張現実提供システム、拡張現実提供方法及びプログラム
US8350871B2 (en) 2009-02-04 2013-01-08 Motorola Mobility Llc Method and apparatus for creating virtual graffiti in a mobile virtual and augmented reality system
JP2013156981A (ja) * 2012-01-30 2013-08-15 Harman Becker Automotive Systems Gmbh 車両の環境を表示するための視認システムおよび方法
JP2014063397A (ja) * 2012-09-21 2014-04-10 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2014167761A (ja) * 2013-02-28 2014-09-11 Toshiba Corp 環境評価装置、方法およびプログラム
JP2014229090A (ja) * 2013-05-23 2014-12-08 株式会社電通 画像共有システム
JP2015087419A (ja) * 2013-10-28 2015-05-07 大日本印刷株式会社 映像コンテンツ表示装置、眼鏡、映像コンテンツ処理システム及び映像コンテンツ表示プログラム
JP5842199B1 (ja) * 2015-07-23 2016-01-13 株式会社コシナ 交換レンズの情報提供方法及び販売方法
JP2016006589A (ja) * 2014-06-20 2016-01-14 富士通株式会社 表示装置、制御プログラム、および制御方法
JP2016006627A (ja) * 2014-05-28 2016-01-14 ソニー株式会社 画像処理装置と画像処理方法
JP2016048455A (ja) * 2014-08-27 2016-04-07 株式会社リコー 画像処理装置、画像処理方法、およびプログラム
KR101641676B1 (ko) * 2015-01-14 2016-07-21 동서대학교산학협력단 증강현실 구현 웨어러블 디바이스 착용형 헬스케어 시스템
JP2016131031A (ja) * 2016-02-22 2016-07-21 株式会社ソニー・インタラクティブエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
US9639989B2 (en) 2012-06-29 2017-05-02 Sony Corporation Video processing device, video processing method, and video processing system
KR101820379B1 (ko) * 2016-07-29 2018-01-19 강태준 입체형 더블 마커 기반의 증강 현실 장치

Families Citing this family (135)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1887526A1 (en) 2006-08-11 2008-02-13 Seac02 S.r.l. A digitally-augmented reality video system
KR100834904B1 (ko) 2006-12-08 2008-06-03 한국전자통신연구원 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠저작 시스템 및 방법
US8117137B2 (en) 2007-04-19 2012-02-14 Microsoft Corporation Field-programmable gate array based accelerator system
US20100309226A1 (en) * 2007-05-08 2010-12-09 Eidgenossische Technische Hochschule Zurich Method and system for image-based information retrieval
US20080310707A1 (en) * 2007-06-15 2008-12-18 Microsoft Corporation Virtual reality enhancement using real world data
US20090109240A1 (en) * 2007-10-24 2009-04-30 Roman Englert Method and System for Providing and Reconstructing a Photorealistic Three-Dimensional Environment
DE102007059478B4 (de) * 2007-12-11 2014-06-26 Kuka Laboratories Gmbh Verfahren und System zur Ausrichtung eines virtuellen Modells an einem realen Objekt
US20100214111A1 (en) * 2007-12-21 2010-08-26 Motorola, Inc. Mobile virtual and augmented reality system
US8264505B2 (en) * 2007-12-28 2012-09-11 Microsoft Corporation Augmented reality and filtering
US9495386B2 (en) 2008-03-05 2016-11-15 Ebay Inc. Identification of items depicted in images
EP2250623A4 (en) 2008-03-05 2011-03-23 Ebay Inc METHOD AND APPARATUS OF IMAGE RECOGNITION SERVICES
US20090237328A1 (en) * 2008-03-20 2009-09-24 Motorola, Inc. Mobile virtual and augmented reality system
US20090307240A1 (en) * 2008-06-06 2009-12-10 International Business Machines Corporation Method and system for generating analogous fictional data from non-fictional data
KR101465668B1 (ko) * 2008-06-24 2014-11-26 삼성전자주식회사 단말 및 그의 블로깅 방법
US8131659B2 (en) 2008-09-25 2012-03-06 Microsoft Corporation Field-programmable gate array based accelerator system
US8301638B2 (en) 2008-09-25 2012-10-30 Microsoft Corporation Automated feature selection based on rankboost for ranking
US8397181B2 (en) 2008-11-17 2013-03-12 Honeywell International Inc. Method and apparatus for marking a position of a real world object in a see-through display
CN102245100B (zh) * 2008-12-10 2014-09-10 皇家飞利浦电子股份有限公司 图形表示
EP2372653B1 (en) * 2008-12-24 2015-07-22 Sony Computer Entertainment Inc. Image processing device and image processing method
US8606657B2 (en) * 2009-01-21 2013-12-10 Edgenet, Inc. Augmented reality method and system for designing environments and buying/selling goods
US8797321B1 (en) 2009-04-01 2014-08-05 Microsoft Corporation Augmented lighting environments
US8839121B2 (en) * 2009-05-06 2014-09-16 Joseph Bertolami Systems and methods for unifying coordinate systems in augmented reality applications
JP5402293B2 (ja) * 2009-06-22 2014-01-29 ソニー株式会社 頭部装着型ディスプレイ、及び、頭部装着型ディスプレイにおける画像表示方法
US8405658B2 (en) * 2009-09-14 2013-03-26 Autodesk, Inc. Estimation of light color and direction for augmented reality applications
US8682738B2 (en) * 2009-10-29 2014-03-25 At&T Intellectual Property I, Lp System and method for using a digital inventory of clothing
WO2011080142A1 (en) * 2009-12-21 2011-07-07 Thomson Licensing Method for generating an environment map
EP2355526A3 (en) 2010-01-14 2012-10-31 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP5898842B2 (ja) 2010-01-14 2016-04-06 任天堂株式会社 携帯型情報処理装置、携帯型ゲーム装置
KR101082285B1 (ko) * 2010-01-29 2011-11-09 주식회사 팬택 증강 현실 제공 단말기 및 방법
JP5800501B2 (ja) 2010-03-12 2015-10-28 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
US9158777B2 (en) * 2010-03-30 2015-10-13 Gravity Jack, Inc. Augmented reality methods and apparatus
US8909950B1 (en) 2010-04-18 2014-12-09 Aptima, Inc. Systems and methods of power management
JP4971483B2 (ja) 2010-05-14 2012-07-11 任天堂株式会社 画像表示プログラム、画像表示装置、画像表示システム、および画像表示方法
US8384770B2 (en) 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
US8633947B2 (en) 2010-06-02 2014-01-21 Nintendo Co., Ltd. Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method
EP2395768B1 (en) 2010-06-11 2015-02-25 Nintendo Co., Ltd. Image display program, image display system, and image display method
EP2395474A3 (en) * 2010-06-11 2014-03-26 Nintendo Co., Ltd. Storage medium having image recognition program stored therein, image recognition apparatus, image recognition system, and image recognition method
JP5647819B2 (ja) 2010-06-11 2015-01-07 任天堂株式会社 携帯型電子機器
EP2395766B1 (en) 2010-06-14 2016-03-23 Nintendo Co., Ltd. Storage medium having stored therein stereoscopic image display program, stereoscopic image display device, stereoscopic image display system, and stereoscopic image display method
JP5149939B2 (ja) * 2010-06-15 2013-02-20 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
US9361729B2 (en) * 2010-06-17 2016-06-07 Microsoft Technology Licensing, Llc Techniques to present location information for social networks using augmented reality
WO2011160114A1 (en) * 2010-06-18 2011-12-22 Minx, Inc. Augmented reality
JP5739674B2 (ja) 2010-09-27 2015-06-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US8854356B2 (en) 2010-09-28 2014-10-07 Nintendo Co., Ltd. Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
US9177259B1 (en) * 2010-11-29 2015-11-03 Aptima Inc. Systems and methods for recognizing and reacting to spatiotemporal patterns
ES2383976B1 (es) 2010-12-03 2013-05-08 Alu Group, S.L. Método para el probado virtual de calzado.
KR101315398B1 (ko) * 2010-12-28 2013-10-07 주식회사 팬택 3차원 증강 현실 표시 장치 및 방법
US9183588B2 (en) 2011-01-20 2015-11-10 Ebay, Inc. Three dimensional proximity recommendation system
CN102156808A (zh) * 2011-03-30 2011-08-17 北京触角科技有限公司 增强现实实时虚拟饰品试戴系统及方法
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
TWI443600B (zh) * 2011-05-05 2014-07-01 Mstar Semiconductor Inc 影像處理的方法與相關裝置
US20120299963A1 (en) * 2011-05-27 2012-11-29 Wegrzyn Kenneth M Method and system for selection of home fixtures
US20120327114A1 (en) * 2011-06-21 2012-12-27 Dassault Systemes Device and associated methodology for producing augmented images
US10242456B2 (en) 2011-06-23 2019-03-26 Limitless Computing, Inc. Digitally encoded marker-based augmented reality (AR)
CN103018904A (zh) * 2011-09-23 2013-04-03 奇想创造事业股份有限公司 头戴式影像撷取分析显示系统及其方法
ES2656868T3 (es) * 2011-10-05 2018-02-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Dispositivo portátil, sistema y método de realidad virtual
US9641790B2 (en) * 2011-10-17 2017-05-02 Microsoft Technology Licensing, Llc Interactive video program providing linear viewing experience
US9449342B2 (en) 2011-10-27 2016-09-20 Ebay Inc. System and method for visualization of items in an environment using augmented reality
JP2013105346A (ja) * 2011-11-14 2013-05-30 Sony Corp 情報提示装置、情報提示方法、情報提示システム、情報登録装置、情報登録方法、情報登録システムおよびプログラム
US8872853B2 (en) 2011-12-01 2014-10-28 Microsoft Corporation Virtual light in augmented reality
US9524436B2 (en) 2011-12-06 2016-12-20 Microsoft Technology Licensing, Llc Augmented reality camera registration
US9311751B2 (en) 2011-12-12 2016-04-12 Microsoft Technology Licensing, Llc Display of shadows via see-through display
EP2608153A1 (en) 2011-12-21 2013-06-26 Harman Becker Automotive Systems GmbH Method and system for playing an augmented reality game in a motor vehicle
US20130215132A1 (en) * 2012-02-22 2013-08-22 Ming Fong System for reproducing virtual objects
US10846766B2 (en) 2012-06-29 2020-11-24 Ebay Inc. Contextual menus based on image recognition
US9361730B2 (en) * 2012-07-26 2016-06-07 Qualcomm Incorporated Interactions of tangible and augmented reality objects
US9429912B2 (en) * 2012-08-17 2016-08-30 Microsoft Technology Licensing, Llc Mixed reality holographic object development
KR102145533B1 (ko) * 2012-10-04 2020-08-18 삼성전자주식회사 플렉서블 디스플레이 장치 및 그의 제어 방법
US20140111534A1 (en) * 2012-10-22 2014-04-24 Apple Inc. Media-Editing Application for Generating and Editing Shadows
US9785839B2 (en) * 2012-11-02 2017-10-10 Sony Corporation Technique for combining an image and marker without incongruity
JP2016509767A (ja) 2012-12-21 2016-03-31 ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー 車両用システム及び通信方法
US9430877B2 (en) * 2013-01-25 2016-08-30 Wilus Institute Of Standards And Technology Inc. Electronic device and method for selecting augmented content using the same
US9846965B2 (en) 2013-03-15 2017-12-19 Disney Enterprises, Inc. Augmented reality device with predefined object data
US8922589B2 (en) 2013-04-07 2014-12-30 Laor Consulting Llc Augmented reality apparatus
WO2014171644A1 (ko) * 2013-04-14 2014-10-23 Lee Moon Key 거울을 이용한 증강현실 시스템
JP6255706B2 (ja) 2013-04-22 2018-01-10 富士通株式会社 表示制御装置、表示制御方法、表示制御プログラムおよび情報提供システム
CN104301661B (zh) * 2013-07-19 2019-08-27 南京中兴软件有限责任公司 一种智能家居监控方法、客户端及相应装置
CN103543827B (zh) * 2013-10-14 2016-04-06 徐坚 基于单个摄像机的沉浸式户外活动交互平台的实现方法
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
US9652892B2 (en) * 2013-10-29 2017-05-16 Microsoft Technology Licensing, Llc Mixed reality spotlight
US9299194B2 (en) * 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US9953462B2 (en) 2014-01-31 2018-04-24 Empire Technology Development Llc Augmented reality skin manager
EP3100240B1 (en) 2014-01-31 2018-10-31 Empire Technology Development LLC Evaluation of augmented reality skins
WO2015116183A2 (en) 2014-01-31 2015-08-06 Empire Technology Development, Llc Subject selected augmented reality skin
US9990772B2 (en) * 2014-01-31 2018-06-05 Empire Technology Development Llc Augmented reality skin evaluation
JP6244954B2 (ja) 2014-02-06 2017-12-13 富士通株式会社 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
JP6217437B2 (ja) * 2014-02-14 2017-10-25 富士通株式会社 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
WO2015123775A1 (en) * 2014-02-18 2015-08-27 Sulon Technologies Inc. Systems and methods for incorporating a real image stream in a virtual image stream
CN106133796B (zh) * 2014-03-25 2019-07-16 苹果公司 用于在真实环境的视图中表示虚拟对象的方法和系统
US9552674B1 (en) * 2014-03-26 2017-01-24 A9.Com, Inc. Advertisement relevance
KR102235679B1 (ko) * 2014-07-08 2021-04-05 삼성전자주식회사 시각 효과를 가지는 객체를 디스플레이하는 장치 및 방법
US10593113B2 (en) 2014-07-08 2020-03-17 Samsung Electronics Co., Ltd. Device and method to display object with visual effect
HK1201682A2 (en) * 2014-07-11 2015-09-04 Idvision Ltd Augmented reality system
US10088971B2 (en) * 2014-12-10 2018-10-02 Microsoft Technology Licensing, Llc Natural user interface camera calibration
US10154239B2 (en) 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
US9754417B2 (en) * 2014-12-31 2017-09-05 Canon Information And Imaging Solutions, Inc. Methods and systems for displaying virtual objects
US9685005B2 (en) * 2015-01-02 2017-06-20 Eon Reality, Inc. Virtual lasers for interacting with augmented reality environments
WO2016136311A1 (ja) * 2015-02-27 2016-09-01 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US9646421B2 (en) 2015-04-14 2017-05-09 International Business Machines Corporation Synchronizing an augmented reality video stream with a displayed video stream
WO2016187351A1 (en) * 2015-05-18 2016-11-24 Daqri, Llc Context-based augmented reality content delivery
US9836845B2 (en) * 2015-08-25 2017-12-05 Nextvr Inc. Methods and apparatus for detecting objects in proximity to a viewer and presenting visual representations of objects in a simulated environment
CN111329551A (zh) 2016-03-12 2020-06-26 P·K·朗 用于脊柱和关节手术的增强现实引导
US10650591B1 (en) 2016-05-24 2020-05-12 Out of Sight Vision Systems LLC Collision avoidance system for head mounted display utilized in room scale virtual reality system
DE102016006855A1 (de) * 2016-06-04 2017-12-07 Audi Ag Verfahren zum Betreiben eines Anzeigesystems und Anzeigesystem
DE102016010037A1 (de) * 2016-08-22 2018-02-22 Michael Schick Verändern einer Darstellung einer Realität für Informationszwecke
US10540491B1 (en) * 2016-10-25 2020-01-21 Wells Fargo Bank, N.A. Virtual and augmented reality signatures
US20180182169A1 (en) * 2016-12-22 2018-06-28 Atlatl Software, Inc. Marker for augmented reality employing a trackable marker template
EP3568070B1 (en) 2017-01-16 2024-01-03 Philipp K. Lang Optical guidance for surgical, medical, and dental procedures
US20200045298A1 (en) * 2017-02-27 2020-02-06 Thomson Licensing Method, system and apparatus for visual effects
EP3388999A1 (en) * 2017-04-11 2018-10-17 Pricer AB Displaying further information about a product
WO2018199351A1 (ko) * 2017-04-26 2018-11-01 라인 가부시키가이샤 센서 데이터를 메타데이터로서 포함하는 이미지 파일 생성 방법 및 장치
IT201700058961A1 (it) * 2017-05-30 2018-11-30 Artglass S R L Metodo e sistema di fruizione di un contenuto editoriale in un sito preferibilmente culturale o artistico o paesaggistico o naturalistico o fieristico o espositivo
FR3067842B1 (fr) * 2017-06-19 2020-09-25 SOCIéTé BIC Procede d'application de texture en realite augmentee, systeme et kits correspondants
US11801114B2 (en) 2017-09-11 2023-10-31 Philipp K. Lang Augmented reality display for vascular and other interventions, compensation for cardiac and respiratory motion
US10650611B1 (en) 2017-09-12 2020-05-12 Atlatl Software, Inc. Systems and methods for graphical programming
US10963596B1 (en) 2017-09-12 2021-03-30 Atlatl Software, Inc. Systems and methods for CAD automation
US10922878B2 (en) * 2017-10-04 2021-02-16 Google Llc Lighting for inserted content
GB2569267A (en) * 2017-10-13 2019-06-19 Mo Sys Engineering Ltd Lighting integration
US11043031B2 (en) 2017-10-20 2021-06-22 Google Llc Content display property management
US10398855B2 (en) * 2017-11-14 2019-09-03 William T. MCCLELLAN Augmented reality based injection therapy
US11501224B2 (en) 2018-01-24 2022-11-15 Andersen Corporation Project management system with client interaction
US11348257B2 (en) 2018-01-29 2022-05-31 Philipp K. Lang Augmented reality guidance for orthopedic and other surgical procedures
BR102018003125B1 (pt) 2018-02-19 2022-05-10 Petróleo Brasileiro S.A. - Petrobras Método para reconhecimento ótico de marcadores em ambiente externo
CN108711188A (zh) * 2018-02-24 2018-10-26 石化盈科信息技术有限责任公司 一种基于ar的工厂实时数据展示方法及系统
CN108986199B (zh) * 2018-06-14 2023-05-16 北京小米移动软件有限公司 虚拟模型处理方法、装置、电子设备及存储介质
US10916220B2 (en) 2018-08-07 2021-02-09 Apple Inc. Detection and display of mixed 2D/3D content
CN109740425A (zh) * 2018-11-23 2019-05-10 上海扩博智能技术有限公司 基于增强现实的图像标注方法、系统、设备及存储介质
TWI767179B (zh) * 2019-01-24 2022-06-11 宏達國際電子股份有限公司 混合實境中偵測真實世界光源的方法、混合實境系統及記錄媒體
US11857378B1 (en) 2019-02-14 2024-01-02 Onpoint Medical, Inc. Systems for adjusting and tracking head mounted displays during surgery including with surgical helmets
US11553969B1 (en) 2019-02-14 2023-01-17 Onpoint Medical, Inc. System for computation of object coordinates accounting for movement of a surgical site for spinal and other procedures
US11182965B2 (en) 2019-05-01 2021-11-23 At&T Intellectual Property I, L.P. Extended reality markers for enhancing social engagement
US10860705B1 (en) 2019-05-16 2020-12-08 Capital One Services, Llc Augmented reality generated human challenge
US11144760B2 (en) 2019-06-21 2021-10-12 International Business Machines Corporation Augmented reality tagging of non-smart items
US11562488B2 (en) * 2020-10-15 2023-01-24 Adobe Inc. Image content snapping guidelines
EP4304490A1 (en) 2021-03-10 2024-01-17 Onpoint Medical, Inc. Augmented reality guidance for imaging systems and robotic surgery

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136706A (ja) * 1997-09-01 1999-05-21 Mr System Kenkyusho:Kk 位置姿勢検出装置、位置姿勢検出方法、複合現実感提示装置、ゲーム装置、複合現実感提示方法および記憶媒体
JP2000242808A (ja) * 1999-02-19 2000-09-08 Internatl Business Mach Corp <Ibm> 仮想3次元グラフィカル表示をレンダリングするための方法およびシステム
JP2000352960A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感画像の効果付加装置、効果付加のための画像処理方法およびプログラム記憶媒体
JP2000350860A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感装置及び複合現実空間画像の生成方法
JP2001084362A (ja) * 1999-07-12 2001-03-30 Fuji Photo Film Co Ltd 光源方向と3次元形状の推定方法および装置並びに記録媒体
JP2002271693A (ja) * 2001-03-13 2002-09-20 Canon Inc 画像処理装置、画像処理方法、及び制御プログラム
JP2003524219A (ja) * 1998-09-22 2003-08-12 モーテック・モーション・テクノロジー・インコーポレーテッド 人間の機能的行動をダイナミックに登録・評価・修正するためのシステム
JP2003281504A (ja) * 2002-03-22 2003-10-03 Canon Inc 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム
JP2004537082A (ja) * 2001-01-26 2004-12-09 ザクセル システムズ インコーポレイテッド 仮想現実環境における実時間バーチャル・ビューポイント

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6426757B1 (en) * 1996-03-04 2002-07-30 International Business Machines Corporation Method and apparatus for providing pseudo-3D rendering for virtual reality computer user interfaces
US7073129B1 (en) * 1998-12-18 2006-07-04 Tangis Corporation Automated selection of appropriate information based on a computer user's context
US6538676B1 (en) * 1999-10-04 2003-03-25 Intel Corporation Video token tracking system for overlay of metadata upon video data
US7523411B2 (en) * 2000-08-22 2009-04-21 Bruce Carlin Network-linked interactive three-dimensional composition and display of saleable objects in situ in viewer-selected scenes for purposes of object promotion and procurement, and generation of object advertisements
US20020044152A1 (en) * 2000-10-16 2002-04-18 Abbott Kenneth H. Dynamic integration of computer generated and real world images
US20040104935A1 (en) * 2001-01-26 2004-06-03 Todd Williamson Virtual reality immersion system
US7126558B1 (en) * 2001-10-19 2006-10-24 Accenture Global Services Gmbh Industrial augmented reality
JP4298407B2 (ja) * 2002-09-30 2009-07-22 キヤノン株式会社 映像合成装置及び映像合成方法
JP4401727B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 画像表示装置及び方法
JP4401728B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 複合現実空間画像生成方法及び複合現実感システム
KR100800859B1 (ko) * 2004-08-27 2008-02-04 삼성전자주식회사 Hmd 정보 단말기에서 키를 입력하는 장치 및 방법

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136706A (ja) * 1997-09-01 1999-05-21 Mr System Kenkyusho:Kk 位置姿勢検出装置、位置姿勢検出方法、複合現実感提示装置、ゲーム装置、複合現実感提示方法および記憶媒体
JP2003524219A (ja) * 1998-09-22 2003-08-12 モーテック・モーション・テクノロジー・インコーポレーテッド 人間の機能的行動をダイナミックに登録・評価・修正するためのシステム
JP2000242808A (ja) * 1999-02-19 2000-09-08 Internatl Business Mach Corp <Ibm> 仮想3次元グラフィカル表示をレンダリングするための方法およびシステム
JP2000352960A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感画像の効果付加装置、効果付加のための画像処理方法およびプログラム記憶媒体
JP2000350860A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感装置及び複合現実空間画像の生成方法
JP2001084362A (ja) * 1999-07-12 2001-03-30 Fuji Photo Film Co Ltd 光源方向と3次元形状の推定方法および装置並びに記録媒体
JP2004537082A (ja) * 2001-01-26 2004-12-09 ザクセル システムズ インコーポレイテッド 仮想現実環境における実時間バーチャル・ビューポイント
JP2002271693A (ja) * 2001-03-13 2002-09-20 Canon Inc 画像処理装置、画像処理方法、及び制御プログラム
JP2003281504A (ja) * 2002-03-22 2003-10-03 Canon Inc 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100945555B1 (ko) 2007-03-20 2010-03-08 인천대학교 산학협력단 증강현실 공간을 제공하는 장치 및 방법
US7844229B2 (en) 2007-09-21 2010-11-30 Motorola Mobility, Inc Mobile virtual and augmented reality system
WO2009058504A3 (en) * 2007-10-31 2009-06-18 Motorola Inc Mobile virtual and augmented reality system
WO2009058504A2 (en) * 2007-10-31 2009-05-07 Motorola, Inc. Mobile virtual and augmented reality system
US7853296B2 (en) 2007-10-31 2010-12-14 Motorola Mobility, Inc. Mobile virtual and augmented reality system
JP2010011055A (ja) * 2008-06-26 2010-01-14 Olympus Corp 立体視画像表示装置、立体視画像表示方法
JP2010102215A (ja) * 2008-10-27 2010-05-06 Sony Computer Entertainment Inc 表示装置、画像処理方法、及びコンピュータプログラム
JP2010170316A (ja) * 2009-01-22 2010-08-05 Konami Digital Entertainment Co Ltd 拡張現実表示装置、拡張現実表示方法、ならびに、プログラム
US8350871B2 (en) 2009-02-04 2013-01-08 Motorola Mobility Llc Method and apparatus for creating virtual graffiti in a mobile virtual and augmented reality system
JP2010231459A (ja) * 2009-03-26 2010-10-14 Kyocera Corp 画像合成装置
JP2010267138A (ja) * 2009-05-15 2010-11-25 Panasonic Electric Works Co Ltd 設計支援方法、設計支援システムおよび設計支援装置
KR101085762B1 (ko) * 2009-07-02 2011-11-21 삼성에스디에스 주식회사 증강현실을 이용한 주얼리 착용 모습 디스플레이 장치 및 방법
KR101159420B1 (ko) 2009-12-11 2012-06-28 주식회사 메타코 증강 현실을 이용한 학습 장치 및 방법
JP2012141779A (ja) * 2010-12-28 2012-07-26 Ns Solutions Corp 拡張現実提供装置、拡張現実提供システム、拡張現実提供方法及びプログラム
KR101056418B1 (ko) 2011-03-31 2011-08-11 주식회사 맥스트 모바일 센서를 이용한 증강 현실 콘텐츠 추적 장치 및 방법
US8648879B2 (en) 2011-03-31 2014-02-11 Maxst Co., Ltd. Apparatus and method for tracking augmented reality content
JP2013156981A (ja) * 2012-01-30 2013-08-15 Harman Becker Automotive Systems Gmbh 車両の環境を表示するための視認システムおよび方法
US9639989B2 (en) 2012-06-29 2017-05-02 Sony Corporation Video processing device, video processing method, and video processing system
JP2014063397A (ja) * 2012-09-21 2014-04-10 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2014167761A (ja) * 2013-02-28 2014-09-11 Toshiba Corp 環境評価装置、方法およびプログラム
JP2014229090A (ja) * 2013-05-23 2014-12-08 株式会社電通 画像共有システム
JP2015087419A (ja) * 2013-10-28 2015-05-07 大日本印刷株式会社 映像コンテンツ表示装置、眼鏡、映像コンテンツ処理システム及び映像コンテンツ表示プログラム
JP2016006627A (ja) * 2014-05-28 2016-01-14 ソニー株式会社 画像処理装置と画像処理方法
US10204404B2 (en) 2014-05-28 2019-02-12 Sony Corporation Image processing device and image processing method
JP2016006589A (ja) * 2014-06-20 2016-01-14 富士通株式会社 表示装置、制御プログラム、および制御方法
JP2016048455A (ja) * 2014-08-27 2016-04-07 株式会社リコー 画像処理装置、画像処理方法、およびプログラム
KR101641676B1 (ko) * 2015-01-14 2016-07-21 동서대학교산학협력단 증강현실 구현 웨어러블 디바이스 착용형 헬스케어 시스템
JP5842199B1 (ja) * 2015-07-23 2016-01-13 株式会社コシナ 交換レンズの情報提供方法及び販売方法
JP2016131031A (ja) * 2016-02-22 2016-07-21 株式会社ソニー・インタラクティブエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
KR101820379B1 (ko) * 2016-07-29 2018-01-19 강태준 입체형 더블 마커 기반의 증강 현실 장치

Also Published As

Publication number Publication date
DE602005013752D1 (de) 2009-05-20
US20070038944A1 (en) 2007-02-15
EP1720131A1 (en) 2006-11-08
ES2325374T3 (es) 2009-09-02
JP4880350B2 (ja) 2012-02-22
ATE428154T1 (de) 2009-04-15
EP1720131B1 (en) 2009-04-08

Similar Documents

Publication Publication Date Title
JP4880350B2 (ja) 実マーカオブジェクトを識別する拡張現実システム
CN100534158C (zh) 产生虚拟图像和真实图像的合成图像
CN110517355B (zh) 用于照明混合现实对象的环境合成
CN107680165B (zh) 基于HoloLens的电脑操作台全息展现与自然交互应用方法
Oufqir et al. ARKit and ARCore in serve to augmented reality
JP5976019B2 (ja) 写実的に表されたビューのテーマベースの拡張
Phan et al. Interior design in augmented reality environment
US7301547B2 (en) Augmented reality system
JP4739002B2 (ja) 画像処理方法、画像処理装置
CN103116857B (zh) 一种基于体感控制的虚拟样板房漫游系统
CN106062862A (zh) 用于沉浸式和交互式多媒体生成的系统和方法
CN106530404A (zh) 基于ar虚拟现实技术和云存储的待售房屋考察系统
JP2011095797A (ja) 画像処理装置、画像処理方法及びプログラム
AU2016336030A1 (en) Volumetric depth video recording and playback
JP2004264907A (ja) 画像生成システム、画像生成装置、画像生成方法
CN102725038A (zh) 组合多传感输入以用于数字动画
KR20170044318A (ko) 헤드 마운트 디스플레이를 이용한 협업 방법
CN106504337A (zh) 基于ar虚拟现实技术的待售房屋考察及协同装饰装修系统
KR20210086837A (ko) 증강현실을 이용한 실내 인테리어 시뮬레이션 방법
Inoue et al. Tracking Robustness and Green View Index Estimation of Augmented and Diminished Reality for Environmental Design
Deldjoo et al. A low-cost infrared-optical head tracking solution for virtual 3d audio environment using the nintendo wii-remote
CN106779900A (zh) 基于ar虚拟现实技术的待售房屋考察系统
CN109215128A (zh) 物体运动姿态图像的合成方法及系统
Magnenat-Thalmann et al. Real Time Animation and Illumination in Ancient Roman Sites.
Knecht et al. A framework for perceptual studies in photorealistic augmented reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110412

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110711

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110714

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110811

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110816

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110912

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111101

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111201

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees