JP6360200B2 - アルベドモデルにより拡張現実コンテンツをレンダリングするシステムおよび方法 - Google Patents

アルベドモデルにより拡張現実コンテンツをレンダリングするシステムおよび方法 Download PDF

Info

Publication number
JP6360200B2
JP6360200B2 JP2016566971A JP2016566971A JP6360200B2 JP 6360200 B2 JP6360200 B2 JP 6360200B2 JP 2016566971 A JP2016566971 A JP 2016566971A JP 2016566971 A JP2016566971 A JP 2016566971A JP 6360200 B2 JP6360200 B2 JP 6360200B2
Authority
JP
Japan
Prior art keywords
model
content
albedo
rendering
digital representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016566971A
Other languages
English (en)
Other versions
JP2017524999A (ja
Inventor
マシーン シディキ
マシーン シディキ
カミル ヴヌク
カミル ヴヌク
Original Assignee
ナント・ホールデイングス・アイ・ピー・エル・エル・シー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ナント・ホールデイングス・アイ・ピー・エル・エル・シー filed Critical ナント・ホールデイングス・アイ・ピー・エル・エル・シー
Publication of JP2017524999A publication Critical patent/JP2017524999A/ja
Application granted granted Critical
Publication of JP6360200B2 publication Critical patent/JP6360200B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Description

関連出願の相互参照
本願は2014年5月13日に出願された米国特許仮出願第61/992,804号の優先権を主張し、その全文は参照により本稿に組み込まれる。
本発明の技術分野は、拡張現実技術に関する。
以下の背景技術の説明で、本発明の理解に有用となり得る情報を示す。ここで説明される情報の全てが従来技術、本発明に関連するものと解されるべきではなく、直接的又は間接的に触れられた刊行物の全てが従来技術と解されるべきではない。
カメラ付き携帯装置(例えば携帯電話、タブレット、ゲームシステム等)の普及により、拡張又は仮想現実コンテンツが益々求められている。拡張現実コンテンツは、現実世界の物体の画像に重畳でき、使用者の使用感を高めるものである。例えば、Gazzuoloによる、2001年6月29日に出願された、名称「Virtual Fitting Room」の米国特許第6,546,309号には、身体の数学的モデルから使用者のサイズを決定する処理が記載されている。そしてそのサイズは、使用者の画像に重畳可能な衣服モデルの調整に供される。即ちGazzuoloによる手法によると、使用者は「バーチャルに」衣服を試着可能となるのである。
多種多様な市場で、拡張現実(ARと略する)コンテンツを現実世界に重畳する数多の例が存在するが、やはり人が見ると重畳されたARコンテンツはあくまで作り物と感じられてしまう。それはARコンテンツが、荒いコンピュータ生成グラフィックとしてレンダリングされ、装置のセンサが撮像した実際の現実世界における感覚に合わないためである。
より自然さを追求するよう、コンテンツを改良しようという試みもなされている。Geigerらによる、2011年6月30日出願の、名称「Virtual Lens−Rendering Augmented Reality Lens」の米国特許公開第2013/0002698号には、あるシーンの照明特性を、周囲の照明情報から修正する技術が記載されている。このような修正により、再レンダリングされたシーンがより写実的になる。
更に、物体情報を利用して画像修正を行おうという試みもある。例えば、Benitezらによる、2006年11月21日に国際出願された、名称「Methods and Systems for Color Correction of 3D Images」の米国特許第8,538,144号は、撮影中に判定されたアルベド情報を利用して、色情報を修正することが記載されている。更に、Ahmedらによる、名称「Skin and Other Surface Classification using Albedo」の米国特許公開第2014/0085625号では、素材の種類(例えば、肌)についてのアルベド情報を使用して、物体のアルベドが判定される。
Moghaddamによる、2005年2月14日に出願された、名称「Face Relighting for Normalization of Direction Lighting」の米国特許第7,324,688号では、アルベドを利用して入力画像から照明方向を判定している。Moghaddamは、肌アルベド情報を使用して、照明情報が得られる人物の顔画像からアルベドマップを構築している。
本稿で指定された全ての刊行物は、それぞれの刊行物又は特許出願が具体的かつ個別に参照により組み込まれるよう指定されているものとして、参照により本稿に組み込まれる。組み込まれた参照資料内の用語の定義や用法が、本稿における当該用語の定義と一致しない又は異なる場合、その用語については本稿の定義が適用され、参照資料での定義は適用されない。
以下の説明では、本発明の理解に有用となり得る情報を示す。ここで説明される情報の全てが従来技術、本発明に関連するものと解されるべきではなく、直接的又は間接的に触れられた刊行物の全てが従来技術と解されるべきではない。
いくつかの実施形態では、本発明のある実施形態を説明及び特許請求するために使用される材料の分量、濃度や反応条件等の特性は、例えば「約」という用語によって修飾されているものと理解される。したがって、いくつかの実施形態において、明細書及び添付の請求項中にルールされた数値的パラメータは概数であり、具体的な実施形態で達成しようとする所望の特性によっては変更可能である。いくつかの実施形態では、数値的パラメータは記載されている有効桁数を鑑みて、通常の四捨五入も踏まえて解釈されるべきものである。本発明のいくつかの実施形態の広い範囲を規定する数値的範囲及びパラメータは概数であるが、特定の例においてルールされた数値は実施可能となるように正確に記載されている。本発明のいくつかの実施形態に挙げられている数値は、それぞれの実測に見られる標準偏差から必然的に発生した誤差を含んでいる場合がある。
文脈に違わない限り、本稿にルールされた全ての範囲は、その上下限値を含むものと解釈すべきであり、上下限値を定めない範囲については商用に現実的な値のみを含むものと解釈すべきである。同様に、文脈に違わない限り、全ての値の列挙には中間値が含まれるものと解釈すべきである。
本稿及び請求項において、明確に矛盾する文脈でない限り、単数で記載されたものはそれが複数の場合も含む。また、本稿において、明確に矛盾する文脈でない限り、「〜において」という表現には「〜において」及び「〜上に」という意味も含む。
本稿において、値の範囲は、その範囲にある個々の値を個別に言及することの代用を単に意図するものとして挙げられている。本稿に別途ルールされない限り、個々の値は個別に言及されたものとして本稿に組み込まれる。本稿に記載された全ての方法は、本稿に別途ルールされない限り、又は明確に矛盾する文脈でない限り、任意の適切な順番で実行できる。本稿のある実施形態に関するいずれかの例又は全ての例や例示的な語(例えば「等」)は、本発明をより良く説明することを単に意図しているものであり、別の表現で請求されている本発明の範囲を制限するものではない。本明細書内のいずれの語も、特許請求されていないが本発明の実施に不可欠な構成要素を示すと解釈されるべきではない。
本稿に開示されている本発明の代用の構成要素又は実施形態の組は、それらに限定するものと解釈されるものではない。各組の部材は、個別に又は本稿に挙げられている組の別の部材や別の構成要素と任意の組合せで言及又は特許請求されてもよい。ある組における1つ以上の部材は、便宜上及び/又は特許性により、ある組に含まれても、そこから削除されてもよい。そのように含めたり削除したりする場合、本明細書は、添付の請求項で用いられている全てのマーカッシュ形式の記載を満たすものとして変更された組を含むものと解釈される。
例えば構築された物体(例えば玩具や自動車等)の真のアルベドを事前に認識(又は推定)可能な状況が存在することがあまり知られていない。そのような情報によりレンダリング装置近傍の環境に対して、よりリアルに拡張現実コンテンツをレンダリングできるようになる。したがって、例えばアルベドのような既知の物体特性に基づいて拡張現実コンテンツをレンダリングすることに対する要求が存在する。
本発明の主題は、拡張現実(AR)コンテンツが現実世界の環境の自然な一部に見えるような形で現実世界の物体の画像上に拡張現実コンテンツを表示することができる装置、システム、及び方法を提供する。本発明の主題の一態様は、ARコンテンツをレンダリングするコンピュータにより実行される方法を含む。一実施形態では、当該方法は、物体の1つ以上の事前定義3Dアルベドモデルを取得することを含む。アルベドモデルは、好ましくは物体の反射性についての情報、及び例えば法線ベクトルのような、モデルの幾何学的情報を含む。ARモデルは、物体に関する既知の特徴を更に含む。この方法は、物体のデジタル表現(おそらく物体のデジタル表現を含む画像又はビデオフレーム)から特徴(例えば、FAST、SIFT、Harrisコーナー等)を導出することを更に含む。レンダリング装置は、次に観察特徴に基づいてARコンテンツを取得し、ここで、そのARコンテンツは、物体に対してどのように表示されるかについての情報を含む(例えば、物体モデル情報、既知の特徴、動画、プログラム指示等)。レンダリング装置は、デジタル表現から、観察物体特徴に基づいて物体の体勢を導出できる。レンダリング装置は、次にアルベドモデルを体勢に当てはめ、これは、物体の観察特徴の比較及びアルベドモデルに組み込まれた既知の特徴に基づき得る。レンダリング装置は、デジタル表現および当てはめられたアルベドモデルを使用して、観察シェーディングを導出する。観察シェーディングを使用して、推定シェーディングモデル(本稿において、環境的シェーディングモデルと呼ぶこともある)を導出する。いくつかの実施形態では、センサエラー(複数可)、物体の歪みやずれ(例えば、ゴミ、キズ、汚れ等)又はその他パラメータを含むセンサ環境エラーマップが導出される。センサ環境エラーマップは、物体のあるべき姿と、センサが捉える実際の姿との差を示す。この方法は、推定シェーディングモデルをARコンテンツに適用することにより、環境的に調整されたARコンテンツを生成することを更に含む。このように、レンダリング装置は、ARコンテンツを、撮像された物体の見た目に近いと考えられる見た目を有するコンテンツに変換する。最後に、環境的に調整されたARコンテンツは装置でレンダリングされ、使用するユーザに供される。いくつかの実施形態では、環境エラーマップでは特定不能な環境的アーチファクトも、ARコンテンツと共にレンダリングされて、よりリアルな感覚が得られる。
本発明の主題についての各種目的、特徴、態様、効果は、以下の好適な実施形態の記載でより明らかになる。添付の図面が参照されるが、同様の参照符号は同様の構成要素を指す。
図1は、ARコンテンツをレンダリングする方法を概略的に示す。
図2は、図1の方法の一部の、物体の追跡、ARコンテンツのレンダリングを概略的に示す。
図3は、既知の物体からの3Dアルベドモデル構築の特性を示す。
図4は、物体の観察された体勢に対する3Dアルベドモデルの当てはめ(alignment)を示す。
図5は、調整、レンダリングされた拡張現実コンテンツを取得する処理をグラフィックで示す。
図6は、表面法線に関する、図5の推定シェーディングモデルのグラフィック表示を示す。
図7は、環境エラーマップ内で特定されたアーチファクトに対して、拡張現実のレンダリングを調整するさらなる処理をグラフィックで示す。
図8は、本発明の実施形態に係るコンピュータプログラムプロダクトに含まれる指示コードを実施するために使用される1つ以上のレンダリング装置及び/又はその他のコンピュータに含まれ得る又はこれらを示すコンピュータシステムの例を示す。
コンピュータに指示されるあらゆる言語は、サーバ、インターフェース、システム、データベース、エージェント、ピア、エンジン、コントローラ、又は個別に又はまとめて動作するその他の種類の演算装置構造を含む、演算装置のあらゆる適切な組合せを含むよう読み込まれることに留意されたい。演算装置は、有形、非一時的コンピュータ読取可能記憶媒体(例えばハードドライブ、ソリッドステートドライブ、RAM、フラッシュ、ROM等)に記憶されるソフトウェア指示を実行するよう構成されるプロセッサを含むことが理解されよう。ソフトウェア指示は、好ましくは、開示されている装置について以下に記載する役割、責任、又はその他の機能を提供するように演算装置を構成する。また、開示されている技術は、プロセッサに対して開示されているステップを実行させるソフトウェア指示を記憶する非一時的コンピュータ読取可能媒体を含むコンピュータプログラムプロダクトとして実施することもできる。特に好ましい実施形態では、各種サーバ、システム、データベース又はインターフェースは、HTTP、HTTPS、AES、公開秘密鍵の交換、ウェブサービスAPI、既知の金融取引プロトコル、又はその他の電子情報交換方法に基づき得る、標準化されたプロトコル又はアルゴリズムを用いてデータをやり取りする。データのやり取りは、パケット交換ネットワーク、インターネット、LAN、WAN、VPN、又はその他の種類のパケット交換ネットワークを介して行われてもよい。
開示の技術は、アルベドモデルを観察物体に当てはめることを含む、多くの技術的利点が得られることが理解されよう。この当てはめ(alignment)に基づいて、コンピューティング装置は、センサが物体を観察した状況を判定することができる。そして、ARコンテンツはその状況を踏まえて、ユーザによる使用のために提供又はレンダリング可能となる。
以下、本発明の主題の多くの例示的実施形態が説明される。それら各実施形態は発明の要素のある組合せからなるが、本発明の主題は、開示されている要素のあらゆる組合せを含むと考えられることが理解されよう。したがって、一実施形態が要素A、B、Cを含み、別の実施形態が要素B、Dを含む場合、本発明の主題は、本稿に明示的に述べられていない場合でも、A、B、C、又はDの他の組合せも含むと考えられる。
本稿で使用される「と接続される」という語は、別途明確にルールされない限り、直接接続(2つの要素が互いに接して接続される)及び間接接続(少なくとも1つの追加の要素が当該2つの要素間に配置されている)の両方を含むことを意図している。したがって、「と接続される」も「に接続される」も同義として使用される。
以下の説明では、本発明の主題はARコンテンツを玩具に重ね合わせるという文脈で提示される。ARコンテンツは、現実世界の物体の画像と共に表示された際、より周辺の物体に自然に溶け込むよう調整される。記載の例は、人形の画像に対して、人形の顔を示すARコンテンツ(例えばアニメーション等)を重畳することについて説明される。開示の技術は、印刷媒体、医療画像、車両、建物、機器、又はその他種類の物体のような、上記とは異なる種類の物体にも適用可能であることが理解されよう。
図1は、ARコンテンツをレンダリングする方法100を示す。図3、4は方法100のいくつかのステップについての詳細を示すもので、方法100と共に説明される。方法100は、記載のステップに従って動作するよう構成又はプログラムされたレンダリング装置により実行されるステップの集合である。レンダリング装置は、少なくとも1つのプロセッサと、装置に開示の通りにARコンテンツをレンダリングさせるソフトウェア指示を記憶するメモリを有するコンピューティング装置である。レンダリング装置として動作するよう構成又はプログラム可能な装置の例としては、携帯電話、スマートフォン、タブレット、ファブレット、ゲーム筐体、カメラ又はビデオカメラ、車両ナビゲーションシステム、ロボット、セキュリティシステム、携帯ゲーム機、キオスク、機器、又はその他種類のコンピューティング装置が挙げられる。
方法100は任意で、物体の事前定義3Dアルベドモデルを生成することを含むステップ110から開始する。当該モデルは、物体の特性に合わせて様々な技術で生成できる。図3に示す例では、物体は人形301である。アルベドモデル306は、人形の既知の幾何学的特性や、人形の素材の既知の特性に基づいて定義可能である。したがって、モデルは人形のコンピュータ生成モデルと、人形の素材の特性を示す材料表により構築されてもよい。
図3では、図をわかりやすくするため、アルベドモデル306のグラフィック表現302も示す。アルベドモデル306は好ましくは、メッシュを含み得る3Dモデルであることが理解されよう。アルベドモデルは、開示の技術に有用な多数の特性を持つ。まず、モデルは、モデルの表面上に分布された法線ベクトル307を含む。法線ベクトルは表面に対して垂直である。各法線ベクトルにおいて、モデルはその位置に対応するアルベド情報を更に含む。アルベド情報は、その場所での物体の実際の反射特性を示す。例えば、人形の顔面皮膚素材に対応するアルベド情報は、若干反射性のないマットプラスチックを示し、人形の目素材に対応するアルベド情報は、非常に反射性の高いガラスやプラスチックビーズを示す場合がある。したがって、アルベド情報はモデルの表面を通じて非連続的となり得るのである。一方、アルベド情報が連続的となり得る場合もある。アルベドモデル情報が表面幾何学的に算出可能な場合である。この場合、この暫時的に生成されたアルベドモデルが得られる。完全なアルベドモデルの代わりに、暫時的なもの(例えば、関数、ソフトウェア指示、ルール、幾何学特性等)をレンダリング装置に転送できるのである。したがって、レンダリング装置は事前に構築されたモデルを転送する帯域コストを発生させる代わりに、部分的なアルベドモデルを暫時的に生成できる。この手法は、帯域に制限があるか、費用が掛かるような状況で有効と考えられる。例えばデータプランが限られた携帯電話のような場合である。
3Dアルベドを、物体に関連した部位に分解してもよい。図示の例では、モデルは2つの目部位304と、顔部位303という部位を含む。ARコンテンツのレンダリングに有利であれば、3Dモデルは多数の部位を有してもよいことが理解されよう。更に、各部位は独自の照明ポリシーを有し得る。3Dアルベドモデルにおける対応する部位に対して設定された照明ルール等である。照明ルールは、表示装置に重ね合わせられるなどして提示された際に、ARコンテンツの対応する要素がどのようにレンダリングされるべきかを規定するものである。例えば、人形の肌又は顔の表面は、マット仕上げされているため、ランバート照明技術が使用され得る。人形の目は反射性の高いガラスやプラスチックを含み得るため、照明ルールとして鏡面照明用の指示が含まれ得る。更なる照明ルールとしては、フォン照明、フォンシェーディング、ガウシアンフィルタやその他照明アルゴリズムが挙げられる。照明ルールは、顔面特徴、武器、パネル、衣服一着、車両特徴、プリント用インクの種類、組織種類、基板、ゲーム特徴、素材の種類やその他物体特徴が挙げられる。
3Dアルベドモデルは、更に、位置合わせ特徴305を有してもよい。これにより、モデルが対応する現実世界の物体に正しく合わせられる。画像データ用の位置合わせ特徴は、SIFT、BRISK、SURF、FAST、BRIEF、Harris Corners、Edges、DAISY、GLOH、HOG、EOG、TILT等の画像処理アルゴリズムによって導出された特徴を含んでもよい。当該特徴は、レンダリング装置がフィールド内の正しいモデルや、物体を特定可能になるので有利である。アルベドモデル内の各特徴は、記述子値、モデル内の3D座標やその他情報を含んでもよい。
3Dアルベドモデルは、物体取り込みエンジンの一部のようなレンダリング装置以外の装置により、オフライン処理中に構築されてもよい。例えば人形デザイナーがCADシステムで人形のモデルを構築する際、CADシステムはコンピュータ生成物体モデルとしてアルベドモデルを構築する。コンピュータ生成モデル内のメッシュの各ポリゴンは、対応するアルベド情報と共に、法線ベクトルを含んでもよい。更に、コンピュータ生成モデルが、例えば人形の顔面のような物体の一部のみを示してもよいことが理解されよう。したがって、3Dアルベドモデルは、玩具、車両、顔面、市販製品、印刷媒体、自動販売機、機器、植物、看板、組織、患者、ゲームコンポーネント、人物又はその顔やその他種類の物体の1つ以上を示してもよい。別の実施形態では、装置はランタイム中に、人形の3D像を構築してもよい。多数の視点(好ましくは照明条件が異なる)でセンサが観察した特徴を平均化して、ランタイム中に推定アルベドモデルを生成できる。
ステップ115は、レンダリング装置が、物体の事前定義3Dアルベドモデルを取得することを含む。ここでも人形を例に挙げるが、レンダリング装置は人形のアルベドモデルを含み、人形と相互作用するアプリを持つよう構成されたタブレット装置を含んでもよい。別の場合として、レンダリング装置はステップ120に記載のように、物体のデジタル表現(例えば画像、ビデオ、音声等)を取得してもよい。そして、レンダリング装置はデジタル表現から、Bonyckらが共同所有する、2001年11月5日出願の、名称「Image Capture and Identification System and Process」の米国特許第7,016,532号のような既知の技術を利用して物体を認識できる。認識後、レンダリング装置はデジタル表現から導出された特性(例えば画像特性、記述子等)を使用して、データベースやその他種類のデータ記憶部からアルベドモデルを検索してもよい。更に上述のように、装置は別の実施形態において、多数の視点(好ましくは照明条件が異なる)でセンサが観察した特徴を平均化して、推定アルベドモデルを生成することで、ランタイム中に人形の3D表現を構築してもよい。
ステップ130は、レンダリング装置が物体のデジタル表現から特徴を導出することを含む。導出された特徴は、デジタル表現の態様に応じて、様々な形態をとり得る。レンダリング装置は、ステップ135のようにデジタル表現に1つ以上の特徴検出アルゴリズムを適用して画像データの特徴を生成してもよい。アルゴリズムの例としては、SIFT(Loweによる、2000年3月6日出願の、名称「Method and Apparatus for Identifying Scale Invariant Features in an Image and Use of Same for Locating an Object in an Image」の米国特許第6,711,293号参照)、BRISK、SURF、FAST、BRIEF、Harris Corners、edges、DAISY、GLOH、Histograms of Gradients(HOG)、Edge Orientation Histograms(EOG)、TILT(Maらによる、2010年11月29日出願の、名称「Robust Recovery of Transform Invariant Low−Rank Textures」の米国特許第8,463,073号参照)等が挙げられる。導出された特徴が、前述の3Dアルベドモデルの取得に使用された特徴と同様であってもよいことが理解されよう。
ステップ140は、レンダリング装置が、ステップ130で導出された特徴に基づいて物体に関連したARコンテンツを取得することを含む。ARコンテンツは、物体に対応する記述子に応じて、データベース又はデータ構造内でインデックスされてもよい。例えば、人形のコンピュータアニメーションを含むARコンテンツは、アプリ動作中のタブレットのメモリに記憶できる。そして、デジタル表現の記述子が、メモリ内でアニメーションコンテンツのインデックスに使用されたものと十分一致すれば、人形に対応するアニメーションが抽出できる。いくつかの実施形態では、ARコンテンツ又は、ARコンテンツに対するポインタは、例えばスピルツリー又はk−dツリーのようなk近傍法(kNN)ルックアップに対応するデータ構造内でインデックスされてもよい。例えば、ステップ145のように、方法は更に特徴に対応する記述子に基づいて、ARコンテンツを検索することを含んでもよい。更には、ARコンテンツはデータベース、遠隔検索、検索エンジン、又はその他データ記憶部から取得されてもよい。
ARコンテンツは、上述のようにレンダリング装置に対してローカルなものであってもよい。あるいは、ARコンテンツは遠隔で記憶されてもよい。そのような実施形態では、レンダリング装置は、kNNルックアップの検索結果等、アドレスを用いて、ARコンテンツを取得してもよい。アドレスの例としては、URL、ファイルハンドル、URI、IPアドレス、インデックス、ドキュメントオブジェクト識別子(DOI)、又はその他種類のアドレスが挙げられる。
ARコンテンツ自体幅広い種類のコンテンツを含む。より好ましいコンテンツとしては、レンダリングされて、レンダリング装置に接続されたディスプレイ画面に表示可能な視覚的コンテンツが挙げられる。例示的なARコンテンツとしては、ゲーム、アプリケーション、ビデオ、画像、アニメーション、3Dレンダリング物体、物体メッシュ、アニメーションメッシュ、年齢投影動画(age projected animation)、医療画像、衣服、メイク、眼鏡、家具、ウェアラブルアクセサリ(例えば指輪やネックレス等)、人物、アバター、ペット、クーポン、店棚、標識、解剖図の一部、超音波画像、又はその他種類の物品が挙げられる。視覚的コンテンツがARコンテンツとして好ましいが、ARコンテンツは例えば音声や触感等その他態様であってもよい。なお、別の実施形態では、ARコンテンツは図示の方法フローの後半で検索してもよい。例えば、推定シェーディングモデルを導出167した後に検索されてもよい。概して、ステップの実行が、文脈的に別のステップの完了により得られた結果の使用が必須となるような場合を除いて、ステップの実行順序は図示のものから変更可能である。
ステップ150は、レンダリング装置がデジタル表現から物体の体勢を導出することを含む。体勢は、いくつかの情報に基づいて判定できる。いくつかの実施形態では、レンダリング装置は、上述のように既知の基準特徴を含む3Dアルベドモデルのような物体モデルを記憶可能である。観察された特徴がデジタル表現から導出されたのち、既知の基準特徴と観察された特徴が一致するように又は相対配置されるように、物体モデルの体勢を決定できる。ARコンテンツが物体の画像に重ね合わせられるような実施形態において、体勢情報は有効である。体勢情報は、ARコンテンツが表示画像内で物体に対して並置される場合にも有効である。人形の例に戻ると、ARコンテンツは、人形が指さす又は見つめる先に存在する妖精であってもよい。なお、体勢は例えば物体の画像を撮影するカメラのような、デジタル表現を取得するセンサに対して配向される。
上述したように、3Dアルベドモデルは、既知の基準特徴を含んでもよい。アルベドモデル特徴は、ステップ160で利用できる。当該ステップは、アルベドモデルを体勢に当てはめて、物体シェーディングモデルの解を得るため連立方程式を立てることを含む。ステップ165のように、アルベドモデル内の既知の特徴を、デジタル表現から導出された対応する特徴に当てはめることで、アルベドモデルを当てはめることができる。アルベドモデルと画像を当てはめた後、それらの差分を利用して観察シェーディングデータを導出できる。
図4は、人形の顔面の3Dアルベドモデルを、人形の観察画像に当てはめた様子を示す。図4は、ここでは人形の顔面である物体のデジタル表現401を示す。物体特徴405は、例えばSIFT、FAST等の既知の画像特徴アルゴリズムを利用して、デジタル表現から導出可能である。デジタル表現401の特定の特徴405を、アルベドモデル306の表現302からの所定の訓練特徴305と比較してもよい。その結果一致した特徴を使用して、画像401をアルベドモデル306(図4のグラフィック表現302で示す)に当てはめることができる。ここで、全ての特徴、又はその記述子が、必ずしも使用する必要や完全に一致する必要はないことを強調しておく。
図1のステップ167は、レンダリング装置が推定シェーディングモデルを、観察シェーディングデータから導出することを含む。観察シェーディングデータは、デジタル表現を取得する1つ以上のセンサによる、センサ環境内の物体のシェーディングの認識に対応し、推定シェーディングモデルを当該データから導出することで、撮像物体に対応するAR物体に対して推定シェーディングを適用する。物体シェーディングデータが、観察体勢と事前定義アルベドモデルの両方から導出されることを鑑みて、推定シェーディングモデルは物体に対応する画素レベル情報を含んでもよい。例えば、物体の表示画像に対応する画素の照明は、アルベドモデルからの算出アルベドや、実際の撮像時の体勢の画素の観察色値から導出可能である。推定シェーディングモデルは、コンピュータグラフィック情報の理想的状態から、センサ観察環境のシェーディングに沿った状態に変換する変換と捉えることができる。
この時点で、レンダリング装置は物体に関する2つの情報を有していることになる。レンダリング装置は、デジタル表現を取得するセンサに環境で、実際に物体がどのように見えているかを把握しており、更に事前定義3Dアルベドモデルから、元々理想的な状態では物体がどのように見えているべきなのかも把握しているのである。これら情報を組み合わせて、シェーディングモデルの把握していないパラメータを推定し、それを推定物体シェーディングモデルとして実施するのである。
推定シェーディングモデルは、照明環境についての膨大な情報を含むが、それぞれの基となる情報のソース/種類は必ずしも区別されなくてもよい。例えば、推定シェーディングモデルが、対象物体の照明の特性を捉えることに、実際の照明源を判定する必要はないのである。これは、センサにより観察された物体と、アルベドモデルに基づく物体の既知の理想的状態との間の例えば画素レベルでの差異を判定することで可能となる。或いは、実際の表現(物体の撮像画像のデジタル表現に基づく)を想定された表現(アルベドモデルに対する推定シェーディングモデルに基づく)と比較することで、環境エラーマップを導出してもよい。このようなエラーマップにより、センサに対応する又はその他要因で環境に存在するアーチファクトが特定できる。この例として、携帯電話のレンズ表面に指紋汚れがついている場合を考える。このような汚れは、環境(したがって、物体の想定されるシェーディング)の照明に影響しないが、取得されるデジタル表現の特性には影響する。更に、汚れはユーザに対する撮像画像の表示又はレンダリングに影響する。センサ環境エラーマップにより、そのようなセンサ関連異常を、異常を精確に推定することなく理解できる。センサエラーマップを利用した手法は概して、センサによる撮像時の、撮像データ上の環境的アーチファクトの影響を判定する低負荷な方法が得られるという点で有効である。例えばカメラのようなセンサは、環境からのデータが装置に入る際の、最終入力点となることが理解されよう。センサにより収集されたデータは、物体の観察環境状態を表す。したがって、別の実施形態(図7において更に説明される)において、環境エラーマップを使用して、図1記載の方法を補強してもよい。即ち、ARコンテンツのレンダリングに含まれるようなセンサ環境異常を特定してより現実的感覚が得られる。
推定シェーディングモデルや、センサ環境エラーマップは、必須ではないが、多数の特徴を有してもよい。特徴の1つとして、センサ環境マップは環境照明マップを含むことが考えられる。照明マップは、物体のアルベドモデルを、物体の観察された色に比較することで導出できる。更に、上述のように、センサエラーマップは、所定の状態からのずれ、汚れ、レンズ形状、キズ等を示すことができる。そして、センサ環境マップは、デジタル表現取得に対して環境が及ぼす影響を示すノイズマップを更に含んでもよい。ノイズを解説するため、超音波振動子によりデジタル表現を取得することで開示の技術を実施する技術について考える。例えば組織や反射に関連するノイズによりノイズマップが構成される。そのような実施形態では、例えば物体の組織密度により、物体のアルベドモデルと同等の音響が得られ得る。このような実施形態は、ARコンテンツをレンダリングしてよりリアルに感じさせるため、推定シェーディングモデルに替えて又は加えて、環境モデルやマップが寄与できることを示す。さらなる実施形態では、観察された物体の自然の状態からのずれや歪みを含むセンサ環境マップを含んでもよい。例えば、人形の顔面であれば、キズやペンで描いた跡を含み得る。これら特徴を、レンダリングされるARコンテンツに反映させ、含めることができる。レンダリング装置は、そのような歪みを、既知の物体モデルと観察された物体との差異に基づいて観察可能である。既知の物体モデルは、アルベドモデルに組み込まれてもよいし、区別されてもよい。
ステップ170は、ARコンテンツに推定シェーディングモデルを適用することで、環境的に調整されたARコンテンツを生成することを含む。前述のように、推定シェーディングモデル(本稿では環境シェーディングモデルとも称する場合がある)は、ARコンテンツをそのより理想的な状態から、レンダリング装置により観察された態様の物体により適合した状態にする変換を表す。ARコンテンツは、ステップ175のように、3Dアルベドモデルからの1つ以上の照明ルール群を、当該モデルの部位に対応するARコンテンツの部位に適用することで、調整可能である。幾何拘束(例えばポリゴン、バウンディングボックス等)、認識特徴(例えば記述子、キーポイント等)又はその他マッチング技術により、ルール群のARコンテンツの部位への正しいマッチングが可能となる。
例えば、ディズニー(登録商標)社製のお姫様人形のような人形が、ダウンロード可能な拡張現実アプリと共に販売されている場合を考える。当該アプリは、子供がそのお姫様とお茶会で対話できるようにするものであるとする。子供が、例えばタブレットで人形のリアルタイム動画を撮影する。これに対し、アプリは、話したり又は子供の質問に応答したりする人形の顔のアニメーションとしてのARコンテンツを重ね合わせる。アニメーションの唇、目、肌は、アルベドモデルにおけるそれぞれのルールに従って個別に調整されるため、子供に対して非常に自然に提示されるのである。
ステップ180は、レンダリング装置が、環境的に調整されたARコンテンツをレンダリングすることを含む。レンダリング処理は、センサ環境マップ情報や、システム内のその他要素から生成されたルールに従って、ARコンテンツを変換することを含む。例えば、体勢情報を使用して、視線又は隠面除去等に対応できる。更に、デジタル表現を取得するセンサの位置又は向きを使用して、ARコンテンツをレンダリング用に正しい位置へと並進できる。
ステップ190は、ディスプレイにレンダリングされた環境的に調整されたARコンテンツを提示することを含む。ディスプレイは、レンダリング装置と一体的に設けられてもよい。例えば、タブレットがレンダリング装置である上述の例で記載したように、レンダリング装置はタブレットであってもよい。その他の実施形態では、ディスプレイはレンダリング装置に対して遠隔地に設けられてもよい。例えば、ディスプレイ装置がクライアントコンピュータのコンピュータスクリーンであって、レンダリング装置がインターネットを通じてそのレンダリングサービスを提供するウェブサーバやサービスであってもよい。レンダリングされた環境的に調整されたARコンテンツは、ステップ195のように、物体の少なくとも一部の画像に重ね合わせることができる。或いは、調整されたARコンテンツはディスプレイ内の物体の位置に対して相対配置されてもよい。また、調整されたARコンテンツが、視野外の状態では、スクリーン内に提示されず、視野内に入れば、提示できるものであってもよい。例えば、人形のARコンテンツが、人形の位置の近くに座る友達の画像を含み、その画像が定期的に表示されなくなったりしてもよい。ARコンテンツは、推定環境マップの特性に応じて配置できる。例えば、物体から所定の半径離間したところであって、常に環境マップ中でも最も暗い箇所に雲をレンダリングする方法を実行してもよい。
対象物体が観察される環境が多分に変動し得ることを考え、いくつかの実施形態にかかわるレンダリング装置は、図2に記載のように物体のリアルタイム追跡が可能であってもよい。図2に記載の追跡機能は、方法100のステップ180について説明したようなレンダリング処理の一部と考えることもできよう。
ステップ200では、デジタル表現から導出された特徴の少なくとも一部が追跡される。追跡される特徴は、必ずしも最初に物体の認識に使用されていた特徴と対応する必要がないことが理解されよう。例えば、レンダリング装置はSIFT特徴や記述子を利用して物体を認識し、その後FAST特徴を利用して追跡を実行してもよい。ステップ205では、追跡物体の更新された体勢が推定され、現在の物体シェーディングモデルが更新される。ステップ210では、環境的に調整されたARコンテンツが、特に撮像センサに関連した特徴の動きに応じて再レンダリングされる。再レンダリングされたコンテンツは、物体の体勢の変化、表情の変化、予測運動、又は物体或いは特徴の動きに関連したその他要素を考慮したものとなりうる。一実施形態では、ステップ205において、シェーディングモデルを更新するために体勢が再推定され、ステップ210において環境的に調整されたARコンテンツが実質的にビデオシーケンスのフレームに合わせて(例えば10fps、20fps、30fps、60fps等)再レンダリングされる。これにより、更にユーザに自然な印象を与えることができる。
開示の技術により、面白い機能が得られる。1つの実現可能な機能としては、物体(例えば人物、車両等)の既知のアルベドモデルを使用して、当該物体を古いビデオシーケンスに落とし込むことが挙げられる。例えば、古いビデオシーケンス(例えば白黒画像、昔のシットコム等)に存在する既知の物体から3Dアルベドモデルを構築できる。物体の昔の記録映像を新たに生成されたアルベドモデルと比較することで、レンダリング装置はARコンテンツを記録映像に落とし込むために必要な変換を決定できる。このような既知の物体としては、現存する建物、自動車、家具やシーケンス内のその他物体が挙げられる。
ショッピングに利用する場合、小売店や商品提供者は開示の技術を利用して、使用者のショッピング経験を向上できる。商品提供者は、例えば自社製品の飲料缶のような既知のアルベドモデルを提供できる。使用者が飲料缶を撮像すると、ARコンテンツが環境に落とし込まれ、使用者は飲料缶に対して操作が可能となる。例えばコカ・コーラ(登録商標)社であれば、コーラ(登録商標)を料理に使用するためのレシピの調理を補強するARを提示するような既知のアルベドモデルを使用するアプリを提供できる。
図5は、本発明の実施形態で実行される画像処理をグラフィックで示す。人形の顔面の3Dアルベドモデル501が取得され、撮影(観察)された人形の顔面の画像502に当てはめられる。なお、画像502は、画像を撮影するタブレットやその他装置のレンズの汚れ等に起因し得るアーチファクト511を含む。当該アーチファクトに対応し、ARコンテンツのレンダリングの補強に使用可能なエラーマップの生成についは、図7を参照に更に説明する。図5に戻ると、観察シェーディング503が、画像502からアルベドモデル501を使用して抽出される。後述のように、観察シェーディング503から、推定シェーディングモデル504が取得される。観察シェーディング503は、ARコンテンツをレンダリングする装置の特定の環境における照明状況に対応するよう、ARコンテンツ505を修正するために使用される。具体的には、シェーディングモデル504をARコンテンツ505に組み合わせて、再照明コンテンツ506をレンダリングする。
以下に、主題の数学的側面を、図5の画像処理フローに合わせて説明する。
一般に、画像I内の画素p∈R(R:実数の集合を表す白抜きR)における色チャネルcの値I(p)は、アルベドおよびシェーディングの関数としてモデル化することができる(ここで、Albedo(p)∈R、Shading(p)∈R)。
あくまで一般的なケースとして、説明をシンプルにするため、画像内の全画素が既知の物体に対応するものとする。実際のシェーディングモデル推定は、既知の物体に対応する画像画素のサブセットにのみ基づく。当てはめの後、画像内の各画素は3Dアルベドモデルに対応する、A:R→R。このようにして、画素pに対して、3D位置X∈R、その法線N∈Rおよびャネルに対応したアルベドA(X)∈Rが得られる。
モデル上の各3D位置のアルベドが与えられれば、当てはめの後、観察シェーディングを以下の式により抽出することができる。
これは、各観察画素pと3D点Xとの間に対応が確認されているため成立するものであって、以下の式も成立する。
さらに、各画素pにおける3D法線Nも確認している。多くの場合、法線のみで環境照明によるシェーディングのモデル化が可能であるため、以下の式が成立する。
ここで、式4におけるNは、pに対応する法線であって、S:R→Rは関数である。
さらに、以下の二次関数のように真のシェーディングモデルを近似することができる。
ここで、Qは3×3行列、NはNの転置である。
そして、以下の関数の最小化によって、Qを推定することができる。
ここで、iは、2D−3D対応のある全ての画像画素群からの画素インデックスを示す。標準的な最小二乗推定により、Qの解を得ることができる。なお、Qは対応する任意の場所、即ちモデル全体又は特徴点のみで決定することができる。
ただし、その場合はいくつかの分布からのさらなるノイズモデルとの干渉、最適化関数又は画像領域の誤差のスパース性の制限、センサ又は環境についてのその他想定されうる事項に基づくさらなる制限等を含むより複雑な最適化の問題となるとも思われる。
各画像チャネルについてシェーディングモデルパラメータQが得られれば、単純に推定QやAR物体のアルベドモデルをS(N)*A(X)に代入することで、シェーディングモデルに応じて、投影されたあらゆるARコンテンツ(真の3D幾何特性と、アルベドモデルAが得られている)をレンダリングすることができる。
図6は、説明のため、Qで推定されたシェーディングモデルを、球又は立方体の表面に対する法線に関して視覚化することで、シェーディング環境マップ504Nを生成されることを図示するものである。
図7は、ARコンテンツのレンダリングに、環境異常を組み込む上位処理のフローを示す。図5の推定シェーディングモデル504を使用して、既知の3D物体の推定レンダリング結果702が得られる。そして、想定された見た目702と、観察画像502との間の差異を、既知の物体の表面に応じて逆投影することで、環境エラーマップ701が生成される。図7に示すマップは、逆投影エラーアーチファクトを示すテクスチャ付き立方体である。ここで、観察画像502のアーチファクト511は、図示の通りマップ701に示される。その後、マップ701を使用してレンダリング506を補強することで、アーチファクト511を含んだレンダリング706を生成できる。これにより、よりリアルなARレンダリング706が実現できる。図7の実施形態は、レンズ上の汚れ、キズやその他センサ関連アーチファクトの取得に有利となりうる。ただし、図示の種類のエラーマップにより、環境に起因したその多種類の視覚的アーチファクトを取得でき得る。また、物体の推定レンダリングと、実際の画像との差に基づいてその他種類のエラーマップも生成できる。
図8は、本発明の実施形態に係るコンピュータプログラムプロダクト8060に含まれる指示コードを実施するために使用される1つ以上のレンダリング装置及び/又はその他のコンピュータに含まれ得る又はこれらを示すコンピュータシステム8000の例を示す。コンピュータプログラムプロダクト8060は、本稿で言及されている実施形態によって実施される例示的方法ステップを実現する処理を実施するようにコンピュータシステム8000等の1つ以上のコンピュータに指示してもよい電子的可読媒体における実行可能コードを含む。当該電子的可読媒体は、情報を電子的に記憶する任意の非一時的媒体であってもよく、ローカルで、又は例えばネットワーク接続を介してリモートでアクセスされてもよい。当該媒体は、それぞれ異なる位置及び/又は異なる時間に実行可能コードの異なる部分を記憶するように構成された複数の地理的に分散された媒体を含んでもよい。電子的可読媒体における当該実行可能指示コードは、図示されたコンピュータシステム8000に対して本稿に記載されている各種例示的タスクを実施するように指示する。本稿に記載されているタスクを実施するように指示する当該実行可能コードは、典型的にはソフトウェアによって実施されるであろう。しかし、本発明から逸脱することなく、コンピュータ又はその他の電子装置が、特定されているタスクの多くを、又はその全てを実施するように、ハードウェアにおいて実現されたコードを活用することが、当業者には理解されるであろう。また、実行可能コードに様々な変化を加えたものが本発明の精神及び範囲における例示的方法を実施することも、当業者には理解されよう。
コンピュータプログラムプロダクト4060におけるコード又はコードのコピーは、プロセッサ8020によって実行されるために持続記憶装置8070及び/又はメモリ8010に読み込み、記憶するためにシステム4000に通信可能に接続される1つ以上の持続記憶媒体(個別に図示せず)に存在してもよい。コンピュータシステム8000は、更にI/Oサブシステム8030及び周辺装置8040を含む。I/Oサブシステム8030,周辺装置8040,プロセッサ8020,メモリ8010,及び持続記憶装置8060は、バス8050を介して接続される。コンピュータプログラムプロダクト8060を含み得る持続記憶装置8070やその他任意の持続ストレージと同様に、メモリ8010は、(典型的な揮発性コンピュータメモリ装置として実施されるものであっても)非一時的媒体である。更に、本稿に記載の処理を実施するためにコンピュータプログラムプロダクト8060を記憶することに加えて、メモリ8010及び/又は持続記憶装置8060は、本稿に言及され図示された各種データ要素を記憶するように構成されてもよいことも、当業者には理解されよう。
コンピュータシステム8000は、本発明の実施形態に係るコンピュータプログラムプロダクトが実施され得るシステムの単に一例を示しているに過ぎないことが、当業者には理解されよう。別の実施形態の単なる一例を挙げると、本発明の実施形態に係るコンピュータプログラムプロダクトに含まれる指示の実行は、例えば、分散型コンピュータネットワークのコンピュータを介する等の複数のコンピュータを介する分散型であってもよい。
記載されたもの以外にも多くの変形例が、本稿の発明の概念から逸脱することなく可能であることは、当業者に理解されるであろう。したがって、本発明の主題は、添付の請求項の精神をおいて他のものに限定されることはない。更に、明細書及び請求項を解釈するに際し、全ての用語はその文脈に応じて可能な最も広い意味に解釈されるべきである。特に、「〜を含む」という用語は、要素、構成要素、又はステップを非排他的に言及するように解釈されるべきであり、当該言及された要素、構成要素、又はステップは、明示的に言及されていないその他の要素、構成要素、又はステップと共に存在、活用、又は組み合わせられることを示している。明細書及び請求項において、A、B、C・・・、Nからなる群から選択された少なくとも1つの何かを言及する場合、Aに加えてN、又はBに加えてN等ではなく、この群からただ1つの要素のみが必要であると解釈されるべきである。

Claims (35)

  1. 拡張現実コンテンツをレンダリングする方法であって、
    レンダリング装置によって、物体の事前定義3Dアルベドモデルを取得することと、
    前記レンダリング装置によって、前記物体のデジタル表現から認識特徴を導出することと、
    前記レンダリング装置によって、前記認識特徴に基づいて前記物体に関する拡張現実(AR)コンテンツを取得することと、
    前記レンダリング装置によって、前記デジタル表現から前記物体の体勢を導出することと、
    前記レンダリング装置によって、前記アルベドモデルと前記デジタル表現との間の対応する、前記認識特徴のサブセットとしての決定された特徴に基づいて、前記体勢に前記アルベドモデルを当てはめることと、
    前記レンダリング装置によって、前記デジタル表現と前記アルベドモデルとのシェーディングの差分に基づいて観察シェーディングデータを導出することと、
    前記デジタル表現と前記アルベドモデルに基づいて判定された前記物体の既知の理想的状態との間の照明環境差を少なくとも1つ判定することを含む、前記アルベドモデル及び前記観察シェーディングデータを使用して推定物体シェーディングモデルを導出することと、
    前記レンダリング装置によって、前記推定物体シェーディングモデルを前記ARコンテンツに適用することにより、環境的に調整されたARコンテンツを生成することと、
    前記レンダリング装置によって、前記環境的に調整されたARコンテンツをレンダリングすることと
    を含む方法。
  2. 前記事前定義3Dアルベドモデルはコンピュータ生成物体モデルを含む
    請求項1記載の方法。
  3. 前記コンピュータ生成物体モデルはメッシュを含む
    請求項2記載の方法。
  4. 前記コンピュータ生成物体モデルは、前記物体の部位のモデルを含む
    請求項2記載の方法。
  5. 前記デジタル表現から認識特徴を導出することは、前記デジタル表現に少なくとも1つの特徴検出アルゴリズムを適用することを含む
    請求項1記載の方法。
  6. 前記特徴検出アルゴリズムは、SIFT、BRISK、SURF、FAST、BRIEF、Harris Corners、Edges、DAISY、GLOH、HOG、EOG、TILTの内の少なくとも1つのアルゴリズムを含む
    請求項5記載の方法。
  7. 前記ARコンテンツを取得することは、前記認識特徴に対応する記述子に基づいて前記ARコンテンツを検索することを含む
    請求項1記載の方法。
  8. 前記レンダリング装置によって、前記デジタル表現を取得すること
    をさらに含む請求項1記載の方法。
  9. 前記推定物体シェーディングモデルに基づいて、環境照明マップを含むセンサ環境マップを導出すること
    をさらに含む請求項1記載の方法。
  10. 前記センサ環境マップは、ノイズマップを含む
    請求項9記載の方法。
  11. 前記センサ環境マップは、センサエラーマップを含む
    請求項9記載の方法。
  12. 前記事前定義3Dアルベドモデルは、玩具、車両、顔面、市販製品、印刷媒体、自動販売機、機器、植物、看板、組織、患者、ゲームコンポーネントの少なくとも1つの既知のアルベド情報を表す
    請求項1記載の方法。
  13. 前記ARコンテンツは、ゲーム、アプリケーション、ビデオ、画像、アニメーション、3Dレンダリング物体、物体メッシュ、アニメーションメッシュ、年齢投影動画(age projected animation)、医療画像、衣服、メイク、眼鏡、家具、ウェアラブルアクセサリ、人物、アバター、ペット、クーポン、店棚、標識、解剖図、超音波画像の内の少なくとも1つを含む、請求項1に記載の方法。
  14. 前記認識特徴の少なくとも一部をリアルタイムに追跡すること
    をさらに含む請求項1記載の方法。
  15. 前記認識特徴の少なくとも一部を追跡することは、ビデオシーケンスのフレーム内で特徴を追跡することを含む
    請求項14記載の方法。
  16. 前記追跡される認識特徴の動きに応じて、前記環境的に調整されたARコンテンツを再レンダリングすること
    をさらに含む請求項14記載の方法。
  17. 前記環境的に調整されたARコンテンツを、前記ビデオシーケンスのフレームレートに合わせて再レンダリングすることをさらに含む
    請求項16記載の方法。
  18. 前記フレームレートは、30fps以上である
    請求項17記載の方法。
  19. 前記環境的に調整されたARコンテンツは、アニメーションを含む
    請求項1記載の方法。
  20. 前記環境的に調整されたARコンテンツをレンダリングすることは、前記物体の少なくとも一部の画像に前記環境的に調整されたARコンテンツを重ね合わせることを含む
    請求項1記載の方法。
  21. 前記環境的に調整されたARコンテンツをレンダリングすることは、前記環境的に調整されたARコンテンツを、ディスプレイ上で前記物体の少なくとも一部に対して提示することを含む
    請求項1記載の方法。
  22. 事前定義3Dアルベドモデルは、前記モデル内に位置する既知の特徴を含む
    請求項1記載の方法。
  23. 前記体勢に前記事前定義3Dアルベドモデルを当てはめることは、前記デジタル表現から対応する特徴を導出して、前記既知の特徴に基づいて、前記事前定義3Dアルベドモデルを前記体勢に当てはめることを含む
    請求項20記載の方法。
  24. 前記事前定義3Dアルベドモデルは、前記事前定義3Dアルベドモデルの該当部分に対応する照明ルール群を含む照明ポリシーを含む
    請求項1記載の方法。
  25. 前記環境的に調整されたARコンテンツを生成することは、前記事前定義3Dアルベドモデルの部位に対応する前記ARコンテンツの部位に対して、前記照明ルール群の少なくとも1つを適用することを含む
    請求項24記載の方法。
  26. 前記照明ルール群は、前記事前定義3Dアルベドモデルの部位として、顔面特徴、武器、パネル、衣服一着、車両特徴、物体の組織、基板、ゲーム特徴、素材の種類の内の少なくとも1つに対する照明ルールを含む
    請求項24記載の方法。
  27. 前記事前定義3Dアルベドモデルは、様々な照明状態において及び/又は様々な視点から、前記レンダリング装置によって取得された、前記物体の複数の訓練画像から生成される
    請求項1記載の方法。
  28. 前記複数の訓練画像の内の少なくとも1つは、前記認識特徴が導出される前記物体の前記デジタル表現に対応する
    請求項27記載の方法。
  29. 前記訓練画像は、前記デジタル表現から前記物体の前記体勢を導出することと並行して、前記レンダリング装置によって取得され、前記事前定義3Dアルベドモデルは、ランタイム中、各新訓練画像の前記体勢の当てはめが終わるたびに更新される
    請求項27記載の方法。
  30. 前記事前定義3Dアルベドモデルをランタイム中に更新するため、オンライン平均化及びベイジアンフィルタの少なくとも一方を利用する
    請求項29記載の方法。
  31. 前記環境的に調整されたARコンテンツをレンダリングすることは、前記環境的に調整されたARコンテンツを、前記推定物体シェーディングモデルにより示唆された環境特徴から導出された前記物体に対する空間位置に表示することを含む
    請求項1記載の方法。
  32. 前記ARコンテンツは、前記推定物体シェーディングモデルにおいて、最も暗い点から径方向に位置する雲及び前記推定物体シェーディングモデルの最も明るい点から径方向に位置する光源の少なくとも一方である
    請求項31記載の方法。
  33. 前記推定物体シェーディングモデルと、前記事前定義3Dアルベドモデルを使用して、前記物体の推定レンダリング結果を生成することと、
    前記物体の前記デジタル表現と前記観察シェーディングデータを使用して、前記デジタル表現内の1つ以上の環境的アーチファクトを特定することと、
    前記レンダリング装置によって、前記1つ以上の環境的アーチファクトの少なくとも一部を、前記環境的に調整されたARコンテンツと共にレンダリングすることと
    をさらに含む請求項1記載の方法。
  34. 前記推定物体シェーディングモデルに加えて、ARコンテンツをより前記レンダリング装置の環境に適合させながらレンダリングするように前記ARコンテンツを修正するために使用可能な1つ以上の別の環境マップを導出すること
    をさらに含む請求項1記載の方法。
  35. 1つ以上のコンピュータの1つ以上のコンピュータプロセッサによって実行可能な指示を含む非一時的コンピュータ読取可能媒体に記録されたコンピュータプログラムであって、少なくとも、
    前記レンダリング装置において取得された物体のデジタル表現から、画像認識特徴を導出することと、
    アルベドモデルと前記デジタル表現との間の対応する特徴であって、前記認識特徴のサブセットとしての決定された特徴を使用して、前記物体の前記アルベドモデルを前記物体の前記デジタル表現に当てはめることと、
    前記レンダリング装置において取得された前記物体の前記デジタル表現及び前記物体の前記アルベドモデルとのシェーディングの差分から、観察シェーディングデータを導出することと、
    前記デジタル表現と、前記アルベドモデルに基づいて判定された前記物体の既知の理想的状態との間の照明環境差を少なくとも1つ判定することを含む、前記観察シェーディングデータから、推定物体シェーディングモデルを導出することと、
    前記レンダリング装置において、前記推定物体シェーディングモデルを前記物体に関するARコンテンツに適用することにより、環境的に調整された拡張現実(AR)コンテンツを生成することと
    を実行するコンピュータプログラム。
JP2016566971A 2014-05-13 2015-05-13 アルベドモデルにより拡張現実コンテンツをレンダリングするシステムおよび方法 Active JP6360200B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201461992804P 2014-05-13 2014-05-13
US61/992,804 2014-05-13
PCT/US2015/030675 WO2015175730A1 (en) 2014-05-13 2015-05-13 Augmented reality content rendering via albedo models, systems and methods

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018117683A Division JP6644833B2 (ja) 2014-05-13 2018-06-21 アルベドモデルにより拡張現実コンテンツをレンダリングするシステムおよび方法

Publications (2)

Publication Number Publication Date
JP2017524999A JP2017524999A (ja) 2017-08-31
JP6360200B2 true JP6360200B2 (ja) 2018-07-18

Family

ID=54480652

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016566971A Active JP6360200B2 (ja) 2014-05-13 2015-05-13 アルベドモデルにより拡張現実コンテンツをレンダリングするシステムおよび方法
JP2018117683A Active JP6644833B2 (ja) 2014-05-13 2018-06-21 アルベドモデルにより拡張現実コンテンツをレンダリングするシステムおよび方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018117683A Active JP6644833B2 (ja) 2014-05-13 2018-06-21 アルベドモデルにより拡張現実コンテンツをレンダリングするシステムおよび方法

Country Status (4)

Country Link
US (6) US9805510B2 (ja)
JP (2) JP6360200B2 (ja)
CN (2) CN110363840A (ja)
WO (1) WO2015175730A1 (ja)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10462499B2 (en) * 2012-10-31 2019-10-29 Outward, Inc. Rendering a modeled scene
US9805510B2 (en) 2014-05-13 2017-10-31 Nant Holdings Ip, Llc Augmented reality content rendering via albedo models, systems and methods
US9582890B2 (en) * 2014-05-19 2017-02-28 Ricoh Company, Ltd. Superpixel-based image segmentation using shading and albedo decomposition
WO2016179248A1 (en) 2015-05-05 2016-11-10 Ptc Inc. Augmented reality system
US9922452B2 (en) * 2015-09-17 2018-03-20 Samsung Electronics Co., Ltd. Apparatus and method for adjusting brightness of image
US20170169612A1 (en) 2015-12-15 2017-06-15 N.S. International, LTD Augmented reality alignment system and method
WO2017131771A1 (en) * 2016-01-29 2017-08-03 Hewlett-Packard Development Company, L.P. Identify a model that matches a 3d object
EP3485465A1 (en) * 2016-09-23 2019-05-22 Apple Inc. Augmented reality display
CN106887045A (zh) * 2017-01-18 2017-06-23 北京商询科技有限公司 一种基于混合现实设备的家装设计方法及系统
CN108805635A (zh) * 2017-04-26 2018-11-13 联想新视界(北京)科技有限公司 一种对象的虚拟显示方法和虚拟设备
US11030808B2 (en) 2017-10-20 2021-06-08 Ptc Inc. Generating time-delayed augmented reality content
US10572716B2 (en) * 2017-10-20 2020-02-25 Ptc Inc. Processing uncertain content in a computer graphics system
US10549853B2 (en) 2017-05-26 2020-02-04 The Boeing Company Apparatus, system, and method for determining an object's location in image video data
US10789682B2 (en) * 2017-06-16 2020-09-29 The Boeing Company Apparatus, system, and method for enhancing an image
CN107330980A (zh) * 2017-07-06 2017-11-07 重庆邮电大学 一种基于无标志物的虚拟家具布置系统
US10282913B2 (en) 2017-07-24 2019-05-07 Visom Technology, Inc. Markerless augmented reality (AR) system
US10535160B2 (en) 2017-07-24 2020-01-14 Visom Technology, Inc. Markerless augmented reality (AR) system
CN107749076B (zh) * 2017-11-01 2021-04-20 太平洋未来科技(深圳)有限公司 增强现实场景中生成现实光照的方法和装置
CN108197571B (zh) * 2018-01-02 2021-09-14 联想(北京)有限公司 一种面罩遮挡检测方法及电子设备
US10613332B1 (en) 2018-02-15 2020-04-07 Facebook Technologies, Llc Near-eye display assembly with enhanced display resolution
CN108416902B (zh) * 2018-02-28 2021-11-26 成都好享你网络科技有限公司 基于差异识别的实时物体识别方法和装置
CN108632538B (zh) * 2018-05-22 2020-07-03 长沙全度影像科技有限公司 一种cg动画和相机阵列相结合的子弹时间拍摄系统及方法
US10984600B2 (en) 2018-05-25 2021-04-20 Tiff's Treats Holdings, Inc. Apparatus, method, and system for presentation of multimedia content including augmented reality content
US10818093B2 (en) 2018-05-25 2020-10-27 Tiff's Treats Holdings, Inc. Apparatus, method, and system for presentation of multimedia content including augmented reality content
CN109131355A (zh) * 2018-07-31 2019-01-04 上海博泰悦臻电子设备制造有限公司 车辆、车机设备及其基于用户识别的车载场景互动方法
CN110852143B (zh) * 2018-08-21 2024-04-09 元平台公司 在增强现实环境中的交互式文本效果
CN109410309B (zh) * 2018-09-30 2024-03-08 深圳市商汤科技有限公司 重光照方法和装置、电子设备和计算机存储介质
US11295514B2 (en) * 2018-11-16 2022-04-05 Nvidia Corporation Inverse rendering of a scene from a single image
US11074147B2 (en) * 2018-11-30 2021-07-27 International Business Machines Corporation Continuous mutual extended processor self-test
EP3895174A1 (en) * 2018-12-10 2021-10-20 Koninklijke Philips N.V. Systems and methods for augmented reality-enhanced field services support
KR20200093093A (ko) 2019-01-08 2020-08-05 삼성전자주식회사 분산 추론 시스템 및 이의 동작 방법
CN110411982B (zh) * 2019-07-04 2021-09-24 云南省水利水电勘测设计研究院 一种利用地面气象观测资料估算地表反照率的方法
US11087529B2 (en) * 2019-09-27 2021-08-10 Disney Enterprises, Inc. Introducing real-time lighting effects to illuminate real-world physical objects in see-through augmented reality displays
JP6907357B1 (ja) * 2020-02-13 2021-07-21 エヌエイチエヌ コーポレーション 情報処理プログラムおよび情報処理システム
CN111275827B (zh) 2020-02-25 2023-06-16 北京百度网讯科技有限公司 基于边缘的增强现实三维跟踪注册方法、装置和电子设备
US11688079B2 (en) 2020-03-31 2023-06-27 Nant Holdings Ip, Llc Digital representation of multi-sensor data stream
JP6935531B1 (ja) * 2020-04-01 2021-09-15 エヌエイチエヌ コーポレーション 情報処理プログラムおよび情報処理システム
CN111443814B (zh) * 2020-04-09 2023-05-05 深圳市瑞云科技有限公司 一种基于云渲染的ar眼镜系统
CN111583374B (zh) * 2020-05-11 2022-09-09 深圳市环球数码影视文化有限公司 一种渲染代理文件的制作方法
US20230107571A1 (en) * 2021-10-01 2023-04-06 Liberty Reach Inc. Machine Vision-Based Method and System for Locating Objects within a Scene Containing the Objects
US11403831B1 (en) 2021-01-14 2022-08-02 Microsoft Technology Licensing, Llc Efficient color theming of background images in web-based mixed reality environments
US11544914B2 (en) * 2021-02-18 2023-01-03 Inait Sa Annotation of 3D models with signs of use visible in 2D images
WO2022175044A1 (en) * 2021-02-18 2022-08-25 Inait Sa Annotation of 3d models with signs of use visible in 2d images
US11935254B2 (en) 2021-06-09 2024-03-19 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for predicting depth using style transfer
GB2619552A (en) * 2022-06-10 2023-12-13 Sony Interactive Entertainment Europe Ltd Computer implemented method and system for providing an augmented reality entertainment environment
CN116245741B (zh) * 2022-06-28 2023-11-17 荣耀终端有限公司 图像处理方法及其相关设备
CN116168131B (zh) * 2022-12-09 2023-11-21 北京百度网讯科技有限公司 布料的渲染处理方法、装置、电子设备及存储介质

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
US6298148B1 (en) * 1999-03-22 2001-10-02 General Electric Company Method of registering surfaces using curvature
JP4213327B2 (ja) * 1999-07-12 2009-01-21 富士フイルム株式会社 光源方向と3次元形状の推定方法および装置並びに記録媒体
US6546309B1 (en) 2000-06-29 2003-04-08 Kinney & Lange, P.A. Virtual fitting room
US6850872B1 (en) * 2000-08-30 2005-02-01 Microsoft Corporation Facial image processing methods and systems
US7016532B2 (en) 2000-11-06 2006-03-21 Evryx Technologies Image capture and identification system and process
US6697518B2 (en) * 2000-11-17 2004-02-24 Yale University Illumination based image synthesis
US7262770B2 (en) 2002-03-21 2007-08-28 Microsoft Corporation Graphics image rendering with radiance self-transfer for low-frequency lighting environments
US7301547B2 (en) * 2002-03-22 2007-11-27 Intel Corporation Augmented reality system
US7249005B2 (en) * 2004-08-17 2007-07-24 Dirtt Environmental Solutions Ltd. Design software incorporating efficient 3-D rendering
US7324688B2 (en) 2005-02-14 2008-01-29 Mitsubishi Electric Research Laboratories, Inc. Face relighting for normalization of directional lighting
JP2007156561A (ja) * 2005-11-30 2007-06-21 Canon Inc 複合現実感提示方法および複合現実感提示システム
CN101356546B (zh) * 2006-05-29 2011-10-12 松下电器产业株式会社 图像高分辨率化装置、方法及系统
JP4883774B2 (ja) * 2006-08-07 2012-02-22 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
GB0616685D0 (en) 2006-08-23 2006-10-04 Warwick Warp Ltd Retrospective shading approximation from 2D and 3D imagery
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
WO2008063167A1 (en) 2006-11-21 2008-05-29 Thomson Licensing Methods and systems for color correction of 3d images
FR2911707B1 (fr) 2007-01-22 2009-07-10 Total Immersion Sa Procede et dispositifs de realite augmentee utilisant un suivi automatique, en temps reel, d'objets geometriques planaires textures, sans marqueur, dans un flux video.
GB0712690D0 (en) * 2007-06-29 2007-08-08 Imp Innovations Ltd Imagee processing
US8090160B2 (en) 2007-10-12 2012-01-03 The University Of Houston System Automated method for human face modeling and relighting with application to face recognition
CN101183276A (zh) * 2007-12-13 2008-05-21 上海交通大学 基于摄像头投影仪技术的交互系统
WO2009147814A1 (ja) 2008-06-02 2009-12-10 パナソニック株式会社 法線情報を生成する画像処理装置、方法、コンピュータプログラム、および、視点変換画像生成装置
JP5237066B2 (ja) * 2008-11-28 2013-07-17 キヤノン株式会社 複合現実感提示システムおよび複合現実感提示方法、プログラム
US8797321B1 (en) * 2009-04-01 2014-08-05 Microsoft Corporation Augmented lighting environments
US8558837B2 (en) * 2010-01-18 2013-10-15 Disney Enterprises, Inc. Modular radiance transfer
US20110234631A1 (en) * 2010-03-25 2011-09-29 Bizmodeline Co., Ltd. Augmented reality systems
KR20110107545A (ko) * 2010-03-25 2011-10-04 에스케이텔레콤 주식회사 광원 인식을 이용한 증강현실 시스템 및 그 방법과, 이를 구현하기 위한 증강현실 처리 장치
US8194072B2 (en) * 2010-03-26 2012-06-05 Mitsubishi Electric Research Laboratories, Inc. Method for synthetically relighting images of objects
KR101293776B1 (ko) * 2010-09-03 2013-08-06 주식회사 팬택 객체 리스트를 이용한 증강 현실 제공 장치 및 방법
US8463073B2 (en) 2010-11-29 2013-06-11 Microsoft Corporation Robust recovery of transform invariant low-rank textures
WO2012135553A1 (en) * 2011-03-29 2012-10-04 Qualcomm Incorporated Selective hand occlusion over virtual projections onto physical surfaces using skeletal tracking
JP5410473B2 (ja) 2011-06-08 2014-02-05 キヤノン電子株式会社 光学部材
US9164723B2 (en) 2011-06-30 2015-10-20 Disney Enterprises, Inc. Virtual lens-rendering for augmented reality lens
EP2754289A4 (en) * 2011-09-08 2016-05-18 Intel Corp INCREASED REALITY BASED ON OBJECT CHARACTERISTICS WHERE THE IMAGE IS FORMED
CN102426695A (zh) * 2011-09-30 2012-04-25 北京航空航天大学 一种单幅图像场景的虚实光照融合方法
KR102010396B1 (ko) * 2011-11-29 2019-08-14 삼성전자주식회사 영상 처리 장치 및 방법
US8872853B2 (en) * 2011-12-01 2014-10-28 Microsoft Corporation Virtual light in augmented reality
US9626798B2 (en) * 2011-12-05 2017-04-18 At&T Intellectual Property I, L.P. System and method to digitally replace objects in images or video
US9330500B2 (en) * 2011-12-08 2016-05-03 The Board Of Trustees Of The University Of Illinois Inserting objects into content
CN102568026B (zh) 2011-12-12 2014-01-29 浙江大学 一种多视点自由立体显示的三维增强现实方法
US9578226B2 (en) * 2012-04-12 2017-02-21 Qualcomm Incorporated Photometric registration from arbitrary geometry for augmented reality
US20140063017A1 (en) * 2012-08-31 2014-03-06 Greatbatch Ltd. Method and System of Model Shading and Reduction of Vertices for 3D Imaging on a Clinician Programmer
US20140085625A1 (en) 2012-09-26 2014-03-27 Abdelrehim Ahmed Skin and other surface classification using albedo
US9524585B2 (en) * 2012-11-05 2016-12-20 Microsoft Technology Licensing, Llc Constructing augmented reality environment with pre-computed lighting
US10062210B2 (en) * 2013-04-24 2018-08-28 Qualcomm Incorporated Apparatus and method for radiance transfer sampling for augmented reality
US9299188B2 (en) * 2013-08-08 2016-03-29 Adobe Systems Incorporated Automatic geometry and lighting inference for realistic image editing
US8976191B1 (en) * 2014-03-13 2015-03-10 Qualcomm Incorporated Creating a realistic color for a virtual object in an augmented reality environment
US10417824B2 (en) * 2014-03-25 2019-09-17 Apple Inc. Method and system for representing a virtual object in a view of a real environment
US20150325048A1 (en) * 2014-05-06 2015-11-12 Mobile R&D Inc. Systems, methods, and computer-readable media for generating a composite scene of a real-world location and an object
US9805510B2 (en) 2014-05-13 2017-10-31 Nant Holdings Ip, Llc Augmented reality content rendering via albedo models, systems and methods

Also Published As

Publication number Publication date
US20190206137A1 (en) 2019-07-04
US20220036661A1 (en) 2022-02-03
WO2015175730A1 (en) 2015-11-19
JP6644833B2 (ja) 2020-02-12
US11710282B2 (en) 2023-07-25
US10685498B2 (en) 2020-06-16
US20200286296A1 (en) 2020-09-10
JP2017524999A (ja) 2017-08-31
US11176754B2 (en) 2021-11-16
US9805510B2 (en) 2017-10-31
CN110363840A (zh) 2019-10-22
US20150332512A1 (en) 2015-11-19
JP2018163692A (ja) 2018-10-18
US20230274510A1 (en) 2023-08-31
CN106575450A (zh) 2017-04-19
CN106575450B (zh) 2019-07-26
US10192365B2 (en) 2019-01-29
US20180005453A1 (en) 2018-01-04

Similar Documents

Publication Publication Date Title
JP6644833B2 (ja) アルベドモデルにより拡張現実コンテンツをレンダリングするシステムおよび方法
JP5833189B2 (ja) 被写体の三次元表現を生成する方法およびシステム
US9001118B2 (en) Avatar construction using depth camera
US9710912B2 (en) Method and apparatus for obtaining 3D face model using portable camera
JP6560480B2 (ja) 画像処理システム、画像処理方法、及びプログラム
KR20180100476A (ko) 이미지 및 뎁스 데이터를 사용하여 3차원(3d) 인간 얼굴 모델을 발생시키는 가상 현실 기반 장치 및 방법
WO2011075082A1 (en) Method and system for single view image 3 d face synthesis
JP2011159329A (ja) 自動3dモデリングシステム及び方法
Neophytou et al. Shape and pose space deformation for subject specific animation
JP2016071645A (ja) オブジェクト3次元モデル復元方法、装置およびプログラム
Fechteler et al. Markerless multiview motion capture with 3D shape model adaptation
US11120606B1 (en) Systems and methods for image texture uniformization for multiview object capture
Jian et al. Realistic face animation generation from videos
US20240096041A1 (en) Avatar generation based on driving views
US20220301119A1 (en) Image processing device, image processing method, program, and image processing system
Poon et al. Enabling 3D online shopping with affordable depth scanned models
Almeida et al. On-line incremental 3D human body reconstruction for HMI or AR applications
KR20230096063A (ko) 2차원 이미지에 기초한 3차원 메쉬 생성기
CN111696183A (zh) 投影互动方法、系统及电子设备
JP2019079299A (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180621

R150 Certificate of patent or registration of utility model

Ref document number: 6360200

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250