JP6499854B2 - 減損現実 - Google Patents

減損現実 Download PDF

Info

Publication number
JP6499854B2
JP6499854B2 JP2014251031A JP2014251031A JP6499854B2 JP 6499854 B2 JP6499854 B2 JP 6499854B2 JP 2014251031 A JP2014251031 A JP 2014251031A JP 2014251031 A JP2014251031 A JP 2014251031A JP 6499854 B2 JP6499854 B2 JP 6499854B2
Authority
JP
Japan
Prior art keywords
target environment
computer
room
view
source image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014251031A
Other languages
English (en)
Other versions
JP2015125774A (ja
JP2015125774A5 (ja
Inventor
グリモー ジャン−ジャック
グリモー ジャン−ジャック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dassault Systemes SE
Original Assignee
Dassault Systemes SE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dassault Systemes SE filed Critical Dassault Systemes SE
Publication of JP2015125774A publication Critical patent/JP2015125774A/ja
Publication of JP2015125774A5 publication Critical patent/JP2015125774A5/ja
Application granted granted Critical
Publication of JP6499854B2 publication Critical patent/JP6499854B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/04Architectural design, interior design

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

拡張現実の出現により、現実の画像と仮想の画像との要素を種々組み合わせることができる。しかし、拡張現実の適用性を制限する課題の一つが、現実そのものである。改造予定の家の部屋の現実の画像内には、既にソファがあり、そこに新しい仮想のソファを置きたい。画像内には既存のキャビネットがあり、そこに新しいキャビネットを仮想化する必要がある。物が表示されている場所に、異なる構成などを仮想化したい。店舗フロアの現実の画像内には、棚の上に製品があり、そこに他の製品を配置したり、現在の製品を再配置したいかもしれない。拡張現実を使用して、新しく設計した仮想の状態に対象物を持っていきたいときには、現実は既に「どこにでも」存在する。
従って、もはや要らなくなった、画像内のキャプチャされた異なる現実の物体を消去することにより、現実の画像を整える必要がある。例えば、キッチンキャビネット等の仮想の物体の構成が適合することを適切に分析することができるように、改造予定の空間の正確な寸法を感知することができる関連のニーズがある。
コンピュータ支援の技術には、製品設計をオーサリングするためのソフトウェアソリューションに関連するコンピュータ支援設計すなわちCADがあることが知られている。同様に、CAEはComputer−Aided Engineering(コンピュータ支援エンジニアリング)の頭文字であり、未来の製品の物理的挙動をシミュレーションするためのソフトウェアソリューションに関連するものである。CAMはComputer−Aided Manuracturing(コンピュータ支援製造)を表し、典型的には、製造のプロセスおよび操作作業を定義するためのソフトウェアソリューションを含む。
製品を形成する物体(または部品)の設計、または物体の組立体のための多数のシステムおよびプログラムが、市場に提供される。これらのCADシステムにより、ユーザは、複雑な三次元すなわち物体または物体の組立体の3Dのモデルを構築および操作することができる。従って、CADシステムによって、面を有する特定の筐体内に、エッジまたは線を使用してモデル化した物体の表現が提供される。線またはエッジは種々の様式、例えば、非一様有理Bスプライン(NURBS:non−uniform retional B−splines)で表現されてよい。これらのCADシステムは、部品または部品の組立体をモデル化された物体として管理し、大部分がジオメトリの仕様である。具体的には、CADファイルには仕様が含まれ、この仕様からジオメトリが生成され、ジオメトリにより表現が生成される。ジオメトリおよび表現は単一のCADファイルまたは複数のCADファイルに格納することができる。CADシステムには、モデル化された物体を設計者に対して表すためのグラフィックツールが含まれ、これらのツールは、複雑な物体の表示専用のものであり、CADシステムにおける物体を表現するファイルの典型的なサイズは、一部品当たり1メガバイトの範囲であり、組立体には数千の部品が含まれてよい。CADシステムは物体のモデルを管理し、物体のモデルは電子ファイルに格納される。
コンピュータ支援技術では、グラフィックユーザインターフェースGUIが、技術の効率について重要な役割を果たす。モデル化された物体を操作および/またはナビゲートすることが求められる操作作業のほとんどは、GUIを介してユーザ(例えば、設計者)により行われる。特に、ユーザは、製品を形成するモデル化された物体を、作成、修正、および削除することができ、かつ、モデル化された物体がどのように相互関係を持つのか、例えば、製品構造を通じて理解するように当該物体を調査することもできる。従来、これらの操作作業は、GUIの側に配置される専用のメニューおよびアイコンを通じて行われる。近年、CADシステムでは、これらの操作作業を製品表現に近接して呼び出すことができる。設計者はもはや、メニューおよびアイコンに向かってマウスを動かす必要がない。従って、操作作業がマウスの手近な範囲で可能とされる。加えて、操作作業は、設計者が選択した所与の操作作業についてセマンティックに挙動し、CADシステムは設計者に対して、なおマウスに近接したまま、設計者が選択しそうな前回選択した操作作業に従って、新しい操作作業のセットを示唆することができる。
種々の環境が、本発明の実施形態の関心の対象であってよい。説明を明確にするために、例示の環境が図面および以下の検討において示される。これらの例は例示目的のものであり、本発明の原理を限定するものではない。対象環境は、非制限例として、家またはオフィスの部屋、小売店の特定の通路および他の部分、ならびに他のユーザ構成領域であってよい。
対象環境は異なる段階および状態を有する。部屋の例では、ベア段階とは、部屋に家具および調度品、概して「物体」が無いことを意味する。反対の段階であるフル段階において、部屋には多数の物体がある。中間段階において、部屋には中間的な数の物体、すなわち、1つまたは複数であるがフル段階より少ない、家具および調度品がある。店舗の通路の例のように、ベア段階では、店舗の通路の棚には製品/在庫が無い(物体を保持していない)。または、棚/棚ユニットが無くてもよい。中間段階において、棚にはいくらかの製品(中間的な数の物体)がある。フル段階において、棚にはその最大数の物体がある。その他もろもろである。
概して、物体は、環境内で物理的配置(配列/組織)および向きを変更することが可能である。物体は、色および/または素材の仕上げ(またはテクスチャ)を更新することができる。物体は、異なるスタイルおよび/または構成(形、サイズおよび他の物理的特徴)を有する代替えの物体と交換/置換することができる。
中間またはフル段階における対象環境の画像は、種々の物体をキャプチャし、かつ、現在の現実を描写する。画像を見ている人は、対象環境において、表示される物体の何らかの色または仕上げ(テクスチャ)が更新されたものを想像することができる。拡張現実のビューでは、表示される物体のそのような外観を変更することを支援することができる。しかし、画像を見ている人は、拡張現実を用いても用いなくても、典型的には、対象環境において、表示される物体の何らかが再配置されたもの、または対象環境において消去されたもの、または代替え物と交換されたものを想像することができない。
本発明の実施形態は、上述の問題に対処し、以下のように作用する。
例示の実施形態において、現実ステージングエンジンが、現在の環境の画像ビューをユーザが所望する段階、例えば、上記の例における部分的または完全に、家の空き部屋または、店の空き棚、に設定する。(所望の/選択された段階における対象環境の)結果のビューを、「減損現実」と称する、3Dモデリングエンジンまたはモデラは、減損現実バージョンの対象環境の実用的な3Dモデルを生成する。
拡張現実サブシステムでは、種々の表示要素(仮想要素)を3Dモデル減損現実のビューに重畳する。表示要素は、ユーザ支援の、交換または変更(再配置、再方向づけまたは他の再構成)される現実世界の物体を表し、これが、ユーザに対して、新しく描写される拡張現実のビューにおける対象環境をもたらす。
上述のものは、本発明の例示の実施形態の以下のより特定の説明から明らかにされ、添付の図面において例示されるように、異なる図面を通じて同様の参照符号が同一の部分を示す。図面は必ずしも縮尺が同じではなく、本発明の実施形態を例示することに重点が置かれる。
本発明の実施形態のブロック図である。 一実施形態におけるユーザインタラクション操作を例示するためのマークが付けられた写真を示す図である。 一実施形態におけるユーザインタラクション操作を例示するためのマークが付けられた写真を示す図である。 一実施形態におけるユーザインタラクション操作を例示するためのマークが付けられた写真を示す図である。 一実施形態におけるユーザインタラクション操作を例示するためのマークが付けられた写真を示す図である。 一実施形態におけるユーザインタラクション操作を例示するためのマークが付けられた写真を示す図である。 実施形態において処理で考慮される画像内の角度の概略説明図である。 実施形態において処理で考慮される画像内の角度の概略説明図である。 実施形態において処理で考慮される画像内の角度の概略説明図である。 実施形態において処理で考慮される画像内の角度の概略説明図である。 本発明を具現化するコンピュータシステムのブロック図である。 図5のコンピュータシステムを採用するコンピュータネットワークの概略図である。
以下、本発明の例示的実施形態について説明する。
本明細書において引用される全ての特許、公開された出願、参考文献が参照として組み込まれる。
非制限的な例示の実施形態が、コンピュータベースツール100として図1に示される。他のコンピュータベースの方法、システムおよびコンピュータプログラム製品が本発明の他の実施形態および実装を提供することができることは、理解されたい。ツール100は、プロセッサ実行の現実ステージングエンジン107および3Dモデラ110から形成される。プロセッサ113は、ツール100、現実ステージングエンジン107および3Dモデラ110を実行する、またはサポートする。以下で明らかになるように、現実ステージングエンジン107は、ソース105からの(関心の環境の)対象画像内の現実を、片付け、整え、または減少させる。画像ソース105は、カメラ、2Dまたは3Dのスキャナ、1つまたは複数のデータストア(画像のデータベース)、映像ストリーム等であってよい。
ソース画像105に表示されるような対象環境内の複数の物体のそれぞれについて、物体を減損現実ビューで表示することは、ユーザ選択可能である。このように、ステージングエンジン107により生成される画像115内の減損現実の度合い(現実の減損)は、ユーザ定義可能である。
3Dモデラ110は、入力として、減損現実画像115をステージングエンジン107から受け取る。3Dモデラ110は、受け取った減損現実画像115の対象物または内容の3Dモデル131を生成する。すなわち、3Dモデラ110は、ユーザが選択した減損段階、例えば、ベアまたは中間段階、において、関心の環境の3Dモデル131を生成する。画像からの3Dモデリングの技術が採用される。
拡張現実サブシステム121は、種々の仮想画像要素をモデラ110からの3Dモデル131上に重畳または重ねる。例えば、種々の候補要素(仮想の)の画像は、関心の対象環境の片づけられたまたは整えられたシーン(減損された現実)上の出力103に表示することができる。サブシステム121のグラフィカルユーザインターフェースでは、ユーザが、既知の技術を使用して出力されるそのような拡張現実画像140と相互作用(インタラクション)することができる。
次に、現実ステージングエンジン107およびツール100のさらなる詳細について提示する。
家の部屋の画像125,127(図2A−2Cおよび3A−3B)の例は、例示の目的で使用されるものであり、制限するものではない。ツール100では、家具が備え付けられた対象の部屋の1つまたは数個の写真(画像)を使用し、完全または部分的に空き部屋の3Dコンピュータモデル表現を作成するための関連する方位データが示されている。例えば、現実ステージングエンジン107は、部屋の最初の空間を持つビュー115を再作成し、まるで、ユーザが交換したい現在の家具、設備または装飾品を設置する前であるかのようにする。具体的には、現実ステージングエンジン107は、画像ソース105から入力として現在の部屋の1つまたはいくつかの画像125、127(リアルタイムのもの、または写真)を取得する。ツール100は、図2Aおよび3Aのように、ソース画像をユーザに対して表示し、それとユーザの相互作用ができるようにする。ユーザは、画像125、127上の、論理的な幾何学的部分または部屋の領域の間の角度を持つ境界を表す、可視線の区分(例えば、壁と隣接する水平壁、壁と天井、および、壁と床)を識別する。ユーザは、これらの線区分を、現実世界の物体(例えば、新しいまたは候補の家具、装飾品など)を表す新しい仮想要素をユーザが置きたい、少なくとも画像領域において識別する。いくつかの境界は、表示されるようなソース画像125、127内のビューに応じて隠され、ユーザは、与えられた線の区分だけを示すことができる。
図2Bの例では、ユーザは、天井から、表示されるテレビ102の上端の真上までの2つの壁の交わりを定義する線区分129を示す。テレビ102と台104とに隠れた角の領域を定義する線区分126は、このビュー(画像125)では隠れている、または遮られている。ユーザは、これらの線区分126を描画しない。図2Cでは、ユーザは、部屋の出入り口の開口の輪郭を描く線区分123を示している。同様に、図3Bでは、ユーザは、キャビネット108の間の可視の壁−天井の連結部分の線区分133と、表示されるビュー(画像127)では可視の2つの壁の交わりを定義する線区分135とを示すだけである。ユーザは、表示される冷蔵庫およびキャビネット108の上に線区分136を描画しない(以下で明らかになるであろう)。
次に、現実ステージングエンジン107により、ユーザは、天井、壁、床にそれぞれ適用されるテクスチャ139a、b、cを相互作用的に識別することが可能である。これは、一実施形態において、ユーザが、部屋の要素(壁、天井および床)の最初の状態を表す、壁、天井および床の各々の領域を、表示画像上で丸で囲むことにより行われる。
図2Bおよび3Bの例において、ユーザは、表示画像125、127内の物が取り去られた場所の天井および壁のペイント色およびテクスチャ139a、bを、丸で囲む。同様に、ユーザは、表示された床の、物が取り去られた代表的な領域139cを丸で囲んで、それぞれの床の色およびテクスチャ139cを示す。
上述のユーザ選択(相互作用的な入力)を用いて、現実ステージングエンジン107は以下の判定を行う。現実ステージングエンジン107は、図2Bおよび3Bにおいてユーザによって開始された境界線を完成させる。特に、現実ステージングエンジン107は、境界線が、交わるところ、角の隠れるところ、表示される家具の背後、または図2B−2Cおよび図3に完成して示されるような他の物体、を完成させる。現実ステージングエンジン107は、線区分126を、図2B−2Cの表示されるテレビ102および台104の上に描き、かつ、線区分136を、図3Bの冷蔵庫およびキャビネット(上部および下部)108の上に描く。完成した境界線から、現実ステージングエンジン107は、部屋(対象環境)が、例えば、そのベアすなわち空き段階にあると判定する。
上記は、対象環境のいくつかのソース画像105(部屋の例における画像125、127)について繰り返される。上記の各繰り返しは、異なるソース画像105に対して行う。異なるソース画像105は、対象環境(例えば、部屋)の異なる部分および異なる画角、ならびに、その中の現実世界の物体を示す。上述の手順により、ユーザは、ソース画像105に表示される対象環境内の各物体の表示を、物体ごとに、選択的に維持または除去することができる。このように、実用的なビュー内の対象環境の減損現実の度合い(ベア/空きから中間までの段階の範囲で)は、ツール100でユーザが定義可能である。
次に、現実ステージングエンジン107は、ソース画像125、127内のどこがむき出しの領域(すなわち、壁、天井、モールディング、床、柱礎)であるかを判定する。現実ステージングエンジン107は、これらの領域からユーザが丸で示したペイント色およびテクスチャを判定する。
上述の判定の結果により、ベアすなわち空きの段階または他のユーザ選択の中間段階にある部屋(対象環境)の減損現実画像115が生成される。図2および3の例示の部屋では、減損現実画像115は大部分が、床、天井、壁、出入り口および窓を表示しており、すなわち、多くの表面および平面が対象環境(部屋)の包含境界を定義する現実ステージングエンジン107は、結果として得られた減損現実画像115を3Dモデラに供給して、ベア段階の対象環境の実用的な3Dモデル131(図1)を生成する(すなわち、図2A−2Cの例では空きまたはほとんど空きの居間、および、図3A−3Bの例では空きまたはほとんど空きのキッチン)。実用的な3Dモデル131の各領域は、ソース画像125、127のユーザが丸で囲んだ領域に対応する色およびテクスチャを使用して全体としてペイントされる。階調を用いて3Dモデル131の着色およびテクスチャリングを行うことができる。ペイントは、図2A−2Cおよび図3Aおよび3Bに示すように、部屋の全ての可視のフレーム上の適切なテクスチャを有する3Dワーキングモデル131の各領域を覆う。
異なる向きおよび位置からの複数の画像115を考えると、3Dモデラ110は、部屋(ソース画像105内でキャプチャされた対象環境)の3Dコンピュータモデルまたは3D画像表現を作成するが、ベア段階、または、少なくともソース画像125、127に表示されるものとは異なる段階を除く。結果として得られるワーキング3Dモデル131は、ソース105のカメラの向きとは無関係である。
結果として、空き部屋(または部分的に空いている部屋)の、完成した3Dモデル/画像表現131は、作成することができる。図2A−2Cおよび図3A−3Bの居間およびキッチンの例において、これらの部屋の3Dモデル表現131から、家具、アメニティ、および高級家具を差し引いたものが作成される。
3Dモデラ110は、生成された3Dモデル131を、例えば拡張現実サブシステム121への入力として出力する。次に、3Dモデル131は拡張現実と相互作用的に使用することができる。例えば、拡張現実内の3Dモデル131画像を使用して、図2A−3Cの例における、新しいキッチンの設計、居間の改築または室内の装飾/家具を備え付けることを確認することができる。他の例では、小売店の床および棚は、販促計画および製品の在庫設計を確認するために使用することができる。拡張現実サブシステム121により、ユーザは、ベア段階の対象環境/空き部屋の3Dモデル131の画像上に、画像要素を重ね合わせるまたは重畳することが可能となる。画像要素は、標的(ターゲット)または候補の現実世界の物体、例えば、対象の部屋用の家具、備え付け家具、アメニティ、装飾品、高級家具などの画像または類似の物であってよい。
候補の物体は、ソース画像105内に表示される同等の物体と置換または交換してもよい。候補の物体は、ソース画像105内に表示される同等の物体の再配置したものまたは異なる組織(構成)であってもよい。候補の物体は、ソース画像105内に同等または等価のものを有しなくてもよく、ユーザは、仮想ビュー140において絵を用いて新しい物体を対象環境/部屋に導入することができる。これらのシナリオの任意の混合が、拡張現実サブシステム121によりサポートされる。
他の例において、上述のシナリオ交換仮想ビュー140は、種々の既知の着色および表面テクスチャリングのツールに、加えてよく、または組み合わせてもよい。そのような組み合わせにより、ユーザは、構造ベースの物体の構成(形状、サイズ、ジオメトリ)を実質的に調査することができるだけでなく、美的かつ室内設計ベースの構成(物体、色、テクスチャ、グルーピング、およびパターン)を検討することもできる。
これらおよび他の使用/用途において、ツール100により、いくつかのユーザ定義可能な量の、(対象環境の)ソース画像の現実が維持され、一方で、他の量の現実(すなわち、ソース画像105内に表示される対象環境内の現実世界の物体)の外観を妨げる/邪魔することからユーザが解放される。
拡張現実サブシステム121により、エンドユーザは、拡張現実表示装置103(図1)を用いて出力画像140のビューを認識することが可能となる。実施形態において、拡張現実ビュー140は、マーク無の形式で表示されてよいが、ユーザ相互作用の手動指定またはマーカの使用が可能となる。他の実施形態では、さらに自動化されたユーザ相互作用が可能となる。
3Dモデル131から、拡張現実サブシステム121は、出力画像140内の対象環境ビューの実用的または論理的に作動する線を判定かつ定義する。一実施形態においてこれを達成するための手順は、以下の通りである。
天井およびモールディングから開始する
ドア周辺の床に続く(柱礎を使用)
壁の間の水平線区分を見る
その周りの窓および枠を見る
その周りのドアおよび枠をみる
次に、拡張現実サブシステム121は、出力画像140および対応する線を生成する。まず、エッジ検出アルゴリズムが出力画像140に適用される。その結果、さらなる分析を必要とする多数の線が生じる。
次に、光学に起因するバレル歪みおよびピンクッション歪みを除去することにより、直線的画像140を作成する。その結果、主エッジ用の直線でできたすっきりした画像が生じる。この工程はソース画像105のカメラで使用される光学の質によっては、行わなくてもよい。
拡張現実サブシステム121によって出力されるそのような画像140は5つの異なるパラメータ、すなわち、パン、チルト、ズーム、ロール、およびフォーカスプレーンを有する。一部の実施形態において、既知のアルゴリズムはフォーカスプレーンに採用される。他の実施形態において、フォーカスプレーンパラメータは無視される。
パン用の画像140のパラメータは、コンパスセンサによって追跡されるサブシステム121の向きにより、キャプチャすることができる。
画像140のズームのパラメータは、対象環境における壁または平らな面の、非マスクの部分上の基準を用いることにより、キャプチャすることができる。例えば、標準的な紙(例えば、8.5×11インチまたはA4の用紙)を対角線に沿って2つに折られたものである。折られた紙は、壁/基準表面の非マスク部分に透明に接着テープに貼ることができる。これは、拡張現実サブシステム121によって認識され、ズームおよび紙までの距離が与えられる。
出力画像140のロールパラメータは、画像140のほぼ垂直なエッジをみてエッジを真の垂直にするためにロールを修正するサブシステム121によって計測することができる。
チルトは、画像140のキャプチャにおけるサブシステム121のカメラの高さに依存し、これは、画像を撮る人の高さに関連する。出力画像140上のチルトは同一の画像フレームまたは複数の異なる画像(フレーム)上における天井および床をカバーする。
天井の角を表示する出力画像140の場合、拡張現実サブシステム121は、各壁と天井との交差により作られる2つの線の間の見掛け角度に応じて、画像を生成かつ調整する。上側角度143が180度より小さい場合、図4Aに示すように、出力画像140内の三面体の交点からサブシステム121カメラまでの距離が、対象環境における三面体とソース画像105のカメラとの間の距離より大きい。上側角度143が180度より大きい場合、図4Bに示すように、出力画像140内の三面体の交点から拡張現実サブシステム121カメラまでの距離が、対象環境における三面体とソース画像105のカメラとの間の距離より短い。従って、拡張現実サブシステム121カメラは、ソース画像105が撮影された時にはソース画像カメラの位置よりも前にある。
同様に、床の角を含む出力画像140の場合、拡張現実サブシステム121は、各壁と床との交差により作られる2つの線の間の見掛け角度に応じて、画像140を調整する。三面体の下側角度145が180度より小さい場合、図4Cに示すように、出力画像140内の交点とサブシステム121におけるカメラとの間の距離は、ソース画像105が撮影されたときのソース画像カメラの距離よりも大きい。
三面体の下側角度145が180度より大きい場合、図4Dに示すように、出力画像140内の交点とサブシステム121におけるカメラとの間の距離は、ソース画像105が撮影されたときのソース画像カメラの距離よりも近い(短い)。
これら全ての角について、最初に推測は、2つの隣接する壁面の間の角度が90度であることである。部屋中の壁の角度の合計が360度に等しくない場合、修正が行われる。
このソリューションは、いくつかの工程により、適切な計算資源を用いてリアルタイムで、半自動化または完全自動化することができる。
図5は、例示のコンピュータ支援設計ステーション300のブロック図であり、以下においては、コンピュータシステムとも称する。本明細書において使用されるとき、用語「コンピュータ支援設計ステーション」および「コンピュータシステム」は、概して、上記で説明したプロセスおよび/または上記で説明したものに関連する任意の追加的なプロセスを実行するために使用される任意の適切なコンピュータ装置をいう。
例示の一実施形態において、コンピュータ支援設計ステーション300は、上記で説明したプロセスおよび/または上記で説明したものに関連する任意の追加的なプロセスを実行する1つまたは複数のプロセッサ302を含む。用語「プロセッサ」は、概して、システムおよびマイクロコントローラ、RISC(reduced instruction sets circuit(縮小命令セット回路))、ASIC(application−specifice interated circuit(特定用途向け集積回路))、プログラム可能論理回路、および/または本明細書に記載される機能を実行可能な任意の他の回路またはプロセッサを含む任意のプログラム可能システムをいう。上記の例は、単なる例示であり、従って、用語「プロセッサ」の定義および/または意味をいかようにも制限することは意図していない。
上記で説明したプロセッサおよび/または上記で説明したものに関連する任意の追加的なプロセッサの工程は、コンピュータ実行可能命令として、例えば、システムバス306によりプロセッサ302と動作可能または通信可能に連結される、メモリ領域304などの非一時的コンピュータ可読媒体に、格納されてよい。「メモリ領域」は、本明細書において使用されるとき、概して、減損現実ツール100を使用して関心の環境の減損現実ビュー(画像)を生成する際に支援となる、1つまたは複数のプロセッサにより実行可能なプログラムコードおよび命令を格納する任意の手段をいう。メモリ領域304には、1つ、または複数の、メモリの形式が含まれてよい。例えば、メモリ領域304には、RAM(random−access memory)308が含まれてよく、これには、不揮発性RAM、磁気RAM、強誘電体RAM、および/または他の形式RAMが含まれてよい。メモリ領域304にはまた、ROM(read−only memory)310およびまたはフラッシュメモリおよび/またはEEPROM(electrically−erasable programmable read−only memory)が含まれてよい。任意の他の適切な磁気、光および/または半導体のメモリ、例えば、ハードディスクドライブ(HDD)312、が、それそのものとして、または他の形式のメモリと組み合わせられて、メモリ領域304に含まれてよい。HDD312はまた、ディスクコントローラ314に連結されて、メッセージをプロセッサ302との間で送受信する際に使用されてもよい。さらに、メモリ領域304はまた、着脱可能または取外し可能なメモリ316、例えば、適切なカートリッジディスク、CD―ROM、DVD、またはUSBメモリ、などであってよく、またはそれらを含んでよい。上記の例は、例示のみの目的のものであり、従って、用語「メモリ領域」の定義および/または意味をいかようにも制限することは意図していない。
コンピュータ支援設計ステーション300にはまた、表示コントローラ320に、動作可能なように、連結される表示装置318が含まれてよい。表示コントローラ320は、表示装置318により表示するためのデータをシステムバス306を介して受け取る。表示装置318は、モニタ、テレビディスプレイ、プラズマディスプレイ、液晶ディスプレイ、LED(発光ダイオード)ベースのディスプレイ、有機LED(OLED)ベースのディスプレイ、表面伝導型電子放出素子ベースのディスプレイ、投影および/または反射画像を含むディスプレイ、または任意の他の適切な電子装置または表示機構、であってよいがこれに限定されない。さらに、表示装置318には、関連するタッチスクリーンコントローラを有するタッチスクリーンが含まれる。上記の例は、例示のみの目的のものであり、従って、用語「表示装置」の定義および/または意味をいかようにも制限することは意図していない。
さらに、コンピュータ支援設計ステーション300は、ネットワーク(図5には図示せず)と通信する際に使用されるネットワークインターフェース322が含むようにしてよい。さらに、コンピュータ支援設計ステーション300は、1つまたは複数の入力装置、例えば、キーボード324、および/または、ローラボール、マウス、タッチパッドなどのポインティング装置326を含めることができる。入力装置は、入力/出力(I/O)インターフェース328により連結かつ制御され、インターフェース328はさらにシステムバス306に連結される。
表示装置318、キーボード324、ポインティング装置326、ならびに、コントローラ320、ディスクコントローラ314、ネットワークインターフェース322、およびI/Oインターフェース328の全体的な特徴および機能性については既知であるため、簡潔にする目的で本明細書においては説明を省略する。
図6は、例示のシステム400の概略ブロック図であり、上記で説明したプロセスおよび/または上記で説明したものに関連する任意の追加的なプロセスなどの、関心の環境の片づけられた/整ったまたは減損された現実のビューのコンピュータ支援設計に使用される。例示の一実施形態において、メモリ領域402には、1つまたは複数の記憶装置404が含まれ、ソース画像データ、モデル化された減損現実データなどのCADデータ、拡張現実データ、および/または拡張現実の物体に関するポジショニングデータの格納に使用される。いくつかの実施形態において、メモリ領域402はサーバ406と連結され、サーバ406は、ネットワーク412を介して管理システム408および/またはユーザシステム410に連結される。記憶装置404は、1つまたは複数のデータベースとして具現化されてよく、1つまたは複数の地理的場所に設置されてよく、または、サーバ406と統合されてもよい。
理解されるように、ネットワーク412は、インターネットなどの公衆網、またはLANもしくはWANネットワークなどの私的ネットワーク、またはその任意の組み合わせ、とすることができ、また、PSTNまたはISDNサブネットワークが含まれてもよい。ネットワーク412はまた、イーサネット(登録商標)ネットワークなどの有線とすることができ、または、EDGE、3Gおよび4G無線セルラーシステムを含むセルラーネットワークなどの無線とすることもできる。無線ネットワークはまた、WiFi、Bluetooth(登録商標)、または既知の任意の他の無線形式の通信とすることができる。従って、ネットワーク412は単なる例であり、現在の進歩の範囲を全く制限しない。
当業者は認識するであろうが、管理システム408および/またはユーザシステム410は、図5を参照して説明したようなもの、または既知の任意の他のコンピュータシステムなどのコンピュータ支援設計ステーションとすることができる。さらに、管理システム408および/またはユーザシステム410が、上記で説明したプロセスおよび/または上記で説明したものに関連する任意の追加的なプロセスを実行するべく構成されることは理解すべきである。
サーバ406は、上記で説明したプロセスを実行するコンピュータ可読命令を格納し、かつ、これらの命令をネットワーク412を介して管理システム408およびユーザシステム410に提供する。さらに、サーバ406はまた、管理システム408およびユーザシステム410の必要に応じて、メモリ領域402からデータを提供する。このように、図6には、クラウドコンピューティング、分散コンピューティングなどを介したシステム400の実装が含まれる。
減損現実の環境およびそのインタラクティブな画像をコンピュータ支援設計する際に使用するための、システム、方法、装置、コンピュータプログラム製品、およびコンピュータ可読記憶媒体、の例示の実施形態について上記で詳細に説明した。システム、方法、装置、コンピュータプログラム製品、およびコンピュータ可読記憶媒体は、本明細書に記載される具体的な実施形態に限定されず、むしろ、方法、プログラム製品および/または記憶媒体の作用、ならびに、システムおよび/または装置のコンポーネントは、本明細書に記載される作用および/またはコンポーネントからは独立かつ別個に利用されてよい。さらに、説明された作用および/またはコンポーネントはまた、他のシステム、方法、装置、プログラム製品および/または記憶媒体において定義されてよく、かつ、それらの組み合わせで使用されてよく、また、本明細書に記載されるようなシステム、方法、装置、プログラム製品および/または記憶媒体のみと共に実践されることに限定されない。
本明細書に記載されるようなコンピュータまたはコンピュータシステムには、少なくとも1つのプロセッサまたはプロセシングユニットおよびシステムメモリが含まれる。コンピュータまたはコンピュータシステムは典型的には、少なくともいくつかの形式のコンピュータ可読媒体を有する。制限ではなく例として、コンピュータ可読媒体には、コンピュータ記憶媒体および通信媒体が含まれる。コンピュータ記憶媒体には、コンピュータ可読命令、データ構造、プログラムモジュールまたは他のデータ、などの情報を格納するための任意の方法または技術により実装される、揮発性および不揮発性の、取外し可能および取外し不可能な媒体含まれる。通信媒体は典型的には、コンピュータ可読命令、データ構造、プログラムモジュールまたは他のデータを、搬送波または転送機構などの変調データ信号で具現化し、かつ任意の情報配信媒体を含む。当業者は、変調データ信号には精通しており、変調データ信号の1つまたは複数の特徴が、信号内に情報を符号化する様式で、設定または変更されている。上記のうちの任意の組み合わせもまた、コンピュータ可読媒体の範囲に含まれる。
上記で説明したプロセスで使用するための例示の非一時的なコンピュータ実行可能コンポーネントには、表示コンポーネントが含まれるがこれのみを含むことに限定されず、表示コンポーネントは、プロセッサ302(図5に示す)に、モデル化された減損現実環境131を、ユーザ選択可能な実世界の物体を表す拡張現実画像要素に重畳して、表示装置318(図5に示す)上に提示することを行わせる。コンポーネントにはまた、プロセッサ302に、例えば、I/Oインターフェース328(図5に示す)を介して入力されるユーザ入力を受け取るインターフェースコンポーネントが含まれる。上記で説明したように、ユーザ入力は、対象環境の物理的な詳細を示して物体を片づける/整えることに関連してよく、CADモデルビューを作成する、減損現実のCADモデルビューに、拡張現実ビューを重ねる、ツール100のインスタンスを作成する、および/またはユーザインタラクティブな拡張現実ビュー140を位置決めする(整列させる)。
さらに、コンポーネントには、上記で説明した工程をプロセッサ302に実行させる現実ステージングエンジンコンポーネントおよび3Dモデリングコンポーネントが含まれる。現実ステージングエンジンは3Dモデリングコンポーネントと共に、現実において減損され、元々表示されていたユーザ選択の物体が片づけられ、拡張現実ビュー140内の仮想要素が重ねられた、対象環境CADモデルビューを生成する。拡張現実コンポーネントは、これとのユーザインタラクションを可能にして、ユーザによって変更(例えば、再配置、再組織化)され、更新され(色、テクスチャ、など)、および/または置換される現実世界の物体を表す、仮想の要素を更新する。
本発明は、例示のコンピュータシステム環境との関連で説明したが、本発明の実施形態は、多数の他の汎用または専用のコンピュータシステムまたは構成において操作可能である。コンピュータシステム環境では、本発明の任意の態様の使用または機能性の範囲について、任意の制限を示唆することは意図されない。さらに、コンピュータシステム環境は、例示の動作環境において示されるコンポーネントのうちの任意の1つまたは組み合わせに関して、任意の依存または要件を有するものと解釈されるべきではない。本発明の態様を用いる使用に適切であるような周知のコンピュータシステム、環境、および/または構成には、パーソナルコンピュータ、サーバコンピュータ、ハンドヘルドまたはラップトップの装置、マルチプロセッサシステム、マイクロプロセッサベースのシステム、セットトップボックス、プログラム可能家庭用電化製品、携帯電話、ネットワークPC、ミニコンピュータ、マインフレームコンピュータ、上記のシステムまたは装置のいずれかを含む分散コンピュータ環境など、が含まれるが、これに限定されない。
本発明の実施形態は、1つまたは複数のコンピュータまたは他の装置により実行されるプログラムコンポーネントまたはモジュールなどの、コンピュータ実行可能命令の一般的文脈で説明することができる。本発明の態様は、任意の数および組織のコンポーネントまたはモジュールを用いて実装することができる。例えば、本発明の態様は、図面に示されかつ本明細書に記載される、特定のコンピュータ実行可能命令または特定のコンポーネントまたはモジュールに限定されない。本発明の代替え実施形態には、本明細書に示されかつ記載されるものより多いかまたは少ない機能性を有する、異なるコンピュータ実行可能命令またはコンポーネントが含まれてよい。
本明細書に示されかつ記載される本発明の実施形態における動作を実行するまたは行う順番は、特に指定されない限り、重要ではない。すなわち、動作は、特に指定されない限り、任意の順番で行われてよく、本発明の実施形態には、本明細書に開示されるものより追加されたまたはより少ない動作が含まれてよい。例えば、特別の動作を、別の動作の前、同時、または後に実行するまたは行うことは、本発明の態様の範囲内である。
本発明の態様の要素または実施形態を導入する際、冠詞の「1つの」、「ある」、「その」および「前記」は、1つまたは複数の要素がある、ということを意味することが意図される。用語「備える」「含む」および「有する」は包括的であり、かつ、列挙される要素の他に追加的な要素があり得る、ということを意味することが意図される。
本記載は例を使用して、最良の形態を含む、本発明を開示し、かつ、任意の装置またはシステムを作成および使用すること、ならびに、任意の組み込まれる方法を実行すること、を含む本発明の実践を、任意の当業者が行うことを可能とする。本発明の特許性を有する範囲は、請求の範囲により定義され、また、当業者が想到する他の例を含むことができる。そのような他の例は、請求項の文字通り言語とは異ならない構造要素を有する場合、または、請求項の文字通り言語とは実体のない相違を有する等価の構造要素を含む場合、請求の範囲内であることが意図される。
本発明は、その例示の実施形態を参照して特に示されかつ説明されたが、添付の請求項により網羅される本発明の範囲から逸脱することなく、形式および詳細についての種々の変更がなされ得ることは、当業者には理解されるであろう

Claims (20)

  1. 対象環境を表示するコンピュータによる実行方法であって、
    現在の状態で対象環境を表示する二次元(2D)ソース画像を受信するステップと、
    前記2Dソース画像内の線区分と前記2Dソース画像から外挿された線区分とに基づいて前記対象環境の境界を画定する線区分を決定するステップであって、前記決定された線区分は前記対象環境の背景であるステップと、
    前記対象環境の3D減損現実の3Dモデルをデジタル的に形成するステップであって、
    前記3Dモデルは前記対象環境の背景に基づき、前記3Dモデルから除去された背景とは別の前記2Dソース画像のオブジェクトを有するステップによって、
    第1のビューが前記対象環境の減損現実となるように、対象環境を現在の状態の代わりに開始の状態で示す前記第1のビューを形成する1つまたは複数の画像のセットをデジタル的に生成するステップと、
    前記現在の状態ではなく、可能となるコンピュータを基にした相互作用に基づいた拡張を有する前記開始の状態において、前記第1のビューを形成する画像のセットとのコンピュータベースのユーザ相互作用を、第2のビューを生成する態様で可能にするステップであって、前記第2のビューは前記対象環境の3D拡張現実表現である、ステップと、
    を含むことを特徴とするコンピュータによる実行方法。
  2. 画像のセットをデジタル的に生成するステップは、
    プロセッサにおいて、現在の状態で前記対象環境を表示するソース画像を受け取るステ
    ップと、
    前記対象環境の境界を定義する前記ソース画像において線区分を判定するステップと、
    前記判定される線区分から、前記対象環境の減損現実の3Dモデルをデジタル的に形成
    するステップと
    を含むことを特徴とする請求項1に記載のコンピュータによる実行方法。
  3. 前記第1のビューは、前記ソース画像内に表示される現実世界の物体の量よりも少ない
    、前記対象環境内における現実世界の物体の量を示すことを特徴とする請求項2に記載の
    コンピュータによる実行方法。
  4. 前記第1のビューは、物体のベア状態である前記対象環境を示すことを特徴とする請求
    項2に記載のコンピュータによる実行方法。
  5. コンピュータベースのユーザ相互作用を可能にするステップは、ユーザインターフェー
    スを拡張現実サブシステムに提供することを含むことを特徴とする請求項1に記載のコン
    ピュータによる実行方法。
  6. 前記生成される第2のビューは、前記第1のビュー上に1つまたは複数の仮想要素を重
    畳し、各仮想要素はそれぞれの現実世界の物体を表すことを特徴とする請求項1に記載の
    コンピュータによる実行方法。
  7. 対象環境が部屋であり、
    前記第1のビューは、前記部屋の現在の状態であるのに反して、実質的に空きである前
    記部屋を示すことを特徴とする請求項1に記載のコンピュータによる実行方法。
  8. 前記第2のビューは、
    前記部屋の現在の状態には欠く、前記部屋の中の1つまたは複数の物体と、
    前記部屋の現在の状態とは異なる、前記部屋の中の1つまたは複数の物体と、
    のうちの一つとともに、前記部屋の拡張現実表現を表示することを特徴とする請求項7
    に記載のコンピュータによる実行方法。
  9. 前記1つまたは複数の物体は、家具、備え付け家具、アメニティ、および装飾品のうち
    のいずれかであることを特徴とする請求項8に記載のコンピュータによる実行方法。
  10. 前記対象環境における複数の物体のそれぞれについて、前記第1のビュー内での前記物
    体の表示がユーザ選択可能であることを特徴とする請求項1に記載のコンピュータによる
    実行方法。
  11. 前記第1のビューを形成する画像の前記セットを使用して、減損現実において前記対象
    環境の3Dモデルを作成するステップをさらに含み、前記3Dモデルは、前記対象環境の
    前記拡張現実表現に採用されることを特徴とする請求項1に記載のコンピュータによる実
    行方法。
  12. 対象環境を表示するコンピュータ装置であって、
    現在の状態で対象環境を表示する二次元(2D)ソース画像を受信し、
    前記2Dソース画像内の線区分と前記2Dソース画像から外挿された線区分とに基づいて前記対象環境の境界を画定する線区分を決定し、前記決定された線分は前記対象環境の背景であることによって、
    プロセッサにより実行可能であり、かつ、対象環境を現在の段階以外の段階で示す第1のビューを形成する1つまたは複数の画像のセットを生成するように構成される、現実ステージングエンジンと、
    前記対象環境の3D減損現実の3Dモデルをデジタル的に形成し、前記3Dモデルは前記対象環境の背景に基づき、前記3Dモデルから除去された背景とは別の前記2Dソース画像のオブジェクトを有することにより、前記現実ステージングエンジンから前記生成される画像のセットを受け取るように連結される3Dモデラであって、減損現実において対象環境の3Dモデルを形成するように構成される、3Dモデラと、
    前記現在の状態ではなく、可能となるコンピュータを基にした相互作用に基づく拡張を有する開始の状態において、前記3Dモデルから形成される前記対象環境の拡張現実表現とのユーザ相互作用を可能にする拡張現実インターフェースと
    を備えることを特徴とするコンピュータ装置。
  13. 前記現実ステージングエンジンは、
    前記対象環境を前記現在の段階で表示する1つまたは複数の画像を受け取り、
    前記対象環境の境界を定義するソース画像において線区分を判定する
    ようにさらに構成されることを特徴とする請求項12に記載のコンピュータ装置。
  14. 前記3Dモデラは、前記判定される線区分から前記3Dモデルを形成するように構成さ
    れることを特徴とする請求項13に記載のコンピュータ装置。
  15. 前記第1のビューは、前記対象環境の前記3Dモデル内の現実世界の物体の量がソース
    画像内に表示される現実世界の物体の量よりも少なくなるように、前記ソース画像内に表
    示される現実世界の物体の量よりも少ない、前記対象環境内における現実世界の物体の量
    を示すことを特徴とする請求項14に記載のコンピュータ装置。
  16. 前記拡張現実インターフェースは、前記3Dモデルのビュー上に1つまたは複数の仮想
    要素を重畳し、各仮想要素はそれぞれの現実世界の物体を表すことを特徴とする請求項1
    2に記載のコンピュータ装置。
  17. 前記対象環境は部屋であり、前記第1のビューは、実質的に空きである前記部屋を示す
    ことを特徴とする請求項12に記載のコンピュータ装置。
  18. 前記部屋の前記拡張現実表現は、
    前記部屋の前記現在の状態を欠く、前記部屋の中の1つまたは複数の物体と、
    前記部屋の前記現在の状態とは異なる、前記部屋の中の1つまたは複数の物体と
    のうちの一つと共に表示されることを特徴とする請求項17に記載のコンピュータ装置
  19. 前記物体は、家具、備え付け家具、アメニティ、および装飾品のうちのいずれかである
    ことを特徴とする請求項18に記載のコンピュータ装置。
  20. コンピュータによって実行されるときに、請求項1ないし11のいずれか1項に記載の
    方法を前記コンピュータに実行させる、対象環境を表示するためのコンピュータプログラ
    ム。
JP2014251031A 2013-12-26 2014-12-11 減損現実 Active JP6499854B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/141,243 US9514573B2 (en) 2013-12-26 2013-12-26 Diminished reality
US14/141,243 2013-12-26

Publications (3)

Publication Number Publication Date
JP2015125774A JP2015125774A (ja) 2015-07-06
JP2015125774A5 JP2015125774A5 (ja) 2018-01-25
JP6499854B2 true JP6499854B2 (ja) 2019-04-10

Family

ID=52338837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014251031A Active JP6499854B2 (ja) 2013-12-26 2014-12-11 減損現実

Country Status (7)

Country Link
US (1) US9514573B2 (ja)
EP (1) EP2889844B1 (ja)
JP (1) JP6499854B2 (ja)
KR (1) KR20150076119A (ja)
CN (1) CN104751520B (ja)
CA (1) CA2875370A1 (ja)
IN (1) IN2014MU04067A (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9652895B2 (en) * 2014-03-06 2017-05-16 Disney Enterprises, Inc. Augmented reality image transformation
US11410221B2 (en) 2014-04-29 2022-08-09 Vivint, Inc. Integrated secure delivery
US11900305B2 (en) 2014-04-29 2024-02-13 Vivint, Inc. Occupancy identification for guiding delivery personnel
US11049343B2 (en) * 2014-04-29 2021-06-29 Vivint, Inc. Techniques for securing a dropspot
US9996636B2 (en) 2014-05-13 2018-06-12 Atheer, Inc. Method for forming walls to align 3D objects in 2D environment
US9727977B2 (en) * 2014-12-29 2017-08-08 Daqri, Llc Sample based color extraction for augmented reality
KR102326700B1 (ko) 2015-06-01 2021-11-16 엘지전자 주식회사 이동 단말기
EP3131064B1 (en) * 2015-08-13 2017-11-08 Nokia Technologies Oy Searching image content
US10620778B2 (en) * 2015-08-31 2020-04-14 Rockwell Automation Technologies, Inc. Augmentable and spatially manipulable 3D modeling
US9639734B1 (en) 2015-11-13 2017-05-02 Cypress Semiconductor Corporation Fingerprint sensor-compatible overlay material
US10832029B2 (en) 2015-11-13 2020-11-10 Cypress Semiconductor Corporation Sensor-compatible overlay
US10282585B2 (en) 2015-11-13 2019-05-07 Cypress Semiconductor Corporation Sensor-compatible overlay
US10834454B2 (en) 2015-12-17 2020-11-10 Interdigital Madison Patent Holdings, Sas Personalized presentation enhancement using augmented reality
TWI588685B (zh) * 2016-08-31 2017-06-21 宅妝股份有限公司 虛擬實境與擴增實境的建置系統及其方法
GB2554914B (en) * 2016-10-14 2022-07-20 Vr Chitect Ltd Virtual reality system and method
US10467352B2 (en) 2017-04-03 2019-11-05 Cambria Company Llc Stone slab production methods and systems
US20190057180A1 (en) * 2017-08-18 2019-02-21 International Business Machines Corporation System and method for design optimization using augmented reality
CN109427098A (zh) * 2017-08-29 2019-03-05 深圳市掌网科技股份有限公司 一种基于增强现实的图像展示方法和系统
GB2582315B (en) * 2019-03-19 2023-05-17 Sony Interactive Entertainment Inc Method and system for generating an image
US10956626B2 (en) * 2019-07-15 2021-03-23 Ke.Com (Beijing) Technology Co., Ltd. Artificial intelligence systems and methods for interior design
US11381710B2 (en) 2019-09-13 2022-07-05 International Business Machines Corporation Contextual masking of objects in social photographs
JP7150894B2 (ja) * 2019-10-15 2022-10-11 ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド Arシーン画像処理方法及び装置、電子機器並びに記憶媒体
US10976806B1 (en) 2019-12-27 2021-04-13 GE Precision Healthcare LLC Methods and systems for immersive reality in a medical environment
EP3872770A1 (en) 2020-02-28 2021-09-01 Inter Ikea Systems B.V. A computer implemented method, a device and a computer program product for augmenting a first image with image data from a second image
US11636628B2 (en) 2020-05-01 2023-04-25 International Business Machines Corporation Composite imagery rendering in diminished reality environment for medical diagnosis
WO2021251775A1 (ko) 2020-06-10 2021-12-16 삼성전자 주식회사 폴딩 동작 및 슬라이딩 동작이 가능한 전자 장치
EP4152122A4 (en) 2020-06-10 2023-11-08 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE CAPABLE OF PERFORMING FOLDING AND SLIDING OPERATIONS
US11276206B2 (en) 2020-06-25 2022-03-15 Facebook Technologies, Llc Augmented reality effect resource sharing
WO2022014918A1 (ko) 2020-07-14 2022-01-20 삼성전자 주식회사 센싱 구조를 포함하는 전자 장치
EP4187351A4 (en) 2020-10-12 2024-01-24 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE WITH FLEXIBLE DISPLAY
EP4012654A3 (en) * 2020-10-25 2022-08-24 Nishant Tomar Feature determination, measurement, and virtualization from 2-d image capture
CN116324946A (zh) 2020-11-06 2023-06-23 三星电子株式会社 包括柔性显示器的电子装置
US11232643B1 (en) * 2020-12-22 2022-01-25 Facebook Technologies, Llc Collapsing of 3D objects to 2D images in an artificial reality environment

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003141567A (ja) * 2001-11-07 2003-05-16 Japan Science & Technology Corp 3次元都市モデル生成装置及び3次元都市モデル生成方法
US7301547B2 (en) * 2002-03-22 2007-11-27 Intel Corporation Augmented reality system
JP2004310686A (ja) * 2003-04-10 2004-11-04 Canon Inc 画像処理方法及び装置
US7474318B2 (en) * 2004-05-28 2009-01-06 National University Of Singapore Interactive system and method
US8547401B2 (en) * 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
DE102007045835B4 (de) * 2007-09-25 2012-12-20 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
US8140989B2 (en) * 2009-02-19 2012-03-20 Kimberly-Clark Worldwide, Inc. Virtual room use simulator and room planning system
CN101520904B (zh) * 2009-03-24 2011-12-28 上海水晶石信息技术有限公司 带有现实环境估算的增强现实的方法及其系统
KR101669119B1 (ko) * 2010-12-14 2016-10-25 삼성전자주식회사 다층 증강 현실 시스템 및 방법
US9129438B2 (en) 2011-01-18 2015-09-08 NedSense Loft B.V. 3D modeling and rendering from 2D images
US20120326948A1 (en) * 2011-06-22 2012-12-27 Microsoft Corporation Environmental-light filter for see-through head-mounted display device
WO2013032955A1 (en) * 2011-08-26 2013-03-07 Reincloud Corporation Equipment, systems and methods for navigating through multiple reality models
US9443353B2 (en) * 2011-12-01 2016-09-13 Qualcomm Incorporated Methods and systems for capturing and moving 3D models and true-scale metadata of real world objects
US9147291B2 (en) * 2012-04-20 2015-09-29 Samsung Electronics Co., Ltd. Method and apparatus of processing data to support augmented reality
US8705893B1 (en) * 2013-03-14 2014-04-22 Palo Alto Research Center Incorporated Apparatus and method for creating floor plans
US8868375B1 (en) * 2014-05-21 2014-10-21 Locometric Ltd Generation of a floor plan

Also Published As

Publication number Publication date
CN104751520B (zh) 2020-09-11
IN2014MU04067A (ja) 2015-10-16
EP2889844A3 (en) 2016-01-13
CN104751520A (zh) 2015-07-01
CA2875370A1 (en) 2015-06-26
KR20150076119A (ko) 2015-07-06
US20150187136A1 (en) 2015-07-02
US9514573B2 (en) 2016-12-06
EP2889844B1 (en) 2021-08-11
EP2889844A2 (en) 2015-07-01
JP2015125774A (ja) 2015-07-06

Similar Documents

Publication Publication Date Title
JP6499854B2 (ja) 減損現実
US11657419B2 (en) Systems and methods for building a virtual representation of a location
US20220319106A1 (en) Virtual interaction with three-dimensional indoor room imagery
US6025847A (en) Three dimensional modeling system with visual feedback
US9471996B2 (en) Method for creating graphical materials for universal rendering framework
TW202303353A (zh) 在構建、改造和製造中的增強現實任務辨識和協助
US20080018665A1 (en) System and method for visualizing drawing style layer combinations
US8134551B2 (en) Frontend for universal rendering framework
Kieferle et al. BIM interactive-about combining bim and virtual reality
US11935192B2 (en) Technologies for 3D placement of virtual objects from a 2D layout
CN104318042A (zh) 家居设计系统
CN106683177B (zh) 基于互动漫游式房屋装修数据交互方法及装置
US11734929B2 (en) Enhanced product visualization technology with web-based augmented reality user interface features
US11875280B2 (en) Rendering 3D model data for prioritized placement of 3D models in a 3D virtual environment
KR100434657B1 (ko) 가상현실을 기반으로 한 3차원 주택인테리어 가공방법 및 기록매체
US20230230326A1 (en) System and method for creating and furnishing digital models of indoor spaces
US20230044630A1 (en) System and Method for Creating and Furnishing Digital Models of Indoor Spaces
EP2993613A1 (en) A capture system arranged to create a 3d model from a scanned scene, a method and a graphical user interface
EP4202683A1 (en) Design development, representation and display
Samonte et al. An emerging interactive 3d architectural design walkthrough system for industrial hotel builders
US20240119658A1 (en) Computer Systems and Methods for Rendering Three-Dimensional Views Using Object Cache Buffering
KR20180031890A (ko) 3d 인테리어 시뮬레이션 프로그램을 이용한 인테리어 역경매 시스템 및 방법
Ishikawa et al. Interactive indoor 3D modeling from a single photo with CV support
US9117253B2 (en) Perspective warp

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190318

R150 Certificate of patent or registration of utility model

Ref document number: 6499854

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250