JP6765487B2 - 人工知能を用いるコンピュータ実施方法、aiシステム、及びプログラム - Google Patents

人工知能を用いるコンピュータ実施方法、aiシステム、及びプログラム Download PDF

Info

Publication number
JP6765487B2
JP6765487B2 JP2019159779A JP2019159779A JP6765487B2 JP 6765487 B2 JP6765487 B2 JP 6765487B2 JP 2019159779 A JP2019159779 A JP 2019159779A JP 2019159779 A JP2019159779 A JP 2019159779A JP 6765487 B2 JP6765487 B2 JP 6765487B2
Authority
JP
Japan
Prior art keywords
image
floor plan
room
location
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019159779A
Other languages
English (en)
Other versions
JP2020038657A (ja
Inventor
ビヨン シュテンガー
ビヨン シュテンガー
知幸 武笠
知幸 武笠
玖 徐
玖 徐
ルウ ヤン
ルウ ヤン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Publication of JP2020038657A publication Critical patent/JP2020038657A/ja
Application granted granted Critical
Publication of JP6765487B2 publication Critical patent/JP6765487B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/36Indoor scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/42Document-oriented image-based pattern recognition based on the type of document
    • G06V30/422Technical drawings; Geographical maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20041Distance transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Description

本開示は、人工知能を用いるコンピュータ実施方法、AIシステム、及びプログラムに関する。
住宅又はマンション等の不動産物件を検索するとき、土地/建物のオンラインビューイングが、インターネットの出現及び発展に伴って一般的なものとなってきた。これによって、ユーザーは、多数の不動産物件を、それらの不動産物件に本人自ら訪問する必要なく検索することが可能になっている。不動産ブローカー及び認可代理人は、多くの場合、不動産物件の映像を撮影し、それらの映像をオンラインリストに掲載する。このオンラインリストは、多くの場合、代理人によって掲載された映像に加えて、不動産物件の間取り図を有する。時には、映像にラベルが付けられることもあるし、映像は、不動産物件内の部屋に関連付けられることもある。例えば、認可代理人は、「主寝室」、「キッチン」、「ボーナスルーム」等として映像にラベルを付けることができる。しかしながら、認可代理人は、通常、映像が不動産物件において撮影された正確なロケーションを含めず、また、通常、映像が不動産物件内でどの方向で撮影されたのかの方位を提供しない。
不動産物件のレイアウトは、寝室、キッチン、クローゼット、バルコニー、部屋寸法等の不動産物件の特徴及びエリアを示すことができる間取り図画像に示すことができる。不動産物件の特徴には、時に、その特徴の識別に役立つようにラベルを付けることができる。図1は、間取り図画像10の一例であり、マンションの間取り図を示している。部屋2及び8は、廊下4によって接続された寝室である。多目的ルーム6は、居間3に隣接している。キッチン9は、居間3に隣接して配置されている。
図2は、オンラインリストの部屋写真20の一例を示している。写真20は、標準的なデジタルカメラから撮影することができる。写真20に付加的な情報は提供されておらず、この写真が不動産物件のどのエリアを示しているのかの推測は、ユーザーに委ねられる。
これまで、パノラマ画像を間取り図におけるロケーション及び方位に関連付ける唯一の方法は、手動でそれを行うことであった。すなわち、人は、画像を見て、画像が撮影された間取り図における場所及び方位を特定する必要があった。これは、画像の数が増加するにつれて、その困難さが大幅に増加する非常に困難な作業となる可能性がある。例えば、10部屋を10個の対応するパノラマ画像とともに有する大きな住宅は、手動でマッチングを行うのに長い時間を要する。間取り図における適したロケーション及び間取り図における適した方位を有するパノラマ画像を正確に求めることは、非常に困難となる可能性がある。例えば、寝室等の類似した部屋は、手動でマッチングすることが困難である可能性がある。画像が間取り図ロケーションと正しくマッチングされたことを確認する唯一の方法は、画像が撮影された時点で、画像が撮影された間取り図における場所及び画像が撮影された方位を書き留めることであった。このデータが無い場合、一群のパノラマ画像の正確なロケーション及び方位を手動で特定することはほぼ不可能であった。
さらに、現在、数百万もの不動産物件がオンラインでリスト化されている。実際上、本明細書において説明される本発明及びその実施の形態にもかかわらず、方位及びロケーションの情報は得ることができない。したがって、パノラマ画像を間取り図のロケーション及び方位と高速かつ効率的にマッチングすることができるとともにバーチャルツアーを作成することができる自動化されたコンピュータ実施AIシステムを作製することが本発明者らによって試みられた。
上記に鑑み、本発明者らは、不動産物件の1つ以上のパノラマ画像にロケーション及び方位を割り当て、割り当てられた画像のロケーション及び方位を用いて不動産物件のバーチャルツアーを作成する人工知能(AI)を用いる新規なマシン及び方法を作成した。1つ以上の画像のセット、好ましくは、広視野を示すパノラマ画像のセットと、対応する間取り図画像とが、専用コンピュータシステム内に入力される。次に、これらの1つ以上のパノラマ画像は、当該パノラマ画像が撮影された間取り図における特定のロケーションとマッチングされる。画像がどの方向で撮影されたかの方位も、本発明の実施の形態において特定される。
本発明の一実施の形態では、間取り図画像は、部屋、廊下、バルコニー、地下室等の個々のロケーション内にパースすることができる。これは、間取り図画像の物体及び他の特徴部を識別するセグメンテーションプロセスを用いて行うことができる。識別することができる物体の例には、壁、コーナー、ドア、窓、階段、トイレ、シンク、バスタブ、シャワー、ストーブ、冷蔵庫、書棚及び整理棚等の作り付けの特徴部、キッチンアイランド、又は間取り図画像からラベル付け又は識別することができる他の任意の特徴部が含まれる。
本発明の一実施の形態では、間取り図画像、又は、壁、ドア、窓等の物体を表す画像領域を抽出した、間取り図画像を処理したものに対して距離変換を行うことができる。この距離変換は、間取り図画像内の任意の点と、壁、ドア、窓等の最も近い物体との間の距離を示すことができる。
不動産物件において撮影されたパノラマ画像のセットについては、個々の各パノラマ画像においても物体を検出することができる。パノラマ画像のそれぞれにおいて検出された物体と、間取り図画像において検出された物体とを互いに比較して、パノラマ画像と、間取り図画像におけるこのパノラマ画像が撮影されたロケーションとの間のマッチを見つけることができる。このマッチングを用いると、特定のパノラマ画像を、このパノラマ画像が撮影された間取り図画像における特定のロケーションに関連付けることができる。これは、パノラマ画像ごとに行うことができる。さらに、パノラマ画像のそれぞれにおける物体と間取り図画像における物体とのマッチングに基づいて、各パノラマ画像の方位も確認することができる。
間取り図内における撮影されたパノラマ画像のそれぞれのロケーション及び方位が特定されると、不動産物件の自動的及び/又はインタラクティブなツアーを提供するバーチャルツアーを作成することができる。バーチャルツアーは、当該バーチャルツアーにおいて訪問される間取り図ロケーションを対応するパノラマ画像に提供する。パノラマ画像を編集して、バーチャルツアーの標準的な視野画像として見えるようにすることもできる。すなわち、パノラマ画像の広視野の代わりに標準的な視野をバーチャルツアーにおいて示すように、パノラマ画像をクロッピング又は別の方法で編集することができる。
一例として、不動産業者は、不動産物件を訪問し、この不動産物件内の部屋の一部又は全てのパノラマ画像を撮影することができる。その後、不動産業者は、これらの画像をコンピュータシステムにアップロードすることができる。不動産業者は、間取り図画像もコンピュータシステム内にアップロードすることができる。JPEG、TIFF、GIF、BMP、PNG等の種々のフォーマットを有する画像を含む任意のフォーマットのパノラマ画像及び間取り図画像をコンピュータシステム内にアップロードすることができる。コンピュータシステムは、その後、各パノラマ画像を間取り図における正確なロケーション、すなわち、画像が撮影された間取り図における場所とマッチングする。コンピュータシステムは、パノラマ画像が撮影された方向も識別する。すなわち、パノラマ画像の方向を間取り図画像における方向とマッチングする。
パノラマ画像が間取り図画像とマッチングされると、コンピュータシステムは、不動産物件のバーチャルツアーを自動的に作成し、それによって、間取り図を通る不動産物件のツアーが作成される。バーチャルツアーは、ユーザーが不動産物件内を部屋から部屋にどのように進むのかを模倣することができる。
本発明者らは、畳み込みニューラルネットワークシステム(以下、「CNNシステム」又は「CNN」という)等のAI及びコンピュータハードウェアを実装する1つ以上の専用コンピュータを用いて、不動産物件の1つ以上のパノラマ画像にロケーション及び方位を割り当て、割り当てられた画像のロケーション及び方位を用いて不動産物件のバーチャルツアーを作成する装置及び方法を本明細書に開示している。これらの概念は、以下でより詳細に説明される。
以下の図面は、本明細書に開示された本発明の実施形態の様々な構成要素の例を示し、例示を目的としたものにすぎない。
マンションの間取り図画像を示す図である。 オンラインリストにおいて用いられる部屋の画像を示す図である。 本発明の一実施形態内に入力されるパノラマ画像のセット及び間取り図画像を示す図である。 本発明の一実施形態による第1の出力を示す図である。 本発明の一実施形態による第2の出力及び第3の出力を示す図である。 パノラマ画像のセットについてのパノラマ画像内の物体を検出する方法を示す図である。 パノラマ画像から検出することができる物体のクラスの第1の例を示す図である。 パノラマ画像から検出することができる物体のクラスの第2の例を示す図である。 パノラマ画像から検出することができる物体のクラスの第3の例を示す図である。 パノラマ画像に検出される種々の物体の一例を示す図である。 本発明の一実施形態による、入力された間取り図画像に基づいて部屋及び物体を特定する第1の方法を示す図である。 本発明の一実施形態による、入力された間取り図画像に基づいて部屋及び物体を特定する一例を示す図である。 本発明の一実施形態による、入力された間取り図画像に基づいて部屋及び物体を特定する一例を示す図である。 本発明の一実施形態による、入力された間取り図画像に基づいて部屋及び物体を特定する一例を示す図である。 本発明の一実施形態による、間取り図画像に基づいて識別される部屋又はエリアの特定を示す図である。 本発明の一実施形態による、間取り図画像に基づいて識別される部屋又はエリアの特定を示す図である。 本発明の一実施形態による、入力された間取り図画像に基づいて壁、物体を特定し、距離変換を行う第2の方法を示す図である。 本発明の一実施形態の第2の方法による、或るロケーションと最も近い壁との間の距離を求める一例を示す図である。 本発明の一実施形態の第2の方法による、或るロケーションと最も近い壁との間の距離を求める一例を示す図である。 本発明の一実施形態の第2の方法による、或るロケーションと最も近い壁との間の距離を求める一例を示す図である。 本発明の一実施形態による、パノラマ画像のセットが撮影された場所の、間取り図画像に対するロケーション及び方位を求める方法を示す図である。 パノラマ画像及び間取り図画像から文字列データを作成する一例を示す図である。 パノラマ画像の文字列の種々の角度を生成する一例を示す図である。 2つの文字列の間の編集距離を計算する一例を示す図である。 計算された編集距離に基づく、パノラマ画像と間取り図ロケーションとの可能なマッチの一例を提供する二部グラフを示す図である。 間取り図画像と、図18Bの検出物体に対応する間取り図画像内の点とを示す図である。 パノラマ画像及び間取り図画像内の点に従って検出物体を示す図である。 図19B及び図19Cに対応する間取り図画像内の2つの識別された点を有する間取り図画像を示す図である。 間取り図画像内で検出された物体と、図19Aに従って間取り図画像内の第1の点から検出物体を見たときの検出物体の見掛けロケーションとの視覚表現を示す図である。 間取り図画像内で検出された物体と、図19Aに従って間取り図画像内の第2の点から検出物体を見たときの検出物体の見掛けロケーションとの視覚表現を示す図である。 種々のパノラマ画像及び間取り図ロケーションに関する編集距離の距離マトリックスを示す図である。 本発明の一実施形態による、パノラマ画像のセットが撮影された場所の、間取り図画像に対するロケーション及び方位を求める方法を示す図である。 パノラマ画像内で検出された物体と間取り図画像内で検出された物体との間の距離を測定する方法を示す図である。 距離計算とともに用いることができる重み関数を示す図である。 距離計算とともに用いることができる重み関数を示す図である。 バーチャルツアーの経路を示す図である。 本発明を実施するのに用いられるハードウェア構成の一例を示す図である。
例示のブロック図及びフローチャートは、プロセスにおける特定の論理機能又はステップを実施する1つ以上の実行可能命令を含むコードのモジュール、セグメント、又は部分を表すことができるプロセスステップ又はプロセスブロックを示している。特定の例は、特定のプロセスステップ又は手順を示しているが、多くの代替の実施態様が可能である。幾つかのプロセスステップは、例えば、機能、目的、標準への準拠、レガシー構造、ユーザーインターフェース設計等の考慮に基づいて、本明細書における特定の説明と異なる順序で実行することができる。
本発明の複数の実施形態が説明されている。本発明の趣旨及び範囲から逸脱することなく様々な変更を行うことができることが理解されるであろう。例えば、上記に図示した様々な形態のフローは、ステップの並べ替え、追加、又は削除を行って用いることができる。また、リモート端末又はモバイルデバイスを認可する幾つかの実施形態が説明されているが、非常に多くの他の用途が考えられることが認識されるであろう。したがって、他の実施形態は、添付の特許請求の範囲の範囲内にある。
図3は、本発明の一実施形態内への入力の一例を提供している。図3に示すように、6つのパノラマ画像30、32、34、36、38及び39並びに間取り図画像10が、コンピューティングシステム1510(後に図25において説明される)内に入力される。この実施形態は、6つのパノラマ画像に限定されるものではなく、例えば、コンピュータシステム1510に入力されるパノラマ画像の数は、1つの画像から、計算処理リソースによってのみ制限される上限にまで及ぶことができる。パノラマ画像は、不動産物件内の内部ロケーションにある2つ以上の物体をキャプチャーすることが可能な広視野を有する任意の画像とすることができる。パノラマ画像は、水平方向に360度の視野を有することができるが、270度、180度、90度、又はそれ未満のようにより狭い視野も用いることができる。パノラマ画像30、32、34、36、38及び39の場合に、それらの画像は、それぞれ360度の全視野を有し、2:1の縦横比又はそれよりも大きな縦横比(例えば、4:1又は10:1)を有する。画像は、専用の360度デジタルカメラ、間取り図画像内の或る点の回りを水平方向に360度回転された標準的なカメラ、又は映像をデジタル処理によってつなぎ合わせてパノラマ画像を形成することができる他の任意のタイプのカメラを用いて撮影することができる。パノラマ画像及び部屋画像という用語は区別なく用いることができる。すなわち、部屋、又は建物内の空間のパノラマ画像が撮影され、部屋画像と呼ぶこともできる。
デジタル画像では、パノラマ画像のコンピュータ編集が可能である。例えば、デジタル画像は、画像を水平方向にクロッピングして、ユーザーが画像を見ることをより容易にするのに役立つことができる。すなわち、バーチャルツアーを作成するときに視野を360度にするのではなく、間取り図における部屋の特定の方向を見る(例えば、廊下を見通す)ときに、より自然な90度の視野を用いることができる。この機能は、パノラマ画像ビュアーでは標準的なものである。これらのビュアーは、パノラマ画像を入力として取り込み、そのパノラマ画像をボックス、円柱又は球のような単純な形状に投影するとともに、部屋を見るためにこの形状の内部に配置された(仮想)カメラを投影して、画面上に示すことができる。加えて、画像の中心ロケーションを水平方向に移動させるように、デジタル画像を容易に回転させることもできる。360度パノラマ画像の対向する端部は、つなぎ合わせることもできるし、画像内の任意の箇所で切断することもできる。これは、画像編集ソフトウェアを用いて行うことができる。さらに、パノラマ画像は、JPEG、TIFF、GIF、BMP、PNG等を含む任意の画像フォーマットのものとすることもできる。畳み込みニューラルネットワーク(CNN)又は他の画像認識物体識別システム等の人工知能の形態を用いる本システムは、パノラマ画像(複数の場合もある)を用いて、正確なバーチャルツアーの作成に役立つ必要な情報を取得することができる。
CNNは、最も一般的には視覚画像の解析に適用される深層フィードフォワード人工ニューラルネットワークの一クラスである。CNNは、必要とされる前処理を最小限に抑えるように設計された多層パーセプトロン(MLP)の変形形態を用いることができる。CNNは、それらの共有重みアーキテクチャ及び並進不変特性に基づいて、シフト不変人工ニューラルネットワーク又は位置不変人工ニューラルネットワーク(SIANN)としても知られている。CNNの1つの利点は、CNNが用いる前処理が、他の画像分類アルゴリズムと比較して相対的に少ないことである。したがって、ネットワークは、従来のアルゴリズムではマニュアル設計(hand-engineered)されていたフィルターを学習する。特徴設計において事前知識及び人の労力に依拠しないことが、従来の方法を上回る主な利点である。
間取り図画像は、建物における部屋(複数の場合もある)の配置の図であり、通常は、一律の縮尺で描かれている。小売業者、建築家、不動産業者等によって用いられる様々なタイプ又はスタイルの間取り図がある。例えば、芸術的な相違が間取り図画像に存在することが多い。すなわち、同じ不動産物件の2つの間取り図画像は、多くの場合、多くの類似点を有するが、幾つかの点において必然的に異なる。例えば、これらの相違は、異なる陰影、間取り図画像において識別される異なる項目(部屋、キッチン、トイレ等)及び同じ項目を表す異なるイラストを含むことができる。しかしながら、間取り図画像の設定された標準を本コンピュータシステム内に入力する必要はない。さらに、間取り図画像も、JPEG、TIFF、GIF、BMP、PNG等を含む任意の画像フォーマットのものとすることができる。畳み込みニューラルネットワーク(CNN)若しくは他のAI、又は画像認識物体識別システムを用いた本コンピュータシステムは、間取り図画像を用いて、正確なバーチャルツアーの作成に役立つ必要な情報を取得することができる。
図4は、本発明の一実施形態によるコンピューティングシステムの出力の第1の態様を示している。具体的には、パノラマ画像30、32、34、36、38及び39のそれぞれは、そのパノラマ画像が撮影された間取り図画像10内のロケーションに関連付けられている。パノラマ画像が撮影される場所の間取り図画像10内におけるロケーションをどのように決定するのかの詳細については、以下でより詳細に論述される。
パノラマ画像のセット及び間取り図画像における物体検出から取得されたデータを用いると、コンピュータシステムは、各パノラマ画像が撮影された場所の間取り図画像内のロケーションを求めることができる。さらに、各パノラマ画像の方位もシステムによって求めることができる。すなわち、間取り図画像内の求められたロケーションにおけるパノラマ画像の方位を確認することができる。この方位情報は、後に、バーチャルツアーを作成するときにパノラマ画像の方位を定めるのに用いることができる。
図5は、本発明の一実施形態によるコンピューティングシステムの出力の第2の態様及び第3の態様を示している。第2の態様は、方位540に示されている。具体的には、間取り図内の異なるロケーションに関するパノラマ画像500のそれぞれの方位は、コンピューティングシステムの出力である。これは、方位矢印566によって示されている。パノラマ部屋画像500が、図25に関して以下で論述されるコンピューティングシステム1510内に入力された後、パノラマ画像の方位が、方位540に示されるように求められる。360度パノラマ画像が用いられる場合、画像の方位(すなわち、画像が向いている方向)は、水平方向において画像の中心に位置しているとみなされる。
図5に示す本発明の一実施形態の第3の態様は、様々な部屋とロケーションとの間の接続である。これは、一例として、接続矢印562及び564によって示されている。これらの矢印は、間取り図をどのように横断することができるのか、及び、不動産物件内のどの空間が他の空間からアクセス可能であるのかを示している。例えば、ユーザーが畳部屋にいるとすると、このユーザーには、第1の廊下又は西側バルコニーに行くという選択肢がある。この接続されたレイアウトは、間取り図レイアウトを求め、この間取り図レイアウトにおいてドア及び廊下がどこに位置しているのかを特定することによって実現することができる。これは、コンピュータシステム内に入力される間取り図画像に基づいている。これは、不動産物件のバーチャルツアーを作成するときに重要になる。
CNNは、間取り図画像をセグメンテーションし、間取り図の或るエリアを間取り図の別のエリアにつなぐドア等の物体、又は壁の間の空間の位置を特定し識別するのに用いることができる。これは、間取り図画像全体について、図5に示すように、特に接続矢印562及び564に関する接続マップ560を作成するために行うことができる。
図6は、パノラマ画像のセット内の各パノラマ画像において物体を見つける方法を示すフローチャートである。ステップ10に示すように、パノラマ画像がコンピューティングシステム1510によって受信される。この画像は、バーチャルツアーが作成される間取り図内のロケーションから撮影される。パノラマ画像は、好ましくは、間取り図内の360度の視野を有するが、これよりも狭い視野角も可能である。
ステップ12において、パノラマ画像が解析され、画像内の物体及びパノラマ画像内の物体のそれぞれの位置が特定される。特定される物体は、物体クラスによって事前に規定される。すなわち、図7A、図7B及び図7Cに示すように、コーナー、ドア及び窓はそれぞれ、パノラマ画像から特定することができる物体クラスの例である。ただし、検出することができる物体は、これに限定されるものではない。検出することができる物体の例は、画像からラベル付け又は識別することができる壁、階段、トイレ、シンク、バスタブ、シャワー、ストーブ、冷蔵庫、書棚及び整理棚等の作り付けの特徴部、キッチンアイランド、又は他の任意の特徴部を含む。
さらに、これらの物体のサブクラスも、検出及び分類することができる。例えば、図7Aは、ドアのクラスが検出されることを示しているが、検出することができる物体の2つのサブクラス、具体的には、左ドア800、802及び804と、右ドア806、808及び810とを更に示している。図7Bは、コーナーのクラスが検出されることを示しているが、検出することができる物体の2つの異なるサブクラス、具体的には、凹状コーナー900、902及び904と、凸状コーナー906、908及び910とを更に示している。図7Cは、窓のクラスを検出することができることを示しているが、検出することができる物体の2つの更なるサブクラス、すなわち、左窓1000、1002及び1004と、右窓1006、1008及び1010とを示している。
上掲のサブクラスだけでなく、様々な物体の種々のサブクラスを検出することができることが分かっている。例えば、ドアのスタイル及び窓又は窓枠のスタイルを検出することができる。さらに、様々なタイプのコーナー又はモールディングも検出することができる。CNNは、上記で論述した物体のクラス及びサブクラスを含む物体の様々なクラス/サブクラスを認識するようにトレーニングすることができる。物体のこれらのサブクラスを検出することの1つの利点は、パノラマ画像と仮想レイアウトにおける間取り図ロケーション画像とのマッチの精度を高めることである。
物体は、パノラマ画像内の当該物体及びそれらの位置を正確に識別することができる限り、任意の技法を用いて検出することができる。例えば、トレーニングされた畳み込みニューラルネットワーク(CNN)を物体検出に用いることができる。CNNは、コーナー、窓、ドア等を検出するようにトレーニングすることができる。画像内の物体を検出するためにCNNをどのように用いるのかを論述したものについては、米国特許出願第15/798,349号及び同第15/798,343号を参照されたい。これらの米国特許出願の内容は、引用することによってそれらの全体が本明細書の一部をなす。物体検出の他の方法も用いることができ、本発明の実施形態はCNNに限定されるものではない。
物体ラベルに加えて、CNNは、特定の物体が実際に指定された物体である確率も出力することができる。例えば、物体が実際の物体、例えばドアとして正しく識別される確率は、98.0%とすることができる。物体は、CNNによれば、窓である1.0%の可能性及びコーナーである1.0%の可能性も有することができる。この実施形態の目的のために、最も可能性の高い物体が、特定された物体として用いられる。したがって、物体が、ドアである98.0%の確率と、窓である1.0%の確率と、コーナーである1.0%の可能性とを有する場合、コンピュータシステムは、その物体をドアであるとして解釈する。一方、他の実施形態は、物体を特定するときに異なる閾値を用いることができる。例えば、物体が特定の物体である確率が65%しかない場合、その物体は無視されてもよいし、その物体の更なる解析を行って、物体を正しく識別する可能性を高めることもできる。更に他の実施形態は、後述するように、物体の生の確率的スコアを用いることができる。
物体の検出に加えて、パノラマ画像内の物体の水平ロケーションも求められる。例えば、図18Bのパノラマ画像2100は、窓の左端の水平位置を示す垂直ライン2102と、コーナーの水平位置を示す垂直ライン2104と、ドアの左端の水平位置を示す垂直ライン2106とを示している。様々な物体(例えば、窓、ドア及びコーナー)のロケーションは、後に、パノラマ画像からのデータが間取り図画像からのデータと比較されるときに用いられる。
さらに、検出物体は、ピクセルの幅を越えて広がっている場合があり、したがって、物体のロケーションが指定される場所に関する判断が行われなければならない。例えば、物体が窓の左端であった場合、この物体は、水平方向に10ピクセルに広がっていると判断されている場合がある。したがって、精密なロケーションが確認される場合、ルール又は規約を用いて、ロケーションを求めることができる。窓の左端のロケーションを指定するのに、任意の数の方法を用いることができる。例えば、検出物体内の最も左のピクセル、最も右のピクセル、最も中心のピクセル、又はランダムなピクセルを物体のロケーションとして指定することができる。
図6のステップ14において、パノラマ画像における物体及びその検出された位置が、その画像においてコード化されるか、又は、別のファイルに保存される。この一例が図18Bに示されている。図18Bでは、パノラマ画像2100は、垂直ライン2102、2104、2106等を用いてコード化されている。垂直ライン2102、2104及び2106と、これらの垂直ラインの上部に配置された1桁の文字とは、それぞれ、パノラマ画像内の物体の位置と、検出物体のクラスとを示している。物体のクラスは、文字C、W、Dによって示され、それぞれコーナー、窓及びドアに対応する。
コード化されたデータ及び保存されたデータは区別なく用いられ、検出物体データを保持するのに、いずれの方法も実施することができることが理解される。
次に、ステップ16において、パノラマ画像の全てが処理及びコード化されているか否かに関する判断が行われる。パノラマ画像の全てが処理されていない場合、次のパノラマ画像がステップ18において選択され、プロセスはステップ10に戻って、新たに選択されたパノラマ画像の処理を最初から開始する。パノラマ画像の全てが処理されていると判断されると、プロセスは終了する。
図8は、寝室において撮影されたパノラマ画像1100内の検出物体の一例を示している。この例では、コーナー1102及びドア1104が検出される。例示として、物体の全てがパノラマ部屋画像1100において検出されるが、検出物体の全てがラベル付けされるとは限らない。図6のステップ12及び14に従って、パノラマ画像1100内の検出物体のクラス及び検出物体の水平ロケーションの双方が求められ、パノラマ画像においてコード化されるか又は別個に保存される。
図9は、本発明の一実施形態による間取り図画像10を取得して解析する方法を示している。前述したように、間取り図画像10等の間取り図画像は、図9のステップ23に示すようにコンピュータシステム内に入力される。間取り図画像は、建物又は建物内のエリアの一般的なレイアウトを示すのに用いられる建物、住宅、マンション、ボート、飛行機、列車等の間取り図の表現とすることができる。
ステップ24に示すように、間取り図画像の部屋が特定され、それらの構成要素に分離される。間取り図画像の部屋及び物体は、トレーニングされた畳み込みニューラルネットワーク(CNN)を用いて画像をセグメンテーションすることを含む様々な技法を用いて検出することができる。CNNを用いて間取り図画像内の部屋を特定することについての簡潔な説明は以下で論述される。CNNを用いて画像内の物体、部屋等を検出することについての詳細な説明は、米国特許出願第15/798,349号及び同第15/798,343号を参照されたい。これらの米国特許出願の内容は、引用することによって本明細書の一部をなす。
図10A、図10B及び図10Cは、間取り図画像のみを用いて個々の部屋及び物体をどのように正確に識別することができるのかの一例を示している。まず、間取り図画像10が、コンピュータシステム内に入力される。コンピュータシステムは、間取り図画像の壁、ドア、窓、コーナー及び/又は他の特徴部を検出するCNNを備えるか又はCNN若しくは他の画像認識物体検出装置を用いる。CNNが間取り図画像から部屋及び特徴部をどのように正確に検出することができるのかの1つの例は、セマンティックセグメンテーション技法を用いることによるものである。これは、トレーニングされた畳み込みニューラルネットワークを用いて、間取り図画像内の個々のピクセルに、或る物体のクラスである確率を与える技法である。例えば、所与のピクセルは、壁、ドア、窓、空いているロケーション等とすることができる。画像内の各ピクセルに関する情報は、画像内の物体を確認するために最終的には集約される。
セグメンテーションされた間取り図画像の一例が、セグメンテーションされた間取り図画像1402によって図10Bに示されている。セグメンテーションされた間取り図画像1402に示すように、壁及び窓1403は白色で識別され、空いているロケーションは黒色で識別される。この例では、ドアは、セグメンテーションされた画像において、空いているロケーションとして示されている。このセグメンテーションされた画像に基づいて、元の間取り図画像における全ての部屋、廊下、ドア、窓、コーナー及び他のロケーションを識別することができる。元の間取り図画像内の各ピクセルは、セグメンテーションプロセスにおいて物体(又は空いているロケーション)として識別されて割り当てられている。
CNNを用いて間取り図画像の特徴部を識別することに加えて、文字認識システムも用いることができる。例えば、幾つかの間取り図画像は、書き込まれたラベルを用いることによって幾つかの特徴部を識別することができる。これらのラベルは、その後、光学式文字認識(OCR)を用いて読み取ることができる。このOCRは、単独で用いることもできるし、セグメンテーション解析からのデータとともに用いることもできる。例えば、間取り図の特徴部が「窓」とラベル付けられ、OCRによってそのようなものと認識された場合、これをセグメンテーションプロセスからの結果と比較して、OCRデータがセグメンテーションデータと一致することを確認することができる。データが一致していない場合、更なるステップを実行することができる。セグメンテーション及びOCR技法の使用の更なる説明については、引用された上記出願を参照されたい。
加えて、OCRを用いて、部屋タイプを特定し、この部屋タイプを、(CNN分類器を用いて)パノラマ画像から推定することができる部屋タイプとマッチングすることができる。
図11A及び図11Bは、間取り図画像10がセグメンテーションされ、個々の部屋が識別された後の間取り図画像10の一例を示している。セグメンテーションされた画像1502は、間取り図における識別された各部屋を示している一方、間取り図エリア1504は、分離及び画定された個々のロケーションを示している。図11A及び図11Bに示すように、9つのロケーションA、B、C、D、E、F、G、H及びIが、間取り図画像10において識別されている。これらのロケーションのそれぞれは、パノラマ画像が撮影された場所の候補である。
セグメンテーションプロセスが完了すると、ドア、窓、コーナー等の個々の物体も識別することができる。(個々の物体も、セグメンテーションプロセスと並行して識別することができる。すなわち、間取り図画像が特定されるとき、間取り図画像内の物体を並行して特定することができる。)これは、図9に示すように、ステップ25において実行される。セマンティックセグメンテーションステップにおいて、各ピクセルはラベル付けされるので、特定の間取り図画像内及びこの間取り図画像の部屋又はエリア内の物体の特定は、元のセグメンテーションに基づいて容易に確認される。
このプロセスの補助的説明として、識別された物体を元の間取り図画像上に重ね合わせると、間取り図画像内の各ロケーションに対する物体が位置する場所の視覚表現を得ることができる。
物体が検出された間取り図画像の一例が、図10Cの画像1404に示されている。この画像は、CNNから出力され、入力された間取り図画像10上に重ね合わされた、検出物体を強調する物体ラベル及びボックスを含む。物体ラベルに加えて、CNNは、その特定の物体が実際に指定された物体である確率も出力することができる。例えば、参照符号1406は、画像1404におけるドアとしてラベル付けされる。参照符号1406がドアである確率は、98.0%として示されている。この実施形態において、最も可能性の高い物体が、特定された物体として用いられる。したがって、参照符号1406が、ドアである98.0%の確率と、窓である2.0%の確率とを有する場合、コンピュータシステムは、その物体をドアであるとして解釈する。一方、他の実施形態は、物体を特定するときに異なる閾値を用いることができる。例えば、物体が特定の物体である確率が65%しかない場合、その物体は無視されてもよいし、その物体の更なる解析を行って、物体を正しく識別する可能性を高めることもできる。更に他の実施形態は、後述するように、物体の生の確率的スコアを用いることができる。
最後に、図9のステップ28において、求められた間取り図データは、間取り図画像にコード化されるか又は別のファイルに保存される。
図12は、間取り図画像を用いて、パノラマ画像が撮影された場所のロケーションをどのように確認することができるのかの別の実施形態を示している。図12に示すプロセスにおけるステップ36は、図9に示すプロセスにおいても、任意選択で実行することができる。図12では、間取り図画像は、ステップ32において取得される。この実施形態では、これは、図9のステップ23において取得することができる画像と同じ間取り図画像である。間取り図画像が取得されると、この間取り図画像の壁及び物体がステップ34において検出される。ここで、間取り図画像内の壁及び物体を検出するのに、トレーニングされたCNN又は他の光学式物体認識ツールを用いることができる。トレーニングされたCNNを用いる方法は、図10Bの画像1402に関して上記で論述したものと同じ方法である。
次に、ステップ36において、セグメンテーションされた画像における各点と、セグメンテーションされた画像における最も近い壁との間の距離が計算される。これは、距離変換方法を用いて計算することができる。この技法の一例は、図13A、図13B及び図13Cに示されている。図13Aにおけるセグメンテーションされた間取り図画像1402から、セグメンテーションされた間取り図画像における点のそれぞれから最も近い壁までの距離が計算される。したがって、例えば、部屋の中心部における距離は、最も高い値を有する一方、壁に近い部分における距離は、最も低い値を有する。
セグメンテーションされた間取り図画像に対して行われる距離変換の一例が、図13B及び図13Cに示されている。これらの図において、対応する距離変換画像1604は、図13Bに示されている。距離変換画像1604は、高い値を有する距離ほど、より明るい色であることを示している。したがって、最も明るい色は、部屋の中心部に示されている。部屋1602の距離変換の数値表現の一例が、図13Cの数値距離変換画像1606に示されている。数値距離変換画像1606に示すように、「0」の値は、部屋の壁の最も近くに見られる。これは、部屋のこのエリアが壁に最も近いからである。次に、1を有するエリアは、壁に2番目に最も近いエリアを示している。以下、2以降の値についても同様である。数値距離変換画像1606に示すように、壁から最も遠いエリアは、左右の壁と平行に部屋の中心部を縦に並ぶ「5」の列によって表される。この列は、壁から最も遠くに離れた部屋のエリアを表している。
壁又は他の物体から最も遠くに離れた部屋又は間取り図画像内のエリアも、パノラマ映像を撮影するのに用いられる最も可能性の高いエリアである。これは、パノラマ映像を撮影するとき、写真撮影者は、一般に、映像全体が均衡の取れたものとなり、壁が視野を遮らないように、部屋の中心部に自身を位置決めするからである。すなわち、写真撮影者が壁の近くに位置決めされると、パノラマ画像の一部が壁自体をクローズアップした眺めになり、これは望ましくない。
しかしながら、部屋の正確な中心からパノラマ画像を撮影することが常に可能であるとは限らない。例えば、テーブルが、このロケーションを塞いでいる可能性があり、したがって、写真撮影者は、テーブルを移動させる代わりにテーブルの横に立つか又はテーブルの上に立つことを選ぶ場合がある。これは1つの例にすぎず、写真撮影者が部屋の中心とは異なるロケーションで映像を撮影する理由は幾つも存在し得る。
一方、これを考慮に入れても、通常、写真撮影者がパノラマ画像をどこで撮影するのかを決定する際の最良の開始位置は、距離変換値が最も高い場所である。パノラマ画像ロケーションをどのようにして見つけるのかのより詳細な説明は、以下で論述される。
上述したように、この距離変換ステップは、間取り図画像がセグメンテーションされた後に距離変換を行うことによって、図9におけるプロセスにも適用することができる。
最後に、図12のステップ38において、距離変換データ及び物体データは、コード化された間取り図画像又は別のファイルに保存される。
[パノラマ画像のロケーション及び方位を特定する第1の実施形態]
各パノラマ画像が撮影された場所の間取り図内におけるロケーション及び方位を特定するプロセスの第1の実施形態が、図14のフローチャートに示されている。このプロセスは、コンピュータシステム1510によって実行される。
ステップ180から開始して、パノラマ画像データがコンピュータシステム1510によって取得される。このデータは、図6に関して論述されたコード化されたデータを含む。次に、ステップ190において、間取り図画像データがコンピュータシステム1510によって取得される。このデータは、図9及び図12に関して論述されたコード化されたデータを含む。
ステップ200において、物体データ及びロケーションデータを有するコード化されたパノラマ画像が分割される。一例が、図15Aに文字列182によって示されている。文字列182は、36文字からなる行を示している。行内の各列は、パノラマ画像における10度の増分を表す。すなわち、360度の視野を有するパノラマ画像を見るとき、その画像を10度の増分にセグメンテーションすることができる。この10度の増分における文字は、この10度の視野内の検出物体のクラスを表している。
例えば、コーナーが10度の視野内で検出された場合、「C」が示される。ドアが10度の視野内で検出された場合、「D」が示される。窓が10度の視野内で検出された場合、「W」が示される。壁が10度の視野内で検出された場合すなわち物体が10度の視野内で検出されなかった場合、例えば、「A」が示される。2つの物体が10度の視野内で偶然に検出された場合、ルール又は規約に従うことができる。例えば、最初に検出された物体の使用、ランダムな選択、セグメンテーションによる最も高い確率を有する物体の選択等を行うことができる。
図15Aに示すように、文字列182は、「AAAAA」がシーケンスを開始していることを示している。これは、50度の視野における10度の増分のそれぞれにおいて、壁が検出されたこと(すなわち物体が検出されなかったこと)を示している。次に、「CCC」が示され、これは、次の30度の視野における10度の増分のそれぞれにコーナーが識別されたことを示している。コード化されたパノラマ画像データのこの分割は、パノラマ画像の視野全体について行われる。360度の視野の場合、これは、360度の画像全体について行われる。
図15Aに示す例では、画像を分割するのに10度の増分が用いられる。しかしながら、この特定の角度分割は必須ではなく、これよりも小さな角度又は大きな角度を用いることができる。例えば、3度、5度、6度、12度、20度等の角度を用いることができる。度数、すなわち視野が大きいほど、精度は小さくなり、必要とされる計算能力は小さくなり、度数、すなわち視野が小さいほど、精度及び必要とされる計算能力は大きくなる。
ステップ200が完了した後、ステップ202において、コード化されたパノラマ画像データの角度のセットが生成される。この一例は、図15Bに文字列セット190によって示されている。文字列セット190に示すように、それぞれ10度ずつ分離された全部で36個の異なる角度が作成される。
例えば、文字列セット190の行0と行1との間の相違を見ると、行1は、10度の増分だけオフセットされている。すなわち、文字は、1列分だけ左にシフトされている。上記で論述したように、この例では、各文字は10度の視野を表す。したがって、各行とその隣接行との間の差は10度である。これは、この例では360度である画像の視野全体について行われる。したがって、文字列セット190には、360度のパノラマ画像の36行のデータが存在する。
実際面で、物体データの10度のシフトは、パノラマ画像を10度回転させることになる。したがって、これは、パノラマ画像が撮影された場所に立ち、視点を左又は右の方向に10度調整することと同様である。
文字列セット190が作成されると、ステップ204において、コード化された間取り図画像データが分割され、間取り図内の単一の点、すなわち点(n)の文字列が作成される。
間取り図画像データをセグメントに分割し、文字列を作成することを示す一例が図15Aに示されている。文字列186は、36文字からなる行を示している。行内の列は10度の増分を表す。すなわち、360度のパノラマ画像を見るとき、その画像を10度の36個の増分にセグメンテーションすることができる。この10度の増分における文字は、この10度の視野内の検出物体のクラスを表している。
例えば、コーナーが10度の視野内で検出された場合、「C」が示される。ドアが10度の視野内で検出された場合、「D」が示される。窓が10度の視野内で検出された場合、「W」が示される。壁が10度の視野内で検出された場合すなわち物体が10度の視野内で検出されなかった場合、例えば、「A」が示される。2つの物体が10度の視野内で偶然に検出された場合、ルールに従うことができる。例えば、最初に検出された物体の使用、ランダムな選択、セグメンテーションによる最も高い確率を有する物体の選択等を行うことができる。
図15Aに示すように、文字列186は、「DDD」がシーケンスを開始していることを示している。これは、30度の視野について、その視野における10度の増分のそれぞれにドアが検出されたことを示している。次に、「CAC」が示され、これは、この30度の視野にわたって、次の10度の増分にコーナーが識別され、次の10度に壁が続き、次の10度の増分にコーナーが続くことを示している。このコード化された間取り図画像データの分割及び文字列の作成は、図9のステップ28において保存された間取り図画像データの視野全体について行われる。360度の視野の場合、これは、画像全体について行われる。
視点が間取り図画像データに位置している場所に応じて、文字列186は変化することに留意することが重要である。この一例は、図18A及び図18Bに示されている。間取り図画像10の或る部屋又はエリア内に位置している所与の点2140について、視点がこの所与の点2140の回りに回転される場合、各物体が位置している場所の360度マップを作成することができる。図18A及び図18Bに示す例では、検出物体2110、2112及び2114は、コーナー、ドア、又は窓をそれぞれ表す物体のクラスC、D、又はWのラベルを付けられた垂直ラインによって示されている。これらの検出物体は、所与の点2140から見たときの検出物体を表す互いに対する空間位置も有する。
第1のセットの下に示す垂直ラインの第2のセットは、図18Aの点2140において間取り図画像に検出物体を表している。垂直ライン2110、2112及び2114は、間取り図画像に検出物体を表している。前述したように、間取り図画像を用いて検出された物体のロケーションは、それらの物体が観察される点に応じて互いに変化する可能性がある。図19A、図19B及び図19Cに関する説明を参照されたい。したがって、間取り図画像において観察点の位置を変化させると、検出物体の配置が必然的に変化する。
検出物体の位置は変化を受けるが、検出物体の互いの順序付けは一般に変化しない。すなわち、文字DDCCによって表される第1のドア(D)、第2のドア(D)、第1のコーナー(C)、及び第2のコーナー(C)が、左から右にその順序で検出された場合、これらの物体の間の相対角度は、シフトする視点とともに変化を受ける。一方、物体自体の順序は一般に変化しない。すなわち、異なる視点を用いても、物体は、CCDD、DCCD、CCDD及びCDDCの順序で見ることができるが、例えば、物体は、DCDCの順序にも、CDCDの順序にも決して見えない。
図18Aの点2140において、垂直ライン2110、2112及び2114は、コード化されたパノラマ画像2100上に重ね合わされた検出物体を表している。実際には、パノラマ画像からのデータが得られると、パノラマ画像は、このステップに再度必要とされることはない。必要なものは、パノラマ画像の検出物体であって、パノラマ画像自体ではない。パノラマ画像は、このパノラマ画像が撮影されたロケーションがどのように特定されるのかの説明を補助するために例示として提供される。
図18Aを見ると、点2140が部屋内で点2150に移動された場合、部屋における物体の間の角距離は、パノラマ画像及び間取り図画像の双方について、それに応じて変化する。位置のこの変化をリアルタイムで見た場合、物体を表す垂直ライン(例えば、2110、2112及び2114)が画像を巡って水平に移動し、物体を見ている角度に応じて伸縮しているのが見える。
一例が図19A、図19B及び図19Cに示されている。図19Aは、間取り図画像10及び寝室2を示している。寝室2内には、2つの点2220及び2230がある。図9のステップ28において特定及び保存された物体に基づいて、点2220から見たときの寝室2におけるこれらの物体の表現を、図19Bに示すように作成することができる。画像2201は、対応するパノラマ画像上に重ね合わされた検出物体を表す垂直ライン2210、2212、2214、2216及び2218を、それらの物体を分離する角距離とともに示している。この時点では、パノラマ画像が撮影された間取り図内の正確なロケーションに対応する正確なパノラマ画像はまだ分かっていない。
位置2220が、図19Aに示す位置2230に変更されると、物体の見掛けのロケーションも、図19Cにおける画像2202に示すように変更される。同じ検出物体を示す同じ垂直ライン2210、2212、2214、2216及び2218が存在するが、それらの互いに対する角度関係は変化している。これは、点2230の位置が位置2220と異なり、したがって、部屋内の視点が変更されたことから、検出物体の相対的な幾何学的配列も変化するからである。
選ばれた第1の点(n)は、部屋の中心にある点とすることができる。図12のステップ36において論述したように、距離変換値を用いて、部屋の中心が位置する場所を特定することができる。これは、最も高い距離変換値を有するエリアである。
図14を参照すると、ステップ206において、間取り図画像データにおける点(n)の文字列が、文字列θと比較される。ここで、zは、文字列セット190内のデータの行を表す。したがって、例えば、比較される最初の文字列θは、図15Bに示すように、文字列セット190の行0である。
データのこの比較のために、編集距離が計算される。この一例が図16に示されている。図16に示すように、13文字の第1の文字列232が、13文字の第2の文字列234と比較される。図15Aの例では、36文字のセットが互いに比較されるが、この例では、説明用に、13文字のみが比較される。
編集距離を計算するために、対応するロケーションにおける文字とマッチングしない文字には、正の値が関連付けられる。例えば、この値は1とすることができる。比較される文字列内の文字が、対応するロケーションにおける文字とマッチングする場合には、編集距離は0である。次に、文字列のセットのこれらの差値を合計して、編集距離が得られる。したがって、第1の文字列232と第2の文字列234との編集距離を計算すると、解は3である。これは、それぞれの文字列の間の3つの文字が互いにマッチングしないからである。
ステップ210において、文字列セット190内の各文字列の編集距離の全てが計算されたか否かが判断される。文字列データの各行における編集距離の全てが計算されてはいない場合、ステップ212において、文字列θは1つインクリメントされ、編集距離の次のセットが計算される。これは、文字列セット190内の文字列の全てが間取り図画像の点(n)の文字列と比較されるまで繰り返される。
文字列セット190の編集距離の全てが、ステップ210において計算されると、ステップ214において、間取り図画像内の更なる点(n)を文字列セット190と比較すべきか否かが判断される。
例えば、文字列セット190と比較された点(n)の全ての編集距離が大きい場合、異なる点(n)の比較を継続するとの判断を行うことができる。上記で論述したように、編集距離が大きい場合、これは、点(n)のロケーションが、パノラマ画像が撮影された場所に近くなく、更なる点(n)を解析する必要があることを示す。大きな編集距離は、閾値とすることができ、文字の90%超がマッチングしないこと、又は文字の80%超がマッチングしないこと、又は文字の70%超がマッチングしないこと、又は文字の60%超がマッチングしないこと、又は文字の50%超がマッチングしないこと、又は文字の40%超がマッチングしないこと、又は文字の30%超がマッチングしないこと、又は文字の20%超がマッチングしないこと、又は文字の10%超がマッチングしないこと等とすることができる。
代替的に、以前の点(n)の編集距離が小さいか又は閾値量未満である場合、更なる点(n)を比較しないという決定を行うことができる。小さな編集距離は、閾値とすることができ、文字の90%超がマッチングすること、又は文字の80%超がマッチングすること、又は文字の70%超がマッチングすること、又は文字の60%超がマッチングすること、又は文字の50%超がマッチングすること、又は文字の40%超がマッチングすること、又は文字の30%超がマッチングすること、又は文字の20%超がマッチングすること、又は文字の10%超がマッチングすること等とすることができる。
更なる点(n)の編集距離を計算する必要があるか否かを判断する別の方法は、間取り図画像の幾つかの点(n)の編集距離勾配を計算し、次に、間取り図画像における特定の部屋の極小距離を求めることである。開始点(n)における編集距離を計算した後、間取り図画像における隣接点(n)の編集距離も計算することができる。これらの編集距離を合わせて調べることによって、編集距離勾配を作成することができる。この方法は、サーバーにおける処理能力を削減する。なぜならば、編集距離勾配を用いることによって、極小値を見つけることができ、更なる点(n)を計算する必要がないからである。極小値が見つからない場合、更なる点(n)を解析することができる。
上記計算された編集距離は、間取り図画像における特定の部屋又はエリアについてのものあることに留意されたい。一方、編集距離の極小値を計算するこのプロセスは、間取り図画像における部屋又はエリアの1つ以上又は全てについて繰り返すことができる。例えば、図11A及び図11Bに示すように、比較される間取り図画像における第1のロケーション又は部屋が部屋Aである場合、比較される次のロケーションは部屋Bであり、その次は部屋Cであり、以下、間取り図画像における各部屋又は各エリアが各パノラマ画像と比較されるまで行われる。
間取り図画像における更なる点(n)の編集距離を計算する必要があるか否かを判断する別の方法は、特定の部屋について、距離変換データからのロケーションを開始点として用い、開始点(n)の周囲に位置する点(n)のランダムなガウスサンプルにおいて編集距離計算を行うことである。開始点(n)が、小さな編集距離を生成する可能性の高い候補であるとき、周囲の点は、小さな編集距離を生成する次の最も可能性の高い点(n)である。この方法は、サーバーにおける処理能力を削減する、なぜならば、この方法は、パノラマ画像が撮影されたロケーションを素早く見つけるために、パノラマ画像を撮影するときに本来的に望ましいロケーション、すなわち、写真撮影されるエリアの中心近くのロケーションを利用するからである。ランダムなガウスサンプルにおける点(n)の距離の全てが計算されると、最小の編集距離を有する点(n)が用いられる。
上記計算された編集距離は、間取り図画像における特定の部屋又はエリアについてのものあることに留意されたい。一方、編集距離の極小値を計算するこのプロセスは、間取り図画像における部屋又はエリアの1つ以上又は全てについて繰り返すことができる。例えば、図11A及び図11Bに示すように、比較される間取り図画像における第1のロケーション又は部屋が部屋Aである場合、比較される次のロケーションは部屋Bであり、その次は部屋Cであり、以下、間取り図画像における各部屋又は各エリアが各パノラマ画像と比較されるまで行われる。
上記から分かるように、編集距離の計算を継続するか否かを判断するのに用いられる技法は、本発明の実施形態の範囲と一致させて用いることができるものが幾つも存在する。
更なる点(n)が計算される場合、nは、ステップ216において1つインクリメントされ、プロセスはステップ204に戻って、間取り図画像内の別の点において解析を開始する。更なる点を計算する必要がない場合、プロセスはステップ220に進む。
次に、ステップ220において、各パノラマ画像について、各編集距離が計算されたか否かが判断される。判断が肯定的でない場合、画像番号(i)が、ステップ224において1つインクリメントされ、プロセスは、再びステップ200から開始して、別のパノラマ画像に対して繰り返される。異なるパノラマ画像の文字列の一例が、文字列184によって示されている。図15Aに示すように、各パノラマ画像は、それ自体の文字列を有する。
ステップ220における判断が肯定的である場合、ステップ222において、各パノラマ画像が間取り図画像内の対応するロケーションとマッチングされる場所が、パノラマ画像が撮影された方向とともに特定される。
ステップ222におけるマッチングは、各ロケーションの最小全体コスト(以下で説明)と、間取り図画像及び各対応するパノラマ画像における方位とを見つけることによって行われる。例えば、組み合わされた最小編集距離を有する間取り図ロケーション及び対応するパノラマ画像の全組み合わせを最良の組み合わせとして選ぶことができる。この特徴の一例が図20に示されている。
図20は、パノラマ画像及び間取り図ロケーションのペアの編集距離値の距離マトリックスを示している。パノラマ画像は、1〜9の番号が付けられ、x軸に示されている一方、間取り図ロケーションは、1〜9の番号が付けられ、y軸に示されている。このマトリックスにおける番号のそれぞれは、対応するパノラマ画像及び間取り図ロケーションの編集距離を示している。さらに、マトリックスにおける数字は、各パノラマ画像セットの最小編集距離を示している。すなわち、マトリックスは、画像の最適な回転を考慮したときの最小編集距離を示している。このマトリックスから、最小編集距離を有するペアリング(間取り図ロケーション及びパノラマ画像)の組み合わせを特定することができる。
図20に示す例では、総最小編集距離を加算して(5+9+10+4+9+8+7+12+10)、74の総距離を得ることができる。これは、左上から右下への対角行に見られる。この対角行は、必ずしも最小編集距離ではなく、各間取り図ロケーションが1つの最良のマッチを有し、各パノラマ画像が1つの最良のマッチを有する限り、間取り図ロケーション及びパノラマ画像マッチングの最適な組み合わせをマトリックスに混合することができることに留意されたい。したがって、パノラマ画像1〜9のそれぞれが撮影された場所を特定するとき、最良の物体マッチングに等しい最小編集距離は74である。図20に示すように、パノラマ画像1は間取り図ロケーション1において撮影され、パノラマ画像2は間取り図ロケーション2において撮影され、パノラマ画像3は間取り図ロケーション3において撮影されたものであり、以下、他のパノラマ画像についても図20に示すとおりである。
加えて、各ロケーションのマッチング角も、距離マトリックスの下部に示されている。パノラマ画像1〜9のそれぞれのマッチング角が示されている。すなわち、第1のパノラマ画像のマッチング角は190度であり、第2のパノラマ画像のマッチング角は90度であり、第3のパノラマ画像のマッチング角は90度であり、以下、他のパノラマ画像のマッチング角も図20に示すとおりである。この角度は、最良のマッチ及び最小編集距離スコアを有するようにパノラマ画像を回転させなければならない度数を示している。
パノラマ画像と間取り図における対応するロケーションとをマッチングする視覚表現が、図17の二部グラフに示されている。図17に示すように、パノラマ画像30、32、34、36、38及び39は、それらの画像を異なる間取り図ロケーションA〜Iに接続するラインを用いて示されている。これらのラインは、パノラマ画像と間取り図ロケーションとの間の最小編集距離を表す。上記で論述したように、全体の最小編集距離を用いたパノラマ画像及びロケーションのペアリングは、パノラマ画像を間取り図画像におけるロケーションと対応付けるように互いにペアリングすることができる。
[パノラマ画像のロケーション及び方位を特定する第2の実施形態]
パノラマ画像が撮影された場所を間取り図のロケーションに関してどのように特定するのか、及び、パノラマ画像の方位に関してどのように特定するのかの第2の実施形態が図21に示されている。
ステップ312に示すように、コード化されたパノラマ画像及びデータが、コンピュータシステム1510によって最初に取得される。次に、ステップ314において、間取り図画像からの距離変換データ及び物体データが、コンピュータシステム1510によって取得される。この検出物体データは、上記で論述したように、検出物体のクラスのタイプと、検出物体のロケーションとを含み、検出物体の確率的データも含む場合がある。
次に、ステップ318において、部屋(n)のコード化された物体データを有する特定のパノラマ画像が解析用に選択される。加えて、特定の点(i)の間取り図物体データも、ステップ318において選択される。図21に示すフローチャートにおけるプロセスの最初の反復において、特定の点(i)は、距離変換データに基づいて選ぶことができる。したがって、間取り図画像における空間の中心位置は、パノラマ画像が撮影された最も可能性の高い候補であるので、第1の点として選ぶことができる。
ステップ320において、特定の物体クラス(o)が選ばれる。例えば、物体クラスは、窓、左窓、右窓、ドア、左ドア、右ドア、コーナー、凹状コーナー、凸状コーナー等とすることができる。物体の任意の検出可能なクラスを選ぶことができる。任意のクラスを含むいずれのクラスも選ぶことができるが、プロセスの最初の反復については、ほとんどの物体を有するクラスを選ぶことができる。選ばれなかった他の全ての物体のクラスは、無視することができ、その後のステップにおいて用いることができる。したがって、選ばれた物体のクラスがドアである場合、パノラマ画像のドアデータ及び間取り図画像のドアデータのみが互いに比較される。1つの物体クラスのみを選択する1つの技術的利点は、パノラマ画像ロケーション及び方位を特定するためにCPU1520によって必要とされる計算能力の量が削減されるということである。
ステップ322において、選択された物体のクラスに関して、パノラマ部屋(n)のデータと点(i)における間取り図データとの比較が行われる。この一例が図22に示されている。図22は、パノラマ画像用の上部ライン及び間取り図画像用の下部ラインの2つのラインを示している。これらのラインは、間取り図画像又はパノラマ画像における部屋又は空間の水平軸を表す。
物体2302、2304、2306及び2308は、指定されたクラスの検出物体と、水平方向に関するパノラマ画像内のそれらのそれぞれのロケーションとを表す。物体2320、2322、2324及び2326は、指定されたクラスの検出物体と、水平方向に関する点(i)における間取り図画像内のそれらのそれぞれのロケーションとを表す。したがって、図22の物体は、ドアを表すことができ、図22は、ドアがパノラマ画像及び間取り図画像において検出された場所を示している。
次に、特定の画像、例えば、間取り図画像又はパノラマ画像における物体のそれぞれのコストが計算される。このコストは、検討中の特定の物体と、この物体が比較されている画像内の最も近い近傍との間の距離を計算することによって求められる。したがって、例えば、パノラマ画像の物体2302は、間取り図画像の物体2320に最も近い。ただし、最も近い物体までの距離が求められたことを確認するために、少なくとも1つの他の距離測定を行うことができる。したがって、物体2302と物体2320との間の距離、及び、物体2302と物体2322との間の距離が求められる。その後、最短距離が記録される。これは、画像内の物体のそれぞれについて行われる。これは、以下の式によって数学的に表すことができる。
上記式において、Cは、コスト関数を表し、Xは、物体クラスに対応する、間取り図画像から抽出された点のセットを表し、Yは、物体クラスに対応する、パノラマ画像から抽出された点のセットを表す。
加えて、他の画像内の物体のそれぞれについて、同じ距離計算を行うことができる。すなわち、物体2320、2322、2324及び2326とパノラマ画像内のそれらの最も近い近傍物体との間の距離も計算することができる。次に、双方の画像における物体の全ての距離のそれぞれのコストを加算して、パノラマ画像及び間取り図画像の点(n)に関して、物体クラスのローカルな総コストを求めることができる。
加えて、コストを評価することは、以下で説明するように、重み係数及び/又は閾値処理プロセスも伴うことができる。図23A及び図23Bに示すように、2つのグラフが、同じクラスにおける2つの物体間の距離に関するコストを求めることに対して重み/閾値処理要素を提供する。図23Aを見ると、点の間の距離が増加するにつれて、対応するコストも増加するが、距離がどの程度遠いかに応じて、対応するコストは、2次関数又は線形関数のいずれかに基づくことが示されている。
例えば、図23Aは、コスト関数がゼロ点の近くでは2次であるが、ゼロ点の近くのエリアの外側では線形であるフーバー(Huber)関数を示している。コストのこの重みによって、異常値のペナルティーが削減される。したがって、点の間の距離が大きいことによって被るペナルティーは、重みがない場合よりも小さくなる。これは、点の間の距離が小さい場合に、コストを低く維持することも行う。
これは、以下の式によって数学的に表すことができる。
これらの式において、G(x)はロバスト距離であり、xは2つの物体の間の距離であり、cは定数である。
或る特定の閾値λまでの距離については線形コストを示し、それよりも遠くの距離についてはλの定コストを示す第2の例が、図23Bに示されている。これは、以下の式によって数学的に表すことができる。
この式において、dは2つの点の間の距離であり、x、y、及びλは定数である。具体的には、x及びyは、パノラマ画像及び間取り図画像における物体の位置である。このコスト関数は、比較を圧倒しないように異常値コストを制限する。この式の1つの利点は、コンピュータシステム1510によって必要とされる計算能力の量を削減することである。
上述したステップ322のプロセスの代替形態として、別の方法を用いて、パノラマ画像及び間取り図画像における物体の間の距離を求めることができる。具体的には、パノラマ画像及び間取り図画像の双方における物体の検出にCNNの確率的出力を用いることができる。前述したように、CNNは、任意の所与のピクセルが特定の物体である確率を出力することができる。
パノラマ画像を一例として用いると、CNNは、ピクセルが特定の物体である可能性を0%〜100%に分類することができる。例えば、特定のピクセルは、ドアである5%の可能性と、コーナーである50%の可能性と、窓である25%の可能性と、壁である20%の可能性とを有することができる。これは、水平ロケーション/ピクセルごとに行われる。したがって、画像が水平方向に1080ピクセルを含む場合、それらのピクセルのそれぞれは、CNNによって出力される、物体である特定の確率を有することができる。さらに、ピクセルの垂直列内のピクセルのうちのいずれかが物体であると特定された場合、この垂直列内のあらゆるピクセルを特定された物体によって表すことができる。したがって、解析する必要があるのは、水平行におけるピクセルのみである。この方法の1つの利点は、コンピュータシステム1510によって必要とされる計算能力の量を削減することである。
CNNの確率的出力は、間取り図画像にも同様に適用することができる。例えば、特定のピクセルは、ドアである15%の可能性と、コーナーである40%の可能性と、窓である15%の可能性と、壁である30%の可能性とを有することができる。パノラマ画像と同様に、これは、水平ロケーション/ピクセルごとに行われる。したがって、画像が水平方向に1080ピクセルを含む場合、それらのピクセルのそれぞれは、CNNによって出力される、物体である特定の確率を有することができる。さらに、ピクセルの垂直列内のピクセルのうちのいずれかが物体であると特定された場合、この垂直列内のあらゆるピクセルを特定された物体によって表すことができる。したがって、解析する必要があるのは、水平行におけるピクセルのみである。この方法の1つの利点は、コンピュータシステム1510によって必要とされる計算能力の量を削減することである。
比較されている物体クラスが、例えば、ドアである場合、ピクセルがパノラマ画像におけるドアである確率は、間取り図画像における同じ位置にあるピクセルもドアである確率と比較される。したがって、ピクセルが、パノラマ画像におけるドアである5%の可能性を有し、間取り図画像におけるドアである15%の可能性を有する場合、確率の差は、10%であると求められる。
この手順は、パノラマ画像及び間取り図画像上の水平ラインにおけるピクセルの全てが、それらの間で計算された確率差を有するまで、(パノラマ画像内及び間取り図画像内の)ピクセルの各ペアについて実行される。次に、確率の差を合計して、ローカルコストを求めることができる。すなわち、間取り図画像内の特定の点(i)における物体の所与のクラス及び特定のパノラマ画像の部屋(n)のコストを求めることができる。
その後、プロセスは、物体の異なるクラスについて繰り返される。これは、物体の全てのクラスを含む物体の1つ以上のクラスについて行うことができる。確率の差は、比較される物体の各クラスについて求められる。その後、これらの差は合計されて、比較される物体の各クラスのローカルコストが求められる。
比較される物体のクラスの全てのコストが合計される(すなわち、ローカルコストの全てが加算される)と、グロ−バルコストを求めることができる。グロ−バルコストは、全てのローカルコストが合計されたコストである。次に、間取り図画像における特定の点(i)及びパノラマ画像の部屋(n)の最小総コストを保存し、異なる点(i)及び異なるパノラマ部屋(n)画像の他のコストと比較することができる。これらの更なるパノラマ画像及び間取り図における点は、プロセスにおいて後に考慮され、以下でより詳細に論述される。上記確率差法は、以下に示すように数学的に表すことができる。
この式において、Cはコスト関数であり、detfloorplanは、間取り図画像内の検出物体の出力値であり、detpanoramicは、パノラマ画像内の検出物体の出力値である。
上記から理解することができるように、距離を重み付けする任意の数の方法及び物体ペアの間のコストを求める任意の数の方法を用いることができ、これらの方法は、本発明のこの実施形態の範囲内にある。
図21に戻って、ステップ324において、パノラマ画像の部屋(n)の全ての角度が、点(i)における間取り図画像及び各角度について計算されたコストと比較されるか否かに関する判断が行われる。上記で論述したように、パノラマ画像を回転させることができる。パノラマ画像が回転されると、検出物体の相対位置は、互いに対して同じ状態を保つが、物体自体は、左又は右に平行移動又はシフトする可能性がある。したがって、図22に示すようにパノラマ画像の部屋(n)を間取り図画像と比較すると、物体ロケーションを左又は右にシフトすることによって、パノラマ画像及び間取り図画像における物体の間の距離が変化する可能性があり、したがって、求められるコストが変化する可能性がある。
この物体ロケーションの左又は右へのシフトは、ユーザーの視点を回転させること又はパノラマ画像の方位を回転させることと考えることができる。パノラマ画像の角度は、図15A及び図15Bに関して上記で論述したように、例えば10度の増分に分離することもできるし、それよりも大きな増分又は小さな増分に分離することもできる。回転の増分が小さい場合、より多くの処理が必要とされるが、パノラマ画像における物体と間取り図画像における物体との間のより近いマッチの可能性を高くすることができる。回転の増分が大きい場合、必要とされる処理は少なくなるが、パノラマ画像における物体と間取り図における物体との間のより近いマッチの可能性は低くなる。
例えば、パノラマ画像の部屋(n)が360度画像であり、10度の増分に分割されている場合、パノラマ画像の部屋(n)と点(i)におけるセグメンテーションされた間取り図との間の36個の異なる比較を行う必要がある。
全てのパノラマ画像角が、点(i)において間取り図画像と比較されてはいない場合、ステップ326において、パノラマ画像が、例えば10度だけ回転され、プロセスはステップ322に戻る。全てのパノラマ画像角が点(n)において間取り図画像と比較されている場合、プロセスはステップ328に進む。
ステップ328において、物体のクラスの全てが評価されたか否かが判断される。前述したように、物体のクラスは、ドア、窓、コーナー等とすることができる。パノラマ画像内のドアが間取り図画像内のドアと比較され、パノラマ画像内の窓が間取り図画像内の窓と比較され、パノラマ画像内のコーナーが間取り図画像内のコーナーと比較されるように、パノラマ画像及び間取り図画像内の物体の各クラスが個別に評価される。
物体のクラスの全てが評価されてはいない場合、ステップ330において、物体クラス(o)を1つインクリメントすることによって、物体の新たなクラスが選ばれる。プロセスは、次に、ステップ320に戻り、その点から進む。物体の全てのクラスが評価された場合、プロセスはステップ332に進む。物体の全てのクラスを評価する必要はないことに留意されたい。例えば、10個の物体のクラスが存在する場合、1又は2つの物体のクラスしか評価する必要がないという可能性もある。例えば、10個の物体のクラスが存在するが、検出物体の95%が第1のクラス又は第2のクラスに分類される場合、他のクラスは、パノラマ画像及び方位と間取り図画像内の点とのマッチングの全体的な判断にあまり付加するものがない場合があるので、評価する必要がない場合がある。これによって、コンピュータシステム1510によって必要とされる計算能力が削減される。第1のクラス及び第2のクラスよりも多くのクラスを評価することが必要である可能性もある。例えば、評価された各クラスは、パノラマ画像が撮影されたと判断されたロケーション及び方位の精度を高めることができる。
ステップ332において、間取り図画像内の更なる点(i)を計算するか否かが判断される。間取り図画像内の更なる点(i)の距離を計算する必要があるか否かを判断する1つの方法は、間取り図画像内の幾つかの点(i)のコスト勾配を計算し、次に、それらの幾つかの点に基づいて極小コストを求めることである。例えば、開始点(i)におけるコストを計算した後、隣接点(i)のコストも計算することができる。これらのコストを合わせて調べると、コスト勾配を作成することができる。コスト勾配を用いると、極小コストを見つけることができ、極小が見つかると、更なる点(i)を計算する必要がない。極小コストを求めるとき、より多くの点(i)が計算され、より高い確実度を達成することができることに留意されたい。
上記計算されたコスト勾配は、間取り図画像における特定の部屋又はエリアについてのものあることに留意されたい。一方、コスト勾配を計算するこのプロセスは、間取り図画像における部屋又はエリアの1つ以上又は全てについて繰り返すことができる。例えば、図11A及び図11Bに示すように、比較される間取り図画像における第1のロケーション又は部屋が部屋Aである場合、比較される次のロケーションは部屋Bであり、その次は部屋Cであり、以下、間取り図画像における各部屋又は各エリアが各パノラマ画像と比較されるまで行われる。
間取り図画像内の更なる点(i)のコストを計算する必要があるか否かを判断する別の方法は、距離変換データからのロケーションを開始点として用いることである。すなわち、開始点は、距離変換データによる部屋における中心ロケーションとすることができる。その場合、開始点の周囲に位置する点(i)のランダムなガウスサンプルにおけるコスト計算を行うことができる。開始点が、小さなコストを生成する可能性の高い候補であるとき、周囲の点は、小さなコストを生成する次の最も可能性の高い点である。この方法は、パノラマ画像を撮影するときに、可能性の高い所望のロケーション、すなわち、写真撮影されるエリアの中心の近くのロケーションを利用する。ランダムなガウスサンプルにおける点(i)の距離の全てが計算されると、最小コストを有する点(i)を用いることができる。
更なる点(i)が計算される場合、点(i)は、ステップ334においてインクリメントされる。上記で論述したように、計算される次の点は、開始点の周囲の点(i)のランダムガウス分布の点とすることもできるし、コスト勾配の確認を試みるときの近傍点とすることもできる。更なる点(i)が計算されない場合、プロセスはステップ336に進む。
上記計算されたコストは、間取り図画像における特定の部屋又はエリアについてのものあることに留意されたい。一方、コストを計算するこのプロセスは、間取り図画像における部屋又はエリアの1つ以上又は全てについて繰り返すことができる。例えば、図11A及び図11Bに示すように、比較される間取り図画像における第1のロケーション又は部屋が部屋Aである場合、比較される次のロケーションは部屋Bであり、その次は部屋Cであり、以下、間取り図画像における各部屋又は各エリアが各パノラマ画像と比較されるまで行われる。
ステップ336において、各パノラマ画像がどのロケーションにおいて撮影されたのか及びパノラマ画像がどの方位で撮影されたのかに関する最終的な特定が行われる。この特定は、各パノラマ画像及び各間取り図の点の個々のコストを解析し、パノラマ画像及び間取り図内の点のどの組み合わせが総グロ−バル最小コストを有するのかを特定することによって行われる。これは、図20の距離マトリックスに示すような解析と同様である。各パノラマ画像及び各間取り図の点のコストは、最小総コストを有するパノラマ画像及び間取り図の点のセットを見つけるために評価される。
編集距離スコアを示すマトリックスの代わりに、図20を一例として用いると、このマトリックスは、間取り図画像及びパノラマ画像の部屋の各ペアのコストを提供する。パノラマ画像は、1〜9の番号が付けられ、x軸に示されている一方、間取り図ロケーションは、1〜9の番号が付けられ、y軸に示されている。このマトリックスにおける番号のそれぞれは、対応するパノラマ画像及び間取り図ロケーションの総コストを示している。さらに、マトリックスにおける数字は、各パノラマ画像セットの最小コストを示している。すなわち、マトリックスは、画像の最適な回転を考慮したときの最小編集距離を示している。このマトリックスから、最小コストを有するペアリング(間取り図ロケーション及びパノラマ画像)の組み合わせを特定することができる。
加えて、各ロケーションのマッチング角も、コストマトリックスの下部に示されている。パノラマ画像1〜9のそれぞれのマッチング角が示されている。すなわち、第1のパノラマ画像のマッチング角は190度であり、第2のパノラマ画像のマッチング角は90度であり、第3のパノラマ画像のマッチング角は90度であり、以下、他のパノラマ画像のマッチング角も図20に示すとおりである。この角度は、最良のマッチ及び最小コストを有するようにパノラマ画像を回転させなければならない度数を示している。
パノラマ画像と間取り図における対応するロケーションとをマッチングする視覚表現が、図17の二部グラフに示されている。図17に示すように、パノラマ画像30、32、34、36、38及び39は、それらの画像を異なる間取り図ロケーションA〜Iに接続するラインを用いて示されている。これらのラインは、パノラマ画像と間取り図ロケーションとの間の最小コストを表す。上記で論述したように、全体の最小コストを用いたパノラマ画像及びロケーションのペアリングは、パノラマ画像を間取り図画像におけるロケーションと対応付けるように互いにペアリングすることができる。
ドアを有する部屋の単純化した側面図を示したとする。ドアは全高Hを有する。部屋のパノラマ画像が撮影されたときのデジタルカメラの高さをHとし、デジタルカメラからドアの上部までの高さをHとすると、ドアの全高Hは、高さH及びHの合計である。である。上記で論述したように、デジタルカメラは、視野70度を有すると推定することができる。この視野を2で除算することによって、角度θが得られる。したがって、この角度は35度である。
[バーチャルツアーの作成]
パノラマ画像のそれぞれが間取り図画像内のロケーションとマッチングされ、各パノラマ画像の方位が求められると、バーチャルツアーを作成することができる。バーチャルツアーでは、ユーザーが不動産物件内を自然に移動する仕方と一致してパノラマ画像の方位を定めることが好ましい。例えば、ユーザーが、バーチャルツアーにおいてドアを歩いて通過する場合、又は、或るロケーションから隣接ロケーションに行く場合、パノラマ画像の方位は、ユーザーが進行する方向、すなわち、ドア又は隣接ロケーションを通過する方向にすべきである。これは、間取り図の或るロケーションから次のロケーションに移動しているときの予想される視点がユーザーの予想と一致していない場合に、ユーザーの方向感覚を失わせることになる可能性があるからである。
特定の部屋に入ったときに正確な方位がユーザーに提示されるように、一致した方位を得るために、パノラマ画像を回転又は調整することができる。例えば、図5に示すように、ユーザーが西側バルコニーから畳部屋に行く場合、ユーザーが実際の不動産物件内の畳部屋にちょうど入ったときのように、ユーザーが真っ直ぐ前を見るように畳部屋のパノラマ画像の方位を定めることができる。各パノラマ画像が、間取り図画像に対する方位を有すると、上述したように正確な方位がユーザーに提示されるように、各パノラマ画像をそれに応じて回転させることができる。
例えば、パノラマ画像が0度の方向を指しているが、ユーザーの予想とマッチングさせるために270度の方向を指す必要がある場合、パノラマ画像をそれに応じて回転させ、パノラマ画像が270度の方向を向いている状態でバーチャルツアーに提示することができる。さらに、パノラマ画像をクロッピング又は別の方法で編集して、視野を360度から、例えば90度等のより標準的な視野に削減することができる。加えて、視野が、特定の位置にいる人の視野とマッチングするように、視野を編集することができる。
バーチャルツアーは、複数の方法で作成することができる。例えば、バーチャルツアーは、コンピュータシステム1510によって自動的に再生して、ユーザーを不動産物件の既定のツアーに案内することができる。バーチャルツアーは、パノラマ画像が関連付けられた全ての部屋において停止することを含むことができる。さらに、バーチャルツアーは、部屋全体をユーザーに示すために、部屋にいるときに部屋のパノラマ画像を回転又はパンさせることができる。
加えて、バーチャルツアーをインタラクティブなものにして、ユーザーがどのロケーションを訪問するのか及びどの順番で訪問するのかを選ぶことを可能にすることができる。バーチャルツアーは、ユーザーが、間取り図内の或るロケーションに留まっている時間を求めることも可能にすることができる。
図24は、間取り図10の3部屋ツアーの一例を示している。この例では、間取り図10は、前述したものと同じ間取り図であり、同様の参照符号は同じ特徴部を表している。
バーチャルツアーが開始する前に、不動産物件において撮影されたパノラマ画像は、この不動産物件の間取り図画像とともに、コンピュータシステム1510内に既に入力されている。上述した実施形態のうちの任意のものを用いて、各パノラマ画像が、間取り図画像における、そのパノラマ画像が撮影された場所のロケーションとマッチングされる。さらに、間取り図画像に対する各パノラマ画像の方位も特定される。この情報を用いて、コンピュータシステム1510は、不動産物件のバーチャルツアーを作成することができる。バーチャルツアーは、パノラマ画像が関連付けられた間取り図画像の1つ以上の部屋を含むことができる。バーチャルツアーの一例は、図24に関して以下で論述される。
図24において、バーチャルツアーは、玄関ドアから始まる経路P1から開始し、部屋2に入室する。部屋2内で撮影された対応するパノラマ画像には、ユーザーが部屋2に入る方位と同じ方位であるO1の方位が与えられる。したがって、対応するパノラマ画像は、ユーザーが部屋に入るときに、画像の中心の方位がO1方向になるように、向きが調整される。重要なこととして、1つの単一のフレームには、視野全体がユーザーに示されていない場合があることを想起されたい。すなわち、より小さくより自然な視野がユーザーに示されるように、パノラマ画像は、クロッピング又は別の方法で調整することができる。さらに、この視野は、ユーザーが部屋2内の指定されたロケーションにいるときに見ることができる視野と同じ又は類似のものとすることもできる。
さらに、ロケーションL1は、パノラマ画像が撮影されたと判断されたロケーションである。したがって、バーチャルツアーは、パノラマ画像の方位を、L1ロケーションにおいてO1方向に定める。その後、ユーザーは、左又は右にパンして、部屋の残りの部分を見ることもできるし、これは、コンピュータシステムが自動的に行うこともできる。同時に、ユーザーを援助するために、ユーザーが間取り図画像にいる場所のマップも示すことができる。
次に、例示のバーチャルツアーは、経路P2によって示すように、隣の部屋8に向かう。パノラマ画像の方位は、方位O2によって示されるものである。そして、パノラマ画像のロケーションは、ロケーションL2によって示されている。
最後に、バーチャルツアーは、経路P3によって示すように、ユーザーを居間3に案内する。この場合も、方位はO3の方位であり、ロケーションはL3によって示される。
バーチャルツアーは、3つの部屋に限定されるものではなく、バーチャルツアーは、対応するパノラマ画像が関連付けられた各部屋又は各空間を訪問することができ、及び/又は、訪問する場所にユーザーによって方向付けることができる。
[ハードウェア]
図25は、本発明のコンピューティングシステムを動作させることができるデバイスの一例を示している。このコンピューティングシステムは、コンピュータ、モバイルデバイス又は任意の処理プラットフォーム上で実施することができる。このコンピューティングシステムは、ウェブサイトブラウザー、モバイルフォンアプリケーション、大規模ネットワーク等において動作することができる。このコンピューティングシステムは、上記で論述したように、画像処理を実行するために1つ以上のCNNも備えることができる。
図25は、本明細書で説明したように、画像の解析及びバーチャルツアーの作成に適合した1つ以上の態様を実施するのに用いることができる4つのコンピューティングシステム1510の例示の構成要素の図である。これらの4つのコンピューティングシステムは、互いにネットワーク接続されて、ネットワーク接続コンピューティングシステム1500を形成している。1つ以上のコンピューティングシステム1510を用いて、本発明の様々な態様又は本発明全体を実施することができることに留意されたい。コンピューティングシステム1510というとき、これは、1510A等の単一のコンピューティングシステムを意味することもあるし、ネットワーク接続コンピューティングシステム1500等の複数のコンピューティングシステムを意味することもある。
様々なコンピューティングシステムを用いて、本文書において説明したシステム及び方法をクライアント又は単数若しくは複数のサーバーとして実施することができる。コンピューティングシステムは、ラップトップ、デスクトップ、ワークステーション、パーソナルデジタルアシスタント、サーバー、ブレードサーバー、メインフレーム、及び他の適切なコンピュータ等の様々な形態のデジタルコンピュータを表すことを意図している。他のコンピューティングシステムは、パーソナルデジタルアシスタント、携帯電話、スマートフォン、及び他の同様のコンピューティングシステム等の様々な形態のモバイルデバイスを含むことができる。ここに示す構成要素、それらの接続及び関係、並びにそれらの機能は、単なる例であることを意図したものであり、本文書において説明及び/又は特許請求される本発明の実施形態を限定することを意図したものではない。
コンピューティングシステム1510の構成要素のそれぞれは、様々なバスを用いて相互接続され、共通の基板上に実装することもできるし、適宜、他の方法で実装することもできる。プロセッサは、コンピューティングデバイス内で実行される命令を処理することができる。これらの命令には、ディスプレイ上にグラフィカル情報を表示するための、メモリ又は記憶デバイスに記憶された命令が含まれる。コンピューティングシステム1510の出力は、ディスプレイ上への表示、別のコンピューティングデバイスへの送信、3次元レンダリングにおける使用、別のマシンにおける使用等を行うことができる。他の実施形態では、複数のプロセッサ及び/又は複数のバスを、適宜、複数のメモリ及び複数のタイプのメモリとともに用いることができる。また、複数のコンピューティングシステムを(例えば、サーバーバンク、ブレードサーバー群、又はマルチプロセッサシステムとして)相互接続することができ、各デバイスが、必要な動作の一部を提供することができる。
プロセッサは、個別の複数のアナログプロセッサ及びデジタルプロセッサを備えるチップからなるチップセットとして実施することができる。加えて、プロセッサは、幾つかのアーキテクチャのうちの任意のものを用いて実施することができる。例えば、プロセッサは、x86プロセッサであってもよいし、RISC(縮小命令セットコンピュータ)プロセッサであってもよい。プロセッサは、ユーザーインターフェース、デバイスによって実行されるアプリケーション、及び無線通信の制御等においてデバイスの他の構成要素と協調することができる。複数のプロセッサ又は複数のコアを有するプロセッサも用いることができる。プロセッサは、主として、この文書において論述された機能の実行を担当する。一方、特に、本発明の画像処理の態様と、並列処理方式でより効率的に実行される他の態様とに関して、GPUも用いることができる。例えば、パノラマ画像及び間取り図画像内の物体の検出は、CNNによって行うことができる。CNNの画像処理の多くは、GPUにおいて行うことができる一方、他の非画像処理に関連したタスクは、CPUによって行うことができる。
プロセッサは、制御インターフェース及びディスプレイに結合されたディスプレイインターフェースを通じてユーザーと通信することができる。このディスプレイは、例えば、LED(液晶ディスプレイ)ディスプレイであってもよいし、他の適切な表示技術であってもよい。ディスプレイインターフェースは、ディスプレイを駆動して、グラフィカル情報及び他の情報をユーザーに提示するための適した回路機構を備えることができる。制御インターフェースは、ユーザーからコマンドを受信し、それらのコマンドをプロセッサにサブミットするために変換することができる。加えて、他のデバイスとの近接場通信を可能にするために、プロセッサと通信する外部インターフェースを設けることができる。外部インターフェースは、例えば、無線通信及び/又は有線通信を提供することができる。複数のインターフェースを用いることもできる。
一般に、より多くのパラメーターを有するより深層のCNNは、高処理能力及び大量のキャッシュメモリを有するコンピュータシステム上でより良好に動作する。GPU等の大量の並列処理能力を有するコンピュータシステムは、単一のプロセッサよりもはるかに高速になる傾向を有する。GPUは、以下でより詳細に論述される。
具体的には、画像処理アプリケーションでは、CPUよりも計算能力が高いGPU(グラフィック処理ユニット)を用いることができる。実際には、数十個、数百個又は数千個のGPUのセットを用いて、大量の情報をより高速に計算することができる。GPUは、通常、プロセッサ及び共有メモリを備える。プロセッサはそれぞれ、共有メモリからデータを効率的に取得し、共有プログラムを実行することによって算術処理を実行する。用いることができるGPUの一例は、GeForce1080GPUである。
複数のコンピューティングシステム1510A、1510B、1510C及び1510Dが示されている。コンピューティングシステム1510は、この特定の構成に限定されるものではなく、単一のコンピュータ又は多くのコンピュータであってもよい。同様に、コンピューティングシステム1510は、複数の並列CPU若しくは並列GPU又はそれらの組み合わせを備えることができる。コンピューティングシステム1510は、CPU1520、メモリ1550、通信ユニット1530、並列コンピューティングデバイス1560、及びバス1540を備えることができる。コンピューティングシステム1510は、図示していないが、画像(複数の場合もある)(例えば、バーチャルツアー)の形態にすることができる結果を出力するディスプレイも有することができる。
コンピューティングシステム1510への入力は、パーソナルコンピュータ、サーバー、又は他のコンピューティングデバイス1590を用いて行うことができる。
CPU1520は、メモリ1550に記憶されたプログラムに従って動作する。CPU1520は、通信ユニット1530及び並列コンピューティングデバイス1560を制御する。プログラムは、インターネット等のネットワーク1580を通じて提供することもできるし、DVD−ROM又はUSBメモリ等のコンピュータ可読情報記憶媒体に記憶することによって提供することもできる。
メモリ1550は、例えば、RAM又はROM等のメモリデバイス及びハードディスクドライブを含む。メモリ1550はプログラムを記憶する。メモリは、各ユニットから入力される情報又は計算結果も記憶する。
通信ユニット1530は、ウェブサーバー又は他のコンピュータ等の他のデバイスと通信するように構成されたネットワークカードとすることができる。通信ユニット1530は、CPU1520の制御に基づいて、他のデバイスから受信された情報をCPU1520又はメモリ1550内に入力し、その情報を他のデバイスに送信する。
バス1540は、CPU1520、メモリ1550、通信ユニット1530、及び並列コンピューティングデバイス1560との間でデータを送信又は受信するように構成されている。例えば、CPU1520又はメモリ1550は、バス1540内の拡張バスを通じて並列コンピューティングデバイス1560に接続される。
並列コンピューティングデバイス1560は、並列計算によって大量の同じタイプの計算を効率的に実行するハードウェアである。並列コンピューティングデバイス1560は、例えばGPUである。並列コンピューティングデバイス1560は、並列プロセッサユニット及びデバイス内メモリを備える。各並列実行ユニットは、例えば、複数のプロセッサ、命令ユニット、及び高速メモリを備える。
各並列プロセッサは、浮動小数点計算と、デバイス内メモリ及び高速メモリとの間のデータの読み出し又は書き込みとを実行する。命令ユニットは、この命令ユニットを備える並列実行ユニットに含まれる並列プロセッサに、デバイス内メモリ等に記憶されたプログラムに基づいて処理を実行させる。並列実行ユニットのうちの1つに含まれる並列プロセッサは、そのような並列実行ユニットに含まれる命令ユニットからの命令に従って同じ命令を処理する。このように、複数の並列プロセッサを1つの命令ユニットによって制御することができ、これによって、命令ユニットの回路サイズの増加が抑えられる。したがって、CPU1520の場合と比較して、並列コンピューティングデバイス1560に含まれる並列プロセッサの数を増加させることが可能である。
デバイス内メモリは、DRAMから構成することができる。デバイス内メモリは、バス1540を通じてCPU1520及びメモリ1550に接続されている。並列コンピューティングデバイス1560は、デバイス内メモリとメモリ1550との間でDMA転送を介してデータを転送する回路も備える。高速メモリは、例えば、デバイス内メモリよりも高速アクセスが可能なSRAMから構成される。デバイス内メモリ及び高速メモリのそれぞれは、GPU1560の並列プロセッサからアクセス可能な共有メモリである。
例示のブロック図及びフローチャートは、プロセスにおける特定の論理機能又はステップを実施する1つ以上の実行可能命令を含むコードのモジュール、セグメント、又は部分を表すことができるプロセスステップ又はプロセスブロックを示している。特定の例は、特定のプロセスステップ又は手順を示しているが、多くの代替の実施態様が可能である。幾つかのプロセスステップは、例えば、機能、目的、標準への準拠、レガシー構造、ユーザーインターフェース設計等の考慮に基づいて、本明細書における特定の説明と異なる順序で実行することができる。
本発明の複数の実施形態が説明されている。本発明の趣旨及び範囲から逸脱することなく様々な変更を行うことができることが理解されるであろう。例えば、上記に図示した様々な形態のフローは、ステップの並べ替え、追加、又は削除を行って用いることができる。また、本発明の幾つかの実施形態が説明されてきたが、これらの実施形態は、組み合わせることもできるし、変更することもできることに留意されたい。
1500 ネットワーク接続コンピューティングシステム、1510 コンピュータシステム、1520 CPU、1530 通信ユニット、1540 バス、1550 メモリ、1560 GPU、1580 ネットワーク、1590 コンピューティングデバイス。

Claims (14)

  1. カメラを用いて撮影された複数の部屋画像を取得し、
    人工知能を用いて、前記複数の部屋画像のそれぞれにおいて、ドア、窓、コーナー又は壁を含むクラスの物体である少なくとも1つの物体を検出し、
    前記部屋画像のそれぞれにおいて検出された前記少なくとも1つの物体の物体ロケーションを検出し、
    間取り図画像を取得し、
    人工知能を用いて、前記間取り図画像において少なくとも1つの物体を検出し、
    前記間取り図画像において検出された前記少なくとも1つの物体の物体ロケーションを検出し、
    前記複数の部屋画像のそれぞれにおいて検出された前記少なくとも1つの物体及び前記物体ロケーションを、前記間取り図画像において検出された前記少なくとも1つの物体及び前記物体ロケーションと比較し、
    各部屋画像が撮影された前記間取り図画像におけるロケーションを特定し、
    前記部屋画像のそれぞれにおいて検出された前記物体及び前記物体ロケーションを、前記間取り図画像において検出された前記物体及び前記物体ロケーションと前記比較することは、一時に単一の物体のクラスを用いて行われ、
    単一の物体のクラスの間の前記比較は、前記部屋画像における前記物体と前記間取り図画像における前記物体との間の距離を測定し、前記部屋画像からの前記物体と前記間取り図画像からの前記物体との間に、前記距離に応じたコストを割り当てることによって行われる、
    人工知能を用いるコンピュータ実施方法。
  2. カメラを用いて撮影された複数の部屋画像を取得し、
    人工知能を用いて、前記複数の部屋画像のそれぞれにおいて少なくとも1つの物体を検出し、
    前記部屋画像のそれぞれにおいて検出された前記少なくとも1つの物体の物体ロケーションを検出し、
    間取り図画像を取得し、
    人工知能を用いて、前記間取り図画像において少なくとも1つの物体を検出し、
    前記間取り図画像において検出された前記少なくとも1つの物体の物体ロケーションを検出し、
    前記複数の部屋画像のそれぞれにおいて検出された前記少なくとも1つの物体及び前記物体ロケーションを、前記間取り図画像において検出された前記少なくとも1つの物体及び前記物体ロケーションと比較し、
    各部屋画像が撮影された前記間取り図画像におけるロケーションを特定し、
    各部屋画像及び前記取り図画像をそれぞれ前記物体に基づく文字でコード化し、各文字列の編集距離を計算し、
    前記物体の間の前記比較は、編集距離を用いて行われる、
    人工知能を用いるコンピュータ実施方法。
  3. 各部屋画像が前記間取り図画像における方位に関して第1の方位に整列されるように、各部屋画像を水平軸に沿ってシフトしなければならない度数が求められる、
    請求項1又は2に記載の方法。
  4. 前記複数の部屋画像における第1の部屋画像が、畳み込みニューラルネットワークを用いて解析され、各物体の分類及び各物体の前記ロケーションが特定される、
    請求項1〜3の何れかに記載の方法。
  5. 前記間取り図画像は、畳み込みニューラルネットワークを用いて解析され、前記間取り図画像における各物体の分類及び各物体の前記ロケーションが特定される、
    請求項4に記載の方法。
  6. 前記間取り図画像に対して距離変換機能を実行して、前記間取り図画像からセグメンテーションされた画像における各点と、前記セグメンテーションされた画像における最も近い壁と、の間の距離を求めることを更に含む、
    請求項1〜5の何れかに記載の方法。
  7. 前記コストは、所定の重み係数に基づいて算出される
    請求項1に記載の方法。
  8. 前記部屋画像のそれぞれにおいて検出された前記物体及び前記物体ロケーションを、前記間取り図画像において検出された前記物体及び前記物体ロケーションと前記比較することは、前記各部屋画像及び前記間取り図画像における複数のロケーションについて行われる、
    請求項1〜7の何れかに記載の方法。
  9. 画像をロケーション及び方向とマッチングする人工知能(AI)システムであって、
    複数の部屋画像を取得する部屋画像取得手段と、
    間取り図画像を取得する間取り図画像取得手段と、
    前記部屋画像のそれぞれにおいて、ドア、窓、コーナー又は壁を含むクラスを有する物体及び物体ロケーションを検出する第1検出手段と、
    前記間取り図画像において物体及び物体ロケーションを検出する第2検出手段と、
    前記部屋画像のそれぞれにおいて検出された前記物体及び前記物体ロケーションを、前記間取り図画像において検出された前記物体及び前記物体ロケーションと比較する比較手段と、
    各部屋画像が撮影された前記間取り図画像におけるロケーションを特定する特定手段と、
    単一の物体のクラスの間で比較をするとき、前記部屋画像における前記物体と前記間取り図画像における前記物体との間の距離を求め、前記部屋画像からの前記物体と前記間取り図画像からの前記物体との間に、前記距離に応じたコストを割り当てる手段と、
    を含むAIシステム。
  10. 前記AIシステムは、各部屋画像が前記間取り図画像における方位に関して第1の方位に整列されるように、各部屋画像を回転させなければならない度数を求めるように構成されている、
    請求項9に記載のAIシステム。
  11. 畳み込みニューラルネットワークを用いて、前記複数の部屋画像における第1の部屋画像の各物体の分類及び各物体の前記ロケーションを特定する手段、
    を更に含む請求項9又は10に記載のAIシステム。
  12. 前記第2検出手段は、畳み込みニューラルネットワークを用いて、前記間取り図画像の各物体の分類及び各物体の前記ロケーションを特定する、
    請求項11に記載のAIシステム。
  13. 前記間取り図画像に対して距離変換機能を実行して、前記間取り図画像からセグメンテーションされた画像における各点と、前記セグメンテーションされた画像における最も近い壁と、の間の距離を求める手段、
    を更に含む請求項9〜12の何れかに記載のAIシステム。
  14. 複数の部屋画像を取得する部屋画像取得手段、
    間取り図画像を取得する間取り図画像取得手段、
    前記部屋画像のそれぞれにおいて、ドア、窓、コーナー又は壁を含むクラスを有する物体及び物体ロケーションを検出する第1検出手段、
    前記間取り図画像において物体及び物体ロケーションを検出する第2検出手段、
    前記部屋画像のそれぞれにおいて検出された前記物体及び前記物体ロケーションを、前記間取り図画像において検出された前記物体及び前記物体ロケーションと比較する比較手段、
    各部屋画像が撮影された前記間取り図画像におけるロケーションを特定する特定手段、
    単一の物体のクラスの間で比較をするとき、前記部屋画像における前記物体と前記間取り図画像における前記物体との間の距離を求め、前記部屋画像からの前記物体と前記間取り図画像からの前記物体との間に、前記距離に応じたコストを割り当てる手段、
    としてコンピュータを機能させるためのプログラム。
JP2019159779A 2018-09-05 2019-09-02 人工知能を用いるコンピュータ実施方法、aiシステム、及びプログラム Active JP6765487B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/121,633 US10832437B2 (en) 2018-09-05 2018-09-05 Method and apparatus for assigning image location and direction to a floorplan diagram based on artificial intelligence
US16/121633 2018-09-05

Publications (2)

Publication Number Publication Date
JP2020038657A JP2020038657A (ja) 2020-03-12
JP6765487B2 true JP6765487B2 (ja) 2020-10-07

Family

ID=69639425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019159779A Active JP6765487B2 (ja) 2018-09-05 2019-09-02 人工知能を用いるコンピュータ実施方法、aiシステム、及びプログラム

Country Status (2)

Country Link
US (1) US10832437B2 (ja)
JP (1) JP6765487B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2021211999B2 (en) * 2020-09-04 2023-01-12 MFTB Holdco, Inc. Automated analysis of image contents to determine the acquisition location of the image

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019205069A1 (en) * 2018-04-27 2019-10-31 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for updating 3d model of building
US11356606B2 (en) * 2019-02-26 2022-06-07 Insidemaps, Inc. Imaging using mobile computing device in communication with wide field of view (FOV) camera
US11397508B1 (en) * 2019-06-11 2022-07-26 Hyper Reality Partners, Llc Virtual experience pillars
US11763478B1 (en) 2020-01-17 2023-09-19 Apple Inc. Scan-based measurements
US11551422B2 (en) 2020-01-17 2023-01-10 Apple Inc. Floorplan generation based on room scanning
US11164325B2 (en) * 2020-02-06 2021-11-02 Tianzhi Yang Generating and evaluating mappings between spatial point sets
US11386151B2 (en) 2020-04-11 2022-07-12 Open Space Labs, Inc. Image search in walkthrough videos
US11436812B2 (en) * 2020-05-29 2022-09-06 Open Space Labs, Inc. Machine learning based object identification using scaled diagram and three-dimensional model
CN113971628A (zh) 2020-07-24 2022-01-25 株式会社理光 图像匹配方法、装置和计算机可读存储介质
JP6830561B1 (ja) * 2020-09-17 2021-02-17 株式会社スペースリー 情報処理装置、情報処理方法、情報処理システム、情報処理プログラム
CN112116613B (zh) * 2020-09-25 2021-10-15 贝壳找房(北京)科技有限公司 图像矢量化方法及系统
US11592969B2 (en) * 2020-10-13 2023-02-28 MFTB Holdco, Inc. Automated tools for generating building mapping information
CN117744196A (zh) * 2020-10-13 2024-03-22 弗莱瑞尔公司 通过自动分析传感器数据生成物理结构和环境的测量结果
CN112307965B (zh) * 2020-10-30 2021-05-25 哈尔滨市科佳通用机电股份有限公司 一种滚动轴承施封锁丢失和折断故障检测方法
CN112631947B (zh) * 2021-01-15 2023-04-25 抖音视界有限公司 应用程序的测试控制方法、装置、电子设备及存储介质
CN112785643A (zh) * 2021-02-02 2021-05-11 武汉科技大学 一种基于机器人平台的室内墙角二维语义地图构建方法
US11836973B2 (en) * 2021-02-25 2023-12-05 MFTB Holdco, Inc. Automated direction of capturing in-room information for use in usability assessment of buildings
US11790648B2 (en) * 2021-02-25 2023-10-17 MFTB Holdco, Inc. Automated usability assessment of buildings using visual data of captured in-room images
US12056900B2 (en) * 2021-08-27 2024-08-06 MFTB Holdco, Inc. Automated mapping information generation from analysis of building photos
JP7540671B2 (ja) * 2022-04-28 2024-08-27 株式会社スペースリー 三次元モデル生成装置及び三次元モデル生成プログラム
JP2024017224A (ja) * 2022-07-27 2024-02-08 株式会社リコー 情報処理装置、入出力装置、情報処理システム、情報処理方法、入出力方法、およびプログラム
CN115294204B (zh) * 2022-10-10 2023-03-17 浙江光珀智能科技有限公司 一种户外目标定位方法及系统

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002041623A (ja) * 2000-07-28 2002-02-08 Trinity Solution:Kk 不動産物件掲載ならびに閲覧方法、およびそのシステム、同方法がプログラムされ記録された記録媒体
JP4252333B2 (ja) * 2003-02-28 2009-04-08 富士通株式会社 移動ロボット
US8253731B2 (en) * 2006-11-27 2012-08-28 Designin Corporation Systems, methods, and computer program products for home and landscape design
US8122370B2 (en) * 2006-11-27 2012-02-21 Designin Corporation Visual bookmarks for home and landscape design
US8117558B2 (en) * 2006-11-27 2012-02-14 Designin Corporation Converting web content into two-dimensional CAD drawings and three-dimensional CAD models
US20090237396A1 (en) * 2008-03-24 2009-09-24 Harris Corporation, Corporation Of The State Of Delaware System and method for correlating and synchronizing a three-dimensional site model and two-dimensional imagery
US8639666B2 (en) * 2008-09-05 2014-01-28 Cast Group Of Companies Inc. System and method for real-time environment tracking and coordination
US20130104073A1 (en) * 2010-06-22 2013-04-25 Ohio University Immersive video intelligence network
US9514522B2 (en) * 2012-08-24 2016-12-06 Microsoft Technology Licensing, Llc Depth data processing and compression
JP6304771B2 (ja) 2015-08-20 2018-04-04 株式会社サイバーウォーカー 経路生成プログラム、経路生成方法及び経路生成装置
JP2017106906A (ja) * 2015-12-09 2017-06-15 現代自動車株式会社Hyundai Motor Company 金属光沢を有する電波透過型カバー
JP6773899B2 (ja) * 2016-09-23 2020-10-21 エーオン・ベンフィールド・インコーポレイテッドAon Benfield Inc. 資産特性を分類するためのプラットフォーム、システム、ならびに方法および航空画像解析による資産特徴保守管理
US10438164B1 (en) * 2016-09-27 2019-10-08 Amazon Technologies, Inc. Merging events in interactive data processing systems
WO2018093796A1 (en) * 2016-11-15 2018-05-24 Magic Leap, Inc. Deep learning system for cuboid detection
JP6116746B1 (ja) 2016-11-17 2017-04-19 株式会社ネクスト 情報処理装置、情報処理方法、及びプログラム
CA3055597A1 (en) * 2017-03-17 2018-09-20 Magic Leap, Inc. Room layout estimation methods and techniques
US10572970B2 (en) * 2017-04-28 2020-02-25 Google Llc Extracting 2D floor plan from 3D GRID representation of interior space
EP3646583A4 (en) * 2017-06-29 2021-07-14 Open Space Labs, Inc. AUTOMATED SPATIAL INDEXING OF IMAGES ON THE BASIS OF FLOOR PLAN FEATURES
US10915114B2 (en) * 2017-07-27 2021-02-09 AI Incorporated Method and apparatus for combining data to construct a floor plan
EP3710981A4 (en) * 2017-11-14 2020-12-23 Magic Leap, Inc. DETECTION AND DESCRIPTION OF FULLY CONVOLUTIVE POINT OF INTEREST BY HOMOGRAPHIC ADAPTATION
US10192115B1 (en) * 2017-12-13 2019-01-29 Lowe's Companies, Inc. Virtualizing objects using object models and object position data
US10997746B2 (en) * 2018-04-12 2021-05-04 Honda Motor Co., Ltd. Feature descriptor matching
US11055532B2 (en) * 2018-05-02 2021-07-06 Faro Technologies, Inc. System and method of representing and tracking time-based information in two-dimensional building documentation
US10225492B1 (en) * 2018-07-23 2019-03-05 Mp High Tech Solutions Pty Ltd. User interfaces to configure a thermal imaging system
US10297070B1 (en) * 2018-10-16 2019-05-21 Inception Institute of Artificial Intelligence, Ltd 3D scene synthesis techniques using neural network architectures

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2021211999B2 (en) * 2020-09-04 2023-01-12 MFTB Holdco, Inc. Automated analysis of image contents to determine the acquisition location of the image

Also Published As

Publication number Publication date
JP2020038657A (ja) 2020-03-12
US10832437B2 (en) 2020-11-10
US20200074668A1 (en) 2020-03-05

Similar Documents

Publication Publication Date Title
JP6765487B2 (ja) 人工知能を用いるコンピュータ実施方法、aiシステム、及びプログラム
US10297070B1 (en) 3D scene synthesis techniques using neural network architectures
US11244189B2 (en) Systems and methods for extracting information about objects from scene information
US11645781B2 (en) Automated determination of acquisition locations of acquired building images based on determined surrounding room data
Chang et al. Matterport3d: Learning from rgb-d data in indoor environments
CN113362382B (zh) 三维重建方法和三维重建装置
Aubry et al. Painting-to-3D model alignment via discriminative visual elements
US20220284609A1 (en) Image analysis
Cohen et al. Indoor-outdoor 3d reconstruction alignment
US11734861B2 (en) 2D and 3D floor plan generation
Koch et al. Real estate image analysis: A literature review
US20240161348A1 (en) Automated Inter-Image Analysis Of Multiple Building Images For Building Information Determination
Howard-Jenkins et al. Thinking outside the box: Generation of unconstrained 3d room layouts
Yang et al. Modeling room structure from indoor panorama
Gupta et al. Image feature detection using an improved implementation of maximally stable extremal regions for augmented reality applications
Goyal et al. GRIHA: synthesizing 2-dimensional building layouts from images captured using a smart phone
Zioulis et al. Monocular spherical depth estimation with explicitly connected weak layout cues
Gard et al. SPVLoc: Semantic Panoramic Viewport Matching for 6D Camera Localization in Unseen Environments
US20240312136A1 (en) Automated Generation Of Building Floor Plans Having Associated Absolute Locations Using Multiple Data Capture Devices
CN115984808A (zh) 目标检测模型的训练方法、电子设备及存储介质
Musicco et al. Transversal Knowledge in Teaching Architecture: Applications of 3D Point Cloud Segmentation Methods for the Comprehension of Cultural Heritage
CA3131587A1 (en) 2d and 3d floor plan generation
Teixeira Analysis and evaluation of optimization techniques for tracking in augmented reality applications
Koch et al. Real Estate Image Analysis-A Literature Review (preprint)
CN114549597A (zh) 图像中目标对象的匹配方法、设备、存储介质及程序产品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190902

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190902

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200915

R150 Certificate of patent or registration of utility model

Ref document number: 6765487

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250