JP2022501684A - 撮影に基づく3dモデリングシステムおよび方法、自動3dモデリング装置および方法 - Google Patents
撮影に基づく3dモデリングシステムおよび方法、自動3dモデリング装置および方法 Download PDFInfo
- Publication number
- JP2022501684A JP2022501684A JP2020571820A JP2020571820A JP2022501684A JP 2022501684 A JP2022501684 A JP 2022501684A JP 2020571820 A JP2020571820 A JP 2020571820A JP 2020571820 A JP2020571820 A JP 2020571820A JP 2022501684 A JP2022501684 A JP 2022501684A
- Authority
- JP
- Japan
- Prior art keywords
- image
- shooting
- model
- camera
- modeling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 281
- 230000008569 process Effects 0.000 claims abstract description 32
- 238000003384 imaging method Methods 0.000 claims description 77
- 238000013135 deep learning Methods 0.000 claims description 52
- 238000005516 engineering process Methods 0.000 claims description 47
- 230000006870 function Effects 0.000 claims description 42
- 238000006073 displacement reaction Methods 0.000 claims description 41
- 230000033001 locomotion Effects 0.000 claims description 34
- 238000012545 processing Methods 0.000 claims description 34
- 238000007619 statistical method Methods 0.000 claims description 20
- 239000013598 vector Substances 0.000 claims description 19
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 230000001133 acceleration Effects 0.000 claims description 14
- 238000002372 labelling Methods 0.000 claims description 12
- 238000009434 installation Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 abstract description 12
- 238000001514 detection method Methods 0.000 description 19
- 239000011159 matrix material Substances 0.000 description 9
- 230000009466 transformation Effects 0.000 description 9
- 238000012937 correction Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/203—Drawing of straight lines or curves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
- G06V20/36—Indoor scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/293—Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/04—Architectural design, interior design
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/008—Cut plane or projection plane definition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Abstract
Description
本出願は、出願日が2019年08月23日の中国特許出願第201910784772.1号に基づいて、その中国特許出願の優先権を主張しており、その内容の全体が参照により本出願に組込まれる。
本発明は、3Dモデリングシステムおよび方法に関し、特に、撮影に基づく3Dモデリングシステムおよび方法、自動3Dモデリング装置および方法に関する。
欠点1:計算量が多く、モバイル機器などの限られたコンピューティングリソースを持つ機器上でのモデリングは容易ではないこと、通常、サーバ(クラウド/PC)にアップロードすることで、より強いの計算能力を利用してモデリングアルゴリズムを実行する必要がある。
欠点2:撮影距離の指定ができないこと、距離が近すぎる場合、面倒で時間がかかる、可視性と感覚で距離を決定する場合、モデリングに失敗する可能性があり、撮影時にユーザにヒントを表示できない。
(1)ポリゴンの主要な頂点のみを残し、小さい凹凸を削除し、例えば、壁の標準的な厚さ(例えば12cmや24cm)よりも小さい凹凸を削除してもよい。
ここで、3Dモデルスティッチングユニット502はさらに、位置および撮影方向情報に基づいて、例えば、1つの変換行列を用いて、1つの空間の前記3Dモデルのローカル座標をグローバルワールド座標に変換することで、全ての空間の3Dモデル全体を取得することができる。
図7は、本発明の自動3Dモデリング方法の一実施例のフローチャートであり、図7に示すように、前記自動3Dモデリング方法は、
(付記1)
複数の空間に対して当該空間の第1画像をそれぞれ撮影するための撮影ユニットと、
前記各空間ごとに前記撮影ユニットが撮影した前記第1画像に基づいて、前記各空間の3Dモデルをそれぞれ生成する3Dモデル生成ユニットと、
前記撮影ユニットが各空間の第1画像を撮影した時の位置および撮影方向情報を取得するための撮影位置取得ユニットと、
前記位置および撮影方向情報に基づいて、前記各空間の3Dモデルを同一の三次元座標系でスティッチング処理を行い、前記各空間が含まれる3Dモデル全体を形成する3Dモデルスティッチングユニットとを含む、ことを特徴とする撮影に基づく3Dモデリングシステム。
前記撮影ユニットは、前記各空間の間を移動する過程で複数の第2画像を撮影し、
前記撮影位置取得ユニットは、前記複数の第2画像を用いて特徴点照合を行うことにより、各撮影点の相対変位および撮影方向情報を取得する、ことを特徴とする付記1に記載の撮影に基づく3Dモデリングシステム。
前記撮影ユニットは、位置決めセンサと方向センサを有し、
前記撮影位置取得ユニットは、前記撮影ユニットが位置される空間の第1画像を撮影した時に提供される位置決め情報と方向情報に基づいて、前記撮影ユニットが位置される空間の第1画像を撮影した時の位置および撮影方向情報を取得する、ことを特徴とする付記1に記載の撮影に基づく3Dモデリングシステム。
前記撮影ユニットは、前記各空間の間を移動する過程で複数の第2画像を撮影し、
前記撮影ユニットは、位置決めセンサと方向センサを有し、
前記撮影位置取得ユニットは、前記複数の第2画像を用いて特徴点照合を行うことにより、各撮影点の相対変位情報および撮影方向情報を取得し、かつ前記撮影ユニットが位置される空間の第1画像を撮影した時の位置決め情報と方向情報に基づいて、前記相対変位および撮影方向情報を補正することにより、前記撮影ユニットが位置される空間の第1画像を撮影した時の位置および撮影方向情報を取得する、ことを特徴とする付記1に記載の撮影に基づく3Dモデリングシステム。
前記撮影位置取得ユニットは、変位センサが取得した変位情報に基づいて、前記相対変位および撮影方向情報を補正する、ことを特徴とする付記4に記載の撮影に基づく3Dモデリングシステム。
前記3Dモデルスティッチングユニットは、各空間を撮影する際に前記撮影位置取得ユニットが取得した前記位置および撮影方向情報に基づいて、1つの空間の前記3Dモデルのローカル座標をグローバルワールド座標に変換することで、前記複数の空間の3Dモデル全体を取得する、ことを特徴とする付記1に記載の撮影に基づく3Dモデリングシステム。
前記1つの空間の前記3Dモデルのローカル座標をグローバルワールド座標に変換することは、
前記撮影ユニットを所定距離で移動させることと、
前記撮影位置取得ユニットに前記所定距離の2つの端点の位置情報を取得させることと、
前記2つの端点の位置の差と前記所定距離との比を、前記ローカル座標と前記ワールド座標との比として取得することとを含む、ことを特徴とする付記6に記載の撮影に基づく3Dモデリングシステム。
前記1つの空間の前記3Dモデルのローカル座標をグローバルワールド座標に変換することは、
前記撮影位置取得ユニットが前記第1画像上で特徴点を認識することと、
認識された前記特徴点に基づいて、前記空間の底面または上面が位置する平面の高さを推定することと、
前記空間の底面または上面が位置する平面の高さと前記撮影ユニットの高さとの比を、前記ローカル座標と前記ワールド座標との比として取得することとを含む、ことを特徴とする付記6に記載の撮影に基づく3Dモデリングシステム。
前記撮影ユニットが最初の撮影点を撮影する前に、またはその後の撮影の移動中に、所定距離を移動させて所定数の前記特徴点を取得する、ことを特徴とする付記8に記載の撮影に基づく3Dモデリングシステム。
前記撮影ユニットは、同一の撮影点で前記第1画像をそれぞれ撮影する2眼レンズを有し、
前記3Dモデル生成ユニットは、それぞれの前記2眼レンズで撮影された前記第1画像を比較して対応する画素を決定し、前記3Dモデルの生成に用いるための対応する前記各画素の深さ情報を取得する、ことを特徴とする付記1に記載の撮影に基づく3Dモデリングシステム。
前記3Dモデル生成ユニットは、ディープラーニング技術を用いて、前記第1画像における各画素の深さを予測し、前記ディープラーニング技術を計算または直接適用して前記各画素の法線方向を予測する、ことを特徴とする付記1に記載の撮影に基づく3Dモデリングシステム。
前記撮影ユニットは、カメラおよび/またはカメラ機能付きモバイル機器によって実現され、
前記3Dモデル生成ユニットは、前記モバイル機器またはリモートサーバによって実現され、前記リモートサーバによって実現される場合には、ネットワークを介して、前記カメラおよび/または前記カメラ機能付きモバイル機器が撮影して送信した第1画像を受信して、前記各空間の3Dモデルを生成し、
前記撮影位置取得ユニットは、前記カメラまたは前記モバイル機器によって実現され、
前記3Dモデルスティッチングユニットは、前記モバイル機器またはリモートサーバによって実現され、前記リモートサーバによって実現される場合には、ネットワークを介して、前記撮影位置取得ユニットから送信された各空間の前記位置および撮影方向情報を受信し、当該位置および撮影方向情報に基づいて前記スティッチング処理を完了し、生成した前記3Dモデル全体を前記モバイル機器または他の機器に送信する、ことを特徴とする付記1−11のいずれか一つに記載の撮影に基づく3Dモデリングシステム。
前記撮影ユニットを実装したカメラと、カメラ機能付きモバイル機器とを同一の撮影スタンドに固定し、
前記スタンドを移動させる過程で、前記カメラまたは前記カメラ機能付きモバイル機器が撮影した複数の第2画像を取得し、それにより、前記カメラまたは前記カメラ機能付きモバイル機器が位置される空間に対して第1画像を撮影した時の位置および撮影方向情報を取得する、ことを特徴とする付記12に記載の撮影に基づく3Dモデリングシステム。
前記カメラまたは前記カメラ機能付きモバイル機器の位置決めシステムに基づいて、前記カメラまたは前記カメラ機能付きモバイル機器が撮影した第2画像を用いて、近接した撮影点の第2画像の特徴点を照合することにより、各撮影点の相対変位情報および撮影方向情報を取得し、各撮影点の相対位置および方向を提供する、ことを特徴とする付記13に記載の撮影に基づく3Dモデリングシステム。
前記撮影ユニットが前記第1空間の前記第1画像を撮影する前に、あるいはその後の移動中に、以下の方法、すなわち、
(1)前記モバイル機器に基づく位置決めシステムと前記カメラに基づく位置決めシステムを同時に動作させ、前記スタンドを一定の距離で移動させ、この時、2つのシステムがそれぞれ1つの変位ベクトルを提供し、2つのベクトルの間の角度を、前記カメラのレンズと前記モバイル機器の撮影方向との間の角度とする方法、
(2)前記カメラのプレビュー画像または撮影画像を手動で回転させて、前記モバイル機器の撮影方向と一致する角度を指定する方法、
(3)前記モバイル機器と前記カメラのプレビュー画像または撮影画像を画像認識アルゴリズムで照合することによって、前記角度を見つける方法、
(4)スタンドに目盛りを付けるなど、追加のマーキングを使用して、前記モバイル機器の設置方向と一定の角度を形成し、その後、前記カメラのプレビュー画像または画像の中の当該マーキングを認識して、前記カメラのレンズと前記モバイル機器の撮影方向との間の角度を算出する方法、
(5)前記スタンドにスロットを設けることにより、前記カメラと前記モバイル機器との間の既知の固定角度を確保する方法、の1つ以上で、前記カメラのレンズと前記モバイル機器の撮影方向とのなす角度を取得することをさらに含む、ことを特徴とする付記13に記載の撮影に基づく3Dモデリングシステム。
前記空間は、部屋であり、
前記第1画像は、前記部屋の室内画像であり、
前記3Dモデル生成ユニットは、ディープラーニング技術に基づいて前記第1画像中の床、天井、壁の少なくとも1つを認識し、認識した画像を画像処理技術に基づいて複数のブロックに分割し、床と天井の画像ブロックが水平面内にあり、壁の画像ブロックが垂直面内にあるように、それぞれのブロックをおおよそ平面とみなし、各平面の方程式を解いて前記3Dモデルを生成し、ここで、前記第1画像中で交差する2つの平面については、算出された交差線と実際に観察された交差線との誤差を最小化する、ことを特徴とする付記1に記載の撮影に基づく3Dモデリングシステム。
前記3Dモデル生成ユニットはさらに、コンピュータビジョン技術を用いて、前記室内画像中のコーナーを認識し、コーナーを連結して部屋の大まかなモデルを生成する、ことを特徴とする付記16に記載の撮影に基づく3Dモデリングシステム。
前記3Dモデルスティッチングユニットは、前記複数の部屋のそれぞれの3Dモデルを統一して補正し、そのうち、統計的手法を用いて、全部屋が一定の偏差範囲内で平行な壁線を持つように、全部屋の壁線方向を統一して補正することが含まれ、
前記3Dモデルスティッチングユニットは、前記各部屋の3Dモデルをスティッチングする時、重なり部分および/または現れた空洞を修正する、ことを特徴とする付記16に記載の撮影に基づく3Dモデリングシステム。
以下の方法、すなわち、
生成した前記3Dモデルの各平面を床に垂直な平面に投影し、これらの投影を1つのポリゴンに結合する方法と;
得られた前記ポリゴンを補正および簡略化する方法と、そのうち、以下の方法、
(1)前記ポリゴンの主要な頂点のみを残し、小さい凹凸を削除すること、
(2)コンピュータビジョン技術を使用して、画像内の直線を検出し、それによって壁の方向を決定し、壁の方向とほぼ平行または垂直な全てのエッジを対応する方向に修正すること、の少なくとも1つが含まれ;
前記撮影位置取得ユニットが取得した各空間の前記位置および撮影方向情報に基づいて、生成した前記各部屋の2D平面図を同一の二次元座標系でスティッチング処理を行い、前記各部屋のそれぞれの2D平面図によってスティッチングされた2D平面図全体を形成する方法と;
ディープラーニングの方法を用いて、前記室内画像上でドアおよび/または窓の位置を認識すること、または、前記撮影ユニットが同一住宅に属する複数の部屋に対して前記第1画像をそれぞれ撮影した時の移動軌跡と当該部屋の輪郭との交点に基づいて、ドアの位置を決定することが含まれる、ドアおよび/または窓の位置を認識してラベル付ける方法と、で2D平面図を生成する2D平面図生成ユニットをさらに含む、ことを特徴とする付記16に記載の撮影に基づく3Dモデリングシステム。
前記2D平面図生成ユニットは、前記複数の部屋のそれぞれの2D平面図を統一して補正し、そのうち、統計的手法を用いて、全部屋が一定の偏差範囲内で平行な壁線を持つように、全部屋の壁線方向を統一して補正することが含まれ、
前記2D平面図生成ユニットは、前記各部屋の2D平面図をスティッチングする時、重なり部分および/または現れた空洞を修正する、ことを特徴とする付記19に記載の撮影に基づく3Dモデリングシステム。
以下の方法、すなわち、
前記3Dモデルスティッチングユニットが生成した前記3Dモデル全体の各平面を床に垂直な平面に投影し、これらの投影を1つのポリゴンに結合する方法と;
得られた前記ポリゴンを補正および簡略化する方法と、そのうち、以下の方法、
(1)前記ポリゴンの主要な頂点のみを残し、小さい凹凸を削除すること、
(2)コンピュータビジョン技術を使用して、画像内の直線を検出し、それによって壁の方向を決定し、壁の方向とほぼ平行または垂直な全てのエッジを対応する方向に修正すること、の少なくとも1つが含まれ;
ディープラーニングの方法を用いて、前記室内画像上でドアおよび/または窓の位置を認識すること、または、前記撮影ユニットが同一住宅に属する複数の部屋に対して前記第1画像をそれぞれ撮影した時の移動軌跡と当該部屋の輪郭との交点に基づいて、ドアの位置を決定することが含まれる、ドアおよび/または窓の位置を認識してラベル付ける方法と、で2D平面図を生成する2D平面図生成ユニットをさらに含む、ことを特徴とする付記16に記載の撮影に基づく3Dモデリングシステム。
モデリングオブジェクトに含まれる複数の空間のそれぞれの第1画像に基づいて、前記複数の空間のそれぞれの3Dモデルを生成する3Dモデル生成ユニットと、
前記複数の空間のそれぞれの前記第1画像が撮影された時の位置および撮影方向情報に基づいて、前記3Dモデル生成ユニットで生成した前記各空間の3Dモデルを同一の3次元座標系でスティッチング処理を行い、前記各空間のそれぞれの3Dモデルによってスティッチングされた3Dモデル全体を形成する3Dモデルスティッチングユニットとを含む、ことを特徴とする自動3Dモデリング装置。
前記3Dモデルスティッチングユニットは、前記位置および撮影方向情報に基づいて、1つの空間の前記3Dモデルのローカル座標をグローバルワールド座標に変換することで、全ての空間の3Dモデル全体を取得する、ことを特徴とする付記22に記載の自動3Dモデリング装置。
前記空間は、部屋であり、
前記第1画像は、前記部屋の室内画像であり、
前記3Dモデル生成ユニットは、ディープラーニング技術に基づいて前記第1画像中の床、天井、壁の少なくとも1つを認識し、認識した画像を画像処理技術に基づいて複数のブロックに分割し、床と天井の画像ブロックが水平面内にあり、壁の画像ブロックが垂直面内にあるように、それぞれのブロックをおおよそ平面とみなし、各平面の方程式を解いて前記3Dモデルを生成し、ここで、前記第1画像中で交差する2つの平面については、算出された交差線と実際に観察された交差線との誤差を最小化し、
前記3Dモデル生成ユニットはさらに、コンピュータビジョン技術を用いて、前記室内画像中のコーナーを認識し、コーナーを連結して部屋の大まかなモデルを生成する、ことを特徴とする付記22または23に記載の自動3Dモデリング装置。
前記3Dモデルスティッチングユニットは、前記複数の部屋のそれぞれの3Dモデルを統一して補正し、そのうち、統計的手法を用いて、全部屋が一定の偏差範囲内で平行な壁線を持つように、全部屋の壁線方向を統一して補正することが含まれ、
前記3Dモデルスティッチングユニットは、前記各部屋の3Dモデルをスティッチングする時、重なり部分および/または現れた空洞を修正する、ことを特徴とする付記24に記載の自動3Dモデリング装置。
以下の方法、すなわち、
生成した前記3Dモデルの各平面を床に垂直な平面に投影し、これらの投影を1つのポリゴンに結合する方法と;
得られた前記ポリゴンを補正および簡略化する方法と、そのうち、以下の方法、
(1)前記ポリゴンの主要な頂点のみを残し、小さい凹凸を削除すること、
(2)コンピュータビジョン技術を使用して、画像内の直線を検出し、それによって壁の方向を決定し、壁の方向とほぼ平行または垂直な全てのエッジを対応する方向に修正すること、の少なくとも1つが含まれ;
前記位置および撮影方向情報に基づいて、生成した前記各部屋の2D平面図を同一の2次元座標系でスティッチング処理を行い、前記各部屋のそれぞれの2D平面図によってスティッチングされた2D平面図全体を形成する方法と;
ディープラーニングの方法を用いて、前記室内画像上でドアおよび/または窓の位置を認識すること、または、同一住宅に属する複数の部屋に対して前記第1画像をそれぞれ撮影した時に取得した移動軌跡と当該部屋の輪郭との交点に基づいて、ドアの位置を決定することが含まれる、ドアおよび/または窓の位置を認識してラベル付ける方法と、で2D平面図を生成する2D平面図生成ユニットをさらに含む、ことを特徴とする付記24に記載の自動3Dモデリング装置。
前記2D平面図生成ユニットは、前記複数の部屋のそれぞれの2D平面図を統一して補正し、そのうち、統計的手法を用いて、全部屋が一定の偏差範囲内で平行な壁線を持つように、全部屋の壁線方向を統一して補正することが含まれ、
前記2D平面図生成ユニットは、前記各部屋の2D平面図をスティッチングする時、重なり部分および/または現れた空洞を修正する、ことを特徴とする付記26に記載の自動3Dモデリング装置。
以下の方法、すなわち、
前記3Dモデルスティッチングユニットが生成した前記3Dモデル全体の各平面を床に垂直な平面に投影し、これらの投影を1つのポリゴンに結合する方法と;
得られた前記ポリゴンを補正および簡略化する方法と、そのうち、以下の方法、
(1)前記ポリゴンの主要な頂点のみを残し、小さい凹凸を削除すること、
(2)コンピュータビジョン技術を使用して、画像内の直線を検出し、それによって壁の方向を決定し、壁の方向とほぼ平行または垂直な全てのエッジを対応する方向に修正すること、の少なくとも1つが含まれ;
ディープラーニングの方法を用いて、前記室内画像上でドアおよび/または窓の位置を認識すること、または、同一住宅に属する複数の部屋に対して前記第1画像をそれぞれ撮影した時の移動軌跡と当該部屋の輪郭との交点に基づいて、ドアの位置を決定することが含まれる、ドアおよび/または窓の位置を認識してラベル付ける方法と、で2D平面図を生成する2D平面図生成ユニットをさらに含む、ことを特徴とする付記24に記載の自動3Dモデリング装置。
モデリングオブジェクトに含まれる複数の空間のそれぞれの第1画像に基づいて、前記各空間の3Dモデルをそれぞれ生成する3Dモデル生成ステップと、
前記複数の空間のそれぞれの前記第1画像が撮影された時の位置および撮影方向情報に基づいて、前記3Dモデル生成ステップで生成した前記各空間の3Dモデルを同一の三次元座標系でスティッチング処理を行い、前記各空間のそれぞれの3Dモデルによってスティッチングされた3Dモデル全体を形成する3Dモデルスティッチングステップとを含む、ことを特徴とする自動3Dモデリング方法。
前記3Dモデルスティッチングステップでは、前記位置および撮影方向情報に基づいて、1つの空間の前記3Dモデルのローカル座標をグローバルワールド座標に変換することで、全ての空間の3Dモデル全体を取得する、ことを特徴とする付記29に記載の自動3Dモデリング方法。
前記空間は、部屋であり、
前記第1画像は、前記部屋の室内画像であり、
前記3Dモデル生成ステップでは、ディープラーニング技術に基づいて前記第1画像中の床、天井、壁の少なくとも1つを認識し、認識した画像を画像処理技術に基づいて複数のブロックに分割し、床と天井の画像ブロックが水平面内にあり、壁の画像ブロックが垂直面内にあるように、それぞれのブロックをおおよそ平面とみなし、各平面の方程式を解いて前記3Dモデルを生成し、ここで、前記第1画像中で交差する2つの平面については、算出された交差線と実際に観察された交差線との誤差を最小化し、
前記3Dモデル生成ステップでは、さらに、コンピュータビジョン技術を用いて、前記室内画像中のコーナーを認識し、コーナーを連結して部屋の大まかなモデルを生成する、ことを特徴とする付記29または30に記載の自動3Dモデリング方法。
以下の方法、すなわち、
生成した前記3Dモデルの各平面を床に垂直な平面に投影し、これらの投影を1つのポリゴンに結合する方法と;
得られた前記ポリゴンを補正および簡略化する方法と、そのうち、以下の方法、
(1)前記ポリゴンの主要な頂点のみを残し、小さい凹凸を削除すること、
(2)コンピュータビジョン技術を使用して、画像内の直線を検出し、それによって壁の方向を決定し、壁の方向とほぼ平行または垂直な全てのエッジを対応する方向に修正すること、の少なくとも1つが含まれ;
前記位置および撮影方向情報に基づいて、生成した前記各部屋の2D平面図を同一の二次元座標系でスティッチング処理を行い、前記各部屋のそれぞれの2D平面図によってスティッチングされた2D平面図全体を形成する方法と;
ディープラーニングの方法を用いて、前記室内画像上でドアおよび/または窓の位置を認識すること、または、同一住宅に属する複数の部屋に対して前記第1画像をそれぞれ撮影した時に取得した移動軌跡と当該部屋の輪郭との交点に基づいて、ドアの位置を決定することが含まれる、ドアおよび/または窓の位置を認識してラベル付ける方法と、で2D平面図を生成する2D平面図生成ステップをさらに含む、ことを特徴とする付記31に記載の自動3Dモデリング方法。
前記2D平面図生成ステップでは、前記複数の部屋のそれぞれの2D平面図を統一して補正し、そのうち、統計的手法を用いて、全部屋が一定の偏差範囲内で平行な壁線を持つように、全部屋の壁線方向を統一して補正することが含まれ、
前記2D平面図生成ステップでは、前記各部屋の2D平面図をスティッチングする時、重なり部分および/または現れた空洞を修正する、ことを特徴とする付記32に記載の自動3Dモデリング方法。
以下の方法、すなわち、
前記3Dモデルスティッチングステップで生成した前記3Dモデル全体の各平面を床に垂直な平面に投影し、これらの投影を1つのポリゴンに結合する方法と;
得られた前記ポリゴンを補正および簡略化する方法と、そのうち、以下の方法、
(1)前記ポリゴンの主要な頂点のみを残し、小さい凹凸を削除すること、
(2)コンピュータビジョン技術を使用して、画像内の直線を検出し、それによって壁の方向を決定し、壁の方向とほぼ平行または垂直な全てのエッジを対応する方向に修正すること、の少なくとも1つが含まれ;
ディープラーニングの方法を用いて、前記室内画像上でドアおよび/または窓の位置を認識すること、または、同一住宅に属する複数の部屋に対して前記第1画像をそれぞれ撮影した時の移動軌跡と当該部屋の輪郭との交点に基づいて、ドアの位置を決定することが含まれる、ドアおよび/または窓の位置を認識してラベル付ける方法と、で2D平面図を生成する2D平面図生成ステップをさらに含む、ことを特徴とする付記31に記載の自動3Dモデリング方法。
S1)カメラ機能付きモバイル機器およびカメラを同一の撮影スタンドに固定するステップと、
S2)スタンドを移動させる過程で、カメラまたはモバイル機器からの複数の第2画像を取得し、前記カメラまたはモバイル機器のセンサと組み合わせて各撮影点の位置と撮影方向を取得し、統一座標系を用いたロードマップを形成するステップと、
S3)前記モバイル機器またはリモートサーバ側で、各撮影点撮影の第1画像に基づいて、3Dモデリングを行うステップと、
S4)S2で取得された位置および撮影方向に応じて、各撮影点の前記3Dモデルを同一の三次元座標系に配置し、複数の撮影点3Dモデル間の結合部分をスティッチングし、複数の撮影点が含まれる3Dモデル全体を形成するステップとを含む、ことを特徴とする撮影に基づく3Dモデリング方法。
前記ステップS2では、前記モバイル機器またはカメラの位置決めシステムに基づいて、前記モバイル機器またはカメラで撮影した第2画像を用いて、近似した撮影点の第2画像の特徴点を照合することにより、撮影点の相対変位および撮影方向情報を見つけ、全ての撮影点を同一の座標系に含む前記ロードマップを形成し、各撮影点の位置および方向を提供する、ことを特徴とする付記35に記載の撮影に基づく3Dモデリング方法。
前記ステップS2は、さらに、前記モバイル機器またはカメラを用いて、移動加速度、速度、および方向情報を取得することにより、前記ロードマップを補正することを含む、ことを特徴とする付記35または36に記載の撮影に基づく3Dモデリング方法。
前記ステップS2は、前記カメラのレンズと前記モバイル機器の撮影方向との間の角度を取得することをさらに含み、そのうち、初期化段階で、前記モバイル機器に基づく位置決めシステムと前記カメラに基づく位置決めシステムを同時に動作させ、スタンドを一定の距離だけ移動させ、この時、2つのシステムがそれぞれ1つの変位ベクトルを提供し、2つのベクトルの間の角度を、前記カメラのレンズと前記モバイル機器の撮影方向との間の角度とすること;あるいは、前記カメラのプレビュー画像または撮影画像を手動で回転させて、前記モバイル機器の撮影方向と一致する角度を指定すること;あるいは、前記モバイル機器と前記カメラのプレビュー画像または撮影画像を画像認識アルゴリズムで照合することによって、その角度を見つけること;あるいは、スタンドに目盛りを付けるなど、追加のマーキングを使用して、前記モバイル機器の設置方向と一定の角度を形成し、その後、前記カメラのプレビュー画像または画像の中の当該マーキングを認識して、前記カメラのレンズと前記モバイル機器の撮影方向との間の角度を算出することが含まれる、ことを特徴とする付記36に記載の撮影に基づく3Dモデリング方法。
前記ステップS3は、
S31)ディープラーニング技術に基づいて、画像中の床、天井、壁の少なくとも1つを認識するステップと、
S32)認識した画像を画像処理技術に基づいて複数のブロックに分割し、床と天井の画像ブロックが水平面内にあり、壁の画像ブロックが垂直面内にあるように、それぞれのブロックをおおよそ平面とみなし、各平面の方程式を解いて前記3Dモデルを生成し、画像中で交差する2つの平面については、2つの平面の交差線を制約条件とし、算出された交差線と実際に観察された交差線との誤差を最小化するステップとを含む、ことを特徴とする付記35に記載の撮影に基づく3Dモデリング方法。
前記ステップS3はさらに、コンピュータビジョン技術を用いて、室内画像中のコーナーを認識し、コーナーを連結して部屋の大まかなモデルを生成するステップを含む、ことを特徴とする付記35に記載の撮影に基づく3Dモデリング方法。
前記ステップS4は、
S41)各撮影点の位置と撮影方向に基づいて、シングル撮影点の3Dモデルのローカル座標をグローバルワールド座標に変換することで、全ての撮影点の3Dモデル全体を取得するステップと、
S42)複数の撮影点の3Dモデルを統一して補正するステップと、そのうち、統計的手法を用いて、全部屋が一定の偏差範囲内で平行な壁線を持つように、全ての撮影点の壁線方向を統一して補正することが含まれ、
S43)各撮影点の3Dモデルをスティッチングする時、重なり部分および/または現れた空洞を修正するステップとを含む、ことを特徴とする付記35に記載の撮影に基づく3Dモデリング方法。
Claims (41)
- 複数の空間に対して当該空間の第1画像をそれぞれ撮影するための撮影ユニットと、
前記各空間ごとに前記撮影ユニットが撮影した前記第1画像に基づいて、前記各空間の3Dモデルをそれぞれ生成する3Dモデル生成ユニットと、
前記撮影ユニットが各空間の第1画像を撮影した時の位置および撮影方向情報を取得するための撮影位置取得ユニットと、
前記位置および撮影方向情報に基づいて、前記各空間の3Dモデルを同一の三次元座標系でスティッチング処理を行い、前記各空間が含まれる3Dモデル全体を形成する3Dモデルスティッチングユニットとを含む、ことを特徴とする撮影に基づく3Dモデリングシステム。 - 前記撮影ユニットは、前記各空間の間を移動する過程で複数の第2画像を撮影し、
前記撮影位置取得ユニットは、前記複数の第2画像を用いて特徴点照合を行うことにより、各撮影点の相対変位および撮影方向情報を取得する、ことを特徴とする請求項1に記載の撮影に基づく3Dモデリングシステム。 - 前記撮影ユニットは、位置決めセンサと方向センサを有し、
前記撮影位置取得ユニットは、前記撮影ユニットが位置される空間の第1画像を撮影した時に提供される位置決め情報と方向情報に基づいて、前記撮影ユニットが位置される空間の第1画像を撮影した時の位置および撮影方向情報を取得する、ことを特徴とする請求項1に記載の撮影に基づく3Dモデリングシステム。 - 前記撮影ユニットは、前記各空間の間を移動する過程で複数の第2画像を撮影し、
前記撮影ユニットは、位置決めセンサと方向センサを有し、
前記撮影位置取得ユニットは、前記複数の第2画像を用いて特徴点照合を行うことにより、各撮影点の相対変位情報および撮影方向情報を取得し、かつ前記撮影ユニットが位置される空間の第1画像を撮影した時の位置決め情報と方向情報に基づいて、前記相対変位および撮影方向情報を補正することにより、前記撮影ユニットが位置される空間の第1画像を撮影した時の位置および撮影方向情報を取得する、ことを特徴とする請求項1に記載の撮影に基づく3Dモデリングシステム。 - 前記撮影位置取得ユニットは、変位センサが取得した変位情報に基づいて、前記相対変位および撮影方向情報を補正する、ことを特徴とする請求項4に記載の撮影に基づく3Dモデリングシステム。
- 前記3Dモデルスティッチングユニットは、各空間を撮影する際に前記撮影位置取得ユニットが取得した前記位置および撮影方向情報に基づいて、1つの空間の前記3Dモデルのローカル座標をグローバルワールド座標に変換することで、前記複数の空間の3Dモデル全体を取得する、ことを特徴とする請求項1に記載の撮影に基づく3Dモデリングシステム。
- 前記1つの空間の前記3Dモデルのローカル座標をグローバルワールド座標に変換することは、
前記撮影ユニットを所定距離で移動させることと、
前記撮影位置取得ユニットに前記所定距離の2つの端点の位置情報を取得させることと、
前記2つの端点の位置の差と前記所定距離との比を、前記ローカル座標と前記ワールド座標との比として取得することとを含む、ことを特徴とする請求項6に記載の撮影に基づく3Dモデリングシステム。 - 前記1つの空間の前記3Dモデルのローカル座標をグローバルワールド座標に変換することは、
前記撮影位置取得ユニットが前記第1画像上で特徴点を認識することと、
認識された前記特徴点に基づいて、前記空間の底面または上面が位置する平面の高さを推定することと、
前記空間の底面または上面が位置する平面の高さと前記撮影ユニットの高さとの比を、前記ローカル座標と前記ワールド座標との比として取得することとを含む、ことを特徴とする請求項6に記載の撮影に基づく3Dモデリングシステム。 - 前記撮影ユニットが最初の撮影点を撮影する前に、またはその後の撮影の移動中に、所定距離を移動させて所定数の前記特徴点を取得する、ことを特徴とする請求項8に記載の撮影に基づく3Dモデリングシステム。
- 前記撮影ユニットは、同一の撮影点で前記第1画像をそれぞれ撮影する2眼レンズを有し、
前記3Dモデル生成ユニットは、それぞれの前記2眼レンズで撮影された前記第1画像を比較して対応する画素を決定し、前記3Dモデルの生成に用いるための対応する前記各画素の深さ情報を取得する、ことを特徴とする請求項1に記載の撮影に基づく3Dモデリングシステム。 - 前記3Dモデル生成ユニットは、ディープラーニング技術を用いて、前記第1画像における各画素の深さを予測し、前記ディープラーニング技術を計算または直接適用して前記各画素の法線方向を予測する、ことを特徴とする請求項1に記載の撮影に基づく3Dモデリングシステム。
- 前記撮影ユニットは、カメラおよび/またはカメラ機能付きモバイル機器によって実現され、
前記3Dモデル生成ユニットは、前記モバイル機器またはリモートサーバによって実現され、前記リモートサーバによって実現される場合には、ネットワークを介して、前記カメラおよび/または前記カメラ機能付きモバイル機器が撮影して送信した第1画像を受信して、前記各空間の3Dモデルを生成し、
前記撮影位置取得ユニットは、前記カメラまたは前記モバイル機器によって実現され、
前記3Dモデルスティッチングユニットは、前記モバイル機器またはリモートサーバによって実現され、前記リモートサーバによって実現される場合には、ネットワークを介して、前記撮影位置取得ユニットから送信された各空間の前記位置および撮影方向情報を受信し、当該位置および撮影方向情報に基づいて前記スティッチング処理を完了し、生成した前記3Dモデル全体を前記モバイル機器または他の機器に送信する、ことを特徴とする請求項1−11のいずれか一項に記載の撮影に基づく3Dモデリングシステム。 - 前記撮影ユニットを実装したカメラと、カメラ機能付きモバイル機器とを同一の撮影スタンドに固定し、
前記スタンドを移動させる過程で、前記カメラまたは前記カメラ機能付きモバイル機器が撮影した複数の第2画像を取得し、それにより、前記カメラまたは前記カメラ機能付きモバイル機器が位置される空間に対して第1画像を撮影した時の位置および撮影方向情報を取得する、ことを特徴とする請求項12に記載の撮影に基づく3Dモデリングシステム。 - 前記カメラまたは前記カメラ機能付きモバイル機器の位置決めシステムに基づいて、前記カメラまたは前記カメラ機能付きモバイル機器が撮影した第2画像を用いて、近接した撮影点の第2画像の特徴点を照合することにより、各撮影点の相対変位情報および撮影方向情報を取得し、各撮影点の相対位置および方向を提供する、ことを特徴とする請求項13に記載の撮影に基づく3Dモデリングシステム。
- 前記撮影ユニットが前記第1空間の前記第1画像を撮影する前に、あるいはその後の移動中に、以下の方法、すなわち、
(1)前記モバイル機器に基づく位置決めシステムと前記カメラに基づく位置決めシステムを同時に動作させ、前記スタンドを一定の距離で移動させ、この時、2つのシステムがそれぞれ1つの変位ベクトルを提供し、2つのベクトルの間の角度を、前記カメラのレンズと前記モバイル機器の撮影方向との間の角度とする方法、
(2)前記カメラのプレビュー画像または撮影画像を手動で回転させて、前記モバイル機器の撮影方向と一致する角度を指定する方法、
(3)前記モバイル機器と前記カメラのプレビュー画像または撮影画像を画像認識アルゴリズムで照合することによって、前記角度を見つける方法、
(4)スタンドに目盛りを付けるなど、追加のマーキングを使用して、前記モバイル機器の設置方向と一定の角度を形成し、その後、前記カメラのプレビュー画像または画像の中の当該マーキングを認識して、前記カメラのレンズと前記モバイル機器の撮影方向との間の角度を算出する方法、
(5)前記スタンドにスロットを設けることにより、前記カメラと前記モバイル機器との間の既知の固定角度を確保する方法、の1つ以上で、前記カメラのレンズと前記モバイル機器の撮影方向とのなす角度を取得することをさらに含む、ことを特徴とする請求項13に記載の撮影に基づく3Dモデリングシステム。 - 前記空間は、部屋であり、
前記第1画像は、前記部屋の室内画像であり、
前記3Dモデル生成ユニットは、ディープラーニング技術に基づいて前記第1画像中の床、天井、壁の少なくとも1つを認識し、認識した画像を画像処理技術に基づいて複数のブロックに分割し、床と天井の画像ブロックが水平面内にあり、壁の画像ブロックが垂直面内にあるように、それぞれのブロックをおおよそ平面とみなし、各平面の方程式を解いて前記3Dモデルを生成し、ここで、前記第1画像中で交差する2つの平面については、算出された交差線と実際に観察された交差線との誤差を最小化する、ことを特徴とする請求項1に記載の撮影に基づく3Dモデリングシステム。 - 前記3Dモデル生成ユニットはさらに、コンピュータビジョン技術を用いて、前記室内画像中のコーナーを認識し、コーナーを連結して部屋の大まかなモデルを生成する、ことを特徴とする請求項16に記載の撮影に基づく3Dモデリングシステム。
- 前記3Dモデルスティッチングユニットは、前記複数の部屋のそれぞれの3Dモデルを統一して補正し、そのうち、統計的手法を用いて、全部屋が一定の偏差範囲内で平行な壁線を持つように、全部屋の壁線方向を統一して補正することが含まれ、
前記3Dモデルスティッチングユニットは、前記各部屋の3Dモデルをスティッチングする時、重なり部分および/または現れた空洞を修正する、ことを特徴とする請求項16に記載の撮影に基づく3Dモデリングシステム。 - 以下の方法、すなわち、
生成した前記3Dモデルの各平面を床に垂直な平面に投影し、これらの投影を1つのポリゴンに結合する方法と;
得られた前記ポリゴンを補正および簡略化する方法と、そのうち、以下の方法、
(1)前記ポリゴンの主要な頂点のみを残し、小さい凹凸を削除すること、
(2)コンピュータビジョン技術を使用して、画像内の直線を検出し、それによって壁の方向を決定し、壁の方向とほぼ平行または垂直な全てのエッジを対応する方向に修正すること、の少なくとも1つが含まれ;
前記撮影位置取得ユニットが取得した各空間の前記位置および撮影方向情報に基づいて、生成した前記各部屋の2D平面図を同一の二次元座標系でスティッチング処理を行い、前記各部屋のそれぞれの2D平面図によってスティッチングされた2D平面図全体を形成する方法と;
ディープラーニングの方法を用いて、前記室内画像上でドアおよび/または窓の位置を認識すること、または、前記撮影ユニットが同一住宅に属する複数の部屋に対して前記第1画像をそれぞれ撮影した時の移動軌跡と当該部屋の輪郭との交点に基づいて、ドアの位置を決定することが含まれる、ドアおよび/または窓の位置を認識してラベル付ける方法と、で2D平面図を生成する2D平面図生成ユニットをさらに含む、ことを特徴とする請求項16に記載の撮影に基づく3Dモデリングシステム。 - 前記2D平面図生成ユニットは、前記複数の部屋のそれぞれの2D平面図を統一して補正し、そのうち、統計的手法を用いて、全部屋が一定の偏差範囲内で平行な壁線を持つように、全部屋の壁線方向を統一して補正することが含まれ、
前記2D平面図生成ユニットは、前記各部屋の2D平面図をスティッチングする時、重なり部分および/または現れた空洞を修正する、ことを特徴とする請求項19に記載の撮影に基づく3Dモデリングシステム。 - 以下の方法、すなわち、
前記3Dモデルスティッチングユニットが生成した前記3Dモデル全体の各平面を床に垂直な平面に投影し、これらの投影を1つのポリゴンに結合する方法と;
得られた前記ポリゴンを補正および簡略化する方法と、そのうち、以下の方法、
(1)前記ポリゴンの主要な頂点のみを残し、小さい凹凸を削除すること、
(2)コンピュータビジョン技術を使用して、画像内の直線を検出し、それによって壁の方向を決定し、壁の方向とほぼ平行または垂直な全てのエッジを対応する方向に修正すること、の少なくとも1つが含まれ;
ディープラーニングの方法を用いて、前記室内画像上でドアおよび/または窓の位置を認識すること、または、前記撮影ユニットが同一住宅に属する複数の部屋に対して前記第1画像をそれぞれ撮影した時の移動軌跡と当該部屋の輪郭との交点に基づいて、ドアの位置を決定することが含まれる、ドアおよび/または窓の位置を認識してラベル付ける方法と、で2D平面図を生成する2D平面図生成ユニットをさらに含む、ことを特徴とする請求項16に記載の撮影に基づく3Dモデリングシステム。 - モデリングオブジェクトに含まれる複数の空間のそれぞれの第1画像に基づいて、前記複数の空間のそれぞれの3Dモデルを生成する3Dモデル生成ユニットと、
前記複数の空間のそれぞれの前記第1画像が撮影された時の位置および撮影方向情報に基づいて、前記3Dモデル生成ユニットで生成した前記各空間の3Dモデルを同一の3次元座標系でスティッチング処理を行い、前記各空間のそれぞれの3Dモデルによってスティッチングされた3Dモデル全体を形成する3Dモデルスティッチングユニットとを含む、ことを特徴とする自動3Dモデリング装置。 - 前記3Dモデルスティッチングユニットは、前記位置および撮影方向情報に基づいて、1つの空間の前記3Dモデルのローカル座標をグローバルワールド座標に変換することで、全ての空間の3Dモデル全体を取得する、ことを特徴とする請求項22に記載の自動3Dモデリング装置。
- 前記空間は、部屋であり、
前記第1画像は、前記部屋の室内画像であり、
前記3Dモデル生成ユニットは、ディープラーニング技術に基づいて前記第1画像中の床、天井、壁の少なくとも1つを認識し、認識した画像を画像処理技術に基づいて複数のブロックに分割し、床と天井の画像ブロックが水平面内にあり、壁の画像ブロックが垂直面内にあるように、それぞれのブロックをおおよそ平面とみなし、各平面の方程式を解いて前記3Dモデルを生成し、ここで、前記第1画像中で交差する2つの平面については、算出された交差線と実際に観察された交差線との誤差を最小化し、
前記3Dモデル生成ユニットはさらに、コンピュータビジョン技術を用いて、前記室内画像中のコーナーを認識し、コーナーを連結して部屋の大まかなモデルを生成する、ことを特徴とする請求項22または23に記載の自動3Dモデリング装置。 - 前記3Dモデルスティッチングユニットは、前記複数の部屋のそれぞれの3Dモデルを統一して補正し、そのうち、統計的手法を用いて、全部屋が一定の偏差範囲内で平行な壁線を持つように、全部屋の壁線方向を統一して補正することが含まれ、
前記3Dモデルスティッチングユニットは、前記各部屋の3Dモデルをスティッチングする時、重なり部分および/または現れた空洞を修正する、ことを特徴とする請求項24に記載の自動3Dモデリング装置。 - 以下の方法、すなわち、
生成した前記3Dモデルの各平面を床に垂直な平面に投影し、これらの投影を1つのポリゴンに結合する方法と;
得られた前記ポリゴンを補正および簡略化する方法と、そのうち、以下の方法、
(1)前記ポリゴンの主要な頂点のみを残し、小さい凹凸を削除すること、
(2)コンピュータビジョン技術を使用して、画像内の直線を検出し、それによって壁の方向を決定し、壁の方向とほぼ平行または垂直な全てのエッジを対応する方向に修正すること、の少なくとも1つが含まれ;
前記位置および撮影方向情報に基づいて、生成した前記各部屋の2D平面図を同一の2次元座標系でスティッチング処理を行い、前記各部屋のそれぞれの2D平面図によってスティッチングされた2D平面図全体を形成する方法と;
ディープラーニングの方法を用いて、前記室内画像上でドアおよび/または窓の位置を認識すること、または、同一住宅に属する複数の部屋に対して前記第1画像をそれぞれ撮影した時に取得した移動軌跡と当該部屋の輪郭との交点に基づいて、ドアの位置を決定することが含まれる、ドアおよび/または窓の位置を認識してラベル付ける方法と、で2D平面図を生成する2D平面図生成ユニットをさらに含む、ことを特徴とする請求項24に記載の自動3Dモデリング装置。 - 前記2D平面図生成ユニットは、前記複数の部屋のそれぞれの2D平面図を統一して補正し、そのうち、統計的手法を用いて、全部屋が一定の偏差範囲内で平行な壁線を持つように、全部屋の壁線方向を統一して補正することが含まれ、
前記2D平面図生成ユニットは、前記各部屋の2D平面図をスティッチングする時、重なり部分および/または現れた空洞を修正する、ことを特徴とする請求項26に記載の自動3Dモデリング装置。 - 以下の方法、すなわち、
前記3Dモデルスティッチングユニットが生成した前記3Dモデル全体の各平面を床に垂直な平面に投影し、これらの投影を1つのポリゴンに結合する方法と;
得られた前記ポリゴンを補正および簡略化する方法と、そのうち、以下の方法、
(1)前記ポリゴンの主要な頂点のみを残し、小さい凹凸を削除すること、
(2)コンピュータビジョン技術を使用して、画像内の直線を検出し、それによって壁の方向を決定し、壁の方向とほぼ平行または垂直な全てのエッジを対応する方向に修正すること、の少なくとも1つが含まれ;
ディープラーニングの方法を用いて、前記室内画像上でドアおよび/または窓の位置を認識すること、または、同一住宅に属する複数の部屋に対して前記第1画像をそれぞれ撮影した時の移動軌跡と当該部屋の輪郭との交点に基づいて、ドアの位置を決定することが含まれる、ドアおよび/または窓の位置を認識してラベル付ける方法と、で2D平面図を生成する2D平面図生成ユニットをさらに含む、ことを特徴とする請求項24に記載の自動3Dモデリング装置。 - モデリングオブジェクトに含まれる複数の空間のそれぞれの第1画像に基づいて、前記各空間の3Dモデルをそれぞれ生成する3Dモデル生成ステップと、
前記複数の空間のそれぞれの前記第1画像が撮影された時の位置および撮影方向情報に基づいて、前記3Dモデル生成ステップで生成した前記各空間の3Dモデルを同一の三次元座標系でスティッチング処理を行い、前記各空間のそれぞれの3Dモデルによってスティッチングされた3Dモデル全体を形成する3Dモデルスティッチングステップとを含む、ことを特徴とする自動3Dモデリング方法。 - 前記3Dモデルスティッチングステップでは、前記位置および撮影方向情報に基づいて、1つの空間の前記3Dモデルのローカル座標をグローバルワールド座標に変換することで、全ての空間の3Dモデル全体を取得する、ことを特徴とする請求項29に記載の自動3Dモデリング方法。
- 前記空間は、部屋であり、
前記第1画像は、前記部屋の室内画像であり、
前記3Dモデル生成ステップでは、ディープラーニング技術に基づいて前記第1画像中の床、天井、壁の少なくとも1つを認識し、認識した画像を画像処理技術に基づいて複数のブロックに分割し、床と天井の画像ブロックが水平面内にあり、壁の画像ブロックが垂直面内にあるように、それぞれのブロックをおおよそ平面とみなし、各平面の方程式を解いて前記3Dモデルを生成し、ここで、前記第1画像中で交差する2つの平面については、算出された交差線と実際に観察された交差線との誤差を最小化し、
前記3Dモデル生成ステップでは、さらに、コンピュータビジョン技術を用いて、前記室内画像中のコーナーを認識し、コーナーを連結して部屋の大まかなモデルを生成する、ことを特徴とする請求項29または30に記載の自動3Dモデリング方法。 - 以下の方法、すなわち、
生成した前記3Dモデルの各平面を床に垂直な平面に投影し、これらの投影を1つのポリゴンに結合する方法と;
得られた前記ポリゴンを補正および簡略化する方法と、そのうち、以下の方法、
(1)前記ポリゴンの主要な頂点のみを残し、小さい凹凸を削除すること、
(2)コンピュータビジョン技術を使用して、画像内の直線を検出し、それによって壁の方向を決定し、壁の方向とほぼ平行または垂直な全てのエッジを対応する方向に修正すること、の少なくとも1つが含まれ;
前記位置および撮影方向情報に基づいて、生成した前記各部屋の2D平面図を同一の二次元座標系でスティッチング処理を行い、前記各部屋のそれぞれの2D平面図によってスティッチングされた2D平面図全体を形成する方法と;
ディープラーニングの方法を用いて、前記室内画像上でドアおよび/または窓の位置を認識すること、または、同一住宅に属する複数の部屋に対して前記第1画像をそれぞれ撮影した時に取得した移動軌跡と当該部屋の輪郭との交点に基づいて、ドアの位置を決定することが含まれる、ドアおよび/または窓の位置を認識してラベル付ける方法と、で2D平面図を生成する2D平面図生成ステップをさらに含む、ことを特徴とする請求項31に記載の自動3Dモデリング方法。 - 前記2D平面図生成ステップでは、前記複数の部屋のそれぞれの2D平面図を統一して補正し、そのうち、統計的手法を用いて、全部屋が一定の偏差範囲内で平行な壁線を持つように、全部屋の壁線方向を統一して補正することが含まれ、
前記2D平面図生成ステップでは、前記各部屋の2D平面図をスティッチングする時、重なり部分および/または現れた空洞を修正する、ことを特徴とする請求項32に記載の自動3Dモデリング方法。 - 以下の方法、すなわち、
前記3Dモデルスティッチングステップで生成した前記3Dモデル全体の各平面を床に垂直な平面に投影し、これらの投影を1つのポリゴンに結合する方法と;
得られた前記ポリゴンを補正および簡略化する方法と、そのうち、以下の方法、
(1)前記ポリゴンの主要な頂点のみを残し、小さい凹凸を削除すること、
(2)コンピュータビジョン技術を使用して、画像内の直線を検出し、それによって壁の方向を決定し、壁の方向とほぼ平行または垂直な全てのエッジを対応する方向に修正すること、の少なくとも1つが含まれ;
ディープラーニングの方法を用いて、前記室内画像上でドアおよび/または窓の位置を認識すること、または、同一住宅に属する複数の部屋に対して前記第1画像をそれぞれ撮影した時の移動軌跡と当該部屋の輪郭との交点に基づいて、ドアの位置を決定することが含まれる、ドアおよび/または窓の位置を認識してラベル付ける方法と、で2D平面図を生成する2D平面図生成ステップをさらに含む、ことを特徴とする請求項31に記載の自動3Dモデリング方法。 - S1)カメラ機能付きモバイル機器およびカメラを同一の撮影スタンドに固定するステップと、
S2)スタンドを移動させる過程で、カメラまたはモバイル機器からの複数の第2画像を取得し、前記カメラまたはモバイル機器のセンサと組み合わせて各撮影点の位置と撮影方向を取得し、統一座標系を用いたロードマップを形成するステップと、
S3)前記モバイル機器またはリモートサーバ側で、各撮影点撮影の第1画像に基づいて、3Dモデリングを行うステップと、
S4)S2で取得された位置および撮影方向に応じて、各撮影点の前記3Dモデルを同一の三次元座標系に配置し、複数の撮影点3Dモデル間の結合部分をスティッチングし、複数の撮影点が含まれる3Dモデル全体を形成するステップとを含む、ことを特徴とする撮影に基づく3Dモデリング方法。 - 前記ステップS2では、前記モバイル機器またはカメラの位置決めシステムに基づいて、前記モバイル機器またはカメラで撮影した第2画像を用いて、近似した撮影点の第2画像の特徴点を照合することにより、撮影点の相対変位および撮影方向情報を見つけ、全ての撮影点を同一の座標系に含む前記ロードマップを形成し、各撮影点の位置および方向を提供する、ことを特徴とする請求項35に記載の撮影に基づく3Dモデリング方法。
- 前記ステップS2は、さらに、前記モバイル機器またはカメラを用いて、移動加速度、速度、および方向情報を取得することにより、前記ロードマップを補正することを含む、ことを特徴とする請求項35または36に記載の撮影に基づく3Dモデリング方法。
- 前記ステップS2は、前記カメラのレンズと前記モバイル機器の撮影方向との間の角度を取得することをさらに含み、そのうち、初期化段階で、前記モバイル機器に基づく位置決めシステムと前記カメラに基づく位置決めシステムを同時に動作させ、スタンドを一定の距離だけ移動させ、この時、2つのシステムがそれぞれ1つの変位ベクトルを提供し、2つのベクトルの間の角度を、前記カメラのレンズと前記モバイル機器の撮影方向との間の角度とすること;あるいは、前記カメラのプレビュー画像または撮影画像を手動で回転させて、前記モバイル機器の撮影方向と一致する角度を指定すること;あるいは、前記モバイル機器と前記カメラのプレビュー画像または撮影画像を画像認識アルゴリズムで照合することによって、その角度を見つけること;あるいは、スタンドに目盛りを付けるなど、追加のマーキングを使用して、前記モバイル機器の設置方向と一定の角度を形成し、その後、前記カメラのプレビュー画像または画像の中の当該マーキングを認識して、前記カメラのレンズと前記モバイル機器の撮影方向との間の角度を算出することが含まれる、ことを特徴とする請求項36に記載の撮影に基づく3Dモデリング方法。
- 前記ステップS3は、
S31)ディープラーニング技術に基づいて、画像中の床、天井、壁の少なくとも1つを認識するステップと、
S32)認識した画像を画像処理技術に基づいて複数のブロックに分割し、床と天井の画像ブロックが水平面内にあり、壁の画像ブロックが垂直面内にあるように、それぞれのブロックをおおよそ平面とみなし、各平面の方程式を解いて前記3Dモデルを生成し、画像中で交差する2つの平面については、2つの平面の交差線を制約条件とし、算出された交差線と実際に観察された交差線との誤差を最小化するステップとを含む、ことを特徴とする請求項35に記載の撮影に基づく3Dモデリング方法。 - 前記ステップS3はさらに、コンピュータビジョン技術を用いて、室内画像中のコーナーを認識し、コーナーを連結して部屋の大まかなモデルを生成するステップを含む、ことを特徴とする請求項35に記載の撮影に基づく3Dモデリング方法。
- 前記ステップS4は、
S41)各撮影点の位置と撮影方向に基づいて、シングル撮影点の3Dモデルのローカル座標をグローバルワールド座標に変換することで、全ての撮影点の3Dモデル全体を取得するステップと、
S42)複数の撮影点の3Dモデルを統一して補正するステップと、そのうち、統計的手法を用いて、全部屋が一定の偏差範囲内で平行な壁線を持つように、全ての撮影点の壁線方向を統一して補正することが含まれ、
S43)各撮影点の3Dモデルをスティッチングする時、重なり部分および/または現れた空洞を修正するステップとを含む、ことを特徴とする請求項35に記載の撮影に基づく3Dモデリング方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910784772.1A CN110505463A (zh) | 2019-08-23 | 2019-08-23 | 基于拍照的实时自动3d建模方法 |
CN201910784772.1 | 2019-08-23 | ||
PCT/CN2020/090469 WO2021036353A1 (zh) | 2019-08-23 | 2020-05-15 | 基于拍照的3d建模系统及方法、自动3d建模装置及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022501684A true JP2022501684A (ja) | 2022-01-06 |
JP7223449B2 JP7223449B2 (ja) | 2023-02-16 |
Family
ID=74647024
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020571820A Active JP7223449B2 (ja) | 2019-08-23 | 2020-05-15 | 撮影に基づく3dモデリングシステム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11557083B2 (ja) |
JP (1) | JP7223449B2 (ja) |
GB (1) | GB2591857B (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3059798B1 (fr) * | 2016-12-05 | 2019-08-02 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | Procede de construction d'une maquette numerique 3d a partir d'un plan 2d |
WO2021137638A1 (ko) * | 2020-01-03 | 2021-07-08 | 삼성전자 주식회사 | 영상 처리를 위한 전자 장치, 방법 및 비일시적 저장 매체 |
CN113109364B (zh) * | 2021-03-22 | 2021-12-17 | 深圳格芯集成电路装备有限公司 | 一种芯片缺陷的检测方法及装置 |
CN113034596B (zh) * | 2021-03-26 | 2022-05-13 | 浙江大学 | 一种三维物体检测与跟踪方法 |
KR102403258B1 (ko) * | 2021-12-15 | 2022-05-30 | 주식회사 리콘랩스 | 볼륨 추론 기반 3차원 모델링 방법 및 시스템 |
CN114463549A (zh) * | 2021-12-29 | 2022-05-10 | 广州极飞科技股份有限公司 | 特征提取网络模型的训练方法、图像处理方法及其装置 |
CN114461104B (zh) * | 2022-02-07 | 2024-04-16 | 深圳须弥云图空间科技有限公司 | 楼型拼合方法、装置、设备及存储介质 |
WO2023247015A1 (en) * | 2022-06-21 | 2023-12-28 | Telefonaktiebolaget Lm Ericsson (Publ) | Determining a scale factor |
CN115830161B (zh) * | 2022-11-21 | 2023-10-31 | 北京城市网邻信息技术有限公司 | 户型图生成方法、装置、设备和存储介质 |
WO2024119230A1 (en) * | 2022-12-07 | 2024-06-13 | Ezametric Pty Ltd | Photogrammetry surveying method and system |
CN116563474B (zh) * | 2023-07-05 | 2023-09-19 | 有方(合肥)医疗科技有限公司 | 口腔全景图生成方法及装置 |
KR102696588B1 (ko) * | 2023-11-10 | 2024-08-20 | 주식회사 아이스테이징아시아 | 2차원 영상을 3차원 공간 영상으로 변환하는 방법 및 시스템 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009237845A (ja) * | 2008-03-27 | 2009-10-15 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP2011186808A (ja) * | 2010-03-09 | 2011-09-22 | Sony Corp | 情報処理装置、マップ更新方法、プログラム及び情報処理システム |
US20130104073A1 (en) * | 2010-06-22 | 2013-04-25 | Ohio University | Immersive video intelligence network |
JP2014507723A (ja) * | 2011-01-31 | 2014-03-27 | マイクロソフト コーポレーション | 三次元環境の再現 |
JP2014220804A (ja) * | 2013-05-11 | 2014-11-20 | 三菱電機株式会社 | 単一の2次元画像からシーンを再構成する方法 |
JP2016528476A (ja) * | 2013-04-30 | 2016-09-15 | クアルコム,インコーポレイテッド | Slamマップからのワイドエリア位置推定 |
WO2017022033A1 (ja) * | 2015-07-31 | 2017-02-09 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
US9836885B1 (en) * | 2013-10-25 | 2017-12-05 | Appliance Computing III, Inc. | Image-based rendering of real spaces |
CN108961395A (zh) * | 2018-07-03 | 2018-12-07 | 上海亦我信息技术有限公司 | 一种基于拍照重建三维空间场景的方法 |
JP2019523496A (ja) * | 2016-07-22 | 2019-08-22 | インペリアル・カレッジ・オブ・サイエンス・テクノロジー・アンド・メディスン | 多方向カメラを使用した、囲まれた空間の寸法の推定 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1233984C (zh) * | 2004-11-11 | 2005-12-28 | 天津大学 | 不基于粘性标记的大型三维形体形貌测量拼接方法 |
JP4835243B2 (ja) * | 2006-04-13 | 2011-12-14 | ブラザー工業株式会社 | 画像合成装置及び画像合成プログラム |
CN102375831B (zh) | 2010-08-13 | 2014-09-10 | 富士通株式会社 | 三维模型检索装置及其方法和模型库生成装置及其方法 |
EP2680594A4 (en) * | 2011-02-24 | 2014-07-09 | Kyocera Corp | ELECTRONIC APPARATUS, IMAGE DISPLAY METHOD, AND IMAGE DISPLAY PROGRAM |
TWI544447B (zh) * | 2011-11-29 | 2016-08-01 | 財團法人資訊工業策進會 | 擴增實境的方法及系統 |
WO2015098807A1 (ja) * | 2013-12-24 | 2015-07-02 | チームラボ株式会社 | 被写体と3次元仮想空間をリアルタイムに合成する撮影システム |
CN103729883B (zh) * | 2013-12-30 | 2016-08-24 | 浙江大学 | 一种三维环境信息采集与重构系统及方法 |
CN105488852B (zh) * | 2015-12-23 | 2019-04-26 | 中国船舶重工集团公司第七一五研究所 | 一种基于地理编码和多维校准的三维图像拼接方法 |
CN105787996A (zh) * | 2016-02-25 | 2016-07-20 | 上海斐讯数据通信技术有限公司 | 一种基于移动终端的房屋立体图生成方法及系统 |
CN106092056B (zh) * | 2016-06-28 | 2018-07-13 | 中国人民解放军国防科学技术大学 | 一种高速铁路桥梁基础沉降变形的车载动态监测方法 |
CN107424118A (zh) * | 2017-03-28 | 2017-12-01 | 天津大学 | 基于改进径向畸变校正的球状全景拼接方法 |
US10803546B2 (en) * | 2017-11-03 | 2020-10-13 | Baidu Usa Llc | Systems and methods for unsupervised learning of geometry from images using depth-normal consistency |
CN108198133B (zh) * | 2017-12-06 | 2021-09-17 | 云南联合视觉科技有限公司 | 一种车辆全景图像快速拼接方法 |
CN110505463A (zh) * | 2019-08-23 | 2019-11-26 | 上海亦我信息技术有限公司 | 基于拍照的实时自动3d建模方法 |
-
2020
- 2020-05-15 GB GB2019121.9A patent/GB2591857B/en active Active
- 2020-05-15 JP JP2020571820A patent/JP7223449B2/ja active Active
- 2020-08-20 US US16/998,953 patent/US11557083B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009237845A (ja) * | 2008-03-27 | 2009-10-15 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP2011186808A (ja) * | 2010-03-09 | 2011-09-22 | Sony Corp | 情報処理装置、マップ更新方法、プログラム及び情報処理システム |
US20130104073A1 (en) * | 2010-06-22 | 2013-04-25 | Ohio University | Immersive video intelligence network |
JP2014507723A (ja) * | 2011-01-31 | 2014-03-27 | マイクロソフト コーポレーション | 三次元環境の再現 |
JP2016528476A (ja) * | 2013-04-30 | 2016-09-15 | クアルコム,インコーポレイテッド | Slamマップからのワイドエリア位置推定 |
JP2014220804A (ja) * | 2013-05-11 | 2014-11-20 | 三菱電機株式会社 | 単一の2次元画像からシーンを再構成する方法 |
US9836885B1 (en) * | 2013-10-25 | 2017-12-05 | Appliance Computing III, Inc. | Image-based rendering of real spaces |
WO2017022033A1 (ja) * | 2015-07-31 | 2017-02-09 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
JP2019523496A (ja) * | 2016-07-22 | 2019-08-22 | インペリアル・カレッジ・オブ・サイエンス・テクノロジー・アンド・メディスン | 多方向カメラを使用した、囲まれた空間の寸法の推定 |
CN108961395A (zh) * | 2018-07-03 | 2018-12-07 | 上海亦我信息技术有限公司 | 一种基于拍照重建三维空间场景的方法 |
Non-Patent Citations (1)
Title |
---|
石川 智也 TOMOYA ISHIKAWA: "カメラと自蔵センサモジュールを併用したインタラクティブ3次元屋内環境モデラ Interactive 3D Indoor Mo", 電子情報通信学会技術研究報告 VOL.109 NO.215 IEICE TECHNICAL REPORT, vol. 第109巻, JPN6022008202, 16 November 2029 (2029-11-16), JP, ISSN: 0004722702 * |
Also Published As
Publication number | Publication date |
---|---|
GB2591857A (en) | 2021-08-11 |
GB2591857B (en) | 2023-12-06 |
GB202019121D0 (en) | 2021-01-20 |
JP7223449B2 (ja) | 2023-02-16 |
US11557083B2 (en) | 2023-01-17 |
US20210056751A1 (en) | 2021-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021036353A1 (zh) | 基于拍照的3d建模系统及方法、自动3d建模装置及方法 | |
JP7223449B2 (ja) | 撮影に基づく3dモデリングシステム | |
US9886774B2 (en) | Photogrammetric methods and devices related thereto | |
KR20220028042A (ko) | 포즈 결정 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
CA3161560A1 (en) | 3-d reconstruction using augmented reality frameworks | |
CN111161336B (zh) | 三维重建方法、三维重建装置和计算机可读存储介质 | |
US10929575B2 (en) | Modelling system and method | |
EP2807629A1 (en) | Mobile device configured to compute 3d models based on motion sensor data | |
US11908077B2 (en) | Generating and validating a virtual 3D representation of a real-world structure | |
US20140267600A1 (en) | Synth packet for interactive view navigation of a scene | |
US20240013484A1 (en) | Method for generating roof outlines from lateral images | |
CA3069813C (en) | Capturing, connecting and using building interior data from mobile devices | |
US8509522B2 (en) | Camera translation using rotation from device | |
JP2017212510A (ja) | 画像管理装置、プログラム、画像管理システム及び情報端末 | |
EP3882846B1 (en) | Method and device for collecting images of a scene for generating virtual reality data | |
JP2021072627A (ja) | 3dツアーの比較表示システム及び方法 | |
CN110415329B (zh) | 三维建模装置及应用于其的校准方法 | |
CN111161350A (zh) | 位置信息及位置关系确定方法、位置信息获取装置 | |
CA3102860C (en) | Photography-based 3d modeling system and method, and automatic 3d modeling apparatus and method | |
Kinoshita et al. | Drone-based mixed reality: enhancing visualization for large-scale outdoor simulations with dynamic viewpoint adaptation using vision-based pose estimation methods | |
US20170178330A1 (en) | System and method for interior mobile mapping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201218 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220512 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220930 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230130 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7223449 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |