JP2018515825A - Lidarステレオ融合実写3dモデルバーチャルリアリティビデオ - Google Patents
Lidarステレオ融合実写3dモデルバーチャルリアリティビデオ Download PDFInfo
- Publication number
- JP2018515825A JP2018515825A JP2017545687A JP2017545687A JP2018515825A JP 2018515825 A JP2018515825 A JP 2018515825A JP 2017545687 A JP2017545687 A JP 2017545687A JP 2017545687 A JP2017545687 A JP 2017545687A JP 2018515825 A JP2018515825 A JP 2018515825A
- Authority
- JP
- Japan
- Prior art keywords
- data
- dimensional
- lidar
- camera
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims description 43
- 238000000034 method Methods 0.000 claims description 71
- 238000003860 storage Methods 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 19
- 239000003550 marker Substances 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 17
- 230000033001 locomotion Effects 0.000 claims description 16
- 230000015654 memory Effects 0.000 claims description 12
- 238000005192 partition Methods 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 4
- 230000036961 partial effect Effects 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims 3
- 238000006243 chemical reaction Methods 0.000 claims 2
- 230000008569 process Effects 0.000 description 42
- 238000004364 calculation method Methods 0.000 description 22
- 238000004891 communication Methods 0.000 description 11
- 238000012937 correction Methods 0.000 description 10
- 238000013500 data storage Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 239000003086 colorant Substances 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 230000001413 cellular effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000003708 edge detection Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000000644 propagated effect Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000005304 joining Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 239000000243 solution Substances 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 108050005509 3D domains Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 230000001795 light effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000000053 physical method Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
- G01S7/4972—Alignment of sensor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/15—Processing image signals for colour aspects of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/167—Synchronising or controlling image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/246—Calibration of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20032—Median filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0077—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0085—Motion estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0088—Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0096—Synchronisation or controlling aspects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Architecture (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
実写三次元動画をキャプチャするシステムを開示する。システムは、三次元データが導かれるステレオ画像及び三次元LIDARデータを生成するためにステレオカメラ対及びLIDARを含む。ステレオからの深さ(depth−from−stereo)アルゴリズムは、ステレオ画像から三次元空間向けの三次元カメラデータを生成するために用いられ、三次元カメラデータに亘って優先する三次元LIDARデータと組み合わせられ、それにより、三次元空間に対応する三次元データを生成する。【選択図】図1
Description
著作権及びトレードドレスの通知
本特許文書の開示の一部分は、著作権の保護を受ける材料を含む。本特許文書は、所有者のトレードドレスである若しくはトレードドレスとなり得る事項を示す及び/又は記載することができる。著作権及びトレードドレスの所有者は、その特許開示が米国特許商標庁の特許出願書類又は記録内にあるので、当該特許開示の誰による複製にも異議はないが、それ以外は何であれ、全ての著作権及びトレードドレス権を保有するものである。
本特許文書の開示の一部分は、著作権の保護を受ける材料を含む。本特許文書は、所有者のトレードドレスである若しくはトレードドレスとなり得る事項を示す及び/又は記載することができる。著作権及びトレードドレスの所有者は、その特許開示が米国特許商標庁の特許出願書類又は記録内にあるので、当該特許開示の誰による複製にも異議はないが、それ以外は何であれ、全ての著作権及びトレードドレス権を保有するものである。
本開示は、三次元動画キャプチャに関し、より具体的には、ボルメトリックバーチャルリアリティビデオを作成するために、実写ステレオスコピック動画をLIDAR三次元データと融合するためのシステムに関する。
関連技術の説明
バーチャルリアリティ(virtual reality(VR))アプリケーション用の三次元環境を生成するための従来のシステムは、2つの基本カテゴリに該当する。第1のカテゴリは、完全にレンダリングされた三次元環境である。これらの環境は、一般的に、「ゲームエンジン」ソフトウェアを用いて開発者及びアーティストによって形成し、空間内に三次元オブジェクトを形成し、それらのオブジェクトに物理的なオブジェクトの外観を与えるためにそれらのオブジェクトに芸術及び光効果を適用する。その後、ユーザは、開発者及びアーティストによって形成された三次元環境に「入る」。
バーチャルリアリティ(virtual reality(VR))アプリケーション用の三次元環境を生成するための従来のシステムは、2つの基本カテゴリに該当する。第1のカテゴリは、完全にレンダリングされた三次元環境である。これらの環境は、一般的に、「ゲームエンジン」ソフトウェアを用いて開発者及びアーティストによって形成し、空間内に三次元オブジェクトを形成し、それらのオブジェクトに物理的なオブジェクトの外観を与えるためにそれらのオブジェクトに芸術及び光効果を適用する。その後、ユーザは、開発者及びアーティストによって形成された三次元環境に「入る」。
これらの環境は、完全に実現された三次元空間となる利益を有する。典型的には、ユーザのアバター(又はVRの場合にはユーザ自身)は、このような空間内を自由に移動できる。なぜなら、それらは、完全に探索されることを目的として設計されているためである。これらの空間による課題は、それらが実際の位置を推定しているのみであり、より根本的には、開発者、アーティストによる数日又は数週間の作業、及びゲームエンジンのための開発時間を考慮する場合には、他の開発者及びアーティストが環境を作ることを可能にするソフトウェアを製作するために長い時間を必要とすることである。これらの環境形成プロセスのパーツを自動化することができるツールが存在するが、アバター又はユーザにより真実味があり、かつ完全に操縦可能に作成するためにより多くの手作業がなされる必要がある。より複雑なシステムは、いくつかの三次元データを導くために、三次元撮影の被写体となる又は被写体となっている位置の詳細な写真測量法を実行するために2つの方法を組み合わせる。そして、事後に、三次元データは、ある程度の没入動画環境を形成するために動画と組み合わせられる。時間及び作業が含まれるため、これらのシステムは、関連する三次元空間の特性を簡易に記録しながら、「実写」動画をキャプチャするためには本当に適しているわけではない。
他方のカテゴリは、「軌道上(on−rails)」動画又は視野の重複のあるカメラにより形成された一連の画像であり、画像の球全体は、閲覧者の周りに「バブル」を形成するためにソフトウェアによって共に「一体化」される。このカテゴリは、そのビデオフォーマットインカーネーションに加わること、又は個々の画像キャプチャ指向インカーネーションに加わることをわずかに感じ、ある固定された位置から別の位置へ移行する。「バブル」内にいる間、ユーザ又はアバターは、それらを箱に入れる画像の球の内側で「見渡す」。これらのシステムは、それらの画像が撮られた(典型的にはアウトドア空間)場所を正確に反映する非常に高品質の画像を提供される。しかし、これらの画像は、視差の問題に苦慮しており、一体化された画像は、しばしば、位置合わせが不十分である。
しかし、アバター又はユーザは、予め選択された経路又は固定された位置から逸れない場合がある。そして、画像は、如何なる三次元構成要素も有していない。なぜなら、動きは想定されず、深さ情報を有することよりも重要ではないためである。しかし、環境内に少なくともある程度の動きの自由度を有する真の三次元環境のために、「ゲームエンジン」スタイルのソフトウェアを用いて形成された完全に実現された三次元環境において利用可能なような深さ情報は、非常に望ましい。
2つのカメラによって形成される2つの対応する画像で視ることが可能な要素の三次元特徴をキャプチャするために2つのカメラを用いるステレオスコピック写真は、画像内のオブジェクトの相対的な深さを推定するために用いられている。しかし、バーチャルリアリティシステムは、完全没入型の、周囲を完全に取り囲んだ球体空間を使用することが好ましく、更に、外界が仮想的に無限遠(空)である深さを有し、長い視野(例えば、いくつかのブロックに離れた建物)を有する傾向があるため、ステレオスコピック写真の適応性は制限される。深さを算出するために、2つの対応する画像間の視認可能な視差が存在しなければならない。離れた距離では、2つの画像内のオブジェクト間の視差は、それが存在する場合、最小である。そのため、しばしば外の、オープンスペースにおいて、動画を記録するためにステレオスコピック写真を使用することは、バーチャルリアリティユーザが動くことができる周りを完全に取り囲んだ三次元球体空間を形成するために不正確かつ不十分である。
例えばMicrosoft(登録商標) Kinectのような深さセンサベースのシステムは、同様の機能を可能にするが、一方向‐すなわちユーザに向けて‐かつ非常に制限された範囲‐での動作を可能にするにすぎない。したがって、これらのタイプのシステムは、アウトドア環境又は360°球体動画記録及び撮影された環境の三次元再構築には適していない。
同様に、LIDARシステムは、以前から存在しているが、汎用的な使用のためには極めて高価である。また、LIDARシステムによって生成される深さデータは、他のデータと容易に組み合わせ可能ではない又は三次元環境を再形成するために用いられるデータに容易に変換可能ではない。これは、一つには、非常に正確ではあるが、LIDARデータは、与えられた環境内に非常に希薄である‐LIDARデータポイントが互いに相対的に離れていることを意味する‐ためである。この希薄さは、対象となる環境の正確な三次元レンダリングを再形成するためにLIDARデータのみを不十分にする。
本明細書全体にわたり、図面に現れる要素には、3桁の参照識別子が割り当てられており、最上位桁は、要素が最初に示される図面の番号であり、最下位の2桁は、要素に特有である。図面との関連で説明しない要素は、同じ参照識別子を有する、既に記載した要素と同じ特徴及び機能を有すると仮定することができる。
装置の説明
ステレオグラフィック画像及びLIDARの融合のためのシステム100のブロック図である図1を参照する。システム100は、110L,110Rからなる、少なくとも1つのステレオカメラ対110を含む(110Lが左カメラであり、110Rが右カメラである)。ステレオカメラ対110’、110’’、110’’’及び110’’’’のような1以上の追加のステレオカメラ対があってもよい。ステレオカメラ対110は、そこから三次元カメラデータが導かれるステレオ画像を作成するために用いられてもよい。本明細書で用いられる「三次元カメラデータ」は、ステレオカメラ対によってキャプチャされる同時画像から導かれる三次元データを意味する。
ステレオグラフィック画像及びLIDARの融合のためのシステム100のブロック図である図1を参照する。システム100は、110L,110Rからなる、少なくとも1つのステレオカメラ対110を含む(110Lが左カメラであり、110Rが右カメラである)。ステレオカメラ対110’、110’’、110’’’及び110’’’’のような1以上の追加のステレオカメラ対があってもよい。ステレオカメラ対110は、そこから三次元カメラデータが導かれるステレオ画像を作成するために用いられてもよい。本明細書で用いられる「三次元カメラデータ」は、ステレオカメラ対によってキャプチャされる同時画像から導かれる三次元データを意味する。
LIDAR120は、三次元空間の深さマップを生成するために、少なくとも1つのレーザ及び当該少なくとも1つのレーザからの反射の検出に依存する深さ検知技術である。LIDARの様々な実施形態がある。その一部は、視野に亘って移動する、単一のスキャニングレーザを用い、その他の実施形態は、視野の個々に亘って移動する複数の離散ビームに依存する。更に別の実施形態は、単一の離散レーザで複数の領域を同時にスキャンするためにビームスプリッタ又は同様の技術を用いる。反射したビームのための独立センサの数は、1から多数まで変化してもよい。高価ではない、現代のLIDARは、典型的には、反射されたビームを集め、それによりデータを導くために、複数の光学系と1つの大型センサとの組み合わせに依存する。好ましくは、LIDARにより生成される三次元データは、LIDARに対する、(X,Y,Z)ポイントフィールドの形式にある。本明細書で用いられる文言「三次元LIDARデータ」は、LIDARにより生成される三次元データからキャプチャ又は導かれる三次元データを意味する。
ステレオカメラ対110及びLIDAR120の双方は、コントローラ130の指示で動作する。コントローラ130は、汎用コンピューティングデバイス全体又はその一部であってもよい。単一のコントローラ130として示されるが、複数の独立したコントローラ、例えば、LIDAR用の個別コントローラ及び1以上のステレオカメラ対用の別のコントローラと相互作用してもよい。コントローラ130は、ステレオカメラ対(例えば、ステレオカメラ対110)の各々とLIDARとの相互作用を統合する。コントローラ130は、後に、対象となる三次元環境を表現する三次元データを作成するために用いられるカメラ及びLIDARデータを単にキャプチャ及び記憶してもよい。それに替えて、コントローラ130は、キャプチャ、記憶、及び、その後に、対象となる三次元環境を表現する三次元データを生成するために適した計算を行うために機能してもよい。
コントローラ130は、ジェネレーターロッキングシステム140と接続してもよく、又はジェネレーターロッキングシステム140を含んでもよい。ジェネレーターロッキング(Generator locking(genlock))は、オーディオ又はビデオのような時間ベース材料のソースを動悸するために用いられるシステム又はデバイスである。ここで、複数のステレオカメラ対110及びLIDAR120により、各々が独立してコンテンツを生成し、genlockシステム140は、生成されたデータのセットの各々で単一ソースタイムスタンプを提供して、コントローラ130によって組み合わせられるように正確に同期される。好ましくは、genlockシステム140は、非常に正確な時間データのアクセス又は受信を有するグローバルポジショニングシステム(global positioning system(GPS))受信器であってもよい。しかし、genlockを実行する他の方法及びシステムは、従来から知られている。
本明細書で用いられる文言「三次元データ」は、三次元データを生成するために用いられるデータがキャプチャされた位置の周囲の三次元空間に対応する三次元シーンを生成するために十分な、既知の位置に対する、深さ情報を含むデータを意味する。
図1のコントローラ130であってもよい例示的なコンピューティングデバイス200のブロック図である図2を参照する。図2に示されるように、コンピューティングデバイス200は、プロセッサ210と、メモリ220と、付加的に、ユーザインターフェース230と、通信インターフェース240と、を含む。これらの要素の一部は、実装に応じて存在してもよく又は存在しなくてもよい。更に、これらの要素は、互いに独立して示されるが、各々が一部の場合に別に集積されてもよい。
プロセッサ210は、1以上のマイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ、特定用途向け集積回路(ASIC)又はシステム‐オン‐チップ(SOC)であってもよく又は含んでもよい。メモリ220は、リードオンリーメモリ(ROM)、スタティック、ダイナミック、及び/又は磁気抵抗ランダムアクセスメモリ(それぞれSRAM、DRAM、MRAM)、及びフラッシュメモリのような不揮発性書き換え可能メモリを含む揮発性及び/又は不揮発性メモリの組み合わせを含んでもよい。
メモリ220は、プロセッサによる実行のためのソフトウェアプログラム及びルーチンを記憶してもよい。これらの記憶されたソフトウェアプログラムは、オペレーティングシステムソフトウェアを含んでもよい。オペレーティングシステムは、プロトコルスタック、コーディング/デコーディング、圧縮/展開、及び暗号化/復号化のような通信インターフェース240をサポートするための機能を含んでもよい。記憶されるソフトウェアプログラムは、本明細書で説明されるプロセス及び機能の一部をコンピューティングデバイスに実行させるためのアプリケーション又は「app」を含んでもよい。本明細書で用いられる単語「メモリ」は、波形及び一時的な信号の伝搬を明示的に排除する。
ユーザインタフェース230は、存在する場合、ディスプレイと、タッチスクリーン、キーパッド、キーボード、スタイラス又は他の入力デバイスのような1以上の入力デバイスと、を含んでもよい。
ストレージ240は、ハードディスクドライブ、長期間の保存のために設計されたフラッシュメモリデバイス、書き換え可能メディア及び(ステレオカメラ対110のようなカメラとともに用いられる)写真又は動画の長期間の保存のために設計されたメディアのような専有ストレージメディア等のような不揮発性メモリであってもよく、又は不揮発性メモリを含んでもよい。
通信インターフェース250は、1以上の有線インターフェース(例えば、ユニバーサル・シリアル・バス(USB)、ハイディフィニションマルチメディアインターフェース(HDMI))、ハードディスクドライブ、フラッシュドライブのようなストレージデバイス用の1以上のコネクタ、又は専有ストレージソリューションを含んでもよい。通信インターフェース250は、また、セルラーテレフォンネットワークインターフェース、ワイヤレスローカルエリアネットワーク(LAN)インターフェース、及び/又はワイヤレスパーソナルエリアネットワーク(PAN)インターフェースを含んでもよい。セルラーテレフォンネットワークインターフェースは、1以上のセルラーデータプロトコルを用いてもよい。ワイヤレスLANインターフェースは、WiFi(登録商標)ワイヤレス通信プロトコル又は他のワイヤレスローカルエリアネットワークプロトコルを用いてもよい。ワイヤレスPANインターフェースは、Bluetooth(登録商標)、WiFi(登録商標)、ZigBee(登録商標)のような限定範囲ワイヤレス通信プロトコル又は一部の他の公的又は専有ワイヤレスパーソナルエリアネットワークプロトコルを用いてもよい。システム100のように、コンピューティングデバイス200がカメラ及びLIDARリグの一部として配備されるとき、ワイヤレスPANインターフェースは、アクティブ音響フィルタ装置110L,110Rと通信するために用いられてもよい。セルラーテレフォンネットワークインターフェース及び/又はワイヤレスLANインターフェースは、コンピューティングデバイス200の外部のデバイスと通信するために用いられてもよい。
通信インターフェース250は、無線周波数回路、アナログ回路、デジタル回路、1以上のアンテナ、及び他のハードウェア、ファームウェア、並びに外部装置との通信のために必要なソフトウェアを含んでもよい。通信インターフェース250は、選択された通信プロトコルを用いて外部装置と通信するために必要なコーディング/デコーディング、圧縮/展開、及び暗号化/復号化のような機能を実行するために1以上の専用プロセッサを含んでもよい。通信インターフェース250は、全体又は一部でこれらの機能の一部又は全部を実行するためにプロセッサ210に依存してもよい。
上述されたように、コンピューティングデバイス200は、ゲオ‐ロケーション(geo−location)、つまり、その独自の位置を決定することを行うように構成されてもよい。ゲオ‐ロケーションは、コンピューティングデバイス200自体の構成要素によって、又はこのような目的に適した外部装置との相互作用を通じて行われてもよい。ゲオ‐ロケーションは、例えば、グローバルポジショニングシステム(GPS)受信器を用いて又は他の方法によって行われてもよい。
ここで図3に移り、三次元実写動画をキャプチャする全方向性、ステレオグラフィックカメラリグの異なる実施例の構成の例は、図3A、3B、3C及び3Dに示される。画像は、カメラリグでの上面斜視からのものである。図3Aは、総計4つのステレオカメラ対(8個のカメラ)、すなわち、水平に平行に搭載された3つの上部カメラ対(この状況において「水平」とは、リグに対する閲覧者の位置に垂直な円板である)及び上に向けられた1つのカメラ対を含むリグである。これらのカメラ、及び好ましくは各リグにおける全てのカメラは、領域の最も取り得る範囲を確保するために、110度又はそれ以上の視野を有する。球面収差が補正された(rectilinear)レンズが好ましいが、広角(「魚眼」)レンズもまた用いられてもよい。
図3Bは、水平に平行に搭載された4つのカメラ対及び上に向けられた1つのカメラ対を有する5つのステレオカメラ対リグ(10個のカメラ)である。図3Cは、水平のわずかに上に向けられた5つのカメラ対及び大まかに角度を付けて上に向けられた2つのカメラ対を有する7つのステレオカメラ対リグ(14個のカメラ)である。最後に、図3Dは、水平に平行に搭載された6つのカメラ対及び大まかに上に向けられた2つのカメラ対を有する8つのステレオカメラ対リグ(16個のカメラ)である。
事実上、ステレオカメラ対のセットの構成は、カメラがステレオスコピック対に配置される限り用いられてもよく、各カメラ対から得られる画像のセットが、画像のセットに隣接するように結合されて、まとまった全体を形成する十分な重複が存在する。7対(14個のカメラ)又は8対(16個のカメラ)のカメラリグが全てを覆うために好ましい。更に、ステレオカメラ対の数を含むカメラリグの較正の一部として、各カメラ対内及びカメラ対間の内因性及び外因性パラメータは、既知である又は学習されなければならない。
内因性パラメータは、ステレオカメラ対により形成される画像におけるピクセル位置と、現実世界の物体との関係を定義する。内因性パラメータは、焦点長さ(レンズと画像面との距離)、主点オフセット(画像面に垂直かつレンズを通過する線が、画像面と交差する点)、及び軸歪(軸が他の軸に向かって傾く範囲)を含む。これらの内因性パラメータを知ることにより、カメラによって形成される画像の変換を可能にし、数学的な計算が行われる測定を可能にする。
外因性パラメータは、外界とのカメラの関係を定義する。これらのパラメータは、方向の定義及び他の物体(他のカメラを含む)に対する位置等のオペレーションを可能にする。これらのパラメータは、実世界にカメラを配置し、カメラの相対的な視界を決定することを助ける(例えば、物体からの距離、又は一部の物体が、実世界のカメラの視点に応じて他の物体によって塞ぐ)。
図4は、ステレオグラフィック画像とLIDARとの融合のためのシステム400のコントローラの機能ブロック図である。コントローラ430は、カメラ較正431用の機能と、ステレオ調整432用の機能と、LIDAR較正433用の機能と、三次元位置計算434用の機能と、ポイントクラウド融合435用の機能と、三次元データストレージ436用の機能と、を含む。genlockシステム470は、コントローラ430の一部として含まれてもよく、又は(図示されるように)コントローラの外部に含まれてもよい。
(図1のコントローラ130のように)単一のコントローラ430として示されるが、システム400の機能態様は、実際には、複数の異なる構成要素にあってもよい。例えば、カメラ較正431は、カメラのセット又はコントローラがそこに配置されているリグに気付くように、カメラリグに組み込まれてもよく、カメラは、それら独自の内因性及び外因性パラメータを決定するために、共に作動してもよい。同様に、三次元データストレージ436は、コントローラの外部にあってもよく、又は1以上のステレオカメラ内にあってもよい。簡素化のために、機能構成要素は、コントローラ430の内部に示されるが、様々な実施形態が想定される。
カメラ較正431は、システム400が、ステレオカメラ対のセットの相対的に内因性及び外因性パラメータを決定することによるプロセスである。内因性パラメータは、比較されるべきステレオカメラ対によって形成される画像を、画像にみられる外形寸法の物理測定を導くことを可能にする。例えば、ステレオカメラ対の両眼間距離(カメラ間の距離)、焦点及び焦点長さが既知である場合、それらの対によって形成される画像は、比較的簡素な三角法及び代数を用いて、画像に現れる物体を、三次元空間の深さに変換するために用いられうる。これらの決定は、画像の両方での同一点を探すことに依存し、画像において、距離を決定した後、同一点が離れる。その差は、物体が遠くに離れていることを意味する短い距離(視差)を有する深さに変換され、一方で、物体が近くにあることを意味する長い距離(視差)を有する深さに変換されうる。しかし、これらの計算を行うために、その深さ(又は視差)を算出するために必要な内因性及び外因性パラメータは、既知である、又は較正を通じて決定されなければならない。これは、カメラ較正431が実行するプロセスである。
相対的に正確にこの算出を行うために1つの方法は、既知のパラメータを有する外部マーカーに頼ることである。このようなマーカーは、例えば、チェッカーボード型のマーカーを含み、チェッカーボードの正方形は、既知の幅及び高さである。対応するチェッカーボード(又はチェッカーボード内の個々のボックス)は、個人によって手動で、又はコンピュータビジョンアルゴリズムによって自動で、比較的容易に区別される。そして、ボックス又はチェッカーボード間の視差が計算され、利用可能な既知の幅及び高さにより、ステレオカメラ対の内因性及び外因性パラメータが決定されてもよい。この種の較正を行うために他の方法及び異なる種類のマーカーが従来から知られている。
ステレオ調整432は、ステレオカメラ対によって撮られるステレオ画像の対の様々な態様の視差を算出するために用いられるコントローラ430の機能的態様である。較正について上述したように、視差は、ステレオカメラ対によって形成される対応する画像からの相対的な深さを導くために用いられる。
LIDAR較正433は、コントローラ430の別の機能である。LIDARは、ステレオカメラ対から得られるデータが、LIDARによって生成される三次元LIDARデータと比較されるように、カメラに対して較正されなければならない。カメラ及びLIDARに対する較正プロセスは、以下により詳細に説明される。
三次元位置計算434は、コントローラ430の更に別の機能である。上述したように、この計算は、コントローラ430とは物理的に異なるデバイス上で行われるが、説明を容易にするために、コントローラ430の一部であるとして説明される。三次元位置計算434は、ステレオカメラ対からの視差データ及び三次元LIDARデータを、カメラリグ及びLIDAR組み合わせがフィルムを記録する三次元空間用の三次元データに変換する。このプロセスは、図8について以下により詳細に説明される。
三次元データストレージ436は、三次元データを記憶するために用いられる。このデータは、例えば、動画のフレームに対するステレオ画像対、対応する時間に対する三次元LIDARデータ、genlockシステム470によって提供されるタイムスタンプデータを含んでもよく、算出された視差及び/又はデータから導かれる深さデータに対応する二次メタデータを含んでもよい。導かれる三次元データをなす構成要素を保持することにより、後続の計算は、更により良い三次元データがそこから導かれることを可能にする同じ根本的なデータセットで行われ、より良いアルゴリズムが将来製作されるべきである。
この三次元データストレージ436は、ローカルであってもよく、又は一部又は全部がコントローラ430の外部にあってもよい。
図5は、三次元データストレージシステム500の機能ブロック図である。システム500は、図4の三次元データストレージ436であってもよく、又は図4の外部ストレージであってもよい。三次元データストレージシステム500は、データベース502と、画像ストレージ504と、LIDARストレージ506と、三次元データストレージ508と、三次元ビデオストレージ509と、を含む。これらの要素の各々が、システム500の一部をなすものとして示されるが、1以上のものが存在しなくてもよい。それに替えて、1以上のものが別のものに組み込まれてもよい。
データベース502は、記録された画像と、LIDARデータと、得られた三次元データとのの関係に関連するデータを記憶するために用いられてもよい。データベース502は、視差、深さ及び三次元データアルゴリズムが、ベースデータに適切に関連し、三次元データを得るために動作すると、更新される。更に、データベースは、本明細書に記載のシステム及びプロセスを通じて生成される三次元データのリーダー又はプレイヤーがリプレイ又は更なる編集のためにアクセスされることを可能にするための構造を提供する。
画像ストレージ504は、固定画像として動画の一連の対応するフレームを記憶するために用いられてもよい。データベース502は、そのように同時にキャプチャされているので、genlockシステム(例えば、図4の470)によって識別される画像をリンクしてもよい。このように、360度の球面空間をカバーするカメラリグのために、動画の1つの球面フレームを形成するために用いられる画像は、互いに対応するものとして識別されてもよい。画像ストレージ504は、従来の動画データ・フォーマットに依存してもよく、又はタイムスタンプデータのようなメタデータが、形成されるときに、ビデオの1以上のフレームに直接的にエンコードされるように、専用フォーマットを用いてもよい。
LIDARストレージ506は、LIDAR120(図1)のオペレーションの結果として形成されるLIDARデータを記憶するために用いられてもよい。このデータは、per−frame−of−video基準にあってもよく、例えば、LIDAR120自体に対して三次元(x,y,z)座標と関連付けられた深さデータのマトリックスのような、様々なフォームで記憶されてもよい。このLIDARストレージ506は、データベース502又はLIDARストレージ506自体に、関連付けられたタイムスタンプと共にLIDARデータを記憶してもよい。
三次元データストレージ508は、画像ストレージ504に記憶される画像を用いて生成される三次元データ、及びLIDARストレージ506に記憶されるLIDARデータを記憶するために用いられてもよい。三次元データストレージ508は、視差データ、深さデータ、及び画像ストレージ504に提示されるようなキャプチャされた動画の各フレームに対する全体三次元マップを含んでもよい。
比較において、三次元ビデオストレージ509は、再生装置による再生又は編集装置による編集のために1つのパッケージの実写動画及び三次元データの両方を提供するために用いられる専用三次元ビデオデータフォーマットを記憶してもよい。従来のビデオフォーマットが二次元であるので、それらは、本明細書に記載されるシステム及びプロセスにより生成される三次元データの深さ及び三次元性を提示するために不適切である。この生成される三次元動画は、三次元ビデオストレージ509に記憶されてもよい。
プロセスの説明
図6は、三次元データを形成するためにステレオグラフィック画像及びLIDARを融合する方法のフローチャートである。前記方法は、開始605で開始し、終了695に到達するまで連続的に動作する。単一のプロセスが示されるが、複数、同時プロセスが一度に行われうる。例えば、複数コア又は複数プロセッサシステムは、ビデオの個々のフレーム各々で、図6に示される同時プロセスの複数の反復が同時に行われうるように、同時に動作しうる。
図6は、三次元データを形成するためにステレオグラフィック画像及びLIDARを融合する方法のフローチャートである。前記方法は、開始605で開始し、終了695に到達するまで連続的に動作する。単一のプロセスが示されるが、複数、同時プロセスが一度に行われうる。例えば、複数コア又は複数プロセッサシステムは、ビデオの個々のフレーム各々で、図6に示される同時プロセスの複数の反復が同時に行われうるように、同時に動作しうる。
先ず、カメラ対は、610において、較正される。カメラの内因性及び外因性パラメータは、図4を参照して上述されたチェッカーボードマーカーのような、外部マーカーを活用して算出されてもよい。各外部マーカー間の実際の距離が知られているので、このような外部マーカーは、マーカーの三次元位置と、カメラ対により形成される画像におけるマーカーの座標との間のマッピングを形成するために用いられてもよい。2つの画像間の対応に十分な量が与えられ、カメラにおける未知の内因性及び外因性パラメータは、周知の方法を用いて解決されうる。
2つのカメラ間の内因性及び外因性パラメータを解決することは、周知であるが、複数のカメラでそれを解決することは、より困難である。例えば、3つの前面カメラA、B及びCがあるとする。AからB、BからCのための内因性パラメータ及び外因性パラメータについて解決することができる。完璧な測定、ノイズのない世界では、BからCのためのパラメータと組み合わせられるAからBのためのパラメータは、AからCへのための良好な測定をもたらすべきである。実際には、これらの測定の各々は、不完全かつノイズを含んでいる。そのため、AからB、BからCへの内因性パラメータ及び外因性パラメータは、AとCとの間の大きな再投影誤差をもたらしがちである。ここで、2つのAからB、BからCへの簡素な組み合わせは、測定の不完全さ及び画像のノイズのため、正確になりそうにない。よって、再投影誤差は、不十分な正確さの内在するデータでの推定を基礎とすることによって導入される誤差を意味する。そのため、それに替えて、各カメラに対する内因性及び外因性パラメータの推定は、キャプチャされた画像を用いて互いに対してカメラを較正するために、シーン内の既知のベクトルと既知のピクセルとの差を最小化することによって取得される。
次に、各ステレオカメラ対は、エピ極を無限遠に押すことによって更に調整され、視差推定プロセス(以下に説明)のための特性マッチングは、演算を低減するために単一のスキャンラインに沿って行われうる。本明細書で用いられる「エピ極(epipole)」は、ステレオカメラ対の第1のカメラが中心に置かれたステレオカメラ対の第2のカメラからの視差データにおけるポイントである。本明細書で用いられる「調整(rectification)」は、焦点面が同一平面となるまで、光学中心に沿ってカメラを実質的に回転するプロセスである。各カメラに対する内因性及び外因性パラメータの推定の調整を行うために、ステレオカメラ対が可能な限り水平であることが好ましい。これは、調整プロセスが、デジタル画像品質が回転又は他の修正により劣化するため、歪み及び解像度損失を最小化する非常にわずかな画像を回転することを可能にする。焦点面を同一平面にするために画像を回転するために無限の可能性があるので、追加制約は、サーチフィールドを制限するために導入されてもよい。例えば、新たなx軸は、常に基準線の方向となるように制限されてもよい。新たなy軸は、新たなx軸及び元のy軸に常に直交するように制限されてもよい。最後に、新たなz軸は、基準線及び元のy軸に常に直交するように制限されてもよい。
次に、620において、LIDARは較正される。LIDAR較正のプロセスは、図7を参照して開示される。当該プロセスは、LIDARとカメラ対の1以上との間の外因性パラメータの算出を含む。先ず、710及び720において、外因性パラメータのためのカメラ画像及びLIDARデータは取得される。外部マーカーに対して、既知の半径を有する平坦表面上の円形穴が用いられてもよい。円形穴ベースの外部マーカーの使用は、カメラ画像及びLIDARデータの両方での真っ直ぐな特徴抽出を可能にする。なぜなら、以下に説明されるように、円は、カメラ画像及びLIDARデータの両方の検出にとって最も良いためである。
730において、マーカーの位置及び半径は、検出される。マーカーの平坦表面及び円形穴の背後の背景の色強度が十分に明確な限り、ハフ円検出(Hough circle detection)は、円形マーカーの位置及び半径の大まかな検出に適用されうる。
次に、マーカーは、740において、LIDARデータで検出される。マーカーと背景との間の深さ不連続が存在するため、LIDARは、円の輪郭をピックアップすることができる。円形穴は、また、矩形穴においても好ましい。なぜなら、LIDARデータは、典型的には、水平なスキャンラインのシーケンスの形態であるためである。よって、LIDARは、矩形穴の水平側を検出することができないことがある。これは、LIDARにおけるポイントを対応する画像上のピクセルに一致するための十分なオプションがないLIDARデータを残す。しかし、円形マーカーを用いて、ポイントクラウド球面フィッティングアルゴリズムは、球面の位置及び半径を大まかに検出するために適用されうる。
次に、LIDARの較正を完了するために十分なデータが有るかどうかを、例えばコントローラ430によって、判定される。つまり、LIDARと1以上のカメラとの間の外因性パラメータを適切に導くために、十分な忠実性並びに画像(又は複数の画像)及びLIDARから利用可能なデータでなければならない。集められたデータが十分でない(745において「no」)場合、プロセスは、710においてキャプチャされた追加画像、及び720において取得された追加LIDARデータにより再度開始する。
しかし、取得されたデータが十分であるとみえる(745において「yes」)場合、プロセスは、750において、LIDARとカメラとの間の相対的な回転及び変換の算出によって継続する。カメラとLIDARとの間の幾何学的変形は、純粋な変換であり、したがって、外部円形マーカーは、画像に対して使用されるカメラにできるだけ平行に配置されるべきであると仮定される。概念上、マーカーの画像は、RGB画像の円が、楕円ではなく正確な円とすることを確認することによってLIDARポイントと平行に、実質的かつ手動で回転される。
ステレオカメラへのLIDAR較正を行うために、画像データの相対的な位置は、LIDARデータと一致するためになされなければならない。一致すると、ステレオカメラに対するLIDARの相対的な位置及び方向(すなわち、外部パラメータ)は、算出される。相対的な位置を探すために、ステレオカメラ画像から検出された「視覚的」円形マーカーと、検出された「深さ」円形マーカーとの間の差は、異なるプロセスを用いて検出された、2つの円が可能な限り一致するように、最小化されてもよい。得られた変換及び回転は、外因性パラメータとして記憶されてもよい(又はステレオカメラ対の1以上に対する変換及び回転)。
図6に戻り、カメラ及びLIDARが較正されると、対応する画像のセット(630)及びLIDARデータ(640)がキャプチャされる。キャプチャされた画像のセットは、ステレオカメラ対によって形成される二次元画像を重畳することに基づいて360°球面に対応し、三次元LIDARデータ640は、同一位置のポイント又は深さフィールドマップを含む。三次元LIDARデータは、わずかであるが、非常に正確である。画像は実質的に正確であるが、そこから導くことが可能な三次元データは、LIDARデータよりも正確性及び忠実性が低い。よって、2つの組み合わせは、画像及びLIDARデータがキャプチャされる三次元空間のより正確な三次元表現を生成するためにより適している。
画像及びLIDARデータが、630及び640において取得されると、三次元空間内の深さを算出するための演算要件全体を低くするために、空抽出(sky extraction)が行われる。アウトドアシーンは、空(又は深さの算出の目的のために空と等価なもの)を含むことが実質的に保証される。深さ算出の目的のために、空は、いくつかの特殊な特性を有する。第1に、空は、LIDAR及びカメラリグに対して無限遠の深さを有する。第2に、空は、通常、大きく、一体であり、典型的には、単一色(又は勾配色の範囲)であり、目に見えるテクスチャはない。これらの特質は、深さを算出する際に特段便利とはならない。空が、有効な無限遠に離れている場合、画像又はLIDARを用いてその深さを「算出する」こと対してわずかなポイントがある。更に、相対的に容易に検出可能であるため、三次元空間向けに生成される三次元データ全体に逆効果なしに、深さの算出から都合良く排除されうる。
空(又は検出された空の領域)を排除することは、空のための三次元データの演算の膨大な処理を回避するという追加の利益を有する。空を排除するために、第1のエッジ検出(例えば、Sobelエッジ検出)が対象となる画像に適用される。次に、モルフォロジー・クロージング(morphology closing)がエッジ検出結果をクロージングするために用いられてもよい。このように、検出された空領域の「端部」は、与えられた画像において空領域のための大まかな形状を識別するためにインテリジェントに結合される。例えばgrabcutのような精緻化アルゴリズムは、絶対的な背景‐絶対的な背景であるエッジのない領域が背景として定義され、かつ、それらが空であり、事実上無限遠深さであるので、そこで行われる深さ算出を有さないであろうことを意味する‐としてエッジのない領域を初期化することによって画像における空領域の形状を精緻化するために適用されてもよい。深さ算出は、残りの領域で行われるであろう。最後に、重み付けメディアンフィルタは、空の境界の近傍の結果を更に精緻化するために適用されてもよい。ピクセルが空として分類される場合、ピクセルの深さは、無限遠に設定され、それによって、空として分類されるそれらの領域のためのアルゴリズム計算をショートカットする。空領域の排除は、深さアルゴリズムの余りが、より迅速かつ全体に機能することを可能にし、動画フレームあたりの低いコンピュータリソースを要求することを可能にする。
次に、650において、画像のピクセルが、動画の最終フレームにおける画像の同一ピクセルに対して移動していたかどうかを判定する。これが動画の第1のフレームである場合、全てのピクセルは、存在しない、から存在する、へ「移動」するが、後続のフレームでは、移動の検出は、フレーム間で変化する画像の一部に対してのみ深さを計算することによって、アルゴリズムが演算負荷を更に低減することを可能にする。ピクセルが移動していない(650において「no」)場合、前のフレームからのピクセル三次元位置は、655で用いられる。ピクセルが移動した(650において「yes」)場合、ピクセルの三次元位置は、660において算出される。モーションを検出するために、様々なモーション検出アルゴリズムが用いられてもよく、例えば、TV−LIオプティカルフロー推定(TV−LI optical flow estimation)等である。モーション検出は、様々な方法又はアルゴリズムによって行われてもよい。
次に、モーションにあると決定されているピクセルの三次元位置が660において算出される。この処理は、図8において以下に更に詳細に説明される。
次に、675において、別のピクセルが、三次元位置が算出されずに残っているかどうかを判定する。そうである場合(675において「yes」)、プロセスは、650において次のピクセルについてのモーション検出に戻る。そうでない場合(675において「no」)、680において、画像の複数のセット(ステレオカメラ対によって形成された各セット)のための三次元及び画像データが組み合わせられる。この組み合わせは、カメラ画像のセットの各々に対する画像及び三次元データで生じる。
685において、当該データから、三次元空間向けの三次元データが生成される。このデータは、画像データを組み合わせ、合成された画像(図9について以下に説明)、及び三次元動画のキャプチャされたフレームに対するステレオカメラ対によってキャプチャされた画像のセットの各々における各ピクセルに対する深さを定義する三次元データに対してシーム融合を行う専用フォーマットの形態を採ってもよい。
最後に、690において、動画の別のフレームが存在するかどうかを判定する。存在しない(690において「no」)場合、プロセスは終了する。存在する(690において「yes」)場合、プロセスは戻り、630において別の画像のセットをキャプチャし、640において三次元LIDARデータをキャプチャする。一部の場合、例えば、三次元データの生成が、画像及び三次元LIDARデータのキャプチャ後に良好に行われるとき、プロセスは、それに代えて、645において、動画の次のフレームに対応する既に存在する画像に対する空抽出に直接戻ってもよい。しかし、プロセスが、(対応する画像のセットの形態で)動画フレームが形成されるのとリアルタイムで実行するとき、動画の次のフレームは、630においてキャプチャされなければならず、三次元LIDARデータは、プロセスが次の動画フレームに対して再び開始する前に、640においてキャプチャされなければならない。
図8は、LIDARデータをステレオスコピックカメラデータと組み合わせ、それにより三次元データを導くために方法のフローチャートである。この方法は、図6のステップ660−685に対応し、ここで、対応する画像のセットにおける各ピクセルの三次元位置が算出され、複数の画像からのデータは、360°球面を形成するように組み合わせられ、三次元データは、画像及び三次元LIDARデータがキャプチャされた三次元空間に対して生成される。
画像及び三次元LIDARデータの対応する画像のセットに対する三次元データを生成することの第1のステップ(上記の図6を参照して説明されたキャプチャ及び前処理後)は、810において、画像を分割することである。分割は、各区分のサイズ(外周)及び各区分におけるカラーバリエーションを最小化するように設計される。区分をより小さくすることは、各区分内の三次元深さ全体をより正確に決定することをもたらし、単色(又は関連する色)を好むことは、単一のオブジェクト(単一のオブジェクトの一部)となりやすい画像区分をもたらす。これらの単一のオブジェクトは、同一又は同一に近い深さを有しやすい。
そのため、区分は、各画像に対して最も小さくかつ最も色が近い区分を探すようにアルゴリズム的に選択されてもよい。カラーマッチングは、例えば、勾配検出に基づいてもよく、当該範囲外の色が同一ではないと判定する一方で、同一範囲において他の色と「同一」の(例えば、サーチスペースの全範囲又は画像全体に応じた)所定の又はダイナミックレンジ内の色を検出する。更に、狭い区分(つまり、狭い色の範囲)が好ましい。なぜなら、画像データは、三次元データの生成を導くために用いられ、狭い区分は、演算の複雑さについての大きな欠点なしに正確さをより生じやすくなるためである。
分割が完了すると、プロセスは、820において、視差推定を行う際に使用するためにステレオ画像及び三次元LIDARデータを視差データに変換する。本明細書で用いられる用語「視差」は、ステレオカメラ対の一方又は他方による2つの異なる視点から撮られる2つの対応する画像に現れる単一のオブジェクトに対する画像内における位置(in−image location)間の差(例えば、測定された距離)を意味する。ステレオ画像対についての視差の算出のためのプロセスは良く知られている。上記で簡潔に説明されたように、同時に撮られた2つの画像は、それらの画像のおける対応するピクセルを識別するために既知の内因性及び外因性パラメータを用いて、比較される。そして、画像内(in−image)(例えば、42ピクセル又は15マイクロメートル)又は現実内(in−reality)(例えば、145センチメートル)のいずれかの画像が算出される。
LIDARデータは、同様に、関連する数学の全体の複雑さを低くするために、視差に変換される。三次元LIDARデータを視差データに変換するために、データは、二次元視差データへの投影として変換される。しかし、LIDARデータが非常に正確であるため、それを提供するわずかなデータポイントに対して、厳密に正しいと信頼する。対応するポイントが画像内に識別されると、導かれたLIDAR視差データは、絶対的に正しいとして画像データのそれらのポイントに適用される。これは、LIDAR視差データが、画像ベースの視差計算に用いるために視差データを伝搬するためにシードポイントとして機能することを可能にする。
830において、視差は、画像ベースの視差及び各区分に対して変換されたLIDARデータポイントの少なくとも1つ(可能であれば)を用いて推定される。例えば、図9は、区分内に2つの既知のLIDARデータポイントを有する区分910を示す。ここで、画像区分内の2つのポイントの深さ912及び深さ914は、既知である。区分が、類似色に決定されており、色の類似性を維持しながら可能な限り小さいため、当該区分内の深さが滑らかであり、相対的に均一である見込みが非常に高い。そのため、当該区分内のLIDARデータポイントに基づいて深さ912及び深さ914を知ることは、そこから導かれた視差データを用いて当該区分の実際の深さの非常に正確な推定を可能にすることができる。
図8に戻り、利用できるときに、視差のためのLIDARデータポイントを用いて、視差を推定するために、視差推定は、先ず、探索されなければならない利用可能な深さのフィールドを狭くするために用いられる。画像が分割されると、区分内の視差は、滑らかであるべきである。区分が全体的に正しくない場合でも、これは、当該区分に対する利用可能なLIDARベースの視差に基づいて認められるであろう。
区分における各ピクセルに対する視差は、2つの隣接するピクセル間の差を最小化することにより平滑化される。非常に類似する配色及び相対的に小さいサイズの区分内では、各ピクセルの相対的な深さが非常に類似しやすい可能性が極めて高いので、これは、当然である。更に、この推定は、それらのピクセル深さを変えることを許さず、画像ベースの視差から導かれたもののみを変えることによって、区分を通じて既知の正確なLIDAR視差データを伝搬するために用いられうる。平滑化を何度も行うことは、LIDAR視差データに基づいてピクセル深さを変更しないで、各区分に亘る相対的に正確な視差推定をもたらす。
840において、上述されたように生成された推定値に基づいて、プレーンフィッティング(plane fitting)は、より正確な視差を導くために用いられる。プレーンフィッティングは、面内に値のセットを適合しようとする実質的なアルゴリズムである。この場合、当該値は、画像データから導かれる、及びLIDARデータから導かれる、両方の視差データである。
ここで、区分の視差全体は、連続的かつ分散的ではない。そのため、サーチスペースは、精密な値(例えば、フローティングポイント値)を生成するために無限でありうる。これは、問題の解決を困難にする。例えば、マルチレベル凸最適化問題を用いて精密な深さ値を導くことは、サーチスペースが大きすぎるため、許容可能な解決手段ではない。
しかし、既知の視差を平面にフィッティングすることは、このような場合に正確となる傾向があり、実質的に、与えられた区分に亘る視差に対する潜在的な値を制限する。そのようにするために、平面は、平面を形成するために視差からのポイントを用いて法線でパラメータ化される。しかし、法線は、LIDARデータから引かれるいくつかのポイントを除いて、未知である。そのため、垂線は、平面に対して未知又は不正確な法線を置き換えるために、LIDARデータからの既知の法線に基づいて伝搬される。視差は、前面平行バイアスを回避するために用いられてもよい。具体的には、与えられた区分における全てのオブジェクトは、同一の視差を有すると仮定される。しかし、プレーンフィッティングは、「勾配した」又は湾曲した表面に関する潜在的な問題を解決する。法線及び視差の無限の取り得る組み合わせは、ランダム初期化を用いて解決されうる。ランダム初期化を用いて、一部の正確なデータは、たとえ偶然であっても、プレーンフィッティングアルゴリズムに入れられ、LIDARデータは、正しいことが知られる。そこから、正しいデータは、区分に亘って伝搬されうる。
視差は、予め計算された視差推定を超える範囲内で初期化される。法線は、0.5から1の範囲で初期化される。なぜなら、極端な勾配又は角度を有するオブジェクトは、可能性が低いためである。そして、良好なサンプルは、ランダムに摂動を与えられた法線及び視差を有する区分に亘って空間的に伝搬される。
コストは、適応的なサポート重み付けを用いて演算される。空間伝搬のために、近傍ピクセルからの面パラメータを用いるコストは、元のコスト(例えば、ランダムなコスト又は事前に推定されたコスト)と比較される。元のコストが低い場合、面パラメータは、更新される。ランダム摂動を入れるために、面パラメータは、小さな分散の間でランダムに変更され、コストは、元のコストに対して再度比較される。更新されたコストが低い場合、面パラメータは、再度更新される。このプロセスは、輻輳まで繰り返される。実際には、輻輳は、比較的早い。望まれる場合には、反復は、結果を急ぐために、特定回数の反復又は総実行時間に対して意図的に制限されてもよい。他の方法が利用可能であるが、効率が低くなることがわかっている。
視差推定の次の段階は、850において、閉塞された領域を充填することである。左視差マップと右視差マップとで左‐右一貫性チェックが行われる。左視差マップと右視差マップとの視差の差が、0.5よりも大きく、法線ベクトルの角度間の偏向が5よりも大きい場合、領域は、閉塞(オクルージョン)としてラベル付けされる。閉塞検出のための他の方法が存在するが、閉塞検出のための方法は、画像の部分閉塞を調節しつつ、三次元データを三次元空間により良く適合するために採用されてもよい。閉塞が検出されたとき、各閉塞ピクセルは、前の段階から演算された面を延ばすことによって、最も近い非閉塞ピクセルに対応するデータに置き換えられる。
次に、重み付けメディアンフィルタを視差マップに適用することによって、後処理が行われる。重み付けメディアンフィルタは、ハードエッジ(例えば、単一ポイント以上の深さでの大きな変化だが、エッジに見える)を保ちつつ、外れ値を除くことによって、視差マップ全体を平滑化するために便利である。重み付けメディアンフィルタをデータに適用することは、一般的に良く知られている。
最後に、870において、視差データは、深さデータ又は三次元データに戻し変換される。上記の計算は、視差計算として完了される。なぜなら、これは、深さ計算を簡素化するためである。利用可能な三次元LIDARデータを有しているが、ステレオ画像から導かれる視差は、三次元からよりも、より容易に機能する。各計算による三次元での動作ではなく、計算は、一般的に、二次元に制限される。
一旦、視差が上述されたプロセスを用いて決定されると、視差は、三次元シーンを生成する適した三次元データ、例えば動画、に再度変換される。シーンの画像は、深さデータとインテリジェントに組み合わせられ、画像に基づいて、三次元空間の、視覚的に正確な、三次元的に正確な再形成を形成する。典型的な球面「一体化」された写真ではなく、得られた三次元データ(フレーム‐バイ‐フレーム動画データを含む)は、共に一体化された両方の画像と、これらの画像内のオブジェクトの輪郭及び物理的深さを示す三次元データを含む。それと共に、これらのプロセスの結果として形成される三次元データは、バーチャルリアリティ又は拡張現実アプリケーション用の知覚可能な深さを有する正確かつ視覚的に三次元空間を再形成するために用いられる。
一旦、870において、データが深さ又は三次元データに再度変換されると、プロセスは、895において終了する。
ここで、図10に移り、単一の三次元画像に一体化されたステレオグラフィック画像間のシームを融合するための方法のフローチャートが示される。シーム融合プロセスは、バーチャル三次元空間に取られる再投影の大きなプロセスの一部のみである。前後関係のため、全体にわたるプロセスが図10を特に参照しながら概略的に説明されるが、図10は、シーム融合プロセスに注目している。図10のプロセスは、開始1005から終了1095で示されるが、当該プロセスは、動画フレームの独立した部分のために複数コア又はプロセッサで同時に行われてもよく、三次元動画に対して反復的であってもよい。
一般的に、三次元位置が、各カメラによって形成された画像の各ピクセルに対して計算されると、ポイントクラウドフュージョンアルゴリズムが適用される。ポイントクラウドフュージョンアルゴリズムは、1010における初期パノラマ投影と、1020における最適シーム探索と、1030‐1080における色補正(例えば、シーム融合)と、最後に、1090における現在補正された色を有する補正ポイントクラウドの三次元再投影と、を含む。
第1のステップは、1010において、三次元ポイントクラウドのパノラマ投影である。パノラマ投影は、ステレオ画像及び三次元LIDARデータ融合の結果として形成される全三次元データが、画像をキャプチャするために用いられるカメラと同様に配置される一連の有効平坦画像にダウンコンバートされることを意味する。パノラマ投影は、システムが三次元ドメインに代えて二次元ドメインでのシームを探索することを可能にすることによって、三次元ポイントクラウド間の最適なシーム探索(最終的な三次元データにおいて2つの画像を共に視覚的に融合するための位置)のプロセスを簡素化する。再び、二次元向けの数学式は、典型的にはより簡素であり、よって、要求される時間は、同様に短くなる。更に、パノラマ投影は、同様の結果を有するポアソン式を用いて、三次元ドメインに代えて二次元ドメインでの補正を可能にすることによって、シームに沿う色補正を簡素にする。
最後に、パノラマ投影を用いて、画像メッシュ化のプロセスは、マーチングキューブアルゴリズム(marching cubes algorithm)又はポアソン再構築アルゴリズム(Poisson reconstruction algorithm)を用いて複雑な三次元構造又はポイントクラウド自体を扱うよりもより簡素である。それに替えて、メッシュ化は、パノラマに基づいて比較的単純に接続される。これは、バーチャルリアリティ環境の目的のために十分良好に機能する。なぜなら、VRヘッドセット内の三次元空間を閲覧する個人は、移動が制限されることによりパノラマ投影の中心に中心付けられるためである。結果として、パノラマに基づくメッシュ化は、実際には、三次元空間の三次元態様全体を維持しながら、非常に自然に見えかつ説得力がある。
多角形投影と呼ばれることもあるパノラマ投影は、図11A及び図11Bからなる図11を参照して理解される。多角形投影の形状は、ステレオ画像をキャプチャするために用いられる元のカメラリグの構成に依存する。図11A及び図11Bに示される多角形投影1100は、7つの側面(14個のカメラ)リグに基づく。図11Aは、開状態でのプリズムであり、面1110‐1116が見えるが、図11Bは、多角形投影に形成されたプリズムであり、面1110‐1116は、プリズムを形成する。このようなプリズムでは、多角形投影により再形成されるバーチャルリアリティ環境内の閲覧者は、多角形投影1100の中心に実質的に配置されるであろう。図に示すように、ステレオ画像(ステレオカメラ)の1セットを表す側面の各々は、多角形投影で表される。よって、図11A及び図11Bの多角形投影1100に用いられるカメラリグは、前面カメラ対が各矩形面を表し、上面及び底面カメラ対が上面及び底面五角形面を表す五角形プリズムであった。
多角形投影1100の非常に大きな利点は、パノラマの全ての位置で等しいサンプリングが可能なことである。なぜなら、各側面は、キャプチャするカメラに直接的に平行であるためである。一方、従来の球面投影が用いられた場合、2つのカメラでの視点間のピクセルの欠けにより、追加の穴充填が必要となるであろう。多角形投影は、従来の球面投影と比べて、少ないピクセルで同じパノラマの解像度を示す機能も有する。一様でないサンプリングにより適用される球面投影のN極(North pole)及びS極(South pole)での不要なピクセルが多数存在する。多角形投影は、全ての画像において等しいサンプリングを有する。
図10に戻り、1010においてパノラマ投影が適用された後、画像シームが検出されなければならず、1020において、それらのシームに沿ってカットが行われる。画像シームは、2つの画像が結合されるであろう各画像におけるそれらの位置である。最適なシームカットは、隣接する視野からポイントクラウドを隔てるために必要である。カメラ較正及び三次元位置計算が完璧となることが困難であることが主な理由である。よって、異なるカメラからの同一(重複)とされるポイントは、それらの相対的な位置においていくつかの偏位を有する。多角形投影がシーム融合なしで行われるとき、これは、ゴーストアーティファクトを生じる。すなわち、同一のオブジェクトは、重複画像において2つに生じ、よって、それらの画像(及びそれらの関連する三次元データ)は、投影に現れる。これは、望ましくない。したがって、両方の画像において、及びより具体的にはポイントクラウドにおいて、これらの繰り返されたオブジェクトは、排除されなければならず、データは、リアリティを正確に表し、かつゴーストアーティファクトを排除するためにインテリジェントに接合及び融合されなければならない。シームに沿ってカットを行うために多くの手段が存在する。本プロセスは、それらのカット選択及び注入のいずれかで等しく良好に機能しうる。
しかし、理想的なカットは、低勾配領域(つまり、色及び深さが相対的に均一な領域)におけるシームにおいて行うことが好ましい。これらのシームに沿ってなされるカットが用いられる場合、視覚アーティファクトは、得られるシーン内の閲覧者によって知覚されにくくなる。シームは、シームに沿う色の変化を最小にするシームを選択することによって、相対的に同様の色及び深さに基づいて自動的に選択される。選択された画像シームは、実施に応じて、直線として選択されてもよく又は選択されなくてもよい。
カット及び接合を行うために最適なシームを選択した後、色補正が必要である。なぜなら、シームにおいて明らかな色不連続となりやすいためである。カメラセンサは、典型的には、本明細書で説明されるカメラリグで用いられる同一モデルのカメラであっても、個体差を有することが知られている。その結果、元の画像自体であっても、画像内の様々なオブジェクトに対する色のわずかな差を有する。これは、カラーバランスの後、及びホワイトバランス及びゲインが調整された後であっても生じうる。カメラの異なる位置決めは、わずかな、あるときには大きな、視点間の色の差を生じる外部光への異なる応答ももたらすであろう。様々な色補正方法が用いられてもよい。好ましくは、ポアソン融合が用いられる。なぜなら、これは、勾配ドメインにおいて色補正問題を解決することを目標とする。検出されたシームでは、常に、望まれない勾配が存在する。そのため、ポアソン融合は、シームにおける色補正を行うために良好に機能する。また、様々な方法が採用されるが、好ましくは、選択される方法は、画像シームに亘る(及び周囲の)色変化を最小にする。
適切な色補正色選択のためのサーチ領域(ドメイン)を狭くするために、色補正を行うときに、先ず、1030において、融合される画像の低解像度バージョンが形成される。高解像度画像に対して、輻輳前に、反復の回数が大量になりうる。したがって、複数の解像度アプローチが計算を低減するために用いられてもよい。1020において、シームが識別され、1030において、低解像度が生成され、1040において、融合色が選択され、低解像度画像のために融合が行われる。相対的に低い解像度において、プロセスは、迅速かつ低演算コストで生じうる。得られた融合は、保存され、高解像度画像のために線形補間される。
次に、1045において、当該画像の解像度が、キャプチャされた解像度と同一であるかどうかを判定する最初のパスでは、これは、勿論、該当しない(1045において「no」)であるが、後のパスでは、該当する場合もある。次に、1050において、わずかに高い解像度の画像が形成される。低解像度で用いられ、かつ保存される融合は、1040において、より高い解像度(まだ低い)で新たな融合を行うために用いられ、1045において、キャプチャされた解像度は、低解像度画像と再び比較される。このプロセスは、元の解像度に到達するまで繰り返され、それによって、融合が完了する。
最終的に、キャプチャされた解像度が到達した(1045において「yes」)とき、融合色は、1070における画像の最も近い低解像度バージョンからのものを用いて選択され、シーム融合は、1080において、行われる。各高解像度では、色差は、新たな高解像度シームに応じて別々にバイキュービック補間(bicubic interpolation)でアップサンプルされてもよい。これは、同一画像から分類されたそれらのピクセルのみが、高い解像度に対してアップサンプルされたとき、結果に影響を与えることを意味する。更に、分離のプロセスは、色アーティファクトがシームの近くに現れなくすることを確実にする。
最後に、1090において、パノラマ再投影が適用され、現在補正され、かつ色補正された、三次元データを用いて、三次元空間を再形成する。ディスプレイデバイス(例えば、対象となるバーチャルリアリティヘッドセット又は他の環境)に応じて、異なる三次元再投影アプローチが用いられてもよい。
対象となるバーチャルリアリティヘッドセットがポジショナルトラッカー(positional tracker)を有する場合には、三次元データポイントは、三次元空間のメッシュ表現によるメッシュとして接続されてもよい。メッシュの各ピクセルに対して、(x,y)座標は、単に、幾何学的な意味を含まないコンテナ(容器)として機能する。各ピクセルは、三次元ポイント(Χ,Y,Ζ)のセットと関連し、三次元ポイントは、(x,y)座標三次元ポイントに応じて「隣接する」ポイントに接続され、閉じたメッシュを形成する。広大な深さ不連続での大きなストリーキングが存在したとしても、これは、仮想的に無限の「ブラックホール」として着用者に対して表れうる広大な深さ不連続内の大きな空の空間を見るために好ましい。いずれのカメラによってもキャプチャされない深さ不連続において閉塞が存在するであろうことは避けられない。したがって、これらの閉塞を充填することは、一般的に正確に行うことが困難である。だが、必ずしも望ましくはないが、これらの大きな深さ不連続は、ヒューリスティック(heuristic)を用いて解決される。
対象となるバーチャルリアリティヘッドセット(又は他のデバイス)がポジショナルトラッカーを有していない場合、三次元データポイントは、ステレオパノラマに再投影される。これらの状況では、閲覧者は、三次元データを用いて再形成された三次元空間内の動きとは対照的に、深さを有する三次元動画を体験するであろう。なぜなら、ヘッドセットがポジショナルトラッカーを有していないので、三次元空間を完全に再形成する必要がない。ユーザは、いずれにせよ空間内で「移動」することができないであろう。そのため、データサイズ及び演算複雑性の両方は、ステレオ画像から深さを提供されるが、単一の視点からのみであるステレオパノラマへの再投影によって低下される。
ポジショナルトラッカーを有さないバーチャルリアリティヘッドセットは、あまりパワフルでないプロセッサを有している場合がしばしばある。これらのプロセッサは、しばしば、完全な三次元レンダリングを可能にする複雑なグラフィックエンジンを適切に実行することができないが、仮想的に全てのこのようなデバイスは、プレイバックするために二次元動画をデコーディングすることができる。よって、ステレオカメラは、これらのデバイスにとって完璧である。なぜなら、パノラマは、閲覧者を環境内に向けること可能にしつつ、三次元の感覚を形成するが、従来の二次元動画として示されることができるためである。
なぜなら、システムは、各ピクセルの三次元位置を知っており、ステレオパノラマは、共通の視野円への全ての接線である光線を集めることによって生成されるためである。この方法は、関連技術で知られている。しかし、既存のアプローチは、複数の画像を得るためにステレオカメラを手動又は機械的に移動し、その後、光線の密なサンプルを得るために中心列ピクセルを抽出することによって、光線を集める。三次元データポイントクラウドが、三次元LIDARデータ及びステレオカメラ融合を介して再構築されるため、仮想的な視点を合成することによって共通視野円への全ての接線である複数の光線を集めることが好ましい。その結果、(制約内の)仮想的な視点は、共通視野円への全ての接線である複数の光線を自動的に集めることによって、再構築されうる。
結びのコメント
本明細書全体にわたって示す実施形態及び例は、開示又は請求する装置及び手順に対する限定ではなく典型として考慮すべきである。本明細書に提示した多くの例は、方法動作又はシステム要素の特定の組合せを含むが、これらの動作及び要素は、他の様式で組み合わせて同じ目的を達成することができることを理解されたい。フローチャートに関して、更なるステップ及びより少ないステップを取ることができ、図示するステップを組み合わせる又は更に改良して本明細書に記載の方法を達成することができる。一実施形態に関連してのみ説明した動作、要素及び特徴は、他の実施形態における同様の役割から除外することを目的としない。
本明細書全体にわたって示す実施形態及び例は、開示又は請求する装置及び手順に対する限定ではなく典型として考慮すべきである。本明細書に提示した多くの例は、方法動作又はシステム要素の特定の組合せを含むが、これらの動作及び要素は、他の様式で組み合わせて同じ目的を達成することができることを理解されたい。フローチャートに関して、更なるステップ及びより少ないステップを取ることができ、図示するステップを組み合わせる又は更に改良して本明細書に記載の方法を達成することができる。一実施形態に関連してのみ説明した動作、要素及び特徴は、他の実施形態における同様の役割から除外することを目的としない。
本明細書で使用する「複数」とは、2つ以上を意味する。本明細書で使用する、項目の「セット」は、そのような項目の1つ以上を含むことができる。本明細書で使用する用語「備える」、「含む」、「保持する」、「有する」、「収容する」、「伴う」等は、明細書内の記載であれ、特許請求の範囲内の記載であれ無制限であり、即ち、包括的であるがそれらに限定されないことを意味する。「からなる」及び「から本質的になる」というそれぞれの移行句のみが、特許請求の範囲に対する排他的又は半排他的移行句である。特許請求の範囲の要素を修飾するための、特許請求の範囲における「第1」、「第2」、「第3」等の順序を示す用語の使用は、それ自体、方法動作を実施する別の順序若しくは時間順序に対し、ある特許請求の範囲の要素に対する優先、優先順位又は順番を何ら暗示するものではなく、特定の名称を有する1つの特許請求の範囲の要素を、同じ名称を有する別の要素から区別するための表示として単に使用し(順序を示す用語として使用するものではあるが)、特許請求の範囲の要素を区別するものである。本明細書で使用する「及び/又は」は、列挙する項目が代替形態であることを意味するが、こうした代替形態は、列挙する項目のあらゆる組合せも含む。
Claims (26)
- 実写三次元動画をキャプチャするシステムであって、
ステレオカメラ対を作成する第1及び第2のカメラであって、前記ステレオカメラ対によって閲覧される三次元空間向けの三次元カメラデータを生成するために、ステレオからの深さ(depth−from−stereo)アルゴリズムが、前記ステレオカメラ対を用いてキャプチャされた対応する画像のセットに適用されるように、前記第1及び第2のカメラは、既知のイメージングパラメータを各々有する、第1及び第2のカメラと、
三次元LIDARデータを生じるように構成され、前記ステレオカメラ対に対して既知の位置を有するLIDARと、
第1のタイムスタンプを前記三次元カメラデータに適用し、第2のタイムスタンプを前記三次元LIDARデータに適用するタイムスタンプデバイスと、
コントローラであって、
前記ステレオからの深さ(depth−from−stereo)アルゴリズムを用いて、前記三次元空間向けの前記三次元カメラデータを生成し、
前記三次元カメラデータ及び前記三次元LIDARデータを、前記三次元カメラデータに亘って優先する前記三次元LIDARデータと組み合わせ、それにより、前記三次元空間に対応する三次元データを生成するように構成される、コントローラと、
を備えるシステム。 - 前記コントローラは、前記LIDARと前記ステレオカメラ対との間の外因性パラメータを算出することにより前記LIDARを較正し、
前記コントローラは、更に、
前記対応する画像のセット内の、ある位置での外部マーカー内の円形穴の視半径及び視覚位置を検出し、
前記三次元LIDARデータ内の、前記位置での前記外部マーカー内の前記円形穴のLIDAR半径及びLIDAR位置を検出し、
第2の位置での第2の視半径、第2の視覚位置、第2のLIDAR半径及び第2のLIDAR位置の検出を繰り返し、
前記ステレオカメラ対と前記LIDARとの回転及び並進を算出するように構成される、
請求項1に記載のシステム。 - 前記コントローラは、更に、前記三次元データを作成するために、前記対応する画像のセットにおける十分な数のピクセルの深さを算出し、
前記コントローラは、更に、
前記対応する画像のセットを用いて二次元カメラ視差データを生成し、
前記三次元LIDARデータを二次元LIDAR視差データに変換し、
前記二次元カメラ視差データ内の適した対応する二次元画像特徴を識別することによって、前記二次元カメラ視差データを複数の区分に分割し、
各区分内の少なくとも1つの二次元LIDAR視差データポイントを識別し、
各区分内の各対応するピクセルの深さとして各二次元LIDAR視差データポイントを設定し、
二次元LIDAR視差データを用いてプレーンフィッティングアルゴリズムを適用して、前記二次元カメラ視差データを、前記二次元カメラ視差データ内の前記対応するピクセル以外の各ピクセルについての対応する深さデータに精緻化し、
前記深さデータを三次元データに変換する
ように構成される、請求項1に記載のシステム。 - 前記コントローラは、更に、前記三次元データへの変換前に、前記三次元カメラデータで閉塞されて見える各区分の一部に閉塞充填を適用し、重み付けメディアンフィルタを用いて前記深さデータを平滑化するように構成される、請求項3に記載のシステム。
- 前記コントローラは、更に、シーン再構築のために画像のセット及び前記三次元データを用い、
前記コントローラは、
カラーマッチング及び勾配検出のうちの一方を用いて前記画像のセットの各々の間の画像シームを検出し、
前記画像のセットの各々の低解像度バージョンを生成し、
前記画像のセットの各々の前記低解像度バージョンの画像シームでの各ピクセルについての予備融合色を選択し、
キャプチャされた解像度での前記画像のセットに対して色融合を行う際に使用するための色融合の選択に使用するためのベースラインとして前記予備融合色を提供して、それにより、前記キャプチャされた解像度での前記画像のセット間の前記画像シームに対して適切な融合色のサーチスペースを狭くし、
前記キャプチャされた解像度での前記画像のセットの各ピクセルに対する適切な融合色をサーチするための開始点として前記キャプチャされた解像度での関連するピクセルに対応する前記予備融合色を用いて前記画像シームに沿って各ピクセルに対する融合色を選択し、
各ピクセルに対して選択された融合色を用いて前記画像シームで色融合を行う、
ように構成される、請求項1に記載のシステム。 - 前記ステレオカメラ対、前記LIDAR及び前記コントローラは、ある期間に協調して機能し、前記期間に前記三次元空間に対応する三次元動画として前記三次元データを生成する、請求項1に記載のシステム。
- 前記コントローラは、更に、
前記三次元動画の第1のフレームにおける特定のピクセルに対する特定のピクセルに移動が反映されたか判定するために、前記三次元動画の第2のフレーム内の各ピクセルでモーション検出を行い、
前記三次元動画内の前記特定のピクセルが、前記第1のフレームから前記第2のフレームへの移動を示すときにのみ、前記特定のピクセルの三次元位置を算出する、
ように構成される、請求項6に記載のシステム。 - 前記第1のタイムスタンプ及び前記第2のタイムスタンプは、前記三次元カメラデータを前記三次元LIDARデータと時間相関するために用いられる、請求項6に記載のシステム。
- 前記コントローラは、更に、前記三次元LIDARデータが空に対応する可能性が高い深さを示す前記三次元カメラデータの一部を抽出するように構成される、請求項1に記載のシステム。
- 複数のステレオカメラ対を更に備え、前記ステレオカメラ対の各々へ視認可能な前記三次元空間に対応する4πステラジアンの三次元データを生成するために前記LIDARデータと組み合わせられる4πステラジアンの三次元カメラデータを生成するために全てが協調して動作する請求項1に記載のシステム。
- 前記三次元LIDARデータは、特に、テクスチャがない三次元空間内の領域で前記三次元カメラデータと組み合わせられたとき、前記ステレオカメラ対からの全体又は部分的閉塞を有する、又は測光変化を有することを制御する請求項1に記載のシステム。
- 全地球測位システムは、前記三次元カメラデータ及び前記三次元LIDARデータの時間相関での後の使用のために前記第1のタイムスタンプ及び前記第2のタイムスタンプを作成するためのジェネレーターロッキングシステムとして用いられる前記タイムスタンプデバイスである請求項1に記載のシステム。
- 実写三次元動画をキャプチャするシステムであって、
各々が第1のステレオカメラ及び第2のステレオカメラを作成する複数のステレオカメラ対であって、各カメラは、既知のイメージングパラメータを各々有し、前記複数のステレオカメラ対によって閲覧される三次元空間向けの三次元カメラデータを生成するために、ステレオからの深さ(depth−from−stereo)アルゴリズムが、前記ステレオカメラ対を用いてキャプチャされた対応する画像のセットに適用される、複数のステレオカメラ対と、
三次元LIDARデータを生じるように構成される、前記ステレオカメラ対に対して既知の位置を有するLIDARと、
第1のタイムスタンプを前記三次元カメラデータに適用し、第2のタイムスタンプを前記三次元LIDARデータに適用するタイムスタンプデバイスと、
コントローラであって、
前記ステレオからの深さ(depth−from−stereo)アルゴリズムを用いて、前記三次元空間向けの前記三次元カメラデータを生成し、前記三次元カメラデータ及び前記三次元LIDARデータを、前記三次元カメラデータに亘って優先する前記三次元LIDARデータと組み合わせ、それにより、前記三次元空間に対応する三次元データを生成するように構成される、コントローラと、
を備えるシステム。 - 前記コントローラは、前記LIDARと前記複数のステレオカメラ対との間の外因性パラメータを算出することにより前記LIDARを較正し、
前記コントローラは、更に、
前記対応する画像のセット内の、ある位置での外部マーカー内の円形穴の視半径及び視覚位置を検出し、
前記三次元LIDARデータ内の、前記位置での前記外部マーカー内の前記円形穴のLIDAR半径及びLIDAR位置を検出し、
第2の位置での第2の視半径、第2の視覚位置、第2のLIDAR半径及び第2のLIDAR位置の検出を繰り返し、
前記ステレオカメラ対と前記LIDARとの回転及び並進を算出する、
ように構成される、請求項13に記載のシステム。 - 前記コントローラは、更に、前記三次元データを作成するために、前記対応する画像のセットにおける十分な数のピクセルの深さを算出し、
前記コントローラは、更に、
前記対応する画像のセットを用いて二次元カメラ視差データを生成し、
前記三次元LIDARデータを二次元LIDAR視差データに変換し、
前記二次元カメラ視差データ内の適した対応する二次元画像特徴を識別することによって、前記二次元カメラ視差データを複数の区分に分割し、
各区分内の少なくとも1つの二次元LIDAR視差データポイントを識別し、
各区分内の各対応するピクセルの深さとして各二次元LIDAR視差データポイントを設定し、
二次元LIDAR視差データを用いてプレーンフィッティングアルゴリズムを適用して、前記二次元カメラ視差データを、前記二次元カメラ視差データ内の前記対応するピクセル以外の各ピクセルについての対応する深さデータに精緻化し、
前記深さデータを三次元データに変換する
ように構成される、請求項13に記載のシステム。 - 前記コントローラは、更に、前記三次元データへの変換前に、前記三次元カメラデータで閉塞されて見える各区分の一部に閉塞充填を適用し、重み付けメディアンフィルタを用いて前記深さデータを平滑化するように構成される、請求項15に記載のシステム。
- 前記コントローラは、更に、シーン再構築のために画像のセット及び前記三次元データを用い、
前記コントローラは、
カラーマッチング及び勾配検出のうちの一方を用いて前記画像のセットの各々の間の画像シームを検出し、
前記画像のセットの各々の低解像度バージョンを生成し、
前記画像のセットの各々の前記低解像度バージョンの画像シームでの各ピクセルについての予備融合色を選択し、
キャプチャされた解像度での前記画像のセットに対して色融合を行う際に使用するための融合色の選択に使用するためのベースラインとして前記予備融合色を提供して、それにより、前記キャプチャされた解像度での前記画像のセット間の前記画像シームに対して適切な融合色のサーチスペースを狭くし、
前記キャプチャされた解像度での前記画像のセットの各ピクセルに対する適切な融合色をサーチするための開始点として前記キャプチャされた解像度での関連するピクセルに対応する前記予備融合色を用いて前記画像シームに沿って各ピクセルに対する融合色を選択し、
各ピクセルに対して選択された融合色を用いて前記画像シームで色融合を行う、
ように構成される、請求項15に記載のシステム。 - 前記ステレオカメラ対、前記LIDAR及び前記コントローラは、ある期間に協調して機能し、前記期間に前記三次元空間に対応する三次元動画として前記三次元データを生成する、請求項13に記載のシステム。
- 前記コントローラは、更に、
前記三次元動画の第1のフレームにおける特定のピクセルに対する特定のピクセルに移動が反映されたか判定するために、前記三次元動画の第2のフレーム内の各ピクセルでモーション検出を行い、
前記三次元動画内の前記特定のピクセルが、前記第1のフレームから前記第2のフレームへの移動を示すときにのみ、前記特定のピクセルの三次元位置を算出する
ように構成される、請求項18に記載のシステム。 - 前記第1のタイムスタンプ及び前記第2のタイムスタンプは、前記三次元カメラデータを前記三次元LIDARデータと時間相関するために用いられる、請求項18に記載のシステム。
- 前記コントローラは、更に、前記三次元LIDARデータが空に対応する可能性が高い深さを示す前記三次元カメラデータの一部を抽出するように構成される、請求項13に記載のシステム。
- 複数のステレオカメラ対を更に備え、前記ステレオカメラ対の各々へ視認可能な前記三次元空間に対応する4πステラジアンの三次元データを生成するために前記LIDARデータと組み合わせられる4πステラジアンの三次元カメラデータを生成するために全てが協調して動作する請求項13に記載のシステム。
- 前記三次元LIDARデータは、特に、テクスチャがない三次元空間内の領域で三次元カメラデータと組み合わせられたとき、前記ステレオカメラ対からの全体又は部分的閉塞を有する、又は測光変化を有することを制御する請求項13に記載のシステム。
- 全地球測位システムは、前記三次元カメラデータ及び前記三次元LIDARデータの時間相関での後の使用のために前記第1のタイムスタンプ及び前記第2のタイムスタンプを作成するためのジェネレーターロッキングシステムとして用いられる前記タイムスタンプデバイスである請求項13に記載のシステム。
- プロセッサにより実行されたときに、前記プロセッサに三次元データを生成させる命令を有するプログラムを記憶した記憶媒体を備える装置であって、
前記プログラムの前記命令は、複数のステレオカメラ対により閲覧される三次元空間向けの三次元カメラデータを生成し、
各々が第1のステレオカメラ及び第2のステレオカメラを作成し、各カメラは、既知のイメージングパラメータを各々有し、ステレオからの深さ(depth−from−stereo)アルゴリズムが、前記ステレオカメラ対を用いてキャプチャされた対応する画像のセットに適用され、
LIDARを用いて三次元LIDARデータを生成し、
第1のタイムスタンプを前記三次元カメラデータに適用し、第2のタイムスタンプを前記三次元LIDARデータに適用し、
前記三次元空間向けの前記三次元カメラデータを生成するために前記ステレオからの深さ(depth−from−stereo)アルゴリズムを用い、
前記三次元カメラデータ及び前記三次元LIDARデータを、前記三次元カメラデータに亘って優先する前記三次元LIDARデータと組み合わせ、それにより、前記三次元空間に対応する三次元データを生成する、ためのものである、装置。 - 前記プロセッサと、
メモリと、を更に備え、
前記プロセッサ及び前記メモリは、前記記憶媒体上の前記命令を実行するための回路及びソフトウェアを備える、請求項25に記載の方法。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562119821P | 2015-02-24 | 2015-02-24 | |
US62/119,821 | 2015-02-24 | ||
US201562202916P | 2015-08-10 | 2015-08-10 | |
US62/202,916 | 2015-08-10 | ||
US15/047,525 US9369689B1 (en) | 2015-02-24 | 2016-02-18 | Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video |
US15/047,525 | 2016-02-18 | ||
PCT/US2016/019396 WO2016138161A1 (en) | 2015-02-24 | 2016-02-24 | Lidar stereo fusion live action 3d model virtual reality video |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018515825A true JP2018515825A (ja) | 2018-06-14 |
Family
ID=56100735
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017545687A Pending JP2018515825A (ja) | 2015-02-24 | 2016-02-24 | Lidarステレオ融合実写3dモデルバーチャルリアリティビデオ |
Country Status (6)
Country | Link |
---|---|
US (3) | US9369689B1 (ja) |
EP (1) | EP3262464A4 (ja) |
JP (1) | JP2018515825A (ja) |
KR (1) | KR20180003535A (ja) |
CN (1) | CN107407866A (ja) |
WO (1) | WO2016138161A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102025113B1 (ko) * | 2018-08-27 | 2019-09-25 | 영남대학교 산학협력단 | LiDAR를 이용한 이미지 생성 방법 및 이를 위한 장치 |
JP2020153865A (ja) * | 2019-03-20 | 2020-09-24 | 株式会社リコー | 3次元情報取得装置、情報処理装置、およびシステム |
JP2021516183A (ja) * | 2019-01-30 | 2021-07-01 | バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド | 自動運転車のためのポイントクラウドゴースト効果検出システム |
JP2022515225A (ja) * | 2019-11-18 | 2022-02-17 | 商▲湯▼集▲團▼有限公司 | センサキャリブレーション方法及び装置、記憶媒体、キャリブレーションシステム並びにプログラム製品 |
US11928830B2 (en) | 2021-12-22 | 2024-03-12 | Honeywell International Inc. | Systems and methods for generating three-dimensional reconstructions of environments |
JP7493032B2 (ja) | 2019-09-13 | 2024-05-30 | トヨタ リサーチ インスティテュート,インコーポレイティド | 未知の関連付けを有する2dから3dラインに基づいた位置合わせ |
Families Citing this family (134)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11282287B2 (en) | 2012-02-24 | 2022-03-22 | Matterport, Inc. | Employing three-dimensional (3D) data predicted from two-dimensional (2D) images using neural networks for 3D modeling applications and other applications |
US10848731B2 (en) | 2012-02-24 | 2020-11-24 | Matterport, Inc. | Capturing and aligning panoramic image and depth data |
US9324190B2 (en) | 2012-02-24 | 2016-04-26 | Matterport, Inc. | Capturing and aligning three-dimensional scenes |
ES2545803B1 (es) * | 2014-03-12 | 2016-08-09 | Alberto ADARVE LOZANO | Sistema de visión para reabastecimiento en vuelo |
US10692234B2 (en) * | 2015-02-12 | 2020-06-23 | Nextvr Inc. | Methods and apparatus for making environmental measurements and/or using such measurements |
US9369689B1 (en) * | 2015-02-24 | 2016-06-14 | HypeVR | Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video |
US20170006219A1 (en) | 2015-06-30 | 2017-01-05 | Gopro, Inc. | Image stitching in a multi-camera array |
US10063849B2 (en) | 2015-09-24 | 2018-08-28 | Ouster, Inc. | Optical system for collecting distance information within a field |
US9992477B2 (en) | 2015-09-24 | 2018-06-05 | Ouster, Inc. | Optical system for collecting distance information within a field |
US9888174B2 (en) * | 2015-10-15 | 2018-02-06 | Microsoft Technology Licensing, Llc | Omnidirectional camera with movement detection |
US10277858B2 (en) | 2015-10-29 | 2019-04-30 | Microsoft Technology Licensing, Llc | Tracking object of interest in an omnidirectional video |
US10033926B2 (en) | 2015-11-06 | 2018-07-24 | Google Llc | Depth camera based image stabilization |
US9992502B2 (en) | 2016-01-29 | 2018-06-05 | Gopro, Inc. | Apparatus and methods for video compression using multi-resolution scalable coding |
US10291910B2 (en) | 2016-02-12 | 2019-05-14 | Gopro, Inc. | Systems and methods for spatially adaptive video encoding |
US10484621B2 (en) | 2016-02-29 | 2019-11-19 | Gopro, Inc. | Systems and methods for compressing video content |
US10645362B2 (en) * | 2016-04-11 | 2020-05-05 | Gopro, Inc. | Systems, methods and apparatus for compressing video content |
US11025882B2 (en) * | 2016-04-25 | 2021-06-01 | HypeVR | Live action volumetric video compression/decompression and playback |
CN107316273B (zh) * | 2016-04-27 | 2021-05-18 | 深圳看到科技有限公司 | 全景图像采集装置及采集方法 |
US10163030B2 (en) | 2016-05-20 | 2018-12-25 | Gopro, Inc. | On-camera image processing based on image activity data |
US20170359561A1 (en) * | 2016-06-08 | 2017-12-14 | Uber Technologies, Inc. | Disparity mapping for an autonomous vehicle |
US10462466B2 (en) | 2016-06-20 | 2019-10-29 | Gopro, Inc. | Systems and methods for spatially selective video coding |
US10129523B2 (en) | 2016-06-22 | 2018-11-13 | Microsoft Technology Licensing, Llc | Depth-aware reprojection |
US10237531B2 (en) | 2016-06-22 | 2019-03-19 | Microsoft Technology Licensing, Llc | Discontinuity-aware reprojection |
WO2018002910A1 (en) * | 2016-06-28 | 2018-01-04 | Cognata Ltd. | Realistic 3d virtual world creation and simulation for training automated driving systems |
WO2018005953A1 (en) * | 2016-07-01 | 2018-01-04 | Facebook, Inc. | Stereoscopic image capture |
JP6812554B2 (ja) | 2016-08-24 | 2021-01-13 | アウスター インコーポレイテッド | フィールド内の距離情報を収集するための光学システム |
CN106383576B (zh) * | 2016-09-08 | 2019-06-14 | 北京美吉克科技发展有限公司 | Vr环境中显示体验者身体局部的方法及系统 |
CN106331645B (zh) * | 2016-09-08 | 2019-02-22 | 北京美吉克科技发展有限公司 | 利用虚拟镜头实现vr全景视频后期编辑的方法和系统 |
KR101892740B1 (ko) * | 2016-10-11 | 2018-08-28 | 한국전자통신연구원 | 통합 이미지 마커 생성 방법 및 그 방법을 수행하는 시스템 |
KR102534565B1 (ko) | 2016-10-20 | 2023-05-19 | 삼성전자주식회사 | 컨텐츠를 제공하기 위한 방법 및 그 전자 장치 |
CN107993276B (zh) * | 2016-10-25 | 2021-11-23 | 杭州海康威视数字技术股份有限公司 | 一种全景图像的生成方法及装置 |
RU2728836C2 (ru) | 2016-10-28 | 2020-07-31 | Ппг Индастриз Огайо, Инк. | Покрытия для увеличения расстояния обнаружения до объекта, обнаруживаемого с помощью электромагнитного излучения ближнего инфракрасного диапазона |
US10922836B2 (en) * | 2016-11-15 | 2021-02-16 | Carl Zeiss Industrielle Messtechnik Gmbh | Method and system for determining a 3D position of an object in space |
JP6604934B2 (ja) * | 2016-12-13 | 2019-11-13 | 日本電信電話株式会社 | 点群画素位置決定装置、方法、及びプログラム |
US10003787B1 (en) | 2016-12-21 | 2018-06-19 | Canon Kabushiki Kaisha | Method, system and apparatus for refining a depth map |
SG10201700299QA (en) * | 2017-01-13 | 2018-08-30 | Otsaw Digital Pte Ltd | Three-dimensional mapping of an environment |
US10198862B2 (en) | 2017-01-23 | 2019-02-05 | Gopro, Inc. | Methods and apparatus for providing rotated spherical viewpoints |
WO2018140656A1 (en) * | 2017-01-26 | 2018-08-02 | Matterport, Inc. | Capturing and aligning panoramic image and depth data |
WO2018144315A1 (en) * | 2017-02-01 | 2018-08-09 | Pcms Holdings, Inc. | System and method for augmented reality content delivery in pre-captured environments |
US10306212B2 (en) * | 2017-03-31 | 2019-05-28 | Verizon Patent And Licensing Inc. | Methods and systems for capturing a plurality of three-dimensional sub-frames for use in forming a volumetric frame of a real-world scene |
CA3063605A1 (en) | 2017-05-15 | 2018-11-22 | Ouster, Inc. | Optical imaging transmitter with brightness enhancement |
US10809380B2 (en) | 2017-05-15 | 2020-10-20 | Ouster, Inc. | Augmenting panoramic LIDAR results with color |
US10321109B1 (en) | 2017-06-13 | 2019-06-11 | Vulcan Inc. | Large volume video data transfer over limited capacity bus |
US10719987B1 (en) | 2017-06-28 | 2020-07-21 | Kilburn Live, Llc | Augmented reality in a virtual reality environment |
US10671082B2 (en) * | 2017-07-03 | 2020-06-02 | Baidu Usa Llc | High resolution 3D point clouds generation based on CNN and CRF models |
EP3438776B1 (en) * | 2017-08-04 | 2022-09-07 | Bayerische Motoren Werke Aktiengesellschaft | Method, apparatus and computer program for a vehicle |
US10447973B2 (en) | 2017-08-08 | 2019-10-15 | Waymo Llc | Rotating LIDAR with co-aligned imager |
CN107483911A (zh) * | 2017-08-25 | 2017-12-15 | 秦山 | 一种基于多目图像传感器的信号处理方法及系统 |
US11758111B2 (en) * | 2017-10-27 | 2023-09-12 | Baidu Usa Llc | 3D lidar system using a dichroic mirror for autonomous driving vehicles |
US10967862B2 (en) | 2017-11-07 | 2021-04-06 | Uatc, Llc | Road anomaly detection for autonomous vehicle |
US10481269B2 (en) | 2017-12-07 | 2019-11-19 | Ouster, Inc. | Rotating compact light ranging system |
US11012676B2 (en) * | 2017-12-13 | 2021-05-18 | Google Llc | Methods, systems, and media for generating and rendering immersive video content |
WO2019117549A1 (en) | 2017-12-15 | 2019-06-20 | Samsung Electronics Co., Ltd. | Imaging apparatus, imaging method, and computer program product |
US20190208136A1 (en) * | 2017-12-29 | 2019-07-04 | Waymo Llc | High-speed image readout and processing |
US10671862B2 (en) | 2018-01-30 | 2020-06-02 | Wipro Limited | Method and system for detecting obstacles by autonomous vehicles in real-time |
US10628920B2 (en) | 2018-03-12 | 2020-04-21 | Ford Global Technologies, Llc | Generating a super-resolution depth-map |
CN108259880B (zh) * | 2018-03-22 | 2024-01-30 | 人加智能机器人技术(北京)有限公司 | 多向双目视觉感知方法、装置及系统 |
US10694103B2 (en) * | 2018-04-24 | 2020-06-23 | Industrial Technology Research Institute | Building system and building method for panorama point cloud |
KR102012179B1 (ko) * | 2018-04-30 | 2019-08-20 | 충북대학교 산학협력단 | 3차원 평면 검출 기반의 라이다-카메라 캘리브레이션 장치 및 방법 |
US10726567B2 (en) * | 2018-05-03 | 2020-07-28 | Zoox, Inc. | Associating LIDAR data and image data |
CN108646259B (zh) * | 2018-05-14 | 2021-05-07 | 南京数联空间测绘科技有限公司 | 一种三维激光扫描仪设站定向装置及方法 |
JP6821712B2 (ja) * | 2018-06-25 | 2021-01-27 | ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド | 自然光景中での統合センサの較正 |
KR102073230B1 (ko) * | 2018-06-28 | 2020-02-04 | 주식회사 알파서클 | 특정 영역의 화질을 개선하기 위해 복수의 가상현실영상을 재생하는 가상현실영상재생장치 및 가상현실영상생성방법 |
US11067693B2 (en) * | 2018-07-12 | 2021-07-20 | Toyota Research Institute, Inc. | System and method for calibrating a LIDAR and a camera together using semantic segmentation |
US10732032B2 (en) | 2018-08-09 | 2020-08-04 | Ouster, Inc. | Scanning sensor array with overlapping pass bands |
US10739189B2 (en) | 2018-08-09 | 2020-08-11 | Ouster, Inc. | Multispectral ranging/imaging sensor arrays and systems |
US10683067B2 (en) | 2018-08-10 | 2020-06-16 | Buffalo Automation Group Inc. | Sensor system for maritime vessels |
US10936907B2 (en) | 2018-08-10 | 2021-03-02 | Buffalo Automation Group Inc. | Training a deep learning system for maritime applications |
US10782691B2 (en) | 2018-08-10 | 2020-09-22 | Buffalo Automation Group Inc. | Deep learning and intelligent sensing system integration |
US11914078B2 (en) * | 2018-09-16 | 2024-02-27 | Apple Inc. | Calibration of a depth sensing array using color image data |
CN109343061B (zh) | 2018-09-19 | 2021-04-02 | 百度在线网络技术(北京)有限公司 | 传感器标定方法、装置、计算机设备、介质和车辆 |
US11689707B2 (en) * | 2018-09-20 | 2023-06-27 | Shoppertrak Rct Llc | Techniques for calibrating a stereoscopic camera in a device |
US10531075B1 (en) | 2018-09-27 | 2020-01-07 | Honda Motor Co., Ltd. | Synchronization controller unit for sensor node |
CN109242914B (zh) * | 2018-09-28 | 2021-01-01 | 上海爱观视觉科技有限公司 | 一种可动视觉系统的立体标定方法 |
US11379788B1 (en) | 2018-10-09 | 2022-07-05 | Fida, Llc | Multilayered method and apparatus to facilitate the accurate calculation of freight density, area, and classification and provide recommendations to optimize shipping efficiency |
CN109633612B (zh) * | 2018-10-18 | 2020-06-16 | 浙江大学 | 一种无共同观测的单线激光雷达与相机外参标定方法 |
KR102470771B1 (ko) * | 2018-10-29 | 2022-11-28 | 주식회사 스프링클라우드 | 자율 주행 차량의 카메라 시야각 조정용 인터페이스 장치 및 방법 |
US11589026B2 (en) * | 2018-11-21 | 2023-02-21 | Beijing Boe Optoelectronics Technology Co., Ltd. | Method for generating and displaying panorama images based on rendering engine and a display apparatus |
CN111371982B (zh) * | 2018-12-25 | 2021-11-30 | 北京初速度科技有限公司 | 一种数据同步方法及处理器、车载终端 |
US20200217954A1 (en) * | 2019-01-07 | 2020-07-09 | Velodyne Lidar, Inc. | Systems and methods for a configurable sensor system |
US11043001B2 (en) * | 2019-01-10 | 2021-06-22 | Black Sesame International Holding Limited | High precision object location in a parking lot |
US10823562B1 (en) | 2019-01-10 | 2020-11-03 | State Farm Mutual Automobile Insurance Company | Systems and methods for enhanced base map generation |
KR102617940B1 (ko) * | 2019-01-24 | 2023-12-22 | 주식회사 케이티 | 멀티 mla 라이트 필드 카메라를 이용한 6-자유도 지원 360도 영상 생성 장치및 그 방법 |
CN109901142B (zh) * | 2019-02-28 | 2021-03-30 | 东软睿驰汽车技术(沈阳)有限公司 | 一种标定方法及装置 |
US10488185B1 (en) * | 2019-03-14 | 2019-11-26 | The Boeing Company | Methods and systems for characterizing a surface of a structural component |
US10728443B1 (en) | 2019-03-27 | 2020-07-28 | On Time Staffing Inc. | Automatic camera angle switching to create combined audiovisual file |
US10963841B2 (en) | 2019-03-27 | 2021-03-30 | On Time Staffing Inc. | Employment candidate empathy scoring system |
CN111833374B (zh) * | 2019-04-22 | 2023-12-05 | 曜科智能科技(上海)有限公司 | 基于视频融合的路径规划方法、系统、存储介质、及终端 |
CN110111278A (zh) * | 2019-04-30 | 2019-08-09 | 北京理工大学 | 一种修复拼接图像黑色无数据区域的图像处理方法 |
KR102131558B1 (ko) * | 2019-05-22 | 2020-07-07 | 주식회사 일루베이션 | 라이다를 이용한 가축 무게 측정 시스템 및 이를 이용한 가축 무게 측정 방법 |
EP3745357A1 (en) * | 2019-05-28 | 2020-12-02 | InterDigital VC Holdings, Inc. | A method and apparatus for decoding three-dimensional scenes |
US11051001B2 (en) * | 2019-05-29 | 2021-06-29 | Avigilon Corporation | Method and system for generating a two-dimensional and a three-dimensional image stream |
US11222460B2 (en) * | 2019-07-22 | 2022-01-11 | Scale AI, Inc. | Visualization techniques for data labeling |
JP7431527B2 (ja) * | 2019-08-07 | 2024-02-15 | キヤノン株式会社 | 深度情報生成装置、撮像装置、深度情報生成方法、画像処理装置、画像処理方法、及びプログラム |
US11556000B1 (en) | 2019-08-22 | 2023-01-17 | Red Creamery Llc | Distally-actuated scanning mirror |
CN111193877B (zh) * | 2019-08-29 | 2021-11-30 | 桂林电子科技大学 | 一种arm-fpga协同的广域视频实时融合方法及嵌入式设备 |
DE102019128635A1 (de) * | 2019-10-23 | 2021-04-29 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und System zum Erfassen einer Dynamik in einem dreidimensionalen Umfeld |
US10726579B1 (en) | 2019-11-13 | 2020-07-28 | Honda Motor Co., Ltd. | LiDAR-camera calibration |
TWI725620B (zh) * | 2019-11-14 | 2021-04-21 | 大陸商南京深視光點科技有限公司 | 全向立體視覺的相機配置系統及相機配置方法 |
CN110839131A (zh) * | 2019-11-22 | 2020-02-25 | 三一重工股份有限公司 | 同步控制方法、装置、电子设备和计算机可读介质 |
US11127232B2 (en) | 2019-11-26 | 2021-09-21 | On Time Staffing Inc. | Multi-camera, multi-sensor panel data extraction system and method |
CN111083438B (zh) * | 2019-12-04 | 2021-05-25 | 广东康云科技有限公司 | 基于视频融合的无人巡检方法、系统、装置和存储介质 |
CN111050128A (zh) * | 2019-12-04 | 2020-04-21 | 广东康云科技有限公司 | 基于户外场景的视频融合方法、系统、装置和存储介质 |
US11734873B2 (en) | 2019-12-13 | 2023-08-22 | Sony Group Corporation | Real-time volumetric visualization of 2-D images |
US20210191514A1 (en) * | 2019-12-18 | 2021-06-24 | Catmasters LLC | Virtual Reality to Reality System |
EP3842835A1 (en) * | 2019-12-24 | 2021-06-30 | Yandex Self Driving Group Llc | Methods and systems for online synchronization of sensors of self-driving vehicles (sdv) |
US11427193B2 (en) | 2020-01-22 | 2022-08-30 | Nodar Inc. | Methods and systems for providing depth maps with confidence estimates |
KR102550678B1 (ko) | 2020-01-22 | 2023-07-04 | 노다르 인크. | 비-강성 스테레오 비전 카메라 시스템 |
EP3855397B1 (en) | 2020-01-24 | 2021-12-29 | Axis AB | Imaging system |
CN111416785B (zh) * | 2020-02-25 | 2022-03-29 | 重庆邮电大学 | 基于加权中值的一致性时钟同步相对频偏估计方法 |
CN111416759A (zh) * | 2020-03-27 | 2020-07-14 | 海信集团有限公司 | 智能家居设备及控制方法 |
US11023735B1 (en) | 2020-04-02 | 2021-06-01 | On Time Staffing, Inc. | Automatic versioning of video presentations |
CN111192331B (zh) * | 2020-04-09 | 2020-09-25 | 浙江欣奕华智能科技有限公司 | 一种激光雷达和相机的外参标定方法及装置 |
US11676406B2 (en) * | 2020-05-20 | 2023-06-13 | Applications Mobiles Overview Inc. | System and method of augmenting a three-dimensional objects training dataset |
CN111915735B (zh) * | 2020-06-29 | 2023-08-22 | 浙江传媒学院 | 一种针对视频中三维结构轮廓的深度优化方法 |
US20220003855A1 (en) * | 2020-07-01 | 2022-01-06 | Baidu Usa Llc | Point clouds based lidar recalibration system for autonomous vehicles |
US11144882B1 (en) | 2020-09-18 | 2021-10-12 | On Time Staffing Inc. | Systems and methods for evaluating actions over a computer network and establishing live network connections |
KR102309608B1 (ko) * | 2020-10-21 | 2021-10-06 | 주식회사 노바테크 | 라이다(Lidar)와 스테레오-카메라(Stereo-Camera) 간의 좌표계 정합 방법 |
CN112312113B (zh) * | 2020-10-29 | 2022-07-15 | 贝壳技术有限公司 | 用于生成三维模型的方法、装置和系统 |
CN112729259A (zh) * | 2020-12-10 | 2021-04-30 | 华能伊敏煤电有限责任公司 | 一种露天矿三维模型智能化测绘方法 |
WO2022133569A1 (en) * | 2020-12-22 | 2022-06-30 | Prevu3D Inc. | Methods and system for reconstructing textured meshes from point cloud data |
CN113050074B (zh) * | 2021-03-16 | 2023-08-25 | 成都信息工程大学 | 无人驾驶环境感知中相机与激光雷达标定系统及标定方法 |
US11727040B2 (en) | 2021-08-06 | 2023-08-15 | On Time Staffing, Inc. | Monitoring third-party forum contributions to improve searching through time-to-live data assignments |
US11423071B1 (en) | 2021-08-31 | 2022-08-23 | On Time Staffing, Inc. | Candidate data ranking method using previously selected candidate data |
US11577748B1 (en) | 2021-10-08 | 2023-02-14 | Nodar Inc. | Real-time perception system for small objects at long range for autonomous vehicles |
DE102021128818A1 (de) | 2021-11-05 | 2023-05-11 | Ifm Electronic Gmbh | Multikamerasystem |
WO2023095937A1 (ko) * | 2021-11-24 | 2023-06-01 | 심용수 | 도면의 오차 파악 방법 및 그 장치 |
KR102599664B1 (ko) * | 2021-12-31 | 2023-11-08 | 주식회사 카이 | 다시점 영상을 전송하기 위한 시스템의 동작 방법 및 이를 수행하는 시스템 |
US11907652B2 (en) | 2022-06-02 | 2024-02-20 | On Time Staffing, Inc. | User interface and systems for document creation |
US11782145B1 (en) * | 2022-06-14 | 2023-10-10 | Nodar Inc. | 3D vision system with automatically calibrated stereo vision sensors and LiDAR sensor |
WO2024043665A1 (ko) * | 2022-08-22 | 2024-02-29 | (주)클로버추얼패션 | 3차원 시뮬레이션에서 마커를 생성 방법 및 장치 |
CN115908706B (zh) * | 2022-11-15 | 2023-08-08 | 中国铁路设计集团有限公司 | 实景三维模型与影像融合的高速铁路竣工验收方法 |
CN116681848B (zh) * | 2023-05-26 | 2024-02-27 | 青岛市勘察测绘研究院 | 一种道路注记与实景三维模型的融合显示方法 |
CN117523105B (zh) * | 2023-11-24 | 2024-05-28 | 哈工大郑州研究院 | 激光雷达和多相机数据融合的三维场景重建方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101398886B (zh) * | 2008-03-17 | 2010-11-10 | 杭州大清智能技术开发有限公司 | 一种基于双目被动立体视觉的快速三维人脸识别方法 |
US20100204974A1 (en) * | 2009-02-09 | 2010-08-12 | Utah State University | Lidar-Assisted Stero Imager |
US8294748B2 (en) * | 2009-12-11 | 2012-10-23 | DigitalOptics Corporation Europe Limited | Panorama imaging using a blending map |
EP2469301A1 (en) * | 2010-12-23 | 2012-06-27 | André Borowski | Methods and devices for generating a representation of a 3D scene at very high speed |
US9324190B2 (en) * | 2012-02-24 | 2016-04-26 | Matterport, Inc. | Capturing and aligning three-dimensional scenes |
GB201303076D0 (en) * | 2013-02-21 | 2013-04-10 | Isis Innovation | Generation of 3D models of an environment |
US9369689B1 (en) * | 2015-02-24 | 2016-06-14 | HypeVR | Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video |
-
2016
- 2016-02-18 US US15/047,525 patent/US9369689B1/en active Active
- 2016-02-24 WO PCT/US2016/019396 patent/WO2016138161A1/en active Application Filing
- 2016-02-24 EP EP16756297.4A patent/EP3262464A4/en not_active Withdrawn
- 2016-02-24 KR KR1020177027047A patent/KR20180003535A/ko not_active Application Discontinuation
- 2016-02-24 JP JP2017545687A patent/JP2018515825A/ja active Pending
- 2016-02-24 CN CN201680016024.3A patent/CN107407866A/zh active Pending
- 2016-04-26 US US15/139,183 patent/US9877009B2/en active Active
- 2016-12-20 US US15/385,181 patent/US9872010B2/en active Active
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102025113B1 (ko) * | 2018-08-27 | 2019-09-25 | 영남대학교 산학협력단 | LiDAR를 이용한 이미지 생성 방법 및 이를 위한 장치 |
WO2020045767A1 (ko) * | 2018-08-27 | 2020-03-05 | 영남대학교 산학협력단 | Lidar를 이용한 이미지 생성 방법 및 이를 위한 장치 |
US11609332B2 (en) | 2018-08-27 | 2023-03-21 | Research Cooperation Foundation Of Yeungnam University | Method and apparatus for generating image using LiDAR |
JP2021516183A (ja) * | 2019-01-30 | 2021-07-01 | バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド | 自動運転車のためのポイントクラウドゴースト効果検出システム |
JP7029479B2 (ja) | 2019-01-30 | 2022-03-03 | バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド | 自動運転車のためのポイントクラウドゴースト効果検出システム |
JP2020153865A (ja) * | 2019-03-20 | 2020-09-24 | 株式会社リコー | 3次元情報取得装置、情報処理装置、およびシステム |
JP7363068B2 (ja) | 2019-03-20 | 2023-10-18 | 株式会社リコー | 3次元情報取得システム |
JP7493032B2 (ja) | 2019-09-13 | 2024-05-30 | トヨタ リサーチ インスティテュート,インコーポレイティド | 未知の関連付けを有する2dから3dラインに基づいた位置合わせ |
JP2022515225A (ja) * | 2019-11-18 | 2022-02-17 | 商▲湯▼集▲團▼有限公司 | センサキャリブレーション方法及び装置、記憶媒体、キャリブレーションシステム並びにプログラム製品 |
US11928830B2 (en) | 2021-12-22 | 2024-03-12 | Honeywell International Inc. | Systems and methods for generating three-dimensional reconstructions of environments |
Also Published As
Publication number | Publication date |
---|---|
US9369689B1 (en) | 2016-06-14 |
US9877009B2 (en) | 2018-01-23 |
WO2016138161A1 (en) | 2016-09-01 |
US20170104980A1 (en) | 2017-04-13 |
EP3262464A4 (en) | 2018-08-08 |
KR20180003535A (ko) | 2018-01-09 |
US9872010B2 (en) | 2018-01-16 |
EP3262464A1 (en) | 2018-01-03 |
CN107407866A (zh) | 2017-11-28 |
US20160249039A1 (en) | 2016-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9872010B2 (en) | Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video | |
US11869205B1 (en) | Techniques for determining a three-dimensional representation of a surface of an object from a set of images | |
US11170561B1 (en) | Techniques for determining a three-dimensional textured representation of a surface of an object from a set of images with varying formats | |
Nair et al. | A survey on time-of-flight stereo fusion | |
US11348267B2 (en) | Method and apparatus for generating a three-dimensional model | |
JP6669063B2 (ja) | 画像処理装置および方法 | |
US20130335535A1 (en) | Digital 3d camera using periodic illumination | |
JP2019075082A (ja) | 深度値推定を用いた映像処理方法及び装置 | |
US20080225042A1 (en) | Systems and methods for allowing a user to dynamically manipulate stereoscopic parameters | |
US20080228449A1 (en) | Systems and methods for 2-d to 3-d conversion using depth access segments to define an object | |
WO2013074561A1 (en) | Modifying the viewpoint of a digital image | |
Hahne et al. | Combining time-of-flight depth and stereo images without accurate extrinsic calibration | |
JP6683307B2 (ja) | 多数のカメラを用いた最適の球形映像獲得方法 | |
JP2016537901A (ja) | ライトフィールド処理方法 | |
Pagani et al. | Dense 3D Point Cloud Generation from Multiple High-resolution Spherical Images. | |
Schenkel et al. | Natural scenes datasets for exploration in 6DOF navigation | |
Lin et al. | A low-cost portable polycamera for stereoscopic 360 imaging | |
EP1668919A1 (en) | Stereoscopic imaging | |
JP2016114445A (ja) | 3次元位置算出装置およびそのプログラム、ならびに、cg合成装置 | |
JPWO2019211970A1 (ja) | 三次元再構成方法及び三次元再構成装置 | |
JP2000331151A (ja) | 画像処理方法、画像歪み補正処理装置、及びそのプログラムを記録した記録媒体 | |
JP2003337953A (ja) | 画像処理装置および画像処理方法、並びにコンピュータ・プログラム | |
JP2015005200A (ja) | 情報処理装置、情報処理システム、情報処理方法、プログラムおよび記憶媒体 | |
Kim et al. | Projection-based registration using color and texture information for virtual environment generation | |
Amjadi | Comparing of radial and tangencial geometric for cylindric panorama |