JP2020510903A - 環境のデジタルキャプチャのための画像収集の追跡、並びに関連のシステム及び方法 - Google Patents
環境のデジタルキャプチャのための画像収集の追跡、並びに関連のシステム及び方法 Download PDFInfo
- Publication number
- JP2020510903A JP2020510903A JP2019541770A JP2019541770A JP2020510903A JP 2020510903 A JP2020510903 A JP 2020510903A JP 2019541770 A JP2019541770 A JP 2019541770A JP 2019541770 A JP2019541770 A JP 2019541770A JP 2020510903 A JP2020510903 A JP 2020510903A
- Authority
- JP
- Japan
- Prior art keywords
- environment
- optical sensor
- view capture
- route
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/56—Accessories
- G03B17/561—Support related camera accessories
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/001—Constructional or mechanical details
Abstract
現実世界の環境のデジタルキャプチャのための画像収集、並びに関連するシステム及び方法が開示される。環境をデジタル的にキャプチャするための典型的な方法は、レーザースキャナで少なくとも1つの固定ポイントから環境をスキャンして、スキャンデータを取得する段階と、スキャンデータに少なくとも部分的に基づいて、環境内の経路に対応するビューキャプチャルートを生成する段階と、を含む。本方法は、人間のオペレータがビューキャプチャルートに沿って移動するのに伴って、光学センサを携行する人間のオペレータから光学データを受信する段階を更に含むことができる。本方法は、更に、光学データに少なくとも部分的に基づいて、環境の仮想(又は他の)表現を生成する段階を含むことができる。【選択図】図8
Description
本技術は、一般に、環境のデジタルキャプチャ(一例として仮想現実)のための画像収集の改善、並びに関連するシステム及び方法に向けられている。
[関連出願への相互参照]
本出願は、引用により本細書に組み込まれた、2017年2月2日出願の係属中の米国仮出願第62/453,965号に対する優先権を主張する。
本出願は、引用により本細書に組み込まれた、2017年2月2日出願の係属中の米国仮出願第62/453,965号に対する優先権を主張する。
「仮想現実」とは、一般に、ソフトウェアを用いて、現実環境を描写する画像及び/又は他の感知入力を生成し、或いは仮想環境をシミュレートするコンピュータ技術を指す。現実環境に対応する仮想現実環境を作成するために、クリエータは、現実環境の十分な画像データを取得しなければならない。この処理は、複数の課題を提示する可能性がある。例えば、正確な表現のために必要な大量の画像データを取得することは困難なことがある。特に、三次元環境の何れの部分がキャプチャされたか、及び何れがキャプチャされていないかを正確に追跡することは困難とすることができる。更に、特定の環境は、標準的なデータ収集技術に適用できないことがあり、従って、このような環境で十分なデータを収集するのは困難な場合がある。従って、リアルな仮想現実シミュレーションを提供するために必要な情報を収集する改善された技術に対する必要性が依然としてある。
本技術は、一般に、画像収集技術に関し、より具体的には、例えば、仮想現実において表示するために、現実世界の環境をデジタル的にキャプチャするのに用いられる画像収集データを追跡するためのシステム及び方法に向けられている。開示する技術の幾つかの実施形態の特定の詳細について、特定の典型的な構成を参照しながら以下で説明する。他の実施形態では、開示する技術は、他の構成を有する技術及び関連システムに従って実施することができる。明確にするために以下の記載においては、公知であり且つ画像データ収集及び仮想現実技術に関連することがあるが、現在開示している技術の幾つかの重要な態様を不必要に曖昧にする可能性がある構造又は処理を説明する具体的詳細については記載されない。更に、以下の開示では、開示する技術の様々な態様の幾つかの実施形態を示しているが、技術の幾つかの他の実施形態は、本セクションで説明するものとは異なる構成及び/又は構成要素を有することができる。従って、本技術は、付加的な構成要素を含む、及び/又は図1から11を参照しながら以下で説明する要素の幾つかを含まない他の実施形態を有することができる。
開示する技術の幾つかの実施形態は、プログラム可能なコンピュータ又はコントローラによって実行されるルーチンを含む、コンピュータ実行可能命令の形態を取ることができる。当業者であれば、本技術は、以下に示して説明するもの以外のコンピュータ又はコントローラシステム上で実施可能である点は理解されるであろう。本技術は、以下で説明するコンピュータ実行可能命令の1又はそれ以上を実行するように特別にプログラム、構成、又は構築された専用コンピュータ、コントローラ、又はデータプロセッサで具現化することができる。従って、本明細書で一般的に使用するような「コンピュータ」及び「コントローラ」という語は、適切なデータプロセッサを含み、パームトップコンピュータ、ウェアラブルコンピュータ、セル式携帯又は携帯電話、マルチプロセッサシステム、プロセッサベースの又はプログラム可能家庭用電化製品、ネットワークコンピュータ、ラップトップコンピュータ、ミニコンピュータ、及び同様のものを含む、インターネット家電及びハンドヘルドデバイスを含むことができる。これらのコンピュータによって処理される情報は、液晶ディスプレイ(LCD)を含む何れかの適切な表示媒体で提示することができる。当該技術では知られているように、これらのコンピュータ及びコントローラは、一般に、様々なプロセッサ、メモリ(例えば、非一時コンピュータ可読媒体等)、入出力デバイス等を有する。
本技術はまた、分散環境で実施することもでき、この場合は、タスク又はモジュールが、通信ネットワークを通じてリンクされたリモート処理デバイスによって実行される。分散コンピュータ環境では、プログラムモジュール又はサブルーチンは、ローカル及びリモートのメモリストレージデバイス内に配置することができる。以下で説明する技術の態様は、磁気又は光学的に可読又は取り外し可能なコンピュータディスクを含むコンピュータ可読媒体上に格納又は分散させることができ、並びにネットワークにわたって電子的に分散させることができる。本技術の態様にとって特別なデータ構造及びデータの送信もまた、本技術の範囲内に含まれる。
1.概要
図1は、デジタル的にキャプチャされることになっている現実環境140の部分概略図である。ここに示す実施形態では、環境140が、壁141、床142、及び物体143(例えば、中心環146、台座144、及び対応する彫像145であるが、これらは概略的に、円柱として示している)を有する美術館のギャラリーを含む。環境140で画像データを収集する主な目的は、ユーザが仮想現実グーグル、ヘッドギア、及び/又は他の適切なデバイスを介して現実環境140を体験できるようにする、リアルな仮想現実環境を生成することである。
図1は、デジタル的にキャプチャされることになっている現実環境140の部分概略図である。ここに示す実施形態では、環境140が、壁141、床142、及び物体143(例えば、中心環146、台座144、及び対応する彫像145であるが、これらは概略的に、円柱として示している)を有する美術館のギャラリーを含む。環境140で画像データを収集する主な目的は、ユーザが仮想現実グーグル、ヘッドギア、及び/又は他の適切なデバイスを介して現実環境140を体験できるようにする、リアルな仮想現実環境を生成することである。
典型的なシステム100は、現実環境140に基づいて仮想現実環境を作成するために用いられる画像データを生成するように構成される。システム100は、データ(例えば、画像データ)を収集するデータコレクタ170、及びデータ収集処理を誘導するために用いられるスキャナ110を含むことができる。特定の実施形態では、スキャナ110は、単独で又は1又はそれ以上の他のシステム要素と共に使用されて、環境140から初期データを収集し、環境140内で三次元データを収集するために用いられる一連のデータ収集ルートを計画し、次にデータ収集処理を追跡して、正確なデータが確実に収集されるようにする。
図1に示すように、データコレクタ170は、人間のオペレータ180によって携行することができ、オペレータは、環境140の至る所を歩いて、その後の仮想現実シミュレーションで使用するために、環境全体をデジタル的にキャプチャするために必要なデータを収集する。人間のオペレータ180を用いてデータコレクタ170を携行することによって、システム100を、敏感な又は傷付きやすい物体(例えば、彫像145、絵画、及び/又は他の物体)を含む環境において使用することができ、このような環境では、無人機及び/又は無人車両のようなロボット装置は許容不能であり又は適切ではない場合がある。同時に、システム100によって提供される自動ガイダンス機能が、人間のオペレータ180を用いた、完全なデータ収集処理の可能性を高めることができる。
特定の実施形態において、データコレクタ170は、オペレータ180によって装着、携行、及び/又は他の方法で支持可能で、且つ1又はそれ以上のセンサ172を支持するセンサ支持体171を含む。図1に示す例証的な実施形態では、センサ172は、環境140の立体画像を提供するために(例えば、コントローラを介して)動作可能に結合することができる2台のカメラを含む。各カメラは、対応する視野173を有する。センサ支持体171はまた、「マーカ」機能をもたらす1又はそれ以上のフィデューシャル(fiducial)174又は他の要素も含むことができる。フィデューシャルにより、スキャナ110は、センサ支持体171の位置及び向き、従って、支持体が保持する(carries)センサ172を識別することができる。センサ支持体171はまた、オペレータがそれに沿って移動する画像収集ルートに対応する情報、及び/又はオペレータが環境140内で画像データを収集するために用いる他の情報をオペレータ180に提示するガイダンスディスプレイ150も保持することができる。
センサ支持体171は、システムが導出した自己の位置及び向きの推定値を改善することができる、慣性計測装置又は何れかの適切な数の付加的なセンサを含むことができる。
スキャナ110は、レーザービーム128を照射して反射ビームを受信するレーザースキャナを含むことができる。例えば、スキャナ110は、ビーム128をセンサ支持体171に向けて、フィデューシャル174から反射を受信することができる。反射ビームデータに基づいて、スキャナ110を用いて、センサ支持体171の位置及び向きを識別することができる。
スキャナ110は、センサ支持体171に向けられてフィデューシャル174から光を受信するカメラを含むことができる。フィデューシャルの表示位置に基づいて、スキャナ110を用いて、センサ支持体171の位置及び向きを識別することができる。
スキャナ110は、コントローラ130に結合することができ、コントローラは、例証的な実施形態ではラップトップコンピュータを含み、他の実施形態では、ラップトップコンピュータに加えて又はその代わりに他のデジタル処理デバイスを含むことができる。これらの実施形態の何れでも、コントローラ130は、プロセッサ131と、メモリ132と、入出力デバイス133とを含むことができる。入出力デバイス133は、入力デバイス134(例えばキーボード)及び出力デバイス135(例えばディスプレイ)を含むことができる。コントローラ130は、スキャナ110からデータを受信し、オペレータ180が辿る1又はそれ以上の画像キャプチャルートを生成し、オペレータをルート上に維持するために及び/又は必要に応じてオペレータの方向を変えるためにオペレータ180と通信することができる。これを行うために、コントローラ130は、センサ支持体171によって保持されるガイダンスディスプレイ150にガイダンス情報を提示することができる。更なる詳細、典型的な処理、及び関連システムについて以下で説明する。
2.典型的な処理フロー
図2は、本技術の実施形態に従って構成された典型的な処理290を示している。ブロック291は、対応する仮想現実環境のベースを形成することになる現実世界の環境をスキャンする段階を含む。この初期スキャンを用いて、環境内の主要な特徴を識別し、次にこれらの特徴を用いて、仮想現実環境のベースを形成するデータを生成する、より完璧なデータ収集処理を誘導する。例えば、ブロック291で実行される処理は、レーザースキャナを用いて、環境内の1又はそれ以上の地点から環境の主要な特徴をスキャンする段階を含むことができる。任意で、この処理は、スキャンしたデータを以前に取得した写真又は固定参照ポイントから取得された他の画像データと相関付ける段階を更に含むことができる。他の実施形態では、相関処理は省略することができる。
図2は、本技術の実施形態に従って構成された典型的な処理290を示している。ブロック291は、対応する仮想現実環境のベースを形成することになる現実世界の環境をスキャンする段階を含む。この初期スキャンを用いて、環境内の主要な特徴を識別し、次にこれらの特徴を用いて、仮想現実環境のベースを形成するデータを生成する、より完璧なデータ収集処理を誘導する。例えば、ブロック291で実行される処理は、レーザースキャナを用いて、環境内の1又はそれ以上の地点から環境の主要な特徴をスキャンする段階を含むことができる。任意で、この処理は、スキャンしたデータを以前に取得した写真又は固定参照ポイントから取得された他の画像データと相関付ける段階を更に含むことができる。他の実施形態では、相関処理は省略することができる。
ブロック292は、ビューキャプチャ経路又はルートを計画する段階を含む。これは、オペレータ180(図1)が画像キャプチャ動作中に辿るルートである。この経路は、特定のスキャン位置にあるスキャナによってサポートすることができる必要な及び/又は所望の全てのビューをキャプチャするよう計画される。特に、経路は、最終的な仮想現実視聴者にとってリアルな体験を形成するのに十分な視覚情報を提供するよう計画される。環境は三次元環境なので、処理は、1又はそれ以上のスキャン位置に基づくことができる複数のビューキャプチャ経路又はルートを含むことができ、これについては、以下で更に詳細に説明する。
ブロック293は、センサ(例えば画像センサ)を追跡して、ブロック292で作成したビューキャプチャ経路に沿ってオペレータを誘導する段階を含む。特に、ブロック291で環境のスキャンに用いられた同じ(又は異なる)スキャナを用いて、データ収集処理の間、環境の至る所でオペレータの動きを追跡することができる。システムがオペレータの動きを追跡するとき、システムは、(例えば、図1を参照しながら上述したガイダンスディスプレイ150を介して)フィードバックを提示して、オペレータが環境全体をキャプチャするのを手助けすることができる。
ブロック294は、姿勢が刻印された(pose-stamped)ビューを経路に沿ってキャプチャする段階を含む。例えば、オペレータが経路に沿って歩いて写真を撮る(又は他のセンサ情報を取得する)とき、システムは、各画像に位置及び向きを自動的に刻印することができる。従って、画像データの個々の断片又は要素は、環境内の特定の位置及びセンサの向きと自己を関連付けることができる。次に、この情報を用いて、仮想現実環境のために完全な三次元レンダリングを作成する。
ブロック295において、処理は、環境が完全にカバーされたかどうかを判断する段階を含む。カバーされていない場合、スキャナは新しい(例えば、第2の又はそれ以降)位置に移動される可能性が高く、処理は、ブロック291に戻る。カバーされている場合は、ブロック296において、前述の段階中に収集されたビューに基づいて、環境が再現される。この環境を再現するために、バンドル調整又は写真測量処理のような種々の公知のアルゴリズムを使用することができる。ブロック297において、再現された環境が、ユーザに対して表示される。例えば、再現された環境は、光照射野、ポイントクラウド、及び/又はメッシュデータに基づくことができ、仮想現実デバイス(又は他のデバイス)又は他の三次元ビューアを用いて表示することができる。適切な仮想現実デバイスは、Oculus VR,LLC(www.oculus.com)及びHTC Corporation(www.htc.com)から市販されている。他の適切な三次元ビューア媒体は、CAD(コンピュータ支援設計)ソフトウェア、ウェブベースのソフトウェア、又は同様のものを含む。
図3は、本技術の他の実施形態により構成された処理385を示すフロー図であり、典型的な処理段階の更なる詳細を含む。ブロック386は、画像データの取得に向けて、現実世界の環境をセットアップする段階を含む。この処理は、環境内の物体を含む、環境のCAD画像又はマップを読み込む段階を含むことができる(ブロック387)。ブロック388は、スキャナ位置(例えば、スキャナを配置する1又はそれ以上の固定の及び/又は最適な場所)を計画する段階を含むことができる。特に、及び図4を参照しながら以下で更に説明するように、環境の形状及び/又は環境内の物体の存在によって、単一場所からではスキャナが環境を適切にスキャンできないことがある。従って、ブロック388は、環境を適切に(例えば十分に)スキャンするために必要な複数のスキャナ位置、及び特定の実施形態では、これを行うために必要な最小数のスキャナ位置を識別する段階を含むことができる。
ブロック386で収集された情報に基づいて、ブロック389は、スキャナ位置を推奨する段階を含む。例えば、ブロック389は、環境内のどこにスキャナを配置すべきかをオペレータに示す段階を含むことができる。ブロック390において、スキャナはスキャンを完了して、例えば、固定位置から環境の三次元ポイントクラウドを、対応するパノラマ写真データと共にキャプチャする。特定の実施形態では、スキャナはレーザースキャナであり、別の実施形態では、他のタイプのスキャン技術を含むことができる。ブロック391は、スキャンで取得したデータを、ブロック387で取得されたマップ又はモデルに、及び/又は以前のスキャンに登録する段階を含む。この処理は、環境のスキャンが完全であることを保証するために使用することができる。次にブロック392において、ビューキャプチャ経路又はルートが計画される。上述のように、経路は、各スキャナ位置からできるだけ多くのデータを取得するよう慎重に構築される。経路は、「巡回セールスマン」又は種々の最小化関数のような一般的なアルゴリズムに基づいて計算することができる。
ブロック393は、画像センサを追跡して、必要な画像データを収集するよう、オペレータを誘導する段階を含む。この処理は、次に、392で確立されたビューキャプチャ経路(ブロック394)に沿ってオペレータを誘導する段階を含む。例えば、ブロック394は、図1に図示して、以下で図9を参照しながら更に詳細に説明するガイダンスディスプレイ150を用いて、オペレータが1つの画像収集位置から別の位置に移動するとき、オペレータを誘導する段階を含むことができる。
オペレータが環境内を移動するとき、ブロック395及び396は、画像センサを検索(例えば、図1に示した、カメラ又は他の画像センサ172を保持するデータコレクタ170を検索)する段階を含む。特定の実施形態では、この処理は、センサが識別されるまで、スキャナを系統的なパターンでパンする段階及びチルトする段階を含むことができる。
センサの位置が特定されると、ブロック397は、センサの位置及び向き(又は姿勢(pose))を推定する段階を含む。仮想三次元環境を正確に作成するために、どこにセンサがあるか、及びセンサが特定の画像をキャプチャするときにセンサがどの方向に向いているかの両方を通常は知っておく必要がある。例えば、完全な画像定義は、各位置の画像に関連するデータの6つの自由度集合を含むことができる。自由度は、三次元空間内のセンサの座標、並びにセンサが示す(三次元空間内の)方向を含む。
ブロック398において、処理は、センサがスキャナの視野内の中心になるように、スキャナにセンサ又はデータコレクタ170の中心を向くように命令する段階を含むことができる。これにより、オペレータが動くとき、センサを見失う可能性が低減される。ブロック399において、処理は、センサが正しい位置及び向きにあるかどうかを判断する。例えば、この処理は、センサが正しい方向に向けられていて、オペレータが意図されたビューキャプチャ位置に達したかどうかを判断する段階を含むことができる。達していない場合、処理は、ブロック394に戻って、オペレータに追加のガイダンスを提供する。達していた場合は、次にブロック384で、処理は、センサによって取得された画像データ、並びにセンサの位置及び向きの両方をキャプチャして格納する段階を含む。
ブロック383において、処理は、所与のビューキャプチャ経路が完了したかどうかを判断する段階を含む。完了していない場合、次に処理は、付加的なガイダンスのためにブロック394に戻る。完了した場合、次にブロック382において、処理は、環境全体がカバーされたかどうかを判断する。カバーされていない場合、処理は、ブロック389に戻って、新規のスキャナ位置から環境内のデータの収集を継続する。環境全体がキャプチャされたら、処理は終了する。
3.典型的なシステム
図4は、図1に示した環境140の部分概要平面図である。図4はまた、第1の位置P1に配置されたスキャナ110、及び環境140の一部分を含む、位置P1に関連するスキャナの視野429も示している。図4に示すように、環境140内の物体143の各々は、スキャナ110がデータを取得又はオペレータを追跡できない「シャドー」又は閉塞エリア447をキャストすることがある。シャドー447の範囲は、各物体143の三次元形状及び位置によって変わる。例えば、環境140の中央にある環146は、比較的低くて、従ってほとんど又は全くシャドーをキャストしない。逆に、周辺にある台座144及び彫像145は、より多くのシャドー447をキャストしうる。環境全体をデジタル的にキャプチャするためには、スキャナ110が位置P1にあるときにシャドー内にある表面を画像化しなければならない。従って、及び上述のように、本明細書に開示する処理の一部分は、環境140内の全ての関連画像データのキャプチャをサポートするために、スキャナ110の付加的な位置を識別する段階を含む。典型的な実施形態では、環境140の対応する壁141に沿って、付加的な位置(3箇所をP2、P3、及びP4として図示)が配置される。他の実施形態では、これらの位置は異なることも及び/又はこれよりも少ないことも可能である。位置が少ないほど、スキャナ110をセットアップして、移動して、解体するのに必要な時間及び尽力が少なくなる。従って、典型的な処理は、環境140の適正なカバレッジを提供するためにスキャナ110を配置しなければならない場所の数を最適化(例えば最小限にする)段階を含む。例えば、グラフ検索アルゴリズムを用いて、エリア上の機能を最小限にすることができる。
図4は、図1に示した環境140の部分概要平面図である。図4はまた、第1の位置P1に配置されたスキャナ110、及び環境140の一部分を含む、位置P1に関連するスキャナの視野429も示している。図4に示すように、環境140内の物体143の各々は、スキャナ110がデータを取得又はオペレータを追跡できない「シャドー」又は閉塞エリア447をキャストすることがある。シャドー447の範囲は、各物体143の三次元形状及び位置によって変わる。例えば、環境140の中央にある環146は、比較的低くて、従ってほとんど又は全くシャドーをキャストしない。逆に、周辺にある台座144及び彫像145は、より多くのシャドー447をキャストしうる。環境全体をデジタル的にキャプチャするためには、スキャナ110が位置P1にあるときにシャドー内にある表面を画像化しなければならない。従って、及び上述のように、本明細書に開示する処理の一部分は、環境140内の全ての関連画像データのキャプチャをサポートするために、スキャナ110の付加的な位置を識別する段階を含む。典型的な実施形態では、環境140の対応する壁141に沿って、付加的な位置(3箇所をP2、P3、及びP4として図示)が配置される。他の実施形態では、これらの位置は異なることも及び/又はこれよりも少ないことも可能である。位置が少ないほど、スキャナ110をセットアップして、移動して、解体するのに必要な時間及び尽力が少なくなる。従って、典型的な処理は、環境140の適正なカバレッジを提供するためにスキャナ110を配置しなければならない場所の数を最適化(例えば最小限にする)段階を含む。例えば、グラフ検索アルゴリズムを用いて、エリア上の機能を最小限にすることができる。
図5は、本技術の実施形態に従って構成された機能を有する典型的なスキャナ110の部分概略図である。スキャナ110は、カメラ517及び距離計518を保持する支持体511を含むことができる。カメラ517は、可視スペクトル、赤外領域、及び/又は他の適切な周波数レンジにおいて環境から放射線を受け取ることによって、スキャナ110の周囲の環境の2次元光学画像を生成するように構成することができる。距離計518は、エミッタ519及びレシーバ520を含むことができる。エミッタ519は、環境内の物体から反射して、レシーバ520によって受信される信号を照射する。次に、信号がエミッタ519から物体まで送信されて、レシーバ520まで戻ってくるのに必要な時間量(「飛行時間」)の推定を含む、様々な適切な技術の何れかを用いることによって、スキャナ110から物体までの距離が判断又は推定される。従って、カメラ517は、環境についての二次元情報を識別して送信することができ、距離計518は、第三次元を付加することができる。スキャナ110は、車輪509(例えば、解除可能なロック又はブレーキを備える)及び/又は他の移動機能を含み、環境内で1つの場所から別の場所へのスキャナ110の移動を容易にすることができる。
カメラ517及び距離計518は、チルトステージ514によって保持可能であり、スキャナ110の周囲の環境をスキャンするために1つのユニットとして共に移動させることができる。チルトステージ514は、第1の軸(例えば、水平軸H)の周りで、カメラ517及び距離計518を1つのユニットとして回転させるチルトモータ515を保持する。対応するチルトエンコーダ516が、水平軸Hに対して相対的なカメラ517及び距離計518の動きを追跡する。支持体511によって保持されるパンモータ512が、第2の軸(例えば、垂直軸V)の周りで、(カメラ517及び距離計518を含む)チルトステージ514を1つのユニットとして回転させる。パンエンコーダ513が、垂直軸Vの周囲のカメラ517及び距離計518の回転位置を追跡する。従って、パンモータ512及びチルトモータ515は、スキャナ110の周囲の半球ボリュームを大まかにカバーするのに十分な弧にわたって、カメラ517及び距離計518を回転させることができる。
特定の実施形態において、距離計518は、LIDAR検出器を含むことができ、これは、レーザー光(例えば、IRレーザー光)を照射して受光する。適切なLIDAR検出器は、エミッタ519及びレシーバ又は検出器520のサイズを含む要因及び使用される測距技術に応じて、数百メートルの測距能力を有する。もっと限られた屋内環境では、もっと限られたレンジを有するスキャナが適切とすることができる。上述のように、測距技術は、一部の実施形態では、飛行時間技術を含むことができる。他の実施形態では、SETS技術のような他の技術が、直接飛行時間(direct time of flight)計算を行う必要なく、より低いコスト及びより低い(ただし依然として適切な)解像度で適切な結果を生むことができる。スキャンは、系統的スイープスキャン、又は粗スキャンの後に詳細スキャン、又は適応スキャン(例えば、引用により本明細書に組み込まれた係属中の米国特許出願公開第2016/0292872号で説明するような)で、又は他の適切な技術を通じて実行することができる。別の実施形態では、距離計518は、スキャナ110とその周囲にある物体との間の距離を検出するのに適した、レーザー信号以外の信号を放射することができる。例えば、トラッキングにはレーダー信号を使用することができるが、スキャンに関しては、レーダー信号よりもレーザー信号のほうが性能が優れていると。別の実施形態では、スキャン処理を実行するために、レーザースキャナの代わりに、複数の高解像度カメラ又は構造的光配列で置き換えることができる。
図6は、本技術の実施形態による、スキャンモードで動作中の典型的なシステムを示す概略ブロック図である。図6に示すように、カメラ517は、周辺環境140の画像を記録するのに対し、距離計518は、環境140内の物体までの距離を記録する。従って、カメラ517は、RGBデータ(又は他の光学データ)523を生成し、距離計518は、深度又は距離データ524を生成する。RGBデータ523が、プロセッサ131に送信される。任意で、深度データ524が、球座標からデカルト座標に変換されるが、この場合、チルトエンコーダ516及びパンエンコーダ513からの情報に対して作用する従来型の変換ロジックを用いて行う。この変換された座標情報を用いて、カメラ517及び距離計518によってキャプチャされたデータから、ポイントクラウドビルダロジック527を用いてポイントクラウドを生成する。
システムはまた、モータ制御ユニット521も含み、これは、チルトモータ515及びパンモータ512に指示を与え、モータ制御ユニット自体はスキャンコントローラ530の制御下にある。スキャンコントローラ530は、スキャン領域ロジック522を含むことができ、スタンドアロンコントローラとすることができ、或いは、1又はそれ以上の他のコントローラ、例えば、図1を参照しながら上述したコントローラ130と一体化することができる。
電源526は、システムの様々な構成要素に電力を供給する。入出力デバイス533は、オペレータから情報を受信して、出力情報をオペレータに提供する。図6に示したスキャンモード中に実行される処理の結果は、環境140のコンピュータベースのモデル(例えば、ポイントクラウド)を含むことができる。
特定の実施形態において、スキャン動作中に取得されて三次元モデルを構築するために用いられるデータは、付加的データで補完することができる。例えば、モデルは、スキャナカメラ517又は他のデバイスによって取られる写真又は他のセンサ読取値で増補又は強化することができる。この動作は、一部の実施形態ではリアルタイムに、他の実施形態ではオフラインで行うことができる。強化は、カメラ画像内に含まれる色情報をポイントクラウド内のポイントに追加して、各ポイントでスペクトル表現を表す、よりリアルな色付きのモデルを作成する段階を含むことができる。
特定のスキャンから取得されたデータは、格納されて、後で同じスキャナによって(例えば、トラックモードで)又は異なるスキャナによって、トラックモードでも使用することができる。特定の実施形態において、トラッカーが特定のエリア内に配置されると、その環境から成る事前スキャンに自動的にアクセスすることができ、これらのスキャンは、トラッカーがトラックモードで動作するときにスキャナにダウンロードすることができる。
図7は、トラッキングモードで動作中の典型的なシステムを示している。このモードにおいて、カメラ517は、例えば、1又はそれ以上のフィデューシャルを追跡することによって、オペレータ180(及び/又はオペレータによって携行されるデータコレクタ170)を識別する。フィデューシャルは、データコレクタ170によって保持されるLED又はリフレクタを含むことができる。結果は、2次元トラッキングデータ536を含むことができる。同時に、距離計518は、オペレータ180があちこち移動するとき、スキャナ110とデータコレクタ170との間の距離に対応するレンジデータ561を生成する。この情報は、プロセッサ131に与えられて、プロセッサが、位置推定ロジック562を用いて、データコレクタ170の位置の推定値を生成する。位置情報は、I/Oデバイス133に送信することができ、このデバイスが、情報信号563を介してデータコレクタ170に情報を送信することができる。この情報により、オペレータ180は、自身が辿るキャプチャルート内の変動を修正、調整、及び/又は補正することができる。位置情報はまた、モータ制御ユニット521にも送信されて、このユニットが、パンモータ512及びチルトモータ515を作動させて、UAVオペレータ180が移動するとき、データコレクタ170をカメラ517の視野内且つ距離計518の正面に継続的に保つ。
図8は、オペレータ180が複数の物体143の周囲でデータコレクタ170を移動させて、スキャナ110からの情報によって提供されるガイダンスによりデータを収集する典型的な環境140の部分概要等角図である。スキャナ110は、第1の位置P1及び第2の位置P2の両方に示されている。以下で説明するように、システムは、スキャナ110が第1の位置P1にあるときは、特定のビューキャプチャルート881に沿って、及びスキャナ110が第2の位置P2にあるときには別のルートに沿って、オペレータ180を誘導することができる。
スキャナ110が第1の位置P1にあるとき、オペレータ180は、環146に面する物体143表面の前を通る第1のビューキャプチャルート881aに沿って移動することができる。オペレータ180は、中位レベルの高さH1(例えば、5フィート以上)にあるデータを感知するためにセンサ172を向けることができる。第1のビューキャプチャルート881aに沿って、複数のデータ収集ポイント882があり、オペレータ180は、そこにデータコレクタ170を向けてデータを収集する。例えば、実施形態に応じて、オペレータ180は、データコレクタ170をスイープすることができ(例えば、ひねる、回転させる、曲げる、又は他の方法で向きを変えることによって)、或いは、センサ172は、センサ支持体171に対して移動させることによって、自動的に、又はオペレータ180によるコマンドに応答して、回転させ、傾けて、及び/又はスイープすることができる。
オペレータ180がデータコレクタ170を移動させるとき、スキャナ110は、データコレクタ170の位置及び向きに対応する情報を、例えば、フィデューシャルによって反射される放射ビームを介して受信して、オペレータの動きを誘導する。環境140は、第1のビューキャプチャルート881aに沿って容易には取得されない情報を含むことがある。例えば、環146のような床142に近い物体は、データコレクタが地上5フィートに保持されるときには、キャプチャすることができない。従って、オペレータを、より低いレベルH2に向けられたセンサ172で、第2のルート881bに沿って誘導することができ、このルートは、これらの下位レベルに特徴を有するオブジェクトに及びその周囲に向けられる。
第1の及び第2のルート881a、881bは、スキャナ110が、データコレクタ170の位置及び姿勢を検出することができる位置にデータ収集ポイントを含む。上述のシャドー効果の結果として、スキャナが第1の位置P1にあるときに、特定の物体又は物体表面がスキャナ110には見えないことがある、従って、スキャナ110を第2の位置P2に移動させて、第3ルート881cに沿うようオペレータ180を方向付けるのを容易にして、第1の位置P1のスキャナアクセスからは隠れていた物体又は物体表面に対応するデータを収集することができる。上述のように、次にスキャナ110は、環境140を完全にキャプチャするために必要なあらゆる数の位置(例えば、最小数の位置)に移動させることができる。
図9は、2つの物体143及び第1のビューキャプチャルート881aの部分を含む環境140の一部分を示している。図9はまた、データコレクタ(ディスプレイアーム975を介してガイダンスディスプレイ150が取り付けられた)を移動させて方向付ける際にオペレータを手助けするために、ガイダンスディスプレイ150に提示される典型的な画像も示している。特定の実施形態において、ガイダンスディスプレイ150は、物体表示943(データコレクタの正面にある物体143に対応する)、画像化領域951(既に画像化された環境の領域に対応する)、及び未画像化領域952(まだ画像化されていない環境の領域に対応する)を含む、環境140の特定の部分を表示する。画像化及び未画像化領域は、例えば、陰影、色対グレースケール、又は他の適切な手法を介して異なるように表現することができる。ディスプレイ150はまた、第1のビューキャプチャルート881aの関連部分に対応するルート表示981aも提示することができる。ルートの一部分は、未画像化領域952をキャプチャするために矢印によって示される方向にオペレータが移動すべきであることをオペレータに示す矢印を(例えば、未画像化領域952内に)含む。画像化領域951内のルート表示981aの一部分は、例えば、矢印を含まず、異なるように表示することができ、既にここがカバーされたことを示す。従って、ガイダンスディスプレイ150を閲覧することによって、オペレータは、画像化領域951と未画像化領域952との間を容易に認識して区別することができ、まだ画像化されていないこれらの領域を画像化するよう誘導することができる。オペレータが環境140内の特定の場所又は領域を「見落としている」場合、システムが、ガイダンスディスプレイ150を介してオペレータを誘導して、欠落している画像及び/又は他のデータをキャプチャすることができる。加えて、概要ウィンドウ953が、オペレータを方向付けるために、環境140全体の概要を提示し、環境のうち何れの領域が画像化されて、何れが画像化されていないかを、より広範なレベルで示す。
図10は、本技術の実施形態に従って構成された典型的なデータコレクタ170の部分概要等角図である。データコレクタ170は、センサ支持体171をオペレータに一時的に取り付けるために、ユーザによって(この場合は、ユーザの肩にまたがって)装着するように構成されたセンサ支持体171及びストラップ1076又は他の支持要素を含むことができる。データコレクタ170は、第1のカメラ172a及び第2カメラ172bとして示された1又はそれ以上のセンサを含むことができる。カメラは、データが提示されるであろう所望の出力に対応する何れかの適切な波長で動作させることができる。特定の実施形態では、データコレクタ170は、立体画像を提供するために2台のセンサ172を含み、別の実施形態では、データコレクタ170は、他の数のセンサ172、及び/又はカメラ以外の構成を有するセンサを含むことができる。例えば、センサ172は、LIDARセンサ、及び/又は信号の放射及び信号(例えば、反射信号)の受信の両方を行う他のタイプのセンサを含むことができる。ガイダンスディスプレイ150が、オペレータに見えるように、ディスプレイアーム975によって適所に支持される。スキャナ110(図1)によって問い合わせられたときに、データコレクタ170(及び従ってセンサ172)の位置及び向きを、様々な角度から容易に取得できるように、データコレクタ170上の複数の箇所にフィデューシャル174を配置することができる。
データコレクタ170は、上述のフィデューシャル174に加えて他の位置決め要素を含むことができる。例えば、データコレクタ170は、フィデューシャル174から受信する情報によって提供される位置及び/又は向き情報を補完するために用いることができる位置センサ1077(例えば、慣性計測装置又はIMU)を含むことができる。
上述の画像データを取得した後、データは(例えばデータベース内に)格納されて、環境のデジタル表現を形成するために処理される。デジタル環境は、図11に示すような、ヘッドマウントディスプレイ1101を介して仮想現実内でユーザに提示することができる。別の実施形態では、デジタル環境は、他のデバイス又はモダリティ、例えば、1台のモニタ、又はヘッドトラッキングセットアップと結合された複数の大型モニタを介して表示及び/又は提示することができる。
本技術の態様は、現実世界の環境をキャプチャしてこれらをデジタル的に表示するために用いられる他の技術と比較して、幾つかの利点の1又はそれ以上をもたらすことが期待される。例えば、上述のように、特定の環境は、完全自動化システムでレンダリングされると、不注意に傷付けることがあるデリケートな物体を含むことがある。人間のオペレータをループ内に保つことによって、このような損害を回避することができる。
加えて、仮想現実設定で環境をリアルにシミュレートするために必要なデータ量は、非常に膨大である。このようなデータを取得するための1つの可能な手法は、光照射野技術を使用することである。このような技術によれば、表面をレンダリングする代わりに、複数の光線を用いて、何が視聴者の網膜に達するかをシミュレートする。ユーザが仮想現実環境中を移動して、ユーザが実際の環境内にいるかのように、様々な視点から物体を感知することができる十分な数のポイントで光線野が生成される。しかしながら、市販の光照射野カメラは、特定の環境では適切ではない。特に、光照射野カメラが固定位置に限定される場合、リアルな仮想現実環境をレンダリングする(例えば、部屋全体をキャプチャする)ために十分な情報をキャプチャする可能性は低い。このようなカメラが、ガントリー又はロボットアーム上に取り付けられる場合、環境への損害の費用及び/又は可能性は、よりリアルなレンダリングに伴う利点を上回ることがある。対応する複数のレンズが伴う光照射野アレイも、同じ不利益を被ることがある。
対照的に、人間のオペレータ/携行されるデータコレクタは、これらの環境に損害を与える可能性がなく(又はかなり低減されて)、幅広い環境で動作することができる。データコレクタは、携帯可能で軽量(例えば、5ポンド以下)なので、オペレータは、様々な幅広い視点及び/又は高さから、容易に画像をキャプチャすることができる。このようなシステムは、ガントリー又はロボットシステムよりもかなり安価であると予想される。このようなシステムはまた、プロペラで環境の要素にぶつかる又はプロップウォッシュで環境を乱すことによって環境にダメージを与えるリスクがあるドローンベースのシステムよりも、ローカル環境には互換性が高いことも予想される。
上記から、本明細書では、例証目的のために、本技術の特定の実施形態について説明してきたが、本技術から逸脱することなく、様々な修正を加えることができることは理解されるであろう。例えば、上述のスキャナは、レーザービームではなくビームを使用することができる。上述のカメラは、視覚スペクトルで又は他の波長で動作することができる。フィデューシャルは、データコレクタの何れかの適切な要素、例えば、センサ支持体及び/又はセンサに取り付けることができる。
特定の実施形態に関連して説明した本技術の特定の態様は、他の実施形態では、組み合わせることも又は削除することもできる。例えば、データプロセッサは、上述のもの以外のタイプのスキャナと共に動作することができ、上述の典型的なスキャナは、上述のもの以外のタイプのデータプロセッサと共に動作することができる。更に、本技術の特定の実施形態に関連する利点を、これらの実施形態に照らして説明したが、他の実施形態もこのような利点を示すことができ、本技術の範囲内に収まるために、全ての実施形態がこのような利点を示す必要があるわけではない。従って、本開示及び関連の技術は、本明細書に明示的に示していない又は説明していない他の実施形態を包含することができる。
引用により本明細書に組み込まれた何れかの資料が本開示と矛盾する場合は、本開示が制御する。本明細書で使用するように、「A及び/又はB」のような「及び/又は」という語句は、Aのみ、Bのみ、並びにA及びBの両方を指す。
Claims (25)
- 現実世界の環境をデジタル的にキャプチャするための方法であって、
少なくとも1つの固定ポイントから、レーザースキャナで前記環境をスキャンして、スキャンデータを取得する段階と、
前記スキャンデータに少なくとも部分的に基づいて、ビューキャプチャルートを作成する段階と、
人間のオペレータが前記ビューキャプチャルートに沿って移動するとき、該人間のオペレータによって携行される光学センサから光学データを受け取る段階と、
前記光学データに少なくとも部分的に基づいて、前記環境の仮想表現を生成する段階と、
を含む方法。 - 前記ビューキャプチャルートは、第1のビューキャプチャルートであり、前記方法は、第2のビューキャプチャルートを作成する段階を更に含み、該第2のビューキャプチャルートは、該第1のビューキャプチャルートとは異なる、請求項1に記載の方法。
- 前記環境をスキャンする段階は、第1の固定ポイントから前記環境をスキャンして、第1のスキャンデータを取得する段階を含み、前記方法は、該第1の固定ポイントとは異なる第2の固定ポイントから前記環境をスキャンして、該第1の固定ポイントからは前記レーザースキャナにとってアクセス可能ではない第2のスキャンデータを取得する段階を更に含む、請求項1に記載の方法。
- 前記第2のスキャンデータは、前記レーザースキャナが前記第1の固定ポイントにあるときの、前記レーザースキャナにとってのシャドー領域に対応する、請求項3に記載の方法。
- 前記光学データは、立体光学データを含む、請求項1に記載の方法。
- 前記人間のオペレータが前記ビューキャプチャルートに沿って移動するとき、前記光学センサの動きを追跡する段階を更に含む、請求項1に記載の方法。
- 前記光学センサは、センサ支持体によって保持され、動きを追跡する段階は、該センサ支持体によって同様に保持されるフィデューシャルの動きを追跡する段階を含む、請求項6に記載の方法。
- 光学データを受け取る段階は、前記環境内の特定の位置及び前記光学センサの特定の姿勢に相関する光学データを受け取る段階を含む、請求項1に記載の方法。
- 前記ビューキャプチャルートを辿るように前記人間のオペレータを誘導する段階を更に含む、請求項1に記載の方法。
- 誘導する段階は、前記オペレータがそれに沿って移動した前記ビューキャプチャルートの部分のインジケーションを、前記オペレータがそれに沿って移動していない前記ビューキャプチャルートの部分とは異なる方法でユーザに提示する段階を含む、請求項9に記載の方法。
- 現実世界の環境をデジタル的にキャプチャするための方法であって、
前記環境のマップを受け取る段階と、
前記環境内で複数のスキャン位置を識別する段階と、
前記環境をレーザースキャナでスキャンして、個々のスキャン位置からスキャンデータを取得する段階と、
前記スキャンデータを前記環境のマップと比較する段階と、
前記スキャンデータに少なくとも部分的に基づいて、前記環境内の経路に対応するビューキャプチャルートを作成する段階と、
人間のオペレータが前記ビューキャプチャルートに沿って移動するとき、該人間のオペレータによって携行される光学センサから光学データを受け取る段階と、
前記ビューキャプチャルートに沿った複数のポイントで、前記光学センサに対応する位置及び向きデータを受け取る段階と、
前記ビューキャプチャルートに沿った前記人間のオペレータの進行を追跡する段階と、
前記ビューキャプチャルートに沿った前記人間のオペレータの進行の追跡に少なくとも部分的に基づいて、前記人間のオペレータを前記ビューキャプチャルートに沿うよう方向付けるためのガイダンスキューを提供する段階と、
前記光学データに少なくとも部分的に基づいて、前記環境の仮想表現を生成する段階と、
を含む方法。 - 前記レーザースキャナが第1のスキャン位置にあるときに前記レーザースキャナから取得されるスキャンデータに少なくとも部分的に基づいて、前記ビューキャプチャルートは、第1のビューキャプチャルートであり、
光学データを受け取る段階は、第1の立体光学データを受け取る段階を含み、
前記方法は、
第2のビューキャプチャルートを作成する段階であって、該第2のビューキャプチャルートは、前記第1のビューキャプチャルートとは異なり、該第2のビューキャプチャルートは、前記レーザースキャナが前記第1のスキャン位置とは異なる第2のスキャン位置にあるときに前記レーザースキャナから取得されるスキャンデータに少なくとも部分的に基づく、第2のビューキャプチャルートを作成する段階と、
前記人間のオペレータが前記第2のビューキャプチャルートに沿って移動するとき、前記光学センサから第2の立体光学データを受け取る段階と、
(a)前記人間のオペレータがカバーした前記第1の及び第2のビューキャプチャルートの部分を、前記人間のオペレータがカバーしていない前記第1の及び第2のビューキャプチャルートの部分と区別し、(b)光学データが取得された前記環境の領域を、光学データが取得されていない前記環境の領域と区別する視覚表示を前記人間のオペレータに提示する段階と、
を更に含む、請求項11に記載の方法。 - 環境内で光学データを取得するためのシステムであって、
エミッタ及びレシーバを有するレーザースキャナと、
少なくとも1台のカメラと、
前記レーザースキャナ及び前記少なくとも1台のカメラに結合されたコントローラと、
を備え、前記コントローラは、実行されると、
光学センサを携行する人間のオペレータの位置に対応する情報を、前記レーザースキャナ及び前記少なくとも1台のカメラから受け取り、
前記位置をビューキャプチャルートと比較して、
前記ビューキャプチャルートに沿って前記オペレータを誘導するためのガイダンス情報を前記人間のオペレータに送信する、
命令でプログラムされる、システム。 - 前記レーザースキャナから受け取る前記情報は、画像を収集するときの前記光学センサの前記位置及び向きを含む、請求項13に記載のシステム。
- 前記ガイダンス情報は、前記ビューキャプチャルートの視覚表現を含み、前記人間のオペレータが既に移動した前記ルートの部分は、前記人間のオペレータがまだ移動していない前記ルートの部分とは異なる方法で表示される、請求項13に記載のシステム。
- 前記命令は、実行されると、(a)前記光学センサによって感知された前記環境の部分の第1のインジケーション、及び(b)前記光学センサによって感知されていない前記環境の部分の第2のインジケーションを、前記人間のオペレータに送信し、前記第2のインジケーションは、前記第1のインジケーションとは異なる、請求項13に記載のシステム。
- 前記命令は、実行されると、前記光学センサの向きに対応する情報を受け取る、請求項13に記載のシステム。
- 前記光学センサと、
前記光学センサを保持し、オペレータの肩の上に置くように配置された支持要素を有する光学センサ支持体と、
前記光学センサ又は前記光学センサ支持体のうちの少なくとも1つによって保持される少なくとも1つのフィデューシャルと、
を更に備え、前記少なくとも1つのフィデューシャルは、前記レーザースキャナによって追跡されるように配置される、請求項13に記載のシステム。 - 環境内で光学データを取得するためのシステムであって、
オペレータの肩の上に置くように配置された支持要素を有する光学センサ支持体と、
前記光学センサ支持体によって保持される光学センサと、
前記光学センサ又は前記光学センサ支持体のうちの少なくとも1つによって保持される少なくとも1つのフィデューシャルと、
を備え、前記少なくとも1つのフィデューシャルは、レーザースキャナによって追跡されるように配置される、システム。 - 前記光学センサは、カメラを含む、請求項19に記載のシステム。
- 前記光学センサは、第1のカメラを含み、前記システムは、前記光学センサ支持体によって保持される第2のカメラを更に備え、前記第1の及び第2のカメラは、動作可能に結合されて立体画像を生成する、請求項19に記載のシステム。
- 前記フィデューシャルは、前記光学センサ支持体によって保持される複数のフィデューシャルのうちの1つである、請求項19に記載のシステム。
- 前記光学センサ支持体によって保持され、かつ前記オペレータによって見られるように配置されるガイダンスディスプレイを更に備える、請求項19に記載のシステム。
- 前記ガイダンスディスプレイに動作可能に結合されたコントローラを更に備え、該コントローラは、実行されると、
前記オペレータによって辿るルートの視覚表現を前記ガイダンスディスプレイにおいて提示し、前記オペレータが既に移動した前記ルートの部分は、前記オペレータがまだ移動していない前記ルートの部分とは異なる方法で提示される命令でプログラムされる、
請求項23に記載のシステム。 - 前記ガイダンスディスプレイに動作可能に結合されたコントローラを更に備え、該コントローラは、実行されると、
(a)前記光学センサによって感知された前記環境の部分の第1のインジケーション、及び(b)前記光学センサによって感知されていない前記環境の部分の第2のインジケーションを、前記ガイダンスディスプレイにおいて提示する命令でプログラムされ、該第2のインジケーションは、該第1のインジケーションとは異なる、
請求項23に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762453965P | 2017-02-02 | 2017-02-02 | |
US62/453,965 | 2017-02-02 | ||
PCT/US2018/015788 WO2018144396A1 (en) | 2017-02-02 | 2018-01-29 | Tracking image collection for digital capture of environments, and associated systems and methods |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020510903A true JP2020510903A (ja) | 2020-04-09 |
Family
ID=63041055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019541770A Pending JP2020510903A (ja) | 2017-02-02 | 2018-01-29 | 環境のデジタルキャプチャのための画像収集の追跡、並びに関連のシステム及び方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10893190B2 (ja) |
EP (1) | EP3566178A4 (ja) |
JP (1) | JP2020510903A (ja) |
CA (1) | CA3051425A1 (ja) |
WO (1) | WO2018144396A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012021900A1 (en) * | 2010-08-13 | 2012-02-16 | Respiratory Motion, Inc. | Devices and methods for respiratory variation monitoring by measurement of respiratory volumes, motion and variability |
US10789726B2 (en) * | 2017-03-15 | 2020-09-29 | Rubber Match Productions, Inc. | Methods and systems for film previsualization |
US11431952B2 (en) | 2020-05-11 | 2022-08-30 | Sony Interactive Entertainment Inc. | User selection of virtual camera location to produce video using synthesized input from multiple cameras |
US11605202B2 (en) * | 2020-12-11 | 2023-03-14 | International Business Machines Corporation | Route recommendation that assists a user with navigating and interpreting a virtual reality environment |
CN114518078A (zh) * | 2022-03-18 | 2022-05-20 | 南京航空航天大学 | 一种用于大型装备表面形貌测量的龙门架式结构光扫描机器人和方法 |
Family Cites Families (67)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5243370A (en) * | 1988-08-30 | 1993-09-07 | Dan Slater | Camera stabilizer |
GB9515311D0 (en) | 1995-07-26 | 1995-09-20 | 3D Scanners Ltd | Stripe scanners and methods of scanning |
FR2807603B1 (fr) | 2000-04-05 | 2002-10-11 | Freyssinet Int Stup | Procede et systeme pour effectuer des releves de caracteristiques visibles sur des parois |
US7398481B2 (en) * | 2002-12-10 | 2008-07-08 | Science Applications International Corporation (Saic) | Virtual environment capture |
US7064810B2 (en) | 2003-09-15 | 2006-06-20 | Deere & Company | Optical range finder with directed attention |
US8625854B2 (en) | 2005-09-09 | 2014-01-07 | Industrial Research Limited | 3D scene scanner and a position and orientation system |
JP5073256B2 (ja) | 2006-09-22 | 2012-11-14 | 株式会社トプコン | 位置測定装置及び位置測定方法及び位置測定プログラム |
US7970532B2 (en) | 2007-05-24 | 2011-06-28 | Honeywell International Inc. | Flight path planning to reduce detection of an unmanned aerial vehicle |
JP2008304260A (ja) | 2007-06-06 | 2008-12-18 | Mitsubishi Electric Corp | 画像処理装置 |
US8019447B2 (en) | 2007-09-14 | 2011-09-13 | The Boeing Company | Method and system to control operation of a device using an integrated simulation with a time shift option |
US8081108B2 (en) | 2008-01-07 | 2011-12-20 | Trimble Navigation Limited | Autonomous projection of global navigation satellite orbits |
US20100286859A1 (en) | 2008-11-18 | 2010-11-11 | Honeywell International Inc. | Methods for generating a flight plan for an unmanned aerial vehicle based on a predicted camera path |
WO2010123529A2 (en) | 2008-12-19 | 2010-10-28 | Xollai, Llc | System and method for autonomous vehicle control |
US8120754B2 (en) | 2009-02-19 | 2012-02-21 | Northrop Grumman Systems Corporation | Light detection and ranging apparatus |
US8380367B2 (en) | 2009-03-26 | 2013-02-19 | The University Of North Dakota | Adaptive surveillance and guidance system for vehicle collision avoidance and interception |
GB0920636D0 (en) | 2009-11-25 | 2010-01-13 | Cyberhawk Innovations Ltd | Unmanned aerial vehicle |
WO2011127375A1 (en) * | 2010-04-09 | 2011-10-13 | Pochiraju Kishore V | Adaptive mechanism control and scanner positioning for improved three-dimensional laser scanning |
WO2012033892A1 (en) * | 2010-09-08 | 2012-03-15 | Faro Technologies, Inc. | A laser scanner or laser tracker having a projector |
WO2012044297A1 (en) | 2010-09-30 | 2012-04-05 | Empire Technology Development Llc | Automatic flight control for uav based solid modeling |
US20130215433A1 (en) | 2010-10-12 | 2013-08-22 | Stephen James Crampton | Hover cmm |
US20120136630A1 (en) | 2011-02-04 | 2012-05-31 | General Electric Company | Method and system for wind turbine inspection |
EP2511656A1 (de) | 2011-04-14 | 2012-10-17 | Hexagon Technology Center GmbH | Vermessungssystem zur Bestimmung von 3D-Koordinaten einer Objektoberfläche |
EP2511659A1 (de) | 2011-04-14 | 2012-10-17 | Hexagon Technology Center GmbH | Geodätisches Markierungssystem zur Markierung von Zielpunkten |
EP2511781A1 (de) | 2011-04-14 | 2012-10-17 | Hexagon Technology Center GmbH | System und Verfahren zur Steuerung eines unbemannten Fluggeräts |
EP2511658A1 (de) | 2011-04-14 | 2012-10-17 | Hexagon Technology Center GmbH | Vermessungssystem und Verfahren zur Neupunktbestimmung |
US20130024411A1 (en) | 2011-07-18 | 2013-01-24 | Dongming Michael Cai | Discovery of Vegetation over the Earth (DOVE) |
US20130135479A1 (en) | 2011-11-29 | 2013-05-30 | Samsung Electronics Co., Ltd. | Method and Apparatus for Real Time Virtual Tour Automatic Creation |
WO2013141922A2 (en) * | 2011-12-20 | 2013-09-26 | Sadar 3D, Inc. | Systems, apparatus, and methods for data acquisiton and imaging |
US9609284B2 (en) | 2012-05-22 | 2017-03-28 | Otoy, Inc. | Portable mobile light stage |
US9413456B2 (en) | 2012-07-20 | 2016-08-09 | The Boeing Company | Non-linear optical receiver |
US9354606B1 (en) | 2012-07-31 | 2016-05-31 | Integrity Applications Incorporated | Systems and methodologies related to generating projectable data for 3-D viewing |
US9383753B1 (en) | 2012-09-26 | 2016-07-05 | Google Inc. | Wide-view LIDAR with areas of special attention |
CA2888144C (en) | 2012-10-19 | 2021-06-01 | Aeryon Labs Inc. | Hovering unmanned aerial vehicle |
US9857470B2 (en) * | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
JP6367522B2 (ja) | 2013-02-28 | 2018-08-01 | 株式会社トプコン | 航空写真システム |
US9075415B2 (en) | 2013-03-11 | 2015-07-07 | Airphrame, Inc. | Unmanned aerial vehicle and methods for controlling same |
US9274521B1 (en) | 2015-02-02 | 2016-03-01 | Rockwell Collins, Inc. | Employing local, opportunistic automatic dependent surveillance-broadcast (ADS-B) information processed by an unmanned aerial vehicle ground control station to augment other source “knowledge” of local aircraft position information for improving situational awareness |
US8886459B2 (en) | 2013-03-11 | 2014-11-11 | Arinc Incorporated | Systems and methods for small unmanned aircraft systems (sUAS) tactical tracking and mission data acquisition |
JP5882951B2 (ja) | 2013-06-14 | 2016-03-09 | 株式会社トプコン | 飛行体誘導システム及び飛行体誘導方法 |
JP6115947B2 (ja) | 2013-06-17 | 2017-04-19 | 株式会社オーディオテクニカ | ヘッドホン |
US20150098636A1 (en) * | 2013-10-09 | 2015-04-09 | United Sciences, Llc | Integrated tracking with fiducial-based modeling |
US10254395B2 (en) | 2013-12-04 | 2019-04-09 | Trimble Inc. | System and methods for scanning with integrated radar detection and image capture |
US9664784B2 (en) | 2013-12-04 | 2017-05-30 | Trimble Inc. | System and methods for data point detection and spatial modeling |
WO2015106799A1 (en) | 2014-01-14 | 2015-07-23 | Sandvik Mining And Construction Oy | Mine vehicle, mine control system and mapping method |
EP3097014B1 (en) | 2014-01-20 | 2020-03-18 | Robodub Inc. | Multicopters with variable flight characteristics |
KR101483057B1 (ko) | 2014-01-21 | 2015-01-15 | 엘아이지넥스원 주식회사 | 무인항공기 충돌방지를 위한 지상통제 방법 |
JP6326237B2 (ja) | 2014-01-31 | 2018-05-16 | 株式会社トプコン | 測定システム |
CN103941748B (zh) | 2014-04-29 | 2016-05-25 | 百度在线网络技术(北京)有限公司 | 自主导航方法及系统和地图建模方法及系统 |
US9262929B1 (en) | 2014-05-10 | 2016-02-16 | Google Inc. | Ground-sensitive trajectory generation for UAVs |
US9678506B2 (en) | 2014-06-19 | 2017-06-13 | Skydio, Inc. | Magic wand interface and other user interaction paradigms for a flying digital assistant |
US9174733B1 (en) | 2014-08-28 | 2015-11-03 | Google Inc. | Payload-release device and operation thereof |
DE102014013678B3 (de) * | 2014-09-10 | 2015-12-03 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten |
CN106687878B (zh) | 2014-10-31 | 2021-01-22 | 深圳市大疆创新科技有限公司 | 用于利用视觉标记进行监视的系统和方法 |
US9954992B2 (en) | 2014-11-27 | 2018-04-24 | Purdue Research Foundation | Mobile device enabled robotic system |
US9896202B2 (en) | 2014-12-03 | 2018-02-20 | X Development Llc | Systems and methods for reliable relative navigation and autonomous following between unmanned aerial vehicle and a target object |
US9997079B2 (en) | 2014-12-12 | 2018-06-12 | Amazon Technologies, Inc. | Commercial and general aircraft avoidance using multi-spectral wave detection |
US9685089B2 (en) | 2014-12-12 | 2017-06-20 | Amazon Technologies, Inc. | Commercial and general aircraft avoidance using acoustic pattern recognition |
EP3062066A1 (en) | 2015-02-26 | 2016-08-31 | Hexagon Technology Center GmbH | Determination of object data by template-based UAV control |
GB2535768B (en) | 2015-02-27 | 2018-08-29 | 3D Laser Mapping Ltd | Monitoring an environment |
US10564649B2 (en) | 2015-03-02 | 2020-02-18 | Izak Jan van Cruyningen | Flight planning for unmanned aerial tower inspection |
WO2016141100A2 (en) | 2015-03-03 | 2016-09-09 | Prenav Inc. | Scanning environments and tracking unmanned aerial vehicles |
EP4198626A1 (en) | 2015-05-27 | 2023-06-21 | GoPro, Inc. | Camera system using stabilizing gimbal |
US20160349746A1 (en) * | 2015-05-29 | 2016-12-01 | Faro Technologies, Inc. | Unmanned aerial vehicle having a projector and being tracked by a laser tracker |
CN112722239B (zh) | 2015-06-01 | 2023-02-28 | 深圳市大疆创新科技有限公司 | 无人飞行器 |
US20170158320A1 (en) | 2015-09-20 | 2017-06-08 | Daniel Bosch | Unmanned aerial system |
JP6691721B2 (ja) | 2016-02-15 | 2020-05-13 | 株式会社トプコン | 飛行計画作成方法及び飛行体誘導システム |
US10289990B2 (en) * | 2016-10-17 | 2019-05-14 | Conduent Business Services, Llc | Store shelf imaging system and method |
-
2018
- 2018-01-29 EP EP18748218.7A patent/EP3566178A4/en not_active Withdrawn
- 2018-01-29 JP JP2019541770A patent/JP2020510903A/ja active Pending
- 2018-01-29 US US15/882,921 patent/US10893190B2/en active Active
- 2018-01-29 WO PCT/US2018/015788 patent/WO2018144396A1/en active Application Filing
- 2018-01-29 CA CA3051425A patent/CA3051425A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
EP3566178A4 (en) | 2020-08-26 |
US10893190B2 (en) | 2021-01-12 |
CA3051425A1 (en) | 2018-08-09 |
WO2018144396A1 (en) | 2018-08-09 |
EP3566178A1 (en) | 2019-11-13 |
US20190037133A1 (en) | 2019-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10896481B2 (en) | Collecting and viewing three-dimensional scanner data with user defined restrictions | |
US9761016B1 (en) | Automated generation of a three-dimensional scanner video | |
JP2020510903A (ja) | 環境のデジタルキャプチャのための画像収集の追跡、並びに関連のシステム及び方法 | |
US8699005B2 (en) | Indoor surveying apparatus | |
US6930685B1 (en) | Image processing method and apparatus | |
CN106066173A (zh) | 用测量仪器和像机装置提供点云 | |
Remondino et al. | Design and implement a reality-based 3D digitisation and modelling project | |
CN114207473A (zh) | 用于至少一个扫描装置的支架和具有至少一个扫描装置的空间检测装置 | |
CN112254670A (zh) | 一种基于光扫描和智能视觉融合的3d信息采集设备 | |
CN112254676B (zh) | 一种便携式智能3d信息采集设备 | |
WO2022078433A1 (zh) | 一种多点组合式3d采集系统及方法 | |
WO2022078439A1 (zh) | 一种空间与物体三维信息采集匹配设备及方法 | |
EP4068218A1 (en) | Automated update of object-models in geometrical digital representation | |
WO2022078438A1 (zh) | 一种室内3d信息采集设备 | |
WO2022078437A1 (zh) | 一种移动物体之间的三维处理设备及方法 | |
CN112254677B (zh) | 一种基于手持设备的多位置组合式3d采集系统及方法 | |
CN112304250B (zh) | 一种移动物体之间的三维匹配设备及方法 | |
WO2017087201A1 (en) | Automated generation of a three-dimensional scanner video | |
RU2723239C1 (ru) | Система получения реалистичной модели местности для виртуального мира и способ ее работы | |
JP2010128792A (ja) | 表示装置および表示システム | |
EP4181063A1 (en) | Markerless registration of image data and laser scan data | |
WO2023183373A1 (en) | Generating a digital twin representation of an environment or object | |
Madritsch et al. | Camera based beacon tracking: accuracy and applications | |
Fleck et al. | 3DTV-Panoramic 3D Model Acquisition and its 3D Visualization on the Interactive Fogscreen |