JP6785860B2 - 多方向カメラを使用した空間のマッピング - Google Patents
多方向カメラを使用した空間のマッピング Download PDFInfo
- Publication number
- JP6785860B2 JP6785860B2 JP2018529746A JP2018529746A JP6785860B2 JP 6785860 B2 JP6785860 B2 JP 6785860B2 JP 2018529746 A JP2018529746 A JP 2018529746A JP 2018529746 A JP2018529746 A JP 2018529746A JP 6785860 B2 JP6785860 B2 JP 6785860B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- space
- depth
- robot device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/009—Carrying-vehicles; Arrangements of trollies or wheels; Means for avoiding mechanical obstacles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
- B25J11/0085—Cleaning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
- Y10S901/47—Optical
Description
図1Aは、本明細書で説明されたような占有マップを生成するのに使用され得る試験ロボットデバイス105の第1の例100示す。この試験ロボットデバイスは、以下の例の理解を容易にするために提供されており、限定するものと見なされるべきではなく、異なる構成の他のロボットデバイスが、以下の段落において説明される動作に、同様に適合し得る。図1Aの試験ロボットデバイス105は、複数の角度位置から画像を取り込むための単眼の多方向カメラデバイス110を備える。使用において、複数の画像が次々に捕捉され得る。特定の事例では、複数の角度位置が広い視野をカバーする。特別な事例では、カメラデバイス110は、たとえば実質的に360度の視野を取り込むように構成されたデバイスといった、全方向カメラを備え得る。この場合、全方向カメラは、たとえば電荷結合アレイに対して取り付けられ得るレンズといったパノラマ環状レンズを有するデバイスを備え得る。図1Aの例では、カメラデバイス110は、ロボットデバイスの上の構成可能なアーム上に取り付けられ、他の事例では、カメラデバイス110は、試験ロボットデバイス105の本体部分の内部に静的に取り付けられてよい。1つの事例では、単眼の多方向カメラデバイスは、一連の画像を取り込むように構成された静止画像デバイスを備えてよく、別の事例では、単眼の多方向カメラデバイスは、ビデオフレームの形式の一連の画像を含むビデオデータを取り込むためのビデオデバイスを備えてよい。特定の事例では、ビデオデバイスは、約25フレーム/秒または30フレーム/秒の、またはそれより大きいフレームレートのビデオデータを取り込むように構成されてよい。
図2Aおよび図2Bは、2つの例による、空間210の内部のロボットデバイス205の運動200、250を概略的に示す。ロボットデバイス205は、いくつかの例では、図1Aおよび図1Bに示されたようなデバイスを備え得る。図2Aおよび図2Bでは、空間210は室内の形態の3次元空間を備える。他の例では、空間は、たとえば少なくとも部屋または地理的位置の一部分といった何らかの内部の物理的空間および/または外部の物理的空間でよい。これらの例における空間210は、空間に配置されている複数の物理的物体220を備える。これらの物体220は、とりわけ、家具、建造物部分、機器、揚げ床部分、内壁部分、人、電子デバイス、動物などのうち1つまたは複数を含み得る。図2Aおよび図2Bにおける空間210は下部面を有する平面として上から示されているが、これは必ずしもすべての実装形態において必要なことではなく、環境はたとえば空中でよく、または地球圏外の空間の内部でもよい。空間の下部面は、水平な床である必要もなく、たとえば斜面および/または多重レベルの一連の面を備えてもよい。
図3は例示の占有マップ300を示す。この占有マップ300は、ロボットデバイス105、155のうち1つまたは複数によって記憶されてよく、かつ/または図2Aおよび図2Bに示された運動200、250に類似の運動に基づいて生成されてよい。占有マップ300は、ロボットデバイスのナビゲーションエンジンによって空間の移動可能な部分を決定するためにアクセス可能でよい。
図2Aおよび図2Bに示されたような運動の例と、図3に示されたような占有マップの一例とに続いて、次に処理動作の特定の例を説明する。この処理動作は、運動中に取り込まれた一連の画像を得て占有マップを生成するように構成されている。
て推定され得る。特定の事例では、これらの外因性パラメータは6自由度を表し得る。カメラモデルは、たとえば、C. Geyer、「Catadioptric Projective Geometry: theory and applications」、博士論文、University of Pennsylvania、2003年、およびJ. P. d. A. Barreto、「General central projection systems: Modeling, calibration and visual serving」、博士論文、University of Coimbra、2004年、に説明されているような適合されたGeyerおよび/またはBarretoの反射屈折カメラモデルを含み得る。そのようなカメラモデルは、レンズミラーの曲率を決定する特別なパラメータの追加を伴うピンホールモデルに類似し得る。
図5は、占有マップを生成するのに使用され得るナビゲーションエンジン510の一例500を示す。ナビゲーションエンジン510は、上記で説明されたナビゲーションエンジン120、170、430および435のうち任意のものを実装するために使用され得る。ナビゲーションエンジン510は、たとえば上記で説明されたようにロボットデバイスの移動中に取り込まれた一連の画像520を受け取る。一連の画像520は、図4Bを参照しながら説明されたようなアンラップされた全方向画像425を含み得る。ナビゲーションエンジン510は、姿勢推定器530、奥行き推定器540およびマップ生成器550といった少なくとも3つのシステム構成要素を備える。
にプログラムされたフィールドプログラマブルゲートアレイを備え得る。1つの事例では、ナビゲーションエンジン510は、コンピュータプログラムコード、および/またはモバイルコンピュータデバイスにおける専用の処理電子回路、および/またはデスクトップコンピュータデバイスによって実装され得、この場合、ナビゲーションエンジン510は、ロボットデバイスから伝送された画像を受け取り、かつ/または生成された占有マップをロボットデバイスへ伝送するように構成され得る。分散コンピューティングの他の実装形態も、本明細書で説明された例から逸脱することなく使用され得る。1つの事例では、ナビゲーションエンジン510は、以前の事例と同様に、またはその代わりに、コンピュータプログラムコードを実行する1つまたは複数のグラフィック処理ユニットによって、全体的に、または部分的に実装され得る。特定の事例では、ナビゲーションエンジン510は、たとえばグラフィック処理ユニットの複数のプロセッサおよび/または各コア上で並行して実装される1つまたは複数の機能によって実装され得る。
図6は、一例による、ロボットデバイスによる移動が可能な空間に対する物体占有を判定するための方法600を示す。この方法は、前述のナビゲーションエンジンの例または何らかの他の適切なコンピュータデバイスによって適用され得るものである。
本明細書で説明された特定のシステム構成要素および方法は、非一時的記憶媒体に記憶可能なコンピュータプログラムコードによって実装され得る。図10は、コンピュータ可読記憶媒体1020からデータを検索するように構成された少なくとも1つのプロセッサ1010を含むシステムの特定の例1000を示す。このシステムは、上記で説明されたような可動デバイスまたはロボットデバイスの一部分を備え得る。コンピュータ可読記憶媒体1020には、1組のコンピュータ可読命令1030が記憶されている。この例のコンピュータ可読記憶媒体1020は、画像データのフレーム1040および占有マップ1050を記憶するようにも構成されている。占有マップ1050は、図3に概略的に示されたものなどの占有マップを含み得る。他の例では、コンポーネント1030、1040および1050は分離した媒体に記憶され得る。使用において、少なくとも1つのプロセッサ1010は、命令1030を処理するためにメモリにロードするように構成されている。命令1030は、少なくとも1つのプロセッサ1010に、一連のアクションを遂行させるように構成されている。これらのアクションには、プロセッサが、命令1060において、単眼の多方向カメラから一連のフレーム1040を受け取るものが含まれる。この例では、多方向カメラは、空間に対する移動面内の別々の角度位置において取り込まれた一連のフレームの各々の画像データを取り込むように構成されている。これらのアクションには、プロセッサが、命令1065において、一連のフレームにわたって検知された特徴を照合することにより、それぞれのフレームに関してカメラの位置および配向の推定を決定するものがさらに含まれる。命令1070は、次いで、一連のフレームにわたって、カメラの位置および配向の推定ならびに検知された特徴をバンドル調整して、カメラの位置および配向の推定の最適化された組を生成することを含む。
105 試験ロボットデバイス
110 単眼の多方向カメラデバイス
115 移動アクチュエータ
120 ナビゲーションエンジン
125 フリーホイール
150 ロボットデバイス155の別の例
155 掃除ロボットデバイス
160 カメラデバイス
165 移動アクチュエータ
170 ナビゲーションエンジン
175 フリーホイール
180 掃除要素
185 ローラーもしくはブラシ
200 ロボットデバイス205の運動
205 ロボットデバイス
210 空間
220-A 物体
220-B 物体
220-C 物体
220-D 物体
230 点
240 移動
250 ロボットデバイス205の運動
255 空間
260 隔壁
270 移動
280 移動
290 移動
300 占有マップ
310 多次元グリッド
320 セル
330-A 網掛けセル
330-B 網掛けセル
330-C 網掛けセル
330-D 網掛けセル
400 処理パイプライン
410 カメラデバイス
415 カメラデバイス
420 画像
425 アンラップされた全方向画像
430 ナビゲーションエンジン
435 ナビゲーションエンジン
440 占有マップ
450 処理パイプライン
460 未加工の全方向画像
470 画像プロセッサ
480 カメラ較正器
485 較正パターン
490 較正パターンの回復された表現
500 ナビゲーションエンジン510の一例
510 ナビゲーションエンジン
520 一連の画像
530 姿勢推定器
540 奥行き推定器
550 マップ生成器
560 占有マップ
900 画像部分
910 第1の領域
920 第2の領域
930 コスト関数の出力
940 第1の出力
945 第1の放物線
950 第2の出力
955 第2の放物線
1000 システムの特定の例
1010 プロセッサ
1020 コンピュータ可読記憶媒体
1030 コンピュータ可読命令
1040 画像データのフレーム
1050 占有マップ
1060 命令
1065 命令
1070 命令
1075 命令
1080 命令
1085 命令
1090 命令
Claims (26)
- ロボットデバイスであって、
複数の角度位置から画像を取り込むための単眼の多方向カメラデバイスと、
空間の内部で前記ロボットデバイスを移動させるための少なくとも1つの移動アクチュエータと、
前記空間の内部の前記ロボットデバイスの移動を制御するためのナビゲーションエンジンと、
前記空間の移動可能な部分を決定するための、前記ナビゲーションエンジンによってアクセス可能な占有マップとを備え、
前記ナビゲーションエンジンが、
前記少なくとも1つの移動アクチュエータを使用して、移動面における点のまわりで前記ロボットデバイスの移動を命令し、
前記単眼の多方向カメラデバイスを使用して、前記ロボットデバイスの前記命令された移動中に、複数の異なる角度位置における一連の画像を得、
前記命令された移動中の複数の位置における前記単眼の多方向カメラデバイスの前記位置および配向を示す姿勢データであって、前記一連の画像内で検知された1組の特徴を使用して決定される姿勢データを、前記一連の画像データから決定し、
前記一連の画像と前記姿勢データとのボリューム関数を評価することにより、前記空間における前記多方向カメラデバイスから物体までの距離をそれぞれ表す奥行き値を推定し、
推定された奥行き値に関する分散測度を決定し、
前記決定された分散測度に基づいて、前記推定された奥行き値をフィルタリングし、
前記フィルタリングされた奥行き値に基づいて、前記空間の前記占有マップを埋めるように構成されている、ロボットデバイス。 - 前記単眼の多方向カメラデバイスによって取り込まれた画像をアンラップして前記ナビゲーションエンジンで使用されるパノラマ画像を出力するための画像プロセッサを備える、請求項1に記載のロボットデバイス。
- 前記単眼の多方向カメラデバイスが、一連のフレームを含むビデオデータを取り込むためのビデオデバイスを備える、請求項1または2に記載のロボットデバイス。
- 前記占有マップが多次元グリッドを含み、前記グリッドのエントリが、
前記移動面の領域が自由空間を含み、前記領域は前記ロボットデバイスが移動可能であること、および、
前記移動面の領域が物体を含み、前記領域は前記ロボットデバイスが移動不可能であること、のうち1つを示す、請求項1から3のいずれか一項に記載のロボットデバイス。 - 較正パターンの少なくとも1つの取り込み画像を処理することにより、前記単眼の多方向カメラデバイスを較正するカメラ較正器を備え、
前記カメラ較正器は、取り込み画像値および回復された較正パターンの画像特性の関数を評価することによってカメラのモデルパラメータを決定するように構成されている、請求項1から4のいずれか一項に記載のロボットデバイス。 - 前記単眼の多方向カメラデバイスが全方向カメラを備える、請求項1から5のいずれか一項に記載のロボットデバイス。
- 前記全方向カメラがパノラマ環状レンズを備える、請求項6に記載のロボットデバイス。
- 前記単眼の多方向カメラデバイスが、奥行きセンサおよび画像センサを備え、奥行きお
よび画像データを取り込むように構成されている、請求項1から7のいずれか一項に記載のロボットデバイス。 - 掃除要素を備え、
前記ナビゲーションエンジンが、
前記物体占有マップを処理して、前記空間の占有されていない領域に関する掃除パターンを決定し、
前記掃除パターンに従って前記掃除要素の起動を命令するように構成されている、請求項1から8のいずれか一項に記載のロボットデバイス。 - 前記掃除要素が真空デバイスを備える、請求項9に記載のロボットデバイス。
- ロボットデバイスによる移動が可能な空間の物体占有を判定するための方法であって、
移動面における点のまわりでの前記ロボットデバイスの移動の間に、前記ロボットデバイスに結合された単眼の多方向カメラデバイスから画像データを得るステップであって、前記単眼の多方向カメラデバイスが、複数の角度位置から画像データを取り込むように構成されており、前記画像データが、前記ロボットデバイスの移動面内に不同がある一連の画像を含む、ステップと、
前記画像データに対応する姿勢データを決定するステップであって、前記姿勢データが、前記単眼の多方向カメラデバイスの位置および配向を示すものであり、前記姿勢データが、前記画像データ内の検知された1組の特徴を使用して決定される、ステップと、
前記画像データと前記姿勢データとのボリューム関数を評価することにより、前記空間における前記単眼の多方向カメラデバイスから物体までの距離をそれぞれ表す奥行き値を推定するステップと、
推定された奥行き値に関する分散測度を決定するステップと、
前記決定された分散測度に基づいて、前記推定された奥行き値をフィルタリングするステップと、
前記フィルタリングされた奥行き値に基づいて、前記空間の物体占有マップを埋めるステップであって、前記物体占有マップが、前記ロボットデバイスによって前記空間を移動するために使用可能である、ステップとを含む方法。 - 前記画像データに対応する姿勢データを決定するステップが、
前記一連の画像における複数の画像の各々において1つまたは複数の特徴を検知するステップと、
前記複数の画像にわたって、前記検知された特徴を照合して、前記画像データ内の1組の目印を決定するステップと、
前記一連の画像について、1組のカメラ姿勢の推定と1組の目印位置の推定とを連帯的に最適化するステップであって、連帯的に最適化するステップの後に、前記姿勢データが、前記1組のカメラ姿勢の推定を含む、ステップとを含む、請求項11に記載の方法。 - 前記1組のカメラ姿勢の推定と前記1組の目印位置の推定とを連帯的に最適化するステップが、バンドル調整を遂行するステップを含む、請求項12に記載の方法。
- 前記1組のカメラ姿勢の推定と前記1組の目印位置の推定とを連帯的に最適化するステップが、前記ロボットデバイスからのオドメトリデータを使用して最適化関数を抑制するステップを含む、請求項11または12に記載の方法。
- ボリューム関数を評価することによって奥行き値を推定するステップが、
前記一連の画像から参照画像を決定するステップと、
前記参照画像とオーバラップする1組の比較画像を決定するステップと、
前記参照画像の画像値と前記1組の比較画像からの投影画像値との間の測光誤差を決定するステップであって、
各投影画像値が、前記参照画像に関する姿勢データおよび前記比較画像に関する姿勢データを使用した、前記参照画像の視点への比較画像の投影を含む、ステップと、
前記測光誤差を最小化する奥行き値を選択するステップとを含む、請求項11から14のいずれか一項に記載の方法。 - 前記測光誤差が、正規化された画素測光誤差に基づいて決定される、請求項15に記載の方法。
- 前記単眼の多方向カメラデバイスが全方向カメラデバイスを備え、前記参照画像が前記空間の360度のパノラマを含み、
前記物体占有マップを埋めるステップが、
前記参照画像の各画素列に関して、最も近い奥行き値を決定するステップと、
前記最も近い奥行き値を使用して2次元の占有グリッド値を埋めるステップとを含む、請求項15または16に記載の方法。 - 前記分散測度が、参照画像に関連した画素の奥行き測定値の標準偏差を含み、
前記推定された奥行き値をフィルタリングするステップが、所定の閾値未満である標準偏差値を有する奥行き推定を使用するステップを含む、請求項11から17のいずれか一項に記載の方法。 - 奥行き値を推定するステップが、前記空間の準稠密な奥行きマップを計算するステップを含む、請求項11から18のいずれか一項に記載の方法。
- 前記方法が、前記空間の内部における前記ロボットデバイスの、複数の間隔をあけた円運動に対して繰り返され、
前記物体占有マップを埋めるステップが、複数の奥行きマップからの奥行き値を統合して前記物体占有マップを埋めるステップを含む、請求項11から19のいずれか一項に記載の方法。 - 前記物体占有マップを使用して、前記ロボットデバイスが前記空間の占有されていない領域を通る移動経路を決定するステップを含む、請求項11から20のいずれか一項に記載の方法。
- 前記ロボットデバイスが掃除要素を備え、
前記物体占有マップを使用して、前記空間の占有されていない領域に対する掃除パターンを決定するステップを含み、
前記掃除パターンが、前記空間の内部で前記掃除要素が適用されるべき領域を示す、請求項11から21のいずれか一項に記載の方法。 - プロセッサによって実行されたとき、コンピュータデバイスに空間をマッピングさせるコンピュータ実行可能命令を含む非一時的コンピュータ可読記憶媒体であって、前記命令により、前記コンピュータデバイスが、
複数の角度位置からのフレームの各々に関する画像データを取り込むように構成された単眼の多方向カメラから、前記空間に対する移動面内の別々の角度位置において取り込まれた一連のフレームを受け取り、
前記一連のフレームにわたって、検知された特徴を照合することにより、各フレームについて、前記カメラの位置および配向の推定を決定し、
前記一連のフレームにわたって、前記カメラの前記位置および配向の推定ならびに前記検知された特徴をバンドル調整して、前記カメラの位置および配向の推定の最適化された組を生成し、
前記一連のフレームから参照フレームを決定し、
前記参照フレームの画素値と、前記参照フレームとオーバラップする1組の比較画像からの投影画素値であって、前記カメラからの物体距離と、前記カメラの位置および配向の推定の最適化された組との関数である投影画素値との間の測光誤差関数を評価し、
前記評価された測光誤差関数に基づき、前記参照フレームの別々の画素列に対応する別々の角度位置に対する物体距離を決定し、
決定された物体距離に関する分散測度を決定し、
前記決定された分散測度に基づいて、前記決定された物体距離をフィルタリングし、
前記フィルタリングされた物体距離に基づいて、前記空間に対する前記移動面内で移動可能な領域のマップを生成し、
前記一連のフレームが、前記空間の内部で円周方向に移動する可動ビデオカメラから受け取られる、非一時的コンピュータ可読記憶媒体。 - 前記単眼の多方向カメラデバイスが全方向カメラを備え、
各フレームが、アンラップされた全方向画像を含む、請求項23に記載の媒体。 - 前記全方向カメラがパノラマ環状レンズを備える、請求項24に記載の媒体。
- 前記単眼の多方向カメラが画像センサおよび奥行きセンサを備え、前記一連のフレームが画像データおよび奥行きデータを含み、前記奥行きデータが前記画像データとともに物体距離を決定するために使用される、請求項23から25のいずれか一項に記載の媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1515378.6A GB2541884A (en) | 2015-08-28 | 2015-08-28 | Mapping a space using a multi-directional camera |
GB1515378.6 | 2015-08-28 | ||
PCT/GB2016/052618 WO2017037423A1 (en) | 2015-08-28 | 2016-08-23 | Mapping a space using a multi-directional camera |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018529175A JP2018529175A (ja) | 2018-10-04 |
JP6785860B2 true JP6785860B2 (ja) | 2020-11-18 |
Family
ID=54326533
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018529746A Active JP6785860B2 (ja) | 2015-08-28 | 2016-08-23 | 多方向カメラを使用した空間のマッピング |
Country Status (8)
Country | Link |
---|---|
US (1) | US10796151B2 (ja) |
EP (1) | EP3341915A1 (ja) |
JP (1) | JP6785860B2 (ja) |
KR (1) | KR20180088788A (ja) |
CN (1) | CN108369743B (ja) |
AU (1) | AU2016313849A1 (ja) |
GB (1) | GB2541884A (ja) |
WO (1) | WO2017037423A1 (ja) |
Families Citing this family (71)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11835343B1 (en) | 2004-08-06 | 2023-12-05 | AI Incorporated | Method for constructing a map while performing work |
US10809071B2 (en) | 2017-10-17 | 2020-10-20 | AI Incorporated | Method for constructing a map while performing work |
US8798840B2 (en) * | 2011-09-30 | 2014-08-05 | Irobot Corporation | Adaptive mapping with spatial summaries of sensor data |
US10735902B1 (en) * | 2014-04-09 | 2020-08-04 | Accuware, Inc. | Method and computer program for taking action based on determined movement path of mobile devices |
JP2018504652A (ja) * | 2015-10-09 | 2018-02-15 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 顕著特徴ベースの移動体測位 |
EP3185209B1 (en) * | 2015-12-23 | 2019-02-27 | STMicroelectronics (Research & Development) Limited | Depth maps generated from a single sensor |
US10372968B2 (en) * | 2016-01-22 | 2019-08-06 | Qualcomm Incorporated | Object-focused active three-dimensional reconstruction |
US10546385B2 (en) | 2016-02-25 | 2020-01-28 | Technion Research & Development Foundation Limited | System and method for image capture device pose estimation |
CN106444786B (zh) * | 2016-11-29 | 2019-07-02 | 北京小米移动软件有限公司 | 扫地机器人的控制方法及装置和电子设备 |
WO2018131165A1 (ja) * | 2017-01-16 | 2018-07-19 | 富士通株式会社 | 情報処理プログラム、情報処理方法および情報処理装置 |
KR102624560B1 (ko) * | 2017-01-31 | 2024-01-15 | 엘지전자 주식회사 | 청소기 |
CN107122782B (zh) * | 2017-03-16 | 2020-09-11 | 成都通甲优博科技有限责任公司 | 一种均衡的半密集立体匹配方法 |
KR102461938B1 (ko) * | 2017-04-04 | 2022-10-31 | 엘지전자 주식회사 | 주행 지면의 장애물을 식별하는 방법 및 이를 구현하는 로봇 |
US11163379B2 (en) * | 2017-04-05 | 2021-11-02 | Telefonaktiebolaget Lm Ericsson (Publ) | Illuminating an environment for localisation |
WO2019019136A1 (en) * | 2017-07-28 | 2019-01-31 | Qualcomm Incorporated | SYSTEMS AND METHODS FOR USING SEMANTIC INFORMATION FOR NAVIGATING A ROBOTIC DEVICE |
EP3441788A1 (en) * | 2017-08-08 | 2019-02-13 | Koninklijke Philips N.V. | Apparatus and method for generating a representation of a scene |
JP6886620B2 (ja) * | 2017-08-09 | 2021-06-16 | オムロン株式会社 | キャリブレーション方法、キャリブレーションシステム及びプログラム |
KR102472767B1 (ko) * | 2017-09-14 | 2022-12-01 | 삼성전자주식회사 | 신뢰도에 기초하여 깊이 맵을 산출하는 방법 및 장치 |
EP3460400B1 (en) * | 2017-09-22 | 2021-12-22 | Softbank Robotics Europe | Improved localization of a mobile device based on image and radio words |
US11274929B1 (en) * | 2017-10-17 | 2022-03-15 | AI Incorporated | Method for constructing a map while performing work |
US10769960B2 (en) * | 2017-11-27 | 2020-09-08 | Cae Inc. | Method and system for simulating a radar image |
CN108717710B (zh) * | 2018-05-18 | 2022-04-22 | 京东方科技集团股份有限公司 | 室内环境下的定位方法、装置及系统 |
CN110766737B (zh) * | 2018-07-26 | 2023-08-04 | 富士通株式会社 | 训练深度估计模型的方法和设备以及存储介质 |
CN109189872B (zh) * | 2018-08-13 | 2021-06-04 | 武汉中海庭数据技术有限公司 | 高精度地图数据验证装置及方法 |
CN108846867A (zh) * | 2018-08-29 | 2018-11-20 | 安徽云能天智能科技有限责任公司 | 一种基于多目全景惯导的slam系统 |
US11567504B1 (en) * | 2018-09-12 | 2023-01-31 | Amazon Technologies, Inc. | Dynamic wait location for an autonomous mobile device |
US11288863B2 (en) * | 2018-12-04 | 2022-03-29 | Intuitive Research And Technology Corporation | Voxel build |
EP3629585A1 (en) * | 2018-09-25 | 2020-04-01 | Koninklijke Philips N.V. | Image synthesis |
CN110969664B (zh) * | 2018-09-30 | 2023-10-24 | 北京魔门塔科技有限公司 | 一种相机外部参数的动态标定方法 |
KR102220865B1 (ko) * | 2018-10-02 | 2021-02-25 | 엘지전자 주식회사 | 청소로봇이 지면의 단차에 적응적으로 동작하는 방법 및 청소로봇 |
KR102147210B1 (ko) * | 2018-10-22 | 2020-08-24 | 엘지전자 주식회사 | 인공지능 이동 로봇의 제어 방법 |
TWI687650B (zh) | 2018-11-14 | 2020-03-11 | 財團法人工業技術研究院 | 利用磁力場形之定位及姿態估測方法及其系統 |
CN109643127B (zh) * | 2018-11-19 | 2022-05-03 | 深圳阿科伯特机器人有限公司 | 构建地图、定位、导航、控制方法及系统、移动机器人 |
US11555903B1 (en) | 2018-11-30 | 2023-01-17 | Zoox, Inc. | Sensor calibration using dense depth maps |
US10916035B1 (en) * | 2018-11-30 | 2021-02-09 | Zoox, Inc. | Camera calibration using dense depth maps |
SG11202106034YA (en) * | 2018-12-27 | 2021-07-29 | Nec Comm Systems Ltd | Article position management apparatus, article position management system, article position management method, and program |
JP7190919B2 (ja) * | 2019-01-25 | 2022-12-16 | 株式会社ソニー・インタラクティブエンタテインメント | 画像解析システム |
CN111583324B (zh) * | 2019-02-19 | 2023-11-28 | 顺丰科技有限公司 | 单目图像深度估测装载率识别方法和装置 |
US11023763B2 (en) | 2019-03-19 | 2021-06-01 | Boston Dynamics, Inc. | Detecting boxes |
KR20200130884A (ko) * | 2019-04-30 | 2020-11-23 | 에브리봇 주식회사 | 이동 로봇 |
US10997747B2 (en) * | 2019-05-09 | 2021-05-04 | Trimble Inc. | Target positioning with bundle adjustment |
US11002541B2 (en) | 2019-07-23 | 2021-05-11 | Trimble Inc. | Target positioning with electronic distance measuring and bundle adjustment |
WO2020247938A1 (en) | 2019-06-07 | 2020-12-10 | Pictometry International Corp. | Using spatial filter to reduce bundle adjustment block size |
US11845191B1 (en) * | 2019-06-26 | 2023-12-19 | Amazon Technologies, Inc. | Robotic picking of cuboidal items from a pallet |
US11138751B2 (en) * | 2019-07-06 | 2021-10-05 | Toyota Research Institute, Inc. | Systems and methods for semi-supervised training using reprojected distance loss |
EP3966595A4 (en) * | 2019-07-23 | 2023-04-12 | R-Go Robotics Ltd | TECHNIQUES FOR CO-OPTIMIZING MOVEMENT AND SENSORY CONTROL |
WO2021015835A1 (en) | 2019-07-23 | 2021-01-28 | R-Go Robotics Ltd. | Techniques for co-optimization of motion and sensory control |
CN110487274B (zh) * | 2019-07-30 | 2021-01-29 | 中国科学院空间应用工程与技术中心 | 用于弱纹理场景的slam方法、系统、导航车及存储介质 |
US11625907B2 (en) | 2019-10-25 | 2023-04-11 | Pictometry International Corp. | System using image connectivity to reduce bundle size for bundle adjustment |
CN110941266A (zh) * | 2019-11-12 | 2020-03-31 | 天津大学 | 一种多机器人系统中的障碍物检测与规避方法 |
KR20210096523A (ko) * | 2020-01-28 | 2021-08-05 | 엘지전자 주식회사 | 로봇의 위치 인식 |
US11652972B2 (en) * | 2020-03-04 | 2023-05-16 | Toyota Research Institute, Inc. | Systems and methods for self-supervised depth estimation according to an arbitrary camera |
KR102358758B1 (ko) * | 2020-03-17 | 2022-02-07 | 엘지전자 주식회사 | 로봇 청소기의 충전 장치 |
KR20210130478A (ko) * | 2020-04-22 | 2021-11-01 | 삼성전자주식회사 | 로봇 청소기 및 그 제어 방법 |
US11405549B2 (en) * | 2020-06-05 | 2022-08-02 | Zillow, Inc. | Automated generation on mobile devices of panorama images for building locations and subsequent use |
CN111768417B (zh) * | 2020-06-23 | 2023-12-05 | 中南大学 | 基于单目视觉3d重建技术的铁路货车超限检测方法 |
CN111833391B (zh) * | 2020-07-16 | 2024-01-09 | 北京百度网讯科技有限公司 | 图像深度信息的估计方法及装置 |
US11514674B2 (en) * | 2020-09-04 | 2022-11-29 | Zillow, Inc. | Automated analysis of image contents to determine the acquisition location of the image |
JP7444277B2 (ja) * | 2020-10-29 | 2024-03-06 | 日本電気株式会社 | 挙動推定装置、挙動推定方法、経路生成装置、経路生成方法、及びプログラム |
CN112102411B (zh) * | 2020-11-02 | 2021-02-12 | 中国人民解放军国防科技大学 | 一种基于语义误差图像的视觉定位方法及装置 |
US20220134566A1 (en) * | 2020-11-04 | 2022-05-05 | X Development Llc | Optimizing calibration with constraints between different coordinate frames |
US11252329B1 (en) * | 2021-01-08 | 2022-02-15 | Zillow, Inc. | Automated determination of image acquisition locations in building interiors using multiple data capture devices |
CA3142154A1 (en) * | 2021-01-08 | 2022-07-08 | Zillow, Inc. | Automated determination of image acquisition locations in building interiors using multiple data capture devices |
CN114765667A (zh) * | 2021-01-13 | 2022-07-19 | 安霸国际有限合伙企业 | 用于多视图拼接的固定图案校准 |
CN112907559B (zh) * | 2021-03-16 | 2022-06-07 | 湖北工程学院 | 基于单目相机的深度图生成装置 |
CN113313827B (zh) * | 2021-06-18 | 2022-02-22 | 浙江大学 | 一种基于连续置信度分布的机器人建图方法 |
CN113515143A (zh) * | 2021-06-30 | 2021-10-19 | 深圳市优必选科技股份有限公司 | 机器人导航方法、机器人及计算机可读存储介质 |
US20230097749A1 (en) * | 2021-09-30 | 2023-03-30 | Woven Alpha, Inc. | Vehicle data collection system and method of using |
CN114434458B (zh) * | 2022-01-27 | 2024-02-27 | 国科温州研究院(温州生物材料与工程研究所) | 集群机器人与虚拟环境的互动方法及其系统 |
CN114770461B (zh) * | 2022-04-14 | 2023-12-01 | 深圳技术大学 | 一种基于单目视觉的移动机器人及其自动抓取方法 |
CN116704472B (zh) * | 2023-05-15 | 2024-04-02 | 小米汽车科技有限公司 | 图像处理方法、装置、设备、介质及程序产品 |
Family Cites Families (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002085305A (ja) * | 2000-09-12 | 2002-03-26 | Toshiba Tec Corp | ロボットクリーナ及びロボットクリーナシステム |
US20020136455A1 (en) * | 2001-01-31 | 2002-09-26 | I-Jong Lin | System and method for robust foreground and background image data separation for location of objects in front of a controllable display within a camera view |
JP2004122326A (ja) * | 2002-10-04 | 2004-04-22 | Mitsubishi Heavy Ind Ltd | 探査ロボット |
US7015831B2 (en) * | 2002-12-17 | 2006-03-21 | Evolution Robotics, Inc. | Systems and methods for incrementally updating a pose of a mobile device calculated by visual simultaneous localization and mapping techniques |
US7336299B2 (en) | 2003-07-03 | 2008-02-26 | Physical Optics Corporation | Panoramic video system with real-time distortion-free imaging |
US7609289B2 (en) | 2003-09-25 | 2009-10-27 | Omnitek Partners, Llc | Methods and apparatus for capturing images with a multi-image lens |
JP2006054838A (ja) * | 2004-08-12 | 2006-02-23 | Hisaaki Nishii | 監視カメラ録画システム |
US8593506B2 (en) | 2007-03-15 | 2013-11-26 | Yissum Research Development Company Of The Hebrew University Of Jerusalem | Method and system for forming a panoramic image of a scene having minimal aspect distortion |
WO2009038772A2 (en) * | 2007-09-20 | 2009-03-26 | Evolution Robotics | Transferable intelligent control device |
JP2009169845A (ja) * | 2008-01-18 | 2009-07-30 | Toyota Motor Corp | 自律移動ロボット及び地図更新方法 |
KR100955483B1 (ko) * | 2008-08-12 | 2010-04-30 | 삼성전자주식회사 | 3차원 격자 지도 작성 방법 및 이를 이용한 자동 주행 장치의 제어 방법 |
US8749630B2 (en) | 2010-05-13 | 2014-06-10 | Ecole Polytechnique Federale De Lausanne (Epfl) | Method and system for automatic objects localization |
US8918213B2 (en) * | 2010-05-20 | 2014-12-23 | Irobot Corporation | Mobile human interface robot |
US9014848B2 (en) * | 2010-05-20 | 2015-04-21 | Irobot Corporation | Mobile robot system |
US8935005B2 (en) * | 2010-05-20 | 2015-01-13 | Irobot Corporation | Operating a mobile robot |
US9400503B2 (en) * | 2010-05-20 | 2016-07-26 | Irobot Corporation | Mobile human interface robot |
JP2012064131A (ja) | 2010-09-17 | 2012-03-29 | Tokyo Institute Of Technology | 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置 |
CA2812723C (en) | 2010-09-24 | 2017-02-14 | Evolution Robotics, Inc. | Systems and methods for vslam optimization |
WO2012056437A1 (en) | 2010-10-29 | 2012-05-03 | École Polytechnique Fédérale De Lausanne (Epfl) | Omnidirectional sensor array system |
US8930019B2 (en) * | 2010-12-30 | 2015-01-06 | Irobot Corporation | Mobile human interface robot |
AU2015202200A1 (en) * | 2010-12-30 | 2015-05-21 | Irobot Corporation | Mobile human interface robot |
KR20140040094A (ko) * | 2011-01-28 | 2014-04-02 | 인터치 테크놀로지스 인코퍼레이티드 | 이동형 원격현전 로봇과의 인터페이싱 |
EP2779621B1 (en) | 2011-11-07 | 2021-12-22 | Sony Interactive Entertainment Inc. | Image generation device, image generation method and program |
US8958911B2 (en) | 2012-02-29 | 2015-02-17 | Irobot Corporation | Mobile robot |
US9183631B2 (en) * | 2012-06-29 | 2015-11-10 | Mitsubishi Electric Research Laboratories, Inc. | Method for registering points and planes of 3D data in multiple coordinate systems |
WO2014033731A2 (en) * | 2012-07-10 | 2014-03-06 | Kpit Cummins Infosystems Limited | A system and method for depth estimation |
US8831290B2 (en) | 2012-08-01 | 2014-09-09 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for determining poses of vehicle-mounted cameras for in-road obstacle detection |
FR2996925B1 (fr) | 2012-10-17 | 2017-06-16 | Office Nat D Etudes Et De Rech Aerospatiales | Procede de conception d'un imageur monovoie passif capable d'estimer la profondeur |
US9576183B2 (en) | 2012-11-02 | 2017-02-21 | Qualcomm Incorporated | Fast initialization for monocular visual SLAM |
US9956687B2 (en) * | 2013-03-04 | 2018-05-01 | Microsoft Technology Licensing, Llc | Adapting robot behavior based upon human-robot interaction |
US9227323B1 (en) * | 2013-03-15 | 2016-01-05 | Google Inc. | Methods and systems for recognizing machine-readable information on three-dimensional objects |
US9519286B2 (en) | 2013-03-19 | 2016-12-13 | Robotic Research, Llc | Delayed telop aid |
US9269187B2 (en) | 2013-03-20 | 2016-02-23 | Siemens Product Lifecycle Management Software Inc. | Image-based 3D panorama |
US9674507B2 (en) | 2013-04-30 | 2017-06-06 | Qualcomm Incorporated | Monocular visual SLAM with general and panorama camera movements |
US9037396B2 (en) * | 2013-05-23 | 2015-05-19 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
TWI498526B (zh) * | 2013-06-05 | 2015-09-01 | Nat Univ Chung Cheng | Environment depth measurement method and its image acquisition device |
JP6217227B2 (ja) * | 2013-08-12 | 2017-10-25 | 株式会社リコー | 校正装置、方法及びプログラム |
EP2854104A1 (en) | 2013-09-25 | 2015-04-01 | Technische Universität München | Semi-dense simultaneous localization and mapping |
US9211643B1 (en) * | 2014-06-25 | 2015-12-15 | Microsoft Technology Licensing, Llc | Automatic in-situ registration and calibration of robotic arm/sensor/workspace system |
US11051000B2 (en) * | 2014-07-14 | 2021-06-29 | Mitsubishi Electric Research Laboratories, Inc. | Method for calibrating cameras with non-overlapping views |
DE102014110265A1 (de) * | 2014-07-22 | 2016-01-28 | Vorwerk & Co. Interholding Gmbh | Verfahren zur Reinigung oder Bearbeitung eines Raumes mittels eines selbsttätig verfahrbaren Gerätes |
US9427874B1 (en) * | 2014-08-25 | 2016-08-30 | Google Inc. | Methods and systems for providing landmarks to facilitate robot localization and visual odometry |
GB2529846B (en) * | 2014-09-03 | 2019-02-20 | Dyson Technology Ltd | Illumination Control of a Vision System for a Mobile Robot |
GB2529848B (en) * | 2014-09-03 | 2018-12-19 | Dyson Technology Ltd | A mobile robot |
GB2529847B (en) * | 2014-09-03 | 2018-12-19 | Dyson Technology Ltd | A mobile Robot with Independently Adjustable Light Sources |
US9571819B1 (en) * | 2014-09-16 | 2017-02-14 | Google Inc. | Efficient dense stereo computation |
US11199414B2 (en) * | 2016-09-14 | 2021-12-14 | Zhejiang University | Method for simultaneous localization and mapping |
US20180085927A1 (en) * | 2016-09-28 | 2018-03-29 | International Business Machines Corporation | Optimizing a layout of objects in a space |
-
2015
- 2015-08-28 GB GB1515378.6A patent/GB2541884A/en not_active Withdrawn
-
2016
- 2016-08-23 WO PCT/GB2016/052618 patent/WO2017037423A1/en active Application Filing
- 2016-08-23 JP JP2018529746A patent/JP6785860B2/ja active Active
- 2016-08-23 EP EP16770538.3A patent/EP3341915A1/en not_active Withdrawn
- 2016-08-23 KR KR1020187008766A patent/KR20180088788A/ko unknown
- 2016-08-23 CN CN201680063459.3A patent/CN108369743B/zh active Active
- 2016-08-23 AU AU2016313849A patent/AU2016313849A1/en not_active Abandoned
-
2018
- 2018-02-27 US US15/906,758 patent/US10796151B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
GB2541884A (en) | 2017-03-08 |
CN108369743B (zh) | 2023-10-24 |
CN108369743A (zh) | 2018-08-03 |
JP2018529175A (ja) | 2018-10-04 |
AU2016313849A1 (en) | 2018-03-08 |
WO2017037423A1 (en) | 2017-03-09 |
GB201515378D0 (en) | 2015-10-14 |
US20180189565A1 (en) | 2018-07-05 |
US10796151B2 (en) | 2020-10-06 |
EP3341915A1 (en) | 2018-07-04 |
KR20180088788A (ko) | 2018-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6785860B2 (ja) | 多方向カメラを使用した空間のマッピング | |
JP6980755B2 (ja) | 多方向カメラを使用した、囲まれた空間の寸法の推定 | |
Droeschel et al. | Efficient continuous-time SLAM for 3D lidar-based online mapping | |
RU2713611C2 (ru) | Способ моделирования трехмерного пространства | |
Schönbein et al. | Omnidirectional 3d reconstruction in augmented manhattan worlds | |
CN110176032B (zh) | 一种三维重建方法及装置 | |
CN107843251B (zh) | 移动机器人的位姿估计方法 | |
GB2580691A (en) | Depth estimation | |
Ding et al. | Fusing structure from motion and lidar for dense accurate depth map estimation | |
Schneider et al. | Incremental real-time bundle adjustment for multi-camera systems with points at infinity | |
Schneider et al. | On the accuracy of dense fisheye stereo | |
US20230351625A1 (en) | A method for measuring the topography of an environment | |
US11460855B1 (en) | Systems and methods for sensor calibration | |
Hirschmüller et al. | Stereo vision based reconstruction of huge urban areas from an airborne pushbroom camera (HRSC) | |
Lukierski et al. | Rapid free-space mapping from a single omnidirectional camera | |
Tsaregorodtsev et al. | Extrinsic camera calibration with semantic segmentation | |
Sheng et al. | Mobile robot localization and map building based on laser ranging and PTAM | |
CN111198563B (zh) | 一种用于足式机器人动态运动的地形识别方法及系统 | |
CN103489165A (zh) | 一种面向视频拼接的小数查找表生成方法 | |
Arbeiter et al. | 3-D-Environment reconstruction for mobile robots using fast-SLAM and feature extraction | |
Li | Fusion of LiDAR 3D points cloud with 2D digital camera image | |
Schubert et al. | Towards camera based navigation in 3d maps by synthesizing depth images | |
Danescu et al. | Flexible solution for modeling and tracking generic dynamic 3D environments | |
He | 3d reconstruction from passive sensors | |
Zhou et al. | Information-driven 6D SLAM based on ranging vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180615 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190620 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190708 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191008 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200617 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20200820 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200928 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201027 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6785860 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |