JP7375206B2 - 局所点群地図の構築方法及び視覚ロボット - Google Patents
局所点群地図の構築方法及び視覚ロボット Download PDFInfo
- Publication number
- JP7375206B2 JP7375206B2 JP2022540796A JP2022540796A JP7375206B2 JP 7375206 B2 JP7375206 B2 JP 7375206B2 JP 2022540796 A JP2022540796 A JP 2022540796A JP 2022540796 A JP2022540796 A JP 2022540796A JP 7375206 B2 JP7375206 B2 JP 7375206B2
- Authority
- JP
- Japan
- Prior art keywords
- point cloud
- mobile robot
- detection block
- predetermined
- tof camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 title claims description 16
- 238000010276 construction Methods 0.000 title claims description 9
- 238000001514 detection method Methods 0.000 claims description 172
- 230000008859 change Effects 0.000 claims description 91
- 238000000034 method Methods 0.000 claims description 65
- 238000009826 distribution Methods 0.000 claims description 38
- 238000006073 displacement reaction Methods 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 17
- 230000009466 transformation Effects 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000002372 labelling Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 claims description 3
- 230000005055 memory storage Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 5
- 238000012217 deletion Methods 0.000 description 4
- 230000037430 deletion Effects 0.000 description 4
- 239000003550 marker Substances 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 230000000903 blocking effect Effects 0.000 description 3
- 238000004140 cleaning Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000011895 specific detection Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 238000011423 initialization method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3837—Data obtained from a single source
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40298—Manipulator on vehicle, wheels, mobile
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Description
Claims (20)
- 局所点群地図の構築方法であって、
移動ロボットの移動中、移動ロボットの3d-tofカメラを制御して奥行き画像を収集し続け、3d-tofカメラによりリアルタイムに収集された現在フレームの奥行き画像を、所定の顕著な位置姿勢変化条件に基づいてキーフレームシーケンス内に挿入し、次にステップ2に進むステップ1と、
キーフレームシーケンス内の奥行き画像の所定の有効特徴点が位置姿勢変換を行い、カメラ座標系における点群になるように制御し、次にステップ3に進むステップ2と、
移動ロボットの3d-tofカメラのリアルタイムな視野角範囲内に、水平地盤に位置する1つの所定のターゲット平面領域を設定し、この所定のターゲット平面領域にそれにマッチングする検出ブロックを設定し、点群を所定のターゲット平面領域の真上に三次元ヒストグラムの形でラベルングし、次にステップ4に進むステップ3と、
各検出ブロックにおける点群の高さ位置の分布特徴に基づいて、先ず対応する検出ブロック内の離散分布状態の点群を削除し、次に収集視線が遮断される高さ特徴を有する検出ブロック内の点群を削除し、次にステップ5に進むステップ4と、
各検出ブロック内に分布する残りの点群の位置を局所点群地図の三次元位置としてラベルングし、局所点群地図の構築を実現するステップ5と、を含む、ことを特徴とする局所点群地図の構築方法。 - 3d-tofカメラによりリアルタイムに収集された現在フレームの奥行き画像を、所定の顕著な位置姿勢変化条件に基づいてキーフレームシーケンス内に挿入する前記方法は具体的に、
移動ロボットの3d-tofカメラにより現在収集された現在フレームの奥行き画像中の所定の有効特徴点と、前記キーフレームシーケンス内の各キーフレーム中の同じ所定の有効特徴点との相対位置姿勢をそれぞれ計算するステップであって、キーフレームシーケンスは移動ロボットが予め記憶した、所定の有効特徴点を含む連続的に配列された奥行き画像のシーケンスである、ステップと、
計算されたすべての相対位置姿勢が所定の顕著な位置姿勢変化条件を満たす場合、3d-tofカメラにより現在収集された現在フレームの奥行き画像を新たなキーフレームとして構成し、次にこの新たなキーフレームを前記キーフレームシーケンスに挿入し、次回前記相対位置姿勢計算に参与するキーフレームが移動ロボットの最新の相対位置関係を反映するようにするステップと、を含み、
所定の有効特徴点は前記3d-tofカメラの視野角範囲内での移動ロボットの前方の障害物の分布位置特徴を特徴づけるためのものであり、障害物の分布位置特徴は障害物の存在及び/又は障害物の不在を含む、ことを特徴とする請求項1に記載の局所点群地図の構築方法。 - 前記キーフレームシーケンス内の各キーフレーム中の所定の有効特徴点と、それに対応するキーフレームでの3d-tofカメラとの距離及び偏向角はすべて平行移動及び回転の方式で前記現在フレームの奥行き画像に対応して属するカメラ座標系に変換され、前記位置姿勢変換を実現し、
前記局所点群地図の地図座標系は現在フレームの奥行き画像に対応するカメラ座標系である、ことを特徴とする請求項2に記載の局所点群地図の構築方法。 - 前記した計算されたすべての相対位置姿勢が所定の顕著な位置姿勢変化条件を満たすことについて、具体的に、
計算された相対位置姿勢は、移動ロボットの3d-tofカメラにより現在収集された現在フレームの奥行き画像中の所定の有効特徴点のそれぞれと、前記位置姿勢変換が発生した後のキーフレームシーケンス内の各キーフレーム中の同じ所定の有効特徴点との間の、奥行き距離の変化量及びその対応する偏向角の変化量を含み、
あらゆる奥行き距離の変化量がすべて所定の距離変化閾値よりも大きく、且つあらゆる偏向角の変化量がすべて所定の角度変化閾値よりも大きい場合、前記所定の顕著な位置姿勢変化条件を満たすと決定する、ことを特徴とする請求項3に記載の局所点群地図の構築方法。 - 前記キーフレームシーケンス内の各キーフレーム中の同じ所定の有効特徴点と、それに対応するキーフレームでの3d-tofカメラとの距離は、前記3d-tofカメラにより予め収集され前記キーフレームシーケンスに挿入された奥行き画像の所定の有効特徴点に対応する実際の位置点から3d-tofカメラの結像平面までの奥行き距離であり、この奥行き距離の変化量は前記移動ロボットの変位の大きさ程度を表すことに用いられ、
前記キーフレームシーケンス内の各キーフレーム中の同じ所定の有効特徴点の、その対応するキーフレームでの3d-tofカメラに対する偏向角は、前記3d-tofカメラが奥行き画像を収集し、且つ前記キーフレームシーケンスに挿入する時のレンズ向き角度であり、このレンズ向き角度の変化量は前記移動ロボットの回転角度を表すことに用いられる、ことを特徴とする請求項4に記載の局所点群地図の構築方法。 - 前記ステップ1は、
移動ロボットの3d-tofカメラが現在フレームの奥行き画像を現在収集した時、移動ロボットの内部に設置された慣性センサを呼び出して移動ロボットの現在の位置姿勢を測定するステップと、
次に予め保存されたキーフレームシーケンス内の各キーフレームに対応する移動ロボットのリアルタイムな位置姿勢を呼び出し、移動ロボットの現在の位置姿勢と、各キーフレームに対応する移動ロボットのリアルタイムな位置姿勢との間の相対位置姿勢をそれぞれ計算するステップと、を含む、ことを特徴とする請求項1に記載の局所点群地図の構築方法。 - 前記した計算されたすべての相対位置姿勢が所定の顕著な位置姿勢変化条件を満たすことについて、具体的に、
計算された相対位置姿勢は、移動ロボットの3d-tofカメラにより現在収集された現在フレームの奥行き画像中の所定の有効特徴点のそれぞれと、予め収集された前記キーフレーム中の同じ又は同じタイプの所定の有効特徴点との間の発生する移動ロボットの走行距離の変化量及び同じ収集過程で発生する偏向角の変化量を含み、
あらゆる走行距離の変化量がすべて所定の距離変化閾値よりも大きく、且つあらゆる偏向角の変化量がすべて所定の角度変化閾値よりも大きい場合、前記所定の顕著な位置姿勢変化条件を満たすと決定し、
前記所定の有効特徴点は前記3d-tofカメラの視野角範囲内での移動ロボットの前方の障害物の分布位置特徴を特徴づけるためのものであり、障害物の分布位置特徴は障害物の存在及び/又は障害物の不在を含む、ことを特徴とする請求項6に記載の局所点群地図の構築方法。 - 前記慣性センサは移動ロボットの機体中心に内蔵されるエンコーダディスク及び移動ロボットの機体中心に内蔵されるジャイロスコープを含み、エンコーダディスクは移動ロボットの走行距離の変化量を測定することに用いられ、ジャイロスコープは同じ収集過程での移動ロボットの偏向角の変化量を測定することに用いられ、
エンコーダディスクにより測定された移動ロボットの位置座標は前記移動ロボットの機体中心と3d-tofカメラとの剛性接続関係によって前記現在フレームの奥行き画像が対応して属するカメラ座標系に変換され、局所点群地図が構築される、ことを特徴とする請求項7に記載の局所点群地図の構築方法。 - 前記キーフレームシーケンス内に3フレーム又は3フレーム以上の奥行き画像が存在する、ことを特徴とする請求項8に記載の局所点群地図の構築方法。
- 前記移動ロボットは先入れ先出しのメモリー記憶の形で前記キーフレームシーケンスをキャッシュし、それにより前記移動ロボットは、3d-tofカメラにより現在リアルタイムに収集された1フレームの奥行き画像に時間的に最も近い前記キーフレームを移動中に取得する、ことを特徴とする請求項9に記載の局所点群地図の構築方法。
- 前記所定のターゲット平面領域は長方形領域であり、長方形領域の一辺の中点は3d-tofカメラの位置であり、この辺の長さが前記移動ロボットの機体直径に等しく、該辺に垂直な一辺は3d-tofカメラの視野角の前方に設置され、前記3d-tofカメラにより収集された奥行き画像中の検出可能な奥行き距離を特徴づけることに用いられる、ことを特徴とする請求項1に記載の局所点群地図の構築方法。
- 前記ステップ4において、1つの前記点群の三次元座標位置がそのうち1つの前記検出ブロック内にあることが検出された場合、この前記点群がこの前記検出ブロック内に分布すると決定し、この点群の高さを記録する、ことを特徴とする請求項11に記載の局所点群地図の構築方法。
- 各点群を三次元ヒストグラムの形でラベルングする前記方法は、前記三次元ヒストグラムが属する三次元座標系の座標原点が3d-tofカメラの位置であるように設定し、前記所定のターゲット平面領域がこの三次元座標系の横軸の正方向の前記機体直径の半分の距離をカバーするように設定し、前記所定のターゲット平面領域がこの三次元座標系の横軸の負方向の前記機体直径の半分の距離をカバーするように設定し、前記所定のターゲット平面領域がこの三次元座標系の縦軸の正方向の前記検出可能な奥行き距離をカバーするように設定し、前記検出ブロックがこの三次元座標系の垂直軸に沿って分布するように設定し、この三次元座標系の垂直軸で前記検出ブロックが占有する垂直高さを構成して前記検出ブロックに分布する点群の高さを表し、前記点群を分割して所定数の三次元ヒストグラムを取得し、三次元ヒストグラムの形で前記点群を記憶することを実現するステップを含み、
前記三次元ヒストグラムが属する三次元座標系は前記局所点群地図の座標系と同じである、ことを特徴とする請求項11に記載の局所点群地図の構築方法。 - 前記所定のターゲット平面領域の面積と前記検出ブロックの水平投影面積との比率は所定の整数であり、それにより所定のターゲット平面領域は所定の整数の検出ブロックによって完全に均等に分割されて占有される、ことを特徴とする請求項13に記載の局所点群地図の構築方法。
- 前記ステップ4において、対応する検出ブロック内の離散分布状態の点群を削除する前記方法は、具体的に、
前記検出ブロック内に分布する点群の数が、前記離散分布状態を説明するための測位点数閾値未満であるかどうかを判断し、YESの場合にこの検出ブロックに分布する点群を削除し、次に収集視線が遮断される高さ特徴を有する検出ブロック内の点群を削除し、NOの場合に収集視線が遮断される高さ特徴を有する検出ブロック内の点群を直接削除するステップ、
及び/又は、
1つの検出ブロックの近傍領域に点群が分布していないかどうかを判断し、YESの場合にこの検出ブロック内に分布する点群を削除し、次に収集視線が遮断される高さ特徴を有する検出ブロック内の点群を削除し、NOの場合に収集視線が遮断される高さ特徴を有する検出ブロック内の点群を直接削除するステップを含む、ことを特徴とする請求項13に記載の局所点群地図の構築方法。 - 前記ステップ4において、収集視線が遮断される高さ特徴を有する検出ブロック内の点群を削除する前記方法は、
3d-tofカメラから離れる方向に沿って各列の検出ブロックに分布する点群の高さを検出し、各列の検出ブロック内に低から高へ変化する検出ブロックシーケンスが存在するかどうかをそれぞれ判断し、YESの場合にステップ42に進み、NOの場合にステップ43に進むステップ41であって、低から高への変化は、判断に参与する各検出ブロック中に分布する最大の高さに対応する点群の高さ位置の変化であり、各検出ブロックに分布する点群の最大の高さは各検出ブロックの高さを表す、ステップ41と、
この検出ブロックシーケンス中の高さが最も高い点群が属する検出ブロックを記録し、その後この記録された検出ブロックの後方の高さが比較的低い検出ブロックに分布する点群を削除し、次にステップ41に戻るステップ42と、
この検出ブロックシーケンス中の高さが最も高い点群が属する検出ブロックを記録し、その後この記録された検出ブロックの後方の検出ブロックに分布する点群を削除するステップ43と、を含む、ことを特徴とする請求項15に記載の局所点群地図の構築方法。 - 前記キーフレームシーケンス内のキーフレーム上の所定の有効特徴点は、非露出過度点、非露出不足点、非遠過ぎ点、非近過ぎ点及び最大垂直高さが20mmよりも大きい画素点を含み、非遠過ぎ点の奥行き値と非近過ぎ点の奥行き値の両方は200mm~500mmである、ことを特徴とする請求項16に記載の局所点群地図の構築方法。
- 前記所定の有効特徴点は、障害物を特徴づけるための特徴点、又は障害物以外の標準的な道路標識を特徴づけるための特徴点であり、
前記3d-tofカメラは移動ロボットの移動中に、前記所定の有効特徴点の異なるフレームの奥行き画像を異なる方向から収集する、ことを特徴とする請求項16に記載の局所点群地図の構築方法。 - 1つの検出ブロックの8つの近傍領域に点群が分布していないかどうかを判断し、YESの場合にこの検出ブロック内に分布する点群を削除する、ことを特徴とする請求項15に記載の局所点群地図の構築方法。
- 視覚ロボットであって、3d-tofカメラと、請求項1~19のいずれか1項に記載の局所点群地図の構築方法を実行するための処理ユニットとを含み、
3d-tofカメラは、その視野角が前記視覚ロボットの前方をカバーできるように視覚ロボットの機体に組み立てられる、ことを特徴とする視覚ロボット。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011192850.8 | 2020-10-30 | ||
CN202011192850.8A CN112348893B (zh) | 2020-10-30 | 2020-10-30 | 一种局部点云地图构建方法及视觉机器人 |
PCT/CN2021/098145 WO2022088680A1 (zh) | 2020-10-30 | 2021-06-03 | 一种局部点云地图构建方法及视觉机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023509153A JP2023509153A (ja) | 2023-03-07 |
JP7375206B2 true JP7375206B2 (ja) | 2023-11-07 |
Family
ID=74356944
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022540796A Active JP7375206B2 (ja) | 2020-10-30 | 2021-06-03 | 局所点群地図の構築方法及び視覚ロボット |
Country Status (6)
Country | Link |
---|---|
US (1) | US20230249353A1 (ja) |
EP (1) | EP4083921A4 (ja) |
JP (1) | JP7375206B2 (ja) |
KR (1) | KR20220113977A (ja) |
CN (1) | CN112348893B (ja) |
WO (1) | WO2022088680A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112348893B (zh) * | 2020-10-30 | 2021-11-19 | 珠海一微半导体股份有限公司 | 一种局部点云地图构建方法及视觉机器人 |
CN113787516A (zh) * | 2021-08-16 | 2021-12-14 | 深圳优地科技有限公司 | 定位方法、装置和机器人 |
WO2023204105A1 (ja) * | 2022-04-21 | 2023-10-26 | ソニーセミコンダクタソリューションズ株式会社 | 信号処理装置、信号処理方法、データ製造方法 |
CN115273068B (zh) * | 2022-08-02 | 2023-05-12 | 湖南大学无锡智能控制研究院 | 一种激光点云动态障碍物剔除方法、装置及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015515655A (ja) | 2012-06-29 | 2015-05-28 | 三菱電機株式会社 | データを位置合わせする方法 |
CN104732518A (zh) | 2015-01-19 | 2015-06-24 | 北京工业大学 | 一种基于智能机器人地面特征的ptam改进方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9037396B2 (en) * | 2013-05-23 | 2015-05-19 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
KR102403504B1 (ko) * | 2015-11-26 | 2022-05-31 | 삼성전자주식회사 | 이동 로봇 및 그 제어 방법 |
CN106441306A (zh) * | 2016-10-18 | 2017-02-22 | 华东师范大学 | 自主定位与地图构建的智能生命探测机器人 |
CN107160395B (zh) * | 2017-06-07 | 2020-10-16 | 中国人民解放军装甲兵工程学院 | 地图构建方法及机器人控制系统 |
WO2019039733A1 (ko) * | 2017-08-21 | 2019-02-28 | (주)유진로봇 | 카메라와 라이다를 이용한 융합 센서 및 이동체 |
US10708627B2 (en) * | 2019-03-04 | 2020-07-07 | Intel Corporation | Volumetric video compression with motion history |
CN110031825B (zh) | 2019-04-17 | 2021-03-16 | 北京智行者科技有限公司 | 激光定位初始化方法 |
CN110221603B (zh) * | 2019-05-13 | 2020-08-14 | 浙江大学 | 一种基于激光雷达多帧点云融合的远距离障碍物检测方法 |
CN110264567B (zh) * | 2019-06-19 | 2022-10-14 | 南京邮电大学 | 一种基于标记点的实时三维建模方法 |
CN110689622B (zh) * | 2019-07-05 | 2021-08-27 | 电子科技大学 | 一种基于点云分割匹配闭环校正的同步定位与构图方法 |
CN110501017A (zh) * | 2019-08-12 | 2019-11-26 | 华南理工大学 | 一种基于orb_slam2的移动机器人导航地图生成方法 |
CN112348893B (zh) * | 2020-10-30 | 2021-11-19 | 珠海一微半导体股份有限公司 | 一种局部点云地图构建方法及视觉机器人 |
-
2020
- 2020-10-30 CN CN202011192850.8A patent/CN112348893B/zh active Active
-
2021
- 2021-06-03 US US17/785,403 patent/US20230249353A1/en active Pending
- 2021-06-03 JP JP2022540796A patent/JP7375206B2/ja active Active
- 2021-06-03 KR KR1020227022513A patent/KR20220113977A/ko unknown
- 2021-06-03 EP EP21884422.3A patent/EP4083921A4/en active Pending
- 2021-06-03 WO PCT/CN2021/098145 patent/WO2022088680A1/zh unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015515655A (ja) | 2012-06-29 | 2015-05-28 | 三菱電機株式会社 | データを位置合わせする方法 |
CN104732518A (zh) | 2015-01-19 | 2015-06-24 | 北京工业大学 | 一种基于智能机器人地面特征的ptam改进方法 |
Non-Patent Citations (1)
Title |
---|
永井 源樹,外2名,ドローンを用いたVisua1SLAMに基づく3次元地図生成,ロボティクスメカトロニクス講演会2016講演会論文集 ,一般社団法人日本機械学会,2016年 |
Also Published As
Publication number | Publication date |
---|---|
WO2022088680A1 (zh) | 2022-05-05 |
EP4083921A4 (en) | 2023-08-23 |
US20230249353A1 (en) | 2023-08-10 |
EP4083921A1 (en) | 2022-11-02 |
JP2023509153A (ja) | 2023-03-07 |
CN112348893B (zh) | 2021-11-19 |
KR20220113977A (ko) | 2022-08-17 |
CN112348893A (zh) | 2021-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7375206B2 (ja) | 局所点群地図の構築方法及び視覚ロボット | |
JP5832341B2 (ja) | 動画処理装置、動画処理方法および動画処理用のプログラム | |
KR101961001B1 (ko) | 단일-카메라 거리 추정 | |
CN112258600A (zh) | 一种基于视觉与激光雷达的同时定位与地图构建方法 | |
JP6456405B2 (ja) | 3次元情報算出装置、3次元情報算出方法、および自律移動装置 | |
CN110458161B (zh) | 一种结合深度学习的移动机器人门牌定位方法 | |
CN112384891B (zh) | 用于点云着色的方法和系统 | |
CN110794405A (zh) | 一种基于相机和雷达融合的目标检测方法及系统 | |
JP2009169845A (ja) | 自律移動ロボット及び地図更新方法 | |
CN112288811A (zh) | 多帧深度图像定位的关键帧融合控制方法及视觉机器人 | |
KR20210141668A (ko) | 서로 상대적으로 움직이는 복수의 정형 객체의 검출, 3d 재구성 및 추적 | |
CN112950696A (zh) | 导航地图的生成方法及生成装置、电子设备 | |
KR101319525B1 (ko) | 이동 로봇을 이용하여 목표물의 위치 정보를 제공하기 위한 시스템 | |
CN208289901U (zh) | 一种增强视觉的定位装置及机器人 | |
Zhanabatyrova et al. | Automatic map update using dashcam videos | |
CN111571561B (zh) | 移动机器人 | |
US11774983B1 (en) | Autonomous platform guidance systems with unknown environment mapping | |
CN116804553A (zh) | 基于事件相机/imu/自然路标的里程计系统及方法 | |
Chen et al. | CUHK-AHU dataset: promoting practical self-driving applications in the complex airport logistics, hill and urban environments | |
CN113012196B (zh) | 一种基于双目相机与惯导传感器信息融合的定位方法 | |
CN114972514A (zh) | Slam定位方法、装置、电子设备和可读存储介质 | |
CN114577216A (zh) | 导航地图构建方法、装置、机器人及存储介质 | |
CN111780744A (zh) | 移动机器人混合导航方法、设备及存储装置 | |
CN103971356A (zh) | 基于视差信息的街景图像目标分割方法及装置 | |
CN112330808B (zh) | 一种基于局部地图的优化方法及视觉机器人 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220630 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230516 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230724 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7375206 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |