JP7375206B2 - 局所点群地図の構築方法及び視覚ロボット - Google Patents

局所点群地図の構築方法及び視覚ロボット Download PDF

Info

Publication number
JP7375206B2
JP7375206B2 JP2022540796A JP2022540796A JP7375206B2 JP 7375206 B2 JP7375206 B2 JP 7375206B2 JP 2022540796 A JP2022540796 A JP 2022540796A JP 2022540796 A JP2022540796 A JP 2022540796A JP 7375206 B2 JP7375206 B2 JP 7375206B2
Authority
JP
Japan
Prior art keywords
point cloud
mobile robot
detection block
predetermined
tof camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022540796A
Other languages
English (en)
Other versions
JP2023509153A (ja
Inventor
ヤン,ヨンシアン
ライ,チンウェイ
シャオ,ガンジュン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuhai Amicro Semiconductor Co Ltd
Original Assignee
Zhuhai Amicro Semiconductor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuhai Amicro Semiconductor Co Ltd filed Critical Zhuhai Amicro Semiconductor Co Ltd
Publication of JP2023509153A publication Critical patent/JP2023509153A/ja
Application granted granted Critical
Publication of JP7375206B2 publication Critical patent/JP7375206B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3837Data obtained from a single source
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40298Manipulator on vehicle, wheels, mobile
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Description

本発明は局所点群地図の技術分野に関し、特に点群データに基づいた局所点群地図の構築方法及び視覚ロボットに関する。
3d-tof技術は、三次元点群地図を有効範囲内に復元することができるが、現在のところ、3d-tofカメラは、3d-tofが比較的正確な奥行き値を完全に取得できないため、誤差が一般的に大き過ぎるという問題があり、具体的には、障害物の距離が近過ぎたり遠過ぎたりすると、奥行き値に明らかな誤差があり、単一フレームに基づく奥行きデータ分析が超近距離での障害物を効果的に識別することができず、従って障害物の測位を完了するためにより正確な点群地図が必要である。
中国特許CN110031825Aに開示されているレーザ測位初期化方法は、連続的に取得されたマルチフレームのレーザ点群を接合することにより点群をサンプリングして三次元座標系を構築し、リアルタイムなヒストグラムの形でサンプリングされた点群情報を記憶し、しかしながら、このレーザ測位初期化方法は複数の象限内にリアルタイムな三次元ヒストグラムを作成するように、大量の特徴行列演算を呼び出し、複数の座標系を構築する必要があり、点群データに対応する特徴マッチング演算は複雑すぎて、簡略化された局所点群地図の構築に寄与せず、そして、上記近過ぎる障害物の測位と識別の問題を依然として解決できない。
より簡略化された局所点群地図を構築し、3d-tofカメラにより収集された点群データにノイズ誤差があるという問題を克服し、局所点群地図を使用して現在位置の近過ぎる障害物をリアルタイムで正確に測位して識別するために、本発明は局所点群地図の構築方法を開示し、具体的な技術的解決手段は以下のとおりである。
局所点群地図の構築方法であって、該局所点群地図の構築方法は、移動ロボットの移動中、移動ロボットの3d-tofカメラを制御して奥行き画像を収集し続け、3d-tofカメラによりリアルタイムに収集された現在フレームの奥行き画像を、所定の顕著な位置姿勢変化条件に基づいてキーフレームシーケンス内に挿入し、次にステップ2に進むステップ1と、キーフレームシーケンス内の奥行き画像の所定の有効特徴点が位置姿勢変換を行い、カメラ座標系における点群になるように制御し、次にステップ3に進むステップ2と、移動ロボットの3d-tofカメラのリアルタイムな視野角範囲内に、水平地盤に位置する1つの所定のターゲット平面領域を設定し、この所定のターゲット平面領域にそれにマッチングする検出ブロックを設定し、点群を所定のターゲット平面領域の真上に三次元ヒストグラムの形でラベルングし、次にステップ4に進むステップ3と、各検出ブロックにおける点群の高さ位置の分布特徴に基づいて、先ず対応する検出ブロック内の離散分布状態の点群を削除し、次に収集視線が遮断される高さ特徴を有する検出ブロック内の点群を削除し、次にステップ5に進むステップ4と、各検出ブロック内に分布する残りの点群の位置を局所点群地図の三次元位置としてラベルングし、局所点群地図の構築を実現するステップ5と、を含む。
従来技術に比べて、該技術的解決手段は、ロボット周辺の広範囲の領域の位置を反映する点群を、所定の顕著な位置姿勢変化条件に基づいてサンプリングし、移動ロボットにこれらのキーフレームを利用して移動ロボットの前方の障害物の分布状況を完全にカバーできる局所点群地図を作成させ、次に三次元ヒストグラムの形で異なる高さ位置の点群を説明し、異なる検出ブロックにおける点群の三次元領域分布特徴を利用して漂遊点及び現在位置で収集視線が遮断される点群を除去するのに便利であり、近過ぎる又は遠過ぎる障害物シーンでの局所点群地図の適応性が向上され、超近距離での障害物の位置の識別測位の難しさ及び誤判定の確率が顕著に低減される。
さらに、3d-tofカメラによりリアルタイムに収集された現在フレームの奥行き画像を、所定の顕著な位置姿勢変化条件に基づいてキーフレームシーケンス内に挿入する前記方法は具体的に、移動ロボットの3d-tofカメラにより現在収集された現在フレームの奥行き画像中の所定の有効特徴点と、前記キーフレームシーケンス内の各キーフレーム中の同じ所定の有効特徴点との相対位置姿勢をそれぞれ計算するステップであって、キーフレームシーケンスは移動ロボットが予め記憶した、所定の有効特徴点を含む連続的に配列された奥行き画像のシーケンスである、ステップと、計算されたすべての相対位置姿勢が所定の顕著な位置姿勢変化条件を満たす場合、3d-tofカメラにより現在収集された現在フレームの奥行き画像を新たなキーフレームとして構成し、次にこの新たなキーフレームを前記キーフレームシーケンスに挿入し、次回上記相対位置姿勢計算に参与するキーフレームが移動ロボットの最新の相対位置関係を反映するようにするステップとを含み、所定の有効特徴点は前記3d-tofカメラの視野角範囲内での移動ロボットの前方の障害物の分布位置特徴を特徴づけるためのものであり、障害物の分布位置特徴は障害物の存在及び/又は障害物の不在を含む。
従来技術に比べて、移動ロボットにこれらのキーフレームを利用して移動ロボットの前方の障害物の分布状況を広範囲にカバーできる局所点群地図を作成させ、これにより、現在フレームの奥行き画像と更新をサポートするこれらのキーフレームとの相対位置姿勢を融合処理することによって、ロボットがリアルタイムに収集された単一フレームの奥行き画像に基づき機体のエッジ位置が近接している障害物又は機体に近過ぎる障害物を識別し測位しにくいという問題を解決する。
さらに、前記キーフレームシーケンス内の各キーフレーム中の所定の有効特徴点と、それに対応するキーフレームでの3d-tofカメラとの距離及び偏向角はすべて平行移動及び回転の方式で前記現在フレームの奥行き画像に対応して属するカメラ座標系に変換され、前記位置姿勢変換が実現され、前記局所点群地図の地図座標系は現在フレームの奥行き画像に対応するカメラ座標系である。より正確な局所点群地図の構築に有利であり、移動ロボットのリアルタイムの測位とナビゲーションが容易になる。
さらに、前記した計算されたすべての相対位置姿勢が所定の顕著な位置姿勢変化条件を満たすことについて、具体的に、計算された相対位置姿勢は、移動ロボットの3d-tofカメラにより現在収集された現在フレームの奥行き画像中の所定の有効特徴点のそれぞれと、前記位置姿勢変換が発生した後のキーフレームシーケンス内の各キーフレーム中の同じ所定の有効特徴点との間の、奥行き距離の変化量及びその対応する偏向角の変化量を含み、あらゆる奥行き距離の変化量がすべて所定の距離変化閾値よりも大きく、且つあらゆる偏向角の変化量がすべて所定の角度変化閾値よりも大きい場合、前記所定の顕著な位置姿勢変化条件を満たすと決定する。
従来技術に比べて、該技術的解決手段は、2フレームの奥行き画像の間の所定の有効特徴点に対応する実際の位置点(固定されていると見なされる)と3d-tofカメラとの距離の変化量が十分に大きいであるかどうかを判断し、2フレームの奥行き画像の間の所定の有効特徴点に対応する実際の位置点(固定されていると見なされる)の、3d-tofカメラに対する偏向角の変化量が十分に大きいであるかどうかを判断することによって、機体の変位が十分に大きいであるかどうか又は機体の回転角度が十分に大きいであるかどうかを特徴づけ、これにより、新たなキーフレームとして構成される奥行き画像と現在フレームの奥行き画像とのギャップが十分に大きくなり、明確で広域のロボット周辺情報を提供することができ、属するキーフレームシーケンス内の奥行き画像のカバーされる可視範囲が十分に大きくなり(例えば、右から見る又は左から見る角度、又は、近距離から見る又は遠距離から見る変位であり、これらの角度間、位置間のロボットの位置姿勢変換が十分に大きい必要がある)、キーフレームシーケンス内の奥行き画像には、障害物を含むキーフレームと障害物を含まないキーフレームの両方が存在する。
さらに、前記キーフレームシーケンス内の各キーフレーム中の同じ所定の有効特徴点と、それに対応するキーフレームでの3d-tofカメラとの距離は、前記3d-tofカメラにより予め収集され前記キーフレームシーケンスに挿入された奥行き画像の所定の有効特徴点に対応する実際の位置点から3d-tofカメラの結像平面までの奥行き距離であり、この奥行き距離の変化量は前記移動ロボットの変位の大きさ程度を表すことに用いられ、前記キーフレームシーケンス内の各キーフレーム中の同じ所定の有効特徴点の、その対応するキーフレームでの3d-tofカメラに対する偏向角は、前記3d-tofカメラが奥行き画像を収集し、且つ前記キーフレームシーケンスに挿入する時のレンズ向き角度であり、このレンズ向き角度の変化量は前記移動ロボットの回転角度を表すことに用いられる。
従来技術に比べて、該技術的解決手段によれば、移動ロボットの相対位置姿勢が比較的大きいことを表すマルチフレームのキーフレームを容易に選別することができ、特に移動ロボットの機体が大きな角度で回転し又は大きく変位した場合、3d-tofカメラが近過ぎる障害物を識別できないと、予め記憶されたキーフレームシーケンス中の関連する有効特徴点(すなわち、予め保存された障害物を含むキーフレーム)を利用してこの近過ぎる障害物の正確な位置を測位する。
さらに、前記ステップ1は、移動ロボットの3d-tofカメラが現在フレームの奥行き画像を現在収集した時、移動ロボットの内部に設置された慣性センサを呼び出して移動ロボットの現在の位置姿勢を測定するステップと、次に予め保存されたキーフレームシーケンス内の各キーフレームに対応する移動ロボットのリアルタイムな位置姿勢を呼び出し、移動ロボットの現在の位置姿勢と、各キーフレームに対応する移動ロボットのリアルタイムな位置姿勢との間の相対位置姿勢をそれぞれ計算するステップとを含む。従来技術に比べて、本技術的解決手段は、機体内部の慣性センサを利用して、現在フレームの奥行き画像の有効収集位置と各キーフレームの有効収集位置との間の相対位置姿勢を計算し、これにより、前記移動ロボットにより収集された所定の有効特徴点の間の位置変化量を直接求め、ロボットの測位計算の簡略化に有利であり、移動ロボットのリアルタイムの測位とナビゲーションが容易になる。
さらに、前記した計算されたすべての相対位置姿勢が所定の顕著な位置姿勢変化条件を満たすことについて、具体的に、計算された相対位置姿勢は、移動ロボットの3d-tofカメラにより現在収集された現在フレームの奥行き画像中の所定の有効特徴点のそれぞれと、予め収集された前記キーフレーム中の同じ又は同じタイプの所定の有効特徴点との間の発生する移動ロボットの走行距離の変化量及び同じ収集過程で発生する偏向角の変化量を含み、あらゆる走行距離の変化量がすべて所定の距離変化閾値よりも大きく、且つあらゆる偏向角の変化量がすべて所定の角度変化閾値よりも大きい場合、前記所定の顕著な位置姿勢変化条件を満たすと決定し、前記所定の有効特徴点は前記3d-tofカメラの視野角範囲内での移動ロボットの前方の障害物の分布位置特徴を特徴づけるためのものであり、障害物の分布位置特徴は障害物の存在及び/又は障害物の不在を含む。
従来技術に比べて、該技術的解決手段は、2フレームの奥行き画像の対応する実際の収集位置点の変化量が十分に大きいであるかどうかを判断し、2フレームの奥行き画像の対応する実際の機体偏向角の変化量が十分に大きいであるかどうかを判断することによって、機体の変位が十分に大きいであるかどうか又は機体の回転角度が十分に大きいであるかどうかを特徴づけ、これにより、新たなキーフレームとして構成される奥行き画像と現在フレームの奥行き画像とのギャップが十分に大きくなり、明確で広域のロボット周辺情報を提供することができ、属するキーフレームシーケンス内の奥行き画像のカバーされる可視範囲が十分に大きくなり(例えば、右から見る又は左から見る角度、又は、近距離から見る又は遠距離から見る変位であり、これらの角度間、位置間のロボットの位置姿勢変換が十分に大きい必要がある)、キーフレームシーケンス内の奥行き画像には、障害物を含むキーフレームと障害物を含まないキーフレームの両方が存在する。
さらに、前記慣性センサは移動ロボットの機体中心に内蔵されるエンコーダディスク及び移動ロボットの機体中心に内蔵されるジャイロスコープを含み、エンコーダディスクは移動ロボットの走行距離の変化量を測定することに用いられ、ジャイロスコープは同じ収集過程での移動ロボットの偏向角の変化量を測定することに用いられ、エンコーダディスクにより測定された移動ロボットの位置座標は前記移動ロボットの機体中心と3d-tofカメラとの剛性接続関係によって前記現在フレームの奥行き画像が対応して属するカメラ座標系に変換され、局所点群地図が構築される。
さらに、前記キーフレームシーケンス内に3フレーム又は3フレーム以上の奥行き画像が存在する。前記局所点群地図を構築することに用いられる。該技術的解決手段は、局所点群地図を構築し有効特徴点によって障害物を測位することにより十分な点群サンプルを提供することができ、局所点群地図はより安定し有効的になる。
さらに、前記移動ロボットは先入れ先出しのメモリー記憶の形で前記キーフレームシーケンスをキャッシュし、それにより前記移動ロボットは、3d-tofカメラにより現在リアルタイムに収集された1フレームの奥行き画像に時間的に最も近い前記キーフレームを移動中に取得する。記憶空間の最適化を実現するために、該技術的解決手段は先入れ先出しの方式でキューを記憶し最も新しく選別して挿入されたキーフレームを記憶し、最も有効的なフレームシーケンスしか記憶しないことを確保し、これは現在フレームに最も近い3フレームの奥行き画像であってもよい。
さらに、前記所定のターゲット平面領域は長方形領域であり、長方形領域の一辺の中点は3d-tofカメラの位置であり、この辺の長さが前記移動ロボットの機体直径に等しく、該辺に垂直な一辺は3d-tofカメラの視野角の前方に設置され、前記3d-tofカメラにより収集された奥行き画像中の検出可能な奥行き距離を特徴づけることに用いられる。それにより、前記所定のターゲット平面領域は、前記移動ロボットがスムーズに通過できるターゲット検出領域を収容できるように構成され、上記ステップ2におけるキーフレームの位置姿勢変換されたカメラ座標系での点群と組み合わせて、この領域の上方の障害物点群の最大の高さ位置及び分布特徴を測位し、近距離条件で障害物を回避するルートを効果的に計画する。
さらに、前記ステップ4において、1つの前記点群の三次元座標位置がそのうち1つの前記検出ブロック内にあることが検出された場合、この前記点群がこの前記検出ブロック内に分布すると決定し、この点群の高さを記録する。それにより点群の位置情報の記憶と適用の方式を簡略化する。
さらに、各点群を三次元ヒストグラムの形で記憶する前記方法は、前記三次元ヒストグラムが属する三次元座標系の座標原点が3d-tofカメラの位置であるように設定し、前記所定のターゲット平面領域がこの三次元座標系の横軸の正方向の前記機体直径の半分の距離をカバーするように設定し、前記所定のターゲット平面領域がこの三次元座標系の横軸の負方向の前記機体直径の半分の距離をカバーするように設定し、前記所定のターゲット平面領域がこの三次元座標系の縦軸の正方向の前記検出可能な奥行き距離をカバーするように設定し、前記検出ブロックがこの三次元座標系の垂直軸に沿って分布するように設定し、この三次元座標系の垂直軸で前記検出ブロックが占有する垂直高さを構成して前記検出ブロックに分布する点群の高さを表し、前記点群を分割して前記所定数の三次元ヒストグラムを取得し、三次元ヒストグラムの形で前記点群を記憶することを実現するステップを含み、前記三次元ヒストグラムが属する三次元座標系は前記局所地図の座標系と同じである。それにより、ヒストグラム統計の方式で局所地図の点群は局所地図の座標系における特定の検出領域上の三次元の点状地図に変換され、三次元点状地図に分布する長方形のブロックの高さを利用して障害物の点群の高さを特徴づけることが実現され、漂遊点群を顕著で迅速に選別し除去することに便利である。
さらに、前記所定のターゲット平面領域の面積と前記検出ブロックの水平投影面積との比率は所定の整数であり、それにより所定のターゲット平面領域は所定の整数の検出ブロックによって完全に均等に分割されて占有される。前記検出ブロックによる前記所定のターゲット平面領域の点群カバー率が向上される。
さらに、前記ステップ4において、対応する検出ブロック内の離散分布状態の点群を削除する前記方法は、具体的に、前記検出ブロック内に分布する点群の数が、前記離散分布状態を説明するための測位点数閾値未満であるかどうかを判断し、YESの場合にこの検出ブロックに分布する点群を削除し、次に収集視線が遮断される高さ特徴を有する検出ブロック内の点群を削除し、NOの場合に収集視線が遮断される高さ特徴を有する検出ブロック内の点群を直接削除するステップ、及び/又は、1つの検出ブロックの近傍領域に点群が分布していないかどうかを判断し、YESの場合にこの検出ブロック内に分布する点群を削除し、次に収集視線が遮断される高さ特徴を有する検出ブロック内の点群を削除し、NOの場合に収集視線が遮断される高さ特徴を有する検出ブロック内の点群を直接削除するステップを含む。従来技術に比べて、あまりに離散的に分布する点群による障害物の識別測位へのノイズ干渉、特に遠過ぎる障害物による測位誤差の問題を減少し、さらに近過ぎる障害物の識別の精度を向上させる。
さらに、前記ステップ4において、収集視線が遮断される高さ特徴を有する検出ブロック内の点群を削除する前記方法は、3d-tofカメラから離れる方向に沿って各列の検出ブロックに分布する点群の高さを検出し、各列の検出ブロック内に低から高へ変化する検出ブロックシーケンスが存在するかどうかをそれぞれ判断し、YESの場合にステップ42に進み、NOの場合にステップ43に進むステップ41であって、低から高への変化は、判断に参与する各検出ブロック中に分布する最大の高さに対応する点群の高さ位置の変化であり、各検出ブロックに分布する点群の最大の高さは各検出ブロックの高さを表す、ステップ41と、この検出ブロックシーケンス中の高さが最も高い点群が属する検出ブロックを記録し、その後この記録された検出ブロックの後方の高さが比較的低い検出ブロックに分布する点群を削除し、次にステップ41に戻るステップ42と、この検出ブロックシーケンス中の高さが最も高い点群が属する検出ブロックを記録し、その後この記録された検出ブロックの後方の検出ブロックに分布する点群を削除するステップ43とを含む。
従来技術に比べて、検出ブロックに分布する点群の削除は高さが最も高い点群に基づいて行われ、具体的に、実際の物理的環境における山形に応じて、山頂の高さ位置に持ち上げられる前の点群を保持し、山の裏側の収集視線が遮断される低い点群を削除するように選択し、それにより、移動ロボットの現在位置に顕著な視線遮断効果を有する障害物を保持し、所定のターゲット平面領域の対応する検出ブロックから、実際の高さ位置の遮断により実際のシーンの障害物測位に適用できない点群を削除し、奥行き画像における予め収集された低い点群位置による誤判定の問題を克服し、近過ぎる障害物の位置の誤判定現象を顕著に減少する。
さらに、前記キーフレームシーケンス内のキーフレーム上の所定の有効特徴点は、非露出過度点、非露出不足点、非遠過ぎ点、非近過ぎ点及び最大垂直高さが20mmよりも大きい画素点を含み、非遠過ぎ点の奥行き値と非近過ぎ点の奥行き値の両方は200mm~500mmである。従来技術に比べて、信頼できない特徴点の影響は除外される。
さらに、前記所定の有効特徴点は、前記障害物を特徴づけるための特徴点、又は前記障害物以外の標準的な道路標識を特徴づけるための特徴点であり、前記3d-tofカメラは移動ロボットの移動中に、前記所定の有効特徴点の異なるフレームの奥行き画像を異なる方向から収集する。それにより、3d-tofカメラの視野角範囲内の移動ロボットの前方の障害物の分布位置特徴を特徴づける。
さらに、1つの検出ブロックの8つの近傍領域に点群が分布していないかどうかを判断し、YESの場合にこの検出ブロック内に分布する点群を削除する。それにより離散点を削除し、近距離での障害物の効果的な識別を実現する。
視覚ロボットであって、3d-tofカメラと、前記局所点群地図の構築方法を実行するための処理ユニットとを含み、3d-tofカメラは、その視野角が前記視覚ロボットの前方をカバーできるように視覚ロボットの機体に組み立てられる。それにより、該3d-tofカメラは移動ロボットの移動中に異なる視野角でターゲット障害物の点群をサンプリングし、次に該視覚ロボットが特定の位置に移動する時、3d-tofカメラの現在の視野角範囲内の所定のターゲット平面領域の点群の高さ位置の分布特徴を利用して、漂遊点を除去し、正確な測位のための最大の高さ及び合理的に分布する点群しか局所地図に保持せず、向きを変える過程で、該視覚ロボットは、それが向きを変える前に視野角範囲内で識別した機体のエッジ位置に近い障害物又は機体に近過ぎる障害物を再識別することができ、近過ぎる又は遠過ぎる障害物シーンでの測位適応性が向上され、超近距離での障害物位置の誤判定の確率が顕著に低減される。
本発明の一実施例に開示される局所点群地図の構築方法のフローチャートである。
以下、本発明の実施例における図面を参照しながら、本発明の実施例における技術的解決手段を詳細に説明する。
本発明の実施例は局所点群地図の構築方法を開示し、図1に示すように、該局所点群地図の構築方法はステップ1~ステップ5を含む。
ステップ1、移動ロボットの移動中、移動ロボットの3d-tofカメラを制御して奥行き画像を収集し続け、3d-tofカメラによりリアルタイムに収集された現在フレームの奥行き画像を、所定の顕著な位置姿勢変化条件に基づいてキーフレームシーケンス内に挿入し、次にステップ2に進む。
なお、移動ロボットの走行規則は主に、エッジに沿った形及び弓字形の2つがあり、ここで、弓字形に応じる走行は、空き領域の清掃を実現することに用いられ、前記移動ロボットは弓字形に応じて走行する過程で様々な障害物に遭い、弓字形ルートに沿って90°向きを変える前に距離が非常に近い障害物を検出されると、90°向きを変える過程で同じ障害物が検出されなくなり、計画された弓字形ルートは障害物の方位に基づき比較的大きい角度を選択して回転し、掃除ロボットは障害物から離れる方向へ回転し、障害物を回避できるからである。
前記移動ロボットは、自動掃除機、スマート掃除機、ロボット掃除機等と呼ばれる掃除ロボットであってもよく、スマート家電の一種であり、特定の人工知能を利用して、部屋内に弓字形の計画清掃作業を自動的に完了することができる。
一実施例として、ステップ1において、3d-tofカメラによりリアルタイムに収集された現在フレームの奥行き画像を、所定の顕著な位置姿勢変化条件に基づいてキーフレームシーケンス内に挿入する前記方法は具体的に以下を含む。
移動ロボットの3d-tofカメラにより現在収集された現在フレームの奥行き画像中の所定の有効特徴点と、前記キーフレームシーケンス内の各キーフレーム(位置姿勢変換後のキーフレーム)中の同じ所定の有効特徴点との相対位置姿勢をそれぞれ計算し、キーフレームシーケンスは移動ロボットが予め記憶した、所定の有効特徴点を含む連続的に配列された奥行き画像のシーケンスであり、連続的な奥行き画像フレーム中の各フレームの機体の相対位置情報及びカメラの向き情報を記憶することに用いられ、トラバーサルによって識別された機体に近過ぎる又は機体に密着される障害物の奥行き画像情報を含み、これにより、その後このタイプの障害物を識別できない時、これらの関連する奥行き画像の参照座標情報を利用して測位を支援する。
ここで、所定の有効特徴点は前記3d-tofカメラの視野角範囲内での移動ロボットの前方の障害物の分布位置特徴を特徴づけるためのものであり、障害物の分布位置特徴は障害物の存在及び/又は障害物の不在を含む。
計算されたすべての相対位置姿勢が所定の顕著な位置姿勢変化条件を満たす場合、3d-tofカメラにより現在収集された現在フレームの奥行き画像を新たなキーフレームとして構成し、次にこの新たなキーフレームを前記キーフレームシーケンスに挿入し、次回上記相対位置姿勢計算に参与するキーフレームが移動ロボットの最新の相対位置関係を反映するようにし、該ステップ1は、移動ロボットの3d-tofカメラにより現在収集された奥行き画像と、キーフレームシーケンス内の各フレームの奥行き画像との間の相対位置姿勢の大きさ程度を判断し、その後機体の変位程度が非常に顕著な奥行き画像又は機体の回転程度が非常に顕著な奥行き画像を選別することに用いられる。
ステップ1で計算された相対位置姿勢に含まれる偏向角と相対距離の両方が比較的大きいと決定し、移動ロボットが大きく変位し又は回転角が大きく変化することを特徴づける時、3d-tofカメラにより現在収集された現在フレームの奥行き画像を新たなキーフレームとして構成し、次にこの新たなキーフレームを前記キーフレームシーケンスに挿入し、次回上記相対位置姿勢計算に参与するキーフレームが移動ロボットの最新の相対位置関係を反映するようにする。
前記した計算されたすべての相対位置姿勢が所定の顕著な位置姿勢変化条件を満たすことについて、具体的に、計算された相対位置姿勢は、移動ロボットの3d-tofカメラにより現在収集された現在フレームの奥行き画像中の所定の有効特徴点のそれぞれと、前記位置姿勢変換が発生した後のキーフレームシーケンス内の各キーフレーム中の同じ所定の有効特徴点との間の、奥行き距離の変化量及びその対応する偏向角の変化量を含み、固定されている前記所定の有効特徴点に対する移動ロボットの変位変化量(前記奥行き距離の変化量に対応する)、及びこの前記所定の有効特徴点の周りの角度偏差量(前記偏向角の変化量に対応する)を表し、あらゆる奥行き距離の変化量がすべて所定の距離変化閾値よりも大きく、且つあらゆる偏向角の変化量がすべて所定の角度変化閾値よりも大きい場合、前記所定の顕著な位置姿勢変化条件を満たすと決定し、移動ロボットが大きく変位し又は回転角が大きく変化する(例えば、弓字形で計画される走行中に90°向きを変える)ことを特徴づける。
従来技術に比べて、本実施例は、2フレームの奥行き画像の間の所定の有効特徴点に対応する実際の位置点(固定されていると見なされる)と3d-tofカメラとの距離の変化量が十分に大きいであるかどうかを判断し、2フレームの奥行き画像の間の所定の有効特徴点に対応する実際の位置点(固定されていると見なされる)の、3d-tofカメラに対する偏向角の変化量が十分に大きいであるかどうかを判断することによって、機体の変位が十分に大きいであるかどうか又は機体の回転角度が十分に大きいであるかどうかを特徴づけ、これにより、新たなキーフレームとして構成される奥行き画像と現在フレームの奥行き画像とのギャップが十分に大きくなり、明確で広域のロボット周辺情報を提供することができ、属するキーフレームシーケンス内の奥行き画像のカバーされる可視範囲が十分に大きくなり(例えば、右から見る又は左から見る角度、又は、近距離から見る又は遠距離から見る変位であり、これらの角度間、位置間のロボットの位置姿勢変換が十分に大きい必要がある)、キーフレームシーケンス内の奥行き画像には、障害物を含むキーフレームと障害物を含まないキーフレームの両方が存在し、構築された局所点群地図の情報を後続処理し障害物に対する正確な測位機能を実行することを支援する。
好ましくは、前記キーフレームシーケンス内の各キーフレーム中の同じ所定の有効特徴点と、それに対応するキーフレームでの3d-tofカメラとの距離は、前記3d-tofカメラにより予め収集され前記キーフレームシーケンスに挿入された奥行き画像の所定の有効特徴点に対応する実際の位置点から3d-tofカメラの結像平面までの奥行き距離であり、この奥行き距離の変化量は前記移動ロボットの変位の大きさ程度を表すことに用いられ、前記キーフレームシーケンス内の各キーフレーム中の同じ所定の有効特徴点の、その対応するキーフレームでの3d-tofカメラに対する偏向角は、前記3d-tofカメラが奥行き画像を収集し、且つ前記キーフレームシーケンスへの挿入を実現する時のレンズ向き角度であり、このレンズ向き角度の変化量は前記移動ロボットの回転角度を表すことに用いられる。
従来技術に比べて、本実施例は、所定の有効特徴点の位置姿勢情報を抽出し、且つフレーム同士のオフセット量の比較演算に参与し、移動ロボットの相対位置姿勢が比較的大きいことを表すマルチフレームのキーフレームを容易に選別することができ、特に移動ロボットの機体が大きな角度で回転し又は大きく変位した場合、3d-tofカメラが近過ぎる障害物を識別できない時、予め記憶されたキーフレームシーケンス中の関連する有効特徴点(すなわち、予め保存された障害物を含むキーフレーム)を利用して後続の点群削除操作と組み合わせることによりこの近過ぎる障害物の具体的な位置を測位する。
別の一実施例として、ステップ1において、3d-tofカメラによりリアルタイムに収集された現在フレームの奥行き画像を、所定の顕著な位置姿勢変化条件に基づいてキーフレームシーケンス内に挿入する前記方法のステップは、具体的にステップS101~ステップS106を含む。
ステップS101、移動ロボットは現在の作業領域内に予め計画された弓字形ルートに沿って移動し、移動中に、移動ロボットは3d-tofカメラを使用して現在の作業領域内の奥行き画像を収集し、障害物の奥行き画像を含み、次にステップS102に進む。
ステップS102、移動ロボットの3d-tofカメラが現在フレームの奥行き画像を現在収集した時、移動ロボットの内部に設置された慣性センサを呼び出して移動ロボットの現在の位置姿勢を測定して保存し、なお、3d-tofカメラにより収集された奥行き画像は機体の前方の有効特徴点を含み、非露出過度点、非露出不足点、非遠過ぎ点、非近過ぎ点及び最大垂直高さが20mmよりも大きい画素点を含むと、該ステップを実行でき、次にステップS103に進む。
ステップS103、予め保存されたキーフレームシーケンス内の各キーフレームに対応する移動ロボットのリアルタイムな位置姿勢(収集位置)を呼び出し、移動ロボットの現在の位置姿勢と、各キーフレームに対応する移動ロボットのリアルタイムな位置姿勢(予め記憶される収集位置)との間の相対位置姿勢をそれぞれ計算する。
次に、ステップS104に進む。好ましくは、前記キーフレームシーケンスは移動ロボットが予め記憶した、所定の有効特徴点を含む連続的に配列された奥行き画像のシーケンスであり、連続的な奥行き画像フレーム中の各フレームの機体の相対位置情報及びカメラの向き情報を記憶することに用いられ、トラバーサルによって識別された機体に近過ぎる又は機体に密着される障害物の奥行き画像情報を含み、これにより、その後このタイプの障害物を識別できない時、これらの奥行き画像と同期収集された慣性情報を利用して測位を支援する。
所定の有効特徴点は前記3d-tofカメラの視野角範囲内での移動ロボットの前方の障害物の分布位置特徴を特徴づけるためのものであり、障害物の分布位置特徴は障害物の存在及び/又は障害物の不在を含む。
前記した計算されたすべての相対位置姿勢が所定の顕著な位置姿勢変化条件を満たすことについて、具体的に、計算された相対位置姿勢は、移動ロボットの3d-tofカメラにより現在収集された現在フレームの奥行き画像中の所定の有効特徴点のそれぞれと、予め収集された前記キーフレーム中の同じ又は同じタイプの所定の有効特徴点との間の、移動ロボットの走行距離の変化量及び同じ収集過程で発生する偏向角の変化量を含む。
あらゆる走行距離の変化量がすべて所定の距離変化閾値よりも大きく、且つあらゆる偏向角の変化量がすべて所定の角度変化閾値よりも大きい場合、前記所定の顕著な位置姿勢変化条件を満たすと決定する。
なお、前記慣性センサは移動ロボットの機体中心に内蔵されるエンコーダディスク及び移動ロボットの機体中心に内蔵されるジャイロスコープを含み、エンコーダディスクは移動ロボットの走行距離の変化量を測定することに用いられ、ジャイロスコープは同じ収集過程での移動ロボットの偏向角の変化量を測定することに用いられ、エンコーダディスクにより測定された移動ロボットの位置座標は前記移動ロボットの機体中心と3d-tofカメラとの剛性接続関係によって前記現在フレームの奥行き画像が対応して属するカメラ座標系に変換され、局所点群地図が構築され、それにより、移動ロボットが前記所定の有効特徴点を収集する時の移動軌跡を局所点群地図にラベルングし、本実施例は、慣性データを利用して移動ロボットの位置姿勢変化情報を直接取得するため、上記実施例の特徴点計算に対して、相対位置姿勢の計算量が簡略化される。
好ましくは、前記キーフレームシーケンス内の各キーフレーム中の同じターゲット障害物に関する特徴点は位置姿勢変換によって同じ局所点群地図に変換され、同じターゲット障害物をラベルングし異なるキーフレームでの移動ロボットの位置姿勢を取得することに用いられる。
ステップS104、ステップS103で計算されたすべての相対位置姿勢が所定の顕著な位置姿勢変化条件を満たすかどうかを判断し、YESの場合にステップS105に進み、NOの場合にステップS106に進む。該ステップは、現在フレームの奥行き画像の対応するロボット位置姿勢とキーフレームシーケンス内の各フレームの奥行き画像の対応するロボット位置姿勢との間の相対位置姿勢の大きさ程度を判断し、その後機体の変位程度が非常に顕著な奥行き画像又は機体の回転程度が非常に顕著な奥行き画像を選別することに用いられる。
ステップS105、ステップS103で計算された相対位置姿勢に含まれる偏向角と相対距離の両方が比較的大きいと決定し、移動ロボットが大きく変位し又は回転角が大きく変化することを特徴づける時、3d-tofカメラにより現在収集された現在フレームの奥行き画像を新たなキーフレームとして構成し、次にこの新たなキーフレームを前記キーフレームシーケンスに挿入し、次回上記相対位置姿勢計算に参与するキーフレームが移動ロボットの最新の相対位置関係を反映するようにし、次にステップS201に戻り、移動し続けて現在の作業領域内の奥行き画像を収集する。
ステップS106、ステップS103で計算された相対位置姿勢に含まれる偏向角と相対距離の両方が小さいと決定し、移動ロボットが少しだけ変位し又は回転角が大きく変化しないことを特徴づける時、3d-tofカメラにより現在収集された現在フレームの奥行き画像を新たなキーフレームとして構成せず、ステップS101に戻り、移動し続けて現在の作業領域内の奥行き画像を収集する。
上記ステップは、3d-tofカメラが現在フレームの奥行き画像を収集する時に同期に取得された慣性データと、キーフレームシーケンス内のすべての奥行き画像を収集した時に同期に取得された慣性データとを利用して融合演算し、移動ロボットの位置変化状況を特徴づける相対位置姿勢を求め、次に明確で広域のロボット周辺情報を反映するキーフレームを所定の顕著な位置姿勢変化条件に基づいて選択し、従来技術に比べて、移動ロボットにこれらのキーフレームを利用して移動ロボットの前方の障害物の分布状況を広範囲にカバーできる局所点群地図を作成させ、これにより、現在フレームの奥行き画像と更新をサポートするこれらのキーフレームとの相対位置姿勢を融合処理することによって、ロボットがリアルタイムに収集された単一フレームの奥行き画像に基づき機体のエッジ位置に近い障害物又は機体に近過ぎる障害物を識別し測位しにくいという問題を解決する。
なお、移動ロボットは弓字形で清掃する時、90°向きを変えた後、障害物が本体に非常に近い場合に検出できない問題を解決するために、本実施例では、予め記憶された画像シーケンス中の奥行き画像が使用され、例えば、現在の収集時点がtであり、t-1時点、t-2時点、t-3時点で収集された奥行き画像フレーム、又はタイミング性を有する他のより昔のキーフレーム画像を使用することができ、必ずしも奥行き画像のエッジに対応する障害物ではなく、キーフレームにおいて本体の前方に出現される有効点である限り、現在フレームと融合して相対位置姿勢を計算することができる。そして、機体中心の慣性センサによりリアルタイムに収集された位置情報を取得する必要がある。
一実施例として、あらゆる奥行き距離の変化量がすべて所定の距離変化閾値よりも大きく、且つあらゆる偏向角の変化量がすべて所定の角度変化閾値よりも大きい場合、前記所定の顕著な位置姿勢変化条件を満たすと決定し、移動ロボットが大きく変位し又は回転角が大きく変化する(例えば、弓字形で計画される走行中に90°向きを変える)ことを特徴づける。
従来技術に比べて、該技術的解決手段は、2フレームの奥行き画像の対応する実際の収集位置点の変化量が十分に大きいであるかどうかを判断し、2フレームの奥行き画像の対応する実際の機体偏向角の変化量が十分に大きいであるかどうかを判断することによって、機体の変位が十分に大きいであるかどうか又は機体の回転角度が十分に大きいであるかどうかを特徴づけ、これにより、新たなキーフレームとして構成される奥行き画像と現在フレームの奥行き画像とのギャップが十分に大きくなり、明確で広域のロボット周辺情報を提供することができ、属するキーフレームシーケンス内の奥行き画像のカバーされる可視範囲が十分に大きくなり(例えば、右から見る又は左から見る角度、又は、近距離から見る又は遠距離から見る変位であり、これらの角度間、位置間のロボットの位置姿勢変換が十分に大きい必要がある)、キーフレームシーケンス内の奥行き画像には、障害物を含むキーフレームと障害物を含まないキーフレームの両方が存在し、障害物の測位計算ステップが簡略化される。
ステップ2、キーフレームシーケンス内の奥行き画像の所定の有効特徴点が位置姿勢変換を行い、カメラ座標系における点群になるように制御し、次にステップ3に進み、前記キーフレームシーケンス内の各キーフレーム中の所定の有効特徴点と、それに対応するキーフレームでの3d-tofカメラとの距離及び偏向角はすべて平行移動及び回転の方式で前記現在フレームの奥行き画像に対応して属するカメラ座標系に変換され、前記位置姿勢変換が実現され、又は、エンコーダディスクにより測定された移動ロボットの位置座標を、前記移動ロボットの機体中心と3d-tofカメラとの剛性接続関係によって前記現在フレームの奥行き画像が対応して属するカメラ座標系に変換され、前記位置姿勢変換が同様に実現され、前記局所点群地図の地図座標系は現在フレームの奥行き画像に対応するカメラ座標系である。
それにより、各方位で収集された所定の有効特徴点をすべて同じ局所点群座標系(相対距離情報及び偏向角情報)に変換することで、移動ロボットの相対位置姿勢を決定し、移動ロボットの前方に障害物が存在するかどうかを容易に判断でき、同時に、移動ロボットが前記所定の有効特徴点を収集する時の移動軌跡をラベルングすることができ、ここで、同じ局所点群座標系は現在フレームの奥行き画像の対応するカメラ座標系である。
本実施例は、より正確な局所点群地図の復元に有利であり、移動ロボットのリアルタイムの測位とナビゲーションが容易になる。好ましくは、前記キーフレームシーケンス内の各キーフレーム中の同じターゲット障害物に関する特徴点は位置姿勢変換によって同じ局所点群地図座標系に変換され、同じターゲット障害物をラベルングし異なるキーフレームでの移動ロボットの位置姿勢を取得することに用いられる。
ステップ3、移動ロボットの3d-tofカメラのリアルタイムな視野角範囲内に、水平地盤に位置する1つの所定のターゲット平面領域を設定し、この所定のターゲット平面領域にそれにマッチングする検出ブロックを設定し、点群を所定のターゲット平面領域の真上に三次元ヒストグラムの形でラベルングし、次にステップ4に進む。
具体的に、前記所定のターゲット平面領域は長方形領域であり、長方形領域の一辺の中点は3d-tofカメラの位置であり、この辺の長さが前記移動ロボットの機体直径に等しく、該辺に垂直な一辺は3d-tofカメラの視野角の前方に設置され、前記3d-tofカメラにより収集された奥行き画像中の検出可能な奥行き距離を特徴づけることに用いられる。
それにより、前記所定のターゲット平面領域は、前記移動ロボットがスムーズに通過できるターゲット検出領域を収容できるように構成され、上記ステップ2におけるキーフレームの位置姿勢変換されたカメラ座標系での点群と組み合わせて、この領域の上方の障害物点群の最大の高さ位置及び分布特徴を測位し、近距離条件で障害物を回避するルートを効果的に計画する。
各点群を三次元ヒストグラムの形でラベルングする前記方法は、前記三次元ヒストグラムが属する三次元座標系の座標原点が3d-tofカメラの位置であるように設定し、前記所定のターゲット平面領域がこの三次元座標系の横軸の正方向の前記機体直径の半分の距離をカバーするように設定し、前記所定のターゲット平面領域がこの三次元座標系の横軸の負方向の前記機体直径の半分の距離をカバーするように設定し、前記所定のターゲット平面領域がこの三次元座標系の縦軸の正方向の前記検出可能な奥行き距離をカバーするように設定し、前記検出ブロックがこの三次元座標系の垂直軸に沿って分布するように設定し、この三次元座標系の垂直軸で前記検出ブロックが占有する垂直高さを構成して前記検出ブロックに分布する点群の高さを表し、前記点群を分割して前記所定数の三次元ヒストグラムを取得し、三次元ヒストグラムの形で前記点群を記憶することを実現するステップを含み、前記三次元ヒストグラムが属する三次元座標系は前記局所地図の座標系と同じである。
それにより、ヒストグラム統計の方式で局所地図の点群を局所地図の座標系における特定の検出領域上の三次元点状地図に変換され、三次元点状地図に分布する長方形のブロックの高さを利用して障害物の点群の高さを特徴づけることが実現され、漂遊点群を顕著で迅速に除去することに便利である。
本実施例では、前記所定のターゲット平面領域の対応する所定の座標値の範囲は、前記3d-tofカメラの中心を座標原点として、最左側-150mm~最右側+150mmである横軸方向における座標のカバーされる範囲、最も近い0mm~最も遠い300mmである縦軸方向における座標範囲(奥行き距離として具現化される)を含み、本実施例は、水平投影面積が30mm*30mmである各検出ブロックにおいて、前記局所地図の点群位置を三次元ヒストグラムの形で統計し、所定のターゲット平面領域の座標値の範囲にないものに対してブロック化し属する点群の最大の高さを記録することを実行せず、有効のターゲット空間領域内に点群の最大の高さがラベルングされる三次元点状地図を生成する。
それにより、前記所定のターゲット平面領域は、前記移動ロボットがスムーズに通過できるターゲット検出領域を収容できるように構成され、この領域の上方の障害物点群の最大の高さ位置及び分布特徴を識別して測位することにより、近距離条件で障害物を回避するルートをリアルタイムで効果的に計画する。
好ましくは、前記所定のターゲット平面領域の面積と前記検出ブロックの水平投影面積との比率は所定の整数であり、それにより所定のターゲット平面領域は所定の整数の検出ブロックによって完全に均等に分割されて占有される。各行にN個の検出ブロックが配置され、各列にM個の検出ブロックが配置され、行方向は機体の前進方向に垂直な側方向であり、列方向は機体の前進方向であり、本実施例では3d-tofカメラの光軸方向に相当し、所定の整数はNとMの積であり、前記検出ブロックによる前記所定のターゲット平面領域の点群カバー率が向上される。
ステップ4、各検出ブロックにおける点群の高さ位置の分布特徴に基づいて、先ず対応する検出ブロック内の離散分布状態の点群を削除し、次に収集視線が遮断される高さ特徴を有する検出ブロック内の点群を削除し、次にステップ5に進む。前記ステップ4において、1つの前記点群の三次元座標位置がそのうち1つの前記検出ブロック内にあることが検出された場合、この前記点群がこの前記検出ブロック内に分布すると決定し、この点群の高さを記録し、それにより点群の位置情報の記憶と適用の方式を簡略化する。
さらに、点群が各検出ブロックに入る状況に基づき、各検出ブロック内に分布する点群の高さをそれぞれ記録し、各検出ブロック内に分布する点群の最大の高さを含み、各検出ブロック内に分布する最大の高さの点群をこの検出ブロックの最大の高さ位置として識別し、前記点群を所定のターゲット平面領域の真上に三次元ヒストグラムの形でラベルングする。
ここで、収集視線が遮断される高さ特徴を有する検出ブロック内の点群は、高さが比較的高い特定の検出ブロックに収集視線が遮断される比較的低い検出ブロック内に分布する点群であり、この比較的低い点群は前記3d-tofカメラの前方に位置し、且つこの3d-tofカメラから離れる方向に沿って高さが比較的高い検出ブロックの後方に配置される。
前記ステップ4において、対応する検出ブロック内の離散分布状態の点群を削除する前記方法は、具体的に、前記検出ブロック内に分布する点群の数が、前記離散分布状態を説明するための測位点数閾値未満であるかどうかを判断し、YESの場合にこの検出ブロックに分布する点群を削除し、次に収集視線が遮断される高さ特徴を有する検出ブロック内の点群を削除し、NOの場合に収集視線が遮断される高さ特徴を有する検出ブロック内の点群を直接削除するステップ、及び/又は、1つの検出ブロックの近傍領域に点群が分布していないかどうかを判断し、YESの場合にこの検出ブロック内に分布する点群を削除し、次に収集視線が遮断される高さ特徴を有する検出ブロック内の点群を削除し、NOの場合に収集視線が遮断される高さ特徴を有する検出ブロック内の点群を直接削除するステップを含む。
具体的に、外部干渉、例えば視線の遮断、障害物等の要素の影響により、点群データにおいて一般的に被測位識別の障害物の点群から比較的遠い離散点、すなわち外れ値が存在し、点群地図の測位とナビゲーションの精度に悪影響を与える。本実施例では、前記ステップ4は具体的に以下を含む。
前記検出ブロック内に分布する点群の数が測位点数閾値未満であると判断した場合、この検出ブロック内に分布する点群を削除し、具体的に、この検出ブロック内に分布する点群をクリアーし、その点群を所定のターゲット平面領域の真上から削除する。
又は、前記検出ブロック内に分布する点群の数が測位点数閾値未満であると判断した場合、この検出ブロックの近傍領域に点群が分布していないかどうかを判断し続け、YESの場合にこの検出ブロック内に分布する点群を削除する。
又は、1つの検出ブロックの近傍領域に点群が分布していないと判断した場合、この検出ブロック内に分布する点群は相対的に独立して所定のターゲット平面領域の真上に存在することを表し、この検出ブロック内に分布する点群を削除し、具体的に、この検出ブロック内に分布する点群をクリアーし、その点群を所定のターゲット平面領域の真上から削除する。
又は、1つの検出ブロックの近傍領域に点群が分布していないと判断した場合、この検出ブロック内に分布する点群の数が測位点数閾値未満であるかどうかを判断し続け、YESの場合にこの検出ブロック内に分布する点群を削除する。
上記ステップでは、あまりに離散的に分布する点群による障害物の識別測位へのノイズ干渉、特に遠過ぎる障害物による測位誤差の問題を減少し、さらに近過ぎる障害物の識別の精度を向上させる。
前記ステップ4において、収集視線が遮断される高さ特徴を有する検出ブロック内の点群を削除する前記方法はステップ41~ステップ43を含む。
ステップ41、3d-tofカメラから離れる方向に沿って各列の前記検出ブロックに分布する点群の高さを検出し、各列の検出ブロック内に低から高へ変化する検出ブロックシーケンスが存在するかどうかをそれぞれ判断し、YESの場合にステップ42に進み、NOの場合にステップ43に進み、低から高への変化は、判断に参与する各検出ブロック中に分布する最大の高さに対応する点群の高さ位置の変化であり、各検出ブロックに分布する点群の最大の高さは各検出ブロックの実際の高さを表し、前記三次元ヒストグラムの各長方形のブロックの安定した高さとして反映される。
ステップ42、この検出ブロックシーケンス中の高さが最も高い点群が属する検出ブロックを記録し、その後この記録された検出ブロックの後方の高さが比較的低い検出ブロックに分布する点群を削除し、次にステップ41に戻り、元の検出トラバーサル方向に沿って、対応する一列の残りの検出ブロック(点群が削除される検出ブロックを含んでもよい)中に低から高へ変化する検出ブロックシーケンスがまだ存在するかどうかを判断し続け、まだ存在する場合に、前回判断された検出ブロックシーケンスに比べてこの検出ブロックシーケンスの高さが最も高い点群はよりも高いと決定し、上記削除ステップを繰り返し実行し続け、それにより、対応する一列の検出ブロック中の高さが最も高い点群が属する検出ブロックの後方の検出ブロックに分布する点群を完全に削除する。
ステップ43、この検出ブロックシーケンス中の高さが最も高い点群が属する検出ブロックを記録し、その後この記録された検出ブロックの後方の検出ブロックに分布する点群を削除する。
本実施例では、座標系が変換された後の点群に現在の測位に役立たない誤った点を最初にフィルタリングする必要があり、本実施例のステップ4では、三次元ヒストグラムの形で記憶される点群に多くの不合理な点が存在し、例えば、壁の場合に、点群中の厚さが10cmにもなり、従って、上記ステップに基づき、機体の現在位置の前方に収集された、壁の点群の高さを特徴づける検出ブロックが視線を完全に遮断するかどうかを判断し、YESの場合に、この検出ブロックの後ろの検出ブロック内の点群が有効(すなわち3d-tofカメラにより予め収集されて、且つ前記局所地図にラベルングされる)であっても、現在位置での3d-tofカメラにより収集されるべきではなく、従って、この検出ブロックの後ろの検出ブロック内の点群をすべて削除する必要があり、現在位置での3d-tofカメラの視野角範囲内の点群の実際の高さ位置を考慮せず、予め収集され、且つ前記局所地図にラベルングされる対応する点群の位置を直接使用し測位すると移動ロボットの現在位置での障害物回避操作の実行に役立たないという影響を回避し、また、点群自体の誤差はリアルタイムな測位に干渉要素をもたらすと理解でき、現在位置で高過ぎる障害物の後方を見ることができないが、3d-tofカメラにより関連する奥行き画像が収集されており、この場合、本実施例の移動ロボットは常に高さが最も高い検出ブロックの後ろの検出ブロック内の点群を利用して障害物を測位し、測位誤差が発生しやすい。
従って、前方の実際に遭った障害物をリアルタイムに測位し識別するために、この検出ブロックの後ろの低い検出ブロック内の点群をすべて削除し、高さが最も高い検出ブロックの前の点群を保持する必要があり、それにより点群位置測定の誤差による悪影響を解消する。
従って、従来技術に比べて、上記ステップ41~ステップ43によれば、検出ブロックに分布する点群の削除は高さが最も高い点群に基づいて行われ、具体的に、実際の物理的環境における山形に応じて、山頂の高さ位置に持ち上げられる前の点群を保持し、山の裏側の対応する低い点群を削除するように選択し(収集視線が遮断される高さ特徴を有する検出ブロック内の点群)、それにより、移動ロボットの現在位置に顕著な視線遮断効果を有する障害物を保持し、所定のターゲット平面領域の対応する検出ブロックから、実際の高さ位置の遮断により現在位置の障害物測位に適用できない点群を削除し、局所地図の点群データのフィルタリング及び最適化が実現され、そして、点群自体の測定誤差(高過ぎる障害物の後ろの検出ブロックが実際のシーンにおいて見えないが、奥行き画像では収集され、且つ局所地図に変換される)による測位干渉要素が克服され、近過ぎる障害物の点群位置の誤判定現象が顕著に減少され、前記局所地図のリアルタイムな測位の精度が向上されと理解できる。
ステップ5、各検出ブロック内に分布する残りの点群の位置を局所点群地図の三次元位置としてラベルングし、局所点群地図の構築を実現する。本実施例では、前記キーフレームシーケンス内に3フレーム又は3フレーム以上の奥行き画像が存在し、局所点群地図を構築し有効特徴点によって障害物を測位することにより十分な点群サンプルを提供することができ、ステップ5まで実行すると各検出ブロック内の誤差を引き起こやすい点群の一部が削除されるが、前記キーフレームシーケンス内に存在する奥行き画像の関連する測位サンプルの特徴点が十分であるため、局所点群地図がより安定し有効的になることを確保できる。
好ましくは、前記移動ロボットは先入れ先出し(FIFOキュー)のメモリー記憶の形で前記キーフレームシーケンスをキャッシュし、それにより前記移動ロボットは移動中に、前記キーフレームシーケンス内に最も新しく挿入される前記キーフレームをリフレッシュし、3d-tofカメラにより現在リアルタイムに収集された1フレームの奥行き画像に時間的に最も新しい前記キーフレームを取得する。記憶空間の最適化を実現するために、本実施例は先入れ先出しの方式でキューを記憶し最も新しく選別して挿入されたキーフレームを記憶し、最も有効的なフレームシーケンスしか記憶しないことを確保し、これは現在フレームに最も近い3フレームの奥行き画像であってもよい。先入れ先出し(FIFOキュー)の形でキャッシュされる奥行き画像データは冗長ではないため、さらに有効的な局所点群地図の測位情報が正確に維持される。
以上より、上記ステップでは、移動ロボットはこれらのキーフレームを利用して移動ロボットの前方の障害物の分布状況を広範囲にカバーできる局所点群地図を作成し、これにより、現在フレームの奥行き画像と更新をサポートするこれらのキーフレームとの相対位置姿勢を融合処理し、ロボット周辺の広範囲の領域の位置を反映する点群を、所定の顕著な位置姿勢変化条件に基づいてサンプリングすることによって、移動ロボットにこれらのキーフレームを利用して移動ロボットの前方の障害物の分布状況を完全にカバーできる局所点群地図を作成させ、次に三次元ヒストグラムの形で異なる高さ位置の点群を説明し、異なる検出ブロックにおける点群の三次元領域分布特徴を利用して漂遊点を除去するのに便利であり、ロボットがリアルタイムに収集された単一フレームの奥行き画像に基づき機体のエッジ位置に近い障害物又は機体に近過ぎる障害物を識別し測位しにくいという問題を解決し、近過ぎる又は遠過ぎる障害物シーンでの局所点群地図の適応性が向上され、超近距離での障害物の位置の識別測位の難しさ及び誤判定の確率が顕著に低減される。
上記実施例では、前記所定の有効特徴点は非露出過度点、非露出不足点、非遠過ぎ点、非近過ぎ点及び最大垂直高さが20mmよりも大きい画素点を含み、非遠過ぎ点の奥行き値と非近過ぎ点の奥行き値の両方は200mm~500mmであり、3d-tofカメラの視野角範囲内の移動ロボットの前方の障害物の有効位置特徴点の集合を特徴づけることに用いられる。
具体的に、非露出過度点、非露出不足点は3d-tofカメラにより直接取得されるものであり、各フレームの奥行き画像中の画素点のそれぞれに対して、露出過度、露出不足、遠過ぎ、近過ぎという4つの状態があり、露出過度点と露出不足点は信頼できない点であり、近過ぎ点と遠過ぎ点の両方はキュー(FIFO)内に記憶されない。
それにより、光の明るさにより大きく影響される露出過度点及び露出不足点、距離誤差により大きく影響される遠過ぎ点及び近過ぎ点を含む奥行き画像中の信頼できない画素点を排除する。奥行き画像の測位の安定性が向上される。
前記所定の有効特徴点は、移動ロボットの前進方向上の有効なマーカーの特徴点であり、前記3d-tofカメラは移動ロボットの移動中に、前記所定の有効特徴点の異なるフレームの奥行き画像を異なる方向から収集し、向きを変える過程で、前記所定の有効特徴点を、前後に左側から収集し、接近して収集し、右側から収集してから離れて収集し、それにより、同じマーカーの視線が遮断されない奥行き画像及び同じマーカーの視線が遮断された奥行き画像を前後収集し、移動ロボットが前記局所点群地図の構築方法を完了する時、先ず三次元ヒストグラムの形で高さが最も高い点群を記憶することはこのマーカーの収集視線が遮断される環境位置特徴を特徴づける可能性がある。
視覚ロボットであって、3d-tofカメラと、前記局所点群地図の構築方法を実行するための処理ユニットとを含み、3d-tofカメラは、その視野角が前記視覚ロボットの前方をカバーできるように視覚ロボットの機体に組み立てられる。
それにより、該3d-tofカメラは移動ロボットの移動中に異なる視野角でターゲット障害物の点群をサンプリングし、次に該視覚ロボットが特定の位置に移動する時、3d-tofカメラの現在の視野角範囲内の所定のターゲット平面領域の点群の高さ位置の分布特徴を利用して、漂遊点を除去し、正確な測位のための最大の高さ及び合理的に分布する点群しか局所地図に保持せず、向きを変える過程で、該視覚ロボットは、それが向きを変える前に視野角範囲内で識別した機体のエッジ位置に近い障害物又は機体に近過ぎる障害物を再識別することができ、近過ぎる又は遠過ぎる障害物シーンでの測位適応性が向上され、超近距離での障害物位置の誤判定の確率が顕著に低減される。
明らかに、上記実施例は明確な説明のための例示的なものに過ぎず、実施形態を限定するものではない。当業者にとって、上記説明に基づき他の様々な変化や変更を行うことができる。ここでは、あらゆる実施形態を網羅する必要がなく、且つ網羅できない。これにより由来する明らかな変化や変更は本発明創造の保護範囲に属する。

Claims (20)

  1. 局所点群地図の構築方法であって、
    移動ロボットの移動中、移動ロボットの3d-tofカメラを制御して奥行き画像を収集し続け、3d-tofカメラによりリアルタイムに収集された現在フレームの奥行き画像を、所定の顕著な位置姿勢変化条件に基づいてキーフレームシーケンス内に挿入し、次にステップ2に進むステップ1と、
    キーフレームシーケンス内の奥行き画像の所定の有効特徴点が位置姿勢変換を行い、カメラ座標系における点群になるように制御し、次にステップ3に進むステップ2と、
    移動ロボットの3d-tofカメラのリアルタイムな視野角範囲内に、水平地盤に位置する1つの所定のターゲット平面領域を設定し、この所定のターゲット平面領域にそれにマッチングする検出ブロックを設定し、点群を所定のターゲット平面領域の真上に三次元ヒストグラムの形でラベルングし、次にステップ4に進むステップ3と、
    各検出ブロックにおける点群の高さ位置の分布特徴に基づいて、先ず対応する検出ブロック内の離散分布状態の点群を削除し、次に収集視線が遮断される高さ特徴を有する検出ブロック内の点群を削除し、次にステップ5に進むステップ4と、
    各検出ブロック内に分布する残りの点群の位置を局所点群地図の三次元位置としてラベルングし、局所点群地図の構築を実現するステップ5と、を含む、ことを特徴とする局所点群地図の構築方法。
  2. 3d-tofカメラによりリアルタイムに収集された現在フレームの奥行き画像を、所定の顕著な位置姿勢変化条件に基づいてキーフレームシーケンス内に挿入する前記方法は具体的に、
    移動ロボットの3d-tofカメラにより現在収集された現在フレームの奥行き画像中の所定の有効特徴点と、前記キーフレームシーケンス内の各キーフレーム中の同じ所定の有効特徴点との相対位置姿勢をそれぞれ計算するステップであって、キーフレームシーケンスは移動ロボットが予め記憶した、所定の有効特徴点を含む連続的に配列された奥行き画像のシーケンスである、ステップと、
    計算されたすべての相対位置姿勢が所定の顕著な位置姿勢変化条件を満たす場合、3d-tofカメラにより現在収集された現在フレームの奥行き画像を新たなキーフレームとして構成し、次にこの新たなキーフレームを前記キーフレームシーケンスに挿入し、次回前記相対位置姿勢計算に参与するキーフレームが移動ロボットの最新の相対位置関係を反映するようにするステップと、を含み、
    所定の有効特徴点は前記3d-tofカメラの視野角範囲内での移動ロボットの前方の障害物の分布位置特徴を特徴づけるためのものであり、障害物の分布位置特徴は障害物の存在及び/又は障害物の不在を含む、ことを特徴とする請求項1に記載の局所点群地図の構築方法。
  3. 前記キーフレームシーケンス内の各キーフレーム中の所定の有効特徴点と、それに対応するキーフレームでの3d-tofカメラとの距離及び偏向角はすべて平行移動及び回転の方式で前記現在フレームの奥行き画像に対応して属するカメラ座標系に変換され、前記位置姿勢変換を実現し、
    前記局所点群地図の地図座標系は現在フレームの奥行き画像に対応するカメラ座標系である、ことを特徴とする請求項2に記載の局所点群地図の構築方法。
  4. 前記した計算されたすべての相対位置姿勢が所定の顕著な位置姿勢変化条件を満たすことについて、具体的に、
    計算された相対位置姿勢は、移動ロボットの3d-tofカメラにより現在収集された現在フレームの奥行き画像中の所定の有効特徴点のそれぞれと、前記位置姿勢変換が発生した後のキーフレームシーケンス内の各キーフレーム中の同じ所定の有効特徴点との間の、奥行き距離の変化量及びその対応する偏向角の変化量を含み、
    あらゆる奥行き距離の変化量がすべて所定の距離変化閾値よりも大きく、且つあらゆる偏向角の変化量がすべて所定の角度変化閾値よりも大きい場合、前記所定の顕著な位置姿勢変化条件を満たすと決定する、ことを特徴とする請求項3に記載の局所点群地図の構築方法。
  5. 前記キーフレームシーケンス内の各キーフレーム中の同じ所定の有効特徴点と、それに対応するキーフレームでの3d-tofカメラとの距離は、前記3d-tofカメラにより予め収集され前記キーフレームシーケンスに挿入された奥行き画像の所定の有効特徴点に対応する実際の位置点から3d-tofカメラの結像平面までの奥行き距離であり、この奥行き距離の変化量は前記移動ロボットの変位の大きさ程度を表すことに用いられ、
    前記キーフレームシーケンス内の各キーフレーム中の同じ所定の有効特徴点の、その対応するキーフレームでの3d-tofカメラに対する偏向角は、前記3d-tofカメラが奥行き画像を収集し、且つ前記キーフレームシーケンスに挿入する時のレンズ向き角度であり、このレンズ向き角度の変化量は前記移動ロボットの回転角度を表すことに用いられる、ことを特徴とする請求項4に記載の局所点群地図の構築方法。
  6. 前記ステップ1は、
    移動ロボットの3d-tofカメラが現在フレームの奥行き画像を現在収集した時、移動ロボットの内部に設置された慣性センサを呼び出して移動ロボットの現在の位置姿勢を測定するステップと、
    次に予め保存されたキーフレームシーケンス内の各キーフレームに対応する移動ロボットのリアルタイムな位置姿勢を呼び出し、移動ロボットの現在の位置姿勢と、各キーフレームに対応する移動ロボットのリアルタイムな位置姿勢との間の相対位置姿勢をそれぞれ計算するステップと、を含む、ことを特徴とする請求項1に記載の局所点群地図の構築方法。
  7. 前記した計算されたすべての相対位置姿勢が所定の顕著な位置姿勢変化条件を満たすことについて、具体的に、
    計算された相対位置姿勢は、移動ロボットの3d-tofカメラにより現在収集された現在フレームの奥行き画像中の所定の有効特徴点のそれぞれと、予め収集された前記キーフレーム中の同じ又は同じタイプの所定の有効特徴点との間の発生する移動ロボットの走行距離の変化量及び同じ収集過程で発生する偏向角の変化量を含み、
    あらゆる走行距離の変化量がすべて所定の距離変化閾値よりも大きく、且つあらゆる偏向角の変化量がすべて所定の角度変化閾値よりも大きい場合、前記所定の顕著な位置姿勢変化条件を満たすと決定し、
    前記所定の有効特徴点は前記3d-tofカメラの視野角範囲内での移動ロボットの前方の障害物の分布位置特徴を特徴づけるためのものであり、障害物の分布位置特徴は障害物の存在及び/又は障害物の不在を含む、ことを特徴とする請求項6に記載の局所点群地図の構築方法。
  8. 前記慣性センサは移動ロボットの機体中心に内蔵されるエンコーダディスク及び移動ロボットの機体中心に内蔵されるジャイロスコープを含み、エンコーダディスクは移動ロボットの走行距離の変化量を測定することに用いられ、ジャイロスコープは同じ収集過程での移動ロボットの偏向角の変化量を測定することに用いられ、
    エンコーダディスクにより測定された移動ロボットの位置座標は前記移動ロボットの機体中心と3d-tofカメラとの剛性接続関係によって前記現在フレームの奥行き画像が対応して属するカメラ座標系に変換され、局所点群地図が構築される、ことを特徴とする請求項7に記載の局所点群地図の構築方法。
  9. 前記キーフレームシーケンス内に3フレーム又は3フレーム以上の奥行き画像が存在する、ことを特徴とする請求項8に記載の局所点群地図の構築方法。
  10. 前記移動ロボットは先入れ先出しのメモリー記憶の形で前記キーフレームシーケンスをキャッシュし、それにより前記移動ロボットは、3d-tofカメラにより現在リアルタイムに収集された1フレームの奥行き画像に時間的に最も近い前記キーフレームを移動中に取得する、ことを特徴とする請求項9に記載の局所点群地図の構築方法。
  11. 前記所定のターゲット平面領域は長方形領域であり、長方形領域の一辺の中点は3d-tofカメラの位置であり、この辺の長さが前記移動ロボットの機体直径に等しく、該辺に垂直な一辺は3d-tofカメラの視野角の前方に設置され、前記3d-tofカメラにより収集された奥行き画像中の検出可能な奥行き距離を特徴づけることに用いられる、ことを特徴とする請求項1に記載の局所点群地図の構築方法。
  12. 前記ステップ4において、1つの前記点群の三次元座標位置がそのうち1つの前記検出ブロック内にあることが検出された場合、この前記点群がこの前記検出ブロック内に分布すると決定し、この点群の高さを記録する、ことを特徴とする請求項11に記載の局所点群地図の構築方法。
  13. 各点群を三次元ヒストグラムの形でラベルングする前記方法は、前記三次元ヒストグラムが属する三次元座標系の座標原点が3d-tofカメラの位置であるように設定し、前記所定のターゲット平面領域がこの三次元座標系の横軸の正方向の前記機体直径の半分の距離をカバーするように設定し、前記所定のターゲット平面領域がこの三次元座標系の横軸の負方向の前記機体直径の半分の距離をカバーするように設定し、前記所定のターゲット平面領域がこの三次元座標系の縦軸の正方向の前記検出可能な奥行き距離をカバーするように設定し、前記検出ブロックがこの三次元座標系の垂直軸に沿って分布するように設定し、この三次元座標系の垂直軸で前記検出ブロックが占有する垂直高さを構成して前記検出ブロックに分布する点群の高さを表し、前記点群を分割して所定数の三次元ヒストグラムを取得し、三次元ヒストグラムの形で前記点群を記憶することを実現するステップを含み、
    前記三次元ヒストグラムが属する三次元座標系は前記局所点群地図の座標系と同じである、ことを特徴とする請求項11に記載の局所点群地図の構築方法。
  14. 前記所定のターゲット平面領域の面積と前記検出ブロックの水平投影面積との比率は所定の整数であり、それにより所定のターゲット平面領域は所定の整数の検出ブロックによって完全に均等に分割されて占有される、ことを特徴とする請求項13に記載の局所点群地図の構築方法。
  15. 前記ステップ4において、対応する検出ブロック内の離散分布状態の点群を削除する前記方法は、具体的に、
    前記検出ブロック内に分布する点群の数が、前記離散分布状態を説明するための測位点数閾値未満であるかどうかを判断し、YESの場合にこの検出ブロックに分布する点群を削除し、次に収集視線が遮断される高さ特徴を有する検出ブロック内の点群を削除し、NOの場合に収集視線が遮断される高さ特徴を有する検出ブロック内の点群を直接削除するステップ、
    及び/又は、
    1つの検出ブロックの近傍領域に点群が分布していないかどうかを判断し、YESの場合にこの検出ブロック内に分布する点群を削除し、次に収集視線が遮断される高さ特徴を有する検出ブロック内の点群を削除し、NOの場合に収集視線が遮断される高さ特徴を有する検出ブロック内の点群を直接削除するステップを含む、ことを特徴とする請求項13に記載の局所点群地図の構築方法。
  16. 前記ステップ4において、収集視線が遮断される高さ特徴を有する検出ブロック内の点群を削除する前記方法は、
    3d-tofカメラから離れる方向に沿って各列の検出ブロックに分布する点群の高さを検出し、各列の検出ブロック内に低から高へ変化する検出ブロックシーケンスが存在するかどうかをそれぞれ判断し、YESの場合にステップ42に進み、NOの場合にステップ43に進むステップ41であって、低から高への変化は、判断に参与する各検出ブロック中に分布する最大の高さに対応する点群の高さ位置の変化であり、各検出ブロックに分布する点群の最大の高さは各検出ブロックの高さを表す、ステップ41と、
    この検出ブロックシーケンス中の高さが最も高い点群が属する検出ブロックを記録し、その後この記録された検出ブロックの後方の高さが比較的低い検出ブロックに分布する点群を削除し、次にステップ41に戻るステップ42と、
    この検出ブロックシーケンス中の高さが最も高い点群が属する検出ブロックを記録し、その後この記録された検出ブロックの後方の検出ブロックに分布する点群を削除するステップ43と、を含む、ことを特徴とする請求項15に記載の局所点群地図の構築方法。
  17. 前記キーフレームシーケンス内のキーフレーム上の所定の有効特徴点は、非露出過度点、非露出不足点、非遠過ぎ点、非近過ぎ点及び最大垂直高さが20mmよりも大きい画素点を含み、非遠過ぎ点の奥行き値と非近過ぎ点の奥行き値の両方は200mm~500mmである、ことを特徴とする請求項16に記載の局所点群地図の構築方法。
  18. 前記所定の有効特徴点は、障害物を特徴づけるための特徴点、又は障害物以外の標準的な道路標識を特徴づけるための特徴点であり、
    前記3d-tofカメラは移動ロボットの移動中に、前記所定の有効特徴点の異なるフレームの奥行き画像を異なる方向から収集する、ことを特徴とする請求項16に記載の局所点群地図の構築方法。
  19. 1つの検出ブロックの8つの近傍領域に点群が分布していないかどうかを判断し、YESの場合にこの検出ブロック内に分布する点群を削除する、ことを特徴とする請求項15に記載の局所点群地図の構築方法。
  20. 視覚ロボットであって、3d-tofカメラと、請求項1~19のいずれか1項に記載の局所点群地図の構築方法を実行するための処理ユニットとを含み、
    3d-tofカメラは、その視野角が前記視覚ロボットの前方をカバーできるように視覚ロボットの機体に組み立てられる、ことを特徴とする視覚ロボット。
JP2022540796A 2020-10-30 2021-06-03 局所点群地図の構築方法及び視覚ロボット Active JP7375206B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011192850.8 2020-10-30
CN202011192850.8A CN112348893B (zh) 2020-10-30 2020-10-30 一种局部点云地图构建方法及视觉机器人
PCT/CN2021/098145 WO2022088680A1 (zh) 2020-10-30 2021-06-03 一种局部点云地图构建方法及视觉机器人

Publications (2)

Publication Number Publication Date
JP2023509153A JP2023509153A (ja) 2023-03-07
JP7375206B2 true JP7375206B2 (ja) 2023-11-07

Family

ID=74356944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022540796A Active JP7375206B2 (ja) 2020-10-30 2021-06-03 局所点群地図の構築方法及び視覚ロボット

Country Status (6)

Country Link
US (1) US20230249353A1 (ja)
EP (1) EP4083921A4 (ja)
JP (1) JP7375206B2 (ja)
KR (1) KR20220113977A (ja)
CN (1) CN112348893B (ja)
WO (1) WO2022088680A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112348893B (zh) * 2020-10-30 2021-11-19 珠海一微半导体股份有限公司 一种局部点云地图构建方法及视觉机器人
CN113787516A (zh) * 2021-08-16 2021-12-14 深圳优地科技有限公司 定位方法、装置和机器人
WO2023204105A1 (ja) * 2022-04-21 2023-10-26 ソニーセミコンダクタソリューションズ株式会社 信号処理装置、信号処理方法、データ製造方法
CN115273068B (zh) * 2022-08-02 2023-05-12 湖南大学无锡智能控制研究院 一种激光点云动态障碍物剔除方法、装置及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015515655A (ja) 2012-06-29 2015-05-28 三菱電機株式会社 データを位置合わせする方法
CN104732518A (zh) 2015-01-19 2015-06-24 北京工业大学 一种基于智能机器人地面特征的ptam改进方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9037396B2 (en) * 2013-05-23 2015-05-19 Irobot Corporation Simultaneous localization and mapping for a mobile robot
KR102403504B1 (ko) * 2015-11-26 2022-05-31 삼성전자주식회사 이동 로봇 및 그 제어 방법
CN106441306A (zh) * 2016-10-18 2017-02-22 华东师范大学 自主定位与地图构建的智能生命探测机器人
CN107160395B (zh) * 2017-06-07 2020-10-16 中国人民解放军装甲兵工程学院 地图构建方法及机器人控制系统
WO2019039733A1 (ko) * 2017-08-21 2019-02-28 (주)유진로봇 카메라와 라이다를 이용한 융합 센서 및 이동체
US10708627B2 (en) * 2019-03-04 2020-07-07 Intel Corporation Volumetric video compression with motion history
CN110031825B (zh) 2019-04-17 2021-03-16 北京智行者科技有限公司 激光定位初始化方法
CN110221603B (zh) * 2019-05-13 2020-08-14 浙江大学 一种基于激光雷达多帧点云融合的远距离障碍物检测方法
CN110264567B (zh) * 2019-06-19 2022-10-14 南京邮电大学 一种基于标记点的实时三维建模方法
CN110689622B (zh) * 2019-07-05 2021-08-27 电子科技大学 一种基于点云分割匹配闭环校正的同步定位与构图方法
CN110501017A (zh) * 2019-08-12 2019-11-26 华南理工大学 一种基于orb_slam2的移动机器人导航地图生成方法
CN112348893B (zh) * 2020-10-30 2021-11-19 珠海一微半导体股份有限公司 一种局部点云地图构建方法及视觉机器人

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015515655A (ja) 2012-06-29 2015-05-28 三菱電機株式会社 データを位置合わせする方法
CN104732518A (zh) 2015-01-19 2015-06-24 北京工业大学 一种基于智能机器人地面特征的ptam改进方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
永井 源樹,外2名,ドローンを用いたVisua1SLAMに基づく3次元地図生成,ロボティクスメカトロニクス講演会2016講演会論文集 ,一般社団法人日本機械学会,2016年

Also Published As

Publication number Publication date
WO2022088680A1 (zh) 2022-05-05
EP4083921A4 (en) 2023-08-23
US20230249353A1 (en) 2023-08-10
EP4083921A1 (en) 2022-11-02
JP2023509153A (ja) 2023-03-07
CN112348893B (zh) 2021-11-19
KR20220113977A (ko) 2022-08-17
CN112348893A (zh) 2021-02-09

Similar Documents

Publication Publication Date Title
JP7375206B2 (ja) 局所点群地図の構築方法及び視覚ロボット
JP5832341B2 (ja) 動画処理装置、動画処理方法および動画処理用のプログラム
KR101961001B1 (ko) 단일-카메라 거리 추정
CN112258600A (zh) 一种基于视觉与激光雷达的同时定位与地图构建方法
JP6456405B2 (ja) 3次元情報算出装置、3次元情報算出方法、および自律移動装置
CN110458161B (zh) 一种结合深度学习的移动机器人门牌定位方法
CN112384891B (zh) 用于点云着色的方法和系统
CN110794405A (zh) 一种基于相机和雷达融合的目标检测方法及系统
JP2009169845A (ja) 自律移動ロボット及び地図更新方法
CN112288811A (zh) 多帧深度图像定位的关键帧融合控制方法及视觉机器人
KR20210141668A (ko) 서로 상대적으로 움직이는 복수의 정형 객체의 검출, 3d 재구성 및 추적
CN112950696A (zh) 导航地图的生成方法及生成装置、电子设备
KR101319525B1 (ko) 이동 로봇을 이용하여 목표물의 위치 정보를 제공하기 위한 시스템
CN208289901U (zh) 一种增强视觉的定位装置及机器人
Zhanabatyrova et al. Automatic map update using dashcam videos
CN111571561B (zh) 移动机器人
US11774983B1 (en) Autonomous platform guidance systems with unknown environment mapping
CN116804553A (zh) 基于事件相机/imu/自然路标的里程计系统及方法
Chen et al. CUHK-AHU dataset: promoting practical self-driving applications in the complex airport logistics, hill and urban environments
CN113012196B (zh) 一种基于双目相机与惯导传感器信息融合的定位方法
CN114972514A (zh) Slam定位方法、装置、电子设备和可读存储介质
CN114577216A (zh) 导航地图构建方法、装置、机器人及存储介质
CN111780744A (zh) 移动机器人混合导航方法、设备及存储装置
CN103971356A (zh) 基于视差信息的街景图像目标分割方法及装置
CN112330808B (zh) 一种基于局部地图的优化方法及视觉机器人

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231025

R150 Certificate of patent or registration of utility model

Ref document number: 7375206

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150