JP2019537715A - 障害物検出システム及び方法 - Google Patents

障害物検出システム及び方法 Download PDF

Info

Publication number
JP2019537715A
JP2019537715A JP2019522225A JP2019522225A JP2019537715A JP 2019537715 A JP2019537715 A JP 2019537715A JP 2019522225 A JP2019522225 A JP 2019522225A JP 2019522225 A JP2019522225 A JP 2019522225A JP 2019537715 A JP2019537715 A JP 2019537715A
Authority
JP
Japan
Prior art keywords
point
obstacle
scanning
time
line segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019522225A
Other languages
English (en)
Other versions
JP6898442B2 (ja
Inventor
ポー イェー
ポー イェー
チュンポー チェン
チュンポー チェン
Original Assignee
ツァイニャオ スマート ロジスティクス ホールディング リミティド
ツァイニャオ スマート ロジスティクス ホールディング リミティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ツァイニャオ スマート ロジスティクス ホールディング リミティド, ツァイニャオ スマート ロジスティクス ホールディング リミティド filed Critical ツァイニャオ スマート ロジスティクス ホールディング リミティド
Publication of JP2019537715A publication Critical patent/JP2019537715A/ja
Application granted granted Critical
Publication of JP6898442B2 publication Critical patent/JP6898442B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

本開示は、障害物検出方法及びシステムを提供する。例示的な障害物検出方法は、第1の時点における対象物の走査位置である第1の位置を取得することと、第1の位置に基づいて、第2の時点における対象物の予測位置である第2の位置を予測することと、第2の時点における対象物の走査位置である第3の位置を取得することと、第2の位置と第3の位置とのマッチングを行い、マッチング結果を得て、このマッチング結果に基づき、1つ以上の動的な障害物又は静的な障害物を対象物から検出することと、を含む。【選択図】図1

Description

関連出願の相互参照
本出願は、2016年10月25日に出願された中国出願第201610941455.2号に基づき、その優先権を主張し、その全内容は参照により本明細書に援用される。
本出願は、コンピュータの分野に関する。具体的には、本出願は、障害物検出システム及び方法に関する。
自動ナビゲーションなどの技術では、障害物を検出し、その障害物が、動的な障害物であるか又は静的な障害物であるかを判断する必要が多い。例えば、ロボットは、自動ナビゲーションプロセス時に動的な障害物を検出し、動的な障害物の予測移動速度及びトラジェクトリーに基づき適切なナビゲーションルートを算出して、自動ナビゲーション時の安全性を確保する必要がある。
既存の技術では、障害物が動的であるか又は静的であるかを判断するために、モデルベースの検出方法を用いることができる。この検出モードは、最初に、複数の統計モデルの確立を必要とし、それぞれの統計モデルは、別々の種類の障害物に対応する。例えば、乗り物と歩行者とは、異なる統計モデルに対応する。検出される画像を撮影するようにカメラが構成され、画像中の障害物の種類が分析され、これによって、対応する統計モデルが選択され、障害物検出が実行される。
しかしながら、種々の障害物の種類に基づいて統計モデルを構築することは、統計モデル学習を実行するのに大量のデータを必要とし、演算量の多さを特徴とするため、リアルタイム性能が不十分となる。
種々の実施形態では、本開示は、障害物検出方法及びシステムであって、障害物の種類に基づいて統計モデルを構築することを必要とせず、これによって、演算量の多さを軽減し、リアルタイム性能を向上させる障害物検出方法及びシステムを提供する。
一態様によれば、障害物検出方法が開示され、本方法は、第1の時点(first moment)における対象物の走査位置である第1の位置を取得することと、第1の位置に基づいて、第2の時点における対象物の予測位置である第2の位置を予測することと、第2の時点における対象物の走査位置である第3の位置を取得することと、第2の位置と第3の位置とのマッチングを行って、マッチング結果を取得し、このマッチング結果に基づいて、動的な障害物又は静的な障害物を含む障害物を対象物から検出することと、を含む。
一部の実施形態では、場合により、第1の位置を取得することは、第1の時点における対象物の第1の走査点配列の位置を取得し、第1の走査点配列の位置に基づいて、第1の走査点配列を第1の線分集合に変換し、第1の線分集合の位置を第1の位置として機能させることを含む。第3の位置を取得することは、第2の時点における対象物の第2の走査点配列の位置を取得し、第2の走査点配列の位置に基づいて、第2の走査点配列を第2の線分集合に変換し、第2の線分集合の位置を第3の位置として機能させることを含む。
一部の実施形態では、場合により、第1の走査点配列を第1の線分集合に変換することは、長さ閾値に基づいて、第1の走査点配列を第1の線分集合に変換することを含み、第1の走査点配列中のそれぞれの走査点と、それぞれの走査点に対応する変換された線分との間の距離が、長さ閾値よりも短い。第2の走査点配列を第2の線分集合に変換することは、長さ閾値に基づいて、第2の走査点配列を第2の線分集合に変換することを含み、第2の走査点配列中のそれぞれの走査点と、それぞれの走査点に対応する変換された線分との間の距離が、長さ閾値よりも短い。
一部の実施形態では、場合により、動的な障害物又は静的な障害物を含む障害物を対象物から検出する前に、本方法は、第1の線分に対応する走査点配列の点密度が密度閾値よりも小さい場合、対象物から第1の物体を削除することであって、第1の線分集合が、第1の物体に対応する第1の線分を含む、対象物から第1の物体を削除すること、又は第2の線分に対応する走査点配列の点密度が密度閾値よりも小さい場合、対象物から第1の物体を削除することであって、第2の線分集合が、第1の物体に対応する第2の線分を含む、対象物から第1の物体を削除することも含む。
一部の実施形態では、場合により、第1の線分集合は、第2の物体に対応する第3の線分を含み、第2の線分集合は、第2の物体に対応する第4の線分を含み、動的な障害物又は静的な障害物を含む障害物を対象物から検出する前に、本方法は、第3の線分の傾斜角、及び第4の線分の傾斜角を取得することと、第3の線分の傾斜角と第4の線分の傾斜角との差が角度閾値よりも大きい場合、対象物から第2の物体を削除することも含む。
一部の実施形態では、場合により、マッチング結果に基づいて、動的な障害物又は静的な障害物を含む障害物を対象物から検出することは、マッチング結果が、第2の時点における第3の物体の予測位置が第2の時点における第3の物体の走査位置と一致することを示す場合、第3の物体は静的な障害物として検出され、マッチング結果が、第2の時点における第4の物体の予測位置が第2の時点における第4の物体の走査位置と一致することを示す場合、第4の物体は動的な障害物として検出されることを含む。
一部の実施形態では、本方法は、可動装置において用いられる。
一部の実施形態では、第1の位置に基づいて第2の位置の予測することは、第1の位置、及び第1の時点から第2の時点までの可動装置の移動経路に基づいて、第2の位置を予測することを含む。
一部の実施形態では、場合により、動的な障害物又は静的な障害物を含む障害物を対象物から検出した後に、本方法は、背景障害物の位置を含む、対象物の位置の領域に関する事前マップ情報(a priori map information)を取得することと、背景障害物の位置に基づいて、検出された動的な障害物又は静的な障害物を修正することも含む。
一部の実施形態では、場合により、本方法は、マッチング結果に基づいて検出信頼レベルを生成することも含む。背景障害物の位置に基づいて、検出された動的な障害物又は静的な障害物を修正することは、背景障害物の位置及び検出信頼レベルに基づいて、検出された動的な障害物又は静的な障害物を修正することを含む。
一部の実施形態では、場合により、対象物から動的な障害物を検出した後に、本方法は、第1の時点から第2の時点までの動的な障害物の移動速度を取得することと、第1の時点又は第2の時点における動的な障害物の走査位置、及び動的な障害物の移動速度に基づいて、第3の時点における動的な障害物の位置を予測することも含む。
一部の実施形態では、場合により、第1の時点から第2の時点までの動的な障害物の移動速度を取得することは、第1の時点における動的な障害物の走査点配列の位置を取得することと、第1の時点における動的な障害物の走査点配列の位置に基づいて、第1の時点における動的な障害物の対応する線形勾配及び切片を取得することと、第2の時点における動的な障害物の走査点配列の位置を取得することと、第2の時点における動的な障害物の走査点配列の位置に基づいて、第2の時点における動的な障害物の対応する線形勾配及び切片を取得することと、第1の時点における動的な障害物の対応する線形勾配及び切片、並びに第2の時点に対応する動的な障害物の線形勾配及び切片に基づいて、第1の時点から第2の時点までの動的な障害物の移動速度を取得することと、を含む。
一部の実施形態では、場合により、第1の時点又は第2の時点における動的な障害物の走査位置、及び動的な障害物の移動速度に基づいて、第3の時点における動的な障害物の位置を予測することは、動的な障害物の移動速度に基づいて、単位時間当たりの動的な障害物の変位量を取得することと、動的な障害物の第1の時点又は第2の時点の走査位置、及び単位時間当たりの動的な障害物の変位量に基づいて、少なくとも1単位時間後の動的な障害物の位置を予測することと、を含む。
一部の実施形態では、場合により、第1の位置を取得することは、第1の時点における対象物をレーザー走査して、第1の位置を取得することを含み、第3の位置を取得することは、第2の時点における対象物をレーザー走査して、第3の位置を取得することを含む。
別の態様によれば、障害物検出装置は、第1の時点における対象物の走査位置である第1の位置を取得するように構成された第1の取得ユニットと、第1の位置に基づいて、第2の時点における対象物の予測位置である第2の位置を予測するように構成された予測ユニットと、第2の時点における対象物の走査位置である第3の位置を取得するように構成された第2の取得ユニットと、第2の位置と第3の位置とのマッチングを行って、マッチング結果を取得し、このマッチング結果に基づいて、動的な障害物又は静的な障害物を含む障害物を対象物から検出するように構成された検出ユニットと、を備える。
一部の実施形態では、場合により、第1の取得ユニットは、第1の時点における対象物の第1の走査点配列の位置を取得し、第1の走査点配列の位置に基づいて、第1の走査点配列を第1の線分集合に変換し、第1の線分集合の位置を第1の位置として機能させるように構成される。第2の取得ユニットは、第2の時点における対象物の第2の走査点配列の位置を取得し、第2の走査点配列の位置に基づいて、第2の走査点配列を第2の線分集合に変換し、第2の線分集合の位置を第3の位置として機能させるように構成される。
一部の実施形態では、場合により、第1の走査点配列が第1の線分集合に変換されるとき、第1の取得ユニットは、長さ閾値に基づいて、第1の走査点配列を第1の線分集合に変換するように構成され、第1の走査点配列中のそれぞれの走査点と、それぞれの走査点に対応する変換された線分との間の距離が、長さ閾値よりも短い。第2の走査点配列を第2の線分集合に変換するとき、第2の取得ユニットは、長さ閾値に基づいて、第2の走査点配列を第2の線分集合に変換するように構成され、第2の走査点配列中のそれぞれの走査点と、それぞれの走査点に対応する変換された線分との間の距離が、長さ閾値よりも短い。
一部の実施形態では、場合により、本装置は、第1の削除ユニットであって、動的な障害物若しくは静的な障害物を含む障害物を対象物から検出する前に検出ユニットに用いられ、第1の線分に対応する走査点配列の点密度が密度閾値よりも小さい場合、対象物から第1の物体を削除し、第1の線分集合が、第1の物体に対応する第1の線分を含むか、又は第2の線分に対応する走査点配列の点密度が密度閾値よりも小さい場合、対象物から第1の物体を削除し、第2の線分集合が、第1の物体に対応する第2の線分を含む第1の削除ユニットも備える。
一部の実施形態では、場合により、第1の線分集合は、第2の物体に対応する第3の線分を含み、第2の線分集合は、第2の物体に対応する第4の線分を含み、本装置は、第2の削除ユニットであって、動的な障害物又は静的な障害物を含む障害物を対象物から検出する前に検出ユニットに用いられ、第3の線分の傾斜角、及び第4の線分の傾斜角を取得し、第3の線分の傾斜角と第4の線分の傾斜角との差が角度閾値よりも大きい場合、対象物から第2の物体を削除する第2の削除ユニットも備える。
一部の実施形態では、場合により、マッチング結果に基づいて、対象物から動的な障害物又は静的な障害物が検出されるとき、検出ユニットは、マッチング結果が、第2の時点における第3の物体の予測位置が第2の時点における第3の物体の走査位置と一致することを示す場合、第3の物体を静的な障害物として検出するか、又はマッチング結果が、第2の時点における第4の物体の予測位置が第2の時点における第4の物体の走査位置と一致することを示す場合、第4の物体を動的な障害物として検出するように構成される。
一部の実施形態では、場合により、本装置は、修正ユニットであって、背景障害物の位置を含む、対象物の位置の領域に関する事前マップ情報を取得し、背景障害物の位置に基づいて、検出された動的な障害物又は静的な障害物を修正するように構成された修正ユニットも備える。
一部の実施形態では、場合により、本装置は、予測ユニットであって、検出ユニットが対象物から動的な障害物を検出した後に用いられ、第1の時点から第2の時点までの動的な障害物の移動速度を取得し、第1の時点又は第2の時点における動的な障害物の走査位置、及び動的な障害物の移動速度に基づいて、第3の時点における動的な障害物の位置を予測する予測ユニットも備える。
一部の実施形態では、場合により、第1の取得ユニットは、第1の時点における対象物をレーザー走査し、第1の位置を取得するように構成され、第2の取得ユニットは、第2の時点における対象物をレーザー走査し、第3の位置を取得するように構成される。
別の態様によれば、非一時的なコンピュータ読み取り可能な記憶媒体は、システムによって実行された場合にシステムに障害物検出方法を実行させる命令を記憶する。本方法は、第1の時点における対象物の走査位置である第1の位置を取得することと、第1の位置に基づいて、第2の時点における対象物の予測位置である第2の位置を予測することと、第2の時点における対象物の走査位置である第3の位置を取得することと、第2の位置と第3の位置とのマッチングを行い、マッチング結果を得て、このマッチング結果に基づき、1つ以上の動的な障害物又は静的な障害物を対象物から検出することと、を含む。
別の態様によれば、輸送乗物(transport vehicle)は、第1の時点における対象物を走査して、第1の時点における対象物の走査位置である第1の位置を取得し、第2の時点における対象物を走査して、第2の時点における対象物の走査位置である第3の位置を取得するように構成された走査装置と、第1の位置に基づいて、第2の時点における対象物の予測位置である第2の位置を予測し、第2の位置と第3の位置とのマッチングを行って、マッチング結果を取得し、このマッチング結果に基づいて、動的な障害物又は静的な障害物を含む障害物を対象物から検出するように構成されたプロセッサと、を備える。
種々の実施形態では、第1の時点における対象物の走査位置、すなわち第1の位置が取得され、第2の時点における対象物の位置、すなわち第3の位置が取得され、第1の位置に基づいて、第2の時点における対象物の位置、すなわち第2の位置が予測される。第2の位置と第3の位置とのマッチングを行って、マッチング結果が取得され、このマッチング結果に基づいて、対象物から動的な障害物又は静的な障害物が検出される。本出願の実施形態によって提供される障害物検出方法は、統計モデルへの依存を必要とせず、リアルタイムで障害物を検出することができるため、演算量の多さが軽減され、リアルタイム性能が向上する。
以下の説明の添付図面は、本出願の実施形態にすぎない。当業者であれば、これらの添付図面に基づいて、他の図面を得ることができる。
図1は本開示と一致する、障害物検出方法の実施形態(a method embodiment of an obstacle detection method)のフローチャートである。 図2は本開示と一致する、取得された走査点配列の図である。 図3は本開示と一致する、対象物の走査位置の図である。 図4は本開示と一致する、対象物の線分集合の図である。 図5は本開示と一致する、走査点配列を線分集合に変換する例示的な方法のフローチャートである。 図6aは本開示と一致する、走査点配列の線分への変換の図である。 図6bは本開示と一致する、走査点配列の線分への変換の図である。 図6cは本開示と一致する、走査点配列の線分への変換の図である。 図6dは本開示と一致する、走査点配列の線分への変換の図である。 図7は本開示と一致する、点密度に基づく物体削除の図である。 図8は本開示と一致する、障害物検出装置の例示的な装置の概略構造図である。 図9は本開示と一致する、輸送乗物の例示的な装置の概略構造図である。
本明細書に説明されている実施形態は、例示にすぎず、実施形態のすべてではない。創造的な試みをすることなく、本開示の実施形態に基づいて、当業者が習得する他のすべての実施形態は、保護の範囲内にあるものとする。
自動ナビゲーションなどの現在の技術では、障害物を検出し、その障害物が、動的な障害物であるか又は静的な障害物であるかを判断するために、モデルベースの検出方法を用いることができる。この検出モードは、複数の統計モデルの確立を必要とし、それぞれの統計モデルは、別々の種類の障害物に対応する。例えば、乗り物と歩行者とは、異なる統計モデルに対応する。検出される画像を撮影するようにカメラが構成され、画像認識方法に基づいて映像中の画像が分析される。このようにして、障害物の形状などの関連情報が取得され、この情報に基づいて、障害物の種類が判断される。さらに、対応する統計モデルを選択して障害物検出を実行することができる。
この検出モードでは、障害物の種類に基づいて統計モデルを確立する必要があるため、統計モデルの学習を実行するのに大量のデータが必要であることに加えて、新しい種類のあらゆる障害物には新たな統計モデルが必要となり、演算量が多くなり、リアルタイム性能が不十分となる。加えて、カメラを用いて撮影すると、視野の制限、及び撮影時の照明による影響の受けやすさなどの問題が生じることが多くなり、これによって、検出精度が悪くなる。また、画像分析は、かなりの計算能力も必要とし、リアルタイム性能をさらに低下させる。
本開示の実施形態によって提供される障害物検出方法及びシステムは、演算量の多さを軽減し、リアルタイム性能を向上させることができる。加えて、カメラによる撮影が不要であり、視野の制限、及び撮影時の照明による影響の受けやすさという問題がなくなり、精度及びリアルタイム性能がさらに向上する。
図1には、例示的な障害物検出方法100が示されている。
本出願の実施形態は、障害物検出装置において実行することができ、検出装置は、特定の位置に固定されたモニターなどの定位置装置であるか、又はそれ自体が可動装置であるか、若しくは可動装置に取り付けることができる。例えば、検出装置は、輸送乗物などの可動装置であるか、又は可動装置に取り付けられてもよい。ここで、輸送乗物には、車椅子、ホバーボード、ロボットなどが含まれる。
本実施形態の方法100は、次のステップを含む。
S101には、第1の時点における対象物の走査位置である第1の位置を取得することが含まれる。対象物は、1つ以上の物体(例えば、以下に説明するように、第1の物体、第2の物体、第3の物体、第4の物体など)を含み得る。
一部の実施形態では、第1の位置は、走査、例えば、LIDAR(光検出と測距(light detection and ranging))に基づく光走査(以下、レーザー走査と称する。)、位置深さ検出器などによって取得することができる。例えば、第1の位置を取得することは、第1の時点における対象物をレーザー走査して、第1の位置を取得することを含む。レーザー走査が機能する(deployed)とき、走査範囲は広く、遠距離をカバーすることができ、例えば、走査角度は270度に達し、走査距離は50メートルに達してもよい。また、レーザー走査は環境への適応性が高く、照明の変化に敏感ではないため、検出精度を向上させることができる。
一部の実施形態では、対象物の走査に続いて、対象物の走査点配列を取得することができる。図2に示すように、検出装置がレーザー走査した後、乗り物及び他の障害物(存在する場合)の走査点配列を取得することができる。ここで、走査点配列は少なくとも2つの走査点を含み、走査点は、レーザービームなどの走査媒体と障害物との間の接触点である。このため、対象物の境界輪郭の走査位置は、このステップから得ることができる。一部の実施形態では、取得された走査点配列の位置を、対象物の位置として用いることが可能であり、線分集合の位置を対象物の位置として用いて、走査点配列を線分集合に変換することができる。
S102には、第1の位置に基づいて、第2の時点における対象物の予測位置である第2の位置を予測することが含まれる。
一部の実施形態では、第1の位置に基づいて第2の位置を予測するとき、対象物は、例えば、第1の時点から第2の時点まで動かないと仮定し、静的な物体であると仮定することができる。このため、検出装置の位置が固定されている場合、S101において取得された第1の位置は、第2の時点における対象物の予測位置として用いることができる。検出装置が可動装置であるか、又は可動装置に取り付けられている場合、第1の位置、及び第1の時点から第2の時点までの可動装置の移動経路に基づいて、第2の位置を予測することができる。
S103には、第2の時点における対象物の走査位置である第3の位置を取得することが含まれる。
本ステップにおける第3の位置の取得プロセスは、S101における第1の位置の取得プロセスと同様であり、ここでは繰り返さない。
第2の時点は第1の時点よりも遅く、また第1の時点よりも早くてもよい。例えば、時点t1<時点t2である。開示されている実施形態は、時点t1における対象物の走査位置に基づいて、時点t2における走査位置を予測することができ、また、時点t2における対象物の走査位置に基づいて、時点t1における走査位置を予測することもできる。
S104には、第2の位置と第3の位置とのマッチングを行い、マッチング結果を得て、このマッチング結果に基づき、1つ以上の動的な障害物又は静的な障害物を対象物から検出することが含まれる。
一部の実施形態では、S102によれば、第2の位置は、第2の時点における対象物の予測位置であり、S103によれば、第3の位置は、第2の時点における対象物の走査位置である。このため、第2の位置と第3の位置とのマッチング結果は、第2の時点における対象物の走査位置と予測位置とが互いに一致するか否かを示すことができる。予測は、対象物が動かないと仮定するため、走査位置と予測位置とのマッチング結果に基づいて、対象物が動いたか否か、すなわち、対象物が動的な障害物か又は静的な障害物を含むかを検出することが可能である。
例えば、対象物には、第3の物体と第4の物体とが含まれる。マッチング結果が、第2の時点における第3の物体の予測位置が第2の時点における第3の物体の走査位置と一致することを示す場合、第3の物体は、第1の時点から第2の時点まで動かなかった。このため、第3の物体は、静的な障害物であると判断することができる。マッチング結果が、第2の時点における第4の物体の予測位置が第2の時点における第4の物体の走査位置と一致しないことを示す場合、第4の物体は、第1の時点から第2の時点までに動いた。このため、第4の物体は、動的な障害物であると判断することができる。付加的な例を以下に示す。
図3に示すように、対象物は、物体A、物体B及び物体Cを含有している。ここで、線分A1(走査点a1からa2までを含む線分)の位置は、第1の時点における物体Aの走査位置である。線分A1の位置に基づいて、第2の時点における物体Aの予測位置を予測すること、すなわち、線分A2の位置を予測することが可能である。線分A3(走査点a3からa4までを含む線分)の位置は、第2の時点における物体Aの走査位置である。マッチング結果が、第2の時点における物体Aの走査位置と予測位置とが実質的に重なることを示す場合、これは、物体Aが第1の時点から第2の時点まで動かなかったことを示す。このため、物体Aは、静的な障害物であると判断することができる。同様に、マッチング結果が、第2の時点における物体Bの走査位置と予測位置との間に大きな差があることを示す場合、また、第2の時点における物体Cの走査位置と予測位置とが実質的に重なることを示す場合、物体Bは、動的な障害物であると判断することができ、物体Cは、静的な障害物であると判断することができる。
一部の実施形態では、「静的な(static)」及び「動的な(dynamic)」とは、第1の時点から第2の時点までの期間中の状態をいう。例えば、検出された静的な障害物は、先の検出プロセスでは動的であると判断された可能性がある。このため、本出願の実施形態は、第1の時点及び第2の時点の前の1つ以上の検出結果に基づいて、S104において検出された静的な障害物が、可能性として動的な障害物であるか否かを判断することもできる。
一部の実施形態では、第1の時点における対象物の走査位置、すなわち第1の位置が取得され、第2の時点における対象物の走査位置、すなわち第3の位置が取得され、第1の位置に基づいて、第2の時点における対象物の位置、すなわち第2の位置が予測される。第2の位置と第3の位置とのマッチングによって、マッチング結果を取得し、このマッチング結果に基づいて、1つ以上の動的な障害物又は静的な障害物を対象物から検出することができる。障害物検出方法は、統計モデルの依存が不要であるため、演算量の多さが軽減され、リアルタイム性能が向上する。
一部の実施形態では、レーザー、カメラなどの種々の走査装置によって、走査することができる。走査範囲はかなり広く、遠距離をカバーする。走査は環境への適応性が高く、照明の変化に敏感ではなく、検出精度をさらに向上させる。また、画像分析が必要ではないため、リアルタイム性能も向上させることができる。
一部の実施形態では、レーザーなどの走査装置を用いて対象物を走査した後、走査点配列を取得することが可能である。演算量の多さを軽減するように、点から線へ変換した後にマッチングを行うことができる。
例えば、ステップS101は、第1の時点における対象物の第1の走査点配列の位置を取得し、第1の走査点配列の位置に基づいて、第1の走査点配列を第1の線分集合に変換することを含み、第1の線分集合の位置が第1の位置を示す。図4に示すように、第1の時点において物体A、物体B及び物体Cが走査され、第1の走査点配列の位置が取得され、第1の走査点配列が、21個の走査点を含んでいる(図4に示す黒四角)。第1の走査点配列は、線分B1、線分B2、線分B3及び線分B4を含む第1の線分集合に変換される。第1の線分集合の位置が、第1の位置である。
さらに、ステップS103は、第2の時点における対象物の第2の走査点配列の位置を取得し、第2の走査点配列の位置に基づいて、第2の走査点配列を第2の線分集合に変換することを含み、第2の線分集合の位置が第3の位置を示す。
走査点配列を線分集合に変換するプロセスを以下に論じる。
隣接する2つの走査点を1つの線分に変換するといった、走査点を線分集合に変換する方法は複数あり得る。ただし、走査点配列に多数の走査点が含有できるとすると、隣接するすべての走査点がつなげられて線分に変換される場合、多数の線分が存在することになり、これによって、マッチングステップにおいて演算量が、かなり多くなる。このため、一部の実施形態では、長さ閾値を設定して、実質的に同一直線上にある走査点を1つの線分に変換することが可能である。したがって、精度に対する最小の影響によって、線分の数が減り、リアルタイム性能がさらに向上する。
例えば、第1の走査点配列を第1の線分集合に変換することは、長さ閾値に基づいて、第1の走査点配列を第1の線分集合に変換することを含み(第1の線分は、変換された1つ以上の第1の線分を含み、それぞれの第1の線分は、1つ以上の第1の走査点に対応する。)、第1の走査点配列中のそれぞれの走査点と、対応する変換された線分との間の距離が、長さ閾値よりも短い。例えば、図4に示すように、第1の走査点配列から変換された第1の線分集合は、線分B1、線分B2、線分B3及び線分B4を含む。ここで、第1の走査点配列の走査点b9は、線分B1に変換することができ、走査点b9と線分B1との間の距離は、長さ閾値よりも短い。第2の走査点配列を第2の線分集合に変換することは、長さ閾値に基づいて、第2の走査点配列を第2の線分集合に変換することを含み、第2の走査点配列中のそれぞれの走査点と、対応する変換された線分との間の距離が、長さ閾値よりも短い。
前述した変換方法の例を以下に論じる。
図5に示すように、前述の変換方法は、次のステップを含み得る。
S501には、走査点配列の開始走査点及び終了走査点を、その時点の線分につなぐことが含まれる。開始走査点及び終了走査点以外の、走査点配列中の走査点は、残余走査点として用いられる。
ここで、開始走査点は、走査プロセスによって最初に得られる走査点であり、終了走査点は、走査プロセスによって最後に得られる走査点である。例えば、図6aに示すように、走査点aは開始走査点であり、走査点bは終了走査点であり、走査点aと走査点bとはつなげられて線分1を形成する。さらに、線分1をその時点の線分として用いることができ、走査点a及び走査点b以外の走査点は残余走査点である。
S502には、全残余走査点とその時点の線分との間の距離を求めて、最大距離が長さ閾値よりも長いか否かを判断することが含まれる。
最大距離が長さ閾値よりも短い場合、これは、残余走査点からその時点の線分までの全距離が短いことを示す。このため、すべての剰余走査点は、ほぼその時点の線分上にあり、その時点の線分は線分集合に含まれる。これに応じて、S505が実行される(図5)。図6bに示すように、すべての剰余走査点のうち、走査点cと線分1との間の距離が最大である。この距離が長さ閾値Thよりも短い場合、線分1は線分集合に含まれる。
剰余走査点とその時点の線分との間の距離が閾値よりも長い場合、すべての剰余走査点は、ほぼその時点の線分上にないことを示し、このため、S503及びS504が実行される(図5)。図6bに示すように、走査点cから線分1までの距離は、長さ閾値Thよりも長く、このため、S503及びS504が実行される。
S503には、分割走査点として、最大距離値に対応する走査点を用いることと、開始走査点と分割走査点とを1つの線分につないで、その時点の線分を得ることと、が含まれる。開始走査点と分割走査点との間の走査点は、剰余走査点として用いられ、方法はステップS502に戻る(図5)。
図6cに示すように、走査点aと走査点cとはつなげられて1つの線分を形成し、ステップS502に戻ることによって、走査点aと走査点cとをつないで形成された線分が、線分集合に含まれる。この線分をさらに分割する必要はない。
S504には、分割走査点と終了走査点とをつないで、1つの直線を形成して、その時点の線分として用いることが含まれ、分割走査点と終了走査点との間の走査点は、剰余走査点として用いられ、プロセスは、ステップS502の実行に戻る。
図6cに示すように、走査点cと走査点bとはつなげられて1つの線分を形成し、ステップS502に戻ることによって、図6a及び図6bと同様に、この線分をさらに分割することができる。そして、線分集合には、走査点cと走査点dとをつないで形成された線分、走査点dと走査点eとをつないで形成された線分、及び走査点eと走査点bとをつないで形成された線分が含まれる。
S503及びS504の実行順序は、上述したものに限定されないことに留意されたい。最初にS503、次いでS504を実行し、最初にS504、次いでS503を実行し、また、S503とS504とを同時に実行することも可能である。
S505には、その時点の線分を線分集合に含めることが含まれる。
S506には、走査点配列から、その時点の線分の2つの終点、及びこれら2つの終点間の走査点を除去することと、この除去に続いて、走査点配列中に走査点が含まれるか否かを判断することと、が含まれる。走査点配列中に走査点が含まれない場合は、点から線への変換が完了したことを示し、このため、方法は終了し、すなわち、最終線分集合が得られる。走査点配列中に走査点が含まれる場合は、方法は終了していないことを示す。
例えば、最終線分集合は図6dに示されており、全走査点より変換された線分からの全走査点の距離は、長さ閾値よりも短い。
上述の変換方法が、反復手法を介して点から線クラスターへ変換し、線分の数を減らし、これによって、リアルタイム性能及び精度を向上させることは明らかである。
一部の実施形態では、走査点配列を線分集合に変換する前述のプロセスは、異なる障害物の走査点を互いにつなぎ、その結果、障害物を誤ってつなぐ可能性がある。図4に示すように、走査点b2と走査点b3は、異なる障害物の走査点である。線分変換するとき、これらの2点をつないで線分を形成することができるが、この線分は障害物に対応する線分ではない。
障害物を誤ってつなぐ線分に関しては、通常、走査時に一定の時間間隔によって走査点が生じるため、走査点は一定の密度を有する。障害物を誤ってつなぐ線分の走査点密度は、正確に障害物をつなぐ線分の走査点密度よりも低くなる。このため、走査点配列の点密度を判断することによって、障害物を誤ってつなぐ線分を除去できる。
例えば、第1の線分集合は、第1の物体に対応する第1の線分を含み、第1の線分に対応する走査点配列の点密度が密度閾値よりも小さい場合、第1の物体は対象物から除去され、すなわち、第1の物体の障害物の種類は特定されず、これは、第1の物体が障害物ではないとの判断に相当する。または、第2の線分集合は、第1の物体に対応する第2の線分を含み、第2の線分に対応する走査点配列の点密度が密度閾値よりも小さい場合、第2の物体は対象物から除去される。ここで、密度閾値は、走査サイクルにおける走査時間間隔に基づいて設定することができる。
一例では、図7の上の図は、対象物に対応する線分集合であり、この線分集合は線分B1〜B6を含む。線分に対応する走査点配列の点密度に基づいて、線分B5及び線分B6の点密度は、密度閾値よりも小さいと判断することが可能であり、これは、線分B5及び線分B6が障害物を誤ってつなぐ線であることを意味する。線分B5に対応する物体、及び線分B6に対応する物体は、対象物から除去することができ、すなわち、線分B5及び線分B6に対応する位置には障害物が存在しないと判断される。このようにして、図7の下に示され、線分B1〜B4を含む線分集合が得られる。
上述のように、走査点配列の点密度を決定することによって、障害物間を誤ってつなぐ線に対応する物体が除去され、検出精度が向上し、マッチングを行う際の検出装置の作業負荷が軽減され、検出効率がさらに向上する。
一部の実施形態では、例えば、検出装置若しくは対象物の速度が非常に速いとき、又は新しい障害物の出現によって障害物が重なるとき、障害物の種類を判断できないことがあり、すなわち、対象物から、存在する障害物が静的か又は動的であるかを検出することはできない。
検出ができない上述の状況では、線分傾斜角の差に基づいて判断することができる。線分傾斜角の差が非常に大きいときは、検出装置が検出できない、対象物からの静的な障害物又は動的な障害物が存在することを意味する。例えば、第1の線分集合は、第2の物体に対応する第3の線分を含み、第2の線分集合は、第2の物体に対応する第4の線分を含む。動的な障害物又は静的な障害物を含む障害物を対象物から検出する前に、方法は、第3の線分の傾斜角、及び第4の線分の傾斜角を取得することと、第3の線分の傾斜角と第4の線分の傾斜角との差が角度閾値よりも大きい場合、対象物から第2の物体を除去することも含む。このため、第2の物体が静的な障害物か又は動的な障害物であるかについては、判断されない。第2の物体の障害物の種類は、次の時点において判断することができる。
検出結果の精度をさらに向上させるように、一部の実施形態では、検出結果を事前マップに基づいて修正することができる。ここで、事前マップは、対象物が位置する領域の背景障害物を含むマップである。
例えば、背景障害物の位置を含む、対象物の位置の領域に関する事前マップ情報が取得され、背景障害物の位置に基づいて、検出された動的な障害物又は静的な障害物は修正される。ここで、背景障害物は、対象物が位置する領域内の静的な障害物であり得る。
例えば、検出装置が静的な障害物の位置を検出し、事前マップに障害物が存在しないとき、これは、検出結果が誤っている可能性があることを意味する。このとき、検出結果を「障害物なし」と修正してもよい。検出装置が動的な障害物の位置を検出し、事前マップに障害物が存在しないか又は静的な障害物が存在するとき、これは、検出結果が誤っている可能性があることを意味する。このとき、検出結果を「障害物なし」又は「静的な障害物あり」と修正してもよい。
事前マップと検出装置との選択された基準点が異なる場合、事前マップ座標系と検出装置座標系との対応する座標原点は異なる。このため、修正する前に、座標系を統一する必要がある。例えば、背景障害物の位置は、事前マップ座標系から検出装置座標系に下方変換されてもよいし、又は検出された動的な障害物若しくは静的な障害物の位置は、検出装置座標系から事前マップ座標系へ変換されてもよい。
検出装置が障害物を検出するとき、背景障害物は事前マップに対して変化し得る。例えば、事前マップが取得されるとき、マップの対応する領域に置かれた乗り物があってもよい。障害物の検出時に、この乗り物は、もはや対応する領域には位置しない可能性があるが、事前マップは、乗り物を誤って静的な障害物と識別する。事前マップに信頼を置いて検出結果を修正するとき、事前マップの誤りの存在は、修正エラーにつながることがある。
事前マップに誤りがある状況では、事前マップに信頼を置いて検出結果を修正するときに、検出結果の信頼レベルの決定を追加することができる。例えば、マッチングの結果に基づいて検出信頼レベルが生成され、背景障害物の位置に基づいて、検出された動的な障害物又は静的な障害物が修正されることは、背景障害物の位置及び検出信頼レベルに基づいて、検出された動的な障害物又は静的な障害物を修正することを含む。
ここで、マッチング結果の対応する一致度を用いて、検出信頼レベルを求めることが可能である。より強い一致は、より高い検出信頼レベルに対応し、これは、取得された検出結果がより信頼できることを示す。例えば、事前マップが検出結果と一致しないときに、検出結果の検出信頼レベルが高い場合、修正されなくてもよく、検出結果の検出信頼レベルが低い場合は、事前マップに基づいて修正されてもよい。
検出された対象物に動的な障害物が含まれるとき、動的な障害物のトラジェクトリーをさらに予測することができる。例えば、方法は、第1の時点から第2の時点までの動的な障害物の移動速度を取得することと、第1の時点又は第2の時点における動的な障害物の走査位置、及び動的な障害物の移動速度に基づいて、第3の時点における動的な障害物の位置を予測することも含む。
ここで、動的な障害物の移動速度が取得されるとき、第1の時点及び第2の時点における動的な障害物の位置を取得することができる。移動速度は、これら2つの位置間の距離の差と、第1の時点と第2の時点との間の時間差に基づいて算出される。
他の実施形態では、動的な障害物の位置は、動的な障害物の区域に対応する線分の勾配及び切片によって、示すことができる。
例えば、第1の走査点配列と第2の走査点配列はそれぞれ、第1の線分集合と第2の線分集合に変換される。第1の時点における動的な障害物の位置は、第1の線分集合内のすべての線分の勾配及び切片によって示すことができ、第2の時点における動的な障害物の位置は、第2の線分集合内のすべての線分の勾配及び切片によって示すことができる。ただし、図6dは、すべての走査点が、対応する線分上に位置しているわけではないことを示している。このため、動的な障害物の位置は、線形回帰によってより正確に示すことができる。
例えば、第1の時点における動的な障害物の走査点配列の位置が取得され、第1の時点における動的な障害物の対応する線形勾配及び切片は、第1の時点における動的な障害物の走査点配列の位置に基づいて取得され、第2の時点における動的な障害物の走査点配列の位置が取得され、第2の時点における動的な障害物の対応する線形勾配及び切片は、第2の時点における動的な障害物の走査点配列の位置に基づいて取得される。第1の時点における障害物の対応する線形勾配及び切片とともに、第2の時点における対応する線形勾配及び切片を取得した後、これは、第1の時点及び第2の時点における動的な障害物の位置を取得することに相当し、第1の時点から第2の時点までの動的な障害物の移動速度を取得することが可能である。
ここで、第1の時点における動的な障害物の対応する線形勾配mは、次のとおりである。
Figure 2019537715
ここで、
Figure 2019537715
であり、xi及びyiはそれぞれ、第1の走査点配列中の全走査点の水平座標及び垂直座標であり、nは全線分の走査点の数である。
第1の時点における動的な障害物の対応する直線切片bは、次のとおりである。
Figure 2019537715
上の式中のxi及びyiを、第2の走査点配列中の全走査点の水平座標及び垂直座標に置き換えることによって、第1の時点における動的な障害物の対応する線形勾配及び切片を算出することが可能である。
そして、動的な障害物の区域の移動速度を算出した後、動的な障害物の位置を予測することが可能である。例示的な予測方法を以下に説明する。
最初に、動的な障害物の算出された移動速度に基づいて、単位時間当たりの動的な障害物の変位量が取得され、次いで、少なくとも1単位時間後の動的な障害物の位置は、動的な障害物の第1の時点又は第2の時点の走査位置、及び単位時間当たりの動的な障害物の変位量に基づいて予測される。例として、単位時間は0.1秒であり、0.1秒における動的な障害物の変位量が取得され、単位時間jにわたる変位量が積分される。k 0.1秒後の障害物の予測位置が取得され、k=1、2、…jである。kが増加するにつれて、集合共分散は増加し、これは、予測位置の精度がさらに低くなることを示している。
上述した方法の実施形態に対応して、本出願は、対応する装置の実施形態も提供する。
図8は、本開示の実施形態と一致する例示的な障害物検出装置890を示している。装置890は、一時的でないコンピュータ可読メモリ880と、プロセッサ870と、を備え得る。メモリ880は、プロセッサ870によって実行されるときに、本明細書に説明されている種々のステップ及び方法を装置890に実行させる命令(例えば、以下に説明する種々のユニットに対応する。)を記憶することができる。メモリ880に記憶される命令は、第1の時点における対象物の走査位置である第1の位置を取得するように構成された第1の取得ユニット801と、第1の位置に基づいて、第2の時点における対象物の予測位置である第2の位置を予測するように構成された予測ユニット802と、第2の時点における対象物の走査位置である第3の位置を取得するように構成された第2の取得ユニット803と、第2の位置と第3の位置とのマッチングを行って、マッチング結果を取得し、このマッチング結果に基づいて、動的な障害物又は静的な障害物を対象物から検出するように構成された検出ユニット804と、を含み得る。
場合により、第1の取得ユニットは、第1の時点における対象物の第1の走査点配列の位置を取得し、第1の走査点配列の位置に基づいて、第1の走査点配列を第1の線分集合に変換し、第1の線分集合の位置を第1の位置として機能させるように構成される。
第2の取得ユニットは、第2の時点における対象物の第2の走査点配列の位置を取得し、第2の走査点配列の位置に基づいて、第2の走査点配列を第2の線分集合に変換し、第2の線分集合の位置を第3の位置として機能させるように構成される。
場合により、第1の走査点配列が第1の線分集合に変換されるとき、第1の取得ユニットは、長さ閾値に基づいて、第1の走査点配列を第1の線分集合に変換するように構成され、第1の走査点配列中のそれぞれの走査点と、それぞれの走査点に対応する変換された線分との間の距離が、長さ閾値よりも短い。第2の走査点配列を第2の線分集合に変換するとき、第2の取得ユニットは、長さ閾値に基づいて、第2の走査点配列を第2の線分集合に変換するように構成され、第2の走査点配列中のそれぞれの走査点と、それぞれの走査点に対応する変換された線分との間の距離が、長さ閾値よりも短い。
場合により、メモリ880に記憶される命令は、第1の削除ユニットであって、動的な障害物若しくは静的な障害物を含む障害物を対象物から検出する前に検出ユニットに用いられ、第1の線分に対応する走査点配列の点密度が密度閾値よりも小さい場合、対象物から第1の物体を削除し、第1の線分集合が、第1の物体に対応する第1の線分を含むか、又は第2の線分に対応する走査点配列の点密度が密度閾値よりも小さい場合、対象物から第1の物体を削除し、第2の線分集合が、第1の物体に対応する第2の線分を含む第1の削除ユニットも含む。
場合により、第1の線分集合は、第2の物体に対応する第3の線分を含み、第2の線分集合は、第2の物体に対応する第4の線分を含み、メモリ880に記憶される命令は、第2の削除ユニットであって、動的な障害物又は静的な障害物を含む障害物を対象物から検出する前に検出ユニットに用いられ、第3の線分の傾斜角、及び第4の線分の傾斜角を取得し、第3の線分の傾斜角と第4の線分の傾斜角との差が角度閾値よりも大きい場合、対象物から第2の物体を削除する第2の削除ユニットも含む。
場合により、マッチング結果に基づいて、対象物から動的な障害物又は静的な障害物が検出されるとき、検出ユニットは、マッチング結果が、第2の時点における第3の物体の予測位置が第2の時点における第3の物体の走査位置と一致することを示す場合、第3の物体を静的な障害物として検出するか、又はマッチング結果が、第2の時点における第4の物体の予測位置が第2の時点における第4の物体の走査位置と一致することを示す場合、第4の物体を動的な障害物として検出するように構成される。
場合により、メモリ880に記憶される命令は、修正ユニットであって、背景障害物の位置を含む、対象物の位置の領域に関する事前マップ情報を取得し、背景障害物の位置に基づいて、検出された動的な障害物又は静的な障害物を修正するように構成された修正ユニットも含む。
場合により、メモリ880に記憶される命令は、予測ユニットであって、検出ユニットが対象物から動的な障害物を検出した後に用いられ、第1の時点から第2の時点までの動的な障害物の移動速度を取得し、第1の時点又は第2の時点における動的な障害物の走査位置、及び動的な障害物の移動速度に基づいて、第3の時点における動的な障害物の位置を予測する予測ユニットも含む。
場合により、第1の取得ユニットは、第1の時点における対象物をレーザー走査し、第1の位置を取得するように構成される。第2の取得ユニットは、第2の時点における対象物をレーザー走査し、第3の位置を取得するように構成される。
図9は、本開示の種々の実施形態と一致する例示的な輸送乗物990を示している。輸送乗物990は、走査装置901と、プロセッサ902と、を備えている。プロセッサ902は、走査装置901に接続されている。
走査装置901は、第1の時点における対象物を走査して、第1の時点における対象物の走査位置である第1の位置を取得し、第2の時点における対象物を走査して、第2の時点における対象物の走査位置である第3の位置を取得するように構成されている。
プロセッサ902は、第1の位置に基づいて、第2の時点における対象物の予測位置である第2の位置を予測し、第2の位置と第3の位置とのマッチングを行って、マッチング結果を取得し、このマッチング結果に基づいて、1つ以上の動的な障害物又は静的な障害物を対象物から検出するように構成されている。
一部の実施形態では、輸送乗物990は、ロボット、車椅子、ホバーボードなどであり得る。走査装置901とは、レーザーなどのビームを出射するレーザー装置といった、走査機能を有する装置をいう。プロセッサ902は、CPU若しくはASIC(特定用途向け集積回路)であるか、又は本開示の実施形態を実施するように構成された1つ若しくは複数の集積回路であり得る。
本実施形態によって提供される輸送乗物の種々の機能ユニットは、図1に示す方法の実施形態及び図8に示す装置の実施形態の機能及び実装に基づき得る。
当業者であれば、都合よくかつ簡潔に説明するために、前述した方法の実施形態における対応するプロセスが、上の説明のシステム、装置及びユニットの動作プロセスに関して参照可能であることを明確に理解できる。
本開示の実施形態では、開示されているシステム、装置及び方法は、他の方法により実現できることが理解される。例えば、上述した装置の実施形態は例示にすぎない。例えば、ユニットの分割は、論理的機能分割の一種にすぎない。実際の実施時に、ユニットは、他の方法により分割されてもよい。例えば、複数のユニット若しくは構成部品を組み合わせるか、別のシステムに組み込むか、又は一部の特徴を省くか、実行しないようにしてもよい。加えて、示されているか又は論じられている相互連結、直接連結又は通信接続は、特定のインターフェース、装置又はユニットを介して達成される間接連結又は通信接続であり、これらは、電気的、機械的形式であるか、又は別の形式であってもよい。
別々の部分として説明されているユニットは、物理的に分離されていてもされていなくてもよく、ユニットとして表示されている部分は、物理的ユニットであってもなくてもよく、例えば、1つの場所に配置するか、又は複数のネットワークユニットに分散させてもよい。実際の必要性に基づいて、実施形態のスキームの目的を実現するように、ユニットの一部又はすべてを選択してもよい。
加えて、本開示のすべての実施形態のそれぞれの機能ユニットを、1つの処理ユニットに統合するか、又はすべてのユニットを物理的に独立させてもよい。また、2つ以上のユニットを1つのユニットに統合してもよい。これらの統合されたユニットは、ハードウェアの使用を介して実現させてもよく、またソフトウェア機能ユニットの使用を介して実現させてもよい。
統合されたユニットがソフトウェア機能ユニットの形式により実現され、独立した製品として販売されるか又は用いられる場合、これらはコンピュータ可読記憶媒体に記憶することができる。このような理解に基づくと、本出願の技術的スキームの本質、又は先行技術に寄与する部分、又はこれらの技術的スキームの一部若しくはすべてをソフトウェア製品の形式により具体化することができる。このコンピュータソフトウェア製品は、記憶媒体に記憶され、コンピュータソフトウェア製品には、コンピュータ装置(パソコン、サーバ、若しくはネットワーク装置であり得る。)に、本出願のすべての実施形態による方法のステップの一部又はすべてを実行させる多数の指令が含まれる。上述の記憶媒体としては、プログラムコードを記憶可能な種々の媒体、例えば、Uディスク、外付けハードドライブ、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、ディスク又は光ディスクが挙げられる。
前述の説明及び実施形態は、本出願の技術的スキームを説明するために用いられるのにすぎず、技術的スキームを限定しない。前述の実施形態を参照して、本出願の詳細な説明を示してきたが、当業者であれば、前述の実施形態に記録されている技術的スキームをなお変更できるか、又は一部の技術的特徴に対して均等に置換できることが理解される。これらの変更又は置換によって、対応する技術的スキームの本質は、開示されている実施形態の技術的スキームの真意及び範囲から外れない。

Claims (23)

  1. 障害物検出方法であって、
    第1の時点における対象物の走査位置である第1の位置を取得することと、
    前記第1の位置に基づいて、第2の時点における対象物の予測位置である第2の位置を予測することと、
    前記第2の時点における対象物の走査位置である第3の位置を取得することと、
    前記第2の位置と前記第3の位置とのマッチングを行い、マッチング結果を得て、該マッチング結果に基づき、1つ以上の動的な障害物又は静的な障害物を対象物から検出することと、
    を含む方法。
  2. 前記第1の位置を取得することが、前記第1の時点における対象物の第1の走査点配列の位置を取得し、該第1の走査点配列の位置に基づいて、前記第1の走査点配列を第1の線分集合に変換することを含み、該第1の線分集合の位置が前記第1の位置を示し、
    前記第3の位置を取得することが、前記第2の時点における対象物の第2の走査点配列の位置を取得し、該第2の走査点配列の位置に基づいて、前記第2の走査点配列を第2の線分集合に変換することを含み、該第2の線分集合の位置が前記第3の位置を示す、請求項1に記載の方法。
  3. 前記第1の走査点配列を前記第1の線分集合に変換することが、長さ閾値に基づいて、前記第1の走査点配列を前記第1の線分集合に変換することを含み、前記第1の走査点配列中のそれぞれの走査点と、第1の線分との間の距離が、前記長さ閾値よりも短く、
    前記第2の走査点配列を前記第2の線分集合に変換することが、長さ閾値に基づいて、前記第2の走査点配列を前記第2の線分集合に変換することを含み、前記第2の走査点配列中のそれぞれの走査点と、第2の線分との間の距離が、前記長さ閾値よりも短い、請求項2に記載の方法。
  4. 前記対象物が第1の物体を含み、
    前記第1の線分集合が、前記第1の物体に対応する第1の線分を含み、
    前記第2の線分集合が、前記第1の物体に対応する第2の線分を含み、
    前記1つ以上の動的な障害物又は静的な障害物を前記対象物から検出する前に、前記方法が、
    前記第1の線分の走査点配列の点密度が密度閾値よりも小さい場合、前記対象物から前記第1の物体を除去すること、又は、
    前記第2の線分の走査点配列の点密度が前記密度閾値よりも小さい場合、前記対象物から前記第1の物体を削除することをさらに含む、請求項2に記載の方法。
  5. 前記対象物が第2の物体を含み、
    前記第1の線分集合が、前記第2の物体に対応する第3の線分を含み、
    前記第2の線分集合が、前記第2の物体に対応する第4の線分を含み、
    前記1つ以上の動的な障害物又は静的な障害物を前記対象物から検出する前に、前記方法が、
    前記第3の線分の傾斜角、及び前記第4の線分の傾斜角を取得することと、
    前記第3の線分の傾斜角と前記第4の線分の傾斜角との差が角度閾値よりも大きい場合、前記対象物から前記第2の物体を除去することと、
    をさらに含む、請求項2に記載の方法。
  6. 前記対象物が、第3の物体と第4の物体とを含み、
    前記マッチング結果に基づいて、前記1つ以上の動的な障害物又は静的な障害物を前記対象物から検出することが、
    前記マッチング結果が、前記第2の時点における前記第3の物体の予測位置が前記第2の時点における前記第3の物体の走査位置と一致することを示す場合、前記第3の物体が静的な障害物と判断され、
    前記マッチング結果が、前記第2の時点における前記第4の物体の予測位置が前記第2の時点における前記第4の物体の走査位置と一致することを示す場合、前記第4の物体が動的な障害物と判断されることを含む、請求項1に記載の方法。
  7. 前記方法が可動装置によって実行可能であり、
    前記第1の位置に基づいて前記第2の位置を予測することが、前記第1の位置、及び前記第1の時点から前記第2の時点までの前記可動装置の移動経路に基づいて、前記第2の位置を予測することを含む、請求項1に記載の方法。
  8. 背景障害物の位置を含む、前記対象物の領域に関する事前マップ情報を取得することと、
    前記背景障害物の位置に基づいて、前記動的な障害物又は静的な障害物の検出を修正することと、
    をさらに含む、請求項1に記載の方法。
  9. 前記マッチング結果に基づいて検出信頼レベルを生成することを含み、前記背景障害物の位置に基づいて、前記動的な障害物又は静的な障害物の検出を修正することが、前記背景障害物の位置、及び前記検出信頼レベルに基づいて、前記動的な障害物又は静的な障害物の検出を修正することをさらに含む、請求項8に記載の方法。
  10. 前記対象物から動的な障害物を検出した後に、前記方法が、
    前記第1の時点から前記第2の時点までの前記動的な障害物の移動速度を取得することと、
    前記第1の時点又は前記第2の時点における前記動的な障害物の走査位置、及び前記動的な障害物の移動速度に基づいて、第3の時点における前記動的な障害物の位置を予測することと、
    をさらに含む、請求項1に記載の方法。
  11. 前記第1の時点から前記第2の時点までの前記動的な障害物の移動速度を取得することが、
    前記第1の時点における前記動的な障害物の走査点配列の位置を取得することと、
    前記第1の時点における前記動的な障害物の走査点配列の位置に基づいて、前記第1の時点における前記動的な障害物の対応する線形勾配及び切片を取得することと、
    前記第2の時点における前記動的な障害物の走査点配列の位置を取得することと、
    前記第2の時点における前記動的な障害物の走査点配列の位置に基づいて、前記第2の時点における前記動的な障害物の対応する線形勾配及び切片を取得することと、
    前記第1の時点及び前記第2の時点における前記動的な障害物の対応する線形勾配及び切片に基づいて、前記第1の時点から前記第2の時点までの前記動的な障害物の移動速度を取得することと、
    を含む、請求項10に記載の方法。
  12. 前記第1の時点又は前記第2の時点における前記動的な障害物の走査位置、及び前記動的な障害物の移動速度に基づいて、前記第3の時点における前記動的な障害物の位置を予測することが、
    前記動的な障害物の移動速度に基づいて、単位時間当たりの前記動的な障害物の変位量を取得することと、
    前記動的な障害物の第1の時点又は第2の時点の走査位置、及び単位時間当たりの前記動的な障害物の変位量に基づいて、少なくとも1単位時間後の前記動的な障害物の位置を予測することと、
    を含む、請求項10に記載の方法。
  13. 前記第1の位置を取得することが、前記第1の時点における前記対象物をレーザー走査して、前記第1の位置を取得することを含み、
    前記第3の位置を取得することが、前記第2の時点における前記対象物をレーザー走査して、前記第3の位置を取得することを含む、請求項1に記載の方法。
  14. システムによって実行された場合に前記システムに障害物検出方法を実行させる命令を記憶する、非一時的なコンピュータ読み取り可能な記憶媒体であって、前記方法が、
    第1の時点における対象物の走査位置である第1の位置を取得することと、
    前記第1の位置に基づいて、第2の時点における対象物の予測位置である第2の位置を予測することと、
    前記第2の時点における対象物の走査位置である第3の位置を取得することと、
    前記第2の位置と前記第3の位置とのマッチングを行い、マッチング結果を得て、該マッチング結果に基づき、1つ以上の動的な障害物又は静的な障害物を対象物から検出することと、
    を含む非一時的なコンピュータ読み取り可能な記憶媒体。
  15. 前記第1の位置を取得することが、前記第1の時点における対象物の第1の走査点配列の位置を取得し、該第1の走査点配列の位置に基づいて、前記第1の走査点配列を第1の線分集合に変換することを含み、該第1の線分集合の位置が前記第1の位置を示し、
    前記第3の位置を取得することが、前記第2の時点における対象物の第2の走査点配列の位置を取得し、該第2の走査点配列の位置に基づいて、前記第2の走査点配列を第2の線分集合に変換することを含み、該第2の線分集合の位置が前記第3の位置を示す、請求項14に記載の非一時的なコンピュータ読み取り可能な記憶媒体。
  16. 前記第1の走査点配列を前記第1の線分集合に変換することが、長さ閾値に基づいて、前記第1の走査点配列を前記第1の線分集合に変換することを含み、前記第1の走査点配列中のそれぞれの走査点と、第1の線分との間の距離が、長さ閾値よりも短く、
    前記第2の走査点配列を前記第2の線分集合に変換することが、長さ閾値に基づいて、前記第2の走査点配列を前記第2の線分集合に変換することを含み、前記第2の走査点配列中のそれぞれの走査点と、第2の線分との間の距離が、長さ閾値よりも短い、請求項15に記載の非一時的なコンピュータ読み取り可能な記憶媒体。
  17. 前記対象物が第1の物体を含み、
    前記第1の線分集合が、前記第1の物体に対応する第1の線分を含み、
    前記第2の線分集合が、前記第1の物体に対応する第2の線分を含み、
    前記1つ以上の動的な障害物又は静的な障害物を前記対象物から検出する前に、前記方法が、
    前記第1の線分の走査点配列の点密度が密度閾値よりも小さい場合、前記対象物から前記第1の物体を除去すること、又は、
    前記第2の線分の走査点配列の点密度が密度閾値よりも小さい場合、前記対象物から前記第1の物体を削除することをさらに含む、請求項15に記載の非一時的なコンピュータ読み取り可能な記憶媒体。
  18. 前記対象物が第2の物体を含み、
    前記第1の線分集合が、前記第2の物体に対応する第3の線分を含み、
    前記第2の線分集合が、前記第2の物体に対応する第4の線分を含み、
    前記1つ以上の動的な障害物又は静的な障害物を前記対象物から検出する前に、前記方法が、
    前記第3の線分の傾斜角、及び前記第4の線分の傾斜角を取得することと、
    前記第3の線分の傾斜角と前記第4の線分の傾斜角との差が角度閾値よりも大きい場合、前記対象物から前記第2の物体を除去することと、
    をさらに含む、請求項15に記載の非一時的なコンピュータ読み取り可能な記憶媒体。
  19. 前記対象物が、第3の物体と第4の物体とを含み、
    前記マッチング結果に基づいて、前記1つ以上の動的な障害物又は静的な障害物を前記対象物から検出することが、
    前記マッチング結果が、前記第2の時点における前記第3の物体の予測位置が前記第2の時点における前記第3の物体の走査位置と一致することを示す場合、前記第3の物体が静的な障害物と判断され、
    前記マッチング結果が、前記第2の時点における前記第4の物体の予測位置が前記第2の時点における前記第4の物体の走査位置と一致することを示す場合、前記第4の物体が動的な障害物と判断されることを含む、請求項14に記載の非一時的なコンピュータ読み取り可能な記憶媒体。
  20. 前記方法が、
    背景障害物の位置を含む、前記対象物の領域に関する事前マップ情報を取得することと、
    前記背景障害物の位置に基づいて、前記動的な障害物又は静的な障害物の検出を修正することと、
    をさらに含む、請求項14に記載の非一時的なコンピュータ読み取り可能な記憶媒体。
  21. 前記対象物から動的な障害物を検出した後に、前記方法が、
    前記第1の時点から前記第2の時点までの前記動的な障害物の移動速度を取得することと、
    前記第1の時点又は前記第2の時点における前記動的な障害物の走査位置、及び前記動的な障害物の移動速度に基づいて、第3の時点における前記動的な障害物の位置を予測することと、
    をさらに含む、請求項14に記載の非一時的なコンピュータ読み取り可能な記憶媒体。
  22. 前記第1の位置を取得することが、前記第1の時点における前記対象物をレーザー走査して、前記第1の位置を取得することを含み、
    前記第3の位置を取得することが、前記第2の時点における前記対象物をレーザー走査して、前記第3の位置を取得することを含む、請求項14に記載の非一時的なコンピュータ読み取り可能な記憶媒体。
  23. 第1の時点における対象物を走査して、前記第1の時点における対象物の走査位置である第1の位置を取得し、第2の時点における対象物を走査して、前記第2の時点における対象物の走査位置である第3の位置を取得するように構成された走査装置と、
    前記第1の位置に基づいて、前記第2の時点における対象物の第2の位置を予測し、前記第2の位置と前記第3の位置とのマッチングを行い、マッチング結果を得て、該マッチング結果に基づき、1つ以上の動的な障害物又は静的な障害物を対象物から検出するように構成されたプロセッサと、
    を備える輸送乗物。
JP2019522225A 2016-10-25 2017-10-20 障害物検出システム及び方法 Active JP6898442B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201610941455.2A CN107976688A (zh) 2016-10-25 2016-10-25 一种障碍物的检测方法及相关装置
CN201610941455.2 2016-10-25
PCT/US2017/057702 WO2018080932A1 (en) 2016-10-25 2017-10-20 System and method for obstacle detection

Publications (2)

Publication Number Publication Date
JP2019537715A true JP2019537715A (ja) 2019-12-26
JP6898442B2 JP6898442B2 (ja) 2021-07-07

Family

ID=61969515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019522225A Active JP6898442B2 (ja) 2016-10-25 2017-10-20 障害物検出システム及び方法

Country Status (7)

Country Link
US (1) US20180113234A1 (ja)
JP (1) JP6898442B2 (ja)
CN (1) CN107976688A (ja)
AU (1) AU2017351042A1 (ja)
SG (1) SG11201903488UA (ja)
TW (1) TW201816362A (ja)
WO (1) WO2018080932A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112515560A (zh) * 2020-11-06 2021-03-19 珠海市一微半导体有限公司 通过激光数据获取清扫方向的方法、芯片和机器人

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108765380A (zh) * 2018-05-14 2018-11-06 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及移动终端
EP3579161A1 (en) * 2018-06-08 2019-12-11 Hexagon Technology Center GmbH Workflow deployment
CN109085838A (zh) * 2018-09-05 2018-12-25 南京理工大学 一种基于激光定位的动态障碍物剔除算法
CN109143242B (zh) * 2018-09-07 2020-04-14 百度在线网络技术(北京)有限公司 障碍物绝对速度估计方法、系统、计算机设备和存储介质
CN109541632B (zh) * 2018-09-30 2022-06-03 天津大学 一种基于四线激光雷达辅助的目标检测漏检改进方法
CN109709961B (zh) * 2018-12-28 2021-12-07 百度在线网络技术(北京)有限公司 道路障碍物检测方法、装置及自动驾驶汽车
CN109703568B (zh) 2019-02-19 2020-08-18 百度在线网络技术(北京)有限公司 自动驾驶车辆行驶策略实时学习的方法、装置和服务器
CN109712421B (zh) 2019-02-22 2021-06-04 百度在线网络技术(北京)有限公司 自动驾驶车辆的速度规划方法、装置和存储介质
CN111923898B (zh) * 2019-05-13 2022-05-06 广州汽车集团股份有限公司 障碍物检测方法及装置
CN111426326B (zh) * 2020-01-17 2022-03-08 深圳市镭神智能系统有限公司 一种导航方法、装置、设备、系统及存储介质
CN111724598B (zh) * 2020-06-29 2022-04-05 北京百度网讯科技有限公司 用于自动驾驶规划路径的方法、装置、设备以及存储介质
CN111896969B (zh) * 2020-08-23 2022-04-08 中国长江三峡集团有限公司 一种利用激光雷达组对闸壁固定目标物进行识别的系统及方法
CN112633258B (zh) * 2021-03-05 2021-05-25 天津所托瑞安汽车科技有限公司 一种目标确定方法及装置、电子设备、计算机可读存储介质
CN113807239B (zh) * 2021-09-15 2023-12-08 京东鲲鹏(江苏)科技有限公司 一种点云数据的处理方法、装置、存储介质及电子设备
TWI827056B (zh) * 2022-05-17 2023-12-21 中光電智能機器人股份有限公司 自動移動載具及其控制方法

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07318652A (ja) * 1994-05-26 1995-12-08 Nippondenso Co Ltd 車両用障害物認識装置
JPH0933642A (ja) * 1995-07-20 1997-02-07 Mitsubishi Electric Corp 車両周辺検知装置
JP2002228734A (ja) * 2001-02-05 2002-08-14 Nissan Motor Co Ltd 周囲物体認識装置
JP2006510097A (ja) * 2002-12-16 2006-03-23 イベオ アオトモビーレ ゼンゾア ゲーエムベーハー オブジェクトを認識しかつ追跡するための方法
US20080008353A1 (en) * 2006-07-05 2008-01-10 Samsung Electronics Co., Ltd. System, method, and medium for detecting moving object using structured light, and mobile robot including system thereof
JP2010112836A (ja) * 2008-11-06 2010-05-20 Yaskawa Electric Corp 自己位置同定装置および該自己位置同定装置を備えた移動ロボット
JP2010170315A (ja) * 2009-01-22 2010-08-05 Panasonic Electric Works Co Ltd 自律移動装置
JP2011150633A (ja) * 2010-01-25 2011-08-04 Toyota Central R&D Labs Inc 対象物検出装置及びプログラム
US20110231016A1 (en) * 2010-03-17 2011-09-22 Raytheon Company Temporal tracking robot control system
US20130202197A1 (en) * 2010-06-11 2013-08-08 Edmund Cochrane Reeler System and Method for Manipulating Data Having Spatial Co-ordinates
JP2014067406A (ja) * 2012-09-24 2014-04-17 Ricoh Co Ltd 連続型道路分割体検知方法及び検知装置
JP2014173869A (ja) * 2013-03-06 2014-09-22 Denso Wave Inc 物体検出方法
JP2016057959A (ja) * 2014-09-11 2016-04-21 日立オートモティブシステムズ株式会社 車両の移動体衝突回避装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE59009901D1 (de) * 1990-09-25 1996-01-04 Heidenhain Gmbh Dr Johannes Verfahren zur Ermittlung von Werkzeugbahnkonturen bei numerisch gesteuerten Maschinen.
DE10237011A1 (de) * 2002-08-13 2004-02-26 Philips Intellectual Property & Standards Gmbh Verfahren zur Codierung von Linien
US6816109B1 (en) * 2003-08-04 2004-11-09 Northrop Grumman Corporation Method for automatic association of moving target indications from entities traveling along known route
JP4613075B2 (ja) * 2005-02-16 2011-01-12 クラリオン株式会社 地図処理装置、ナビゲーション装置及び地図表示方法
CN101732055B (zh) * 2009-02-11 2012-04-18 北京智安邦科技有限公司 驾驶员疲劳检测方法及系统
US20140253737A1 (en) * 2011-09-07 2014-09-11 Yitzchak Kempinski System and method of tracking an object in an image captured by a moving device
US10242455B2 (en) * 2015-12-18 2019-03-26 Iris Automation, Inc. Systems and methods for generating a 3D world model using velocity data of a vehicle

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07318652A (ja) * 1994-05-26 1995-12-08 Nippondenso Co Ltd 車両用障害物認識装置
JPH0933642A (ja) * 1995-07-20 1997-02-07 Mitsubishi Electric Corp 車両周辺検知装置
JP2002228734A (ja) * 2001-02-05 2002-08-14 Nissan Motor Co Ltd 周囲物体認識装置
JP2006510097A (ja) * 2002-12-16 2006-03-23 イベオ アオトモビーレ ゼンゾア ゲーエムベーハー オブジェクトを認識しかつ追跡するための方法
US20080008353A1 (en) * 2006-07-05 2008-01-10 Samsung Electronics Co., Ltd. System, method, and medium for detecting moving object using structured light, and mobile robot including system thereof
JP2010112836A (ja) * 2008-11-06 2010-05-20 Yaskawa Electric Corp 自己位置同定装置および該自己位置同定装置を備えた移動ロボット
JP2010170315A (ja) * 2009-01-22 2010-08-05 Panasonic Electric Works Co Ltd 自律移動装置
JP2011150633A (ja) * 2010-01-25 2011-08-04 Toyota Central R&D Labs Inc 対象物検出装置及びプログラム
US20110231016A1 (en) * 2010-03-17 2011-09-22 Raytheon Company Temporal tracking robot control system
US20130202197A1 (en) * 2010-06-11 2013-08-08 Edmund Cochrane Reeler System and Method for Manipulating Data Having Spatial Co-ordinates
JP2014067406A (ja) * 2012-09-24 2014-04-17 Ricoh Co Ltd 連続型道路分割体検知方法及び検知装置
JP2014173869A (ja) * 2013-03-06 2014-09-22 Denso Wave Inc 物体検出方法
JP2016057959A (ja) * 2014-09-11 2016-04-21 日立オートモティブシステムズ株式会社 車両の移動体衝突回避装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112515560A (zh) * 2020-11-06 2021-03-19 珠海市一微半导体有限公司 通过激光数据获取清扫方向的方法、芯片和机器人
CN112515560B (zh) * 2020-11-06 2022-08-05 珠海一微半导体股份有限公司 通过激光数据获取清扫方向的方法、芯片和机器人

Also Published As

Publication number Publication date
AU2017351042A1 (en) 2019-05-09
SG11201903488UA (en) 2019-05-30
JP6898442B2 (ja) 2021-07-07
CN107976688A (zh) 2018-05-01
WO2018080932A1 (en) 2018-05-03
TW201816362A (zh) 2018-05-01
WO2018080932A8 (en) 2019-05-09
US20180113234A1 (en) 2018-04-26

Similar Documents

Publication Publication Date Title
JP6898442B2 (ja) 障害物検出システム及び方法
CN110807350B (zh) 用于面向扫描匹配的视觉slam的系统和方法
JP6972757B2 (ja) 制御プログラム、制御方法、及び情報処理装置
JP6672212B2 (ja) 情報処理装置、車両、情報処理方法およびプログラム
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101784183B1 (ko) ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101503903B1 (ko) 이동 로봇의 지도 구성 장치 및 방법
JP6405778B2 (ja) 対象追跡方法及び対象追跡装置
CN110749901B (zh) 自主移动机器人及其地图拼接方法、装置和可读存储介质
KR20100031277A (ko) 전방 영상을 이용한 위치 인식 장치 및 방법
CN113432533B (zh) 一种机器人定位方法、装置、机器人及存储介质
JP5205366B2 (ja) 移動可能領域抽出装置、移動可能領域抽出システム、移動可能領域抽出方法、およびプログラム
WO2021016854A1 (zh) 一种标定方法、设备、可移动平台及存储介质
JP4660569B2 (ja) 物体検出装置及び物体検出方法
US9025022B2 (en) Method and apparatus for gesture recognition using a two dimensional imaging device
CN115661299A (zh) 车道线地图的构建方法、计算机设备及存储介质
US11948312B2 (en) Object detection/tracking device, method, and program recording medium
JP2015141580A (ja) 移動装置
JP5765163B2 (ja) 自己位置推定装置、方法、及びプログラム
JP6577595B2 (ja) 車両用外界認識装置
CN110570680A (zh) 利用地图信息确定对象位置的方法和系统
JP2012225752A (ja) 移動体追跡装置及び移動体追跡方法
JP7407018B2 (ja) 捜索支援システム、捜索支援方法
KR20180082739A (ko) 단일 카메라를 이용한 영상에서 움직이는 객체 검출 방법 및 시스템
KR102139667B1 (ko) 정보 획득 방법 및 디바이스.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210610

R150 Certificate of patent or registration of utility model

Ref document number: 6898442

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150