JP6523196B2 - 推定装置、方法及びプログラム - Google Patents

推定装置、方法及びプログラム Download PDF

Info

Publication number
JP6523196B2
JP6523196B2 JP2016054473A JP2016054473A JP6523196B2 JP 6523196 B2 JP6523196 B2 JP 6523196B2 JP 2016054473 A JP2016054473 A JP 2016054473A JP 2016054473 A JP2016054473 A JP 2016054473A JP 6523196 B2 JP6523196 B2 JP 6523196B2
Authority
JP
Japan
Prior art keywords
moving body
orientation
measurement point
points
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016054473A
Other languages
English (en)
Other versions
JP2017167974A (ja
Inventor
豪 田崎
豪 田崎
雄土 山地
雄土 山地
学 西山
学 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2016054473A priority Critical patent/JP6523196B2/ja
Priority to US15/260,598 priority patent/US10275900B2/en
Priority to EP17157010.4A priority patent/EP3223035B1/en
Publication of JP2017167974A publication Critical patent/JP2017167974A/ja
Application granted granted Critical
Publication of JP6523196B2 publication Critical patent/JP6523196B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Electromagnetism (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Geometry (AREA)
  • Algebra (AREA)
  • Pure & Applied Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)

Description

本発明の実施形態は、推定装置、方法及びプログラムに関する。
従来から、第1移動体(例えば、自車両)の周囲に存在する第2移動体(例えば、他車両)の位置及び姿勢を推定する技術が知られている。例えば、自車両の周囲を3次元計測し、この3次元計測で得られる計測点の時系列の対応を取ることで求められる他車両の移動ベクトルと、車車間通信により他車両から取得した他車両の移動ベクトルと、の一致度を利用することで、他車両の位置及び姿勢を推定する技術が知られている。
特許第4918807号公報
しかしながら、上述したような従来技術では、第1移動体からの第2移動体の距離が遠くなるほど計測点の計測精度が悪くなる。このため、第1移動体からの第2移動体の距離が遠くなるほど、計測に基づいて求められる第2移動体の移動ベクトルの精度も悪くなり、第2移動体の位置及び姿勢の推定精度も悪くなる。
本発明が解決しようとする課題は、第1移動体の周囲に存在する第2移動体の位置及び姿勢の推定精度を向上させることができる推定装置、方法及びプログラムを提供することである。
実施形態の推定装置は、第1取得部と、第1推定部と、分類部と、第2取得部と、第2推定部と、を備える。第1取得部は、第1移動体の周囲を計測した第1計測点群を定期的に取得する。第1推定部は、前記第1移動体の位置及び姿勢を推定する。分類部は、前記位置及び姿勢と、最新の第1計測点群よりも過去に取得された過去の第1計測点群と、に基づいて、前記最新の第1計測点群のうち前記第1移動体以外の第2移動体上の計測点の候補となる複数の第1計測点を、複数の候補点に分類する。第2取得部は、前記第2移動体から、前記第2移動体の位置と、前記第2移動体の車幅及び車長の少なくともいずれかである辺長と、を含む第2移動体情報を取得する。第2推定部は、前記第2移動体情報から特定される領域の向きと前記複数の候補点との位置関係で定まる第1尤度を用いて評価値を算出し、当該評価値に基づいて、前記第2移動体の位置及び姿勢を推定する。
本実施形態の推定装置の構成例を示す図。 本実施形態の距離センサのレーザ照射態様例を示す図。 本実施形態の距離センサのレーザ照射態様例を示す図。 本実施形態の第1計測点群例を示す図。 本実施形態の分類手法例を示す説明図。 本実施形態の第1尤度算出例を示す説明図。 本実施形態の第1尤度算出例を示す説明図。 本実施形態の第1尤度算出例を示す説明図。 本実施形態の第1尤度算出例を示す説明図。 本実施形態の処理例を示すフローチャート。 変形例1の第1計測点群及び第2計測点群例を示す図。 変形例2の推定装置の構成例を示す図。 変形例2の第2尤度算出例を示す説明図。 実施形態及び各変形例の推定装置のハードウェア構成例を示す図。
以下、添付図面を参照しながら、実施形態を詳細に説明する。
図1は、本実施形態の推定装置10の構成の一例を示す図である。図1に示すように、推定装置10は、距離センサ2を備える移動体1(第1移動体の一例)に搭載され、第1取得部11と、第1推定部13と、分類部15と、第2取得部17と、第2推定部19と、出力部21と、を備える。
本実施形態では、移動体が、自動車などの車両である場合を例に取り説明するが、これに限定されるものではない。移動体は、例えば、船舶や移動ロボットなど移動可能な物体であればどのようなものであってもよい。
距離センサ2としては、例えば、レーザセンサ及び画像センサ(カメラ)の少なくともいずれかなどが挙げられる。距離センサ2は、センシングした情報を推定装置10に出力する。
推定装置10は、移動体1の周囲に存在する当該移動体1以外の移動体(第2移動体の一例)の位置及び姿勢を推定するものであり、例えば、コンピュータなどが挙げられる。なお、移動体1としては、自移動体(自車両)が挙げられ、移動体1以外の移動体としては、他移動体(他車両)が挙げられる。
第1取得部11、第1推定部13、分類部15、第2取得部17、第2推定部19、及び出力部21は、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、即ち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェア及びハードウェアを併用して実現してもよい。
第1取得部11は、移動体1の周囲を計測した第1計測点群を定期的に取得する。具体的には、第1取得部11は、距離センサ2によりセンシングが行われる毎に、センシングされた情報に基づいて、移動体1の周囲を3次元計測し、3次元計測した計測点の集合である第1計測点群を得る。本実施形態では、第1計測点群は、移動体1の周囲に存在する障害物を表す。障害物としては、他移動体などの動的障害物や構造物などの静的障害物が挙げられる。
なお、第1取得部11は、公知の3次元点計測手法を用いて、3次元計測を行えばよい。
例えば、距離センサ2が画像センサである場合、距離センサ2は、移動体1の周囲を時系列で順次撮像し、第1取得部11は、距離センサ2により時系列で撮像された複数の画像それぞれから特徴点を検出し、検出した画像上の特徴点を時系列で追跡することで、画像上の特徴点に対応する実空間上の計測点を3次元計測し、第1計測点群を得る。
また例えば、距離センサ2がレーザセンサである場合、距離センサ2は、移動体1の周囲にレーザを照射し、当該レーザの照射光と反射光との位相差や反射までの反射時間をセンシングし、第1取得部11は、レーザセンサによりセンシングされた位相差や反射時間を用いて、レーザが照射された計測点を3次元計測し、第1計測点群を得る。
なお、距離センサ2がレーザセンサである場合、距離センサ2は、図2に示すように、2次元でレーザを照射する(高さ固定でレーザを照射する)レーザセンサであってもよいし、図3に示すように、3次元でレーザを照射する(高さ非固定でレーザを照射する)レーザセンサであってもよい。
距離センサ2が2次元でレーザを照射する場合、第1計測点群は、2次元(レーザを照射した高さを基準とした平面上)の第1計測点の集合となり、距離センサ2が3次元でレーザを照射する場合、第1計測点群は、3次元の第1計測点の集合となる。
以下では、説明の便宜上、第1計測点群が、図4に示すような、2次元の平面上における第1計測点の集合である場合を例に取り説明する。なお、距離センサ2が画像センサである場合であっても、特定の高さの第1計測点の集合を第1計測点群とすれば、図4に示すような第1計測点群が得られる。
図4に示す例では、移動体1の周囲に、動的障害物である他移動体31、32、及び静的障害物である構造物41、42、43が存在しており、第1計測点群として、計測点51〜56及び計測点61〜68が得られている。なお、第1取得部11により第1計測点群が取得された段階では、推定装置10において、取得された第1計測点群を構成する各計測点がいずれの障害物を表す計測点であるか未知である。
第1推定部13は、移動体1の位置及び姿勢を推定する。なお、第1推定部13は、公知の姿勢算出手法を用いて、移動体1の位置及び姿勢を推定すればよく、例えば、距離センサ2によりセンシングが行われる毎に、センシングされた情報に基づいて、移動体1の位置及び姿勢を推定する。
例えば、距離センサ2が画像センサである場合、第1推定部13は、距離センサ2により時系列で撮像された複数の画像それぞれから第1取得部11により検出された画像上の特徴点を時系列で追跡することで、過去の移動体1の位置及び姿勢から見た最新(現時点)の移動体1の位置及び姿勢を推定する。なお、第1推定部13自身で、距離センサ2により時系列で撮像された複数の画像それぞれから特徴点を検出するようにしてもよい。
また例えば、距離センサ2がレーザセンサである場合、第1推定部13は、第1取得部11により得られた第1計測点を時系列で対応付けることで、過去の移動体1の位置及び姿勢から見た最新の移動体1の位置及び姿勢を推定する。
なお、第1推定部13は、距離センサ2によりセンシングされた情報ではなく、GPS(Global Positioning System)などの位置センサや、IMU(Inertial Measurement Unit)などの姿勢センサによりセンシングされた情報を用いて、最新の移動体1の位置及び姿勢を直接推定するようにしてもよい。
分類部15は、第1推定部13により推定された移動体1の位置及び姿勢と、第1取得部11により取得された最新の第1計測点群よりも過去に取得された過去の第1計測点群と、に基づいて、当該最新の第1計測点群のうち移動体1以外の他移動体上の計測点の候補となる複数の第1計測点を、複数の候補点に分類する。なお分類部15は、最新の第1計測点群のうち他移動体上の計測点の候補となる複数の第1計測点以外の第1計測点については、静止点に分類する。
具体的には、分類部15は、最新の第1計測点群を取得した際の移動体1の位置及び姿勢から見た座標系に、最新の第1計測点群及び過去の第1計測点群を投影する。そして分類部15は、最新の第1計測点群と過去の第1計測点群とから、対応する最新の第1計測点と過去の第1計測点とのペアを抽出し、両第1計測点間の距離が分類用の閾値距離内であるか否かを判定し、分類用の閾値距離内であれば、当該最新の第1計測点を静止点に分類し、分類用の閾値距離内でなければ、当該最新の第1計測点を候補点に分類する。
図5は、本実施形態の分類手法の一例を示す説明図である。図5に示す例では、最新の第1計測点群を取得した際の移動体1の位置及び姿勢から見た座標系に、最新の第1計測点群を構成する最新の計測点51〜56及び最新の計測点61〜68、及び過去の第1計測点群を構成する過去の計測点71〜76及び最新の計測点81〜88が投影されている。なお、最新の計測点51〜56及び最新の計測点61〜68は、それぞれ、過去の計測点71〜76及び最新の計測点81〜88に対応するものとする。なお、計算上は、最新の計測点と最も近い位置にある投影された過去の計測点とを対応付けている。
この場合、最新の計測点51については、対応する過去の計測点71との距離が分類用の閾値距離内でないため、候補点に分類される。説明は省略するが、最新の計測点52〜56についても同様に候補点に分類される。なお、図4で図示した通り、計測点51〜56は、他移動体31、32を表す計測点であり、時系列の変化に伴い移動するため、対応する過去の計測点との距離が分類用の閾値距離内とならない。
一方、最新の計測点61については、対応する過去の計測点81との距離が分類用の閾値距離内であるため、静止点に分類される。説明は省略するが、最新の計測点62〜68についても静止点に分類される。なお、図4で図示した通り、計測点61〜68は、構造物41、42、43を表す計測点であり、時系列の変化に伴い移動しないため、対応する過去の計測点との距離が分類用の閾値距離内となる。
第2取得部17は、移動体1以外の他移動体から、当該他移動体の位置と、当該他移動体の車幅及び車長の少なくともいずれかである辺長と、を含む第2移動体情報を取得する。但し、第2移動体情報に含まれる情報は、これらに限定されず、他移動体の姿勢なども含まれていてもよい。なお本実施形態では、第2移動体情報に含まれる情報が、他移動体の位置と、当該他移動体の車幅である場合を例に取り説明する。
具体的には、第2取得部17は、車車間通信などにより、移動体1から所定範囲内に位置する他移動体と無線通信を行い、当該他移動体から第2移動体情報を取得する。なお第1実施形態では、所定範囲が、移動体1の現在の制動距離を入力とした単調増加関数で求まる距離の範囲であるものとする。例えば、制動距離がk[m]である場合、所定範囲は、定数a、bを用いて、ak+b[m]の範囲とすればよい。つまり第1実施形態では、所定範囲は、移動体1の制動距離が長くなるほど広くなる。なお、単調増加関数に上限下限を設定し、単調増加関数で求まる距離が上限を上回る場合は上限値に、下限を下回る場合には下限値に、単調増加関数で求まる距離を丸め込むようにしてもよい。但し、所定範囲はこれに限定されず、予め定めた範囲内としてもよい。
第2推定部19は、第2取得部17により取得された第2移動体情報から特定される領域の向きと、分類部15により分類される複数の候補点と、の位置関係で定まる第1尤度を用いて評価値を算出し、当該評価値に基づいて、他移動体の位置及び姿勢を推定する。具体的には、第2推定部19は、評価値が最も高くなる向きの領域を、他移動体の位置及び姿勢に推定する。
例えば、第2推定部19は、第2取得部17により取得された第2移動体情報に含まれる他移動体の位置から領域設定用の閾値範囲内において、車幅を第2移動体情報に含まれる他移動体の車幅に固定、車長及び向きを様々に変化させた複数の領域である他移動体の複数の位置姿勢候補を設定する。そして第2推定部19は、設定した位置姿勢候補毎に、当該位置姿勢候補と分類部15により分類される複数の候補点との位置関係で定まる第1尤度を算出する。
第1尤度としては、領域(位置姿勢候補)の外形から第1閾値距離内に含まれる候補点の数が多くなるほど値が高くなる尤度(外形尤度)が挙げられる。例えば、他移動体の領域設定用の閾値範囲に候補点となる計測点51〜54が含まれるとする。この場合、図6に示す位置姿勢候補91の外形上には、計測点51〜54が存在し、外形から第1閾値距離内に含まれる候補点の数が4となる。一方、図7に示す位置姿勢候補92の外形上には、計測点52、54が存在し、外形から第1閾値距離内に含まれる候補点の数が2となる。このため、位置姿勢候補91と位置姿勢候補92を比較した場合、位置姿勢候補91の方が位置姿勢候補92よりも第1尤度が高くなり、第1尤度をそのまま評価値とした場合、位置姿勢候補91が、他車両の位置及び姿勢に推定される。
また、第1尤度としては、移動体1(詳細には、距離センサ2)と領域(位置姿勢候補)との間に位置する静止点の数が少なくなるほど値が高くなる尤度(遮蔽尤度)が挙げられる。例えば、他移動体の領域設定用の閾値範囲に候補点となる計測点51〜54及び静止点となる計測点95が含まれるとする。この場合、図8に示すように、移動体1と位置姿勢候補91(詳細には、位置姿勢候補91の外形)との間には、静止点は含まれておらず、移動体1と位置姿勢候補91との間に位置する静止点の数が0となる。一方、図9に示すように、移動体1と位置姿勢候補96(詳細には、位置姿勢候補96の外形)との間には、静止点95が含まれており、移動体1と位置姿勢候補96との間に位置する静止点の数が1となる。このため、位置姿勢候補91と位置姿勢候補96を比較した場合、位置姿勢候補91の方が位置姿勢候補96よりも第1尤度が高くなり、第1尤度をそのまま評価値とした場合、位置姿勢候補91が、他車両の位置及び姿勢に推定される。なお、遮蔽尤度の具体的な値としては、候補点数−移動体1と位置姿勢候補との間に位置する静止点数などとすることもできる。
なお上述のように、第1尤度をそのまま評価値としてもよいし、複数の第1尤度(例えば、外形尤度と遮蔽尤度)を統合した値を評価値としてもよい。この場合、第2推定部19は、各第1尤度を正規化し、和積演算を行うことで評価値とすればよい。和積演算は、正規化した各尤度を単純に足し合わせるだけであっても掛け合わせるだけであってもよい。
また、第2移動体情報に他移動体の車幅ではなく車長が含まれる場合には、第2推定部19は、車長を第2移動体情報に含まれる他移動体の車長に固定、車幅及び向きを様々に変化させた複数の領域である他移動体の複数の位置姿勢候補を設定すればよい。
また、第2移動体情報に他移動体の車幅だけでなく車長も含まれる場合には、第2推定部19は、車幅を第2移動体情報に含まれる他移動体の車幅に固定、車長を第2移動体情報に含まれる他移動体の車長に固定、向きを様々に変化させた複数の領域である他移動体の複数の位置姿勢候補を設定すればよい。
また、第2移動体情報に他移動体の姿勢も含まれる場合には、第2推定部19は、向きについては、第2移動体情報に含まれる姿勢を向き用の閾値範囲で変化させて、複数の領域である他移動体の複数の位置姿勢候補を設定すればよい。
出力部21は、第2推定部19により推定された他移動体の位置及び姿勢を出力する。例えば、出力部21は、第2推定部19により推定された他移動体の位置及び姿勢を、移動体1の制御系に出力し、移動体1の各種制御に用いられるようにしてもよい。
図10は、本実施形態の処理の手順の流れの一例を示すフローチャートである。なお、図10に示す処理は、定期的に行われる。
まず、第1取得部11は、移動体1(第1移動体)の周囲を計測した第1計測点群を取得する(ステップS101)。
続いて、第1推定部13は、移動体1(第1移動体)の位置及び姿勢を推定する(ステップS103)。
続いて、分類部15は、第1推定部13により推定された移動体1(第1移動体)の位置及び姿勢と、第1取得部11により取得された最新の第1計測点群よりも過去に取得された過去の第1計測点群と、に基づいて、当該最新の第1計測点群のうち他移動体(第2移動体)上の計測点の候補となる複数の第1計測点を候補点に分類し、当該候補となる複数の第1計測点以外の第1計測点を静止点に分類する(ステップS105)。
続いて、第2取得部17は、他移動体(第2移動体)から、当該他移動体の位置と、当該他移動体の車幅及び車長の少なくともいずれかである辺長と、を含む第2移動体情報を取得する(ステップS107)。
続いて、第2推定部19は、第2取得部17により取得された第2移動体情報に含まれる他移動体(第2移動体)の位置から領域設定用の閾値範囲内において、車幅を第2移動体情報に含まれる他移動体の車幅に固定、車長及び向きを様々に変化させた複数の領域である他移動体の複数の位置姿勢候補を設定する(ステップS109)。
続いて、第2推定部19は、分類部15により分類された複数の候補点に基づいて、他移動体(第2移動体)の各位置姿勢候補の第1尤度を算出することで、各位置姿勢候補の評価値を算出する(ステップS111)。
続いて、第2推定部19は、評価値が最も高くなる位置姿勢候補を、他移動体の位置及び姿勢に推定する(ステップS113)。
続いて、出力部21は、第2推定部19により推定された他移動体の位置及び姿勢を出力する(ステップS115)。
以上のように本実施形態によれば、移動体1の周囲に存在する他移動体の距離が遠くなり(例えば、50m以上離れていても)、他移動体を表す計測点の密度が疎である場合であっても、他移動体の位置及び姿勢の推定精度を向上させることができる。
(変形例1)
上記実施形態において、他移動体から取得した計測点を更に用いるようにしてもよい。変形例1については、図11を参照しながら説明する。
この場合、第2取得部17は、他移動体31(第3移動体の一例)から、当該第3移動体の周囲を計測した第2計測点群を更に取得する。
また第1推定部13は、第2取得部17により取得された第2計測点群を構成する第2計測点のうち最新の第1計測点群を構成する第1計測点と第2閾値距離内に位置する第2計測点に更に基づいて、移動体1の位置及び姿勢を推定する。
図11に示す例では、移動体1の周囲に、動的障害物である他移動体31、32、及び静的障害物である構造物41、42、43、144が存在しており、第1計測点群として、計測点51〜56及び計測点61〜68が得られ、他移動体31から得られた第2計測点群として、計測点155、156、164、165、167、及び181〜183が得られている。
なお、第1推定部13は、第2取得部17により取得された第2計測点が他移動体上で定義される他移動体座標系である場合は、他移動体位置及び姿勢と、自移動体の位置及び姿勢から、自移動体座標系に投影すればよい。また、第1推定部13は、第2取得部17により取得された第2計測点が世界座標系である場合は、自移動体の位置及び姿勢から、自移動体座標系に投影すればよい。
ここで、計測点155、156、164、165、167は、それぞれ、計測点55、56、64、65、67に対応するものとする。また、計測点155、156、164、165、167については、それぞれ、対応する計測点55、56、64、65、67との距離が第2閾値距離内であるものとする。また、計測点181〜183については、対応する計測点が存在せず、対応する計測点との距離が第2閾値距離内でないものとする。
この場合、第1推定部13は、第1計測点群を構成する計測点51〜56及び計測点61〜68だけでなく、計測点155、156、164、165、167も用いて、移動体1の位置及び姿勢を推定する。
また分類部15は、前記複数の第1計測点、及び第1計測点と第2閾値距離内に位置する複数の第2計測点を、複数の候補点に分類する。つまり分類部15は、複数の第1計測点だけでなく、自移動体の位置及び姿勢に用いられた第2計測点についても、上記実施形態で説明した手法で候補点又は静止点に分類する。
(変形例2)
上記実施形態において、第1尤度に加え第2尤度を用いて評価値を求めてもよい。
図12は、変形例2の推定装置110の構成の一例を示す図である。図12に示すように、推定装置110は、第2推定部119及び第3取得部123が上記実施形態と相違する。
第3取得部123は、移動体101(第1移動体)の周囲を撮像した画像を更に取得する。
第2推定部119は、第3取得部123により取得された画像から他移動体が位置する画像領域を抽出するとともに、複数の候補点を当該画像上に投影し、当該画像領域に含まれる候補点の数で定まる第2尤度を更に算出し、第1尤度及び第2尤度を用いて評価値を算出する。なお、第2尤度は、画像領域に含まれる候補点の数が多くなるほど値が大きくなる。
例えば、第2推定部119は、図13に示すように、第3取得部123により取得された画像221から他移動体が位置する画像領域230を抽出するとともに、分類部15により候補点に分類された計測点201、202を、それぞれ、投影点241、242として画像221上に投影する。そして第2推定部119は、画像領域230に含まれる候補点(詳細には、投影点)の数から、第2尤度を更に算出する。なお、第1尤度の算出手法は、第1実施形態と同様であり、第1尤度及び第2尤度を統合した評価値の求め方については、第1実施形態の手法を用いればよい。
(ハードウェア構成)
図14は、実施形態及び変形例の推定装置のハードウェア構成の一例を示す図である。図14に示すように、実施形態及び変形例の推定装置は、CPUなどの制御装置901と、ROMやRAMなどの主記憶装置902と、HDDやSSDなどの補助記憶装置903と、ディスプレイなどの表示装置904と、キーボードやマウスなどの入力装置905と、通信インタフェースなどの通信装置906と、を備えており、通常のコンピュータを利用したハードウェア構成となっている。
実施形態及び変形例の推定装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供される。
また、実施形態及び変形例の推定装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、実施形態及び変形例の推定装置で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、実施形態及び変形例の推定装置で実行されるプログラムを、ROM等に予め組み込んで提供するようにしてもよい。
実施形態及び変形例の推定装置で実行されるプログラムは、上述した各部をコンピュータ上で実現させるためのモジュール構成となっている。実際のハードウェアとしては、CPUがROMやHDDなどからプログラムをRAM上に読み出して実行することにより、上記各部がコンピュータ上で実現されるようになっている。
本発明は、上記実施形態及び変形例そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態及び変形例に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、上記実施形態及び変形例に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせても良い。
例えば、実施形態のフローチャートにおける各ステップを、その性質に反しない限り、実行順序を変更し、複数同時に実施し、あるいは実施毎に異なった順序で実施してもよい。
以上のように、上記実施形態及び変形例によれば、第1移動体の周囲に存在する第2移動体の位置及び姿勢の推定精度を向上させることができる。
1、101 移動体
2 距離センサ
10、110 推定装置
11 第1取得部
13 第1推定部
15 分類部
17 第2取得部
19、119 第2推定部
21 出力部
123 第3取得部
901 制御装置
902 主記憶装置
903 補助記憶装置
904 表示装置
905 入力装置
906 通信装置

Claims (9)

  1. 第1移動体の周囲を計測した第1計測点群を定期的に取得する第1取得部と、
    前記第1移動体の位置及び姿勢を推定する第1推定部と、
    前記位置及び姿勢と、最新の第1計測点群よりも過去に取得された過去の第1計測点群と、に基づいて、前記最新の第1計測点群のうち前記第1移動体以外の第2移動体上の計測点の候補となる複数の第1計測点を、複数の候補点に分類する分類部と、
    前記第2移動体から、前記第2移動体の位置と、前記第2移動体の車幅及び車長の少なくともいずれかである辺長と、を含む第2移動体情報を取得する第2取得部と、
    前記第2移動体情報に基づいて設定される、前記第2移動体の位置及び姿勢の候補を示す複数の位置姿勢候補それぞれと、前記複数の候補点と、の位置関係で定まる第1尤度を用いて、複数の前記位置姿勢候補それぞれの評価値を算出し、当該評価値に基づいて、前記第2移動体の位置及び姿勢を推定する第2推定部と、
    を備える推定装置。
  2. 前記第2推定部は、前記評価値が最も高くなる前記位置姿勢候補が示す位置及び姿勢を、前記第2移動体の位置及び姿勢に推定する請求項1に記載の推定装置。
  3. 前記第1尤度は、前記位置姿勢候補の外形から第1閾値距離内に含まれる候補点の数が多くなるほど値が高くなる尤度である請求項1に記載の推定装置。
  4. 前記分類部は、前記最新の第1計測点群のうち前記複数の第1計測点以外の第1計測点を静止点に分類し、
    前記第1尤度は、前記第1移動体と前記位置姿勢候補との間に位置する前記静止点の数が少なくなるほど値が高くなる尤度である請求項1に記載の推定装置。
  5. 前記第2移動体は、前記第1移動体から所定範囲内に位置し、
    前記所定範囲は、前記第1移動体の制動距離が長くなるほど広くなる請求項1に記載の推定装置。
  6. 前記第2取得部は、第3移動体から、当該第3移動体の周囲を計測した第2計測点群を更に取得し、
    前記第1推定部は、前記第2計測点群を構成する第2計測点のうち前記最新の第1計測点群を構成する第1計測点と第2閾値距離内に位置する第2計測点に更に基づいて、前記第1移動体の位置及び姿勢を推定し、
    前記分類部は、前記複数の第1計測点、及び前記第1計測点と第2閾値距離内に位置する複数の第2計測点を、前記複数の候補点に分類する請求項1に記載の推定装置。
  7. 前記第1移動体の周囲を撮像した画像を更に取得する第3取得部を更に備え、
    前記第2推定部は、前記画像から前記第2移動体が位置する画像領域を抽出するとともに、前記複数の候補点を前記画像上に投影し、前記画像領域に含まれる前記候補点の数で定まる第2尤度を更に算出し、前記第1尤度及び前記第2尤度を用いて前記評価値を算出する請求項1に記載の推定装置。
  8. コンピュータが、第1移動体の周囲を計測した第1計測点群を定期的に取得する第1取得ステップと、
    前記コンピュータが、前記第1移動体の位置及び姿勢を推定する第1推定ステップと、
    前記コンピュータが、前記位置及び姿勢と、最新の第1計測点群よりも過去に取得された過去の第1計測点群と、に基づいて、前記最新の第1計測点群のうち前記第1移動体以外の第2移動体上の計測点の候補となる複数の第1計測点を、複数の候補点に分類する分類ステップと、
    前記コンピュータが、前記第2移動体から、前記第2移動体の位置と、前記第2移動体の車幅及び車長の少なくともいずれかである辺長と、を含む第2移動体情報を取得する第2取得ステップと、
    前記コンピュータが、前記第2移動体情報に基づいて設定される、前記第2移動体の位置及び姿勢の候補を示す複数の位置姿勢候補それぞれと、前記複数の候補点と、の位置関係で定まる第1尤度を用いて、複数の前記位置姿勢候補それぞれの評価値を算出し、当該評価値に基づいて、前記第2移動体の位置及び姿勢を推定する第2推定ステップと、
    を含む推定方法。
  9. 第1移動体の周囲を計測した第1計測点群を定期的に取得する第1取得ステップと、
    前記第1移動体の位置及び姿勢を推定する第1推定ステップと、
    前記位置及び姿勢と、最新の第1計測点群よりも過去に取得された過去の第1計測点群と、に基づいて、前記最新の第1計測点群のうち前記第1移動体以外の第2移動体上の計測点の候補となる複数の第1計測点を、複数の候補点に分類する分類ステップと、
    前記第2移動体から、前記第2移動体の位置と、前記第2移動体の車幅及び車長の少なくともいずれかである辺長と、を含む第2移動体情報を取得する第2取得ステップと、
    前記第2移動体情報に基づいて設定される、前記第2移動体の位置及び姿勢の候補を示す複数の位置姿勢候補それぞれと、前記複数の候補点と、の位置関係で定まる第1尤度を用いて、複数の前記位置姿勢候補それぞれの評価値を算出し、当該評価値に基づいて、前記第2移動体の位置及び姿勢を推定する第2推定ステップと、
    をコンピュータに実行させるためのプログラム。
JP2016054473A 2016-03-17 2016-03-17 推定装置、方法及びプログラム Active JP6523196B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016054473A JP6523196B2 (ja) 2016-03-17 2016-03-17 推定装置、方法及びプログラム
US15/260,598 US10275900B2 (en) 2016-03-17 2016-09-09 Estimation apparatus, estimation method, and computer program product
EP17157010.4A EP3223035B1 (en) 2016-03-17 2017-02-20 Estimation apparatus, estimation method and computer-readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016054473A JP6523196B2 (ja) 2016-03-17 2016-03-17 推定装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2017167974A JP2017167974A (ja) 2017-09-21
JP6523196B2 true JP6523196B2 (ja) 2019-05-29

Family

ID=58544690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016054473A Active JP6523196B2 (ja) 2016-03-17 2016-03-17 推定装置、方法及びプログラム

Country Status (3)

Country Link
US (1) US10275900B2 (ja)
EP (1) EP3223035B1 (ja)
JP (1) JP6523196B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111373442A (zh) * 2017-11-20 2020-07-03 松下电器(美国)知识产权公司 三维点群数据生成方法、位置推断方法、三维点群数据生成装置以及位置推断装置
JP6847885B2 (ja) * 2018-03-20 2021-03-24 株式会社東芝 情報処理装置、情報処理方法及びプログラム
JP7490359B2 (ja) * 2019-12-24 2024-05-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7409959B2 (ja) * 2020-05-01 2024-01-09 株式会社Soken 物体検出装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07114076B2 (ja) * 1987-10-20 1995-12-06 シャープ株式会社 半導体記憶装置
US5008816A (en) * 1987-11-06 1991-04-16 International Business Machines Corporation Data processing system with multi-access memory
JPH05103309A (ja) * 1991-10-04 1993-04-23 Canon Inc 情報伝送方法及び装置
JP3664110B2 (ja) * 2001-07-04 2005-06-22 日産自動車株式会社 物体種別判定装置及び物体種別判定方法
JP4918807B2 (ja) 2006-04-06 2012-04-18 トヨタ自動車株式会社 車両位置演算装置、車両選定方法
JP2009255600A (ja) 2006-06-30 2009-11-05 Nec Corp 通信相手特定装置及び通信相手特定方法、通信相手特定用プログラム
JP2009098023A (ja) * 2007-10-17 2009-05-07 Toyota Motor Corp 物体検出装置及び物体検出方法
JP4775391B2 (ja) 2008-03-18 2011-09-21 株式会社デンソー 障害物検出装置
JP5470886B2 (ja) * 2009-02-12 2014-04-16 トヨタ自動車株式会社 物体検出装置
DE102010011093A1 (de) * 2010-03-11 2011-09-15 Daimler Ag Verfahren zur Bestimmung einer Fahrzeugaufbaubewegung
WO2011125135A1 (ja) * 2010-04-09 2011-10-13 株式会社 東芝 衝突回避支援装置
JP5615862B2 (ja) * 2012-03-07 2014-10-29 クラリオン株式会社 車両周囲監視装置
US9086481B1 (en) * 2013-01-18 2015-07-21 Google Inc. Methods and systems for estimating vehicle speed
JP6370038B2 (ja) * 2013-02-07 2018-08-08 キヤノン株式会社 位置姿勢計測装置及び方法
JP6092698B2 (ja) 2013-04-23 2017-03-08 Kddi株式会社 動きデータセグメント決定装置、動きデータセグメント決定方法およびコンピュータプログラム
JP5796597B2 (ja) 2013-04-26 2015-10-21 株式会社デンソー 車両判定方法及び車両判定装置
JP2015225450A (ja) 2014-05-27 2015-12-14 村田機械株式会社 自律走行車、及び自律走行車における物体認識方法

Also Published As

Publication number Publication date
US10275900B2 (en) 2019-04-30
JP2017167974A (ja) 2017-09-21
EP3223035B1 (en) 2018-09-12
US20170270682A1 (en) 2017-09-21
EP3223035A1 (en) 2017-09-27

Similar Documents

Publication Publication Date Title
CN107016705B (zh) 计算机视觉系统中的地平面估计
JP7082545B2 (ja) 情報処理方法、情報処理装置およびプログラム
JP6477882B2 (ja) 自己位置推定装置及び自己位置推定方法
JP6523196B2 (ja) 推定装置、方法及びプログラム
JP5728815B2 (ja) 物体検出装置
JP2016045150A (ja) 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法およびプログラム
JP5586967B2 (ja) ロボットおよびロボットシステム
JP6712775B2 (ja) 路面推定装置、車両制御装置、路面推定方法、およびプログラム
JP6499047B2 (ja) 計測装置、方法及びプログラム
JP4660569B2 (ja) 物体検出装置及び物体検出方法
KR101877001B1 (ko) 가상 라인 생성 방법, 역주행 검출 시스템 및 그 방법
JP7343054B2 (ja) 位置推定方法、位置推定装置、および位置推定プログラム
JP7424390B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP2008134743A (ja) 自己位置認識方法
JP2015206768A (ja) 前景領域抽出装置、前景領域抽出方法及びプログラム
JP5652239B2 (ja) 運動推定装置及びプログラム
JP2018205950A (ja) 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム
JP5614118B2 (ja) ランドマーク検知方法、ロボット及びプログラム
US11288554B2 (en) Determination method and determination device
JP2010152787A (ja) 環境地図生成プログラム、環境地図生成方法及び移動ロボット
JP2010009236A (ja) 平面領域推定装置及びプログラム
US20210402616A1 (en) Information processing apparatus, information processing method, mobile robot, and non-transitory computer-readable storage medium
JP2007263725A (ja) 物体判定装置、方法及びプログラム
CN115131752A (zh) 学习方法、学习装置以及程序记录介质
JP6670712B2 (ja) 自己位置推定装置、移動体及び自己位置推定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190425

R151 Written notification of patent or utility model registration

Ref document number: 6523196

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151