JP6938846B2 - 物体認識装置 - Google Patents

物体認識装置 Download PDF

Info

Publication number
JP6938846B2
JP6938846B2 JP2016049615A JP2016049615A JP6938846B2 JP 6938846 B2 JP6938846 B2 JP 6938846B2 JP 2016049615 A JP2016049615 A JP 2016049615A JP 2016049615 A JP2016049615 A JP 2016049615A JP 6938846 B2 JP6938846 B2 JP 6938846B2
Authority
JP
Japan
Prior art keywords
cluster
point cloud
integrated
object recognition
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016049615A
Other languages
English (en)
Other versions
JP2017166846A (ja
Inventor
映 酒井
映 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016049615A priority Critical patent/JP6938846B2/ja
Publication of JP2017166846A publication Critical patent/JP2017166846A/ja
Application granted granted Critical
Publication of JP6938846B2 publication Critical patent/JP6938846B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、自車両の周囲に位置する物体を認識する物体認識装置に関する。
上記の物体認識装置として、レーザレーダによって得られる距離情報に含まれるマルチエコー(1つのレーザ光から複数の物体の距離情報を得る技術)を用いて解像度を向上させる技術が知られている(例えば、特許文献1参照)。
特表2014−142242号公報
しかしながら、上記物体認識装置は、マルチエコーを検出可能なレーザレーダは高機能かつ高価なものであるため、シングルエコー(1つのレーザ光から1つの距離情報のみを得る技術)を用いて解像度を向上させることに対する要求がある。
そこで、このような問題点を鑑み、自車両の周囲に位置する物体を認識する物体認識装置において、マルチエコーを用いることなく解像度を向上できるようにすることを本発明の目的とする。
本発明の物体認識装置は、点群取得部と、統合部と、物体認識部と、を備える。点群取得部は、少なくとも1つの自車両外の装置を含む複数の装置において検知された自車両の周囲に位置する物体に関する複数の測距点群を取得する(S110,S120)。また、統合部は、複数の測距点群を統合する(S50)。そして、物体認識部は、統合後の複数の測距点群を用いて物体の認識を行う(S180)。
このような物体認識装置によれば、1つの装置から得られた1つの測距点群でなく、複数の装置にて得られた測距点群を用いて物体を認識するので、マルチエコーを用いることなく解像度を向上させることができる。
なお、この欄および特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。
運転支援システム1の概略構成を示す説明図である。 実施形態において、レーザ光を照射する領域を示す模式図である。 レーダ制御部11が実行する物体認識処理を示すフローチャートである。 測距点群とクラスタリング結果の一例を示す鳥瞰図である。 クラスタ同定処理を示すフローチャートである。 クラスタ位置補正処理の概要を示す模式図である 測距点群補正処理を示すフローチャートである。 第1実施形態の統合処理の概要を示す模式図である。 第1実施形態の識別処理を示すフローチャートである。 データ送信処理を示すフローチャートである。 第2実施形態の識別処理を示すフローチャートである。 第3実施形態の統合処理を示すフローチャートである。 第3実施形態の統合処理の概要を示す模式図である。 第4実施形態の統合処理を示すフローチャートである。 クラスタ点群をモデルに基づいてパーツ点群に分解する例を示す模式図である。 第4実施形態の統合処理の概要を示す模式図である。 第5実施形態の統合処理を示すフローチャートである。 距離と反射強度との原理上の関係を示すグラフである。 第6実施形態の統合処理を示すフローチャートである。 第6実施形態の統合処理の概要を示す模式図である。 第7実施形態の統合処理を示すフローチャートである。 第7実施形態の統合処理の概要を示す模式図である。 第8実施形態の識別処理を示すフローチャートである。 第9実施形態の識別処理を示すフローチャートである。 第9実施形態において補正クラスタ点群領域の一例を示す説明図である。 第10実施形態の識別処理を示すフローチャートである。 その他の実施形態の物体認識処理を示すフローチャートである。
以下に本発明にかかる実施の形態を図面と共に説明する。
[1.第1実施形態]
[1−1.構成]
図1は本実施形態の運転支援システム1の概略構成を示す説明図、図2はレーザ光を照射する領域を示す模式図である。運転支援システム1は、例えば乗用車等の車両(以下「自車両」ともいう。)に搭載されており、図1に示すように、レーダ装置10と、車両制御部30と、通信部35と、外部装置40と、を備えている。
レーダ装置10は、レーダ制御部11と、走査駆動部12と、光学ユニット13とを備えている。
レーダ制御部11は、CPU18と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ19)と、を有する周知のマイクロコンピュータを中心に構成される。レーダ制御部11の各種機能は、CPU18が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ19が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、レーダ制御部11を構成するマイクロコンピュータの数は1つでも複数でもよい。
レーダ制御部11は、CPU18がプログラムを実行することで実現される機能の構成として、後述する物体認識処理等の各種処理を含む。レーダ制御部11を構成するこれらの機能を実現する手法はソフトウェアに限るものではなく、その一部または全部の機能を、論理回路やアナログ回路等を組み合わせたハードウェアを用いて実現してもよい。
走査駆動部12は、例えばモータ等のアクチュエータとして構成されており、レーダ制御部11からの指令を受けて、光学ユニット13を水平方向および鉛直方向の任意の方向に向けることができるよう構成されている。なお、走査駆動部12は、レーダ制御部11からの走査開始信号を受ける度に、レーザ光を照射すべき全ての領域から反射光を得る、1サイクル分の走査ができるように光学ユニット13を駆動する。
光学ユニット13は、レーダ制御部11からの指令に応じてレーザ光を射出する発光部14と、発光部14からのレーザ光が物体50に反射したときの反射光を受光する受光部15と、を備えている。発光部14から射出されるレーザ光は、図1において実線の矢印で示し、反射光は、図1において破線の矢印で示す。
なお、走査駆動部12は、結果として発光部14によるレーザ光の射出方向が受光部15により反射光を受光可能な方向と同じ方向となるよう変化させられる構成であればよい。例えば、走査駆動部12は、光学ユニット13に換えて、光学ユニット13に備えられたレーザ光および反射光を任意の方向に反射させるミラーを駆動するよう構成されていてもよい。
この場合には、複数の反射面を有するミラーを走査駆動部12で回転させることによって水平方向にレーザ光を走査し、反射面の角度をそれぞれ異なる角度に設定することによって、鉛直方向にもレーザ光を振りつつ走査する構成を採用すればよい。また、1つの反射面を有するミラーを任意の方向に向ける機構を採用してもよい。
また、走査駆動部12は、受光部15のみの方向を変化させる構成でもよい。この場合、発光部14は、発光部14の方向を変化させることなく、受光部15が走査される領域の一部または全体にレーザ光を照射可能な構成にされていてもよい。
上述のようにレーダ装置10は、自車両の進行方向である前方等の、自車両周囲の任意の方向の所定領域に対して、走査しつつ間欠的に電磁波であるレーザ光を照射し、その反射光をそれぞれ受信することによって、自車両前方の物体を各測距点として検出するレーザレーダとして構成されている。測距点とは、レーザ光の反射光によって特定される物体の一部が存在する位置を示す。
ここで、本実施形態のレーダ装置10においてレーダ制御部11は、前述のように走査駆動部12を利用して、光学ユニット13から照射されるレーザ光を所定の領域内において走査させるが、詳細には図2に示すように、この領域の左上隅から右上隅に水平方向右側にレーザ光を照射させる範囲を変化させつつ間欠的に等間隔かつ等角度でレーザ光を照射させ、レーザ光が右上隅に到達すると、左上隅よりも所定角度だけ下方の領域から水平方向右側にレーザ光を照射させる範囲を変化させつつ再びレーザ光を照射させる。
この作動を繰り返すことによってレーダ装置10は、所定領域の全域に順次レーザ光を照射させることになる。そしてレーダ装置10は、反射光を受信したタイミングとレーザ光を照射した方向とに基づいて、レーザ光を照射する度に測距点の位置を演算する。
なお、レーザ光の射出方向については、レーザ光を照射する全領域をレーザ光が照射される領域毎にマトリクス状に区切り、各領域に番号を付すことによって特定できるようにしておく。例えば、図2に示すように、水平方向については左から順に番号を付し、この番号を方位番号と呼ぶ。また、鉛直方向については上から順に番号を付し、この番号をライン番号と呼ぶ。
例えば、iをライン番号とし、jを方位番号とする。また、測距点においては、距離r、反射強度I、精度情報qが対応付けられる。なお、精度情報qは、装置の分解能や誤差の大きさ等、装置の精度を数値で表す情報である。この精度情報qは、測距点を検知するレーダ装置10や外部装置40に予め対応付けられている。測距点を検知した装置のそれぞれが、測距点を得るたびに精度情報qを測距点に対応付けて記録する。
次に、車両制御部30においては、CPU,ROM,RAM等からなる周知のコンピュータとして構成されており、ROM等に記憶されたプログラムに従って、自車両の挙動を制御する処理や、運転者に対する報知を行う等の各種処理を実施する。例えば、車両制御部30は、自車両の挙動を変更する、或いは挙動の変更を促す運転支援を行う旨の指令をレーダ装置10から受けると、この指令に応じた制御信号を表示装置、音声出力装置、制動装置、操舵装置等の何れかに出力するようにすればよい。
通信部35は、自車両外部に位置する装置である外部装置40と無線通信を行うための周知の通信モジュールである。通信部35は、自車両にて得られた測距点群を外部装置40に送信したり、外部装置40にて得られた測距点群を外部装置40から受信したりする。通信相手は1または複数の外部装置40を想定しているが、複数の外部装置40であることが好ましい。なお、測距点群とは、レーザ光の照射領域毎に得られる物体の座標を表す1サイクル分の測距点の集合を表し、この測距点群には、測距点の距離(或いは3次元座標)と反射強度の情報と、精度情報が含まれる。
外部装置40は、例えば複数の他車両のそれぞれに搭載されており、各々がレーダ装置10と同等の機能を有する。つまり、後述する物体認識処理やデータ送信処理を実施する。これらの処理によりレーダ装置10および外部装置40にて得られた測距点群を共有することによって高精度な物体認識を実現する。
[1−2.処理]
このように構成された運転支援システム1において、レーダ制御部11は、図3に示す物体認識処理を実施する。物体認識処理は、例えば測距点群が得られる毎に実施される処理である。
物体認識処理では、図3に示すように、まず、測距点群を取得する(S110,S120)。この処理では、自車両において検知された測距点群、および少なくとも1つの外部装置40にて検知された測距点群を取得する。
続いて、クラスタリングを行う(S120)。クラスタリングとは、例えば、互いに近接する複数の測距点を1つのグループとして取り扱う処理を示す。この処理では、測距点群に対してクラスタリングを行うことで、各物体に対応するクラスタを得る。
このようなクラスタリングによって1つまたは複数のクラスタを得る。なお、各クラスタには、任意に定義されたクラスタの位置(点群位置)、クラスタの幅(x軸方向の長さ)、および奥行き幅(y軸方向の長さ)が対応付けられる。クラスタの位置とは、クラスタ毎に設定されるクラスタを代表する点の位置を示す。クラスタの位置には、重心位置や外接直方体のある頂点の位置等、任意の位置が設定される。
ここで、図4に測距点群とクラスタリング結果の一例を示す。なお、本実施形態では、自車両の右方向をx軸の正とし、自車両の前方をy軸の正とする。また、鉛直方向の上方向をz軸の正とする。図4に示す例では、例えば、クラスタCkの左端と右端の中心のx座標をxk、クラスタの前端のy座標をykとする。
クラスタCkを構成する測距点の集合がクラスタ点群であり、クラスタ点群は、Nk個の測距点で構成される点群としてRAM等のメモリにて保持される。なお、本実施形態では、点群の情報に加え、点群を取得した時刻を表す時刻情報や、点群の距離を表す距離情報も保持する。時刻情報や距離情報は、例えば、クラスタ点群を統合する際にクラスタ点群に重み付けを設定したり、統合する際にクラスタ点群を利用するかしないかを決定するために用いることができる。
続いて、座標変換を実施する(S130)。この処理では、レーザレーダ等のセンサにおける座標を、周知の技術よって特定される自車両の位置や方位に基づいて、グローバル座標に変換する。グローバル座標は、地球上の座標を示す絶対的な座標である。
例えば、GPS情報や地図情報から取得したPOI(Point Of Interest)において取得される自車両の位置、またジャイロセンサ、地磁気センサ等において取得される自車両の方向を用いて座標変換を実施してもよい。
続いて、測距点群の補正を行う(S140)。この処理では、図7に示すように、まず、基準となる静止物の位置と方位とを真値として取得する(S360)。
例えば、固定配置されたセンサが静止物について検知した場合、センサおよび静止物の位置が変動しないため、この検知結果を真値とすることができる。このような検知結果が存在する場合、この検知結果を真値として取得する。なお、真値として利用可能な測距点群には、精度情報において特定の値が付されていてもよい。
続いて、複数の測距点群について、この静止物との位置と方位とを算出し(S370)、真値との差分を算出する(S380)。続いて、これらの差分の平均値を算出し(S390)、これらの平均値に従って測距点群の座標のそれぞれを補正する(S400)。
続いて、クラスタ同定処理を実施する(S150)。クラスタ同定処理は、複数のクラスタ点群が同一の物体を示すか否かを判定する処理である。
クラスタ同定処理では、図5に示すように、まず、クラスタ位置の補正を行う(S310)。クラスタ位置の補正では、例えば図6に示すように、自車両にて検知されたクラスタをpi ownとし、他車両にて検知されたクラスタをpj otherとする。
そして、自車両および他車両にて検知されたクラスタのうちの自車両から最も近いものの距離Δp = p1 other - p1 ownを簡易的に自車両におけるセンサと他車両におけるセンサの誤差として、このΔpだけ他車両にて検知されたクラスタpj otherの位置をシフトさせることで、クラスタ位置の補正を行う。
続いて、測距点群のそれぞれに含まれるクラスタについてクラスタ間距離を算出する(S320)。この処理では、例えば重心位置等を各クラスタの位置として特定しておき、各クラスタ間の距離を求める。この際の距離とは、ユークリッド距離等を用いることができる。
続いて、距離閾値を算出する(S330)。距離閾値は、固定値であっても変動値であってもよい。変動値である場合、レーダ装置10や外部装置40の移動速度が大きくなるにつれて距離閾値も大きくするとよい。
続いて、距離閾値未満となるクラスタのIDを取得し(S340)、これらのクラスタのうちの最も近いクラスタのIDを同一のクラスタのIDとしてメモリ19に記録し(S350)、クラスタ同定処理を終了する。なお、本処理は、検知されたクラスタ毎に実施される。
なお、クラスタ同定処理では、距離によってクラスタの同定判定を行ったが、サイズ比較、形状比較等、従来の追跡処理の物体同定手法を流用してもよい。
続いて、統合処理を実施する(S50)。統合処理は、自車両および他車両において得られたクラスタ点群を、位置を補正して統合する処理である。
この処理では、まず、クラスタ点群の補正処理を行う(S160)。クラスタ点群の補正処理では、まず、クラスタ点群の重心座標を演算し、クラスタ点群の重心座標が原点となるように座標変換を実施する。クラスタ点群の重心座標を演算する処理では、クラスタ点群を構成する測距点の平均値等を用いる周知の手法にて重心座標を演算すればよい。
続いて、クラスタ点群の統合を行う(S170)。この処理では、図8に示すように、測距点群を得たセンサA,センサB,センサCから得られた測距点群(ここではクラスタ点群)を全て統合する。すなわち、これらの測距点群が1つのクラスタを示すものとして加算されたクラスタ点群を得る。(以下、統合クラスタ点群と呼ぶ。)なお、この際には、クラスタ同定処理において一致すると判定されたクラスタのみが統合される。このような処理が終了すると、統合クラスタ点群をメモリ19に格納して保存して、統合処理を終了する。
続いて、識別処理を実施する(S180)。識別処理は、統合クラスタ点群に対応する物体の種別を識別する処理である。
識別処理では、図9に示すように、まず属性ラベルを0で初期化する(S408)。次に統合クラスタ点群を得る際における複数の測距点群の統合回数Cを算出する(S410)。そして、この統合回数Cと予め設定された回数閾値THcとを比較する(S420)。
統合回数Cが回数閾値THc以下であれば(S420:NO)、識別処理を終了する。また、統合回数Cが回数閾値THcよりも大きければ(S420:YES)、統合クラスタ点群に付随した精度情報を用いて、識別処理に有効な測距点を選定する(S430)。
ここでは、例えば、精度が予め設定された閾値以上の測距点のみを使用し、それ以下の測距点は使用しないよう設定する。なお、精度に応じて各測距点に重み付けを行い、この重みに応じて測距点の利用の程度を設定してもよい。重み付けとは、データの重要度を示す値であり、例えば0から1の値に設定された係数として設定される。
すなわち、重み付けに応じた係数を乗じることで、データの重要度を表現するとよい。例えば、精度の低いデータは信頼性が乏しい可能性があるため、より小さな係数を乗じることで使用されにくく設定するとよい。
より具体的には、重み付けは、測距精度や取得時刻、距離等を用いて決定される。測距精度が高い場合や取得時刻が新しい場合、また距離が近い場合に重み付けがより大きく設定される。なお、例えば、測距精度としては、測距点を得る際の反射強度やSN比、車種の情報等のセンサ自体の精度を表す情報等が採用できる。また、取得時刻としては、前述の時刻情報を採用できる。さらに、距離としては、前述の距離情報を採用できる
続いて、選定した測距点を用いて、各クラスタの特徴量を抽出する(S440)。例えば、選定した測距点から得られる、クラスタの幅、高さ、アスペクト比、相対速度、等の各種特徴量を抽出する。
そして、特徴量と予め用意した識別モデルを用いて識別スコアの演算を行う(S450)。例えば、既知の2クラスSVM(Support Vector Machine)を用いる。この処理では、予めSVMモデルを学習しておき、学習したモデルと抽出した特徴量を用いて識別スコアSを求める。
続いて、識別スコアSと予め設定された識別閾値THsとを比較する(S620)。識別スコアSが識別閾値THs以下であれば(S620:NO)、属性ラベルを−1とする(S630)。また、識別スコアSが識別閾値THsよりも大きければ(S620:YES)、属性ラベルを+1とする(S640)。
ここで属性ラベルは、クラスタの種別を表す値である。属性ラベルの値はクラスタの認識結果とともに車両制御部30に送られる。ここではクラス数を2としたが、3以上でも同様に処理できる。この際、重み付けに応じて測距点群の価値に差をつけて物体の認識を行ってもよい。以降、クラス数は2として説明する。
このような処理が終了すると、識別処理を終了し、物体認識処理も終了する。
レーダ制御部11は、物体認識処理と並行して、図10に示すデータ送信処理も実施する。データ送信処理は、例えば、測距点群が取得される度に実施される処理である。
データ送信処理では、図10に示すように、まず、自車両において検知された測距点群を取得する(S110)。そして、通信部35を介してこの測距点群を外部装置40に送信する(S510)。
なお、データ送信するデータは、クラスタリング前の測距点群である必要はなく、S120によるクラスタリング後のクラスタ点群であってもよい。例えば図10の破線にて示すように、クラスタリング(S120)、座標変換(S130)、測距点群の補正(S140)を終えた後のデータを送信してもよい。
また、データ送信処理(図10)において、データを送信する側の装置においてクラスタリングを行う場合には、少なくともクラスタが示す物体の代表位置(例えば重心位置や原点位置等)とサイズ(例えば外接矩形の大きさ等)とを含むクラスタ情報を、データを受信する側の装置に送信してもよい。この際、クラスタ点群の送信を省略してもよい。
なお、データを送信する側の装置がクラスタ点群の送信を省略する場合には、統合(S50)の際に代表位置やサイズを統合し、統合回数に応じて、物体の信頼度や物体の属性を認識してもよい(S180:S408〜S640)。物体の信頼度とは、統合されたクラスタ情報が物体を示すかノイズを示すかの確からしさを示す値である。
このようにすれば、データを送信する側の装置とデータを受信する側の装置との間でやり取りされるデータ量を削減することができる。
[1−3.効果]
以上詳述した第1実施形態によれば、以下の効果が得られる。
(1a)上記の運転支援システム1においてレーダ制御部11は、少なくとも1つの自車両外の装置を含む複数の装置において検知された自車両の周囲に位置する物体に関する複数の測距点群を取得する。また、複数の測距点群を統合する。そして、統合後の複数の測距点群を用いて物体の認識を行う。
このような運転支援システム1によれば、1つの装置から得られた1つの測距点群でなく、複数の装置にて得られた測距点群を用いて物体を認識するので、マルチエコーを用いることなく解像度を向上させることができる。
(1b)上記の運転支援システム1においてレーダ制御部11は、自車両において検知された測距点群を含む複数の測距点群を取得する。
このような運転支援システム1によれば、自車両において検知された自車両に影響を与えうる物体について解像度を向上させることができる。さらに、同じ物体に対して複数の方向から得られた測距点群を取得するので、自車両に搭載したセンサ正面以外の、取得が困難な点群も取得できる。
(1c)上記の運転支援システム1においてレーダ制御部11は、クラスタリング後の測距点群をそれぞれ取得することもできる。
このような運転支援システム1によれば、クラスタリング後の測距点群を取得するので、データ通信量を削減できる。さらに、取得した測距点群にノイズ等の不要な測距点が含まれにくくすることができる。よって、物体の認識精度を向上させることができる。
(1d)上記の運転支援システム1においてレーダ制御部11は、少なくとも取得された測距点群が示す位置に基づいて測距点群が示す物体のそれぞれが一致するか否かを判定し、一致する物体に関する測距点群のみを統合する。
このような運転支援システム1によれば、一致する物体についてのみ測距点群の統合を行うので、一致しない物体についても測距点群を統合する場合と比較して、物体の認識精度を向上させることができる。
(1e)上記の運転支援システム1においてレーダ制御部11は、一致する物体に関する測距点群について、測距点群が示す位置を表す点群位置を抽出し、点群位置が一致するよう各測距点群を構成する測距点の位置を補正し、該位置補正後の測距点群について統合する。
このような運転支援システム1によれば、点群位置が一致するよう測距点の位置を補正するので、物体の認識精度を向上させることができる。
(1f)上記の運転支援システム1においてレーダ制御部11は、各測距点群を検知した精度情報を示す精度情報を測距点群とともに取得し、精度情報に基づいて測距点群に対して重み付けを行い、重み付けを行った測距点群を用いて物体の認識を行う。
このような運転支援システム1によれば、精度情報に基づいて測距点群に対して重み付けを行い、精度が高い測距点群をより有効な測距点であるものとして利用するので、物体の認識精度を向上させることができる。
(1g)上記の運転支援システム1においてレーダ制御部11は、統合部による測距点群の統合数をカウントし、統合数に基づいて統合された測距点群に対して重み付けを行い、重み付けを行った測距点群を用いて物体の認識を行う。
このような運転支援システム1によれば、統合数に基づいて重み付けを行うので、物体の認識結果の精度を認識することができる。
[2.第2実施形態]
[2−1.第1実施形態との相違点]
第2実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
前述した第1実施形態と第2実施形態とでは、識別処理が第1実施形態と相違する。
[2−2.処理]
次に、第2実施形態の識別処理について、図11のフローチャートを用いて説明する。
第2実施形態の識別処理においては、図11に示すように、まず、物体フラグをFalseにセットし(S404)、属性ラベルを0にセットする(S408)。続いて、前述したS410,S420の処理を実施し、S420にて統合回数Cが回数閾値THcよりも大きければ(S420:YES)、物体フラグをTrueにセットする(S560)。物体フラグは、クラスタ点群が物体であるか否かを示すフラグであり、物体フラグがTrueであればクラスタ点群が物体であり、物体フラグがFalseであればクラスタ点群が物体でないノイズ等であることを示す。
続いて、識別スコアSの演算処理を実施する(S610)。この処理では、前述のS430〜S450の処理を実施するとよい。この際、識別スコアSが算出される。
続いて、時間平均スコアSを求める(S615)。時間平均スコアSは、過去において算出された識別スコアSを予め設定された回数分だけ平均化した値である。続いて、前述のS620〜S640の処理を実施する。ただし、S620では、時間平均スコアSと予め設定された識別閾値THsとを比較する。
このような処理が終了すると、識別処理を終了する。
[2−3.効果]
以上詳述した第2実施形態によれば、前述した第1実施形態の効果(1a)に加え、以下の効果が得られる。
(2a)上記第2実施形態の運転支援システムでは、物体フラグを算出するので、クラスタの物体としての確からしさを自己診断することができる。そして、物体フラグを物体の認識結果とともに送れば、物体の認識結果がどの程度信頼できるものであるかを知らせることができる。
(2b)上記第2実施形態の運転支援システムでは、時間平均スコアSを物体の識別の際に用いるので、時間の経過とともに物体の識別精度を向上させることができる。
[3.第3実施形態]
[3−1.構成および処理]
第3実施形態の運転支援システムでは、図3に示す統合処理に代えて、図12に示す統合処理を実施する。すなわち、第3実施形態の統合処理では、図12に示すように、まず各クラスタ点群をxy平面へ射影する(S660)。
xy平面への射影とは、3次元空間の任意の点(x、y、z)を2次元空間の点(x、y)に写像することを意味する。次に、射影後のクラスタ点群に対して主成分分析を行う(S670)。
例えば、主成分分析の結果を図13の破線矢印で表す。
続いて、回転変換を行う(S680)。この処理では、図13の上段および中段に示すように、第1主成分である長軸がx軸と平行になるように回転する座標変換を行う。このように、点群情報を補正した補正クラスタ点群を得る。
続いて、上記補正クラスタ点群の統合処理を行う(S690)。
このようにすると、図13に示すように、あるレーダであるセンサAにて得られたクラスタ点群および他のレーダであるセンサBにて得られたクラスタ点群がそれぞれ異なる方向を向いているとしても、これらのクラスタ点群の向きを、x軸の方向に揃えてから統合できることになる。このような処理が終了すると、第3実施形態の統合処理を終了する。
[3−2.効果]
(3a)すなわち、上記の第3実施形態の運転支援システムにおいてレーダ制御部11は、クラスタ点群の方向を推定し、クラスタ点群の方向を予め設定された方向に回転させる。
このような第3実施形態の運転支援システムによれば、センサによる検知タイミングのずれ等の影響により物体が回転して検知された場合であっても、物体の方向を揃えた上で過去における測距点群とともに利用できる。よって高精度な識別を行うことができる。
[4.第4実施形態]
[4−1.構成および処理]
次に、第4実施形態の運転支援システムについて説明する。第4実施形態の運転支援システムでは、クラスタ点群を複数のパーツに分割してさらに各パーツの方向を推定し、各パーツのそれぞれについてパーツの方向を予め設定された方向に回転させる。なお、以下の説明においては、分割されたそれぞれの点群をパーツ点群と呼ぶ。
具体的には、図14に示す第4実施形態の統合処理を実施する。第4実施形態の統合処理では、図14に示すように、まず、クラスタを構成する各パーツを検出し(S710)、パーツ点群を抽出する(S720)。
例えば、識別対象として歩行者を考える。図15の符号41にて示すように、歩行者のパーツ(例えば頭・腕・胴体・脚)毎に識別器を用意する。そして、物体が歩行者である可能性がある場合、符号42に示すそれぞれのパーツを構成する各測距点を、識別器に基づいてパーツ毎に抽出し、符号43に示すパーツ点群を得る。この処理の際には、例えば、下記の技術を用いることができる。
「Pedestrian Detection Combining RGB and Dense LIDAR Data, C. Premebida, J. Carreira, J. Batista, U. Nunes; IROS2014」
続いて、抽出したパーツ点群の補正を行う。すなわち、歩行者が直立状態のときを標準姿勢と定義し、各パーツの位置と向きが重なるように座標変換する。具体的には、第3実施形態と同様の考え方で、まず各パーツ点群に対して主成分分析を行う(S730)。
続いて、各パーツ点群に対して回転変換を行う(S735)。この処理では、図16の上段および中段に示すように、第1主成分ベクトルがy軸と平行になるように回転する座標変換を行う。
そして、標準姿勢となったクラスタ点群を、補正クラスタ点群として保持する。
これらの処理によって、図16に示すように、センサによって手足の位置がまちまちであった歩行者であっても(図16上段参照)、手足の位置が統一された状態で(図16中段参照)、統合することができる。
続いて、補正クラスタ点群の統合処理を行う(S740)。
[4−2.効果]
(4a)すなわち、各取得時間で各パーツの向きが異なる場合であっても、各パーツの位置が統一された状態で(図16中段参照)、補正クラスタ点群が統合されることになる(図16下段参照)。このような処理が終了すると第4実施形態の統合処理を終了する。
このような第4実施形態の運転支援システムによれば、例えば、歩行者が腕を振る場合等、物体を構成するパーツの方向が変化した場合においても、各パーツの方向を揃えた上で複数の装置にて検知された測距点群を利用できるので、高精度な識別を行うことができる。
[5.第5実施形態]
[5−1.構成および処理]
次に、第5実施形態の運転支援システムについて説明する。第5実施形態の運転支援システムにおいては、レーダ制御部11は距離に応じて反射強度を補正する。そして、反射強度も用いて統合クラスタ点群を識別する。
第5実施形態の統合処理では、図17に示すように、まず、距離と反射強度とを含むクラスタ点群を取得する。
そして、反射強度の正規化を行う(S770)。すなわち、図18に示すように、原理上において反射強度Iが距離rの2乗に反比例する特性(反射強度の距離二乗則)を利用して、測距点群が同距離(r=1)に存在すると仮定した反射強度となるよう反射強度を補正する。
そして、反射強度を補正した補正クラスタ点群を用いて、統合処理を行う(S780)。
このようにする場合、予め補正後の反射強度を用いて識別モデルを学習しておき、識別処理では、補正後の反射強度も用いて統合点群クラスタの種別を識別する。
[5−2.効果]
(5a)このような第5実施形態の運転支援システムによれば、距離に応じて反射強度を補正するので、距離に依存しない識別モデルを構築でき、高精度な識別を行うことができる。
[6.第6実施形態]
[6−1.構成および処理]
次に、第6実施形態の運転支援システムについて説明する。第6実施形態の運転支援システムにおいては、自車両の姿勢(傾き)を取得し、自車両の姿勢に応じて測距点群を補正する。
詳細には、図19に示す統合処理を実施する。第6実施形態の統合処理では、図19に示すように、まず、自車両の姿勢推定の一例としてピッチング推定を行う(S810)。ピッチング推定処理は周知であり、例えば、特開2003−043147号公報に記載の技術を用いることができる。また、車両の傾きセンサ等からの情報を利用してもよい。
続いて、測距点群の回転変換を実施する(S820)。この処理では、推定したピッチング角αを用いて、ピッチング時に得られた測距点群が実際には物体のどの位置に相当するかを特定し、測距点群を補正する。
続いて、自車両のピッチングを補正した補正クラスタ点群を用いて統合し、統合クラスタ点群を得る(S830)。
このような処理を実施すると、例えば、図20に示すように、車両のピッチングによって各時刻に異なる位置のクラスタ点群が得られる。例えば、センサAにてピッチングが発生していない場合のクラスタ点群が得られ、センサBにて自車両が上向きにピッチングした場合における比較的高い位置のクラスタ点群が得られ、センサCにて自車両が下向きにピッチングしている場合における比較的低い位置のクラスタ点群が得られたとする。
このような場合、単にこれらを統合するのではなく、図20に示すように、これらの位置をピッチングしていない場合に得られる位置に補正した上でクラスタ点群を統合する。このようにすると、ピッチングによる点群補正を実施しない場合と比較して、より高解像度な、または鉛直方向により広い範囲の統合クラスタ点群が得られることになる。このような処理が終了すると、第6実施形態の統合処理を終了する。
[6−2.効果]
(6a)このような第6実施形態の運転支援システムによれば、自車両の姿勢(傾き)に応じて測距点群を補正することで、より高解像度な、または鉛直方向により広い範囲の統合クラスタ点群が得られるので、高精度な識別を行うことができる。
[7.第7実施形態]
[7−1.構成および処理]
次に、第7実施形態の運転支援システムについて説明する。第7実施形態の運転支援システムにおいては、複数の装置による識別結果を取得し、種別に基づいて物体の形状に合致するように補正クラスタ点群を生成する。
具体的には、図21に示す統合処理を実施する。第7実施形態の統合処理では、図21に示すように、まず、レーダ制御部11による前回の識別結果や外部装置40による識別結果を取得する(S860)。そして、識別結果に応じて点群補正処理の際に利用する点群モデルを選択する(S870)。
続いて、点群モデルフィッティングを実施する(S880)。この処理では、例えば図22に示すように、前回の識別結果や外部装置40による識別結果(センサA)において電柱であると識別され、電柱の点群モデルが選択された場合には、電柱の点群モデルに最も合致するように、センサBおよびセンサCにおける各クラスタ点群を補正する。
より具体的には、例えば、ICP(Iterative Closest Point)等の一般的に知られる2点群のフィッティング技術を利用すればよい。この処理では、点群間の位置の誤差が最小となるようにクラスタ点群が補正され、補正クラスタ点群を生成する。
続いて、前述のような補正クラスタ点群の統合処理を行い(S890)、第7実施形態の統合処理を終了する。
[7−2.効果]
(7a)このような第7実施形態の運転支援システムによれば、物体の種別が識別できている場合には、その形状に合わせて位置を補正するので、補正精度が向上し高精度な識別を行うことができる。
[8.第8実施形態]
[8−1.構成および処理]
次に、第8実施形態の運転支援システムについて説明する。第8実施形態の運転支援システムにおいては、レーダ制御部11は、測距点群取得時の測距点の距離に応じた重み付けを行った上で統合クラスタ点群を用い、識別処理を行う。
なお、点群補正処理については、例えば重心座標変換を用いて説明する。
具体的には、まず、クラスタ点群を取得する際に、各測距点の距離も記録しておく。次に、クラスタ点群における重心座標が原点となるよう各測距点を平行移動させる。この座標変換にて補正クラスタ点群を得る。
そして、測距点の距離を含む補正クラスタ点群を用いて統合する。そして、第8実施形態の運転支援システムでは、図23に示す識別処理を実施する。第8実施形態の識別処理では、図23に示すように、まず、統合クラスタ点群に付随した距離情報を用いて、識別処理に有効な測距点を選定する(S910)。
この処理では、例えば、所定距離以内の測距点のみを使用し、それ以遠の測距点は使用しないよう設定する。すなわち、ある程度遠距離のデータは信頼性が乏しい可能性があるため、使用されにくく設定する。他には、例えば統合クラスタ点群の中で、距離が近い測距点ほど重み付けを大きくして識別を行ってもよい。
以下、図9にて示したS440およびS450の処理を実施し、第8実施形態の識別処理を終了する。
[8−2.効果]
(8a)このような第8実施形態の運転支援システムによれば、各測距点の距離に応じて重み付けを行った上で物体の識別を行うため、信頼度の高い情報のみを用いて高精度な識別を行うことができる。
[9.第9実施形態]
[9−1.構成および処理]
次に、第9実施形態の運転支援システムについて説明する。第9実施形態の運転支援システムにおいては、レーダ制御部11は、測距点の距離から得られるレーザ光の照射領域(以下、測距点領域と呼ぶ。)とその面積(以下、測距点面積と呼ぶ。)に基づいてクラスタ点群のレーザ光の照射領域(以下、クラスタ点群領域と呼ぶ。)の面積(以下、クラスタ点群面積と呼ぶ。)を演算し、クラスタ点群面積を利用して統合クラスタ点群を識別する。また、第9実施形態の運転支援システムにおいてレーダ制御部11は、今回得られたクラスタ点群領域と、過去におけるクラスタ点群領域との和集合(以下、統合クラスタ点群領域と呼ぶ。)の面積(以下、統合クラスタ点群面積と呼ぶ。)を用いて統合クラスタ点群を識別する。
なお、点群補正処理については、例えばここでは第8実施形態の重心座標変換を用いて説明する。
具体的には、まず、測距点群を取得する際に、各測距点の測距点領域を記録しておく。
なお、測距点領域は、距離が大きくなるに従って領域が大きくなるよう設定される。次に、重心座標を用いた座標変換にて補正クラスタ点群を得る。続いて、測距点領域を含む補正クラスタ点群を用いて統合する。
そして、第9実施形態の運転支援システムでは、図24に示す識別処理を実施する。第9実施形態の識別処理では、まず、統合クラスタ点群面積を演算する(S960)。この際、図25に示すように、センサAにおける補正クラスタ点群領域とセンサBにおける補正クラスタ点群領域に対して、各測距点面積の総和を統合クラスタ点群面積とする。
続いて、統合クラスタ点群面積を特徴量として、予め用意した識別モデルを用いて識別スコアの演算を行う(S970)。このような処理が終了すると、第9実施形態の識別処理を終了する。
[9−2.効果]
(9a)このような第9実施形態の運転支援システムによれば、統合クラスタ点群面積を用いて物体を識別するので、物体の面積を高精度に表現でき、高精度な識別を行うことができる。
[10.第3実施形態]
[10−1.構成および処理]
次に、第10実施形態の運転支援システムについて説明する。第10実施形態の運転支援システムにおいては、レーダ制御部11は追跡処理(S130)を用いて各クラスタの速度を取得し、予め速度別に学習したモデルから各クラスタの速度に応じて1つのモデルを選択し、選択したモデルを用いて識別を行う。
すなわち、図26に示す識別処理を実施する。第10実施形態の識別処理では、図26に示すように、まず、各統合クラスタ点群の平均速度を演算する(S1010)。この処理では、自車速や舵角から自車両の速度を求めるとともに、追跡処理(S130)に基づいて各クラスタの速度を求める。そして、過去一連のクラスタの速度の平均を統合クラスタ点群の平均速度とする。
続いて、モデルを選定する(S1020)。ここで、レーダ制御部11においては、予め物体の種別および物体の速度の区分に応じて複数のモデルが準備されている。例えば歩行者の場合、静止状態では姿勢の変化が小さいが、移動中には姿勢の変化が大きいため、速度に応じて複数のモデルを準備する。
続いて、選定したモデルを用いて識別スコアの演算を行う(S1030)。このような処理が終了すると、第10実施形態の識別処理を終了する。
[10−2.効果]
(10a)このような第10実施形態の運転支援システムによれば、速度に応じて姿勢が変化する場合であっても、姿勢変化に対して頑強な識別を行うことができる。
[11.他の実施形態]
以上、本発明を実施するための形態について説明したが、本発明は上述の実施形態に限定されることなく、種々変形して実施することができる。
(11a)例えば、取得した点群データの誤差が小さいと推定される場合には、物体認識処理を図27に示すようにしてもよい。ここで誤差は、主にデータ取得タイミングのずれ、自車両の位置または方位の推定誤差、そしてレーダによる測距誤差のことを指す。すなわち、クラスタリング(S120)前に、S130,S140の処理および点群の統合(S190)を行ってもよい。
点群の統合では、クラスタリング前の測距点群について、クラスタ点群の統合(S170)と同様の処理で統合し、その後、クラスタリング(S120)および識別処理(S180)を実施するとよい。
このような運転支援システムによれば、簡素な処理で物体の認識を行うことができる。
(11b)レーダ制御部11は、少なくとも1つの自車両外の装置を含む複数の装置において検知された自車両の周囲に位置する物体に関する情報であり、少なくとも該物体の位置と大きさとを含むクラスタ情報を取得し(S110,S120)、複数のクラスタ情報を統合してもよい(S50)。この場合、統合後の複数のクラスタ情報を用いて物体の認識を行ってもよい(S180:S408〜S640)。
具体的には、例えば、データ送信処理(図10)において、データを送信する側の装置においてクラスタリングを行い、少なくともクラスタが示す物体の代表位置(例えば重心位置や原点位置等)とサイズ(例えば外接矩形の大きさ等)とを含むクラスタ情報を、データを受信する側の装置に送信する。この際、クラスタ点群の送信を省略してもよい。
なお、データを送信する側の装置がクラスタ点群の送信を省略する場合には、統合の処理(S50)の際に代表位置やサイズを統合し、統合回数に応じて、物体認識の処理として物体の信頼度や物体の属性を認識してもよい(S408〜S640)。物体の信頼度とは、統合されたクラスタ情報が物体を示すかノイズを示すかの確からしさを示す値である。
このようにすれば、データを送信する側の装置とデータを受信する側の装置との間でやり取りされるデータ量を削減することができる。
(11c)上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加または置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
(11d)上述した運転支援システムの他、当該運転支援システムの構成要素となる制御装置、当該運転支援システムとしてコンピュータを機能させるためのプログラム、このプログラムを記録した媒体、運転支援方法など、種々の形態で本発明を実現することもできる。
[12.実施形態の構成と本発明の手段との対応関係]
上記実施形態においてレーダ制御部11は本発明でいう物体認識装置に相当し、レーダ制御部11が実行する処理のうちのS50の処理は本発明でいう統合部に相当する。また、上記実施形態においてS110,S120の処理は本発明でいう点群取得部およびクラスタ取得部に相当し、上記実施形態においてS150の処理は本発明でいう一致判定部に相当する。
また、上記実施形態においてS180の処理は本発明でいう物体認識部に相当し、上記実施形態においてS410の処理は本発明でいう統合カウント部に相当する。また、上記実施形態においてS430,S910,S440,S450の処理は本発明でいう重み付け認識部に相当し、上記実施形態においてS660,S670の処理は本発明でいう点群方向推定部に相当する。
また、上記実施形態においてS680の処理は本発明でいう点群補正部に相当し、上記実施形態においてS690の処理は本発明でいう補正後統合部に相当する。また、上記実施形態においてS710の処理は本発明でいう点群分割部に相当し、上記実施形態においてS730の処理は本発明でいうパーツ方向推定部に相当する。
また、上記実施形態においてS735の処理は本発明でいうパーツ回転補正部に相当し、上記実施形態においてS740の処理は本発明でいう補正後統合部に相当する。また、上記実施形態においてS960の処理は本発明でいう面積演算部に相当し、上記実施形態においてS1010の処理は本発明でいう速度取得部に相当する。
1…運転支援システム、10…レーダ装置、11…レーダ制御部、12…走査駆動部、13…光学ユニット、14…発光部、15…受光部、18…CPU、19…メモリ、30…車両制御部、35…通信部、40…外部装置。

Claims (5)

  1. 自車両に搭載された物体認識装置(11)であって、
    少なくとも1つの自車両外の装置において検知された自車両の周囲に位置する物体に関する第1の測距点群の代表位置及びサイズを取得し、且つ、自車両の装置において検知された自車両の周囲に位置する物体に関する第2の測距点群を取得する点群取得部(S110,S120)と、
    少なくとも1つの前記第1の測距点群の代表位置及びサイズに応じた第1のクラスタ領域と、前記第2の測距点群の代表位置及びサイズに応じた第2のクラスタ領域とを重ね合せて、統合領域を生成する統合部(S50)と、
    前記統合部により前記第2のクラスタ領域に重ね合せた前記第1のクラスタ領域の個数である統合数をカウントする統合カウント部(S410)と、
    前記統合数に基づいて、前記統合領域が物体を示すかノイズを示すかの確からしさを認識する認識部(S180)と、
    を備えた
    物体認識装置。
  2. 請求項1に記載の物体認識装置であって、
    前記総合領域が物体を示す確からしさを示す値である信頼度を、前記統合数に応じて算出する信頼度算出部を更に備える、物体認識装置。
  3. 請求項1又は請求項2に記載の物体認識装置であって、
    前記点群取得部は、クラスタリング前の第2の測距点群を取得する
    物体認識装置。
  4. 請求項1又は請求項2に記載の物体認識装置であって、
    前記点群取得部は、クラスタリング後の第2の測距点群を取得する
    物体認識装置。
  5. 請求項1〜請求項4のいずれか1項に記載の物体認識装置であって、
    少なくとも1つの前記第1の測距点群の前記代表位置に基づいて、前記第1のクラスタ領域と前記第2のクラスタ領域とが同一の物体を示すか否かを判定する一致判定部(S150)、
    をさらに備え、
    前記統合部は、前記一致判定部により同一の物体を示すと判定した前記第1のクラスタ領域と前記第2のクラスタ領域のみを重ね合せる
    物体認識装置。
JP2016049615A 2016-03-14 2016-03-14 物体認識装置 Active JP6938846B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016049615A JP6938846B2 (ja) 2016-03-14 2016-03-14 物体認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016049615A JP6938846B2 (ja) 2016-03-14 2016-03-14 物体認識装置

Publications (2)

Publication Number Publication Date
JP2017166846A JP2017166846A (ja) 2017-09-21
JP6938846B2 true JP6938846B2 (ja) 2021-09-22

Family

ID=59908893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016049615A Active JP6938846B2 (ja) 2016-03-14 2016-03-14 物体認識装置

Country Status (1)

Country Link
JP (1) JP6938846B2 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020535862A (ja) * 2017-10-06 2020-12-10 テルース ユー ケア インコーポレーションTellus You Care, Inc. 高齢者介護のための非接触活動検出ネットワーク
JP7333445B2 (ja) * 2017-12-26 2023-08-24 パイオニア株式会社 画像生成装置
JP6598885B2 (ja) * 2018-01-05 2019-10-30 三菱電機株式会社 物体認識装置および物体認識方法
JP7184318B2 (ja) * 2018-03-05 2022-12-06 学校法人 芝浦工業大学 物体認識装置および物体認識方法
CA3093503A1 (en) 2018-03-19 2019-09-26 Outsight Methods and systems for identifying material composition of moving objects
US11538260B2 (en) 2018-03-30 2022-12-27 Nec Solution Innovators, Ltd. Object identification apparatus, object identification method, and nontransitory computer readable medium storing control program
KR102099851B1 (ko) * 2018-05-11 2020-04-10 서울대학교산학협력단 자동차 레이더 시스템에서 탐지된 타겟들의 클러스터링 방법 및 이를 위한 장치
WO2020022185A1 (ja) * 2018-07-25 2020-01-30 株式会社小糸製作所 センサシステム
CN109188457B (zh) * 2018-09-07 2021-06-11 百度在线网络技术(北京)有限公司 物体检测框的生成方法、装置、设备、存储介质及车辆
CN109212540A (zh) 2018-09-12 2019-01-15 百度在线网络技术(北京)有限公司 基于激光雷达系统的测距方法、装置及可读存储介质
CN112912927A (zh) 2018-10-18 2021-06-04 富士通株式会社 计算方法、计算程序及信息处理装置
US11592524B2 (en) * 2018-11-02 2023-02-28 Waymo Llc Computation of the angle of incidence of laser beam and its application on reflectivity estimation
JP7205181B2 (ja) * 2018-11-19 2023-01-17 株式会社Ihi 監視システム及び処理装置
JP7205180B2 (ja) * 2018-11-19 2023-01-17 株式会社Ihi 監視システム及び処理装置
JP7205179B2 (ja) * 2018-11-19 2023-01-17 株式会社Ihi 監視システム
WO2020170700A1 (ja) * 2019-02-20 2020-08-27 株式会社デンソー 車両周辺監視システム
JP2020134516A (ja) * 2019-02-20 2020-08-31 株式会社デンソー 車両周辺監視システム
JP7192595B2 (ja) * 2019-03-18 2022-12-20 日本電信電話株式会社 構造物検出装置、構造物検出方法および構造物検出処理プログラム
WO2021033591A1 (ja) * 2019-08-22 2021-02-25 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP2021043838A (ja) * 2019-09-13 2021-03-18 パイオニア株式会社 情報処理装置、制御方法、プログラム及び記憶媒体
JP7259674B2 (ja) * 2019-09-20 2023-04-18 沖電気工業株式会社 物体検出装置、物体検出方法およびプログラム
JP7306192B2 (ja) 2019-09-27 2023-07-11 沖電気工業株式会社 合成処理装置、合成処理システム及び合成処理方法
JP6999625B2 (ja) * 2019-11-06 2022-02-04 財団法人車輌研究測試中心 環境情報を提供可能なダイナミックマップ情報を生成するための方法およびシステム
US20230221410A1 (en) * 2020-04-03 2023-07-13 Hitachi Astemo, Ltd. Object sensing device and object sensing method
DE102020208099A1 (de) 2020-06-30 2021-12-30 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Ermitteln einer eine Umgebung eines LiDAR-Sensors repräsentierenden Punktwolke
CN113866779A (zh) * 2020-06-30 2021-12-31 上海商汤智能科技有限公司 点云数据的融合方法、装置、电子设备及存储介质
WO2022172888A1 (ja) * 2021-02-12 2022-08-18 パイオニア株式会社 情報処理装置、制御方法、プログラム及び記憶媒体
KR102343042B1 (ko) * 2021-05-14 2021-12-24 주식회사 인피닉 연속된 3d 데이터에서 객체 품질 향상 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102313922B1 (ko) * 2021-07-08 2021-10-18 주식회사 인피닉 연속되는 3d 점군 데이터의 품질 향상 방법
JP7392221B2 (ja) * 2022-03-29 2023-12-06 防衛装備庁長官 物体認識システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3333143B2 (ja) * 1998-11-13 2002-10-07 三菱電機株式会社 追尾装置及びその追尾処理方法
JP4172368B2 (ja) * 2003-10-07 2008-10-29 株式会社デンソー 車両検知装置
JP4702010B2 (ja) * 2005-11-24 2011-06-15 三菱電機株式会社 追尾処理システム
JP2008051599A (ja) * 2006-08-23 2008-03-06 Mitsubishi Electric Corp 通信制御方法及びこれを用いたレーダシステム
JP4989331B2 (ja) * 2007-06-21 2012-08-01 三菱電機株式会社 航跡統合装置及びプログラム及び航跡統合方法
JP5822255B2 (ja) * 2011-04-14 2015-11-24 株式会社豊田中央研究所 対象物識別装置及びプログラム
JP2013124912A (ja) * 2011-12-14 2013-06-24 Toshiba Corp レーダ情報処理装置及びレーダ情報処理プログラム
JP6139178B2 (ja) * 2013-03-01 2017-05-31 株式会社日立製作所 センサ統合装置及びセンサ統合方法
TWI571399B (zh) * 2014-08-20 2017-02-21 啟碁科技股份有限公司 預警方法及車用雷達系統

Also Published As

Publication number Publication date
JP2017166846A (ja) 2017-09-21

Similar Documents

Publication Publication Date Title
JP6938846B2 (ja) 物体認識装置
EP3283843B1 (en) Generating 3-dimensional maps of a scene using passive and active measurements
JP7082545B2 (ja) 情報処理方法、情報処理装置およびプログラム
JP6696697B2 (ja) 情報処理装置、車両、情報処理方法およびプログラム
RU2668459C1 (ru) Устройство оценки положения и способ оценки положения
KR102159376B1 (ko) 레이저 스캔 시스템, 레이저 스캔 방법, 이동 레이저 스캔 시스템 및 프로그램
KR100901311B1 (ko) 자율이동 플랫폼
JP5105596B2 (ja) 自律走行移動体の走行経路決定用地図作成装置及び走行経路決定用地図作成方法
JPWO2017057041A1 (ja) 信号処理装置、信号処理方法、およびプログラム
JP6777403B2 (ja) 物体認識装置及びプログラム
KR102012179B1 (ko) 3차원 평면 검출 기반의 라이다-카메라 캘리브레이션 장치 및 방법
CN110389359A (zh) 用于地平面探测的系统和方法
JP2017016359A (ja) 自律移動ロボット
CN108780149B (zh) 通过传感器的间接测量来改进对机动车辆周围的至少一个物体的检测的方法,控制器,驾驶员辅助系统和机动车辆
JP7424390B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
US20210245777A1 (en) Map generation device, map generation system, map generation method, and storage medium
CN112068152A (zh) 使用3d扫描仪同时进行2d定位和2d地图创建的方法和系统
US20220100201A1 (en) Information processing device and mobile robot
US20230094836A1 (en) Method for Detecting Moving Objects in the Surroundings of a Vehicle, and Motor Vehicle
JP7081098B2 (ja) 走行環境認識装置、走行環境認識方法、プログラム
TW202019742A (zh) 近距離障礙物之光達偵測裝置及其方法
JP2009198382A (ja) 環境地図取得装置
JP2019045199A (ja) 物体検出システム及び物体検出プログラム
JP2021047744A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
TWI687706B (zh) 移動裝置之定位系統

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210816

R151 Written notification of patent or utility model registration

Ref document number: 6938846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151