JP2016206026A - 物体認識装置 - Google Patents

物体認識装置 Download PDF

Info

Publication number
JP2016206026A
JP2016206026A JP2015088455A JP2015088455A JP2016206026A JP 2016206026 A JP2016206026 A JP 2016206026A JP 2015088455 A JP2015088455 A JP 2015088455A JP 2015088455 A JP2015088455 A JP 2015088455A JP 2016206026 A JP2016206026 A JP 2016206026A
Authority
JP
Japan
Prior art keywords
point group
cluster
object recognition
distance
integrated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015088455A
Other languages
English (en)
Other versions
JP6411942B2 (ja
Inventor
映 酒井
Ei Sakai
映 酒井
秀明 三澤
Hideaki Misawa
秀明 三澤
村瀬 洋
Hiroshi Murase
洋 村瀬
大輔 出口
Daisuke Deguchi
大輔 出口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Denso Corp
Original Assignee
Nagoya University NUC
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC, Denso Corp filed Critical Nagoya University NUC
Priority to JP2015088455A priority Critical patent/JP6411942B2/ja
Publication of JP2016206026A publication Critical patent/JP2016206026A/ja
Application granted granted Critical
Publication of JP6411942B2 publication Critical patent/JP6411942B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

【課題】自車両の周囲に位置する物体を認識する物体認識装置において、マルチエコーを用いることなく解像度を向上できるようにする。【解決手段】物体認識システムにおいては、物体を検出する検出領域を予め水平方向および鉛直方向に格子状に区分した照射領域毎にレーザ光を照射し、それぞれの照射領域にてレーザ光の反射光を受光することで得られるそれぞれの距離と反射強度を含む測距点群を取得し(S110)、測距点群をクラスタリングし(S120)、クラスタリングした点群(クラスタ点群)の位置をクラスタ毎に設定された位置に補正した補正クラスタ点群を生成する(S150)。それぞれのクラスタについて得られた現在時刻の補正クラスタ点群を、過去において各クラスタについて得られた過去時刻の統合クラスタ点群に統合した現在時刻の統合クラスタ点群を得て(S150)、この統合クラスタ点群を用いて識別を行う(S170)。【選択図】図3

Description

本発明は、自車両の周囲に位置する物体を認識する物体認識装置に関する。
上記の物体認識装置として、レーザレーダによって得られる距離情報に含まれるマルチエコー(1つのレーザ光から複数の物体の距離情報を得る技術)を用いて解像度を向上させる技術が知られている(例えば、特許文献1参照)。
特表2014−142242号公報
しかしながら、上記物体認識装置は、マルチエコーを検出可能なレーザレーダは高機能かつ高価なものであるため、シングルエコー(1つのレーザ光から1つの距離情報のみを得る技術)を用いて解像度を向上させることに対する要求がある。
そこで、このような問題点を鑑み、自車両の周囲に位置する物体を認識する物体認識装置において、マルチエコーを用いることなく解像度を向上できるようにすることを本発明の目的とする。
本発明の物体認識装置において、測距点群取得手段は、物体を検出する検出領域を予め水平方向および鉛直方向に格子状に区分した照射領域毎にレーザ光を照射し、それぞれの照射領域にて前記レーザ光の反射光を受光することで得られるそれぞれの距離と反射強度を含む測距点群を取得する。また、クラスタリング手段は、測距点群をクラスタリングする。(以下、クラスタリング手段で生成された測距点群のクラスタをクラスタ点群と呼ぶ。)次に、点群補正手段は、クラスタ点群の位置をクラスタ毎に設定された位置に補正する。(以下、点群補正手段で補正されたクラスタ点群を補正クラスタ点群と呼ぶ。)
統合手段は、過去時刻及び現在時刻の補正クラスタ点群を用いて、各クラスタ点群を統合する。(以下、統合手段で生成されたクラスタ点群を統合クラスタ点群と呼ぶ。)各クラスタについて得られた現在時刻の補正クラスタ点群を、過去において各クラスタについて得られた過去時刻の統合クラスタ点群に統合して現在時刻の統合クラスタ点群を生成する。
このような物体認識装置によれば、1回分の測距点群でなく、過去において得られた測距点群も用いて物体を認識することができるので、マルチエコーを用いることなく解像度を向上させることができる。
なお、各請求項の記載は、可能な限りにおいて任意に組み合わせることができる。この際、一部構成を除外してもよい。
運転支援システム1の概略構成を示す説明図である。 実施形態において、レーザ光を照射する領域を示す模式図である。 レーダ制御部11が実行する物体認識処理を示すフローチャートである。 測距点群とクラスタリング結果の一例を示す鳥瞰図である。 クラスタ点群の一例を示す立体図である。 第1実施形態の超解像処理を示すフローチャートである。 第1実施形態の超解像処理の概要を示す模式図である。 第1実施形態の識別処理を示すフローチャートである。 第2実施形態の超解像処理を示すフローチャートである。 第2実施形態の超解像処理の概要を示す模式図である。 第3実施形態の超解像処理を示すフローチャートである。 クラスタ点群をモデルに基づいてパーツ点群に分解する例を示す模式図である。 第3実施形態の超解像処理の概要を示す模式図である。 第4実施形態の超解像処理を示すフローチャートである。 距離と反射強度との原理上の関係を示すグラフである。 第5実施形態の超解像処理を示すフローチャートである。 第5実施形態の超解像処理の概要を示す模式図である。 第6実施形態の超解像処理を示すフローチャートである。 第6実施形態の超解像処理の概要を示す模式図である。 第7実施形態の識別処理を示すフローチャートである。 第8実施形態の識別処理を示すフローチャートである。 第8実施形態において補正クラスタ点群領域の一例を示す説明図である。 第9実施形態の識別処理を示すフローチャートである。
以下に本発明にかかる実施の形態を図面と共に説明する。
[第1実施形態]
[本実施形態の構成]
図1は本実施形態の運転支援システム1の概略構成を示す説明図、図2はレーザ光を照射する領域を示す模式図である。運転支援システム1は、例えば乗用車等の車両(以下「自車両」ともいう。)に搭載されており、図1に示すように、レーダ装置10と、車両制御部30と、を備えている。
レーダ装置10は、レーダ制御部11と、走査駆動部12と、光学ユニット13とを備えている。
レーダ制御部11は、CPU18と、ROM,RAM等のメモリ19と、を備えた周知のコンピュータとして構成されている。CPU18は、メモリ19に記憶されたプログラムに従って、後述する物体認識処理等の各種処理を実施する。なお、レーダ制御部11は、回路等によるハードウェアで構成してもよい。
走査駆動部12は、例えばモータ等のアクチュエータとして構成されており、レーダ制御部11からの指令を受けて、光学ユニット13を水平方向および鉛直方向の任意の方向に向けることができるよう構成されている。なお、走査駆動部12は、レーダ制御部11からの走査開始信号を受ける度に、レーザ光を照射すべき全ての領域から反射光を得る、1サイクル分の走査ができるように光学ユニット13を駆動する。
光学ユニット13は、レーダ制御部11からの指令に応じてレーザ光を射出する発光部14と、発光部14からのレーザ光(図1では実線の矢印で示す)が物体50に反射したときの反射光(図1では破線の矢印で示す)を受光する受光部15と、を備えている。
なお、走査駆動部12は、結果として発光部14によるレーザ光の射出方向が受光部15により反射光を受光可能な方向と同じ方向となるよう変化させられる構成であればよい。例えば、走査駆動部12は、光学ユニット13に換えて、光学ユニット13に備えられたレーザ光および反射光を任意の方向に反射させるミラーを駆動するよう構成されていてもよい。
この場合には、複数の反射面を有するミラーを走査駆動部12で回転させることによって水平方向にレーザ光を走査し、反射面の角度をそれぞれ異なる角度に設定することによって、鉛直方向にもレーザ光を振りつつ走査する構成を採用すればよい。また、1つの反射面を有するミラーを任意の方向に向ける機構を採用してもよい。
また、走査駆動部12は、受光部15のみの方向を変化させる構成でもよい。この場合、発光部14は、発光部14の方向を変化させることなく、受光部15が走査される領域の一部または全体にレーザ光を照射可能な構成にされていてもよい。
上述のようにレーダ装置10は、自車両周囲の任意の方向(本実施形態では自車両の進行方向である前方)の所定領域に対して、走査しつつ間欠的に電磁波であるレーザ光を照射し、その反射光をそれぞれ受信することによって、自車両前方の物体を各測距点として検出するレーザレーダとして構成されている。
ここで、本実施形態のレーダ装置10においてレーダ制御部11は、前述のように走査駆動部12を利用して、光学ユニット13から照射されるレーザ光を所定の領域内において走査させるが、詳細には図2に示すように、この領域の左上隅から右上隅に水平方向右側にレーザ光を照射させる範囲を変化させつつ間欠的に等間隔(等角度)でレーザ光を照射させ、レーザ光が右上隅に到達すると、左上隅よりも所定角度だけ下方の領域から水平方向右側にレーザ光を照射させる範囲を変化させつつ再びレーザ光を照射させる。
この作動を繰り返すことによってレーダ装置10は、所定領域の全域に順次レーザ光を照射させることになる。そしてレーダ装置10は、反射光を受信したタイミングとレーザ光を照射した方向とに基づいて、レーザ光を照射する度に物体(測距点)の位置を演算する。
なお、レーザ光の出射方向については、レーザ光を照射する全領域をレーザ光が照射される領域毎にマトリクス状に区切り、各領域に番号を付すことによって特定できるようにしておく。例えば、図2に示すように、水平方向については左から順に番号を付し、この番号を方位番号と呼ぶ。また、鉛直方向については上から順に番号を付し、この番号をライン番号と呼ぶ。
上記の[数1]において、iはライン番号、jは方位番号、rは距離、Iは反射強度を表す。
次に、車両制御部30においては、CPU,ROM,RAM等からなる周知のコンピュータとして構成されており、ROM等に記憶されたプログラムに従って、自車両の挙動を制御する処理や、運転者に対する報知を行う等の各種処理を実施する。例えば、車両制御部30は、自車両の挙動を変更するような(或いは挙動の変更を促すような)運転支援を行う旨の指令をレーダ装置10から受けると、この指令に応じた制御信号を表示装置、音声出力装置、制動装置、操舵装置等の何れかに出力するようにすればよい。
[本実施形態の処理]
このように構成された運転支援システム1において、レーダ制御部11は、図3に示す物体認識処理を実施する。物体認識処理は、例えば1サイクル分の全ラインおよび全方位の測距点群が得られる毎に実施される処理である。
物体認識処理では、図3に示すように、まず、測距点群を取得する(S110)。測距点群とは、レーザ光の照射領域毎に得られる物体の座標を表す1サイクル分の測距点の集合であり、測距点の距離(或いは3次元座標)と反射強度の情報とが含まれる。
続いて、クラスタリング(S120)、およびクラスタリングで特定された各クラスタの追跡を行う(S130)。クラスタリング処理では、例えば、互いに近接する複数の測距点をクラスタリングすることで、各物体に対応するクラスタを得る。
また、追跡処理では、クラスタの位置が前フレーム(前サイクルにて得られた測距点群)にて特定されたクラスタに近接するか否かを判定し、近接する場合にこれらが同じ物体から得られたクラスタであると推定する。この場合、各クラスタを時間方向に紐付け各IDを付与し、各クラスタの速度を算出する。
詳細には、例えば、「Multilayer LIDAR-Based Pedestrian Tracking in Urban Environments, S. Sato, M. Hashimoto, M. Takita, K. Takagi, T. Ogawa; IV2010」等にて開示されている手法を採用できる。
このようなクラスタリングによって1つまたは複数のクラスタを得る。K個のクラスタが得られた場合、各クラスタCのパラメタを以下のように定義する。
上記の[数2]において、x、yは任意に定義されたクラスタの位置を表す。また、w、dは、クラスタCの幅(x軸方向の長さ)、および奥行き幅(y軸方向の長さ)を表す。
ここで、図4に測距点群とクラスタリング結果の一例を示す。なお、本実施形態では、自車両の右方向をx軸の正とし、自車両の前方をy軸の正とする。また、鉛直方向の上方向をz軸の正とする。図4に示す例では、例えば、クラスタの左端と右端の中心のx座標をx、クラスタの前端のy座標をyとする。
クラスタCを構成する測距点の集合がクラスタ点群であり、例えば、図5に示すように、N個の測距点で構成される点群としてRAM等のメモリにて保持する。
特に本実施形態では、点群の情報に加え、点群を取得した時刻の情報も保持する。
続いて、超解像処理を実施する(S150)。超解像処理は、過去のフレームにおいて得られたクラスタ点群と、今回のフレームにおいて得られたクラスタ点群とを、位置を補正して統合する処理である。なお、超解像処理は、各フレームで得られたクラスタ点群毎に実施される。
超解像処理では、図6に示すように、まず、クラスタ点群の重心座標を演算する(S210)。この処理では、例えば、下記式を用いて重心座標を得る。
続いて、座標変換を実施する(S220)。この処理では、例えば、下記式を用いてクラスタ点群の重心座標が原点となるよう平行移動させる。これにより得られたクラスタ点群を補正クラスタ点群と呼ぶ。
続いて、現在時刻で得られた補正クラスタ点群を、過去時刻で得られた統合クラスタ点群に統合して、現在時刻の統合クラスタ点群を生成する(S230)。
この処理では、図7に示すように、例えば、時刻(T−1)では、時刻(T−2)にて保持されていた統合クラスタ点群と、時刻(T−1)にて得られた補正クラスタ点群を統合する。そして、時刻Tでは、時刻(T−1)にて保持されていた統合クラスタ点群と、時刻Tにて得られた補正クラスタ点群とをさらに統合する。つまり、ある物体を追跡できれば、各物体の統合クラスタ点群として、より高解像度の測距点が保持できることになる。
このような処理が終了すると、超解像処理を終了する。続いて、図3に戻り、統合クラスタ点群をメモリに格納して保存する(S160)。
続いて、識別処理を実施する(S170)。識別処理は、各統合クラスタ点群に対応する物体の種別を識別する処理である。
識別処理では、図8に示すように、まず、統合クラスタ点群に付随した時刻情報を用いて、識別処理に有効な測距点を選定する(S310)。ここでは、例えば、現時刻から過去所定フレーム(THCT)分の測距点のみを使用し、それ以前の測距点は使用しないよう設定する。
すなわち、古いデータは信頼性が乏しい可能性があるため、使用されにくく設定する。他には、例えば統合クラスタ点群の中で、時刻が現在に近い測距点ほど重み付けを大きくして識別を行ってもよい。
続いて、選定した測距点を用いて、各クラスタの特徴量を抽出する(S320)。例えば、選定した測距点から得られる、クラスタの幅、高さ、アスペクト比、相対速度、等の各種特徴量を抽出する。
そして、前記特徴量と予め用意した識別モデルを用いて識別スコアの演算を行う(S330)。例えば、既知の多クラスSVM(Support Vector Machine)を用いる。この処理では、予め種別毎にSVMモデルを学習しておき、各モデルと抽出した特徴量を用いて種別毎の識別スコアを求める。そして、スコアが最大となるモデルの種別を、そのクラスタを示す種別として決定する。
このような処理が終了すると、識別処理を終了し、物体認識処理も終了する。
[本実施形態による効果]
上記のように詳述した第1実施形態の運転支援システム1においてレーダ制御部11は、物体を検出する検出領域を予め水平方向および鉛直方向に格子状に区分した照射領域毎にレーザ光を照射し、それぞれの照射領域にてレーザ光の反射光を受光することで得られるそれぞれの距離と反射強度を表す測距点群を取得する。また、レーダ制御部11は、測距点群をクラスタリングし、クラスタ点群の位置をクラスタ毎に設定された位置に補正した補正クラスタ点群を生成する。
また、レーダ制御部11は、各クラスタについて得られた現在時刻の補正クラスタ点群を、過去において各クラスタについて得られた過去時刻の統合クラスタ点群に統合して現在時刻の統合クラスタ点群を生成する。そして、レーダ制御部11は、統合クラスタ点群を識別する。
このような運転支援システム1によれば、1回分の測距点群でなく、過去において得られた測距点群も用いて物体を認識することができるので、マルチエコーを用いることなく解像度を向上させることができる。
また、運転支援システム1においてレーダ制御部11は、クラスタ点群の原点の位置を、過去において得られた統合クラスタ点群にて設定された原点の位置と一致させる補正を行う。
このような運転支援システム1によれば、物体の位置の補正を確実に行うことができる。
また、運転支援システム1においてレーダ制御部11は、各測距点の取得時刻を含む統合クラスタ点群を生成し、取得時刻に応じた重み付けを行った上で統合クラスタ点群を利用する。
このような運転支援システム1によれば、各測距点を取得した時刻に応じて重み付けを行った上で物体の識別を行うため、信頼度の高い情報のみを用いて高精度な識別を行うことができる。
[第2実施形態]
次に、別形態の運転支援システムについて説明する。本実施形態(第2実施形態)では、第1実施形態の運転支援システム1と異なる箇所のみを詳述し、第1実施形態の運転支援システム1と同様の箇所については、同一の符号を付して説明を省略する。また簡単のため、時刻情報は用いない形態にて説明する。
第2実施形態の運転支援システムでは、図6に示す超解像処理に代えて、図9に示す超解像処理を実施する。すなわち、第2実施形態の超解像処理では、図9に示すように、まず各クラスタ点群をxy平面へ射影する(S360)。
xy平面への射影とは、3次元空間の任意の点(x、y、z)を2次元空間の点(x、y)に写像することを意味する。
次に、射影後のクラスタ点群に対して主成分分析を行う(S370)。
例えば、主成分分析の結果を図10の破線矢印で表す。
続いて、回転変換を行う(S380)。この処理では、図10の上段および中段に示すように、第1主成分である長軸がx軸と平行になるように回転する座標変換を行う。
続いて、上記補正クラスタ点群の統合処理を行う(S390)。
このようにすると、図10に示すように、時刻(T−1)および時刻Tにおいてそれぞれ異なる方向のクラスタ点群の向きを、x軸の方向に揃えてから統合できることになる。このような処理が終了すると、第2実施形態の超解像処理を終了する。
すなわち、上記の第2実施形態の運転支援システムにおいてレーダ制御部11は、クラスタ点群の方向を推定し、クラスタ点群の方向を予め設定された方向に回転させる。
このような第2実施形態の運転支援システムによれば、時間とともに物体が回転した場合であっても、物体の方向を揃えた上で過去における測距点群とともに利用でき、高精度な識別を行うことができる。
[第3実施形態]
次に、第3実施形態の運転支援システムについて説明する。簡単のため、時刻情報は用いない形態にて説明する。第3実施形態の運転支援システムでは、クラスタ点群を複数のパーツに分割してさらに各パーツの方向を推定し、各パーツのそれぞれについてパーツの方向を予め設定された方向に回転させる。(以下、分割されたそれぞれの点群をパーツ点群と呼ぶ。)
具体的には、図11に示す第3実施形態の超解像処理を実施する。第3実施形態の超解像処理では、図11に示すように、まず、クラスタを構成する各パーツを検出し(S410)、パーツ点群を抽出する(S420)。
例えば、識別対象として歩行者を考える。図12の符号41にて示すように、歩行者のパーツ(例えば頭・腕・胴体・脚)毎に識別器を用意する。そして、物体が歩行者である可能性がある場合、符号42に示すそれぞれのパーツを構成する各測距点を、識別器に基づいてパーツ毎に抽出し、符号43に示すパーツ点群を得る。この処理の際には、例えば、下記の技術を用いることができる。
「Pedestrian Detection Combining RGB and Dense LIDAR Data, C. Premebida, J. Carreira, J. Batista, U. Nunes; IROS2014」
続いて、抽出したパーツ点群の補正を行う。すなわち、歩行者が直立状態のときを標準姿勢と定義し、各パーツの位置と向きが重なるように座標変換する。具体的には、前記第2実施例と同様の考え方で、まず各パーツ点群に対して主成分分析を行う(S430)。
続いて、各パーツ点群に対して回転変換を行う(S435)。この処理では、図13の上段および中段に示すように、第1主成分ベクトルがy軸と平行になるように回転する座標変換を行う。
そして、標準姿勢となったクラスタ点群を、補正クラスタ点群として保持する。
これらの処理によって、図13に示すように、時刻によって手足の位置がまちまちであった歩行者であっても(図13上段参照)、手足の位置が統一された状態で(図13中段参照)、統合することができる。
続いて、補正クラスタ点群の統合処理を行う(S440)。
すなわち、各取得時間で各パーツの向きが異なる場合であっても、各パーツの位置が統一された状態で(図13中段参照)、補正クラスタ点群が統合されることになる(図13下段参照)。このような処理が終了すると第3実施形態の超解像処理を終了する。
このような第3実施形態の運転支援システムによれば、例えば、歩行者が腕を振る場合等、物体を構成するパーツの方向が変化した場合においても、各パーツの方向を揃えた上で過去における測距点群とともに利用でき、高精度な識別を行うことができる。
[第4実施形態]
次に、第4実施形態の運転支援システムについて説明する。簡単のため、時刻情報は用いない形態にて説明する。第4実施形態の運転支援システムにおいては、レーダ制御部11は距離に応じて反射強度を補正する。そして、反射強度も用いて統合クラスタ点群を識別する。
第4実施形態の超解像処理では、図14に示すように、まず、距離と反射強度とを含むクラスタ点群を取得する。
そして、反射強度の正規化を行う(S470)。
すなわち、図15に示すように、原理上において反射強度Iが距離rの2乗に反比例する特性(反射強度の距離二乗則)を利用して、測距点群が同距離(r=1)に存在すると仮定した反射強度となるよう反射強度を補正する。
そして、反射強度を補正した補正クラスタ点群を用いて、統合処理を行う(S480)。
このようにする場合、予め補正後の反射強度を用いて識別モデルを学習しておき、識別処理では、補正後の反射強度も用いて統合点群クラスタの種別を識別する。
このような第4実施形態の運転支援システムによれば、距離に応じて反射強度を補正するので、距離に依存しない識別モデルを構築でき、高精度な識別を行うことができる。
[第5実施形態]
次に、第5実施形態の運転支援システムについて説明する。簡単のため、時刻情報は用いない形態にて説明する。第5実施形態の運転支援システムにおいては、自車両の姿勢(傾き)を取得し、自車両の姿勢に応じて測距点群を補正する。
詳細には、図16に示す超解像処理を実施する。第5実施形態の超解像処理では、図16に示すように、まず、自車両の姿勢推定の一例としてピッチング推定を行う(S510)。ピッチング推定処理は周知であり、例えば、特開2003−043147号公報に記載の技術を用いることができる。また、車両の傾きセンサ等からの情報を利用してもよい。
続いて、測距点群の回転変換を実施する(S520)。この処理では、推定したピッチング角αを用いて、ピッチング時に得られた測距点群が実際には物体のどの位置に相当するかを特定し、測距点群を補正する。
続いて、自車両のピッチングを補正した補正クラスタ点群を用いて統合する(S530)。
このような処理を実施すると、例えば、図17に示すように、車両のピッチングによって各時刻に異なる位置のクラスタ点群が得られる。例えば、時刻(T−2)にてピッチングが発生していない場合のクラスタ点群に比較し、時刻(T−1)にて自車両が上向きにピッチングしていると比較的高い位置のクラスタ点群が得られ、時刻Tにて自車両が下向きにピッチングしていると比較的低い位置のクラスタ点群が得られる。
図17に示すように、これらの補正クラスタ点群を統合すると、ピッチングによる点群補正を実施しない場合と比較して、より高解像度な、又は鉛直方向により広い範囲の統合クラスタ点群が得られることになる。このような処理が終了すると、第5実施形態の超解像処理を終了する。
このような第5実施形態の運転支援システムによれば、自車両の姿勢(傾き)に応じて測距点群を補正することで、より高解像度な、又は鉛直方向により広い範囲の統合クラスタ点群が得られるので、高精度な識別を行うことができる。
[第6実施形態]
次に、第6実施形態の運転支援システムについて説明する。簡単のため、時刻情報は用いない形態にて説明する。第6実施形態の運転支援システムにおいては、過去における識別結果を取得し、種別に基づいて物体の形状に合致するように補正クラスタ点群を生成する。
具体的には、図18に示す超解像処理を実施する。第6実施形態の超解像処理では、図18に示すように、まず、前回の識別結果を取得する(S560)。そして、識別結果に応じて点群補正処理の際に利用する点群モデルを選択する(S570)。
続いて、点群モデルフィッティングを実施する(S580)。この処理では、例えば図19に示すように、時刻(T−2)にて電柱であると識別され、電柱の点群モデルが選択された場合には、電柱の点群モデルに最も合致するように、時刻(T−1)における各クラスタ点群を補正する。
より具体的には、例えば、ICP(Iterative Closest Point)等の一般的に知られる2点群のフィッティング技術を利用すればよい。この処理では、点群間の位置の誤差が最小となるようにクラスタ点群が補正され、補正クラスタ点群を生成する。
続いて、前述のような補正クラスタ点群の統合処理を行い(S590)、第6実施形態の超解像処理を終了する。
このような第6実施形態の運転支援システムによれば、物体の種別が識別できている場合には、その形状に合わせて位置を補正するので、補正精度が向上し高精度な識別を行うことができる。
[第7実施形態]
次に、第7実施形態の運転支援システムについて説明する。第7実施形態の運転支援システムにおいては、レーダ制御部11は、測距点群取得時の測距点の距離に応じた重み付けを行った上で統合クラスタ点群を用い、識別処理を行う。
なお、点群補正処理については、例えばここでは第1実施形態の重心座標変換を用いて説明する。
具体的には、まず、クラスタ点群を取得する際に、各測距点の距離rも記録しておく。
次に、重心座標を用いた座標変換にて補正クラスタ点群を得る。
そして、測距点の距離を含む補正クラスタ点群を用いて統合する。
そして、第7実施形態の運転支援システムでは、図20に示す識別処理を実施する。第7実施形態の識別処理では、図20に示すように、まず、統合クラスタ点群に付随した距離情報を用いて、識別処理に有効な測距点を選定する(S610)。
この処理では、例えば、所定距離(THr)以内の測距点のみを使用し、それ以遠の測距点は使用しないよう設定する。すなわち、ある程度遠距離のデータは信頼性が乏しい可能性があるため、使用されにくく設定する。他には、例えば統合クラスタ点群の中で、距離が近い測距点ほど重み付けを大きくして識別を行ってもよい。
以下、図8にて示したS320およびS330の処理を実施し、第7実施形態の識別処理を終了する。
このような第7実施形態の運転支援システムによれば、各測距点の距離に応じて重み付けを行った上で物体の識別を行うため、信頼度の高い情報のみを用いて高精度な識別を行うことができる。
[第8実施形態]
次に、第8実施形態の運転支援システムについて説明する。第8実施形態の運転支援システムにおいては、レーダ制御部11は、測距点の距離から得られるレーザ光の照射領域(以下、測距点領域と呼ぶ。)とその面積(以下、測距点面積と呼ぶ。)に基づいてクラスタ点群のレーザ光の照射領域(以下、クラスタ点群領域と呼ぶ。)の面積(以下、クラスタ点群面積と呼ぶ。)を演算し、クラスタ点群面積を利用して統合クラスタ点群を識別する。また、第8実施形態の運転支援システムにおいてレーダ制御部11は、今回得られたクラスタ点群領域と、過去におけるクラスタ点群領域との和集合(以下、統合クラスタ点群領域と呼ぶ。)の面積(以下、統合クラスタ点群面積と呼ぶ。)を用いて統合クラスタ点群を識別する。
なお、点群補正処理については、例えばここでは第1実施形態の重心座標変換を用いて説明する。
具体的には、まず、測距点群を取得する際に、各測距点の測距点領域を記録しておく。
なお、測距点領域は、距離が大きくなるに従って領域が大きくなるよう設定される。
次に、重心座標を用いた座標変換にて補正クラスタ点群を得る。
続いて、測距点領域を含む補正クラスタ点群を用いて統合する。
そして、第8実施形態の運転支援システムでは、図21に示す識別処理を実施する。第8実施形態の識別処理では、まず、統合クラスタ点群面積を演算する(S660)。この際、図22に示すように、時刻(T−1)における補正クラスタ点群領域と時刻Tにおける補正クラスタ点群領域に対して、各測距点面積の総和を統合クラスタ点群面積とする。
続いて、統合クラスタ点群面積を特徴量として、予め用意した識別モデルを用いて識別スコアの演算を行う(S670)。このような処理が終了すると、第8実施形態の識別処理を終了する。
このような第8実施形態の運転支援システムによれば、統合クラスタ点群面積を用いて物体を識別するので、物体の面積を高精度に表現でき、高精度な識別を行うことができる。
[第9実施形態]
次に、第9実施形態の運転支援システムについて説明する。第9実施形態の運転支援システムにおいては、レーダ制御部11は追跡処理(S130)を用いて各クラスタの速度を取得し、予め速度別に学習したモデルから各クラスタの速度に応じて1つのモデルを選択し、選択したモデルを用いて識別を行う。
すなわち、図23に示す識別処理を実施する。第9実施形態の識別処理では、図23に示すように、まず、各統合クラスタ点群の平均速度を演算する(S710)。この処理では、自車速や舵角から自車両の速度を求めるとともに、追跡処理(S130)に基づいて各クラスタの速度v(t)を求める。そして、過去一連のクラスタの速度の平均を統合クラスタ点群の平均速度とする。
続いて、モデルを選定する(S720)。ここで、レーダ制御部11においては、予め物体の種別および物体の速度の区分に応じて複数のモデルが準備されている。例えば歩行者の場合、静止状態では姿勢の変化が小さいが、移動中には姿勢の変化が大きいため、速度に応じて複数のモデルを準備する。
続いて、選定したモデルを用いて識別スコアの演算を行う(S730)。このような処理が終了すると、第9実施形態の識別処理を終了する。
このような第9実施形態の運転支援システムによれば、速度に応じて姿勢が変化する場合であっても、姿勢変化に対して頑強な識別を行うことができる。
[その他の実施形態]
本発明は、上記の実施形態によって何ら限定して解釈されない。また、上記の実施形態の説明で用いる符号を特許請求の範囲にも適宜使用しているが、各請求項に係る発明の理解を容易にする目的で使用しており、各請求項に係る発明の技術的範囲を限定する意図ではない。上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてもよい。また、上記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、上記実施形態の構成の一部を、課題を解決できる限りにおいて省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
上述した運転支援システムの他、当該運転支援システムの構成要素となる制御装置、当該運転支援システムとしてコンピュータを機能させるためのプログラム、このプログラムを記録した媒体、運転支援方法など、種々の形態で本発明を実現することもできる。
[実施形態の構成と本発明の手段との対応関係]
上記実施形態においてレーダ制御部11は本発明でいう物体認識装置に相当する。また、上記実施形態においてレーダ制御部11が実行する処理のうちのS110の処理は本発明でいう測距点群取得手段に相当し、上記実施形態におけるS120の処理は本発明でいうクラスタリング手段に相当し、S150の処理は本発明でいう点群補正手段と統合手段に相当し、S170の処理は本発明でいう識別手段に相当する。
さらに、上記実施形態におけるS210〜S220、S360〜S380、S410〜S435、S460〜S470、S510〜S520、S560〜S580の処理は本発明でいう点群補正手段に相当し、上記実施形態におけるS230、S390、S440、S480、S530、S590の処理は本発明でいう統合手段に相当する。また、上記実施形態におけるS170、S320〜S330、S660〜S670の処理は本発明でいう識別手段に相当し、上記実施形態におけるS360〜S370の処理は本発明でいうクラスタ方向推定手段に相当する。
さらに、上記実施形態におけるS380の処理は本発明でいうクラスタ回転補正手段に相当し、上記実施形態におけるS410の処理は本発明でいう点群分割手段に相当する。また、上記実施形態におけるS430の処理は本発明でいうパーツ方向推定手段に相当し、上記実施形態におけるS435の処理は本発明でいうパーツ回転補正手段に相当する。
さらに、上記実施形態におけるS470の処理は本発明でいう反射強度補正手段に相当し、上記実施形態におけるS510の処理は本発明でいう自車両姿勢取得手段に相当する。また、上記実施形態におけるS520の処理は本発明でいう姿勢補正手段に相当し、上記実施形態におけるS560の処理は本発明でいう識別結果取得手段に相当に相当する。
さらに、上記実施形態におけるS660の処理は本発明でいう面積演算手段に相当し、上記実施形態におけるS710の処理は本発明でいう速度取得手段に相当する。
1…運転支援システム、10…レーダ装置、11…レーダ制御部、12…走査駆動部、13…光学ユニット、14…発光部、15…受光部、18…CPU、19…メモリ、30…車両制御部。

Claims (13)

  1. 自車両に搭載され、自車両の周囲に位置する物体を認識する物体認識装置(2)であって、
    物体を検出する検出領域を予め水平方向および鉛直方向に格子状に区分した照射領域毎にレーザ光を照射し、それぞれの照射領域にて前記レーザ光の反射光を受光することで得られるそれぞれの物体との距離情報を測距点として、複数の測距点の集合を表す測距点群を取得する測距点群取得手段(S110)と、
    前記測距点群をクラスタリングし、クラスタ点群を得るクラスタリング手段(S120)と、
    前記クラスタ点群の位置をクラスタ毎に設定された位置に補正した補正クラスタ点群を生成する点群補正手段(S210〜S220、S360〜S380、S410〜S435、S460〜S470、S510〜S520、S560〜S580)と、
    それぞれのクラスタについて得られた現在時刻の補正クラスタ点群を、過去において各クラスタについて得られた過去時刻の統合クラスタ点群に統合した現在時刻の統合クラスタ点群を得る統合手段(S230、S390、S440、S480、S530、S590)と、
    を備えたことを特徴とする物体認識装置。
  2. 請求項1に記載の物体認識装置において、前記統合クラスタ点群を用いて物体の種別を識別する識別手段(S170、S320〜S330、S660〜S670)、
    を備えたことを特徴とする物体認識装置。
  3. 請求項1または請求項2に記載の物体認識装置において、
    前記点群補正手段は、それぞれのクラスタ点群の原点の位置を、過去において得られた統合クラスタ点群にて設定された原点の位置と一致させる補正を行うこと
    を特徴とする物体認識装置。
  4. 請求項1〜請求項3の何れか1項に記載の物体認識装置において、
    前記点群補正手段は、
    クラスタ点群の方向を推定するクラスタ方向推定手段(S360〜S370)と、
    クラスタ点群の方向を予め設定された方向に回転させるクラスタ回転補正手段(S380)と、
    を備えたことを特徴とする物体認識装置。
  5. 請求項1〜請求項3の何れか1項に記載の物体認識装置において、
    前記点群補正手段は、
    クラスタ点群を複数のパーツに分割して、前記各パーツを構成する点群を表すパーツ点群を生成する点群分割手段(S410)と、
    前記複数のパーツのそれぞれについてパーツ点群の方向を推定するパーツ方向推定手段(S430)と、
    前記複数のパーツ点群の方向を予め設定された方向に回転させるパーツ回転補正手段(S435)と、
    を備えたことを特徴とする物体認識装置。
  6. 請求項2に記載の物体認識装置において、
    前記測距点群取得手段は、距離と反射強度とを含む測距点群を取得するよう構成され、
    当該物体認識装置は、
    距離に応じて反射強度を補正する反射強度補正手段(S470)、を備え、
    前記識別手段は、反射強度も用いて物体の種別を識別すること
    を特徴とする物体認識装置。
  7. 請求項1〜請求項6の何れか1項に記載の物体認識装置において、
    自車両の姿勢を取得する自車両姿勢取得手段(S510)と、
    自車両の姿勢に応じて測距点群の位置を補正する姿勢補正手段(S520)と、
    を備えたことを特徴とする物体認識装置。
  8. 請求項1〜請求項7の何れか1項に記載の物体認識装置において、
    過去における識別結果を取得する識別結果取得手段(S560)、
    を備え、
    前記点群補正手段は、前記物体の種別に基づいて、前記種別に対応して予め設定された形状に合わせて位置を補正するように補正クラスタ点群を生成すること
    を特徴とする物体認識装置。
  9. 請求項2または請求項6に記載の物体認識装置において、
    前記点群補正手段は、測距点群の取得時刻を含む補正クラスタ点群を生成し、
    前記識別手段は、前記統合クラスタ点群に含まれる測距点の取得時刻に応じた重み付けを行った上で利用すること
    を特徴とする物体認識装置。
  10. 請求項2、請求項6、請求項9の何れか1項に記載の物体認識装置において、
    前記識別手段は、前記統合クラスタ点群に含まれる測距点の距離に応じた重み付けを行った上で利用すること
    を特徴とする物体認識装置。
  11. 請求項2、請求項6、請求項9、請求項10の何れか1項に記載の物体認識装置において、
    測距点の距離に応じて推定されるレーザ光の照射領域に基づいて、統合クラスタ点群の照射領域の面積を演算する面積演算手段(S660)、
    を備え、
    前記識別手段は、前記面積を利用して物体の種別を識別すること
    を特徴とする物体認識装置。
  12. 請求項2、請求項6、請求項9〜請求項11の何れか1項に記載の物体認識装置において、
    前記面積演算手段は、統合クラスタ点群において、各測距点の各照射領域の重複領域に応じて重み付けすることで、統合クラスタ点群の照射領域の重み付き面積を演算し、
    前記識別手段は、前記重み付き面積を用いて物体の種別を識別すること
    を特徴とする物体認識装置。
  13. 請求項2、請求項6、請求項9〜請求項12の何れか1項に記載の物体認識装置において、
    統合クラスタ点群の速度を取得する速度取得手段(S710)、
    を備え、
    前記識別手段は、予め準備された複数のモデルから前記物体の速度に応じてモデルを選択し、該選択したモデルを用いて物体の種別を識別すること
    を特徴とする物体認識装置。
JP2015088455A 2015-04-23 2015-04-23 物体認識装置 Active JP6411942B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015088455A JP6411942B2 (ja) 2015-04-23 2015-04-23 物体認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015088455A JP6411942B2 (ja) 2015-04-23 2015-04-23 物体認識装置

Publications (2)

Publication Number Publication Date
JP2016206026A true JP2016206026A (ja) 2016-12-08
JP6411942B2 JP6411942B2 (ja) 2018-10-24

Family

ID=57487763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015088455A Active JP6411942B2 (ja) 2015-04-23 2015-04-23 物体認識装置

Country Status (1)

Country Link
JP (1) JP6411942B2 (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019049484A (ja) * 2017-09-11 2019-03-28 コニカミノルタ株式会社 物体検出システム及び物体検出プログラム
JP2019095339A (ja) * 2017-11-24 2019-06-20 トヨタ自動車株式会社 物体認識装置
JP2019168417A (ja) * 2018-03-26 2019-10-03 株式会社デンソー 物体認識装置、及び物体認識方法
CN110573908A (zh) * 2017-02-15 2019-12-13 丰田自动车株式会社 点群数据处理装置、方法和程序、车辆控制装置以及车辆
JP2019215281A (ja) * 2018-06-13 2019-12-19 株式会社デンソーテン レーダ装置および物標データ出力方法
WO2020026765A1 (ja) * 2018-07-31 2020-02-06 株式会社ニコン 処理装置、姿勢解析システム、処理方法、及び処理プログラム
KR102083482B1 (ko) * 2018-12-13 2020-03-02 국민대학교산학협력단 라이다 기반의 차량주행 가능영역 검출장치 및 방법
CN111033311A (zh) * 2017-09-29 2020-04-17 三美电机株式会社 雷达装置及目标检测方法
CN111045025A (zh) * 2018-10-15 2020-04-21 图森有限公司 一种基于光检测和测距的车辆追踪方法和系统
WO2020110802A1 (ja) * 2018-11-30 2020-06-04 株式会社小糸製作所 車載用物体識別システム、自動車、車両用灯具、分類器の学習方法、演算処理装置
WO2020240609A1 (ja) * 2019-05-24 2020-12-03 日本電気株式会社 部材判別装置、部材判別方法及びコンピュータ可読媒体
CN113447940A (zh) * 2020-03-27 2021-09-28 西克股份公司 距离测量数据的检测
JP2022506428A (ja) * 2018-11-02 2022-01-17 ウェイモ エルエルシー レーザービームの入射角の計算および反射率推定へのその応用
JP2022511990A (ja) * 2019-10-31 2022-02-01 チョーチアン センスタイム テクノロジー デベロップメント カンパニー,リミテッド 情報補完方法、車線認識方法、インテリジェント走行方法及び関連製品
WO2022059955A1 (ko) * 2020-09-15 2022-03-24 (주)스마트레이더시스템 레이더 포인트 클라우드 기반 자세 판단 시스템
WO2023032620A1 (ja) * 2021-08-30 2023-03-09 京セラ株式会社 電子機器、電子機器の制御方法、及びプログラム
WO2023178925A1 (zh) * 2022-03-21 2023-09-28 中汽研(天津)汽车工程研究院有限公司 一种基于icp与多特征数据关联的障碍物预测与跟踪方法
JP7445890B2 (ja) 2020-06-10 2024-03-08 パナソニックIpマネジメント株式会社 処理装置、処理方法、プログラム、及び、レーダ装置
JP7447700B2 (ja) 2019-08-16 2024-03-12 富士通株式会社 レーダ反射点のクラスタリング装置、方法及び電子機器

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000003499A (ja) * 1998-06-16 2000-01-07 Daihatsu Motor Co Ltd 歩行者検知システム及びその制御方法
JP2002352399A (ja) * 2001-05-23 2002-12-06 Mitsubishi Electric Corp 車両周辺監視装置
JP2010218246A (ja) * 2009-03-17 2010-09-30 Toyota Motor Corp 物体識別装置
JP2011191227A (ja) * 2010-03-16 2011-09-29 Daihatsu Motor Co Ltd 物体認識装置
JP2012247215A (ja) * 2011-05-25 2012-12-13 Denso Corp 物体識別装置、および物体識別プログラム
JP2013211005A (ja) * 2012-02-27 2013-10-10 Denso Corp 画像処理装置及び、当該画像処理装置を用いた車両制御システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000003499A (ja) * 1998-06-16 2000-01-07 Daihatsu Motor Co Ltd 歩行者検知システム及びその制御方法
JP2002352399A (ja) * 2001-05-23 2002-12-06 Mitsubishi Electric Corp 車両周辺監視装置
JP2010218246A (ja) * 2009-03-17 2010-09-30 Toyota Motor Corp 物体識別装置
JP2011191227A (ja) * 2010-03-16 2011-09-29 Daihatsu Motor Co Ltd 物体認識装置
JP2012247215A (ja) * 2011-05-25 2012-12-13 Denso Corp 物体識別装置、および物体識別プログラム
JP2013211005A (ja) * 2012-02-27 2013-10-10 Denso Corp 画像処理装置及び、当該画像処理装置を用いた車両制御システム

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110573908A (zh) * 2017-02-15 2019-12-13 丰田自动车株式会社 点群数据处理装置、方法和程序、车辆控制装置以及车辆
CN110573908B (zh) * 2017-02-15 2022-10-28 丰田自动车株式会社 点群数据处理装置、方法和程序、车辆控制装置以及车辆
JP2019049484A (ja) * 2017-09-11 2019-03-28 コニカミノルタ株式会社 物体検出システム及び物体検出プログラム
CN111033311B (zh) * 2017-09-29 2023-08-18 三美电机株式会社 雷达装置及目标检测方法
CN111033311A (zh) * 2017-09-29 2020-04-17 三美电机株式会社 雷达装置及目标检测方法
JP2019095339A (ja) * 2017-11-24 2019-06-20 トヨタ自動車株式会社 物体認識装置
JP2019168417A (ja) * 2018-03-26 2019-10-03 株式会社デンソー 物体認識装置、及び物体認識方法
JP7069927B2 (ja) 2018-03-26 2022-05-18 株式会社デンソー 物体認識装置、及び物体認識方法
JP2019215281A (ja) * 2018-06-13 2019-12-19 株式会社デンソーテン レーダ装置および物標データ出力方法
JP7244220B2 (ja) 2018-06-13 2023-03-22 株式会社デンソーテン レーダ装置および物標データ出力方法
WO2020026765A1 (ja) * 2018-07-31 2020-02-06 株式会社ニコン 処理装置、姿勢解析システム、処理方法、及び処理プログラム
JP7447956B2 (ja) 2018-07-31 2024-03-12 株式会社ニコン 処理装置、姿勢解析システム、及びプログラム
JPWO2020026765A1 (ja) * 2018-07-31 2021-08-02 株式会社ニコン 処理装置、姿勢解析システム、処理方法、及び処理プログラム
JP7147848B2 (ja) 2018-07-31 2022-10-05 株式会社ニコン 処理装置、姿勢解析システム、処理方法、及び処理プログラム
CN111045025A (zh) * 2018-10-15 2020-04-21 图森有限公司 一种基于光检测和测距的车辆追踪方法和系统
JP2022506428A (ja) * 2018-11-02 2022-01-17 ウェイモ エルエルシー レーザービームの入射角の計算および反射率推定へのその応用
JPWO2020110802A1 (ja) * 2018-11-30 2021-10-14 株式会社小糸製作所 車載用物体識別システム、自動車、車両用灯具、分類器の学習方法、演算処理装置
WO2020110802A1 (ja) * 2018-11-30 2020-06-04 株式会社小糸製作所 車載用物体識別システム、自動車、車両用灯具、分類器の学習方法、演算処理装置
JP7288460B2 (ja) 2018-11-30 2023-06-07 株式会社小糸製作所 車載用物体識別システム、自動車、車両用灯具、分類器の学習方法、演算処理装置
KR102083482B1 (ko) * 2018-12-13 2020-03-02 국민대학교산학협력단 라이다 기반의 차량주행 가능영역 검출장치 및 방법
WO2020240609A1 (ja) * 2019-05-24 2020-12-03 日本電気株式会社 部材判別装置、部材判別方法及びコンピュータ可読媒体
JP7156522B2 (ja) 2019-05-24 2022-10-19 日本電気株式会社 部材判別装置、部材判別方法及びプログラム
JPWO2020240609A1 (ja) * 2019-05-24 2020-12-03
JP7447700B2 (ja) 2019-08-16 2024-03-12 富士通株式会社 レーダ反射点のクラスタリング装置、方法及び電子機器
JP2022511990A (ja) * 2019-10-31 2022-02-01 チョーチアン センスタイム テクノロジー デベロップメント カンパニー,リミテッド 情報補完方法、車線認識方法、インテリジェント走行方法及び関連製品
CN113447940A (zh) * 2020-03-27 2021-09-28 西克股份公司 距离测量数据的检测
JP7114207B2 (ja) 2020-03-27 2022-08-08 ジック アーゲー 距離測定データの取得
JP2021156882A (ja) * 2020-03-27 2021-10-07 ジック アーゲー 距離測定データの取得
JP7445890B2 (ja) 2020-06-10 2024-03-08 パナソニックIpマネジメント株式会社 処理装置、処理方法、プログラム、及び、レーダ装置
WO2022059955A1 (ko) * 2020-09-15 2022-03-24 (주)스마트레이더시스템 레이더 포인트 클라우드 기반 자세 판단 시스템
WO2023032620A1 (ja) * 2021-08-30 2023-03-09 京セラ株式会社 電子機器、電子機器の制御方法、及びプログラム
WO2023178925A1 (zh) * 2022-03-21 2023-09-28 中汽研(天津)汽车工程研究院有限公司 一种基于icp与多特征数据关联的障碍物预测与跟踪方法

Also Published As

Publication number Publication date
JP6411942B2 (ja) 2018-10-24

Similar Documents

Publication Publication Date Title
JP6411942B2 (ja) 物体認識装置
JP6938846B2 (ja) 物体認識装置
US11719788B2 (en) Signal processing apparatus, signal processing method, and program
JP6777403B2 (ja) 物体認識装置及びプログラム
CN111191600B (zh) 障碍物检测方法、装置、计算机设备和存储介质
CN108603936B (zh) 激光扫描系统、激光扫描方法、非暂时性计算机可读存储介质
JP5470886B2 (ja) 物体検出装置
EP2895881B1 (en) System and method for off angle three-dimensional face standardization for robust performance
KR102012179B1 (ko) 3차원 평면 검출 기반의 라이다-카메라 캘리브레이션 장치 및 방법
JP2006252473A (ja) 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
US20050088642A1 (en) Apparatus and method for detecting obstacles
JP2022045947A5 (ja)
KR20200076628A (ko) 모바일 디바이스의 위치 측정 방법, 위치 측정 장치 및 전자 디바이스
JP6458577B2 (ja) 画像測距装置
JP7081098B2 (ja) 走行環境認識装置、走行環境認識方法、プログラム
JP2007233440A (ja) 車載用画像処理装置
CN117557999A (zh) 一种图像联合标注方法、计算机设备及介质
CN113516685B (zh) 目标跟踪方法、装置、设备及存储介质
JP5439948B2 (ja) 誘導装置及び目標判定装置
KR101784584B1 (ko) 레이저 회전을 이용하여 3차원 물체를 판별하는 장치 및 방법
WO2018074357A1 (ja) 位置認識装置
JP2019203757A (ja) ビームを用いた測距システム
US20230066857A1 (en) Dynamic laser emission control in light detection and ranging (lidar) systems
US20240176001A1 (en) Distant lidar position correction system and method using reflector
US20240144483A1 (en) Method and system for recognizing objects, which are represented in an image by means of a point cloud

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180927

R150 Certificate of patent or registration of utility model

Ref document number: 6411942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250