JP6637472B2 - 情報処理方法及び情報処理装置 - Google Patents

情報処理方法及び情報処理装置 Download PDF

Info

Publication number
JP6637472B2
JP6637472B2 JP2017133021A JP2017133021A JP6637472B2 JP 6637472 B2 JP6637472 B2 JP 6637472B2 JP 2017133021 A JP2017133021 A JP 2017133021A JP 2017133021 A JP2017133021 A JP 2017133021A JP 6637472 B2 JP6637472 B2 JP 6637472B2
Authority
JP
Japan
Prior art keywords
vehicle
detection
sensor
mounted sensor
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017133021A
Other languages
English (en)
Other versions
JP2019015606A (ja
Inventor
森 直樹
直樹 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2017133021A priority Critical patent/JP6637472B2/ja
Publication of JP2019015606A publication Critical patent/JP2019015606A/ja
Application granted granted Critical
Publication of JP6637472B2 publication Critical patent/JP6637472B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は車載センサの検知結果の補正技術に関する。
車両の走行支援に関連して、カメラ、レーダ、ライダ、超音波センサ等の車載センサにより、車両の外界を検知する技術が提案されている。そのような技術に関連して、複数種類の車載センサを活用して外界を検知する技術(特許文献1)や、複数の受信系間の誤差を補正する技術(特許文献2)、或いは、温度などの動作環境に応じて検知結果の補正を行う技術(特許文献3)も提案されている。
特開2002−114117号公報 特開2007−093480号公報 特開2010−197342号公報
検知範囲の死角の削減や検知結果の信頼性の向上の手法として、複数の車載センサの外界検知範囲を少なくとも部分的に重ねることが考えられる。しかし、車両が使用されるにつれて、車載センサの取付位置や内部機構の可動部分の位置がずれてくる場合がある。外界検知範囲が重なっている複数の車載センサのうちの一つにこうしたずれが生じると、複数の車載センサ間で、同一の検知物を別の検知物として認識してしまう等、検知精度の低下の要因となる。車載センサの取付位置等を調整するためには、調整設備を備えた工場に車両を持ち込む必要があり、車両のユーザに負担を強いる。
本発明の目的は、調整設備を備えた工場に車両を持ち込まなくても、複数の車載センサ間の検知結果の較正を可能とする技術を提供することにある。
本発明によれば、
外界を検知する第一の車載センサ及び第二の車載センサの検知結果を収集する収集工程と、
前記第一の車載センサと前記第二の車載センサとの間の検知ずれ量を特定するための特定情報を、前記収集工程で収集した検知結果に基づいて生成する生成工程と、を含み、
前記収集工程では、前記第一の車載センサと前記第二の車載センサとの間に既知の検知ずれ量を設定した状態で前記検知結果を収集し、
前記収集工程では、前記既知の検知ずれ量を異ならせて前記検知結果を収集し、
前記生成工程では、前記検知結果及び前記既知の検知ずれ量の複数の組を含む教師データに基づく機械学習により前記特定情報を生成し、
前記収集工程では車速の検知結果も収集し、
前記教師データは、前記車速の検知結果を含み、
前記第一の車載センサと前記第二の車載センサとは、時間的に、外界検知範囲が少なくとも部分的に重なる一方、空間的には外界検知範囲が重ならない
ことを特徴とする情報処理方法が提供される。
また、本発明によれば、
外界を検知する第一の車載センサ及び第二の車載センサと、
車速センサと、
特定情報に基づいて前記第一の車載センサと前記第二の車載センサとの間の検知ずれ量を特定し、特定した前記検知ずれ量に基づいて前記第一の車載センサ又は前記第二の車載センサの検知結果を補正する補正手段と、を備え、
前記特定情報は、
前記第一の車載センサと前記第二の車載センサとの間に既知の検知ずれ量を設定した状態で収集された前記第一の車載センサ及び前記第二の車載センサ並びに前記車速センサの検知結果であって、前記既知の検知ずれ量を異ならせて収集された検知結果、及び、前記既知の検知ずれ量の複数の組を含む教師データに基づく機械学習により生成された情報であり、
前記第一の車載センサと前記第二の車載センサとは、時間的に、外界検知範囲が少なくとも部分的に重なる一方、空間的には外界検知範囲が重ならない
ことを特徴とする情報処理装置が提供される。
本発明によれば、調整設備を備えた工場に車両を持ち込まなくても、複数の車載センサ間の検知結果の較正が可能となる。
実施形態に係る情報処理装置のブロック図。 外界検知範囲の重なりの例を示す図。 (A)及び(B)は二つのライダの検知結果の例を示す模式図。 (A)及び(B)は二つのライダの検知結果の例を示す模式図。 機械学習のアーキテクチャ(ネットワーク)を示す図。 (A)〜(D)は外界検知センサに対するピッチング挙動の影響の説明図。 (A)及び(B)は検知ずれ量の設定例を示す説明図である。 (A)及び(B)は情報処理例を示すフローチャート。
<装置の概要>
図1は、本発明の一実施形態に係る車両用情報処理装置1及び情報処理装置1が適用される車両2の概要を示す平面図である。本実施形態の情報処理装置1は車両2に搭載される制御装置の一部を構成する装置であり、主に車両2の外界を検知するセンサに関わる情報処理を行う。図1において、車両2はその概略が平面図で示されている。車両2は一例として4ドアのセダンタイプの四輪の乗用車である。矢印X及びYで示す方向は水平方向であって、X方向は車両2の前後方向(全長方向)を、Y方向は車両2の左右方向(車幅方向)をそれぞれ示す。「F」は前側、「B」は後ろ側、「L」は左側、「R」は右側である。なお、図1では図示していないが上下方向をZ方向と呼ぶ。
車両2には、車載センサとしてライダ3A〜3E(総称するときはライダ3という。)、カメラ4A及び4B(総称するときはカメラ4という。)、レーダ5A〜5D(総称するときはレーダ5という。)、車速センサ6並びにピッチングセンサ7が設けられている。ライダ3、カメラ4及びレーダ5は車両2の外界(周囲状況)を検知する外界検知センサである。本実施形態では外界検知センサとしてライダ3、カメラ4及びレーダ5の三種類のセンサを設けたが一種類であってもよいし、二種類であってもよい。また、四種類以上であってもよい。ライダ、カメラ、レーダ以外の外界検知センサとしては例えば超音波センサを挙げることができる。
ライダ3は車両2の周囲の物標を検知したり、物標との距離を測距する。ライダ3が読み取った画像の解析により、物標の輪郭抽出等が可能である。ライダ3Aは車両2の前部の中央に配置されており、主に車両2の前方を検知範囲とする。ライダ3Bは車両2の前部の右側部に配置されており、主に車両2の右前方及び右側方を検知範囲とする。ライダ3Cは車両2の前部の左側部に配置されており、主に車両2の左前方及び左側方を検知範囲とする。ライダ3Dは車両2の後部の中央に配置されており、主に車両2の後方を検知範囲とする。ライダ3Eは車両2の後部の右側部に配置されており、主に車両2の右後方及び右側方を検知範囲とする。ライダ3Fは車両2の後部の左側部に配置されており、主に車両2の左後方及び左側方を検知範囲とする。
カメラ4は車両2の前方を撮像する。カメラ4が撮像した画像の解析により、物標の輪郭抽出や、道路上の車線の区画線(白線等)を抽出可能である。カメラ4A及び4Bは車両2のルーフ前部に配置されている。
レーダ5は車両1の周囲の物標を検知したり、物標との距離を測距する。レーダ5の検知結果により物標との相対距離等を演算可能である。レーダ5Aは車両2の前部右側に配置されており、主に車両2の右前方を検知範囲とする。レーダ5Bは車両2の前部左側に配置されており、主に車両2の左前方を検知範囲とする。レーダ5Cは車両2の後部右側に配置されており、主に車両2の右後方を検知範囲とする。レーダ5Dは車両2の後部左側に配置されており、主に車両2の後前方を検知範囲とする。
本実施形態のライダ3、カメラ4及びレーダ5の数及び配置は一例であり、これらのセンサの数及び配置は変更可能である。
車速センサ6は車両2の車速を検知する。ピッチングセンサ7は車両2のピッチング角を検知する。ピッチングセンサ7の検知結果は後述する教師データの収集時に用いる。したがって、テスト車両としての車両2のみに搭載し、市販車としての車両2には搭載しなくてもよい。また、ピッチングセンサ7を教師データの収集時にも用いない構成も採用可能である。
情報処理装置1はECU10〜13を含む。ECU10〜13は互いに通信可能に接続される。各ECUは、CPUに代表されるプロセッサ、半導体メモリ等の記憶デバイス、外部デバイスとのインタフェース等を含む。記憶デバイスにはプロセッサが実行するプログラムやプロセッサが処理に使用するデータ等が格納される。各ECUはプロセッサ、記憶デバイスおよびインタフェース等を複数備えていてもよい。
ECU11はカメラ4の制御及び検知結果の処理を実行するカメラ用のECUである。ECU11はカメラ4A、4B毎に設けてもよい。ECU12はライダ3の制御及び検知結果の処理を実行するライダ用のECUである。ECU12はライダ3A〜3F毎に設けてもよい。ECU13はレーダ5の制御及び検知結果の処理を実行するレーダ用のECUである。ECU13はレーダ5A〜5D毎に設けてもよい。ECU10は、ECU11〜13から送信される各センサの検知結果を統合する処理を行うECUである。ECU10は例えば車両2の周囲に存する各物標のリストを作成し、更新する。物標のリストには、例えば、各物標の位置情報、移動速度の情報、形状の情報、分類(固定物、移動物等)を含むことができる。このような物標のリストは、例えば、ユーザに対する周辺状況の報知や車両2の自動運転といった走行支援に関わる情報として利用可能である。
なお、ECUの数や、担当する機能については適宜設計可能であり、本実施形態よりも細分化したり、あるいは、統合することが可能である。
情報処理装置1は、また、記憶装置14を含む。記憶装置14は後述する教師データの収集時にデータロガーとして用いる。したがって、テスト車両としての車両2のみに搭載し、市販車としての車両2には搭載しなくてもよい。
<検知範囲の重なり>
本実施形態の場合、外界検知センサであるライダ3、カメラ4及びレーダ5は外界検知範囲が、空間的又は時間的に部分的に重なっている。外界検知範囲の重なりは同種のセンサ間又は異種のセンサ間のいずれであってもよい。図2は外界検知範囲の重なりの例を示している。
図2の例では、ライダ3Aの外界検知範囲R1、ライダ3Bの外界検知範囲R2、カメラ4Aの外界検知範囲R3及びライダ3Eの外界検知範囲R4を模式的に例示している。カメラ4Aの外界検知範囲R3は、主にそのレンズの画角により決定され、ライダ3A、3B及び3Eの外界検知範囲R1、R2及びR4は、主にそれらの検知部の位相により決定される。ライダ3の一般的な構造は、図2に示すように、Z方向の軸30を回転中心として検知部31が360度回転するものである。検知部31が車体側を指向している間の検知結果は用いず、特定の位相の範囲の検知結果を用いる。図2の例ではライダ3Cが回転角度a〜回転角度bの位相の範囲の検知結果を用いる例を例示しており、これが外界検知範囲となる。
ライダ3Aの外界検知範囲R1とライダ3Bの外界検知範囲R2とは、重複範囲OVにおいて外界検知範囲が空間的に重なっている。また、ライダ3Aの外界検知範囲R1とカメラ4Aの外界検知範囲R3や、ライダ3Bの外界検知範囲R2とカメラ4Aの外界検知範囲R3、或いは、ライダ3Bの外界検知範囲R2とライダ3Eの外界検知範囲も空間的に重なっている。図示していないがその他のセンサ間(例えばカメラ4Aとカメラ4B等)でも外界検知範囲は空間的に重なっている。
ライダ3Aの外界検知範囲R1とライダ3Eの外界検知範囲は空間的には重なっていないが時間的に重なっている。例えば、車両2が時間Tの間にその全長分だけ前進したとする。ライダ3Aの外界検知範囲R1の一部(例えば重複範囲OVの部分)に検知された路上静止物は、時間Tの経過後にライダ3Eの外界検知範囲R4に含まれて、ライダ3Eにも検知されることになる。このように、外界検知センサの外界検知範囲は、空間的には重ならないが、時間的に重なる場合もある。
外界検知範囲の重なりは部分的であってもよいし、全体的であってもよい。こうした外界検知範囲の重なりを設定することで、例えば、一方のセンサで検知されなかった物標を他方のセンサで検知することができる場合があり、全体として物標の認識率を向上し、その信頼性を向上することができる。
一方、車両2が長期間に渡って使用されるにつれて、経年的な劣化によりセンサの取付位置がずれたり、内部機構の可動部分の位置がずれる場合がある。例えばライダ3であれば、その取付位置がX方向、Y方向又はZ方向にずれる場合がある。また、検知部31の回転位相が初期の位相からずれる場合がある。こうした物理的機械的な要因に起因するずれによって外界検知範囲が変化し、検知結果にずれが生じる(検知ずれと呼ぶ)。外界検知範囲が変化すると、車両2で仮想されている三次元座標系における物標の位置の特定に影響する。この結果、二つのセンサが外界検知範囲の重複範囲において検知した同一物標を、別の物標と認識してしまう場合がある。図3(A)及び図3(B)並びに図4(A)及び図4(B)を参照して説明する。
図3(A)〜図4(B)は、ライダ3Aの検知結果である画像101と、ライダ3Bの検知結果である画像102とを模式的に示した図である。時間的には同じ時間に検知された場合を想定している。
図3(A)及び図3(B)はライダ3A及び3Bに検知ずれが無い場合を示しており、重複範囲OVに、同じ物標100が検知されている。図3(A)は画像101と画像102とを水平方向に比較した図であり、図3(B)は画像101と画像102とを上下方向(Z方向)に比較した図である。画像101及び画像102に含まれる物標100の各画像は、車両2で仮想されている三次元座標系において、水平方向、上下方向のいずれにおいても位置が一致している。換言すると、各画像101、102において、同一物標と認識可能な範囲内に、物標100の画像が位置している。
図3(A)及び図3(B)と比較して、図4(A)及び図4(B)は検知ずれがある場合を示している。図4(A)は図3(A)と同様に画像101と画像102とを水平方向に比較した図である。図4(A)はライダ3Bに検知ずれがある場合を示しており、例えば、ライダ3Bの検知部31の位相がずれているか、ライダ3Bの取付位置が水平方向にずれている。ライダ3Bの検知結果である画像102においては、重複範囲OVからはみ出すように物標100の画像が含まれている。ライダ3Aの画像101において検知されている物標100と、ライダ3Bの画像102において検知されている物標100とは同じ物標でありながら、別の物標であると認識してしまう場合がある。
図4(B)は図3(B)と同様に画像101と画像102とを上下方向に比較した図である。図4(B)はライダ3Bにずれがある場合を示しており、例えば、ライダ3Bの取付位置が上下方向にずれている。ライダ3Bの検知結果である画像102においては、物標100の画像が上に位置している。ライダ3Aの画像101において検知されている物標100と、ライダ3Bの画像102において検知されている物標100とは同じ物標でありながら、別の物標であると認識してしまう場合がある。
<検知ずれ量と検知結果の関係の学習>
本実施形態では機械学習により、センサの検知結果と検知ずれとの関係を予め特定しておく。そして、特定した関係を利用してセンサの検知結果を補正する。図5はセンサの検知結果から検知ずれ量を演算するための演算アルゴリズムを示す機械学習のアーキテクチャ(ネットワーク)を示す図である。機械学習の方式に制限はないが同図の例では深層学習の場合を例示している。
図5の例は、入力層L1、中間層(隠れ層)L2及び出力層L3を示している。入力層L1は入力データとして外界検知センサの検知結果IN1、IN2、車速センサ6の検知結果である車速V(t)を含む。検知結果IN1、IN2は、検知ずれの補正対象とする2つの外界検知センサ(例えばライダ3Aとライダ3B)の各検知結果である。以下の説明において、検知ずれの補正対象とする2つの外界検知センサのことを対象センサ対と呼ぶ。検知結果IN1、IN2は検知結果全体としてもよいし、一部としてもよい。一部とする場合、例えば、重複範囲OVに属する検知結果のみとしてもよい。検知結果IN1、検知結果IN2は時間tをパラメータとして時系列順に入力され、車速Vも時間tをパラメータとした車速センサ6の検知結果が時系列順に入力される。換言すると、同じ時間における物標の状態を示す、時期的に互いに対応する各検知結果IN1、IN2、車速Vが入力される。対象センサ対のサンプリング周期が異なる場合は早い周期の側のデータを間引く等して、時間合わせを行って検知結果を入力してもよい。
ライダ3やカメラ4の検知結果では、物標の画像形状が車速に応じて変形する。そこで、車速Vを入力データの一つとしている。なお、本実施形態では車速Vを入力データの一つとしているが、外界検知センサの検知結果IN1、IN2のみが入力データであってもよい。逆に、車両2のピッチング角等、他の要素を入力データに加えてもよい。
出力層L3は出力データとして、検知ずれ量ΔX、ΔY、ΔZ、Δth、PT(t)を含む。検知ずれ量ΔX、ΔY、ΔZは、対象センサ対の相対的なX方向、Y方向、Z方向の各取付位置のずれ量である。Δthはライダ3のみに関わる出力データであり、検知部31の位相の範囲のずれ量である。対象センサ対がともにライダ3である場合にはΔthは両者の相対的な位相ずれ量とすることができる。対象センサ対がライダ3とカメラ4の場合のように、一方のみがライダ3である場合は、そのライダ3の絶対的な位相ずれ量とすることができる。
PT(t)は時間tをパラメータとした車両2のピッチング角である。車両2のピッチング角は、外界検知センサの物理的機械的な要因に起因する検知ずれに関わるものではない。しかし、車両2のピッチング挙動は、外界検知センサの検出結果のZ方向の精度に影響する。図6(A)〜図6(D)はその説明図である。図6(A)は車両2のピッチング角が0の場合のカメラ4Aの外界検知範囲R3を例示しており、図6(C)はこの状態で物標100がカメラ4Aの検知結果103に含まれている例を例示している。図6(A)及び図6(C)と比較して、制動動作等により車両2の前側が沈み込んだ場合を例示している。本実施形態のカメラ4Aは車体に固定されていることを想定しており、車両2の前側が沈むと外界検知範囲R3が下向きに変わる。このため、沈み込み以外が同じ条件下で物標100を撮像した場合、図6(D)に示すように図6(C)の例に比べて物標100の位置が高くなる。このようにピッチング角にしたがって車両2で仮想されている三次元座標系において物標100の位置が異なる場合があり、出力データにピッチング角PTを含めることで、その座標補正が可能となる。
なお、これらの出力データは一例である。例えば、出力データをΔthのみとしてもよい。逆に、車両2のローリング角や外界検出センサの向き(X軸回り、Y軸回り、Z軸回り)、検知タイミングの時間ずれ等、他の要素を入力データに加えてもよい。
中間層L2は、例えば、L2−1〜L2−n層の複数層から形成される。各層には例えば前層と後層との結合関係やデータに対する重みづけの係数が設定される。層の構成として例えば、畳込層とプーリング層との組みを複数含んでいてもよい。中間層L2は入力側から出力側へデータが一方向へ流れる順伝搬型のネットワークでもよいし、入力データの時系列に依存するニューラルネットワーク(例えば、RNN、LSTM)であってもよい。ライダ3Aとライダ3Eのように、外界検知範囲が時間的に重なる外界検知センサを対象センサ対とする場合、異なる時間での検知結果の比較が必要となる。このため、外界検知範囲が時間的に重なる対象センサ対の場合、入力データの時系列に依存するニューラルネットワークの採用が有利である。
本実施形態における機械学習は、教師データを用いる機械学習である。教師データは、対象センサ対間に意図的に検知ずれ量を設定しておき、その状態で車両2を実走行するテストを行うことで収集する。テストで得た入力データ(外界検知センサの検知結果IN1、IN2、車速Vの検知結果)と出力データ(意図的に設定した検知ずれ量とピッチング角PTの検知結果)の組みを教師データとして機械学習を行う。入力データのことを教師入力データ、出力データのことを教師出力データと呼ぶ場合がある。
図7(A)及び図7(B)は検知ずれ量の設定例を示す説明図である。図7(A)の例では対象センサ対は、例えば、ライダ3Aとライダ3Bである。ライダ3Aは検知ずれを生じる取付位置等のずれはない。ライダ3BはY方向にY1だけ意図的に変位させて取り付ける。この例の場合、教師出力データは、ΔX=0、ΔY=Y1、ΔZ=0、Δth=0を既知の検知ずれ量とし、PT(t)=テスト時のピッチングセンサ7の検知結果、とすることができる。
図7(B)の例では対象センサ対は、例えば、ライダ3Aとライダ3Cである。ライダ3Aは検知ずれを生じる取付位置等のずれはない。ライダ3Cは検知部31の位相の範囲が角度Θだけ意図的にずれさせてある。この例の場合、教師出力データは、ΔX=0、ΔY=Y1、ΔZ=0、Δth=Θを既知の検知ずれ量とし、PT(t)=テスト時のピッチングセンサ7の検知結果、とすることができる。
教師データにおける組み合わせの種類は、多いほど演算精度が高まる。対象センサ対毎に、ΔX、ΔY、ΔZ、Δthの値や組み合わせ方を、例えば、数十万通り設定してテストを行い、教師入力データと教師出力データとの組みを収集し、これらの教師データを用いた機械学習を行うことで、中間層L2のアルゴリズム(演算式の係数)を得ることができる。
機械学習においては、例えば、教師データの集合において、各学習入力データに対応する出力データが演算され、演算した出力データと学習出力データとが比較される。そして、演算した出力データと学習出力データとの差の、その集合での総和が最小となるように中間層L2の各係数を変化させながら各係数の最適解が演算される。機械学習の結果として得た中間層L2のアルゴリズム(演算式の係数)は、対象センサ対の間の検知ずれ量を特定する特定情報となる。
<情報処理例>
情報処理装置1及び車両2を用いた教師データの収集及び特定情報の生成手順について図8(A)を参照して説明する。車両2はピッチングセンサ7を備えるものとし、情報処理装置1は記憶装置14を備えるものとする。なお、情報処理装置1は必ずしも市販車両に備えられるものである必要はない。
S1では対象センサ対の間に検知ずれ量を設定する。ここではテスト作業者が図7(A)や図7(B)に例示したように車両2の外界検知センサに対して意図的な検知ずれを物理的に生じさせる。テスト作業者は設定した検知ずれ量を情報処理装置1に入力する。S2では車両2を実走行し、対象センサ対の検知結果を時系列順に多数収集する。収集は情報処理装置1が自動的に行い、情報処理装置1は収集した検知結果を時間及びS1で設定した検知ずれ量と関連付けて記憶装置14に蓄積する。これが教師データとなる。
S3では、S1で設定した検知ずれ量について、機械学習に必要な教師データが収集できたか否かを作業者が(または情報処理装置1が)判断する。収集できた場合はS4へ進み、検知ずれ量の設定を異ならせて再びS2における対象センサ対の検知結果の収集を行う。以下、S2〜S4の工程を繰り返して行う。また、対象センサ対を複数種類の組み合わせとする場合には、各組み合わせについてS2〜S4の工程を繰り返し行う。
対象センサ対の組み合わせは、例えば、ライダ−ライダ、ライダ−カメラ、カメラ−カメラ等、同種センサ対、異種センサ対の組み合わせを挙げることができる。同種センサ対の場合も、ライダ3A−ライダ3B、ライダ3A−ライダ3C、ライダ3B−ライダ3E等、配置の異なるセンサ対の組み合わせの全てについて行ってもよい。こうしたデータ収集のテストは、センサ配置が共通する多数の車両で並行的に行ってもよい。
S5では記憶装置14に収集した教師データによりコンピュータに機械学習を行わせ、対象センサ対の検知結果から検知ずれ量を特定する特定情報を生成する。機械学習に用いるコンピュータは何でもよい。機械学習により中間層L2の各層の演算式の係数が得られ、これが特定情報となる。対象センサ対を複数種類とした場合は、対象センサ対の組み合わせ毎に特定情報が生成される。
S6ではS5で生成した特定情報を車両2の制御プログラムにプログラマーが組み込む。以上により一連の処理が終了する。
図8(B)は、市販車両としての車両2の運転時において情報処理装置1が実行する処理例を示している。ここでの車両2はピッチングセンサ7は不要であり、また、記憶装置14も不要である。
S11では車載センサの検知結果を取得する。例えば、ECU10はECU11〜13を介してカメラ4、ライダ3、レーダ13の各検知結果を取得する。また、車速センサ6の検知結果を取得する。S12では対象センサ対について検知ずれ量及びピッチング角を特定する。ここでは図5に例示した演算アルゴリズムにおいて、S11で取得した検知結果を入力データとし、特定情報を用いた演算を実行して、出力データとして検知ずれ量ΔX、ΔY、ΔZ、Δth及びピッチング角PTを導出する。
S13ではS12で特定した検知ずれ量ΔX、ΔY、ΔZ、Δth及びピッチング角PTを用いてS11で取得した検知結果を補正する。
一例として、対象センサ対がライダ3Aとライダ3Bとの場合で、検知ずれ量ΔX=0、ΔY=Y2、ΔZ=0、Δth=0であったとする。この場合、ライダ3A又はライダ3Bの検知結果のいずれかのY軸の物標座標をY2だけ補正する。補正量はY2に対して、車両2と物標との距離に応じた係数をかけた値としてもよい。
また、検知ずれ量ΔX=0、ΔY=0、ΔZ=0、Δth=Θであったとする。この場合、ライダ3A又はライダ3Bの検知結果のいずれかのX方向およびY方向の物標座標を、角度Θ分に相当する量だけ補正する。また、Δthについて検知ずれ量が認識された場合には、その後、ライダ3A又はライダ3Bのいずれかについて、検知結果として利用する位相の範囲をΔth分だけずらせてもよい。つまりライダ3の動作補正を行う。例えば、Δthとして30度の遅れが認められた場合、検知結果として利用する位相の範囲を30度進めればよい。これにより検知結果には位相に関する検知ずれを無くすことができる場合がある。
対象センサ対のうち、検知ずれの補正の対象とするセンサは、どちらのセンサでもよい。但し、対象センサ対の組み合わせを複数の組み合わせとする場合は、基準とするセンサ(検知結果を補正しないセンサ)に優先順位を設定することで、各センサ間の検知ずれを解消できる。例えば、対象センサ対の組み合わせとして、ライダ3A−ライダ3B、ライダ3A−ライダ3C、ライダ3B−ライダ3Eの三種類の組み合わせがある場合、ライダ3Aを最上位のセンサとする。すると、ライダ3Aとライダ3Bとの間ではライダ3Bの検知結果が補正され、ライダ3Aとライダ3Cとの間ではライダ3Cの検知結果が補正される。結果として、ライダ3Aが基準となってライダ3Bとライダ3Cとの間の検知ずれも解消されることになる。また、ライダ3Bを次順位のセンサとする。ライダ3Bとライダ3Eとの間ではライダ3Eの検知結果が補正され、結果として、ライダ3Aとライダ3Eとの間の検知ずれも解消されることになる。
ピッチング角PTについては、全ての外界検知センサが補正の対象となり、Z方向の物標座標を補正する。補正量は、例えば、車両2から物標までの距離に応じた係数をピッチング角PTにかけた値とすることができる。
S14ではS13で補正した検知結果に基づいて、物標データを更新する。以上により一単位の処理が終了する。
以上の通り、本実施形態によれば、調整設備を備えた工場に車両を持ち込まなくても、複数の車載センサ間の検知結果の較正が可能となる。なお、S12で検知ずれ量が認められた場合には、その内容を記憶しておいてもよい。車両2が車検等で向上に持ち込まれた際、サービスマンが記憶された内容を参照してセンサの取付位置等の調整を行うことができる。また、S12で規定値を超える検知ずれ量が認められた場合には、運転者に警告を発するようにしてもよい。補正できないほどの検知ずれがあった場合に、運転者に修理を促すことが可能となる。
<実施形態のまとめ>
1.上記実施形態の情報処理方法は、
外界を検知する第一の車載センサ(例えば3,4)及び第二の車載センサ(例えば3,4)の検知結果を収集する収集工程(例えばS2)と、
前記第一の車載センサと前記第二の車載センサとの間の検知ずれ量を特定するための特定情報を、前記収集工程で収集した検知結果に基づいて生成する生成工程(例えばS5)と、を含み、
前記収集工程では、前記第一の車載センサと前記第二の車載センサとの間に既知の検知ずれ量(例えばY1,Θ)を設定した状態で前記検知結果を収集し、
前記収集工程では、前記既知の検知ずれ量を異ならせて前記検知結果を収集し(例えばS4)、
前記生成工程では、前記検知結果及び前記既知の検知ずれ量の複数の組を含む教師データに基づく機械学習により前記特定情報を生成する。
この実施形態によれば、車載センサの検知結果から検知ずれ量を特定することが可能となる。よって、調整設備を備えた工場に車両を持ち込まなくても、複数の車載センサ間の検知結果の較正が可能となる。
2.上記実施形態の情報処理方法は、
前記第一の車載センサと前記第二の車載センサとは、空間的に、外界検知範囲が少なくとも部分的に重なる。
この実施形態によれば、外界検知範囲が重なる車載センサ間で、検知ずれ量を特定することができる。
3.上記実施形態の情報処理方法は、
前記第一の車載センサと前記第二の車載センサとは、時間的に、外界検知範囲が少なくとも部分的に重なる、
この実施形態によれば、空間的には外界検知範囲が重ならなくても時間的に重なれば、それらの車載センサ間で、検知ずれ量を特定することができる。
4.上記実施形態の情報処理方法では、
前記収集工程では車速(例えばV)を検知し、
前記教師データは、前記車速の検知結果を含む。
この実施形態によれば、検知される物標の検知結果が車速に応じて変動することに対応することができ、検知ずれ量の特定の精度を向上できる。
5.上記実施形態の情報処理方法では、
前記収集工程では車両のピッチングを検知し、
前記教師データは、前記車両のピッチング(例えばPT)の検知結果を含む。
この実施形態によれば、市販車両においてピッチングを検知するためのセンサを不要とし、車両のピッチングに影響される物標の検知結果を補正することが可能となる。
6.上記実施形態の情報処理方法では、
車両運転時に、前記第一の車載センサ及び前記第二の車載センサの検知結果と前記特定情報とに基づいて前記検知ずれ量を特定し(例えばS12)、特定した前記検知ずれ量に基づいて前記第一の車載センサ又は前記第二の車載センサの検知結果を補正する補正工程(例えばS13)を更に含む。
この実施形態によれば、調整設備を備えた工場に車両を持ち込まなくても、複数の車載センサ間の検知結果の較正を行うことができる。
7.上記実施形態の情報処理方法では、
前記第一の車載センサ及び前記第二の車載センサの少なくともいずれか一方はライダ(例えば3)であり、
前記検知ずれ量とは、前記ライダの位相ずれ量(例えばΔth)を含む。
この実施形態によれば、ライダの位相ずれを較正できる。
8.上記実施形態の情報処理方法では、
前記検知ずれ量とは、三次元の位置ずれ量(例えばΔX,ΔY,ΔZ)を含む。
この実施形態によれば、車載センサの取付位置のずれに起因する誤差の較正を行うことができる。
9.上記実施形態の情報処理方法では、
前記第一の車載センサ及び前記第二の車載センサの一方はライダであり、他方はカメラである。
この実施形態によれば、異種のセンサ間で検知結果の較正が可能となる。
10.上記実施形態の情報処理方法では、
前記収集工程では、前記第一の車載センサ及び前記第二の車載センサの複数の検知結果を時系列で収集し、
前記生成工程では、時期的に互いに対応する前記第一の車載センサ及び前記第二の車載センサの検知結果を入力として前記機械学習を行う。
この実施形態によれば、サンプルタイミングの時間ずれによる検知結果のずれの影響を抑制しつつ、より多くの学習を行うことができる。
11.上記実施形態の情報処理装置は、
外界検知範囲が少なくとも部分的に重なる第一の車載センサ(例えば3,4)及び第二の車載センサ(例えば3,4)と、
特定情報に基づいて前記第一の車載センサと前記第二の車載センサとの間の検知ずれ量を特定し(例えばS12)、特定した前記検知ずれ量に基づいて前記第一の車載センサ又は前記第二の車載センサの検知結果を補正する補正手段(例えばS13)と、を備え、
前記特定情報は、
前記第一の車載センサと前記第二の車載センサとの間に既知の検知ずれ量を設定した状態で収集された前記第一の車載センサ及び前記第二の車載センサの検知結果であって、前記既知の検知ずれ量を異ならせて収集された検知結果、及び、前記既知の検知ずれ量の複数の組を含む教師データに基づく機械学習により生成された情報である(例えばS5)。
この実施形態によれば、車載センサの検知結果から検知ずれ量を特定でき、調整設備を備えた工場に車両を持ち込まなくても、複数の車載センサ間の検知結果の較正ができる。
1 情報処理装置、2 車両、3A〜3F ライダ、4A〜4B カメラ、5A〜5D レーダ

Claims (7)

  1. 外界を検知する第一の車載センサ及び第二の車載センサの検知結果を収集する収集工程と、
    前記第一の車載センサと前記第二の車載センサとの間の検知ずれ量を特定するための特定情報を、前記収集工程で収集した検知結果に基づいて生成する生成工程と、を含み、
    前記収集工程では、前記第一の車載センサと前記第二の車載センサとの間に既知の検知ずれ量を設定した状態で前記検知結果を収集し、
    前記収集工程では、前記既知の検知ずれ量を異ならせて前記検知結果を収集し、
    前記生成工程では、前記検知結果及び前記既知の検知ずれ量の複数の組を含む教師データに基づく機械学習により前記特定情報を生成し、
    前記収集工程では車速の検知結果も収集し、
    前記教師データは、前記車速の検知結果を含み、
    前記第一の車載センサと前記第二の車載センサとは、時間的に、外界検知範囲が少なくとも部分的に重なる一方、空間的には外界検知範囲が重ならない
    ことを特徴とする情報処理方法。
  2. 請求項1に記載の情報処理方法であって、
    前記収集工程では車両のピッチングを検知し、
    前記教師データは、前記車両のピッチングの検知結果を含む、
    ことを特徴とする情報処理方法。
  3. 請求項1又は請求項2に記載の情報処理方法であって、
    車両運転時に、前記第一の車載センサ及び前記第二の車載センサの検知結果と前記特定情報とに基づいて前記検知ずれ量を特定し、特定した前記検知ずれ量に基づいて前記第一の車載センサ又は前記第二の車載センサの検知結果を補正する補正工程を更に含む、
    ことを特徴とする情報処理方法。
  4. 請求項1乃至請求項のいずれか一項に記載の情報処理方法であって、
    前記検知ずれ量とは、三次元の位置ずれ量を含む、
    ことを特徴とする情報処理方法。
  5. 請求項に記載の情報処理方法であって、
    前記第一の車載センサ及び前記第二の車載センサの一方はライダであり、他方はカメラである、
    ことを特徴とする情報処理方法。
  6. 請求項1に記載の情報処理方法であって、
    前記収集工程では、前記第一の車載センサ及び前記第二の車載センサの複数の検知結果を時系列で収集し、
    前記生成工程では、前記第一の車載センサ及び前記第二の車載センサの時系列の検知結果を入力として前記機械学習を行う、
    ことを特徴とする情報処理方法。
  7. 外界を検知する第一の車載センサ及び第二の車載センサと、
    車速センサと、
    特定情報に基づいて前記第一の車載センサと前記第二の車載センサとの間の検知ずれ量を特定し、特定した前記検知ずれ量に基づいて前記第一の車載センサ又は前記第二の車載センサの検知結果を補正する補正手段と、を備え、
    前記特定情報は、
    前記第一の車載センサと前記第二の車載センサとの間に既知の検知ずれ量を設定した状態で収集された前記第一の車載センサ及び前記第二の車載センサ並びに前記車速センサの検知結果であって、前記既知の検知ずれ量を異ならせて収集された検知結果、及び、前記既知の検知ずれ量の複数の組を含む教師データに基づく機械学習により生成された情報であり、
    前記第一の車載センサと前記第二の車載センサとは、時間的に、外界検知範囲が少なくとも部分的に重なる一方、空間的には外界検知範囲が重ならない
    ことを特徴とする情報処理装置。
JP2017133021A 2017-07-06 2017-07-06 情報処理方法及び情報処理装置 Active JP6637472B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017133021A JP6637472B2 (ja) 2017-07-06 2017-07-06 情報処理方法及び情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017133021A JP6637472B2 (ja) 2017-07-06 2017-07-06 情報処理方法及び情報処理装置

Publications (2)

Publication Number Publication Date
JP2019015606A JP2019015606A (ja) 2019-01-31
JP6637472B2 true JP6637472B2 (ja) 2020-01-29

Family

ID=65357313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017133021A Active JP6637472B2 (ja) 2017-07-06 2017-07-06 情報処理方法及び情報処理装置

Country Status (1)

Country Link
JP (1) JP6637472B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102656945B1 (ko) * 2019-02-26 2024-04-12 현대모비스 주식회사 차량의 센서 융합 장치 및 방법
KR102336654B1 (ko) * 2019-02-26 2021-12-06 현대모비스 주식회사 차량의 센서 융합 장치 및 방법
WO2020203657A1 (ja) * 2019-04-04 2020-10-08 ソニー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
WO2020230645A1 (ja) * 2019-05-13 2020-11-19 日本電気株式会社 位置推定システム、位置推定方法、プログラム、及び記録媒体

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3095189B2 (ja) * 1991-09-10 2000-10-03 株式会社日立製作所 ナビゲーション装置
US6366236B1 (en) * 1999-08-12 2002-04-02 Automotive Systems Laboratory, Inc. Neural network radar processor
JP2006011570A (ja) * 2004-06-23 2006-01-12 Daihatsu Motor Co Ltd カメラキャリブレーション方法及びカメラキャリブレーション装置
JP2006234683A (ja) * 2005-02-25 2006-09-07 National Univ Corp Shizuoka Univ 測位システム
JP4890894B2 (ja) * 2006-03-13 2012-03-07 オムロンオートモーティブエレクトロニクス株式会社 車載用レーダ装置
JP2010249613A (ja) * 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
JP5416026B2 (ja) * 2010-04-23 2014-02-12 本田技研工業株式会社 車両の周辺監視装置
JP6428270B2 (ja) * 2014-02-10 2018-11-28 株式会社デンソー 軸ずれ検出装置
JP5976027B2 (ja) * 2014-03-27 2016-08-23 三菱電機株式会社 センサ軸ずれ検出装置およびセンサ軸ずれ検出方法
JP6396714B2 (ja) * 2014-08-06 2018-09-26 株式会社デンソー 物体認識装置

Also Published As

Publication number Publication date
JP2019015606A (ja) 2019-01-31

Similar Documents

Publication Publication Date Title
JP6637472B2 (ja) 情報処理方法及び情報処理装置
CN106471554B (zh) 驾驶辅助装置
JP5692044B2 (ja) 車両状態量推定装置、車両用操舵制御装置
CN106462968B (zh) 用于校准机动车的摄影机系统的方法和装置
CN111476106B (zh) 基于单目相机的直道相对坡度实时预测方法、系统及装置
CN104641394A (zh) 图像处理装置及存储介质
JP6787106B2 (ja) 物体検知装置
CN102778754B (zh) 用于使车辆的投影装置的投影对齐的方法和装置
CN101676686B (zh) 确定布置在车辆中的照相机的位置和取向的方法
CN102211523B (zh) 用于跟踪对象标记位置的方法和装置
JP6776202B2 (ja) 車載カメラのキャリブレーション装置及び方法
CN110023951A (zh) 信息处理设备、成像设备、装置控制系统、信息处理方法和计算机程序产品
CN111209956A (zh) 传感器数据融合方法、车辆的环境地图生成方法及系统
US11763539B2 (en) System and method for displaying spatial information in the field of view of a driver of a vehicle
EP3644293B1 (en) Travel control method and travel control device
JP6635621B2 (ja) 自動車用視覚システム及び視覚システムを制御する方法
US20220135030A1 (en) Simulator for evaluating vehicular lane centering system
US20240078632A1 (en) Vehicle vision system
EP3486871B1 (en) A vision system and method for autonomous driving and/or driver assistance in a motor vehicle
US20210240991A1 (en) Information processing method, information processing device, non-transitory computer-readable recording medium recording information processing program, and information processing system
WO2021172535A1 (ja) 物体検知装置
JP7118717B2 (ja) 画像処理装置およびステレオカメラ装置
JP5425500B2 (ja) キャリブレーション装置およびキャリブレーション方法
CN110116731A (zh) 传感器间学习
WO2020053165A1 (en) Method for determining at least one position parameter of an object in an environment of a vehicle, computer program product, driver assistance system and vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190513

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190902

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191111

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20191118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191220

R150 Certificate of patent or registration of utility model

Ref document number: 6637472

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150