JP6932664B2 - 信号処理システム、及びその評価システム、並びにその信号処理システムに用いられる信号処理装置 - Google Patents

信号処理システム、及びその評価システム、並びにその信号処理システムに用いられる信号処理装置 Download PDF

Info

Publication number
JP6932664B2
JP6932664B2 JP2018041761A JP2018041761A JP6932664B2 JP 6932664 B2 JP6932664 B2 JP 6932664B2 JP 2018041761 A JP2018041761 A JP 2018041761A JP 2018041761 A JP2018041761 A JP 2018041761A JP 6932664 B2 JP6932664 B2 JP 6932664B2
Authority
JP
Japan
Prior art keywords
signal processing
sensing
processing device
sensor
sensing data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018041761A
Other languages
English (en)
Other versions
JP2019158390A (ja
Inventor
中田 啓明
啓明 中田
道雄 森岡
道雄 森岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2018041761A priority Critical patent/JP6932664B2/ja
Priority to PCT/JP2019/008008 priority patent/WO2019172103A1/ja
Publication of JP2019158390A publication Critical patent/JP2019158390A/ja
Application granted granted Critical
Publication of JP6932664B2 publication Critical patent/JP6932664B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、協調動作機能を有する外界センサ用信号処理装置で構成される信号処理システム、及びその評価システム、並びにその信号処理システムに用いられる信号処理装置に係り、特に、車両の先進安全システムや自動運転システムを構成する、車両周辺の外界の状況をセンシングする車載外界センサから得られる信号を処理して車両周辺に存在する物体を検出あるいは認識する信号処理装置、その信号処理装置により構成される信号処理システム、及びそれら信号処理装置や信号処理システムを評価する評価システムに関する。
近年、衝突を回避あるいは衝突時の被害を軽減するために、緊急時に自動的にブレーキ操作などを行う先進安全システムを搭載した車両が普及してきている。また、自律的に移動することが可能な自動運転車も実験レベル、あるいは限定的な条件下においては実現されている。先進安全システムや自動運転車では、車両の外界の状況を認識するために、カメラやレーダ、レーザレンジファインダ、ソナーなどの外界センサと、外界センサで取り込んだセンシングデータを処理し、周辺の物体や状況を検出して認識する信号処理装置が通常搭載される。しかし、外界センサ毎に環境や対象物によって検出の得手不得手があり、未検知、誤検知や誤認識が発生する場合もあるので、認識の信頼性を高めるために、複数の外界センサを連携して統合処理することがある。
複数の外界センサを統合処理する方法として、特許文献1には、レーダによる認識結果と画像による認識結果を統合して走行環境を認識する方法が記載されている。また、特許文献2には、レーダ装置のセンシング機能とカメラ装置のセンシング機能を効果的に重畳して、物体の検出精度を向上させるために、レーダ装置の補足領域からマーカを算出し、カメラ装置で取得した画像からエッジを算出し、これらの算出結果からコンポーネント領域を算出する方法が記載されている。
特開2003−168197公報 特開2016−153775公報
ところで、外界センサは、種類や形式によりセンシングタイミングやセンシング周期が異なることが多い。外界センサによっては、センシング範囲の中のセンシング対象物の位置により、センシング時刻が異なる場合もある。また、外界センサから得られた信号を処理し、物体の検出や認識結果を出すまでの処理時間が、センサ毎、あるいは外界の状況により異なる場合もある。センシング時刻が異なると、車載装置などのように外界センサの位置が車両の移動に伴い動く場合や外界の物体そのものが移動する場合、外界センサ毎に同一物体のセンサからの相対位置が変化してセンシングされる。そのため、ある外界センサによるセンシングデータに対する認識処理結果あるいは認識処理途中の物体位置情報を別の外界センサによるセンシングデータに対する認識処理を行う際に活用し、例えば当該位置に対して認識精度向上のために重点的な処理を行う場合、同一物体に対するセンシング位置が異なると、当該処理を適用する箇所にずれが発生し、認識精度を向上する効果が低下する場合がある。また、位置ずれを考慮して、当該処理の適用範囲に余裕(マージン)を持たせて大きくすると、認識処理に必要な処理負荷が増加することになる。
本発明は、上記事情に鑑みてなされたものであって、その目的とするところは、複数の外界センサのセンシングデータを用いて認識処理を行う際、ある外界センサのセンシングデータの認識処理結果あるいは認識処理途中の物体位置情報を別の外界センサのセンシングデータの認識処理で利用する場合に、センシング時刻の違いによる位置ずれの影響を抑制することのできる信号処理システム、及びその評価システム、並びにその信号処理システムに用いられる信号処理装置を提供することにある。
上記課題を解決するために、本発明に係る信号処理システム等は、各々に外界センサが接続される複数の外界センサ用信号処理装置で構成され、各信号処理装置は、前記外界センサによりセンシングした情報から外界の物体を認識する機能を有する信号処理システムにおいて、第一の外界センサによるセンシングデータは第一の信号処理装置で認識処理を行い、第二の外界センサによるセンシングデータは第二の信号処理装置で認識処理を行い、第一の信号処理装置の出力を第二の信号処理装置が認識処理を行う際に参照する信号処理システムであって、前記第一の信号処理装置は、処理対象としたセンシングデータのセンシング時刻と物体検出位置を管理し、前記物体検出位置は、前記第二の信号処理装置が処理対象とするセンシングデータのセンシング時刻における位置となるように補正され、前記第二の信号処理装置は、認識処理を行う際に前記補正された位置を用いることを特徴とする。
本発明によれば、複数の外界センサのセンシングデータを用いて認識処理を行う際、第一の外界センサの認識処理結果あるいは認識処理途中の情報である物体位置情報を用いて第二の外界センサの認識処理を行う場合において、第二の外界センサのセンシングデータに対して重点的な処理などの特定の処理を行う位置のずれを抑制でき、もって、位置精度の向上から第二の外界センサの認識精度の向上につながる。また、特定の処理を行う領域のマージンを削減でき、認識処理の処理負荷を低減できる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
第1実施形態における、外界センサAのセンシング結果を用いて外界センサBのセンシング結果の処理を行う信号処理システムの構成例。 第1実施形態における、外界センサAのセンシング結果を用いて外界センサBのセンシング結果の処理を行う信号処理システムにおける信号処理装置の内部構成例。 外界センサをライダーとカメラで構成する場合の、カメラ側の認識処理でライダーによるセンシングから得た位置情報の利用イメージ図。 センシング時刻としてセンシング領域ごとに時刻を付加する例を説明する図。 センシング時刻として時刻算出式を用いる例を説明する図。 センシング時刻として検出した物体毎に時刻を付加する例を説明する図。 第1実施形態の信号処理システムを車両システムに組み込んだ構成例。 図7に示す車両制御システムの内部構成例。 外界センサをミリ波レーダとカメラで構成する場合の、カメラの認識処理におけるミリ波レーダのセンシングから得た位置情報の利用イメージ図。 ミリ波レーダによる位置検出結果から補正した位置を推定する例を説明する図。 カメラによるセンシング結果にミリ波レーダによるセンシング領域を投影したイメージ図。 (a)、(b)は、路面推定におけるおおまかな路面領域を示す図。 ステレオカメラの片眼画像とV-Disparity画像の関係例。 ミリ波レーダによるセンシングの信号処理の例を説明するフローチャート。 カメラによるセンシングの信号処理の例を説明するフローチャート。 第1実施形態における信号処理動作タイミングの例を説明するタイミングチャートであり、(a)は、外界センサAに対する認識処理結果を外界センサBに対する認識処理に利用する場合の信号処理動作タイミング、(b)は、外界センサAに対する前処理結果を外界センサBに対する認識処理に利用する場合の信号処理動作タイミングを説明するタイミングチャート。 第1実施形態のセンサシステムのシミュレーション評価を行う評価システムの構成例。 第1実施形態のセンサシステムのシミュレーション評価を行う際の時刻情報の簡略化の一例(センシング一回単位で全体を同時にセンシングしたとして扱う場合)を説明する図。 第1実施形態のセンサシステムのシミュレーション評価を行う際の時刻情報の簡略化の他例(主要な物体のみ一回のセンシング内でのセンシング時刻の違いを考慮)を説明する図。 第2実施形態における、外界センサAのセンシング結果を用いて外界センサBのセンシング結果の処理を行う信号処理システムにおける信号処理装置の内部構成例。 第3実施形態における、外界センサAのセンシング結果を用いて外界センサBのセンシング結果の処理を行う信号処理装置の内部構成例。 第4実施形態における、外界センサAのセンシング結果を用いて外界センサBのセンシング結果の処理を行う信号処理システムにおける信号処理装置の内部構成例。 第4実施形態における信号処理動作タイミングの例を説明するタイミングチャート。
以下、本発明の実施形態について図面を参照して説明する。
[第1実施形態]
本発明の第1実施形態の全体構成について図1を用いて説明する。
本実施形態の信号処理システム1000は、外界センサA101、外界センサB201、センサA用信号処理装置100、センサB用信号処理装置200、フュージョン処理装置650を含んで構成される。
外界センサA101は車両周辺の外界状況のセンシングを行う第一の外界センサ、外界センサB201は車両周辺の外界状況のセンシングを行う第2の外界センサである。車両周辺状況のセンシングを行うセンサの具体例としては、ミリ波レーダ、単眼カメラ、ステレオカメラ、ライダー(LiDAR:Light Detection and Ranging)などがある。外界センサA101と外界センサB201は異なる種類または形式のセンサが一般的であるが、同一種類または同一形式のセンサでも構わない。例えば、共にカメラであっても、赤外線カメラと一般的なカメラを用いることも考えられる。
センサA用信号処理装置100、センサB用信号処理装置200はそれぞれ、外界センサA101、外界センサB201に接続され、外界センサA101のセンシングデータ出力、外界センサB201のセンシングデータ出力に対して信号処理を行う装置であり、車両に搭載する場合、ECU(Electronic Control Unit)、すなわち電子制御ユニットとして実装する。信号処理機能は、ECUの一部機能として実装することもあり得る。
これらの信号処理装置100、200は、センシングデータに対して信号処理を行い、車両周辺に存在する物体を検出し、必要に応じて物体の識別を行うことで、最終的な認識結果を出力する。検出結果には、位置情報(物体検出位置)や方位だけでなく、ミリ波やレーザを利用する場合は信号の反射遅延時間、カメラを利用する場合は時間的な物体の移動、画像の特徴、視差(ステレオカメラの場合)などから算出する距離情報も含まれる。
センサA用信号処理装置100、センサB用信号処理装置200は時刻同期情報10を交換し、時刻同期して動作する。同期動作する方法としては、IEEE 802.11ASとして示されている方法などがある。より簡単に同一のクロック信号をセンサA用信号処理装置100、センサB用信号処理装置200の両方へ供給しても良い。
センサA用信号処理装置100は、センサB用信号処理装置200へセンサA処理情報108を出力する。センサA処理情報108は、外界センサA101によるセンシングデータ出力に対する信号処理により検出した自車両周辺に存在する物体の位置情報(物体検出位置)とともに、センシングを行った時刻情報を含む。
センサB用信号処理装置200は、外界センサB201のセンシングデータを処理する際に、センサA処理情報108に含まれる自車両周辺に存在する物体の位置情報を、外界センサB201によるセンシング時刻に合わせて補正し、外界センサB201のセンシングデータに対する認識処理に活用する(後で詳述)。位置情報の補正を行う際に、自車両の位置及び向きの時間的な変化を考慮するため、外部から入力される自車両位置情報701を参照する。
センサA処理情報108に含まれる物体の位置情報は、センサA用信号処理装置100における最終的な処理結果でも良いが、物体の存在検出後で物体の種類判定処理前の情報を用いたほうが良い。センサB用信号処理装置200が認識処理を行う際に必要とする情報が得られた時点での情報を用いたほうが、外界センサA101のセンシングタイミングからセンサB用信号処理装置200へセンサA処理情報108が出力されるまでの遅延が少なく(これを低遅延という)、位置情報の補正における誤差を抑制できる。
センサA用信号処理装置100は、認識結果をセンサA認識結果105としてフュージョン処理装置650へ出力し、センサB用信号処理装置200は、認識結果をセンサB認識結果205としてフュージョン処理装置650へ出力する。センサA認識結果105及びセンサB認識結果205はフュージョン処理装置650で統合され、統合認識結果595として出力される。フュージョン処理装置650によるフュージョン処理は、特許文献1に示されている手法などの公知技術を用いて実施する。
図2を用いて前記信号処理システム1000におけるセンサA用信号処理装置100及びセンサB用信号処理装置200の内部構成について説明する。尚、以降の説明では、センサA用信号処理装置100とセンサB用信号処理装置200は同期動作していることを前提に説明する。
センサA用信号処理装置100では、外界センサA101のセンシングデータ出力をセンサ入力部A110を経由して認識処理を行う認識部A150へ送り、認識部A150の認識結果を結果出力部A120を経てセンサA認識結果105として出力する。
センサ入力部A110では、外界センサA101の動作制御に必要なパラメータやタイミング信号を外界センサA101へ出力し、外界センサA101のセンシングデータ出力を受け取り、認識部A150が処理を行うまで、受け取ったセンシングデータを保持する。外界センサA101のセンシング時刻とセンシングデータを対応付けて管理することも行う。
認識部A150の認識処理で得た物体の検出情報は、協調データ出力部A140へ送られる。この際、検出情報は、複数の物体を検出した場合でも、連続するセンシングデータ間でどの物体が同一の物体であるかを区別するために必要な識別情報を含む。協調データ出力部A140は、認識部A150が認識処理に用いたセンシングデータのセンシング時刻をセンサ入力部A110から取得し、センシング時刻情報と共に物体の検出情報をセンサA処理情報108としてセンサB用信号処理装置200へ出力する。
センサA処理情報108は、センサB用信号処理装置200では、協調データ入力部B230で受け取り、位置補正部B280へ送る。
センサB用信号処理装置200では、外界センサB201のセンシングデータ出力をセンサ入力部B210を経由して認識処理を行う認識部B250へ送り、認識部B250の認識結果を結果出力部B220を経てセンサB認識結果205として出力する。
センサ入力部B210では、外界センサB201の動作制御に必要なパラメータやタイミング信号を外界センサB201へ出力し、外界センサB201のセンシングデータ出力を受け取り、認識部B250が処理を行うまで、受け取ったセンシングデータを保持する。外界センサB201のセンシング時刻とセンシングデータを対応付けて管理することも行う。
位置補正部B280は、センサA処理情報108を受け取ると、位置補正処理に要する時間を考慮した上で、位置補正結果を算出し(後で詳述)、その位置補正結果を用いて認識部B250で次に認識処理を行うセンシングデータがどのデータであるのかを認識部B250より受け取り、対応するデータのセンシング時刻をセンサ入力部B210より受け取る。位置補正部B280は、センサA処理情報108に含まれるセンシング時刻と外界センサB201のセンシングデータのセンシング時刻の差分、すなわちセンサA処理情報108に含まれる外界センサA101でのセンシング時刻から外界センサB201のセンシングデータのセンシング時刻までの経過時間を計算し、自車両位置情報701を用いて車両の移動量や向きの変化を計算し、さらにセンサA処理情報108として入力されたセンサA用信号処理装置100から得た物体位置(物体検出位置)とそのセンシング時刻の履歴情報(あるいは、物体位置の履歴情報及び履歴間の経過時間情報)を用いて、センサA処理情報108に含まれる位置情報を外界センサB201がセンシングしたセンシング時刻に対応する位置情報に補正する。
尚、外界センサA101と外界センサB201のセンシング時刻の差分を求めるために、本実施形態ではそれぞれのセンシングデータを処理する信号処理装置100、200間の時刻同期を行っているが、位置情報の補正処理に用いる範囲で時刻の差分が大きくずれることがない手法を用いれば、時刻同期を行わなくても構わない。例えば、それぞれの信号処理装置100、200が異なる水晶発振器で動作しており、時刻としては同期処理が行われていない場合でも、それぞれの信号処理装置100、200が1秒単位で共通の4ビット程度のカウント情報を受け取り、時刻に関する情報として直前に受け取った当該カウント情報と、直前に当該カウント情報を受け取ってからのそれぞれの信号処理装置100、200内での経過時間情報を組合せて時刻情報として利用すれば、1秒間に異なる水晶発振器が出力するパルス数の差は通常僅かであるため、センシング時刻の差分を求める上では、十分な時刻精度を得ることができる。
補正した位置情報は認識部B250へ送られ、次のセンシングデータの認識処理を行う際に用いる。例えば、位置情報で示された領域については、処理が重くても性能の良いノイズ除去処理を用いたり、認識率の高い物体識別アルゴリズム(認識処理アルゴリズム)を適用したり、認識部B250の認識処理で物体が検出されない場合に、ノイズフィルタの強度を弱めて(つまり、認識処理パラメータを変更して)再度認識処理を実施したりする。認識部B250は、領域を選択して負荷の高い処理を行うことで効率的に認識処理を行うことが可能となり、また、物体を検出できない部分に対して再認識処理を行うことで未検出となるケースを抑制する(換言すれば、未検出率増加を抑制する)ことも可能となる。
図3を用いて外界センサA101がライダーで外界センサB201がカメラである場合を想定して、センサB用信号処理装置200の認識処理におけるセンサA処理情報108から得た位置情報の利用イメージを説明する。
図3において、ライダー(外界センサA101)のセンシングLa920において位置922に存在した車両は、センシングLb930で位置932に移動している。カメラ(外界センサB201)のセンシングCa940において位置942に存在した車両は、センシングCb950において位置953に移動している。図3において、ライダーとカメラそれぞれでセンシングされている車両は、同一の車両である。センシングCb950の位置952は、ライダーのセンシングLb930における位置932をカメラのセンシングデータでの位置に調整して投影したものである。ライダーとカメラでは、車両での取り付け位置の違いにより、空間上の同一位置に存在する物体の位置がずれてセンシングされるため、位置の調整が必要である。
位置952は、ライダーでセンシングLb930における位置932をカメラのセンシングCb950における位置に調整したものであるが、センシングLb930とセンシングCb950でセンシングの時間が異なるため、センシングCb950における車両の位置953とずれが生じている。そこで、位置補正部B280(図2参照)では、センシングLa920におけるセンサA処理情報108とセンシングLb930におけるセンサA処理情報108を用いて、センシングCb950のセンシング時刻における車両の位置を推定し、センシングCb950の認識部B250による認識処理に利用する位置として出力する。
位置補正部B280は、センシングLa920とセンシングLb930の結果から、センシングCb950における位置を推定するため、ライダーによる物体検出結果である物体の自車両からの向きと距離、ライダーの自車両での取り付け位置、センシングLa920、センシングLb930のそれぞれのセンシング時刻情報及び各センシング時刻に対応する自車両の位置及び向きの情報を用いて、センシングLb930のセンシング時刻における自車両の位置及び向きを基準とした、検出対象車両の空間上位置を最初に求める。次に、位置補正部B280は、センシングCb950のセンシング時刻に対応する空間上の位置を外挿して求める。その後、位置補正部B280は、センシングLb930のセンシング時刻からセンシングCb950のセンシング時刻までの自車両の移動及び向きの変化の影響を考慮し、センシングCb950のセンシング時刻における、自車両に対する検出対象車両の空間上の位置を求める。最後に、位置補正部B280は、カメラの自車両での取り付け位置を考慮して、センシングCb950における対象車両の位置(カメラのセンシング結果(画像)における2次元的な位置)を求める。
尚、ここでは、センシングLa920とセンシングLb930の2つの物体検出結果を用いてセンシングCbのセンシング時刻における位置を推定したが、より多くのライダーによるセンシング結果を用いて推定してもよい。
センサA用信号処理装置100からセンサA処理情報108を出力する際、物体検出結果に検出処理対象としたセンシングデータのセンシング時刻情報を付加して出力するが、このセンシング時刻は、簡単には、センシングの開始時刻、あるいはセンシング開始からセンシング終了の中間時刻などをセンシング1回分単位で付加すればよい。しかし、外界センサによっては1回のセンシングに時間を要する場合があり、時刻による位置補正に対しては、時間精度不足になることがある。その対策方法として、時刻情報を付加する方法を図4から図6を用いて説明する。
図4に示す方法は、外界センサA101のセンシングデータを複数のセンシング領域に分割し、センシング領域単位でセンシング時刻を付加・管理する方法である。例えば、センシング時に水平方向の走査を垂直方向に進める場合、図4に示すようにセンシングデータをセンシング領域A981からセンシング領域D984までの複数のセンシング領域に分割し、センシング領域ごとに代表センシング時刻を付加する。代表センシング時刻は、当該センシング領域のセンシングの開始時刻、あるいはセンシング開始からセンシング終了の中間時刻などを用いる。位置補正部B280がセンシング時刻を用いる場合は、位置補正対象とする物体(物体p990、物体q992)のセンシングデータ上の位置(物体の領域の中心)から物体の存在するセンシング領域を判断し、当該センシング領域に対応するセンシング時刻を用いる。尚、分割数や分割方向は、外界センサのセンシング時の走査順序や1回のセンシングに要する時刻、位置補正に求められる精度を考慮して決定する。
図5に示す方法は、外界センサA101のセンシングデータ上の水平位置と垂直位置からセンシング時刻を算出する時刻算出式988を定義し、センシング時刻として時刻算出に必要な係数Tcv、Tch、オフセット時刻Tsを用いて管理する方法である。位置補正部B280がセンシング時刻を用いる場合、位置補正対象とする物体(物体p990、物体q992)のセンシングデータ上の水平位置及び垂直位置から時刻計算式988を用いて、当該物体(物体p990、物体q992)のセンシング時刻として用いる。
この時刻算出式988は一例であり、計算しやすいように数式を変形したり、外界センサのセンシングに合わせて異なる数式を用いたりしてもよい。時刻算出式988に、入力値に対する出力値を定義したテーブルを用いてもよい。また、時刻算出に必要な係数Tcv、Tchやオフセット時刻Tsなどのパラメータは、変化しないパラメータに関しては1回のセンシング毎に送付しなくても良く、変化したときだけ、あるいは一定のセンシング回数毎に送付することも考えられる。
図6に示す方法は、外界センサA101のセンシングデータを用いて検出した物体毎にセンシング時刻情報を付加・管理する方法である。各物体(物体p990、物体q992)の領域に対応する代表センシング時刻を付加することで、位置補正部B280がセンシング時刻を用いる場合、位置補正対象とする物体(物体p990、物体q992)に付加されている代表センシング時刻を参照する。
位置補正部B280は、時刻情報に基づき位置補正を行う際、仮に外界センサB201のセンシング時刻がセンシングデータ上の位置により異なる場合、センサ入力部B210から当該センシングデータのセンシング時刻を得るために、センシングデータ上の位置とセンシング時刻の関係として管理しておき、センサA用信号処理装置100から得た検出物体の位置から外界センサB201のセンシング時刻を求め、センサA処理情報108に含まれるセンシング時刻との差分を計算する。
図7及び図8を用いて本実施形態の信号処理システム1000を車両システムに組み込んだ構成の一例を説明する。
図示実施形態の車両システムでは、外界センサA101はセンサA用信号処理装置100、外界センサB201はセンサB用信号処理装置200に直接接続する。センサA用信号処理装置100及びセンサB用信号処理装置は、車載ネットワークとしての共通バス790(CANバスや車載Ethernetなどで構成)に接続している。ここでは、外界センサA101とセンサA用信号処理装置100、外界センサB201とセンサB用信号処理装置200を直接接続し、点群や画像などの大きいデータ量の信号が共通バス790に流れることを抑止している。
共通バス790には、センサA用信号処理装置100のセンサA認識結果105及びセンサB用信号処理装置200のセンサB認識結果205を統合した統合認識結果595(図1参照)を出力するフュージョン処理装置650の他に、自車両のドライバに自車両の状態を伝える情報表示装置610(メータ類を始めとするインジケータなどで構成)、ドライバからの操作を受け取るユーザ入力装置620(ステアリング、アクセル、ブレーキ、その他スイッチ類などで構成)、及び自車両の機械的部分に関連した制御を行う車両制御システム700が接続される。共通バス790は、バスを流れるデータ量確保や安全性確保、セキュリティ確保のために、複数の物理的なバスに分割してもよく、そのような場合は、適宜物理的なバス間で情報を交換するための装置を用いたり、共通バス790に接続するそれぞれの装置が必要に応じて複数の物理的バスに接続可能な構成にしたりする必要がある。
センサB用信号処理装置200に入力する自車両位置情報701(図1参照)は、例えば車両制御システム700から共通バス790を介して供給する。車両制御システム700は、自車両の機械的部分に関連した制御を行うため、自車両の速度や加速度などをセンサで取得しており、このセンサのセンシングデータを基にした情報を自車両位置情報701として供給する。
車両制御システム700の内部構成は図8に示すようになっており、共通バス790は、車両の機械的部分の統合的な制御を行う車両統合制御装置705を介して、動力源の制御を行うエンジン制御装置710、動力伝達部分の制御を行うトランスミッション制御装置720、ブレーキの制御を行うブレーキ制御装置730、ステアリングの制御を行うステアリング制御装置740が接続される。それぞれの制御装置(710、720、730、740)には、関連する機械的部分の動きを制御するアクチュエータ(712、722、732、742)とその状態を監視するセンサ(714、724、734、744)が接続されており、適切に動作するように制御される。
図8に示す車両制御システム700の構成は一例であり、複数の制御装置が統合されたり、制御装置間の接続を共通バス790で行ったり、電気自動車の場合はエンジン制御装置710がモータ制御装置になるなど、自車両の構成により適宜変更してもよい。
フュージョン処理装置650の出力する統合認識結果595は車両統合制御装置705へ伝えられ、車両統合制御装置705は、例えば、衝突の危険性が高い場合には緊急ブレーキ操作に必要な指示を出し、先行車に追従するクルーズコントロールが有効な場合は設定速度、前方車両までの距離や相対速度などに基づき速度制御に必要な指示を出す。
信号処理装置100、200やフュージョン処理装置650が車線なども識別できる場合は、車両統合制御装置705は、その認識結果に基づきステアリング制御装置740などにステアリング操作指示を出すことで、車線内に自車両を保つ。
より高いレベルの自動運転に対応する際には、共通バス790に自動運転制御装置を付加する場合もある。この場合、フュージョン処理装置650の出力及び車両制御システム700から供給される自車両の状態から、自動運転制御装置が車両としてとるべき挙動を判断し、車両制御システム700へ指示を出す。
尚、クルーズコントロールやステアリング制御など部分的にでも車両を自動的に制御する場合には、車両システム全体として、十分安全性を検討した上で、万一の場合にも安全を確保できるような実装をする必要がある。
図9を用いて、外界センサA101がほぼ路面に沿う形で平面的に位置検出を行うミリ波レーダ、外界センサB201がカメラである場合を想定して、センサB用信号処理装置200の認識処理におけるセンサA処理情報108から得た位置情報の利用イメージを説明する。
図9において、ミリ波レーダ(外界センサA101)のセンシングRc960において位置962に存在した車両は、センシングRd970で位置972に移動している。カメラ(外界センサB201)のセンシングCc945において位置948に存在した車両は、センシングCd955において位置958に移動している。図9において、ミリ波レーダとカメラそれぞれでセンシングされている車両は同一の車両である。
ミリ波レーダが平面的に位置検出を行う外界センサである場合、センサA処理情報108に含まれる物体の位置も平面に対する位置(つまり、外界センサからの角度と距離)となり、高さ方向の情報を得ることができない。このような場合には、位置補正部B280は、図10に示すように、まずミリ波レーダが検出を行う平面において、位置962と位置972、それぞれの位置962、972をセンシングしたセンシング時刻における自車両の位置及び向き、センシングCd955のセンシング時刻、自車両の位置及び向きから、センシングCd955のセンシング時刻における位置974を外挿により推定する。この際、センシングRc960以前のミリ波レーダのセンシング結果も用いて外挿して推定しても良い。また、検出した物体の相対速度が分かる場合、相対速度を用いて推定を行ってもよい。その後、位置補正部B280は、センシングCd955に対して路面推定を行い、図11に示すようにセンシングCd955における推定路面956に対してミリ波レーダによるセンシング領域を投影した領域971を求め、領域971に対応する位置974(図10参照)を計算することで、カメラによるセンシングデータ上の位置975を(推定路面956上に対応付けて)求める。
図11の位置975で示される領域は、幅がミリ波レーダの分解能により誤差がある場合は、その分マージンをとって広げ、高さは検出対象物として想定する物体958の最大高さを予め決めておき、物体(対象物)958までの距離からセンシングデータ上の高さを算出する。センシングデータ上での縦位置は、位置975に推定路面956の位置を物体958の底面と仮定して求める。その結果、センシングCd955のセンシングデータ上の領域959が求まる。
尚、路面推定処理は、位置補正処理として位置補正部B280で行っても良いし、位置補正以外の認識処理にも利用することを考慮し、認識部B250で行って、その結果を位置補正部B280に提供しても良い。
図12及び図13を用いて、カメラとしてステレオカメラを用いる場合の路面推定処理について説明する。
路面推定を行うために、まず、センシングデータにおけるおおまかな路面領域を推定する。例えば、図12(a)に示すように、カメラの片眼のセンシングデータ901に対して、画像の特徴から道路の可能性が高い領域を台形領域に近似して推定する。このような領域902は、進行方向が直線の道路が一定幅、一定勾配であることを仮定し、路面が画像上に投影される位置を算出することで求められる。
実際には道路が曲がっている場合もあるので、画像から白線を検知したり、ステレオ視による視差から得られる距離情報の特徴を基に路肩を検出したりすることで、道路の曲がり具合を推定した上で、図12(b)に示すように、おおまかな路面領域903を推定する。
次に、図13右図に示すような垂直位置と視差による仮想平面を考え、センシングデータの垂直位置毎に、路面領域の部分における視差を投票した画像を生成する。投票の数は画像の濃淡として反映する。この画像をV-Disparity画像とする。V-Disparity画像では、図13左図に示すように、近傍の平坦な路面904及び遠方の上り勾配の路面905は、それぞれ図13右図の領域914の部分及び領域915の部分のように勾配の異なる斜め方向の直線状に投影される性質がある。また、先行車両のような障害物は、領域917のように垂直方向に直線状に投影される性質がある。
V-Disparity画像を作成した後、V-Disparity画像において最も支配的な直線を検出するため、例えばまず一定の閾値で2値化した画像に変換し、ハフ変換を行う。検出される直線の例を図13右図の直線911として示す。直線911は、推定された路面が画像上に投影される垂直位置と視差の関係を示しており、三次元空間上の奥行方向の距離と路面高さ位置に変換可能である。V-Disparity画像上では、検出された直線911は、近傍側(図13右図の領域914部分)では視差の投票結果とよく一致しているが、勾配が変化している遠方側(図13右図の領域915部分)ではずれが発生しており、直線911で表す路面推定結果の信頼性が低いと考えられる。
信頼性が低い部分は、具体的には、直線911が通る場所の視差の投票数を確認し、投票数が一定以下になる場所が一定以上連続して発生した部分として判定する。この判定により、図13右図の点916より垂直位置が上の部分に対応するセンシングデータの推定路面は無効と判断する。その結果、直線911から有効な推定路面を得ることができる。
前記した信号処理装置100、200(の認識部A150、認識部B250)での信号処理手順の例を図14及び図15に示す。図14はミリ波レーダによるセンシングの信号処理を想定し、図15はステレオカメラによるセンシングの信号処理を想定している。
図14において、センサ出力R(S501)では、時間的に周波数の変化するミリ波を送信し、その反射波を複数の受信アンテナで受信して、送信信号、各受信アンテナでの受信信号を共にセンシングデータとして出力する。出力されたセンシングデータは、センサ入力R(S502)でバッファに保存する。信号間の加算などのバッファ不要な簡易な処理は、バッファ前に行う。
保存したデータから、極大点検出R(S512)で、センサ出力R(S501)にてミリ波レーダからミリ波を送信した後に反射波を受信するまでの経過時間、あるいは送信周波数と受信周波数のずれ(時間的に周波数を変化させると、反射波の遅延に応じて同一タイミングにおける送信周波数と受信周波数にずれが発生する)を基にミリ波を反射した物体までの距離を算出する。また、受信アンテナ間の受信波の位相差から物体の方位を検出する。この際、実際の処理としては、例えばRange-Doppler FFT処理を施した結果のピークとして現れるので、極大点を検出して、極大点毎に個々の物体の自車両からの方向、距離、相対速度を検出する。
極大点検出R(S512)後、ノイズ除去R(S514)では、これまでの検出履歴から、時間的に突発的な検出でないかを確認し、突発的な検出であれば、ノイズとして除去する。
ノイズ除去R(S514)後、物体追跡R(S516)では、各検出物体に対し、直前の検出結果の位置からの移動量や移動速度との関係を確認して、直前の検出結果と同一の物体がどの物体であるのかの対応付けを行う。別の外界センサに対して情報を提供する際、検出位置の時間的な補正を行う上で、物体毎に移動を予測する必要があるので、各物体の動く速度と方向の情報、もしくは同一物体を識別できる位置情報が必要となる。同一物体を識別するために、物体毎に識別IDを付加して管理する。
ここでは、この物体追跡R(S516)までが、前処理R(S510)として処理される。
検出した各物体は、共通特徴パラメータ検出R(S522)で、検出物体の特徴パラメータを抽出する。例えば、物体の移動速度や移動パターン、反射波の強さ及びその変化を特徴パラメータとして抽出する。以降の認識処理R(S520)では、必要に応じてこのパラメータを参照する。
自動車識別R(S524)では、特徴パラメータ及び物体追跡による当該物体の以前の識別情報を考慮して、自動車の特徴を満たす場合、当該物体を自動車としてマークする。自転車識別R(S526)では、特徴パラメータ及び物体追跡による当該物体の以前の識別情報を考慮して、自転車の特徴を満たす場合、当該物体を自転車としてマークする。同様に標識識別R(S528)では、標識の特徴を満たす場合、当該物体を標識としてマークする。ミリ波レーダでは標識の内容を識別することはできないが、後にフュージョン処理を行う際にカメラ等で検出した標識の検出情報の確認に利用することが可能であるため、標識の存在の確認は行う。
最終的に、認識処理結果出力R(S530)では、個々の物体毎に物体認識結果(センサ認識結果)としての識別ID、方向、距離、相対速度、物体の種類を出力する。
一方、図15において、センサ出力S(S531)では、ステレオカメラにて外界を映像としてセンシングする。センシングの際、外界環境に応じて、露光時間や露光感度を適宜調整する。センシングデータは、センサ入力S(S532)でバッファされ、画像補正S(S541)では、カメラの取り付け位置や光学系の誤差に伴う画像の歪み補正、センサの特性誤差による明るさや色合いの補正、センサ出力S(S531)にてステレオカメラに存在する欠陥画素の画素情報の補間などを行う。
画像補正S(S541)の後、視差検出S(S542)を行い、左右カメラの画像の各画素の視差を求める。その後、視差情報を活用し、路面検出S(S543)で推定路面を求める。
路面検出S(S543)の後、物体検出S(S544)で同一視差の塊部分で推定路面と異なる部分を物体として検出する。検出した物体に対して、視差から距離を算出し、当該物体の領域の距離の平均値を求め、物体までの距離を算出する。また、映像上の位置から自車両の向きに対する物体の方向を算出する。この際、検出した物体の大きさも考慮しながら、小さく時間的にも安定的に検出されていない物体に関しては、検出対象外とする。
物体検出S(S544)で検出した物体は、物体追跡S(S545)で、各検出物体に対し、直前の検出結果の位置からの移動量や移動速度との関係を確認して、直前の検出結果と同一の物体がどの物体であるのかの対応付けを行う。同一物体を識別するために、物体毎に識別IDを付加して管理する。同一物体に関して距離の変化を求め、センシングの時間間隔を用いて計算することで、相対速度を算出する。
ここでは、この物体追跡S(S545)までが、前処理S(S540)として処理される。
検出した各物体は、共通特徴パラメータ検出S(S551)で、エッジ分布や輝度部分、実際の大きさなどの認識処理で共通的に用いるパラメータを算出する。以降の認識処理S(S550)では、必要に応じてこのパラメータを参照する。
自動車識別S(S552)では、特徴パラメータ及び物体追跡による当該物体の以前の識別情報を考慮して、自動車の特徴を満たす場合、当該物体を自動車としてマークする。自転車識別S(S553)では、特徴パラメータ及び物体追跡による当該物体の以前の識別情報を考慮して、自転車の特徴を満たす場合、当該物体を自転車としてマークする。歩行者識別S(S554)も同様に、歩行者の特徴を満たす場合、当該物体を歩行者としてマークする。可能な場合、大人または子供の区別も行う。標識識別S(S555)では、特徴を満たす場合、当該物体を標識としてマークすると同時に、標識の内容を識別する。
最終的に、認識処理結果出力S(S560)では、個々の物体毎に物体認識結果(センサ認識結果)としての識別ID、位置、距離、相対速度、物体の種類、付加情報(標識の内容など)を出力する。
図14、図15に示すように、センサ信号処理には複数の処理が必要であり、おおまかに物体の検出に必要な前処理部分(図14の前処理R(S510)、図15の前処理S(S540))と、物体の識別や内容認識に必要な認識処理部分(図14の認識処理R(S520)、図15の認識処理S(S550))がある。
図16を用いて、センサA用信号処理装置100側の外界センサA101に対する処理とセンサB用信号処理装置200側の外界センサB201に対する信号処理の動作タイミングを説明する。
基本動作として、外界センサA101に対する処理では、外界センサA101によるセンシングA1(S811)に対して前処理A1(S821)を行い、前処理A1(S821)の出力に対して認識処理A1(S831)を行い、前述の認識処理結果を出力する。また、外界センサA101によるセンシングA2(S812)に対して前処理A2(S822)を行い、前処理A2(S822)の出力に対して認識処理A2(S832)を行い、前述の認識処理結果を出力する。センシングA3(S813)以降の処理も同様に行う。すなわち、センシング、前処理、認識処理のパイプライン処理を行う。
一方、外界センサB201に対する処理では、外界センサB201によるセンシングB1(S861)に対して前処理B1(S871)を行い、前処理B1(S871)の出力に対して認識処理B1(S881)を行い、前述の認識処理結果を出力する。また、外界センサB201によるセンシングB2(S862)に対して前処理B2(S872)を行い、前処理B2(S872)の出力に対して認識処理B2(S882)を行い、前述の認識処理結果を出力する。センシングB3(S863)以降の処理も同様である。すなわち、外界センサA101と同様に、センシング、前処理、認識処理のパイプライン処理を行う。
外界センサA101の処理を利用して外界センサB201の処理を行うにあたり、図16(a)では、外界センサA101に対する認識処理の結果を外界センサB201に対する認識処理に利用する場合の動作タイミングを示している。処理を行うタイミングの関係で、認識処理B2(S882)では位置補正B1(S875)の出力を利用している。すなわち、センシングA1(S811)までの情報を基に位置補正B1(S875)を行い、その位置補正B1(S875)をセンシングB2(S862)に対する認識処理に利用することになる。
図16(b)では、外界センサA101に対する前処理の結果を外界センサB201に対する認識処理に利用する場合の動作タイミングを示している。処理を行うタイミングの関係で、認識処理B2(S882)では位置補正B2(S876)の出力を利用している。すなわち、(センシングA1(S811)までの情報に代えて)センシングA2(S812)までの情報を基に位置補正B2(S876)を行い、その位置補正B2(S876)をセンシングB2(S862)に対する認識処理に利用することになる。
図14及び図15を用いて説明したように、センサ信号処理では、前処理で物体の位置検出を行うため、図16(a)に示すように外界センサA101に対する認識処理の結果を用いる代わりに、図16(b)に示すように前処理の結果を用いることが可能である。図16(b)に示すタイミングを用いることにより、外界センサB201の認識処理において図16(a)に比べてより直近の外界センサA101のセンシングデータを用いた処理結果(物体検出結果)を利用できる。位置補正では、外挿を用いるため、補正の精度を向上する上でより直近のセンシングデータを利用した方がよく、すなわち、外界センサA101のセンサ信号処理における中間処理結果(認識処理途中の前処理の結果)を外界センサB201のセンシングデータの認識処理に利用した方がよい。
尚、補正の精度を若干犠牲にして、一部認識処理を行ってから、その認識情報もセンサA処理情報108(図1参照)に含めて、外界センサB201のセンシングデータの認識処理に用いることもあり得る。例えば、外界センサA101がミリ波レーダである場合は、図14の自動車識別R(S524)まで行い、自動車であるかを判別した情報を外界センサB201のセンシングデータの認識処理で用いる場合、当該外界センサB201の認識処理で自動車識別を行う際に、自動車識別R(S524)の結果が真の場合は自動車の可能性がやや低い場合でも自動車と認識し、一方、自動車識別R(S524)の結果が偽の場合は自動車の可能性がやや高い場合でも自動車と認識しないことで、外界センサB201のセンシングデータに対する認識精度を向上させることが考えられる。
図17を用いて、図1に示す信号処理システム1000(センサシステム)のシミュレーション評価を行う評価システム1001の構成を説明する。
この評価システム1001の評価対象部分340は、前記信号処理システム1000を構成するセンサA用信号処理装置100、センサB用信号処理装置200、及びフュージョン処理装置650で構成され、評価システム1001は、外界センサA101及び外界センサB201でセンシングした結果を評価対象部分340の構成で物体としてどの程度認識可能であるかの評価を行うシステムである。
本実施形態の評価システム1001は、主に、車両制御システムモデル370、道路環境生成モデル390、情報表示装置モデル310、疑似ユーザ入力生成モデル320、疑似センシング信号生成装置330を含んで構成され、信号処理システム1000(のフュージョン処理装置650)の出力(統合認識結果595)は、車両の動きを模擬する車両制御システムモデル370に接続され、車両制御システムモデル370は、車両の周辺環境を模擬する道路環境生成モデル390に接続され、疑似センシング信号生成装置330にて、車両制御システムモデル370(で生成した情報)と道路環境生成モデル390(で生成した情報)から外界センサA101及び外界センサB201のセンシングデータの模擬センシング信号を生成し、そのセンシングデータの模擬センシング信号を信号処理システム1000の信号処理装置100、200に入力する。
詳しくは、車両制御システムモデル370は、図7に示す車両制御システム700をシミュレーション用にモデル化したものである。道路環境生成モデル390は、車両システムモデル370で計算した自車両の位置及び向きから、自車両周辺のあるシミュレーション時刻における外界の周辺環境(地形、道路、道路上の物体、道路周辺の物体など)に関する位置、移動方向、速度、光の状態や路面の状態などを求めるシミュレーションモデルである。道路環境生成モデル390は、車両制御システムモデル370と密に連携し、自車両の挙動のシミュレーションを行う。
擬似ユーザ入力生成モデル320は、ドライバの操作に相当する信号を車両制御システムモデル370に供給するシミュレーションモデルであり、情報表示装置モデル310は、車両制御システムモデル370が出力する信号に基づき評価環境上の画面に擬似的にメータや警告灯表示を行ったり、車両制御システムモデル370の出力の時間的変化の記録を行ったりするシミュレーションモデルである。
擬似センシング信号生成装置330は、道路環境生成モデル390で生成した情報を基にして、外界センサA101及び外界センサB201の信号(CGやレーダ反射信号などの疑似センシング信号)を擬似的に生成する。擬似センシング信号生成装置330が実際の車両システムに相当するシミュレーションタイミングで擬似的な信号を信号処理システム1000のセンサA用信号処理装置100及びセンサB用信号処理装置200に与えることで、評価対象部分340が動作し、その認識結果が車両制御システムモデル370に伝わり、これにより、評価対象部分340を含めて自車両の動きをシミュレーションできる。評価システム1001では、シミュレーション実行中の評価対象部分340の入出力及び内部信号を収集・分析することで、評価対象部分340が十分な認識を行えているか否か、また車両制御システムモデル370に相当する車両で車両挙動として所望の動作を得ることができるか否かを評価可能である。
図18及び図19を用いて、擬似センシング信号生成装置330がセンサA用信号処理装置100及びセンサB用信号処理装置200に与える擬似的な信号を生成する際の簡略化方法を説明する。
前記のように、外界センサがセンシングを行う際、センシングする場所によりセンシング時刻が異なる場合がある。例えばカメラに用いるCMOSセンサでは、ピクセルやラインなどの単位で露光時刻が少しずつ異なる場合がある。擬似センシング信号生成装置330でこの時間的ずれを再現するのが困難である場合、センサA処理情報108で個々の物体毎にセンシング時刻が必要である場合には、図18に示すように、センシング一回単位で全体を同時に(同一時刻で)センシングしたものとして擬似的な信号を生成した上で、当該センシング一回を行った時刻ftに全ての物体(物体p990、物体q992、物体r994、物体s996)のセンシング時刻を揃えて出力するように、シミュレーション環境用にセンサA用信号処理装置100を改変する。物体毎にセンシング時刻が必要ではないが、図4を用いて説明したようにセンシング領域毎にセンシング時刻を示す場合は、全てのセンシング領域のセンシング時刻をftに揃え、図5を用いて説明したように時刻算出式988を用いてセンシング時刻を示す場合は、数式の係数を0にし、Ts=ftとしてセンシング時刻をセンシングの位置に依存しないようにすれば良い。
図18に示すように全ての物体のセンシング時刻を同一時刻にすると、位置補正の動作確認が不十分である場合には、図19に示すように、擬似センシング信号生成装置330で主要な物体(道路上の車両など)(物体p990、物体q992)に限定し、一回のセンシングにおけるセンシング時刻の違いを考慮して擬似的なセンシング信号を生成する方法がある。図19では、車両である物体p990及び物体q992を主要な物体とみなし、センシング時刻をそれぞれpt、qtとして、そのセンシング時刻pt、qtに対応する位置に車両のセンシング信号を生成し、物体r994、物体s996に関してはセンシング時刻ftとして当該一回のセンシングに対応する代表センシング時刻を用い、その代表センシング時刻ftにあわせた位置にセンシング信号を生成する。
この方法のように、物体毎にセンシング時刻を付加してセンサA処理情報108に含める構成では、シミュレーション環境用にセンサ入力部A110を一回のセンシングでは全体が同一の時刻にセンシングされたとしてセンシング時刻を管理させた上で、擬似センシング信号生成装置330からセンサA用信号処理装置100の認識部A150及び協調データ出力部A140に当該主要な物体(例えば、物体p990、物体q992)のセンシング時刻に関する情報を送り、それらの物体のみ認識部A150及び協調データ出力部A140においてセンシング時刻をその情報に基づき上書きするように改変すればよい。
図4を用いて説明したようにセンシング領域毎にセンシング時刻を示す場合や図5を用いて説明したように時刻算出式988を用いてセンシング時刻を示す場合は、センサA処理情報108で物体毎にセンシング時刻を付加できないため、協調データ出力部A140に当該主要な物体(例えば、物体p990、物体q992)のセンシング時刻に関する情報を送る代わりに、位置補正部B280に当該主要な物体(例えば、物体p990、物体q992)のセンシング時刻に関する情報を送り、位置補正部B280でセンシング時刻をその情報に基づき上書き・管理するように改変する。
カメラで用いられるCMOSセンサでは、例えばライン毎に露光タイミングが異なるなど、センシングの位置によりセンシング時刻が異なるセンサが多いが、このようなセンシングに対応する疑似センシング信号生成をCG(コンピュータグラフィックス)を用いて描画する際、センシング時刻の違いの再現にはセンサ上に投影される位置毎に当該位置に描画される可能性のある物体の3次元位置再計算及びその結果に基づくレンダリング処理が必要となり、計算負荷が高くなる。前述した図18あるいは図19に示す方法を用いると、例えばカメラの信号を擬似センシング信号生成装置330で生成する場合、少なくとも物体毎に予め3次元位置を特定した上でCG描画処理を行えるため、CG描画に伴う計算負荷を抑制できる。
以上で説明したように、本実施形態では、それぞれの外界センサのセンシングデータに対する信号処理装置100、200を、同一クロック利用、あるいはIEEE 802.11ASで定義される方法などを用いて、時刻同期させる。また、接続されている外界センサのセンシングタイミングを管理する。センサA用信号処理装置100は、認識処理結果あるいは認識処理途中の情報として、対象としている物体の位置情報とともに、処理対象としているセンシングデータを取得したセンシング時刻をセンサB用信号処理装置200に対して出力する。外界センサB201のセンシングデータを処理するセンサB用信号処理装置200は、センサA用信号処理装置100から受け取った物体の位置情報とセンシング時刻の履歴から、外界センサB201で取得したセンシングデータのセンシング時刻に対応した物体の位置を推定し、外界センサB201で取得したセンシングデータの認識処理における重点処理領域として用いる。
これにより、本実施形態によれば、複数の外界センサのセンシングデータを用いて認識処理を行う際、外界センサA101(第一の外界センサ)の認識処理結果あるいは認識処理途中の情報である物体位置情報を用いて外界センサB201(第二の外界センサ)の認識処理を行う場合において、外界センサB201のセンシングデータに対して重点的な処理などの特定の処理を行う位置のずれを抑制でき、もって、位置精度の向上から外界センサB201の認識精度の向上につながる。また、特定の処理を行う領域のマージンを削減でき、認識処理の処理負荷を低減できる。
[第2実施形態]
図20を用いて本発明の第2実施形態を説明する。
本第2実施形態は、第1実施形態の図2で説明した構成に対し、位置補正部をセンサB用信号処理装置200からセンサA用信号処理装置100へ移動した構成となっている。
図20において、センサA用信号処理装置100にて、外界センサA101から、センサ入力部A110、認識部A150、結果出力部A120を経てセンサA認識結果105を出力する流れ、及び、センサB用信号処理装置200にて、外界センサB201から、センサ入力部B210、認識部BX252、結果出力部B220を経てセンサB認識結果205を出力する流れは、上記第1実施形態と同じである。
本実施形態において、センサA用信号処理装置100に設けられた位置補正部AX182は、認識部A150の認識処理で得た物体の検出情報、及び認識部A150が認識処理に用いたセンシングデータのセンシング時刻をセンサ入力部A110から取得する。この際、外界センサA101では、センシングデータ上の位置によりセンシング時刻が異なる場合は、検出した物体毎にセンシング時刻を管理する。
センサB用信号処理装置200の認識部BX252は、次の認識処理を行う時間から、センサA用信号処理装置100から位置補正を施した物体の位置情報を取得するまでに要する時間以上前もって、協調データ入力部BX232に対し、センサA用信号処理装置100から外界センサA101でセンシングして得た物体の位置情報を取得するように要請する。この際、取得する位置情報には、次の認識処理に利用する外界センサB201でのセンシングデータがどのタイミングのセンシングデータになるのかを区別する情報を含める。
要請を受けた協調データ入力部BX232は、対応するセンシングデータのセンシング時刻をセンサ入力部B210より受け取り、当該センシング時刻に対応する外界センサA101のセンシングデータを基に検出した物体の位置情報を送信するように協調データ出力部AX142に要求する。この際、外界センサB201は、センシングデータ上の位置によりセンシング時刻が異なる場合は、当該センシング時刻をセンシングデータ上の位置とセンシング時刻の関係として受け取る。
要求を受けた協調データ出力部AX142は、要求に含まれるセンシング時刻情報とともに、認識部A150で検出した物体の位置を当該センシング時刻情報から求めた時刻の位置に合わせて補正した上で協調データ出力部AX142に送出するように、位置補正部AX182に要求する。
位置補正部AX182は、協調データ出力部AX142から要求を受け取ると、認識部A150から得ている最新の物体検出情報及びそれ以前の物体検出情報を用いて、協調データ出力部AX142からの要求に適合したセンシング時刻情報、すなわち外界センサB201のセンシング時刻情報に対応する位置情報を外挿で算出する。位置補正部AX182の算出結果は、協調データ出力部AX142及び協調データ入力部BX232を経由して認識部BX252に伝えられ(出力され)、認識部BX252は、その算出結果を次の認識処理の際に活用する。
本第2実施形態においても、上記第1実施形態と同様の作用効果が得られることは勿論である。
[第3実施形態]
図21を用いて本発明の第3実施形態を説明する。
本第3実施形態は、第1実施形態の図2で説明した構成に対し、センサA用信号処理装置100とセンサB用信号処理装置200をセンサAB用信号処理装置300に統合した構成となっている。
図21において、外界センサA101から、センサ入力部AZ114、認識部AZ154、結果出力部A120を経てセンサA認識結果105を出力する流れ、及び、外界センサB201から、センサ入力部B210、認識部B250、結果出力部B220を経てセンサB認識結果205を出力する流れは、上記第1実施形態と同じである。
本実施形態においては、センサAB用信号処理装置300に統合したのに伴い、センサA処理情報108の通信に必要となる入出力部(図2の協調データ出力部A140及び協調データ入力部B230)が省略され、これに伴い、位置補正部の入出力が上記第1実施形態と異なるため、位置補正部BZ384に置き換えられている。図2のセンサ入力部A110、認識部A150も位置補正部BZ384に接続されることになるため、センサ入力部AZ114、認識部AZ154に置き換えられているが、そこでやりとりする情報は、実質的に第1実施形態でセンサ入力部A110、認識部A150が協調データ出力部A140とやりとりする情報と同じである。また、位置補正部BZ384がセンサ入力部AZ114、認識部AZ154から受け取る情報も、実質的に第1実施形態で位置補正部B280がセンサ入力部A110及び認識部A150から協調データ出力部A140及び協調データ入力部B230を経て受け取る情報と同じである。位置補正部BZ380がセンサ入力部B210及び認識部B250とやりとりする情報も、実質的に第1実施形態で位置補正部B280とやりとりする情報と同じである。
本実施形態において、センサAB用信号処理装置300の位置補正部BZ384は、第1実施形態の位置補正部B280と同様に、認識部AZ154で検出した各物体の位置情報を外界センサA101及び外界センサB201のセンシング時刻情報を用いて補正した上で認識部B250に伝え、認識部B250は、その情報を認識処理を行う際に用いる。
本第3実施形態においても、上記第1実施形態と同様の作用効果が得られることに加えて、当該センサAB用信号処理装置300の装置構成(ひいては、信号処理システムのシステム構成)を簡素化することができる。
[第4実施形態]
図22及び図23を用いて本発明の第4実施形態を説明する。
本第4実施形態は、第1実施形態の図2で説明した構成をもとに、外界センサB201のセンシングタイミングに合わせて外界センサA101のセンシングタイミングを制御する構成となっている。
第4実施形態の信号処理装置100、200の内部構成を図22に示す。
図22において、センサA用信号処理装置100にて、外界センサA101から、センサ入力部AY113、認識部A150、結果出力部A120を経てセンサA認識結果105を出力する流れ、及び、センサB用信号処理装置200にて、外界センサB201から、センサ入力部B210、認識部BY253、結果出力部B220を経てセンサB認識結果205を出力する流れは、上記第1実施形態と同じである。また、協調データ出力部AY143及び協調データ入力部BY233を経て、位置補正部B280で、認識部A150で検出した物体の位置を、外界センサA101のセンシング時刻及び外界センサB201のセンシング時刻に基づき補正し、センサB用信号処理装置200の認識部BY253で補正した位置を利用する流れも同じである。
但し、本第4実施形態において、センサA用信号処理装置100のセンサ入力部AY113は、センサB用信号処理装置200から協調データ出力部AY143経由で来るセンシングタイミング情報に基づき、外界センサA101のセンシング動作タイミングを制御する機能を有する。また、センサB用信号処理装置200の認識部BY253は、センシングデータの処理を開始する処理タイミングをタイミング算出部BY293に通知する機能を有する。
また、協調データ入力部BY233及び協調データ出力部AY143は、図2の協調データ入力部B230及び協調データ出力部A140に対し、それぞれタイミング算出部BY293から出力される外界センサA101へのセンシング開始要求を伝える機能を付加している。
タイミング算出部BY293は、認識部BY253の処理の周期性、予め設定した外界センサA101の1回のセンシングに要する時間及びそのセンシングデータに対し、認識部A150で前処理して物体の位置が算出され、その算出結果が位置補正部B280に送られ、位置補正結果が認識部BY253に到達する時刻(準備時間Tp899(図23参照))、さらに予め設定したタイミング算出部BY293から要求信号が協調データ入力部BY233、協調データ出力部AY143、センサ入力部AY113を経て、外界センサA101に伝わり、外界センサA101のセンシングが開始するまでの遅延を用い、外界センサA101のセンシング開始要求を出すタイミングを算出し、そのタイミングで外界センサA101のセンシング開始要求を出す。
図23は、図22に示す構成における動作タイミングを示す。
センサB用信号処理装置200からセンサA用信号処理装置100へ外界センサA101のセンシングタイミングを指示することで、センシングA2(S812)、前処理A2(S822)、位置補正B2(S876)、認識処理B2(S882)の処理の流れにおいて待ち時間が抑制され、以降の外界センサA101のセンシングデータに対する処理においても、センサA用信号処理装置100とセンサB用信号処理装置200の協調動作で待ち時間が抑制される。したがって、外界センサB201の認識処理を行う際に、外界センサA101のセンシングによる物体の位置検出結果のセンシング時刻による補正処理で行う外挿処理に伴う誤差を抑制できる。
尚、本第4実施形態の構成は、第1実施形態の構成を基にして外界センサA101のセンシングタイミングを調整する構成としているが、外界センサ間でのセンシング及びその処理タイミングの調整を行えればよいので、第2実施形態または第3実施形態で示した構成を基にした構成も考えられる。また、外界センサA101のセンシングタイミングを基準として、センサB用信号処理装置200を動作させる構成も考えられ、この場合は、センサA用信号処理装置100の動作タイミングに合わせて、外界センサB201のセンシングタイミングを調整する必要がある。
本第4実施形態においても、上記第1実施形態と同様の作用効果が得られることに加えて、一方の外界センサのセンシングデータのセンシング時刻が他方の外界センサのセンシングデータの処理タイミングに合うように調整されるので、センシング時刻の違いによる位置ずれを更に抑制でき、外界センサの認識精度を更に向上させることができる。
なお、本発明は上記した実施形態に限定されるものではなく、様々な変形形態が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
10…時刻同期情報、100…センサA用信号処理装置、101…外界センサA、105…センサA認識結果、108…センサA処理情報、110…センサ入力部A、113…センサ入力部AY、114…センサ入力部AZ、120…結果出力部A、140…協調データ出力部A、142…協調データ出力部AX、143…協調データ出力部AY、150…認識部A、154…認識部AZ、182…位置補正部AX、200…センサB用信号処理装置、201…外界センサB、205…センサB認識結果、210…センサ入力部B、220…結果出力部B、230…協調データ入力部B、232…協調データ入力部BX、233…協調データ入力部BY、250…認識部B、252…認識部BX、253…認識部BY、280…位置補正部B、293…タイミング算出部BY、310…情報表示装置モデル、320…疑似ユーザ入力生成モデル、330…疑似センシング信号生成装置、340…評価対象部分、370…車両制御システムモデル、384…位置補正部BZ、390…道路環境生成モデル、595…統合認識結果、610…情報表示装置、620…ユーザ入力装置、650…フュージョン処理装置、700…車両制御システム、701…自車両位置情報、705…車両統合制御装置、710…エンジン制御装置、712…エンジン制御系アクチュエータ、714…エンジン制御系センサ、720…トランスミッション制御装置、722…トランスミッション制御系アクチュエータ、724…トランスミッション制御系センサ、730…ブレーキ制御装置、732…ブレーキ制御系アクチュエータ、734…ブレーキ制御系センサ、740…ステアリング制御装置、742…ステアリング制御系アクチュエータ、744…ステアリング制御系センサ、790…共通バス、899…準備時間Tp、901…ステレオカメラの片眼のセンシングデータに道路の可能性が高い推定領域を重ねた図、902…道路の可能性が高い推定領域(直線の道路が一定幅一定勾配と仮定)、903…道路の可能性が高い推定領域(道路の曲がり具合を推定)、904…近傍の平坦な路面、905…上り勾配の路面、911…V-Disparity画像において最も支配的な直線、914…V-Disparity画像での近傍の平坦な路面領域、915…V-Disparity画像での遠方の上り勾配領域、916…垂直位置がこの点より上の部分に対応する推定路面は無効と判断する点、917…V-Disparity画像での先行車両のような障害物、920…センシングLa、922…センシングLaでセンシングされた車両、930…センシングLb、932…センシングLbでセンシングされた車両、940…センシングCa、942…センシングCaでセンシングされた車両、945…センシングCc、948…センシングCcでセンシングされた車両、950…センシングCb、952…センシングCbに投影したセンシングLbでセンシングされた車両、953…センシングCbでセンシングされた車両、955…センシングCd、956…推定路面、957…センシングCdに推定路面などを付加した説明図、958…センシングCdでセンシングされた車両、959…センシングCdのセンシングデータ上のミリ波レーダによる車両の推定領域、960…センシングRc、962…センシングRcでセンシングされた車両、970…センシングRd、971…センシングCdにおける推定路面に対してミリ波レーダによるセンシングを投影した領域、972…センシングRdでセンシングされた車両、974…センシングのセンシング時刻における推定位置、975…カメラによるセンシングデータ上にミリ波レーダによるセンシングから推定した車両の位置、981…領域A、982…領域B、983…領域C、984…領域D、988…時刻算出式、990…物体p、992…物体q、994…物体r、996…物体s、1000…信号処理システム、1000…評価システム

Claims (16)

  1. 各々に外界センサが接続される複数の外界センサ用信号処理装置で構成され、各信号処理装置は、前記外界センサによりセンシングした情報から外界の物体を認識する機能を有する信号処理システムにおいて、第一の外界センサによるセンシングデータは第一の信号処理装置で認識処理を行い、第二の外界センサによるセンシングデータは第二の信号処理装置で認識処理を行い、第一の信号処理装置の出力を第二の信号処理装置が認識処理を行う際に参照する信号処理システムであって、
    前記第一の信号処理装置は、処理対象としたセンシングデータのセンシング時刻と物体検出位置を管理し、前記物体検出位置は、前記第二の信号処理装置が処理対象とするセンシングデータのセンシング時刻における位置となるように補正され、前記第二の信号処理装置は、認識処理を行う際に前記補正された位置を用い
    前記補正された位置に対し、認識処理パラメータの変更を適用することを特徴とする、信号処理システム。
  2. 各々に外界センサが接続される複数の外界センサ用信号処理装置で構成され、各信号処理装置は、前記外界センサによりセンシングした情報から外界の物体を認識する機能を有する信号処理システムにおいて、第一の外界センサによるセンシングデータは第一の信号処理装置で認識処理を行い、第二の外界センサによるセンシングデータは第二の信号処理装置で認識処理を行い、第一の信号処理装置の出力を第二の信号処理装置が認識処理を行う際に参照する信号処理システムであって、
    前記第一の信号処理装置は、処理対象としたセンシングデータのセンシング時刻と物体検出位置を管理し、前記物体検出位置は、前記第二の信号処理装置が処理対象とするセンシングデータのセンシング時刻における位置となるように補正され、前記第二の信号処理装置は、認識処理を行う際に前記補正された位置を用い
    前記第一の外界センサのセンシングデータのセンシング時刻を、前記第一の外界センサ上のセンシング領域毎に、又は前記第一の外界センサ上の位置との関係を示す方法で、管理することを特徴とする、信号処理システム。
  3. 請求項1又は2に記載の信号処理システムであって、
    前記物体検出位置は、前記第一の信号処理装置が処理対象としたセンシングデータのセンシング時刻から前記第二の信号処理装置が処理対象とするセンシングデータのセンシング時刻までの経過時間を用いて補正されることを特徴とする、信号処理システム。
  4. 請求項に記載の信号処理システムであって、
    前記第一の信号処理装置と前記第二の信号処理装置の時刻が同期されており、前記時刻の差分を用いて前記センシング時刻の経過時間を求めることを特徴とする、信号処理システム。
  5. 請求項1又は2に記載の信号処理システムであって、
    前記第二の信号処理装置が認識処理を行う際に参照する前記第一の信号処理装置の出力は、物体の種類まで特定した認識処理結果とは別の、前記認識処理結果より低遅延な物体検出結果であることを特徴とする、信号処理システム。
  6. 請求項に記載の信号処理システムであって、
    前記補正された位置に対し、特定の認識処理アルゴリズムの適用、あるいは認識処理パラメータの変更の少なくとも一方を適用することを特徴とする、信号処理システム。
  7. 請求項1又は2に記載の信号処理システムであって、
    前記第一の外界センサのセンシングデータのセンシング時刻が前記第二の外界センサのセンシングデータの処理タイミングに合うように調整されていることを特徴とする、信号処理システム。
  8. 請求項1に記載の信号処理システムであって、
    前記第一の外界センサのセンシングデータのセンシング時刻を、前記第一の外界センサ上のセンシング領域毎に、前記第一の外界センサ上の位置との関係を示す方法で、又は前記第一の外界センサのセンシングデータを用いて検出した物体毎に管理することを特徴とする、信号処理システム。
  9. 各々に外界センサが接続される複数の外界センサ用信号処理装置で構成され、各信号処理装置は、前記外界センサによりセンシングした情報から外界の物体を認識する機能を有する信号処理システムにおいて、第一の外界センサによるセンシングデータは第一の信号処理装置で認識処理を行い、第二の外界センサによるセンシングデータは第二の信号処理装置で認識処理を行い、第一の信号処理装置の出力を第二の信号処理装置が認識処理を行う際に参照する信号処理システムであって、
    前記第一の信号処理装置は、処理対象としたセンシングデータのセンシング時刻と物体検出位置を管理し、前記物体検出位置は、前記第二の信号処理装置が処理対象とするセンシングデータのセンシング時刻における位置となるように補正され、前記第二の信号処理装置は、認識処理を行う際に前記補正された位置を用い、
    前記第一の外界センサのセンシングデータのセンシング時刻を、前記第一の外界センサ上のセンシング領域毎に、前記第一の外界センサ上の位置との関係を示す方法で、又は前記第一の外界センサのセンシングデータを用いて検出した物体毎に管理する信号処理システムの評価システムにおいて、
    前記信号処理システムの出力は、車両の動きを模擬するモデルに接続され、前記車両の動きを模擬するモデルは、車両の周辺環境を模擬するモデルに接続され、前記車両の動きを模擬するモデルと前記車両の周辺環境を模擬するモデルから外界センサのセンシングデータの模擬センシング信号を生成し、前記センシングデータの模擬センシング信号を前記信号処理システムの信号処理装置に入力する評価システムであって、
    一回のセンシングにおけるセンシング時刻を、同一時刻として処理、又は一部の物体のみ物体毎に管理することを特徴とする、評価システム。
  10. 請求項1又は2に記載の信号処理システムにおいて、第二の信号処理装置として用いられる信号処理装置であって、
    前記第一の信号処理装置が処理対象としたセンシングデータのセンシング時刻から前記第二の信号処理装置が処理対象とするセンシングデータのセンシング時刻までの経過時間を用いて前記第一の信号処理装置の物体検出結果の位置情報を補正した結果を用いて、前記認識処理を行うことを特徴とする、信号処理装置。
  11. 請求項10に記載の信号処理装置であって、
    前記第一の信号処理装置と前記第二の信号処理装置の時刻が同期されており、前記時刻の差分を用いて前記センシング時刻の経過時間を求めることを特徴とする、信号処理装置。
  12. 請求項1又は2に記載の信号処理システムにおいて、第一の信号処理装置として用いられる信号処理装置であって、
    物体の種類まで特定した認識処理結果とは別の、前記第二の信号処理装置が認識処理を行う際に用いる物体検出結果を、前記第二の外界センサによるセンシングデータから前記認識処理結果を出力するより低遅延に出力する機能を有することを特徴とする、信号処理装置。
  13. 請求項1又は2に記載の信号処理システムにおいて、第一の信号処理装置として用いられる信号処理装置であって、
    前記第二の信号処理装置が処理対象とするセンシングデータのセンシング時刻に合わせて補正された物体検出結果の位置情報を前記第二の信号処理装置に出力することを特徴とする、信号処理装置。
  14. 複数の外界センサが接続され、前記外界センサによりセンシングした情報から外界の物体を認識する機能を有する信号処理装置において、第一の外界センサによるセンシングデータに対する第一の認識処理の出力を第二の外界センサによるセンシングデータに対する第二の認識処理を行う際に参照する信号処理装置であって、
    前記第一の認識処理が処理対象としたセンシングデータのセンシング時刻から前記第二の認識処理が処理対象とするセンシングデータのセンシング時刻までの経過時間を用いて第一の認識処理の物体検出結果の位置情報を補正した結果を用いて、前記第二の認識処理を行い、
    前記第一の外界センサのセンシングデータのセンシング時刻を、前記第一の外界センサ上のセンシング領域毎に、又は前記第一の外界センサ上の位置との関係を示す方法で、管理することを特徴とする、信号処理装置。
  15. 請求項14に記載の信号処理装置であって、
    前記第一の外界センサのセンシングデータのセンシング時刻が前記第二の外界センサのセンシングデータの処理タイミングに合うように調整されていることを特徴とする、信号処理装置。
  16. 請求項10に記載の信号処理装置であって、
    前記位置情報を補正する際に、前記位置情報を推定路面上に対応付けることを特徴とする、信号処理装置。
JP2018041761A 2018-03-08 2018-03-08 信号処理システム、及びその評価システム、並びにその信号処理システムに用いられる信号処理装置 Active JP6932664B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018041761A JP6932664B2 (ja) 2018-03-08 2018-03-08 信号処理システム、及びその評価システム、並びにその信号処理システムに用いられる信号処理装置
PCT/JP2019/008008 WO2019172103A1 (ja) 2018-03-08 2019-03-01 信号処理システム、及びその評価システム、並びにその信号処理システムに用いられる信号処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018041761A JP6932664B2 (ja) 2018-03-08 2018-03-08 信号処理システム、及びその評価システム、並びにその信号処理システムに用いられる信号処理装置

Publications (2)

Publication Number Publication Date
JP2019158390A JP2019158390A (ja) 2019-09-19
JP6932664B2 true JP6932664B2 (ja) 2021-09-08

Family

ID=67847386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018041761A Active JP6932664B2 (ja) 2018-03-08 2018-03-08 信号処理システム、及びその評価システム、並びにその信号処理システムに用いられる信号処理装置

Country Status (2)

Country Link
JP (1) JP6932664B2 (ja)
WO (1) WO2019172103A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021149820A (ja) * 2020-03-23 2021-09-27 株式会社デンソー センサ評価装置
JP7412254B2 (ja) * 2020-04-02 2024-01-12 三菱電機株式会社 物体認識装置および物体認識方法
CN111611709B (zh) * 2020-05-20 2023-09-15 阿波罗智能技术(北京)有限公司 用于控制仿真车辆的方法、装置、电子设备和存储介质
JP7432447B2 (ja) * 2020-06-15 2024-02-16 日立Astemo株式会社 センサ認識統合装置
JP7519028B2 (ja) * 2020-09-18 2024-07-19 マツダ株式会社 車両の制御装置
JP7519027B2 (ja) * 2020-09-18 2024-07-19 マツダ株式会社 車載レーダの特性評価方法、これに用いる確率モデルの作成方法及び確率モデル
JP7515379B2 (ja) * 2020-11-24 2024-07-12 三菱電機株式会社 物体検出装置
JPWO2022163544A1 (ja) * 2021-01-26 2022-08-04

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002303671A (ja) * 2001-04-03 2002-10-18 Nissan Motor Co Ltd 物体種別判別装置
JP2012014553A (ja) * 2010-07-02 2012-01-19 Honda Motor Co Ltd 車両の周辺監視装置
WO2014010546A1 (ja) * 2012-07-10 2014-01-16 本田技研工業株式会社 故障判定装置
JP2015059808A (ja) * 2013-09-18 2015-03-30 株式会社東芝 物体監視装置、および物体監視システム
KR101644370B1 (ko) * 2014-10-23 2016-08-01 현대모비스 주식회사 물체 검출 장치 및 그 동작 방법
JP6169146B2 (ja) * 2015-10-16 2017-07-26 三菱電機株式会社 物体認識統合装置および物体認識統合方法

Also Published As

Publication number Publication date
JP2019158390A (ja) 2019-09-19
WO2019172103A1 (ja) 2019-09-12

Similar Documents

Publication Publication Date Title
JP6932664B2 (ja) 信号処理システム、及びその評価システム、並びにその信号処理システムに用いられる信号処理装置
US10279809B2 (en) Travelled-route selecting apparatus and method
JP7160040B2 (ja) 信号処理装置、および信号処理方法、プログラム、移動体、並びに、信号処理システム
US11009602B2 (en) Method and system for environment detection
US8615109B2 (en) Moving object trajectory estimating device
JP4428277B2 (ja) 物体検出装置
JP6462630B2 (ja) 物標検出装置
JP2022520968A (ja) 視覚画像データを用いたオブジェクト属性の推定
JP5089545B2 (ja) 道路境界検出判断装置
US20150073705A1 (en) Vehicle environment recognition apparatus
KR102569904B1 (ko) 표적 차량 추적 장치 및 그의 표적 차량 추적 방법과 그를 포함하는 차량
EP2061687B1 (en) Sight-line end estimation device and driving assist device
JP6780611B2 (ja) 自動運転装置
US11262761B2 (en) Vehicle control system, vehicle control method, and vehicle control program
CN103029621B (zh) 检测前方车辆的方法及设备
WO2016047689A1 (ja) ビームセンサの軸ずれ量推定装置
JP6787157B2 (ja) 車両制御装置
US7765057B2 (en) Driving schedule creating device
WO2019021591A1 (ja) 画像処理装置と画像処理方法とプログラムおよび画像処理システム
US11473912B2 (en) Location-estimating device and computer program for location estimation
JP2014093018A (ja) 車線認識装置、運転支援装置、車線認識方法、および、車線認識プログラム
WO2021106509A1 (ja) 移動体の制御装置及び方法
JP2008165610A (ja) 道路区画線認識装置
JP2006266927A (ja) 物体検出装置
JP4670449B2 (ja) 物体検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210818

R150 Certificate of patent or registration of utility model

Ref document number: 6932664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250