JP6245140B2 - 対象物識別装置、運転支援システム、車両および対象物識別方法 - Google Patents

対象物識別装置、運転支援システム、車両および対象物識別方法 Download PDF

Info

Publication number
JP6245140B2
JP6245140B2 JP2014218582A JP2014218582A JP6245140B2 JP 6245140 B2 JP6245140 B2 JP 6245140B2 JP 2014218582 A JP2014218582 A JP 2014218582A JP 2014218582 A JP2014218582 A JP 2014218582A JP 6245140 B2 JP6245140 B2 JP 6245140B2
Authority
JP
Japan
Prior art keywords
data
dictionary
peripheral
identifying
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014218582A
Other languages
English (en)
Other versions
JP2016085633A (ja
Inventor
信矢 小嶋
信矢 小嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2014218582A priority Critical patent/JP6245140B2/ja
Priority to DE102015220885.0A priority patent/DE102015220885A1/de
Priority to US14/923,155 priority patent/US9809227B2/en
Publication of JP2016085633A publication Critical patent/JP2016085633A/ja
Application granted granted Critical
Publication of JP6245140B2 publication Critical patent/JP6245140B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、車両の周辺に存在する対象物を識別する技術に関する。
カメラやレーザレーダ等のセンサが出力する車両の周辺の環境を表わす環境データから、車両の周辺に存在する特定の対象物を識別する技術が公知である(例えば、特許文献1参照)。環境データから対象物を識別する場合、環境データと辞書データとを比較し、その類似度に基づいて環境データから対象物を識別することが行われている。
特開2009−70344号公報
従来の辞書データは、環境データから対象物との類似度が高いデータを識別するものであるから、対象物との類似度が高いデータが環境データに存在すると、そのデータが対象物ではない物体の一部であっても、誤って対象物と識別されることがある。その結果、対象物の識別精度が低下するという問題がある。
本発明は、上記問題を解決するためになされたものであり、対象物の識別精度を向上させる技術を提供することを目的とする。
本発明の対象物識別装置は、データ取得手段と、データ抽出手段と、辞書データ記憶部と、識別手段とを備える。
データ取得手段は車両の周辺の環境を表わす環境データを取得し、データ抽出手段はデータ取得手段が取得する環境データから特定の対象物および対象物の周辺の環境と想定される周辺データを順次抽出する。
辞書データ記憶部は、データ抽出手段が抽出する周辺データを対象物および対象物の周辺の環境として識別するための周辺辞書データを記憶しており、識別手段は辞書データ記憶部に記憶されている周辺辞書データと周辺データとの類似度に基づいて対象物を識別する。
この構成によれば、例えば、対象物の特徴を表わすデータが周辺データに存在しても、そのデータが対象物以外の物体の一部である場合には、対象物と対象物の周辺の環境とを合わせた周辺データと周辺辞書データとの類似度は低くなる。これにより、対象物を誤って識別することを低減できるので、識別精度を向上できる。
また、本発明の対象物識別装置は、周辺辞書データと対象物を識別するための対象物辞書データとを記憶していることが望ましい。そして、環境データから対象物と想定される対象物データを抽出し、周辺辞書データおよび対象物辞書データと、周辺データおよび対象物データとの類似度に基づいて対象物を識別する。
これにより、周辺辞書データと周辺データ、あるいは対象物辞書データと対象物データとの一方の類似度だけに基づいて対象物を識別するのではなく、周辺辞書データおよび対象物辞書データと、周辺データおよび対象物データとの類似度に基づいて、総合的に対象物を識別できる。したがって、対象物の識別精度を向上できる。
尚、特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。
第1実施形態の対象物識別装置を示すブロック図。 車両からの撮像状態を示す模式図。 対象物識別処理を示すフローチャート。 画像データから生成するピラミッド画像データを示す説明図。 画像データと辞書データとの類似度の判定を説明する図。 第2実施形態の対象物識別装置を示すブロック図。 画像データと辞書データとの類似度の判定を説明する図。 第3実施形態による画像データと辞書データとの類似度の判定を説明する図。
以下に本発明の実施の形態を図に基づいて説明する。
[1.第1実施形態]
[1−1.構成]
図1に示す運転支援システム2は、対象物識別装置10と運転支援装置30とを備えている。対象物識別装置10は、制御部12と辞書データ記憶部20とを備えている。
対象物識別装置10と運転支援装置30とは、カメラ100とレーザレーダ102とから、車両110(図2参照)の周辺の環境を表わす環境データを取得する。
カメラ100は、図2に示すように、車両110の進行方向前方を予め設定された周期で所定の検出範囲を撮像し、車両110の周辺の環境を表わす環境データとして画像データを出力する。
レーザレーダ102は、ミリ波等の電磁波を車両110の前方に対して所定の検出範囲で照射し、その反射波を受信することによって、車両110の前方周辺に存在する物体について、車両110との距離、車両110に対する方位を検出し、車両110の周辺の環境を表わす環境データとして出力する。図2では、説明を簡単にするために、カメラ100の検出範囲とレーザレーダ102の検出範囲とを同じにしている。
本実施形態では、カメラ100とレーザレーダ102とのうち、カメラ100が撮像する画像データに対する対象物識別処理について説明する。
制御部12は、図示しないCPU、RAM、ROM等を備えたマイクロコンピュータを搭載している。制御部12のCPUがROMに記憶されているプログラムを実行することにより、制御部12は対象物識別処理を実行する。制御部12は、対象物として、車両、人、標識、ガードレール等を識別する。
辞書データ記憶部20は、例えばROMで構成されており、対象物周辺辞書データ22と対象物辞書データ24とを独立した辞書データとして記憶している。
対象物周辺辞書データ22は、カメラ100が撮像した画像データから、特定の対象物および対象物を取り囲む周辺の環境と想定される対象物周辺データを識別するための辞書データである。
尚、第1実施形態と後述する第2実施形態とにおいて、対象物周辺辞書データを単に周辺辞書データとも言い、対象物周辺データを単に周辺データとも言う。
対象物辞書データ24は、カメラ100が撮像した画像データから、特定の対象物と想定される対象物データを識別するための辞書データである。
運転支援装置30は、図示しないCPU、RAM、ROM等を備えたマイクロコンピュータを搭載している。運転支援装置30の図示しないCPUがROMに記憶されているプログラムを実行することにより、運転支援装置30は、対象物識別装置10が識別する対象物と車両との衝突を回避するか、あるいは衝突による被害を軽減する運転支援制御を実行する。
制御対象40は、運転支援装置30が運転支援制御を実行するときの制御の対象である。制御対象40として、ブレーキ、ステアリング、シートベルト等を駆動するアクチュエータ、ならびに警報を発する警報装置等が挙げられる。
[1−2.処理]
次に、対象物識別装置10が実行する対象物識別処理について、図3のフローチャートを用いて説明する。対象物識別処理は所定周期で実行される。
制御部12は、カメラ100が撮像する画像データを車両110の周辺の環境データとして取得し(S400)、図4に示すように、取得した画像データを所定の比率で縮小または拡大し、倍率の異なる倍率データとして画像データ200、202、204を生成する(S402)。倍率データをピラミッド画像データとも言う。画像データを縮小する場合、画素数は減少する。元の画像データをピラミッド画像データの一部としてもよい。
図4では、ピラミッド画像として倍率の異なる3種類の画像データを生成した例を図示しているが、倍率の異なる4種類以上の画像データを生成してもよい。その場合、画像データ200よりも倍率の大きい画像データ、ならびに画像データ204よりも倍率の小さい画像データをピラミッド画像として生成してもよい。
制御部12は、図5に示すように、画像データ200、202、204に対し、同じ位置から同じ大きさの矩形領域の画像データ210、212、214をそれぞれ抽出する(S404)。制御部12は、抽出位置をずらしながら、画像データ200、202、204の全域から矩形領域の画像データ210、212、214を順次抽出する。
制御部12は、後述するS408で類似度を算出するときの画像データ210と画像データ212との組合せでは、画像データ210を対象物と想定される対象物データとして抽出し、画像データ212を対象物および対象物の周辺の環境と想定される周辺データとして抽出する。
また、制御部12は、後述するS408で類似度を算出するときの画像データ212と画像データ214との組合せでは、画像データ212を対象物と想定される対象物データとして抽出し、画像データ214を対象物および対象物の周辺の環境と想定される周辺データとして抽出する。
尚、図4と図5とにおいて、対応する画像データ200と画像データ210、画像データ202と画像データ212、画像データ204と画像データ214の倍率が異なっているのは、図5において図が小さくなりすぎないようにしたためである。
制御部12は、画像データ200、202、204から抽出した画像データ210、212、214に対し、それぞれHOG(Histograms of Oriented Gradients)特徴量等の特徴量を算出する(S406)。
制御部12は、画像データ210、212のそれぞれの特徴量と対象物辞書データ24とを比較して類似度1を算出する(S408)。さらに、制御部12は、画像データ212、214のそれぞれの特徴量と周辺辞書データ22とを比較して類似度2を算出する。(S408)。画像データ210、212、214と対象物辞書データ24、周辺辞書データ22との類似度は、公知の識別器により算出される。
そして、制御部12は、画像データ210と画像データ212との組合せでは、画像データ210を対象物データとしたときの類似度1と画像データ212を周辺データとしたときの類似度2とを合わせた類似度3を算出する(S408)。
また、制御部12は、画像データ212と画像データ214との組合せでは、画像データ212を対象物データとしたときの類似度1と画像データ214を周辺データとしたときの類似度2とを合わせた類似度3を算出する(S408)。
制御部12は、画像データ210と画像データ212との組合せ、あるいは画像データ212と画像データ214との組合せで算出した類似度3のいずれかが所定の閾値以上であるか否かを判定する。類似度3が所定の閾値以上であれば、該当する画像データの組合せのうち対象物データを対象物と識別する(S410)。
運転支援装置30は、車両110の進行方向前方を移動して車両110に接近する物体を、カメラ100およびレーザレーダ102が出力する環境データから検出し、物体が車両に衝突するまでのTTC(Time to Collision)を算出する。
運転支援装置30は、対象物識別装置10が識別する対象物に応じて、運転支援制御を実行するときのTTCの閾値と運転支援の種類とを設定している。
TTCが閾値に達すると、運転支援装置30は、物体との衝突を回避するか、あるいは衝突による被害を軽減するための運転支援の種類に応じて制御対象40を制御し、警報の出力、ブレーキの作動、ステアリング操作への介入、シートベルトの巻き上げ等の各種運転支援を実行させる。
[1−3.効果]
以上説明した第1実施形態によると、以下の効果を得ることができる。
(1)対象物および対象物の周辺の環境を識別するための周辺辞書データ22を使用するので、対象物と対象物の周辺の環境とを合わせた周辺データと周辺辞書データ22との類似度を判定できる。したがって、例えば、対象物の特徴を表わすデータが周辺データに存在しても、そのデータが対象物以外の物体の一部である場合には、周辺データと周辺辞書データ22との類似度は低くなる。これにより、対象物を誤って識別することを低減できるので、識別精度を向上できる。
(2)周辺データと周辺辞書データ22との類似度と、対象物データと対象物辞書データ24との類似度との両方に基づいて対象物を識別するので、一方の類似度が高くても他方の類似度が低いために、合わせた類似度が所定の閾値未満になる場合には対象物ではないと判定できる。したがって、対象物の識別精度を向上できる。
(3)周辺辞書データ22と対象物辞書データ24とが同じ大きさの画像データを比較対象とするので、制御部12がピラミッド画像データから周辺データおよび対象物データとして抽出する画像領域の大きさは同じになる。つまり、画像データ210と画像データ212との組合せでは周辺データとして抽出され、画像データ212と画像データ214との組合せでは対象物データとして抽出される画像データ212は同じ大きさになる。
これにより、今回の識別タイミングにおいて画像データ210と画像データ212との組合せで算出された画像データ212の特徴量を、他の識別タイミングにおいて画像データ212と画像データ214との組合せで類似度を判定するときに使用できる。つまり、1回算出された画像データ212の特徴量を、画像データ212を周辺データとしたときと対象物データとしたときとの両方で使用できるので、特徴量の算出負荷を低減できる。
[2.第2実施形態]
[2−1.第1実施形態との相違点]
図6に示す第2実施形態の運転支援システム4の対象物識別装置50では、辞書データ記憶部60に周辺辞書データと対象物辞書データとを連結して生成した連結辞書データ62が記憶されている点が、第1実施形態と異なる。
図7に示すように、制御部52は、画像データ210と画像データ212とを連結した連結データから特徴量を算出し、画像データ212と画像データ214とを連結した連結データから特徴量を算出する。
制御部52は、画像データ210と画像データ212とを連結して算出した特徴量、ならびに画像データ212と画像データ214とを連結して算出した特徴量のそれぞれと、辞書データ記憶部60に記憶されている連結辞書データ62との類似度を算出する。
制御部52は、画像データ210と画像データ212との組合せ、画像データ212と画像データ214との組合せで算出した類似度が所定の閾値以上であるか否かを判定する。類似度が所定の閾値以上であれば、該当する画像データの組合せのうち対象物データを対象物と識別する。
[2−2.効果]
第2実施形態では、連結辞書データ62は周辺辞書データと対象物辞書データとを連結したものであるから、第1実施形態の効果(1)、(2)と同等の効果を得ることができる。
[3.第3実施形態]
[3−1.第1実施形態との相違点]
第3実施形態では、対象物の周辺の環境として、対象物を取り囲む周辺の領域ではなく、対象物から離れた対象物の周辺の異なる領域の環境を採用し、この採用した領域のデータを周辺データとして環境データから抽出している点が第1実施形態と異なっている。
つまり、環境データから周辺データとして抽出するデータ領域と周辺辞書データの内容とが第1実施形態と異なっている。その他の対象物識別装置の構成は、図1に示す対象物識別装置10と実質的に同一である。
図8に示すように、例えば第1実施形態の図5に示す画像データ210を対象物データとしたときに、画像データ210と同じ倍率の環境データから、対象物から撮像方向に向かって右側に離れた対象物の周辺の異なる領域の環境を表わす画像データ220を周辺データとして使用する。
制御部12は、画像データ210の特徴量と対象物辞書データ24とを比較して類似度1を算出し、画像データ220の特徴量と周辺辞書データ22とを比較して類似度2を算出する。そして、制御部12は、類似度1と類似度2とを合わせた類似度3が所定の閾値以上であれば、対象物データとして抽出した画像データ210を対象物と識別する。
対象物と異なる領域の環境を表わす周辺データとして、図8に示すように、対象物である車両から離れて対象物と重ならない領域を採用してもよいし、対象物と隣接するか、あるいは対象物と一部重複する領域を採用してもよい。
図8に示す画像データ220を周辺データとして採用する場合、周辺辞書データ22は、対象物から離れた対象物の周辺の異なる領域の環境として周辺データを識別するための辞書データとして生成される。周辺辞書データ22は、第1実施形態のように対象物辞書データ24とは独立して生成されてもよいし、第2実施形態のように対象物辞書データと連結して生成されてもよい。
対象物辞書データ24と周辺辞書データ22とを連結して連結辞書データを生成する場合、第2実施形態と同様に、画像データ210と画像データ220とを連結した連結データから特徴量を算出し、この特徴量と連結辞書データとの類似度を算出する。
[3−2.効果]
第3実施形態では、第1実施形態の効果(2)と同等の効果を得ることができる。
[4.他の実施形態]
(1)第1、第2実施形態では、周辺辞書データ22と対象物辞書データ24、あるいは周辺辞書データと対象物辞書データとが連結された連結辞書データ62を使用して対象物を識別した。これに対し、周辺辞書データ22だけを使用して周辺データと周辺辞書データ22との類似度を算出して対象物を識別してもよい。
(2)第1実施形態において、周辺辞書データ22が比較対象とする画像領域の大きさと対象物辞書データ24が比較対象とする画像領域の大きさとは異なっていてもよい。また、第2実施形態においても、制御部12が周辺データと対象物データとして抽出する画像領域の大きさは異なっていてもよい。
(3)上記実施形態では、カメラ100が撮像した画像データを環境データとして取得し、画像データから特定の対象物を識別した。これに対し、レーザレーダ102が検出する車両周辺の物体の距離および位置のデータを環境データとして取得し、この環境データから特定の対象物を識別してもよい。
(4)上記実施形態における一つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を一つの構成要素に統合させたりしてもよい。また、上記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加または置換してもよい。尚、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
(5)上述した対象物識別装置の他、当該対象物識別装置を構成要素とする運転支援システム、当該対象物識別装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した記録媒体、対象物識別方法、運転支援システムを搭載した車両など、種々の形態で本発明を実現することもできる。
2、4:運転支援システム、10、50:対象物識別装置、12、52:制御部、20、60:辞書データ記憶部、22:周辺辞書データ(辞書データ)、24:対象物辞書データ(辞書データ)、30:運転支援装置、40:制御対象、62:連結辞書データ(辞書データ)、100:カメラ、102:レーザレーダ、110:車両、200、202、204:画像データ(倍率データ)、210、212:画像データ(対象物データ)、212、214、220:画像データ(周辺データ)

Claims (14)

  1. 車両(110)の周辺の環境を表わす環境データを取得するデータ取得手段(S400)と、
    前記データ取得手段が取得する前記環境データから特定の対象物および前記対象物の周辺の環境と想定される対象物周辺データ(212、214)と、前記対象物と想定される対象物データ(210、212)とを順次抽出するデータ抽出手段(S404)と、
    前記データ抽出手段が抽出する前記対象物周辺データを前記対象物および前記対象物の周辺の環境として識別するための対象物周辺辞書データ(22)と、前記データ抽出手段が抽出する前記対象物データを前記対象物として識別するための対象物辞書データ(24)とをそれぞれ独立して記憶している辞書データ記憶部(20)と、
    前記辞書データ記憶部に記憶されている前記対象物周辺辞書データと前記対象物周辺データとの類似度と、前記辞書データ記憶部に記憶されている前記対象物辞書データと前記対象物データとの類似度とに基づいて前記対象物を識別する識別手段(S408、S410)と、
    を備えることを特徴とする対象物識別装置(10)
  2. 車両(110)の周辺の環境を表わす環境データを取得するデータ取得手段(S400)と、
    前記データ取得手段が取得する前記環境データから、特定の対象物および前記対象物の周辺の環境と想定される対象物周辺データと前記対象物と想定される対象物データとを順次抽出するデータ抽出手段(S404)と、
    前記データ抽出手段が抽出する前記対象物周辺データと前記対象物データとを連結した連結データから前記対象物を識別するための辞書データ(2)を記憶している辞書データ記憶部(60)と、
    前記辞書データ記憶部に記憶されている前記辞書データと前記連結データとの類似度に基づいて前記対象物を識別する識別手段(S408、S410)と、
    を備えることを特徴とする対象物識別装置(50)。
  3. 請求項2に記載の対象物識別装置であって、
    前記辞書データは、前記対象物周辺データと前記対象物データとの特徴量を連結して生成されている、
    ことを特徴とする対象物識別装置。
  4. 請求項1から3のいずれか一項に記載の対象物識別装置であって、
    前記環境データに対し拡大および縮小の少なくともいずれか一方を実行し、前記環境データを含む倍率の異なる複数の倍率データ(200、202、204)を生成するデータ生成手段(S402)を備え、
    前記データ抽出手段は、前記データ生成手段が生成する前記倍率データのうち、前記対象物データを抽出する前記倍率データよりも倍率の小さい前記倍率データから前記対象物周辺データを抽出する、
    ことを特徴とする対象物識別装置。
  5. 請求項4に記載の対象物識別装置であって、
    前記データ抽出手段は、前記対象物データを抽出する前記倍率データよりも倍率の小さい前記倍率データから前記対象物データと同じ大きさの前記対象物周辺データを抽出し、
    前記識別手段は、今回の識別タイミングで使用される前記対象物周辺データを他の識別タイミングにおける前記対象物データとして使用し、今回の識別タイミングで使用される前記対象物データを他の識別タイミングにおける前記対象物周辺データとして使用する、
    ことを特徴とする対象物識別装置。
  6. 車両(110)の周辺の環境を表わす環境データを取得するデータ取得手段(S400)と、
    前記データ取得手段が取得する前記環境データから特定の対象物と想定される対象物データ(210)と、前記対象物データとは異なる前記環境データの領域から前記対象物の周辺の環境と想定される周辺データ(220)とを順次抽出するデータ抽出手段(S404)と、
    前記データ抽出手段が抽出する前記周辺データを前記対象物の周辺の環境として識別するための周辺辞書データ(22)と、前記データ抽出手段が抽出する前記対象物データを前記対象物として識別するための対象物辞書データ(24)とをそれぞれ独立して記憶している辞書データ記憶部(20)と、
    前記辞書データ記憶部に記憶されている前記周辺辞書データと前記周辺データとの類似度と、前記辞書データ記憶部に記憶されている前記対象物辞書データと前記対象物データとの類似度とに基づいて前記対象物を識別する識別手段(S408、S410)と、
    を備えることを特徴とする対象物識別装置(10)
  7. 車両(110)の周辺の環境を表わす環境データを取得するデータ取得手段(S400)と、
    前記データ取得手段が取得する前記環境データから特定の対象物と想定される対象物データ(210)と、前記対象物データとは異なる前記環境データの領域から前記対象物の周辺の環境と想定される周辺データ(220)とを順次抽出するデータ抽出手段(S404)と、
    前記データ抽出手段が抽出する前記周辺データと前記対象物データとを連結した連結データから前記対象物を識別するための辞書データ(62)を記憶している辞書データ記憶部(60)と、
    前記辞書データ記憶部に記憶されている前記辞書データと前記連結データとの類似度に基づいて前記対象物を識別する識別手段(S408、S410)と、
    を備えることを特徴とする対象物識別装置(50)。
  8. 請求項7に記載の対象物識別装置であって、
    前記辞書データは、前記周辺データと前記対象物データとの特徴量を連結して生成されている、
    ことを特徴とする対象物識別装置。
  9. 請求項1から8のいずれか一項に記載の対象物識別装置(10、50)と、
    前記対象物識別装置が識別する前記対象物と車両との衝突を回避するか、あるいは衝突による被害を軽減するための運転支援制御を実行する運転支援装置(30)と、
    を備えることを特徴とする運転支援システム(2、4)。
  10. 請求項9に記載の運転支援システムと、
    前記運転支援装置により制御され、前記対象物と車両との衝突を回避するか、あるいは衝突による被害を軽減する運転支援を実行する制御対象(40)と、
    を備えることを特徴とする車両(110)。
  11. 車両の周辺の環境を表わす環境データを取得するデータ取得ステップ(S400)と、
    前記データ取得ステップで取得される前記環境データから、特定の対象物および前記対象物の周辺の環境と想定される対象物周辺データと前記対象物と想定される対象物データとを順次抽出するデータ抽出ステップ(S404)と、
    前記データ抽出ステップで抽出される前記対象物周辺データを前記対象物および前記対象物の周辺の環境として識別するための対象物周辺辞書データと前記対象物周辺データとの類似度と、前記データ抽出ステップで抽出される前記対象物データを前記対象物として識別するための対象物辞書データと前記対象物データとの類似度とに基づいて前記対象物を識別する識別ステップ(S408、S410)と、
    を備えることを特徴とする対象物識別方法。
  12. 車両の周辺の環境を表わす環境データを取得するデータ取得ステップ(S400)と、
    前記データ取得ステップで取得される前記環境データから、特定の対象物および前記対象物の周辺の環境と想定される対象物周辺データと前記対象物と想定される対象物データとを順次抽出するデータ抽出ステップ(S404)と、
    前記データ抽出ステップで抽出される前記対象物周辺データと前記対象物データとを連結した連結データから前記対象物を識別するための辞書データと前記連結データとの類似度に基づいて前記対象物を識別する識別ステップ(S408、S410)と、
    を備えることを特徴とする対象物識別方法。
  13. 車両の周辺の環境を表わす環境データを取得するデータ取得ステップ(S400)と、
    前記データ取得ステップで取得される前記環境データから特定の対象物と想定される対象物データと、前記対象物データとは異なる前記環境データの領域から前記対象物の周辺の環境と想定される周辺データとを順次抽出するデータ抽出ステップ(S404)と、
    前記データ抽出ステップで抽出される前記周辺データを前記対象物および前記対象物の周辺の環境として識別するための周辺辞書データと前記周辺データとの類似度と、前記データ抽出ステップで抽出される前記対象物データを前記対象物として識別するための対象物辞書データと前記対象物データとの類似度とに基づいて前記対象物を識別する識別ステップ(S408、S410)と、
    を備えることを特徴とする対象物識別方法。
  14. 車両の周辺の環境を表わす環境データを取得するデータ取得ステップ(S400)と、
    前記データ取得ステップで取得される前記環境データから特定の対象物と想定される対象物データと、前記対象物データとは異なる前記環境データの領域から前記対象物の周辺の環境と想定される周辺データとを順次抽出するデータ抽出ステップ(S404)と、
    前記データ抽出ステップで抽出される前記周辺データと前記対象物データとを連結した連結データと、前記連結データから前記対象物を識別するための辞書データとの類似度に基づいて前記対象物を識別する識別ステップ(S408、S410)と、
    を備えることを特徴とする対象物識別方法。
JP2014218582A 2014-10-27 2014-10-27 対象物識別装置、運転支援システム、車両および対象物識別方法 Active JP6245140B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014218582A JP6245140B2 (ja) 2014-10-27 2014-10-27 対象物識別装置、運転支援システム、車両および対象物識別方法
DE102015220885.0A DE102015220885A1 (de) 2014-10-27 2015-10-26 Vorrichtung und Verfahren zum Identifizieren eines Zielobjekts
US14/923,155 US9809227B2 (en) 2014-10-27 2015-10-26 Apparatus and method for identifying target object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014218582A JP6245140B2 (ja) 2014-10-27 2014-10-27 対象物識別装置、運転支援システム、車両および対象物識別方法

Publications (2)

Publication Number Publication Date
JP2016085633A JP2016085633A (ja) 2016-05-19
JP6245140B2 true JP6245140B2 (ja) 2017-12-13

Family

ID=55698747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014218582A Active JP6245140B2 (ja) 2014-10-27 2014-10-27 対象物識別装置、運転支援システム、車両および対象物識別方法

Country Status (3)

Country Link
US (1) US9809227B2 (ja)
JP (1) JP6245140B2 (ja)
DE (1) DE102015220885A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6256239B2 (ja) * 2014-07-25 2018-01-10 株式会社デンソー 歩行者検出装置および歩行者検出方法
US10579065B2 (en) * 2016-11-23 2020-03-03 Baidu Usa Llc Algorithm and infrastructure for robust and efficient vehicle localization
US10380890B2 (en) * 2017-02-08 2019-08-13 Baidu Usa Llc Autonomous vehicle localization based on walsh kernel projection technique
US10401484B2 (en) * 2017-06-30 2019-09-03 Aptiv Technologies Limited LiDAR sensor alignment system
US11127297B2 (en) * 2017-07-17 2021-09-21 Veoneer Us, Inc. Traffic environment adaptive thresholds
JP7193234B2 (ja) * 2018-02-06 2022-12-20 京セラ株式会社 物体検出装置、物体検出システム
JP6760318B2 (ja) * 2018-03-14 2020-09-23 オムロン株式会社 顔画像識別システム、識別器生成装置、識別装置、画像識別システム、及び識別システム
KR20210061839A (ko) * 2019-11-20 2021-05-28 삼성전자주식회사 전자 장치 및 그 제어 방법
KR102234580B1 (ko) * 2020-06-07 2021-03-31 주식회사 플로이드 영상 분석 장치 및 방법
JP7486355B2 (ja) * 2020-06-18 2024-05-17 古野電気株式会社 船舶用物標検出システム、船舶用物標検出方法、信頼度推定装置、及びプログラム
CN112596064B (zh) * 2020-11-30 2024-03-08 中科院软件研究所南京软件技术研究院 激光与视觉融合的一体化室内机器人全局定位方法
CN112541464A (zh) * 2020-12-21 2021-03-23 北京百度网讯科技有限公司 关联道路对象的确定方法、装置、路侧设备和云控平台

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007328630A (ja) * 2006-06-08 2007-12-20 Fujitsu Ten Ltd 物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置および車両制御装置
JP2009070344A (ja) * 2007-09-18 2009-04-02 Fujitsu Ten Ltd 画像認識装置、画像認識方法および電子制御装置
JP5754470B2 (ja) 2012-12-20 2015-07-29 株式会社デンソー 路面形状推定装置
JP6173764B2 (ja) 2013-05-08 2017-08-02 モメンティブ・パフォーマンス・マテリアルズ・ジャパン合同会社 画像表示装置用のダム材組成物、及びそれを用いた画像表示装置

Also Published As

Publication number Publication date
JP2016085633A (ja) 2016-05-19
US20160114804A1 (en) 2016-04-28
DE102015220885A1 (de) 2016-04-28
US9809227B2 (en) 2017-11-07

Similar Documents

Publication Publication Date Title
JP6245140B2 (ja) 対象物識別装置、運転支援システム、車両および対象物識別方法
US10242576B2 (en) Obstacle detection device
EP2919159A2 (en) Image processing device and image processing method
US10776946B2 (en) Image processing device, object recognizing device, device control system, moving object, image processing method, and computer-readable medium
JP6208244B2 (ja) 物体検知装置
JP5727356B2 (ja) 物体検知装置
JP6407626B2 (ja) 物体認識装置及び車両制御システム
US20150367781A1 (en) Lane boundary estimation device and lane boundary estimation method
JP6457278B2 (ja) 物体検出装置及び物体検出方法
JP6601506B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法、画像処理プログラム及び車両
CN106183979A (zh) 一种根据车距对车辆进行提醒的方法和装置
CN107950023B (zh) 车辆用显示装置以及车辆用显示方法
EP2779024A1 (en) Intersection recognizing apparatus and computer-readable storage medium
JP2017151535A (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP2012252501A (ja) 走行路認識装置及び走行路認識用プログラム
JP6458577B2 (ja) 画像測距装置
JP6577595B2 (ja) 車両用外界認識装置
JP6631691B2 (ja) 画像処理装置、機器制御システム、撮像装置、画像処理方法、及び、プログラム
EP1976267A2 (en) Image processing apparatus and image processing method
JP2015210538A (ja) 光源検出装置、前照灯制御システム、および光源検出方法
JP2021051348A (ja) 物体距離推定装置及び物体距離推定方法
JP4075879B2 (ja) 車両用衝突警報装置及び車両用衝突警報方法
JP6564682B2 (ja) 対象物検出装置、対象物検出方法、及び、対象物検出プログラム
JP6877636B2 (ja) 車載カメラ装置
JP2015143946A (ja) 移動物体検知・追跡装置、移動物体検知・追跡システム、移動物体検知・追跡方法、及び、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171030

R151 Written notification of patent or utility model registration

Ref document number: 6245140

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250