JP6713349B2 - 画像処理装置、外界認識装置 - Google Patents

画像処理装置、外界認識装置 Download PDF

Info

Publication number
JP6713349B2
JP6713349B2 JP2016108686A JP2016108686A JP6713349B2 JP 6713349 B2 JP6713349 B2 JP 6713349B2 JP 2016108686 A JP2016108686 A JP 2016108686A JP 2016108686 A JP2016108686 A JP 2016108686A JP 6713349 B2 JP6713349 B2 JP 6713349B2
Authority
JP
Japan
Prior art keywords
vehicle
image
candidate
verification
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016108686A
Other languages
English (en)
Other versions
JP2017215743A (ja
Inventor
秋山 靖浩
靖浩 秋山
浜田 宏一
宏一 浜田
泰 金田
泰 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2016108686A priority Critical patent/JP6713349B2/ja
Priority to PCT/JP2017/012756 priority patent/WO2017208601A1/ja
Publication of JP2017215743A publication Critical patent/JP2017215743A/ja
Application granted granted Critical
Publication of JP6713349B2 publication Critical patent/JP6713349B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、画像処理装置および外界認識装置に関する。
近年、車両同士の衝突や人と車両の衝突などの事故を未然に避けるため、自車両周辺の状況を車載カメラでモニタし、危険を感知した際はドライバーに警報を出力すると共に、自車両の挙動を自動で制御する技術が進展している。このような技術において、自車両に対して遠方に位置する物体を車載カメラで撮影すると、当該物体はカメラへの映り込み範囲が小さいことから、当該物体に対応する画像領域の解像度が低くなる。その結果、車両形状等の特徴情報が得られにくくなり、不検知や誤検知が生じ易くなるため、安定した制御が困難であった。
上記のような遠方車両の検知における問題点を解決する手法として、たとえば特許文献1に記載の技術が提案されている。特許文献1には、所定の時間間隔で撮影された2枚の画像をそれぞれ所定のテンプレート画像と比較することにより、車両の周囲に存在する車両等の物体を認識する方法が開示されている。
特開2005−318546号公報
特許文献1に記載された技術では、車両等の物体が自車両から遠方に存在するときに撮影された1枚目の撮影画像についても、テンプレート画像と比較している。しかし、前述のように認識対象とする物体が自車両から遠方に存在するときには、その物体に対応する画像領域の解像度が低くなるため、1枚目の撮影画像は物体の特徴を正確に反映したものとはなりにくい。したがって、特許文献1の手法を用いても、自車両の遠方から近傍に接近してくる他車両等の対象物を撮影画像において正確に検知するのは困難である。
本発明による画像処理装置は、第1の時刻にカメラで撮影して得られた第1の撮影画像から、前記カメラに対して第1の距離だけ離れた地点に存在する対象物の候補を抽出する第1検知部と、前記第1の時刻よりも後の第2の時刻に前記カメラで撮影して得られた第2の撮影画像から、前記カメラに対して前記第1の距離よりも近い第2の距離だけ離れた地点に存在する前記対象物を検知する第2検知部と、を備え、前記第2検知部は、前記第2の撮影画像に基づいて、前記第1検知部により抽出された前記対象物の候補が前記対象物であるか否かを識別することにより、前記対象物を検知する。
本発明による外界認識装置は、画像処理装置を備え、前記第2検知部による前記他車両の検知結果に基づいて、前記自車両の運転者に対する警告を行うための警報信号および前記自車両の動作を制御するための車両制御信号のいずれか少なくとも一つを出力する。
本発明によれば、自車両の遠方から近傍に接近してくる他車両等の対象物を撮影画像において正確に検知できる。
本発明の第1の実施形態に係る画像処理装置の機能構成を示すブロック図である。 カメラから出力される撮影画像の例を示す図である。 検出器を生成する際に用いられる学習用画像の例を示す図である。 撮影画像における遠方領域と近傍領域の設定例を示す図である。 動きベクトル検証処理を説明する図である。 空間周波数検証処理を説明する図である。 合計検証スコアTSCと感度設定値CCとの関係を示す特性曲線の例を示す図である。 本発明の第1の実施形態に係る画像処理装置の処理フローを示す図である。 本発明の第2の実施形態に係る外界認識装置の一例を示す図である。
−第1の実施形態−
以下、本発明の第1の実施形態に係る画像処理装置について、図面を参照して説明する。図1は、本発明の第1の実施形態に係る画像処理装置10の機能構成を示すブロック図である。図1に示す画像処理装置10は、車両に搭載されて用いられる。なお、以下の説明では、画像処理装置10が搭載されている車両を「自車両」と称し、自車両の周囲に存在する他の車両を「他車両」と称する。
画像処理装置10は、撮影領域に対応する自車両の所定の位置、たとえば自車両のボディに取り付けられたカメラ20と接続されている。画像処理装置10は、第1検知部101、検証部102、決定部103、第2検知部104および設定変更部105を備える。なお、図1に示す画像処理装置10の各機能は、マイクロコンピュータ、メモリ等のハードウェアや、マイクロコンピュータ上で実行される各種プログラムなどを適宜組み合わせることにより、実現可能である。
カメラ20は、自車両周辺に存在する他車両を動画で、または所定時間ごとに静止画で撮影し、取得した動画の各コマまたは各静止画を、所定時間ごとの撮影画像として第1検知部101へ出力する。なお、画像処理装置10において他車両の認識を行いやすくするために、自車両の任意の箇所にカメラ20を設置することができる。たとえば、自車両のフロントバンパー、リアバンパー、左右のサイドミラー等の部分に、カメラ20が設置される。または、自車両の車内にカメラ20を設置してもよい。さらに、自車両の周囲で特定の領域のみに存在する他車両の認識を目的として、カメラ20を単独で設置してもよいし、あるいは、自車両の周囲の全ての領域について他車両を認識できるように、カメラ20を複数設置してもよい。
図2は、カメラ20から第1検知部101へ出力される撮影画像の例を示す図である。図2(a)は、自車両のリアバンパー部分にカメラ20が設置されている場合に、自車両の後方を走行している他車両203および204を撮影して得られた撮影画像の例である。図2(a)の撮影画像には、自車両の後方に延びている道路202の上に、自車両に対して地平線201に近い遠方の領域に存在する他車両203と、自車両に対して近傍の領域に存在する他車両204とが映り込んでいる。
図2(b)は、遠方の領域に存在する他車両203のみが映り込んでいる撮影画像の例である。図2(b)の撮影画像において、他車両203の周囲の所定範囲には、切り出し領域205が設定される。第1検知部101は、この切り出し領域205の画像を切り出して、撮影画像から他車両203を認識するための機械学習に利用することができる。
図2(c)は、カメラ20に魚眼レンズを用いた場合に、遠方の領域に存在する他車両203を撮影して得られた撮影画像の例である。図2(c)の撮影画像は、自車両の右サイドミラーの部分に設置されたカメラ20に魚眼レンズを用いて、自車両の右側後方から他車両203が接近してくる状況を示している。この撮影画像には、図2(b)と同様に、第1検知部101において機械学習に利用する画像を切り出すための切り出し領域205が設定されている。すなわち、図2(c)に例示した魚眼レンズによる撮影画像は、一般的なレンズによる撮影画像とは異なり、上下左右方向の広範囲を撮影できるという利点がある。こうした魚眼レンズによる撮影画像からも、機械学習に利用する画像を切り出すことができる。
第1検知部101は、カメラ20より入力された撮影画像から、自車両に対して遠方の領域に存在する他車両の候補を検知し、他車両候補として抽出する。第1検知部101は、たとえば機械学習の手法を適用した検出器を利用して、撮影画像から他車両の候補を検知する。
図3は、第1検知部101の検出器を生成する際に用いられる学習用画像の例を示す図である。図3(a)は、遠方の領域に他車両203が存在する場合の学習用画像の例であり、図3(b)は、他車両203が存在しない場合の学習用画像の例である。図3(a)の学習用画像では、地平線201に近い遠方領域において道路202の上に他車両203が映り込んでいるのに対して、図3(b)の学習用画像では、他車両203の映り込みがない。なお、図3(a)の学習用画像は、前述のように図2(b)の撮影画像から切り出し領域205の部分を切り出した画像である。
第1検知部101では、以上説明したような2種類の学習用画像を用いた事前学習により構成される機械学習型検出器を用いることで、自車両から遠方の領域に存在する他車両を撮影画像上で認識し、これを他車両候補として抽出することができる。なお、実際の運用時には、他車両の種類や向き等に応じて撮影画像内に映り込む他車両の形態が様々に変化する。したがって、実用的な検知性能を得るためには、他車両が存在する場合と存在しない場合とで、学習用画像をそれぞれ複数枚、たとえば数千枚から数万枚ずつ用意することが好ましい。
ここで、図2(c)のようにカメラ20に魚眼レンズを用いた場合には、魚眼レンズは一般的なレンズと比較して、レンズ集光特性を変形させて撮像範囲を広げている。そのため、得られる撮影画像には歪みが生じ、画像の上下左右端に近い領域、すなわち自車両に対して遠方の領域に近づくほど、画像の解像度が低下する傾向がある。しかし、本実施形態の画像処理装置10では、第1検知部101において道路上に他車両が存在することを見分ければよく、他車両の形状までも見分ける必要はない。そのため、解像度が低い場合でも安定した検知結果を得ることが可能である。
ところで、第1検知部101において利用される機械学習とは、一般に、検知対象とする対象物の画像を複数枚入力して、そこから対象物を表現する画像特徴を抽出すると共に、未知の入力画像に対しては、学習した画像特徴を検出して識別できるように識別器のパラメータを自動設定する処理手法のことである。このような処理手法の具体例としては、たとえばDeep Learning(深層学習)が知られている。Deep learningでは、入力された複数画像が共通して持つ画像の特徴パラメータを細分して自動的に抽出することができる。また、特徴パラメータの抽出方法の一例としては、ニューラルネットワーク構造を用いた特徴抽出方法が知られている。ニューラルネットワーク構造では、入力画像群に共通な画像特徴に一致したときにのみ反応する、ニューロン・ユニットと呼ばれる入出力関数(活性化関数)が、小画像領域毎に多数組み合わされており、さらにこれが複数の層状に積み重ねられてピラミッド構造になっている。この方法によれば、検知対象とする対象物の位置や画像サイズを変えながら、段階的に対象物を識別できるようにニューロン・ユニットの各層毎に識別器パラメータを抽出して、最終的には、対象物全体を識別可能な識別器パラメータを得ることができる。
図4は、撮影画像における遠方領域と近傍領域の設定例を示す図である。第1検知部101は、図4に示すように、たとえば撮影画像上の所定の位置に境界線401を設定し、道路202上で境界線401から地平線201までの範囲を遠方領域R1、境界線401から画像下端までの範囲を近傍領域R2にそれぞれ設定する。そして、遠方領域R1を対象に上記の処理を行うことで、他車両候補を抽出し、その位置、形状、大きさ等の情報を、他車両候補の抽出結果を示す情報として検証部102へ出力する。
なお、撮影画像における遠方領域と近傍領域の範囲は、基本的にはそれぞれ任意に設定してよい。しかし現実的には、第2検知部104の最大検知距離、すなわち後述のような方法で第2検知部104が撮影画像から他車両を検知可能な自車両と他車両の距離の最大値に合わせて、これらの領域範囲を設定することが望ましい。具体的には、撮影画像上で第2検知部104の最大検知距離に対応する位置に境界線401を設定し、これより上側にある画像領域、すなわち第2検知部104が他車両を検知できない領域を遠方領域R1、下側の画像領域を近傍領域R2にそれぞれ設定すればよい。
検証部102は、第1検知部101で抽出された他車両候補について、これが実際に検知対象物としての他車両である可能性を検証する。検証部102は、カメラ20より所定時間ごとに入力された複数枚の撮影画像を用いて、第1検知部101で抽出された他車両候補が実際に他車両であるか否かを検証する。具体的には、検証部102は、複数の撮影画像から他車両候補の動きを示す動きベクトルを求め、この動きベクトルの特徴に基づいて他車両候補が他車両である可能性を検証する動きベクトル検証処理を行う。さらに、複数の撮影画像における他車両候補を含む画像領域の空間周波数分布を求め、この空間周波数分布の特徴に基づいて他車両候補が他車両である可能性を検証する空間周波数検証処理を行う。
図5は、検証部102における動きベクトル検証処理を説明する図である。動きベクトル検証処理では、第1検知部101により他車両候補が抽出され、その抽出結果を示す情報が第1検知部101から出力されると、検証部102は、それ以降にカメラ20から入力される複数枚の撮影画像において、第1検知部101からの情報に基づいて他車両候補を追跡することにより、他車両候補の動きベクトルを抽出する。たとえば図5(a)に示すように、時刻T1において遠方領域R1内で他車両候補501が検知されたとする。この場合、時刻T1における他車両候補501の位置を起点に、時刻T2、T3、T4でそれぞれ得られた撮影画像から他車両候補501を追跡することで、動きベクトル503を抽出することができる。
上記のようにして他車両候補の動きベクトルを抽出できたら、次に検証部102は、その動きベクトルの軌跡が現実的な車両の動きに相当するか否かを判断する。たとえば、図5(b)に示すように、実空間上ではほぼ等間隔に相当する間隔で直線状の軌跡を有する動きベクトル503が抽出された場合や、図5(c)に示すように、実空間上ではほぼ等間隔に相当する間隔で緩やかにカーブした軌跡の動きベクトル504が抽出された場合には、これらの動きベクトルが車両らしい動きを示しているとして、検知された他車両候補が実際に他車両である可能性が高いと判断できる。一方、図5(d)に示すように、実空間上ではほぼ等間隔に相当する間隔ではあるが方向が急激に変化する軌跡の動きベクトル505が抽出された場合や、図5(e)に示すように、方向はほぼ一定であるが間隔が急激に変化する軌跡の動きベクトル506が抽出された場合には、これらの動きベクトルが車両らしくない動きを示しているとして、検知された他車両候補が実際に他車両である可能性が低いと判断できる。検証部102が実行する動きベクトル検証処理では、これ以外にも様々な動きベクトルの軌跡について、現実的な車両の動きとの合致度合いから車両らしさを判断する。これにより、第1検知部101で抽出された他車両候補が実際に検知対象物の他車両であるか、それとも何か別の物体を誤って検知したものであるかを検証することができる。
なお、図5では、時刻T1から時刻T4までの4枚の撮影画像から他車両候補501の動きベクトルを抽出する例を説明したが、動きベクトルを抽出する際に参照する撮影画像の枚数はこれに限らず、任意の枚数とすることができる。
図6は、検証部102における空間周波数検証処理を説明する図である。空間周波数検証処理では、第1検知部101により他車両候補が抽出されると、検証部102は、それ以降にカメラ20から入力される複数枚の撮影画像のそれぞれについて、他車両候補を含む画像領域を特定する。このときには、前述の動きベクトル検証処理において求めた他車両候補の動きベクトルを利用することが好ましいが、動きベクトルを利用しない他の方法を用いてもよい。そして、各撮影画像で特定した画像領域の空間周波数を解析することで、その画像領域内に実際に車両が存在するか否かを判断する。なお、空間周波数とは、2次元画像における空間的な周期をもつ波長構造の性質を示す情報であり、たとえばフーリエ変換を用いて求めることができる。具体的には、図6に示すように、撮影画像内に特定された画像領域の各画素の値を水平方向の周波数成分と垂直方向の周波数成分に変換して数値化することにより、空間周波数を求めて可視化することが可能である。
ここで、図6では、水平方向の画素数が20、垂直方向の画素数が14の画像領域について求められた空間周波数画像の例を示している。すなわち、フーリエ変換を行うことで、元の画像領域と同じサイズの画像が空間周波数成分を示す画像として得られる。この空間周波数画像では、画像中心に近いほど水平および垂直の空間周波数が低く、画像中心から遠ざかるほど水平および垂直の空間周波数が高いことを表しており、各周波数成分の含有量が大きいほど白く、各周波数成分の含有量が小さいほど黒く表示される。なお、フーリエ変換の特性上、空間周波数画像では図6に示すように、画像中心に対して4つの象限に点対称の象限画像がそれぞれ得られる。しかし、これらの象限画像はほぼ同じ空間周波数成分結果を表現しているので、いずれか一つの象限画像、たとえば右上の第1象限にある象限画像のみに注目すればよい。
図6(a)は、たとえば図3(a)に例示した学習用画像のように、道路上にいる他車両が映り込んだ撮影画像について空間周波数成分を可視化した例である。画像内に他車両が存在する場合には、他車両の幾何学的な形状が画像内に一定範囲で存在するため、図6(a)に示すように、空間周波数は低い周波数から高い周波数まで広く分布する。したがって、他車両候補を含む画像領域の空間周波数の状況が図6(a)と同様の傾向を示す場合には、実際に他車両が存在する可能性が高いと判断できる。
図6(b)は、たとえば図3(b)に例示した学習用画像のように、他車両が映り込んでいない撮影画像について空間周波数成分を可視化した例である。画像内に他車両が存在しない場合には、道路のみの均一的な画像模様となるため、図6(b)に示すように、空間周波数はほとんど高周波数成分が存在せず、画像中心の低周波数成分付近のみに集中する分布となる。したがって、他車両候補を含む画像領域の空間周波数の状況が図6(b)と同様の傾向を示す場合には、実際に他車両が存在する可能性が低いと判断できる。
検証部102は、以上説明したような2種類の処理を実行することにより、それぞれ異なる時刻にカメラ20で撮影して得られた複数の撮影画像に基づいて、第1検知部101で抽出された他車両候補が他車両である可能性を検証することができる。そして、動きベクトル検証処理と空間周波数検証処理のそれぞれの検証結果に基づいて、他車両候補が他車両であることの確からしさに関する検証スコアを算出し、決定部103および設定変更部105に出力する。具体的には、検証部102は、動きベクトル検証処理による現実的な他車両の動きとの合致度合いに応じた検証スコアSC1と、空間周波数検証処理による他車両の存在可能性に応じた検証スコアSC2とを算出し、さらにこれらを足し合わせることで合計検証スコアTSCを算出して、決定部103および設定変更部105に出力する。
決定部103は、検証部102による検証結果に基づいて、第2検知部104が最新の撮影画像から他車両の検知を行うか否かを決定する。具体的には、決定部103は、検証部102により算出された合計検証スコアTSCの値と、予め設定されたしきい値THとを比較する。その結果、合計検証スコアTSCがしきい値THよりも大きく、かつ、最新の撮影画像における他車両候補の位置が第2検知部104の検知領域、すなわち前述の近傍領域R2内にある場合は、第2検知部104が実行する車両検知処理によって他車両候補が実際に他車両であるか否かを確定するために、第2検知部104に対する動作指示を行う。一方、これらの条件のいずれか少なくとも一方を満たさない場合は、他車両候補が実際に他車両であるか否かを確定する必要がないと判断して、第2検知部104に対する動作指示を行わない。
第2検知部104は、第1検知部101で他車両候補が抽出された後に取得された最新の撮影画像に基づいて、他車両候補が実際に他車両であるか否かを識別することにより、自車両の周囲に存在する他車両を検知する。第2検知部104は、最新の撮影画像に対して所定の車両検知処理を実行することにより、他車両候補が他車両であるか否かを識別する。具体的には、第2検知部104は、たとえば第1検知部101で説明したのと同様の機械学習型検出器を用いて、他車両候補が実際の車両としての特徴を有するか否かを判断することにより、他車両であるか否かを識別することができる。このとき、第1検知部101のように単に道路上に他車両が存在することを見分けるのではなく、他車両候補として抽出された画像部分の色や形状等の特徴に基づいて、実際の車両に該当するか否かを識別することが好ましい。最新の撮影画像から他車両を検知したら、第2検知部104は、他車両が接近していることを表す車両接近信号を出力する。また、たとえば撮影画像が全体的に暗いなど、他車両を検知するのが困難な状況のときには、検知FAIL信号を出力する。
設定変更部105は、検証部102により算出された合計検証スコアTSCの値に基づいて、第2検知部104が最新の撮影画像から他車両の検知を行う際の感度設定値を動的に変更する。具体的には、合計検証スコアTSCの値が高くなるほど、第2検知部104が他車両を検知しやすくなるように、第2検知部104が実行する車両検知処理における感度設定値CCを変化させる。
図7は、合計検証スコアTSCと感度設定値CCとの関係を示す特性曲線の例を示す図である。図7において特性曲線700に示すように、合計検証スコアTSCの値が低い場合には、他車両候補が実際に他車両である確度が低い状態と考えられるため、第2検知部104における感度設定値CCを低く設定して、第2検知部104の誤検知を防止する。一方、これとは逆に、合計検証スコアTSCの値が高い場合には、他車両候補が実際に他車両である確度が高い状態と考えられるため、第2検知部104における感度設定値CCを高く設定して、第2検知部104の検知漏れを防止する。なお、図7の特性曲線700の例では、合計検証スコアTSCが所定の値TSCnの場合に、感度設定値CCをCCmに設定することを示している。設定変更部105による感度設定値の変更は、画像処理装置10が他車両の検知を行っている間に、動的に実行することが好ましい。
図8は、本発明の第1の実施形態に係る画像処理装置10の処理フローを示す図である。ステップ800では、自車両のイグニッションがONになったか否かを判定し、イグニッションがONでない場合は、ONになるまで待機状態を維持する。イグニッションがONの場合は、処理をステップ801に進める。
ステップ801では、画像処理装置10の初期化が既に実行されたか否かを判定する。初期化済みであれば処理をステップ804に進め、初期化済みでなければ処理をステップ802に進める。ステップ802では、所定の初期化処理を実行し、次のステップ803では、カメラ20の撮影画像上に、図4に例示した遠方領域R1および近傍領域R2を設定する。
続いてステップ804では、カメラ20により取得された撮影画像を第1検知部101に入力し、ステップ805では、第1検知部101により、ステップ804で入力された撮影画像から遠方領域R1内にいる他車両候補を検知して抽出する。ステップ806では、ステップ805で他車両候補が抽出されたか否かを判定する。他車両候補が抽出された場合は処理をステップ807へ進め、抽出されていない場合は処理をステップ804に戻して次の撮影画像を入力する。
ステップ807では、検証部102により動きベクトル検証処理を行い、処理結果に応じた検証スコアSC1を算出する。ステップ808では、ステップ807で算出した動きベクトルを用いて、ステップ805で抽出した他車両候補の位置を算出および追跡する。ステップ809では、検証部102により空間周波数検証処理を行い、処理結果に応じた検証スコアSC2を算出する。ステップ810では、ステップ807で算出した検証スコアSC1の値と、ステップ809で算出した検証スコアSC2の値とを合計し、合計検証スコアTSCを算出する。
ステップ811では、決定部103により、ステップ808で求めた他車両候補の位置と、ステップ810で求めた合計検証スコアTSCの値とに基づいて、ステップ805で抽出した他車両候補が最新の撮影画像では近傍領域R2内に存在するか否かを判定する。ここでは、合計検証スコアTSCの値を予め設定されたしきい値THと比較して、合計検証スコアTSCがしきい値THよりも大きく、かつ、他車両候補の位置が近傍領域R2内である場合に、他車両候補が近傍領域R2内に存在すると判断し、処理をステップ812に進める。一方、これらの条件の一方または両方を満たさない場合には、他車両候補が近傍領域R2内には存在しないと判断し、処理をステップ804に戻して次の撮影画像を入力する。
ステップ812では、第2検知部104により、ステップ804で入力された撮影画像に基づいて、ステップ805で抽出した他車両候補が実際の他車両であるか否かを識別することにより、他車両を検知する。ステップ813では、ステップ812で他車両が検知されたか否かを判定する。他車両が検知された場合は処理をステップ814へ進め、抽出されていない場合は処理をステップ804に戻して次の撮影画像を入力する。
ステップ813が肯定判定されることで他車両の存在が確定した場合、ステップ814では、ユーザに対して警報を行うための所定の警報処理を行う。ここでは、たとえば自車両と他車両との距離を算出し、その距離に基づいて、他車両が自車両に接近している旨を自車両の運転者であるユーザに報知する。ステップ815では、所定の動作終了条件に基づいて画像処理装置10の動作を終了するか否かを判定する。その結果、動作継続と判定した場合は処理をステップ804に戻し、動作終了と判定した場合は図8に示す処理フローを終了する。
以上説明した本発明の第1の実施形態によれば、以下の作用効果を奏する。
(1)画像処理装置10は、第1検知部101と、第2検知部104とを備える。第1検知部101は、第1の時刻にカメラで撮影して得られた第1の撮影画像から、カメラ20に対して第1の距離だけ離れた地点に相当する遠方領域R1内に存在する対象物すなわち他車両の候補を抽出する(ステップ805)。第2検知部104は、第1の時刻よりも後の第2の時刻にカメラ20で撮影して得られた第2の撮影画像から、カメラ20に対して第1の距離よりも近い第2の距離だけ離れた地点に相当する近傍領域R2内に存在する対象物すなわち他車両を検知する(ステップ812)。このとき、第2検知部104は、第2の撮影画像に基づいて、第1検知部101により抽出された他車両の候補が他車両であるか否かを識別することにより、対象物としての他車両を検知する。このようにしたので、自車両の遠方から近傍に接近してくる他車両を撮影画像において正確に検知できる。
(2)画像処理装置10は、検証部102と、決定部103とをさらに備える。検証部102は、それぞれ異なる時刻にカメラ20で撮影して得られた複数の撮影画像に基づいて、対象物である他車両の候補が他車両である可能性を検証する(ステップ807、809、810)。決定部103は、検証部102による検証結果に基づいて、第2検知部104が他車両の検知を行うか否かを決定する(ステップ811)。このようにしたので、第2検知部104による他車両の検知を適切なタイミングで実行できるため、正確な検知結果を得ることができる。
(3)検証部102は、ステップ807、809において、他車両の候補が他車両であることの確からしさに関する検証スコアSC1、SC2をそれぞれ算出する。決定部103は、ステップ811において、検証部102により算出された検証スコアSC1、SC2を合計した合計検証スコアTSCに基づいて、第2検知部104が他車両の検知を行うか否かを決定する。このようにしたので、決定部103において、検証部102による検証結果を正確に反映した決定を行うことができる。
(4)検証部102は、ステップ807、809において、複数の撮影画像における他車両の候補の動きを示す動きベクトルと、複数の撮影画像における他車両の候補を含む画像領域の空間周波数とに基づいて、検証スコアSC1、SC2をそれぞれ算出する。このようにしたので、他車両の候補が他車両であることの確からしさを正確に反映した検証スコアSC1、SC2を得ることができる。
(5)画像処理装置10は、合計検証スコアTSCに基づいて第2検知部104が他車両を検知する際の感度設定値を動的に変更する設定変更部105をさらに備える。このようにしたので、状況に応じて第2検知部104の誤検知や検知漏れを適切に防止することができる。
−第2の実施形態−
図9は、本発明の第2の実施形態に係る外界認識装置の一例を示す図である。図9に示すように、本実施形態の外界認識装置900は、第1の実施形態で説明した画像処理装置10と、周辺認識部901、信号処理部902およびドライバー通知部903とを備える。外界認識装置900は、画像処理装置10と同様に自車両に搭載されたカメラ20に接続されると共に、自車両に搭載された制御部911、メモリ912、自車両制御部913、LED914、スピーカ915、ディスプレイ916およびカーナビゲーション装置917にも接続されている。なお、画像処理装置10と他の各機器とは、自車両内の信号バスを介して互いに接続されている。
カメラ20は、自車両周辺の撮影画像を取得し、外界認識装置900内の画像処理装置10に出力する。メモリ912は、カメラ20が取得した撮像画像を一時的に保持する。制御部911は、カメラ20と外界認識装置900の間における撮影画像の入出力や、外界認識装置900と自車両制御部913の間における車両制御信号の入出力を制御する。
画像処理装置10は、第1の実施形態で説明したように、自車両の周囲に存在する他車両を検知し、その検知結果に基づく車両接近信号を周辺認識部901に出力する。また、他車両を検知するのが困難な状況のときには、検知FAIL信号を周辺認識部901に出力する。
周辺認識部901は、画像処理装置10から車両接近信号が出力されると、これに基づいて、自車両の周囲環境を認識するための周辺認識処理を実行する。たとえば、カメラ20の撮影画像を用いて自車両の近傍および遠方の周辺空間を解析し、バイクや自転車を含む他車両および歩行者の有無を認識したり、自車両の走行や駐車の妨げになる障害物体の有無を認識したりする。また、他車両や歩行者が自車両に急接近している場合にはこれを検知して自車両との衝突を予測したり、自車両と障害物との衝突を予測したりする。さらに、自車両が走行中に車線逸脱した場合に警報を出す車線逸脱警報処理や、自車両のドライバーの死角に人や他車両が入り込んでいた場合に警報を出す死角警報処理などを、周辺認識処理に含めてもよい。周辺認識部901は、周辺認識処理の実行結果に基づく検知結果や警報情報を信号処理部902に出力すると共に、自車両のドライバーに対する通知情報を必要に応じてドライバー通知部903に出力する。
信号処理部902は、周辺認識部901から出力された検知結果および警報情報に基づいて、自車両の動作を制御するための車両制御信号を生成し、自車両制御部913に送信する。自車両制御部913は、信号処理部902から受信した車両制御信号に基づいて自車両の動作を制御することで、他車両や歩行者との衝突を回避するために自車両を停止させたり、障害物との衝突を回避するために自車両の進行方向を変化させたりする。
ドライバー通知部903は、周辺認識部901から出力された通知情報に基づいて、自車両のドライバーに対する警告を行うための警報信号を生成し、LED914、スピーカ915、ディスプレイ916、カーナビゲーション装置917のいずれかに送信する。LED914、スピーカ915、ディスプレイ916、カーナビゲーション装置917の各機器は、ドライバー通知部903から受信した警報信号を受信すると、これに基づいて所定の表示や音声出力を行うことで、自車両のドライバーに対して、自車両に接近している他車両や歩行者、障害物等の存在を警告する。
なお、画像処理装置10から検知FAIL信号が出力されているときには、画像処理装置10において他車両を検知するのが困難であると判断されるため、周辺認識部901は画像処理装置10の動作を一時的または連続して停止させることが好ましい。周辺認識部901は、画像処理装置10に対してON/OFF制御信号を出力することで、画像処理装置10の動作を開始または停止させることができる。さらにこのとき、周辺認識部901からドライバー通知部903へ通知情報を出力し、これに基づいてドライバー通知部903が警報信号を生成してLED914、スピーカ915、ディスプレイ916、カーナビゲーション装置917のいずれかに送信することで、画像処理装置10の動作が停止していることを自車両のドライバーに通知してもよい。
以上説明した本発明の第2の実施形態によれば、外界認識装置900は、画像処理装置10を備える。また、周辺認識部901、信号処理部902およびドライバー通知部903により、画像処理装置10内の第2検知部104による他車両の検知結果に基づいて、自車両の運転者に対する警告を行うための警報信号および自車両の動作を制御するための車両制御信号のいずれか少なくとも一つを出力する。このようにしたので、自車両の周囲環境を正確に認識することができる。
なお、以上説明した各実施の形態では、撮影画像から検知する対象物を自車両周囲に存在する他車両としたが、対象物はこれに限定されず、他の物体を対象物としてもよい。また、車両に搭載されたカメラ20で取得した撮影画像を用いて対象物を検知する例を説明したが、撮影画像を取得するカメラは車両に搭載されたものに限らない。たとえば、街頭監視等に用いられるカメラなど、車載以外の様々な用途のカメラで取得された撮影画像を用いて、対象物を検知することができる。
以上説明した実施形態や各種の変化例はあくまで一例であり、発明の特徴が損なわれない限り、本発明はこれらの内容に限定されない。本発明は、上述した実施形態や変形例に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。
10 画像処理装置
20 カメラ
101 第1検知部
102 検証部
103 決定部
104 第2検知部
105 設定変更部
900 外界認識装置
901 周辺認識部
902 信号処理部
903 ドライバー通知部

Claims (5)

  1. 第1の時刻に自車両に取り付けられたカメラで撮影して得られた第1の撮影画像から、前記カメラに対して第1の距離だけ離れた地点に存在する他車両の候補を抽出する第1検知部と、
    それぞれ異なる時刻に前記カメラで撮影して得られた複数の撮影画像に基づいて、前記他車両の候補が前記他車両である可能性を検証する検証部と、
    前記第1の時刻よりも後の第2の時刻に前記カメラで撮影して得られた第2の撮影画像から、前記カメラに対して前記第1の距離よりも近い第2の距離だけ離れた地点に存在する前記他車両を検知する第2検知部と、
    前記検証部による検証結果に基づいて、前記第2検知部が前記他車両の検知を行うか否かを決定する決定部と、
    を備え、
    前記検証部は、前記複数の撮影画像における前記他車両の候補の動きを示す動きベクトルによる検証スコアと、前記複数の撮影画像における前記他車両の候補を含む画像領域の空間周波数による検証スコアとを合計した合計検証スコアを算出し、
    前記決定部は、前記検証部により算出された前記合計検証スコアに基づいて、前記第2検知部が前記他車両の検知を行うか否かを決定し、
    前記第2検知部は、前記第2の撮影画像に基づいて、前記第1検知部により抽出された前記他車両の候補が前記他車両であるか否かを識別することにより、前記他車両を検知する画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記検証部は、前記第1検知部により前記他車両の候補が抽出された場合に、該他車両の候補を含む複数の撮影画像にわたって前記他車両の候補を追跡して前記動きベクトルを抽出し、抽出した動きベクトルの軌跡と現実的な車両の動きとの合致度合いから前記動きベクトルによる検証スコアを求める
    画像処理装置。
  3. 請求項1に記載の画像処理装置において、
    前記検証部は、前記他車両の候補を含む画像領域の空間周波数における高周波成分の分布から前記空間周波数による検証スコアを求める
    画像処理装置。
  4. 請求項1から請求項3までのいずれか一項に記載の画像処理装置において、
    前記合計検証スコアに基づいて前記第2検知部が前記他車両を検知する際の感度設定値を動的に変更する設定変更部をさらに備える画像処理装置。
  5. 請求項1から請求項3までのいずれか一項に記載の画像処理装置を備え、
    前記第2検知部による前記他車両の検知結果に基づいて、前記自車両の運転者に対する警告を行うための警報信号および前記自車両の動作を制御するための車両制御信号のいずれか少なくとも一つを出力する外界認識装置。
JP2016108686A 2016-05-31 2016-05-31 画像処理装置、外界認識装置 Active JP6713349B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016108686A JP6713349B2 (ja) 2016-05-31 2016-05-31 画像処理装置、外界認識装置
PCT/JP2017/012756 WO2017208601A1 (ja) 2016-05-31 2017-03-28 画像処理装置、外界認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016108686A JP6713349B2 (ja) 2016-05-31 2016-05-31 画像処理装置、外界認識装置

Publications (2)

Publication Number Publication Date
JP2017215743A JP2017215743A (ja) 2017-12-07
JP6713349B2 true JP6713349B2 (ja) 2020-06-24

Family

ID=60478102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016108686A Active JP6713349B2 (ja) 2016-05-31 2016-05-31 画像処理装置、外界認識装置

Country Status (2)

Country Link
JP (1) JP6713349B2 (ja)
WO (1) WO2017208601A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6671603B1 (ja) * 2019-03-01 2020-03-25 KB−eye株式会社 管理サーバ、交通制御システム、交通制御方法および交通制御プログラム
JP7299041B2 (ja) * 2019-03-13 2023-06-27 株式会社明電舎 架線金具検出装置および架線金具検出方法
JP6997471B2 (ja) * 2020-03-09 2022-01-17 ニューラルポケット株式会社 情報処理システム、情報処理装置、端末装置、サーバ装置、プログラム、又は方法
JP7384083B2 (ja) * 2020-03-19 2023-11-21 株式会社明電舎 トロリ線検測装置及びトロリ線検測方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005318546A (ja) * 2004-03-29 2005-11-10 Fuji Photo Film Co Ltd 画像認識システム、画像認識方法、及び画像認識プログラム
JP4692344B2 (ja) * 2006-03-17 2011-06-01 トヨタ自動車株式会社 画像認識装置
JP2009230229A (ja) * 2008-03-19 2009-10-08 Toyota Motor Corp 物体検出装置
JP2012256159A (ja) * 2011-06-08 2012-12-27 Alpine Electronics Inc 接近物検知装置および接近物検知方法
JP5690688B2 (ja) * 2011-09-15 2015-03-25 クラリオン株式会社 外界認識方法,装置,および車両システム

Also Published As

Publication number Publication date
WO2017208601A1 (ja) 2017-12-07
JP2017215743A (ja) 2017-12-07

Similar Documents

Publication Publication Date Title
JP6611353B2 (ja) 画像処理装置、外界認識装置
CN109074651B (zh) 移动体的周围环境识别装置
US11453335B2 (en) Intelligent ultrasonic system and rear collision warning apparatus for vehicle
JP6888950B2 (ja) 画像処理装置、外界認識装置
EP3258214B1 (en) Object detection device
KR102178433B1 (ko) 긴급 제동 시스템 및 그의 보행자 인식 방법
KR101912453B1 (ko) 장애물 검출 및 충돌 경보 장치 및 방법
EP2463843A2 (en) Method and system for forward collision warning
JP6713349B2 (ja) 画像処理装置、外界認識装置
JP5178276B2 (ja) 画像認識装置
KR20160137247A (ko) 횡단보도 인식 결과를 이용한 안내 정보 제공 장치 및 방법
KR102044193B1 (ko) 기계학습기법에 의한 자동차 충돌 경보 시스템 및 방법
CN108162858B (zh) 车载监控装置及其方法
KR20110067359A (ko) 차량 충돌 방지 장치 및 방법
JP5894201B2 (ja) 境界線認識装置
JP6717240B2 (ja) 物標検出装置
US8160300B2 (en) Pedestrian detecting apparatus
JP4807444B2 (ja) 制御対象物抽出装置および車両制御装置
EP3392730B1 (en) Device for enabling a vehicle to automatically resume moving
US11667295B2 (en) Apparatus and method for recognizing object
JP2018163530A (ja) 対象物検知装置、対象物検知方法、及び対象物検知プログラム
JP2005284797A (ja) 走行安全装置
KR20210081887A (ko) 차량 측후방에 대한 촬영 영상을 이용한 위험 감지 출력 장치 및 출력 방법
JP2008257399A (ja) 画像処理装置
WO2016050377A1 (en) Perspective transform of mono-vision image

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170315

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170921

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200603

R150 Certificate of patent or registration of utility model

Ref document number: 6713349

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150