JP2015057690A - 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム - Google Patents

画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム Download PDF

Info

Publication number
JP2015057690A
JP2015057690A JP2014120743A JP2014120743A JP2015057690A JP 2015057690 A JP2015057690 A JP 2015057690A JP 2014120743 A JP2014120743 A JP 2014120743A JP 2014120743 A JP2014120743 A JP 2014120743A JP 2015057690 A JP2015057690 A JP 2015057690A
Authority
JP
Japan
Prior art keywords
image
feature amount
unit
recognition
storage unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014120743A
Other languages
English (en)
Other versions
JP6398347B2 (ja
Inventor
智子 石垣
Tomoko Ishigaki
智子 石垣
横田 聡一郎
Soichiro Yokota
聡一郎 横田
雪 李
Yuki Ri
雪 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014120743A priority Critical patent/JP6398347B2/ja
Priority to US14/451,860 priority patent/US20150049195A1/en
Priority to EP14180114.2A priority patent/EP2838050A3/en
Publication of JP2015057690A publication Critical patent/JP2015057690A/ja
Application granted granted Critical
Publication of JP6398347B2 publication Critical patent/JP6398347B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

【課題】マッチングの処理の手間を削減することで、処理時間を短縮して、撮像画像から認識対象物を迅速に検出することが可能な画像処理装置等を提供する。
【解決手段】自動車等の移動体としての自車両400に搭載される画像処理装置1を、自車両進行方向前方領域(撮像領域)の撮像画像を撮像する撮像ユニット100で撮像した撮像画像を解析して、撮像領域内に存在する歩行者等の認識対象物を検知するステレオ画像処理部200を備えて構成する。ステレオ画像処理部200は、水平視差図に基づいて、認識対象物を検出し、当該認識対象物に対応する認識対象物領域輝度画像と、動的辞書258のパターン画像とを照合し、認識対象物であるか否か判定する。動的辞書258で一致しなかった場合には、静的辞書259のパターン画像と照合し、認識対象物であるか否か判定する。
【選択図】図1

Description

本発明は、撮像画像中の撮像領域内に存在する認識対象物を検出する画像処理装置、この画像処理装置を用いた認識対象物検出方法、認識対象物検出プログラム、および、この画像処理装置を備えた移動体制御システムに関する。
従来、車載カメラで撮影した自車両周辺の画像から車両や歩行者等といった障害物(認識対象物)を検出して、車両の運転や走行に用いる情報を得て、操舵回避や自動ブレーキを行う事故防止システム等の技術が既に知られている。このような事故防止システムでは、歩行者等の障害物を精度よくかつ迅速に検出することで、車両と障害物との衝突の危険性を下げることができる。このような障害物の認識方法の1つとして、車載カメラで取得した画像と大量のパターン画像を照合して、認識対象物を認識するという技術が既に知られている(例えば、特許文献1参照)。この特許文献1に記載の従来技術では、測距システムを用いて距離を算出し、その算出結果により、同一距離となった点の集まりを、衝突しそうな障害物として認定し、この障害物の画像と、予め用意したパターン画像(テンプレート)とを照合するといった、マッチング処理を行って、歩行者か否かを判断している。
しかしながら、特許文献1に記載の従来技術では、大量のパターン画像と照合を行うため、マッチング処理が重くなり、歩行者等の認識対象物の検出までに時間がかかるという問題があった。
本発明は、上記の事情に鑑みて為されたもので、マッチングの処理の手間を削減することで、処理時間を短縮して、撮像画像から認識対象物を迅速に検出することが可能な画像処理装置、この画像処理装置を用いた認識対象物検出方法、認識対象物検出プログラム、および、この画像処理装置を備えた移動体制御システムを提供することを目的とする。
上記の目的を達成するため、本願に係る画像処理装置は、撮像部からフレーム単位で入力される撮像画像について、該撮像画像中の認識対象物の候補が第1の特徴量記憶部に記憶された特徴量に相当したときに認識対象物の候補を認識対象物として検出する画像処理部を備える画像処理装置であって、画像処理部は、認識対象物の候補が第1の特徴量記憶部に記憶された所定の特徴量に相当したときに所定の特徴量が記憶される第2の特徴量記憶部を有し、第2の特徴量記憶部へ所定の特徴量が記憶されたフレーム以降のフレームにおいて、該以降のフレームの撮像画像から第2の特徴量記憶部に基づいて認識対象物の検出を行い、前記認識対象物が検出されなかったときには第1の特徴量記憶部に基づいて認識対象物の検出を行う対象物検出部を有することを特徴とする。
本発明によれば、マッチングの処理の手間を削減することで、処理時間を短縮して、撮像画像から認識対象物を迅速に検出することが可能な画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システムを提供することができる。
本願の実施例1に係る画像処理装置を備えた移動体制御システムを搭載した自車両を示す概略図である。 図1に示す画像処理装置を備えた移動体制御システムのハードウェア構成を示すブロック図である。 図2に示す画像処理装置におけるステレオ画像処理部の機能を説明するための機能ブロック図である。 図3に示すステレオ画像処理部の立体物検出部の機能の詳細を示す機能ブロック図である。 図4に示す立体物検出部のパターンマッチング部の機能の詳細を示す機能ブロック図である。 ステレオカメラの左右の2つのカメラで撮影したときの視差を説明するための説明図である。 補正画像データa’とその垂直視差画像を示す概略図であり、(a)は、自車両に搭載された撮像部で自車両進行方向の前方領域(撮像領域)を撮像したときの補正画像データa’を示し、(b)は補正画像データa’に対応する垂直視差図を直線近似処理した図を示す。 補正画像データa’とその水平視差画像を示す概略図であり、上図は自車両に搭載された撮像部で自車両進行方向の前方領域(撮像領域)を撮像したときの補正画像データa’を示し、下図は補正画像データa’に対応する水平視差図を示す。 実施例1の画像処理装置で実施される画像処理の流れを示すフローチャートである。 実施例1のパターンマッチング部で実施されるパターンマッチング処理の流れを示すフローチャートである。 本願の実施例2に係る画像処理装置の立体物検出部の機能の詳細を示す機能ブロック図である。 図11の追尾部の機能を説明するための機能ブロック図である。 実施例2の追尾部で実施される追尾処理の流れを示すフローチャートである。 実施例2のパターンマッチング部で行われるパターンマッチング処理の流れを示すフローチャートである。 同一物体判定部での処理の一例を説明するための説明図である。
(実施例1)
以下、本願に係る画像処理装置を備えた移動体制御システムを自車両に搭載した一実施例について、図面を参照しながら説明する。なお、本願に係る移動体制御システムは、自車両等の車両に限らず、例えば、船舶、航空機あるいは産業用ロボットなどの移動体(移動装置)に適用することができる。さらに、移動体に限らず、高度道路交通システム(ITS)等、広く物体認識を利用する機器に適用することができる。また、撮像画像に基づいて撮像領域内に存在する検出対象物の検出処理を行う画像解析装置に適用することもできる。図1は、実施例1における画像処理装置1を備える移動体制御システム500を搭載した自車両400の外観を示す概略図である。
この図1に示すように、実施例1の移動体制御システム500は、撮像部としての撮像ユニット100と、認識対象物検出手段としての画像処理装置1と、移動体制御手段としての車両制御ユニット300と、を備えて構成される。撮像ユニット100は、自動車等の移動体としての自車両400に搭載され、その周囲、本実施例では、自車両進行方向の前方領域(撮像領域)の映像を撮像する。撮像ユニット100で撮像された映像は、フレーム(コマ)ごとに、静止画像(撮像画像)として画像処理装置1に出力される。画像処理装置1は、撮像ユニット100から出力される各フレームの撮像画像を解析して、撮像領域内に存在する歩行者等の認識対象物を検知し検知結果を出力する画像処理部としてのステレオ画像処理部200を備えている。車両制御ユニット300は、画像処理装置1での検知結果に基づいて、自車両400の移動を制御する。
図2は、実施例1における画像処理装置1を備えた移動体制御システム500の主要部を示すハードウェア構成図である。この図2に示すように、撮像ユニット100は、撮像部としての2つのカメラ101A,101B(カメラa,b)を備えたステレオカメラと、各カメラ101A,101Bで撮像された撮像画像データに対して補正処理を行う画像補正部110と、を備えて構成されている。ステレオカメラの2つのカメラ101A,101Bの構成は同一のものである。撮像ユニット100は、例えば、図1に示すように、自車両400のフロントガラス410のルームミラー(図示せず)付近に設置され、走行する自車両400の進行方向の前方領域を撮像領域とする。
カメラ101A,101Bは、図示はしないが、主に、撮像レンズ等の光学系と、受光素子が2次元配置された画素アレイで構成された画像センサと、画像センサから出力されるアナログ電気信号(画像センサ上の各受光素子が受光した受光量)をデジタル電気信号に変換した撮像画像データを生成して出力する信号処理部とから構成されている。なお、本実施例では、カメラ101A,101Bの光学系の光軸は水平方向(横方向又は左右方向)に平行であるとし、水平方向の光軸に対して画素のラインは左右の画像について縦方向にずれていないものとする。ただし、本願がこれに限定されることはなく、カメラ101A,101Bの光学系の光軸は縦方向に平行であってもよい。
画像補正部110は、各カメラ101A,101Bから出力される撮像画像データ(以下、「画像データa」、「画像データb」と呼ぶ)を、理想ピンホールモデルで得られる画像に変換するために、各種補正処理を行う。以下、この補正処理が行われた画像を、「補正画像データa’」、「補正画像データb’」と呼ぶ。また、画像補正部110は、図2に示すように、カメラ101A,101Bごとに、FPGA(Field-Programmable Gate Array)111A,111Bおよびメモリ(記憶部)112A,112Bが設けられている。FPGA111A,111Bは、入力されるカメラ101A,101Bからの画像データa,bに対して、倍率補正、画像中心補正、歪補正等の補正処理を実行する。メモリ112A,112Bには、その補正処理に用いる補正パラメータ等が格納されている。FPGA111A,111Bから出力される補正処理後の撮像画像データ(補正画像データa’,b’)は、ステレオ画像処理部200に送られる。なお、FPGA111A,111Bに代えて、例えば、ASIC(Application Specific Integrated Circuit)等を採用してもよい。
図2のハードウェア構成図に示すように、画像処理装置1のステレオ画像処理部200は、FPGA201、メモリ(記憶部)202およびCPU(Central Processing Unit)203を備えている。FPGA201は、メモリ202に記憶された補正画像データa’,b’に対して視差画像データや輝度画像データ等の画像データ、認識処理結果像を出力するための画像処理を行う。メモリ202は、撮像ユニット100から出力される補正画像データa’,b’( 輝度画像データ)、視差画像データ等の画像データ、認識処理結果等を記憶するとともに、画像処理装置1で実行される認識対象物検出プログラム等を記憶する。CPU203は、メモリ202に記憶されたコンピュータで読み取り可能な認識対象物検出プログラムに従って、各種演算処理を行うとともに、画像処理装置1のステレオ画像処理部200の各部を駆動制御する。また、FPGA201、メモリ202も、CPU203によって制御される。
ステレオ画像処理部200は、撮像ユニット100から入力される補正画像データa’,b’に対して画像処理を実行する。具体的には、2つの補正画像データa’,b’から得られる視差画像データや、2つの補正画像データa’,b’のうちの一方(基準画像)の輝度画像データなどを生成する処理や、パターンマッチングによる歩行者、車両等の認識対象物の検出処理などを行う。本実施例のステレオ画像処理部200は、視差画像データや輝度画像データ等の画像データと、歩行者、車両等の検知結果(パターンマッチング結果)とを出力する。しかしながら、本願がこの実施例に限定されることはなく、例えば、検出結果等が入力される車両制御ユニット300、その他の部における処理で、このような画像データが使用されない場合には、画像データは出力せずに検出結果のみ出力してもよい。また、本実施例では、補正画像データa’を基準画像とし、補正画像データb’を比較画像とする。
図3は、ステレオ画像処理部200の機能の詳細を示す機能ブロック図である。この図3に示すように、ステレオ画像処理部200は、主に、視差演算部210と、垂直視差図作成部(垂直視差データ作成部)220と、路面位置検出部(移動面位置検出部)230と、水平視差図作成部(水平視差データ作成部)240と、立体物検出部(対象物検出部)250と、を備えて構成されている。
視差演算部210は、画像補正部110から出力される補正画像データa’,b’から視差画像データを生成する。この視差画像データを得るために、視差演算部210は、当該2つの補正画像間の対応画像部分の視差値を演算する。まず、補正画像データa’,b’の一方を基準画像データ(本実施例では補正画像データa’)とし、他方を比較画像データ(本実施例では補正画像データb’)とする。ここでいう視差値とは、撮像領域内の同一地点に対応した基準画像データ(補正画像データa’)上の画像部分に対する比較画像データ(補正画像データb’)上の画像部分の位置ズレ量を、当該画像部分の視差値として算出したものである。三角測量の原理を利用することで、この視差値から当該画像部分に対応した撮像領域内の当該同一地点までの距離を算出することができる。
三角測量の原理を用いた距離の算出手順を、図6を用いて詳細に説明する。図6は、被写体(以下、「オブジェクト」と呼ぶ)OJと、ステレオカメラ(カメラ101A,101B)による撮像との関係を示す模式図である。図6中、符号102A,102Bは、カメラ101A,101Bの撮影レンズ系の撮像面を示す。103A,103Bは、カメラ101A,101Bの画像センサの撮像面を示す。また、符号OJ’は画像センサの撮像面103A,103Bに結像されたオブジェクトOJの像を示す。この図6に示すように、オブジェクトOJの撮像対象点Oは、カメラ101A,101Bの撮影レンズ系の撮像面102A、102Bにより、CMOS等の画像センサの撮像面103A,103Bに結像される。
この撮影レンズ系の撮像面102A,102Bの焦点距離をfとし、撮影レンズ系の撮像面102A,102Bの光軸間距離(基線長)をDとし、カメラ101A,101BからオブジェクトOJまでの距離をZとし、結像中心からのずれ量をそれぞれΔ1、Δ2とする。視差(視差値)dは、下記式(1)を用いて算出することができる。なお、ずれ量Δ1、Δ2は、画像センサの撮像面103A,103B上における撮像対象点Oの結像位置によって求まる。
d=Δ1+Δ2 (1)
また、オブジェクトOJまでの距離Zは、下記式(2)を用いて算出することができる。
Z=D×(f/d) (2)
視差演算部210は、上記式(1)を用いて画素毎に視差を算出する。なお、視差演算部210において、上記式(2)を用いてオブジェクトOJの撮像対象点Oまでの距離まで算出してもよい。
視差演算部210により算出される視差画像データは、基準画像データ(補正画像データa’)上の各画像部分について算出される視差値に応じた画素値を、それぞれの画像部分の画素値として表した視差画像を示すものである。視差演算部210が出力した視差画像データは、垂直視差図作成部220、水平視差図作成部240および立体物検出部250に送られる。また、視差演算部210が出力したオブジェクトOJの距離は、視差画像データとともに立体物検出部250に送られる。
垂直視差図作成部220は、視差演算部210から出力される視差画像データを用いて、横軸に視差値をとり、縦軸に画像垂直座標(画像上端を0とする。)をとった垂直視差図のデータを作成する。垂直視差図は、この画像垂直座標(縦軸)と視差値(横軸)とで定義される直交座標系において、視差画像の各画素値(視差値)を分布させたものである。この垂直視差図のデータは、路面位置検出部230に送られる。
図7(a)に基準画像データ(補正画像データa’)の一例を、図7(b)に垂直視差図の一例を示す。図7(a)に示す符号10は、自車両400に搭載された撮像ユニット100で自車両進行方向の前方領域(撮像領域)を撮像したときの基準画像データ(ここでは、補正後の補正画像データa’)の一例を示す。図7(b)に示す符号20は、この基準画像データに対応する垂直視差図のデータを直線近似処理した垂直視差図を示す。垂直視差図20の横軸xは視差値(Disparity)であり、縦軸yは画像垂直座標(Vertical Axis)である。
路面位置検出部230は、垂直視差図作成部220が作成した垂直視差図のデータに基づいて、視差画像データ中の認識対象物の移動面である路面領域(路面RSを映し出す領域)を検出する処理を行う。詳しく説明すると、カメラ101A,101Bでは、自車両前方領域を撮像するため、撮像画像上の路面領域は、図7(a)に示すように、画像下部において路面領域の占有率が高い。また、視差画像データ上においては、画像上方へ向かうほど路面領域の視差値が略一定の割合で小さくなり、かつ、同じ画像垂直座標内(画像中の同じ横方向ライン上)において路面領域を構成する画素はほぼ同じ視差値を持つことになる。したがって、主に視差画像データ中の画像下部において路面領域を構成する画素は、垂直視差図上では、右下がりの直線状に分布するという特徴がある。路面位置検出部230は、この特徴に合致する画素を検出するため、垂直視差図上に分布した画素の中で右下がりの直線近傍に分布する画素(図7(b)に示す右下がりの直線に近似される画素)を、撮像領域内における路面RSを映し出す画素(路面領域を構成する画素)であると検出する。また、図7(b)には、他車両A,B,Cに対応する画素も示している。他車両等の物体(以下、「立体物」ということがある)は、所定の高さを有しているが、垂直方向での視差値がほとんど変わらないため、ほぼ垂直な直線で表される。
路面位置検出部230は、さらに、上記で検出した路面RSの路面高さhを出力する。この路面高さhは、ステレオカメラからの距離(x座標)に対する路面の高さ(y座標)である。具体的には、図7(b)の垂直視差図20に示すように、ステレオカメラからの距離x10(具体的には、例えば、距離10m)における路面高さhは、h10となる。また、距離がx20(具体的には、例えば、距離20m)における路面高さhは、h20となる。
水平視差図作成部240では、視差演算部210から出力される視差画像データを用いて、横軸に画像水平座標(画像左端を「0(原点)」とする。)をとり、縦軸に視差値をとった垂直視差図のデータを作成する。この水平視差図のデータを作成するとき、水平視差図作成部240は、路面位置検出部230から出力される路面高さhを利用して、路面から「Δh」だけ高い路面付近の水平視差図、つまり、高さ「h−Δh(h10−Δh,h20−Δh,・・・)」の水平視差図を作成する。路面からの高さ「Δh」、「h−Δh(h10−Δh,h20−Δh)」の位置は、図7(b)に例示したとおりである。なお、画像左端を原点としているため、路面から「Δh」だけ高い位置のy座標は、「h−Δh(Δh>0)」となる。
また、この路面からの高さ「Δh」は、建物や電柱等を排除して、撮影対象となる認識対象物(例えば、車両、歩行者等)が検出できる高さに設定する。「Δh」の実寸法としては、約15cm〜100cmとするのが好適である。また、路面からの高さ「Δh」は、1つに限定されることはなく、数種類の路面からの高さ「Δh1」、「Δh2」、・・・を設定して、他車両用の水平視差図、歩行者用の水平視差図等、認識対象物ごとに水平視差図をそれぞれ作成してもよい。
図8に、補正画像データa’10と、この水平視差図作成部240により作成された、補正画像データa’10に対応する水平視差図30とを示す。この図8に示すように、路面RS上の立体物部分(図8の水平視差図30の場合は、他車両A,B,C、側面のガードレール等)に視差が出る。画像上の手前(近距離)の立体物の視差は大きく、画像の奥(遠距離)の立体物の視差は小さく出ている。
立体物検出部250は、水平視差図作成部240から出力された水平視差図のデータと、視差演算部210から出力された視差画像データと、画像補正部110から出力された補正画像データa’(輝度画像データ)とに基づいて、輝度画像データ中の認識対象物(例えば、車両、歩行者等)を検出する。以下、図4を用いて立体物検出部250について詳細に説明する。図4に示すように、立体物検出部250は、認識対象物検出部251と、パターン認識部252と、を備えて構成されている。また、パターン認識部252は、認識対象物領域輝度画像抽出部253と、パターンマッチング部254と、を備えて構成されている。
認識対象物検出部251は、水平視差図作成部240からの水平視差図30(図8の下図参照)において、視差演算部210で算出された視差値dを参照し、同一視差値dを持つ点の集まっている部分の水平座標を抽出する。この同一視差値dを持つ点の集まっている部分は、認識対象物の候補となり得る物体が映し出されている部分である。このとき、同一視差値dを持つ点の集まっている部分の横幅が、予め設定した認識対象物の横幅サイズ(人物の横幅、車幅等)に該当するものだけを抽出してもよい。この同一視差値dを持つ点の集まっている部分の横幅は、前述の式(1)、(2)を用いて算出することができる。このように抽出した水平座標部分の視差画像に注目し、同一視差値dが分布する領域サイズを把握する。この領域サイズが、予め設定した認識対象物のサイズに該当するか否かを判定し、該当する物体だけを、認識対象物として検出する。このようにして検出した認識対象物について、認識対象物検出部251は、検出結果として、その物体の少なくとも位置座標(視差画像上のx,y座標)を出力する。このとき、物体を構成する画素の位置座標を全て出力する必要はなく、例えば、物体を囲む領域の重心座標等が出力される。
また、認識対象物検出部251では、この位置座標の他に、検出した物体のサイズから判断した認識対象物の種類、例えば、車両、歩行者を出力してもよい。この場合、車両サイズ、歩行者サイズを予め定義(記憶)しておくことで、検出した物体の種類を容易に判別することができる。このように、検出結果の一つとして、認識対象物の種類を出力することで、この種類を以下のように利用することができる。例えば、認識対象物の種類が車両である場合、後述のパターン認識部252によるパターンマッチング処理において、車両に対応するパターン画像のみと照合すればよい。同様に、認識対象物の種類が歩行者である場合、歩行者に対応するパターン画像のみと照合すればよい。そのため、パターンマッチング処理を、より効率的かつより迅速に行うことが可能となる。
パターン認識部252の認識対象物領域輝度画像抽出部253には、認識対象物検出部251が出力した認識対象物の検出結果と、画像補正部110が出力した補正画像データa’(輝度画像データ)が入力される。認識対象物領域輝度画像抽出部253は、これらの入力データに基づいて、認識対象物の位置座標で表される領域に対応する補正画像を抽出し、認識対象物領域輝度画像(認識対象物の候補となる物体の輝度画像)として出力する。
この認識対象物領域輝度画像は、パターン認識部252のパターンマッチング部254に入力される。パターンマッチング部254では、入力された認識対象物領域輝度画像と、メモリ202の辞書(後述の動的辞書258または静的辞書259)に登録された特徴量としてのパターン画像とを照合(パターンマッチング)する。照合の結果、これらが一致した場合は、パターンマッチング結果(検知結果)として、少なくとも認識対象物の輝度画像上での位置座標を出力する。また、パターンマッチング結果(検知結果)として、位置座標の他に、認識対象物の種類、例えば、車両、歩行者を出力してもよい。なお、本明細書でいう「一致」とは、厳密な一致に限定されず、ほぼ一致したことも含む意味である。すなわち、認識対象物の候補である認識対象物領域輝度画像が、メモリ202の辞書に登録された特徴量としてのパターン画像に「相当」すると認識できれば足りる。
以下、図5を用いてパターンマッチング部254の詳細を説明する。図5に示すように、パターンマッチング部254は、動的パターンマッチング部255と、静的パターンマッチング部256と、パターン画像登録・削除部257と、第1の特徴量記憶部としての静的辞書259と、第2の特徴量記憶部としての動的辞書258と、履歴保持部260と、を備えている。また、動的辞書258、静的辞書259、および、履歴保持部260は、メモリ202上にその記憶領域が確保されている。
静的辞書259には、移動体制御システム500内等に予め保持していた車両、人物(歩行者、自転車、バイク等に乗っている人物等)のような認識対象物に対応する様々なパターン画像(テンプレート画像)が、特徴量として格納(登録)される。この静的辞書259へのパターン画像の格納は、自車両400のエンジン駆動や、移動体制御システム500への電源投入等によって画像処理装置1が起動したタイミングで行われる。この静的辞書259に登録されるパターン画像として、例えば、車両の場合は、国内外の様々な車種のパターン画像が挙げられる。また、人物の場合は、子供、大人、老人等の年齢別、身長別、男女別の等による歩行者の全体像を示すパターン画像が挙げられる。また、ガードレール等の遮蔽物に一部隠れた歩行者を検知するのに好適なことから、頭部、胴部、脚部等、歩行者の一部に対応するパターン画像や、歩行者の向き(例えば、横向き、正面向き等)に対応するパターン画像等も挙げられる。また、自転車、バイク等の二輪車、車椅子等に乗る歩行者に対応するパターン画像等も挙げられる。本実施例においては、第1の特徴量記憶部である静的辞書259がステレオ画像処理部200内に存在する構成としているが、これに限らず、例えば静的辞書259は外部に設置し、ステレオ画像処理部200がネットワーク経由でデータ(パターン画像)を取得する構成であってもよい。
動的辞書258には、画像処理装置1により検出された認識対象物と一致したパターン画像が、特徴量として一時的に格納(登録)される。動的辞書258に対して、自車両400のエンジン駆動や、移動体制御システム500への電源投入等によって画像処理装置1が起動したタイミングで初期化(データクリア)処理が行われる。その後の画像処理で、認識対象物が検出されるたびに、動的辞書258に、当該認識対象物に対応するパターン画像が登録される。または、画像処理装置1での処理全体を終了するタイミングで、動的辞書258の初期化を行ってもよい。
このような動的辞書258と静的辞書259との間で、パターン画像の移動が行われる。つまり、後述するパターンマッチング処理で、静的辞書259に登録されているパターン画像と、認識対象物領域の輝度画像のパターンとが一致して、認識対象物であると判定されたとする。この場合、当該パターン画像は、動的辞書258に登録(移動)され、静的辞書259から削除される。これに対して、動的辞書258に登録されているパターン画像に対応する認識対象物が、その後のフレームで連続して検出されなかった場合、当該パターン画像は、静的辞書259に登録され(戻され)、動的辞書258から削除される。なお、本実施例においては、静的辞書259からパターン画像が削除される構成としているが、保持したままにしていてもよい。ただし、削除される構成の方が、より迅速な処理に寄与する。
なお、静的辞書259および動的辞書258では、認識対象物の種類に関係なく、例えば、サイズ順にパターン画像を登録してもよいが、認識対象物の種類ごとに分類してパターン画像を登録するようにしてもよい。このように、認識対象物の種類を検出結果として出力する場合、この種類に対応したパターン画像群のみと認識対象物とのパターンマッチング処理を行えばよく、より迅速かつ効率的に処理を行うことが可能となる。
履歴保持部260には、動的パターンマッチング部255での照合結果が記憶される。処理対象のフレームにおいて抽出された認識対象物領域輝度画像(つまり、認識対象物の候補となる物体の輝度画像)と、動的辞書258のパターン画像との照合結果(パターンマッチング結果)が登録される。この照合結果として、履歴保持部260には、動的辞書258のパターン画像と認識対象物とが一致したことを示す一致情報が、当該パターン画像と関連付けられて登録されている。当該パターン画像が、以降のフレームの認識対象物領域輝度画像と再度一致した場合には、複数回一致したことが履歴保持部260に登録される。
各パターン画像について、過去のフレームの認識対象物領域輝度画像に表示される物体と一致しない状態が、複数フレーム連続していた場合、このパターン画像は動的辞書258から静的辞書259に移動される。また、このパターン画像に対応する履歴保持部260のデータ(一致情報)も初期化される。このように、パターン画像と認識対象物とが一致しない状態が複数フレーム連続する場合は、当該パターン画像に対応する認識対象物が、もはや撮像領域に存在せず、以降のフレームの撮像画像に撮像されない可能性が高い。このようなパターン画像を動的辞書258から削除することで、パターンマッチング処理で照合する動的辞書258のパターン画像を削減して、パターンマッチング処理を、より効率的に行うことが可能となる。
また、履歴保持部260の一致情報は、パターン画像が過去のフレームと一致したか否かが解ればよく、特に限定されることはない。例えば、履歴保持部260として、パターン画像ごとに、メモリ202等に5ビットの記憶領域を確保しておく。この5ビットの記憶領域で5フレーム分の一致または不一致情報を記憶する構成とする。ビットには、「1」または「0」が設定されるが、「1」は一致したことを示し、「0」は一致しなかったこと(不一致)を示す。例えば、動的辞書258の当該パターン画像と認識対象物とが、1フレーム目で一致した場合は、1ビット目に「1」を設定し、2フレーム目では不一致である場合は、2ビット目に「0」を設定する。このようにして、過去フレームでのパターン画像と認識対象物との一致または不一致情報を確認する。以上により、一致していないフレームが連続しているか否かをより明確に判別することができ、パターン画像の移動処理やパターンマッチング処理を効率的に行うことが可能となる。なお、実施例1では、後述のように一致しない状態が3フレームまたは4フレーム連続しているか否かを判断しているため、履歴保持部260では、5フレーム分の一致または不一致情報を記憶するようにしている。しかし、本願が実施例1の構成に限定されることはなく、一致しない状態を判定するフレーム数に応じたビット数とすることが好ましい。また、実施例1では、動的辞書258と履歴保持部260とを別個に設け、動的辞書258に登録されるパターン画像と関連付けて履歴保持部260に一致情報を登録している。しかし、本願が実施例1の構成に限定されることはなく、これによれば、動的辞書258に、一致情報を登録する領域を設けてもよく、動的辞書258のパターン画像および一致情報の読み出しや登録を迅速に行うことが可能となる。
動的パターンマッチング部255は、認識対象物領域輝度画像抽出部253から入力される認識対象物領域輝度画像と、動的辞書258に記憶されたパターン画像とを照合(パターンマッチング)する。この動的パターンマッチング部255での照合の結果、認識対象物領域輝度画像とパターン画像とが一致する場合、当該認識対象物領域輝度画像が、認識対象物であるとして、パターンマッチング結果(検知結果)を出力する。このパターンマッチング結果として、少なくとも認識対象物の位置座標を出力する。また、先に認識対象物検出部251で認識対象物のサイズから判断した認識対象物の種類、例えば、車両、歩行者を出力している場合、動的パターンマッチング部255でも、位置座標とともに、認識対象物検出部251からの認識対象物の種類を出力してもよい。
静的パターンマッチング部256は、認識対象物領域輝度画像抽出部253から入力される認識対象物領域輝度画像と、静的辞書259に予め記憶されているパターン画像とを照合(パターンマッチング)する。この静的パターンマッチング部256による照合は、動的パターンマッチング部255での照合で、物体と動的辞書258のパターン画像とが一致しなかった場合に実行される。そして、静的パターンマッチング部256での照合で、物体と静的辞書259のパターン画像とが一致した場合は、認識対象物の位置座標がパターンマッチング結果として出力されるとともに、一致フラグ(図示せず)に「1」が設定される。この一致フラグは、メモリ202中に設けてもよいし、パラメータとしてパターン画像登録・削除部257に受け渡してもよい。また、静的パターンマッチング部256でも、パターンマッチング結果として、位置座標とともに、認識対象物の種類を出力してもよい。
パターン画像登録・削除部257は、静的辞書259と動的辞書258の間でパターン画像のやり取り(移動)を行う。パターン画像登録・削除部257には、静的パターンマッチング部256が出力した一致フラグが入力される。この一致フラグが「1」の場合、パターン画像登録・削除部257は、静的パターンマッチング部256で使用したパターン画像(認識対象物と一致したパターン画像)を、動的辞書258に登録する。また、静的辞書259から、当該パターン画像を削除する。さらに、動的辞書258に登録したパターン画像に対応する履歴保持部260の領域を初期化、すなわち、当該パターン画像の一致情報を履歴保持部260から削除する。これに対して、一致フラグが「0」の場合、パターン画像登録・削除部257は何も行わずに処理を終了する。
パターン画像登録・削除部257は、さらに、履歴保持部260に記憶された一致情報を参照して、一致しないフレームが連続しているパターン画像を動的辞書258から削除し、静的辞書259に登録する(戻す)。これは、連続したフレームで同一の物体(認識対象物)が存在しないとき、その物体(認識対象物)が認識したい領域から外れたと考えて、優先的に照合する動的辞書258のパターン画像から削除するためである。これにより、認識対象物領域輝度画像と照合する動的辞書258のパターン画像を削減することができ、パターンマッチング処理をより迅速に行うことが可能となる。なお、連続で続くとは、例えば、3フレームでも、4フレームでもよく、実験的に調整する。
車両制御ユニット300は、画像処理装置1のステレオ画像処理部200からの検出結果に基づいて、自車両400の移動を制御する。この車両制御ユニット300には、ステレオ画像処理部200から、認識対象物の検知結果(パターンマッチング結果)が、画像データ(例えば、補正画像データa’)とともに逐次入力される。これらの情報に基づいて、車両制御ユニット300では、例えば、自車両400が歩行者や他車両等の認識対象物に衝突することを回避するための自動ブレーキ機能、ハンドル操舵機能等を実現する。また、必要に応じて、歩行者や他車両等の存在をモニタ画面に表示したり、警告音やアナウンス等を発したりする等により、歩行者や他車両等の存在をドライバーに警告する機能を実現する。これにより、歩行者や他車両等への衝突等の回避効果を向上させることができる。
[認識対象物検出方法]
以下、上記画像処理装置1を用いた歩行者、他車両等の認識対象物検出処理(認識対象物検出方法)の流れについて、図9、図10に示すフローチャートを参照しながら説明する。図9は、実施例1の画像処理装置1で実施される画像処理の流れを示すフローチャートである。図10は、実施例1のパターンマッチング部254で実施されるパターンマッチング処理の流れを示すフローチャートである。
画像処理装置1による画像処理は、撮像ユニット100で撮像されるフレームごとに実行される。撮像ユニット100からは、フレームごとに撮像画像が画像処理装置1に入力される。まず、画像処理装置1では、撮像ユニット100の画像補正部110は、各カメラ101A,101Bからの画像データa,bの入力を受け付ける(ステップS1)。画像補正部110は、この画像データa,bに対して、倍率補正、画像中心補正、歪補正等の画像補正処理を行い(ステップS2)、ステレオ画像処理部200に向けて補正画像データa’,b’を出力する。図7(a)に、補正画像データa’10の一例を示す。
ステレオ画像処理部200では、この補正画像データa’,b’の入力を受け付ける(ステップS3)。ステレオ画像処理部200で入力を受け付けた補正画像データa’,b’は、視差演算部210へ送られる。視差演算部210では、まず、入力された基準画像データとしての補正画像データa’を用いて、その基準画像データ上の各画素についての視差値を演算して、その視差値を画素値としてもつ視差画像を生成可能な視差画像データを計算(生成)する(ステップS4)。視差画像は、各画素の画素値が、視差値が大きいほど(距離が近いほど)、大きな値(高い画像輝度)を持つように表現される。
視差画像のデータ生成処理としては、例えば、次のような処理を採用することができる。まず、基準画像データ(補正画像データa’)の任意の行について、一の注目画素を中心とした複数画素(例えば5画素×5画素)からなるブロックを定義する。一方、比較画像データ(補正画像データb’)における当該注目画素と同じ行において、定義した基準画像データのブロックと同じサイズのブロックを1画素ずつ横ライン方向(画像左右方向)へずらす。そして、基準画像データにおいて定義したブロックの画素値の特徴を示す特徴量と比較画像データにおける各ブロックの画素値の特徴を示す特徴量との相関を示す相関値を、それぞれ算出する。次に、算出した相関値に基づき、比較画像データにおける各ブロックの中で、基準画像データのブロックと最も相関があった比較画像データのブロックを選定するマッチング処理を行う。その後、基準画像データのブロックの注目画素と、マッチング処理で選定された比較画像データのブロックの対応画素との位置ズレ量を視差値dとして算出する。このような視差値dを算出する処理を基準画像データの全域または特定の一領域について行うことで、視差画像データを得ることができる。
マッチング処理に用いるブロックの特徴量としては、例えば、ブロック内の各画素の値(輝度値)を用いることができる。相関値としては、例えば、基準画像データ(補正画像データa’)のブロック内の各画素の値(輝度値)と、これらの画素にそれぞれ対応する比較画像データ(補正画像データb’)のブロック内の各画素の値(輝度値)との差分の絶対値の総和を用いることができる。この場合、当該総和が最も小さくなるブロックが最も相関があると言える。
このようにして生成された視差画像データは、垂直視差図作成部220、水平視差図作成部240および立体物検出部250に送られる。まず、垂直視差図作成部220では、この視差画像データに基づいて、上述したように、垂直視差図の作成処理を行う(ステップS5)。図7(b)に、基準画像データ(補正画像データa’)10に対応する垂直視差図20の一例を示す。この垂直視差図20のデータは、路面位置検出部230に送られる。
路面位置検出部230では、垂直視差図作成部220が作成した垂直視差図のデータに基づいて、上述したように、視差画像データ中の路面領域を検出して、路面RSの位置(路面高さh)の検出処理を行う(ステップS6)。この路面高さhは、水平視差図作成部240に送られる。水平視差図作成部240では、視差演算部210からの視差画像のデータおよび路面位置検出部230からの路面高さhに基づいて、上述したように路面の高さh−Δhの水平視差図の作成処理を行う(ステップS7)。この水平視差図のデータは、立体物検出部250に送られる。
立体物検出部250では、水平視差図作成部240から出力された水平視差図のデータ、視差演算部210からの視差画像データおよび画像補正部110からの補正画像データa’に基づいて、水平視差図のデータ中の認識対象物(例えば、他車両、歩行者等)の検出処理を行う(ステップS8)。
このステップS8の処理を詳細に説明すると、まず、認識対象物検出部251が、水平視差図作成部240からの水平視差図30と、視差演算部210からの視差画像データに基づいて、認識対象物の検出処理を行う(ステップS81)。この認識対象物の検出処理では、前述したように、水平視差図30(図8の下図参照)において、視差演算部210で算出された視差値dを参照し、同一視差値dを持つ点の集まっている部分の水平座標を抽出する。そして、認識対象物の検出結果として、認識対象物検出部251は、検出したすべての物体(認識対象物の候補となるもの)についての位置座標(視差画像上のx,y座標)を出力する。また、必要に応じて、この位置座標の他に、検出した物体(認識対象物)のサイズ(横幅)から判断した、当該物体の種類、例えば、車両、歩行者を出力する。
このような物体(認識対象物)の検出のため、物体の横幅、すなわち、視差画像中で物体を示す直線の長さを算出する。この直線の長さを取得するには、まず、当該直線に係る物体の視差平均値から、当該物体と自車両400との距離を、前述の図6および式(1)、(2)を用いて説明したように、三角測量の原理を用いて算出する。そして、算出した距離に基づいて、立体物の上下方向の長さを、実寸法に換算する。
また、物体の視差画像上でのサイズsとこれに対応する物体の実サイズSとの関係は、下記式(3)に示すとおりである。この式(3)を実サイズSについて解くと、下記式(4)が得られる。この式(4)より、物体の実サイズSを計算することができる。下記式(3)、(4)中、fは、撮影レンズ系の撮像面102A,102Bの焦点距離を、Zは、物体までの距離を示す。
S : Z = s : f (3)
S = s × Z / f (4)
上述のようにして得られた直線(物体)の長さが、予め設定した認識対象物のサイズに該当するか否かを判定し、該当するものだけについて、その位置座標(視差画像上のx,y座標)を、認識対象物の検出結果として出力する。この認識対象物の検出結果は、認識対象物領域輝度画像抽出部253に入力される。
認識対象物の検出が完了すると、次に、パターン認識部252の認識対象物領域輝度画像抽出部253により、認識対象物領域の輝度画像の抽出処理が行われる(ステップS82)。この処理は、認識対象物検出部251から入力される認識対象物の検出結果と、画像補正部110から入力される補正画像データa’(輝度画像データ)とに基づいて行われる。具体的には、認識対象物領域輝度画像抽出部253は、認識対象物の検出結果である認識対象物の位置座標に基づいて、その座標領域に対応する補正画像(輝度画像)を、補正画像データa’(輝度画像データ)から抽出する。この抽出した補正画像を、認識対象物領域輝度画像として出力する。この認識対象物領域輝度画像のデータは、パターンマッチング部254に入力される。
パターン認識部252のパターンマッチング部254では、認識対象物領域輝度画像抽出部253から入力された認識対象物領域輝度画像に基づいて、パターンマッチング処理が行われる(ステップS83)。このステップS83のパターンマッチング処理の詳細を、図10のフローチャートを用いて、以下に説明する。
<パターンマッチング処理>
パターンマッチング部254では、認識対象物領域輝度画像のデータの入力を受け付ける(ステップS831)。ここでは、処理対象のフレームで検出されたすべての物体についての認識対象物領域輝度画像のデータが入力されてくる。パターンマッチング部254では、まず、動的辞書258を用いた照合を効率的に行うため、動的辞書258のパターン画像を整理(削除)する処理を行う。具体的には、動的パターンマッチング部255が、動的辞書258のすべてのパターン画像に対して、対応する履歴保持部260のデータを参照して、過去に一致しないフレームが連続しているか否かを判定する。この場合、パターン画像ごとに対応する履歴保持部260のデータを参照して、例えば、一致しないフレーム数が3フレームまたは4フレーム連続した場合に、連続していると判定する。そして、過去に一致しないフレームが連続しているパターン画像が存在するか否かを判定する(以上、ステップS832)。このステップS832の判定で、過去に一致しないフレームが連続しているパターン画像が存在する(Yes)と判定された場合は、パターン画像登録・削除部257が、該当するパターン画像を動的辞書258から静的辞書259へ移動する。さらに、移動したパターン画像に対応する履歴保持部260のデータを初期化する(以上、ステップS833)。その後、ステップS834に進む。一方、ステップS832で、過去に一致しないフレームが連続しているパターン画像が存在しない(No)と判定された場合は、ステップS833をスキップしてステップS834に進む。
以上のように、過去に一致しないフレームが連続しているパターン画像は、パターンマッチング処理の前に、動的辞書258から静的辞書259に移動される。これにより、後述のステップS834で認識対象物領域輝度画像との照合に用いる動的辞書258のパターン画像を削減することができる。そのため、動的辞書258を用いたパターンマッチング処理を、より迅速かつ効率的に実行することが可能となる。なお、実施例1では、動的辞書258から静的辞書259への移動を、フレームごと(撮像画像ごと)に行っている。この場合でも、履歴保持部260を参照して、所定のフレーム数で一致していないもののみ移動を行うため、移動処理を効率的に行うことができ、パターンマッチングの処理効率への影響を抑制することができる。しかしながら、本願が実施例1に限定されることはなく、数フレームごとに一回、または、所定期間ごとに一回、これらの処理を行うようにしてもよく、処理効率をより向上させることができる。
次に、ステップS834〜S840の動的辞書258のパターン画像との照合処理、必要に応じて静的辞書259のパターン画像との照合処理、検知結果の出力処理を実施する。これらの処理は、ステップS82の認識対象物領域輝度画像抽出処理で抽出されたすべての認識対象物領域輝度画像について、順次実施する。まず、ステップS834では、動的パターンマッチング部255が、認識対象物領域輝度画像と動的辞書258に登録されているパターン画像とを照合(パターンマッチング)する。この照合の際は、動的辞書258からパターン画像を一つずつ取り出し、認識対象物領域輝度画像と照合していく。そして、認識対象物領域輝度画像と動的辞書258のいずれかのパターン画像とが一致したか否かを判定し(ステップS835)、一致した場合(Yes)は、ステップS837に進む。このステップS837では、一致したパターン画像に対応する履歴保持部260の領域に、一致したことを登録(記憶)する。その後、ステップS840に進み、動的辞書258のパターン画像との照合により、認識対象物であると判定された当該認識対象物領域輝度画像の物体について、その位置座標をパターンマッチング結果(検知結果)として出力する。そして、次の認識対象物領域輝度画像について、ステップS834以降の処理を行うが、すべての認識対象物領域輝度画像に対して処理が終わっている場合には、パターンマッチング処理を終了する。なお、パターンマッチング結果として、位置座標の他に、認識対象物の種類等を出力してもよく、パターンマッチング結果に基づいて車両制御を行う車両制御ユニット300で実施される処理のバリエーションを広げることや、処理精度を高めることが可能となる。
なお、前述したように、動的辞書258には、画像処理装置1により検出された認識対象物と静的辞書259のパターン画像とが一致したときに、当該パターン画像が登録される。そのため、エンジン駆動等により画像処理装置1が起動した後の最初のフレームの撮像画像に対する画像処理を行うときには、動的辞書258にはパターン画像が登録されていない。そのため、最初のフレームに対する画像処理を行う場合には、ステップS832〜S833の動的辞書258のパターン画像の削除、ステップS834〜S835の動的辞書258との照合をスキップし、ステップS836の静的辞書259との照合を行ってもよい。これにより、処理効率をより向上させることができる。また、自車両400の走行当初は、他車両や歩行者等が存在せず、数フレーム目で初めて認識対象物となり得る物体が検出されるような場合等も同様に、動的辞書258にパターン画像が登録されていない場合がある。この場合も、処理効率の向上のため、ステップS832〜S835をスキップし、ステップS836に進んでもよい。
一方、ステップS834で、すべての動的辞書258のパターン画像と認識対象物領域輝度画像とを照合したが、一致するパターン画像がなかった場合(ステップS835の判定がNo)には、ステップS836に進む。このステップS836では、認識対象物領域輝度画像と、認識対象物のあらゆるパターン画像が登録された静的辞書259のパターン画像との照合(パターンマッチング)を行う。この場合も、静的辞書259からパターン画像を一つずつ取り出し、認識対象物領域輝度画像と照合していく。そして、認識対象物領域輝度画像と静的辞書259のいずれかのパターン画像とが一致したか否かを判定し(ステップS838)、一致した場合(Yes)は、静的パターンマッチング部256は、一致フラグに「1」を設定し、次のステップS839に進む。
このステップS839では、パターン画像登録・削除部257が、一致フラグ「1」の入力を受けて、一致したパターン画像を静的辞書259から動的辞書258に移動する。さらに、一致したパターン画像に対応する履歴保持部260の領域に、一致したことを登録(記憶)する。その後、ステップS840に進み、静的辞書259のパターン画像との照合により、認識対象物であると判定された当該認識対象物領域輝度画像の物体について、その位置座標をパターンマッチング結果(検知結果)として出力する。この場合も、パターンマッチング結果として、位置座標の他に、必要に応じて認識対象物の種類等を出力する。そして、次の認識対象物領域輝度画像について、ステップS834以降の処理を行うが、すべての認識対象物領域輝度画像に対して処理が終わっている場合には、パターンマッチング処理を終了する。
一方ステップS836で、すべての静的辞書259のパターン画像と認識対象物領域輝度画像とを照合したが、一致するパターン画像がなかった場合(ステップS838の判定がNo)には、当該認識対象物領域輝度画像は、認識対象物ではないことがわかる。そのため、パターンマッチング結果(検知結果)として、認識対象物なし(パターンマッチング結果なし)を出力し(ステップS840)、次の認識対象物領域輝度画像について、ステップS834以降の処理を行う。または、何も出力することなく、次の認識対象物領域輝度画像の処理を行うようにしてもよい。すべての認識対象物領域輝度画像に対して処理が終わっている場合は、パターンマッチング処理を終了する。
なお、上記説明では、認識対象物領域輝度画像ごとに動的辞書258または静的辞書259のパターン画像との照合と、パターンマッチング結果の出力とを行っているが、本願が実施例1の形態に限定されることはない。例えば、まず、当該フレームで検出されたすべての認識対象物領域輝度画像について個々に照合までを行う。そして、最後に、すべての認識対象物領域輝度画像について、まとめてパターンマッチング結果を出力するようにしてもよい。以降の実施例2でも同様である。
以上のような流れで、画像処理装置1のステレオ画像処理部200での認識対象物の検出処理が実行される。画像処理装置1での認識対象物の検知結果(パターンマッチング結果)は、必要に応じて画像データとともに、車両制御ユニット300等に向けて出力される。車両制御ユニット300では、これらのデータに基づいて、例えば、自動ブレーキ機能、ハンドル操舵機能等を実行することにより、自車両400を制御し、自車両400が歩行者や他車両等の認識対象物に衝突するのを回避する。また、認識対象物のモニタへの表示や音等による警告等により、運転者に対して認識対象物の存在を喚起する。
以上、実施例1の画像処理装置1では、認識対象物を検出するためのパターンマッチングを行う際に、まず、過去のフレームで検出された認識対象物に対応するパターン画像が登録された動的辞書258と照合している。この動的辞書258のパターン画像のいずれかと一致した場合は、静的辞書259のパターン画像との照合を行う必要がなく、パターンマッチング処理が完了する。そして、動的辞書258のパターン画像と一致しないときのみ、静的辞書259のパターン画像との照合を行っている。したがって、動的辞書258のパターン画像との照合が一致すれば、静的辞書259の大量のパターン画像との照合を省くことができ、処理時間を短縮することができる。このように、迅速に認識対象物を検出することができる分、認識対象物との衝突を回避する等、車両制御ユニット300での認識対象物への対応を、より迅速に行うことが可能となる。
また、動的辞書258のパターン画像との照合を行う前に、過去のフレームで一致しなかったパターン画像を動的辞書258から削除している。そのため、動的辞書258のパターン画像との照合を削減することができ、画像処理装置1での処理効率をより向上させることができる。
(実施例2)
次に、実施例2に係る画像処理装置について、図11〜図14を用いて説明する。図11は、実施例2の画像処理装置における、立体物検出部250Aの機能構成を示す機能ブロック図である。図12は、追尾部270の機能構成を示す機能ブロック図である。図13は、追尾処理の流れを示すフローチャートであり、図14は、パターンマッチング処理の流れを示すフローチャートである。図15は、追尾部270の同一物体判定部274での処理の一例を説明するための説明図であり、物体ojのX,Y座標における明度を示す。実施例2の画像処理装置は、図11に示すように、追尾部270をさらに備えたこと以外は、実施例1の画像処理装置1と同様の基本構成を有している。そのため、実施例1と同様の構成については、同一の符号を付し、詳細な説明は省略する。なお、認識対象物領域輝度画像抽出部253とパターンマッチング部254とからなるパターン認識部252は、実施例1と同様の構成であるため、実施例1と同一の符号を付している。ただし、追尾部270からの追尾結果等が新たに入力されることから、各部での処理の内容が実施例1とは異なる。この処理の詳細は後述する。また、パターンマッチング部254に備えられた動的辞書258および静的辞書259には、パターン画像ごとに、後述のID番号を登録する領域が設けられている。
追尾部270は、図11に示すように、認識対象物検出部251と認識対象物領域輝度画像抽出部253との間に位置する。追尾部270には、認識対象物検出部251からの認識対象物の検出結果が入力される。追尾部270は、この検出結果に基づいて、認識対象物領域輝度画像の物体が、追尾すべき物体であるか否かを判定し、認識対象物領域輝度画像抽出部253に対して、追尾結果を出力する。なお、追尾すべき物体でない場合は、認識対象物検出部251からの検出結果をそのまま出力する。追尾結果には、認識対象物の識別子としての固有番号(以下、「ID番号」と呼ぶ)が含まれる。追尾結果または検出結果を入力された認識対象物領域輝度画像抽出部253は、認識対象物領域輝度画像を出力するが、追尾結果が入力された場合は、ID番号付きの認識対象物領域輝度画像を出力する。
追尾部270は、図12に示すように、過去フレーム検出結果読み書き部271と、過去フレーム検出結果保持部271aと、領域予測部272と、予測領域内検出部273と、同一物体判定部274と、選択部275と、を備えて構成される。過去フレーム検出結果保持部271aは、メモリ202に設けられ、現在処理中のフレーム(以下、「現フレーム」と呼ぶ)以前に処理した過去のフレーム(以下、「過去フレーム」と呼ぶ)における認識対象物の検出結果を保持(記憶)している。この検出結果は、認識対象物検出部251から入力された過去フレームで検出された物体(認識対象物)の位置座標である。過去フレーム検出結果読み書き部271は、過去フレーム検出結果保持部271aにアクセスして、現フレームの検出結果を登録するとともに、過去フレームの検出結果を読み出す。この読み出された過去フレームを、領域予測部272に向けて出力する。なお、過去フレームの検出結果は、数フレーム分の情報があれば追尾には十分であるため、過去フレーム検出結果保持部271aには、例えば、5フレーム分の検出結果を格納(記憶)する。過去フレーム検出結果読み書き部271は、現フレームの検出結果の書き込みの際に、空き領域がなくなった場合には、過去フレームの検出結果のうち、最も古い過去フレームの検出結果を削除し、現フレームの検出結果を新たに記憶する。これにより、処理効率を向上させることが可能となる。
領域予測部272は、過去フレーム検出結果保持部271aに記憶された過去フレームの検出結果(位置座標)に基づいて、現フレームの認識対象物が存在する領域を予測する。なお、領域予測部272では、検出物の位置座標の他に、位置座標から算出した認識対象物の画像上の速度を用いて、物体が存在する領域を予測してもよい。
予測領域内検出部273は、領域予測部272で予測した予測領域内で認識対象物を検出し、予測結果として出力する。予測領域内検出部273では、少なくとも認識対象物の位置座標を出力する。また、認識対象物検出部251と同様に、この位置座標の他に、認識対象物の種類、例えば、車両、歩行者を出力してもよい。
同一物体判定部274は、予測領域内検出部273での物体の予測結果と現フレームでの物体(認識対象物)の検出結果とを比較して、同一物体であるか否かを判定する。より具体的には、同一物体判定部274では、この予測結果の物体と検出結果の物体との類似度に基づいて、両者が同一物体か否かを判定する。類似度に基づいた判定方法としては、例えば、図15に示すように、物体ojのY座標における明度およびX座標における明度のそれぞれを比較して、同一物体か否か判定する。なお、この同一物体であるか否かの判定は、類似度に限定されることはなく、両者の位置座標に基づいて、両者の重なりの程度を考慮して判定してもよい。また、ヒストグラムを利用した方法等、従来からある種々の方法も、代替または併用することが可能である。そして、同一物体と判定された場合、判定フラグに「1」を設定し、物体のID番号と判定フラグとを選択部275に向けて出力する。一方、同一物体でないと判定された場合、判定フラグに「0」を設定し、この判定フラグを選択部275に向けて出力する。なお、判定フラグは、メモリ202に設けてもよいし、パラメータとして選択部275に受け渡してもよい。
選択部275は、同一物体判定部274での判定結果、すなわち、判定フラグに基づいて、予測結果と検出結果とのどちらを最終出力とするかを選択し、選択結果を出力する。より具体的には、選択部275は、判定フラグが「1」である場合、予測領域内検出部273からの予測結果と同一物体判定部274からのID番号とを、追尾結果として出力する。これに対して、判定フラグが「0」である場合、認識対象物検出部251からの検出結果を出力する。
以下、実施例2の画像処理装置での認識対象物検出処理の流れを説明する。なお、実施例2の画像処理装置での処理の流れは、図9等を用いて説明した実施例1の画像処理装置1での処理の流れと基本的には同様である。そのたため、同様の処理についての説明は省略し、ここでは、立体物検出部250Aでの処理を主に説明する。まず、上記実施例1と同様に、認識対象物検出部251が、水平視差図作成部240からの水平視差図30と、視差演算部210からの視差画像データに基づいて、認識対象物の検出処理を行う(前述した図9のステップS81およびその説明を参照)。この認識対象物の検出結果として、認識対象物検出部251は、検出したすべての物体(認識対象物となり得るもの)の位置座標(視差画像上のx,y座標)、必要に応じて、検出した物体(認識対象物)の種類、例えば、車両、歩行者を出力する。
<追尾処理>
次に、認識対象物検出部251からの検出結果に基づいて、追尾部270が追尾処理を実施する。この追尾部270での追尾処理の流れについて、図13のフローチャートを用いて以下に説明する。まず、追尾部270は、認識対象物検出部251からの現フレームの検出結果の入力を受け付ける(ステップS21)。この現フレームの検出結果を、過去フレーム検出結果読み書き部271が、メモリ202の過去フレーム検出結果保持部271aに格納する。また、過去フレーム検出結果読み書き部271は、過去のフレームの検出結果を過去フレーム検出結果保持部271aから読み出し、領域予測部272に向けて出力する(以上、ステップS22)。
領域予測部272では、過去フレーム検出結果保持部271aから読み出された過去フレームの検出結果に基づいて、現フレームにおける認識対象物の存在する領域を予測し、その領域(以下、「予測領域」と呼ぶ)の位置座標を出力する(ステップS23)。この領域の予測は、従来公知の手順等、いずれの手順を用いてもよい。次に、予測領域内検出部273が、この予測領域内で認識対象物を検出し、その位置座標を出力する(ステップS24)。この検出は、認識対象物検出部251での処理と同様に、同一視差値dを持つ点の集まっている部分の水平座標を抽出し、そのサイズから判断する等の手順により行うことができる。
予測領域内検出部273からの予測結果は、同一物体判定部274に入力される。この同一物体判定部274は、予測結果(位置座標等)と、過去のフレームの検出結果(位置座標等)とを比較して(ステップS25)、上述したような手順により、同一物体か否かを判定する(ステップS26)。この判定の結果、同一物体でないと判定された場合(No)、同一物体判定部274は判定フラグに「0」を設定する(ステップS27)。この判定フラグ「0」に基づいて、選択部275は、現フレームの検出結果(認識対象物検出部251からの検出結果)を出力して、追尾処理を終了する(ステップS28)。
これに対して、ステップS26の判定の結果、同一物体であると判定された場合(Yes)、同一物体判定部274は判定フラグに「1」を設定する(ステップS29)。また、予測結果(位置座標等)にID番号を付与する(ステップS30)。このID番号は、認識対象物の出現順に昇順に付してもよいし、認識対象の種類等に応じて予め設定した番号を付してもよい。次いで、この判定フラグ「1」に基づいて、選択部275は、現フレームの検出結果として、追尾結果(予測結果とID番号)を出力して、追尾処理を終了する(ステップS31)。
以上により、追尾部270から出力された検出結果または追尾結果が、認識対象物領域輝度画像抽出部253に入力される。認識対象物領域輝度画像抽出部253は、検出結果または追尾結果の予測結果に基づいて、認識対象物領域輝度画像を出力する(前述した図9のステップS82およびその説明を参照)。このとき、認識対象物領域輝度画像抽出部253は、追尾結果が入力された場合は、ID番号付きの認識対象物領域輝度画像を出力する。
認識対象物領域輝度画像抽出部253からの認識対象物領域輝度画像、または、ID番号付き認識対象物領域輝度画像に基づいて、パターンマッチング部254により、パターンマッチング処理が行われる。追尾部270から検出結果が入力されたことで、認識対象物領域輝度画像抽出部253から認識対象物領域輝度画像のみが入力されたときのパターンマッチング処理の流れは、図10のフローチャートに示す実施例1の処理の流れと同様である。以下では、追尾結果が入力されたことで、認識対象物領域輝度画像抽出部253からID番号付きの認識対象物領域輝度画像が入力されたときのパターンマッチン処理の流れを、図14のフローチャートを用いて説明する。また、実施例2のパターンマッチング部254の構成は、図5に示す実施例1のパターンマッチング部254の構成と同一であるため、図5に示す実施例1と同一の符号を用いて各部の処理を説明する。
<ID番号入力時のパターンマッチング処理>
図14に示すステップS101において、パターンマッチング部254は、認識対象物領域輝度画像抽出部253からのID番号付きの認識対象物領域輝度画像の入力を受け付ける。このとき、パターンマッチング部254では、認識対象物領域輝度画像抽出部253からの認識対象物領域輝度画像に、ID番号の付与があれば、追尾結果による認識対象物領域輝度画像が入力されたと判断する。
次に、実施例1と同様の手順で、動的パターンマッチング部255が、動的辞書258のすべてのパターン画像に対して、対応する履歴保持部260のデータを参照する。そして、過去に一致しないフレームが連続しているパターン画像が存在するか否かを判定する(ステップS102)。このステップS102の判定で、過去に一致しないフレーム数が連続しているパターン画像が存在すると判定された場合(Yes)には、パターン画像登録・削除部257が、該当するパターン画像を動的辞書258から静的辞書259へ移動する。さらに、移動したパターン画像に対応する履歴保持部260のデータを初期化する(以上、ステップS103)。その後、ステップS104に進む。一方、ステップS102で、過去に一致しないフレームが連続しているパターン画像が存在しない(No)と判定された場合は、ステップS103をスキップしてステップS104に進む。
次に、ステップS104以降では、動的パターンマッチング部255が、動的辞書258のパターン画像との照合処理を行う。この処理は、認識対象物領域輝度画像抽出部253から入力されるすべての認識対象物領域輝度画像について実施する。まず、ステップS104で、動的パターンマッチング部255が、動的辞書258を検索し、処理対象の認識対象物領域輝度画像に付されたID番号と同一のID番号が付与されたパターン画像があるか否かを判定する。同一のID番号が付与されたパターン画像があった場合(Yes)、当該ID番号に係る認識対象物領域輝度画像と、当該ID番号に係る動的辞書258のパターン画像とを照合(パターンマッチング)する(ステップS105)。この照合により、両者が一致したか否かを判定し(ステップS106)、一致した場合(Yes)、ステップS109の履歴保持部260への登録処理に進む。一方、一致しない場合(No)、ステップS107の他のID番号に係るパターン画像との照合処理に進む。
ステップS107は、認識対象物領域輝度画像が、同一のID番号に係るパターン画像と一致しない場合に実行される処理である。ステップS107では、動的パターンマッチング部255は、動的辞書258中の他のID番号に係るパターン画像と認識対象物領域輝度画像との照合を行う。この照合は、動的辞書258のパターン画像と一致するまで、または、すべてのパターン画像との照合が完了するまで行う。そして、認識対象物領域輝度画像と一致するパターン画像があったか判定し(ステップS108)、一致するパターン画像があった場合(Yes)、ステップS109の履歴保持部260への登録処理に進む。一方、一致するパターン画像がなかった場合(No)、ステップS110の静的辞書259のパターン画像との照合処理に進む。
ここで、認識対象物領域輝度画像が、他のID番号(異なるID番号)に係るパターン画像と一致するケースについて説明する。例えば、ある過去フレームで大人の歩行者と子供の歩行者とが検出された場合を想定する。このとき、検出順に大人の歩行者にはID番号=1、子供の歩行者にはID番号=2が付与されたとする。その後、例えば、現フレームで、大人と子供とがすれ違ったとき、現フレームでのID番号が入れ替わってしまうことがあり、子供の歩行者がID番号=1、大人の歩行者がID番号=2と認識されることがある。この場合、ステップS105で、ID番号=2に対応する大人の歩行者の認識対象物領域輝度画像に対して、過去フレームでID番号=2が付されたパターン画像が照合対象として選択される。しかし、当該パターン画像は子供の歩行者に対応しているため、ステップS106で一致しない(No)と判定される。次に、ステップS107において、他のID番号に係るパターン画像、すなわち、ID番号=1が付されたパターン画像(大人の歩行者)との照合で一致が確認され、大人の歩行者を認識対象物として検出することができる。このような照合手順とすることで、認識対象物を取りこぼしなく、かつ、効率的に検出することができる。
ステップS109は、認識対象物領域輝度画像と、動的辞書258のパターン画像とが一致した場合に実行される処理である。ステップS109では、一致したパターン画像に対応する履歴保持部260の領域に、一致したことを登録(記憶)する。その後、ステップS113に進み、動的辞書258のパターン画像との照合により、認識対象物であると判定された当該認識対象物領域輝度画像の物体について、その位置座標をパターンマッチング結果(検知結果)として出力し、パターンマッチング処理を終了する。実施例2でも、パターンマッチング結果として、位置座標の他に、必要に応じて認識対象物の種類等を出力してもよい。
ステップS110は、認識対象物領域輝度画像と動的辞書258のパターン画像とが一致しなかった場合に行われる処理である。ステップS110では、実施例1と同様の手順で、認識対象物領域輝度画像と、静的辞書259のパターン画像とを照合(パターンマッチング)する。そして、認識対象物領域輝度画像と静的辞書259のパターン画像とが一致したか否かを判定する(ステップS111)。一致した場合(Yes)は、ステップS112で、パターン画像登録・削除部257が、一致したパターン画像を、ID番号とともに動的辞書258に移動する。この移動とともに、一致したパターン画像に対応する履歴保持部260の領域に、一致したことを登録(記憶)する。その後、ステップS113に進み、静的辞書259のパターン画像との照合により、認識対象物であると判定された当該認識対象物領域輝度画像の物体について、その位置座標をパターンマッチング結果(検知結果)として出力し、パターンマッチング処理を終了する。この場合も、パターンマッチング結果として、位置座標の他に、必要に応じて認識対象物の種類等を出力する。
一方、ステップS111の判定がNoの場合、つまり、すべての静的辞書259のパターン画像と認識対象物領域輝度画像とを照合したが、一致するパターン画像がなかった場合には、当該認識対象物領域輝度画像は、認識対象物ではないことがわかる。この場合、当該認識対象物領域輝度画像に対してはパターンマッチング結果(検知結果)として、認識対象物なし(パターンマッチング結果なし)を出力し(ステップS113)、当該認識対象物領域輝度画像のパターンマッチング処理を終了する。または、何も出力せずに終了してもよい。
以上のように、実施例2の画像処理装置では、追尾部270による追尾処理を行って、追尾すべき物体(認識対象物)にID番号を付与している。そして、パターンマッチング部254によるパターンマッチング処理で、動的辞書258のパターン画像の中に認識対象物領域輝度画像と同じID番号のパターン画像があるか確認している。そして、一致する場合、認識対象物領域輝度画像と同じID番号のパターン画像と照合することで、動的辞書258の複数のパターン画像の中でも、照合するパターン画像を絞ることができる。そのため、パターンマッチングの処理時間を短縮して、迅速に認識対象物を検出することができる。また、このように迅速に認識対象物を検出することができる分、認識対象物との衝突を回避する等、車両制御ユニット300での認識対象物への対応を、より迅速に行うことが可能となる。
以上、本発明の実施例を図面により詳述してきたが、上記各実施例は本発明の例示にしか過ぎないものであり、本発明は上記各実施例の構成にのみ限定されるものではない。本発明の要旨を逸脱しない範囲の設計の変更等があっても、本発明に含まれることは勿論である。例えば、パターン画像によるものでなく、パターンに応じた特徴量による構成としてもよい。また、上記各実施例のようなステレオカメラの構成であって視差画像データを利用するものにのみ適用されるものではなく、単一のカメラや3以上のカメラからなる構成、輝度画像データのみを利用する構成等においても適用可能である。
1 画像処理装置(認識対象物検出手段)
10 補正画像データa’(基準画像データ) 20 垂直視差図
30 水平視差図 100 撮像ユニット(撮像部)
110 画像補正部 200 ステレオ画像処理部(画像処理部)
210 視差演算部 220 垂直視差図作成部(垂直視差データ作成部)
230 路面位置検出部(移動面位置検出部)
240 水平視差図作成部(水平視差データ作成部)
250,250A 立体物検出部(対象物検出部)
258 動的辞書(第2の特徴量記憶部)
259 静的辞書(第1の特徴量記憶部)
270 追尾部 300 車両制御ユニット(移動制御手段)
500 移動体制御システム
特開2012−164275号公報

Claims (13)

  1. 撮像部からフレーム単位で入力される撮像画像について、該撮像画像中の認識対象物の候補が第1の特徴量記憶部に記憶された特徴量に相当したときに前記認識対象物の候補を認識対象物として検出する画像処理部を備える画像処理装置であって、
    前記画像処理部は、前記認識対象物の候補が前記第1の特徴量記憶部に記憶された所定の特徴量に相当したときに前記所定の特徴量が記憶される第2の特徴量記憶部を有し、
    前記第2の特徴量記憶部へ前記所定の特徴量が記憶されたフレーム以降のフレームにおいて、該以降のフレームの撮像画像から前記第2の特徴量記憶部に基づいて前記認識対象物の検出を行い、前記認識対象物が検出されなかったときには前記第1の特徴量記憶部に基づいて前記認識対象物の検出を行う対象物検出部を有することを特徴とする画像処理装置。
  2. 前記画像処理部は、前記第1の特徴量記憶部を有することを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像処理部は、
    複数の撮像部からフレーム単位で入力される複数の撮像画像に基づいて視差画像データを生成する視差演算部を有し、
    前記対象物検出部は、前記視差画像データに基づいて前記認識対象物の候補を検出することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記画像処理部は、
    前記視差画像データに基づいて、画像垂直座標と視差値の関係を示す垂直視差データを作成する垂直視差データ作成部と、
    前記垂直視差データに基づいて、前記認識対象物が移動する移動面を検出する移動面位置検出部と、
    前記視差画像データおよび前記移動面に基づいて、前記移動面付近における、画像水平座標および視差値の関係を示す水平視差データを作成する水平視差データ作成部と、を有し、
    前記対象物検出部は、前記水平視差データに基づいて、前記認識対象物の候補を検出することを特徴とする請求項3に記載の画像処理装置。
  5. 前記対象物検出部は、前記認識対象物の検出に際し前記撮像画像中の認識対象物の候補が第2の特徴量記憶部に記憶された所定の特徴量に相当しないフレームが所定数連続したときに、前記第2の特徴量記憶部から前記所定の特徴量を削除することを特徴とする請求項1乃至4のいずれか一項に記載の画像処理装置。
  6. 前記対象物検出部は、前記認識対象物の候補が前記第1の特徴量記憶部に記憶された所定の特徴量に相当したときには、前記第2の特徴量記憶部への前記所定の特徴量の記憶に際して前記第1の特徴量記憶部から前記所定の特徴量を削除し、前記認識対象物の候補が前記第2の特徴量記憶部に記憶された所定の特徴量に相当しないフレームが所定数連続したときには、前記第2の特徴量記憶部からの前記所定の特徴量の削除に際して前記第1の特徴量記憶部への前記所定の特徴量の登録を行うことを特徴とする請求項5に記載の画像処理装置。
  7. 前記対象物検出部は、現在のフレームで検出された認識対象物の候補である物体を前記現在のフレームの前のフレームにおいて検出された認識対象物に相当する場合に、前記前のフレームで検出された前記認識対象物の前記撮像画像上における位置座標に基づいて前記現在のフレームの前記物体の位置座標を予測して、前記物体に対し前記物体を識別する識別子を付与する追尾部を有し、
    前記第2の特徴量記憶部には、前記識別子が付与された前記物体に相当する特徴量が前記識別子と関連付けて記憶され、
    前記対象物検出部は、前記物体に対して前記識別子が付与されたときに、前記第2の特徴量記憶部に基づいた前記認識対象物の検出を行うことを特徴とする請求項1乃至6のいずれか一項に記載の画像処理装置。
  8. 前記対象物検出部は、前記視差画像データにより求めた前記認識対象物のサイズに基づいて、当該認識対象物の種類を特定することを特徴とする請求項3または4に記載の画像処理装置。
  9. 前記水平視差データ作成部は、前記認識対象物の種類に応じて、前記移動面からの高さの異なる複数の水平視差データを作成することを特徴とする請求項8に記載の画像処理装置。
  10. 前記特徴量は、パターン画像であることを特徴とする請求項1乃至9のいずれか一項に記載の画像処理装置。
  11. 画像処理部を備え、撮像部からフレーム単位で入力される撮像画像について、該撮像画像中の認識対象物の候補が第1の特徴量記憶部に記憶された特徴量に相当したときに前記認識対象物の候補を認識対象物として検出する請求項1乃至10のいずれか一項に記載の画像処理装置で行われる認識対象物検出方法であって、
    前記画像処理部が、前記認識対象物の候補が前記第1の特徴量記憶部に記憶された所定の特徴量に相当したときに前記所定の特徴量を第2の特徴量記憶部に記憶するステップと、
    前記第2の特徴量記憶部へ所定の特徴量が記憶されたフレーム以降のフレームにおいて、該以降のフレームの撮像画像から前記第2の特徴量記憶部に基づいて前記認識対象物の検出を行うステップと、
    上記ステップで前記認識対象物が検出されなかったときには前記第1の特徴量記憶部に基づいて前記認識対象物の検出を行うステップと、を有することを特徴とする認識対象物検出方法。
  12. 撮像部からフレーム単位で入力される撮像画像について、該撮像画像中の認識対象物の候補が第1の特徴量記憶部に記憶された特徴量に相当したときに前記認識対象物の候補を認識対象物として検出するときに、前記認識対象物の候補が前記第1の特徴量記憶部に記憶された所定の特徴量に相当したときに前記所定の特徴量を第2の特徴量記憶部に記憶し、前記第2の特徴量記憶部へ所定の特徴量が記憶されたフレーム以降のフレームにおいて、該以降のフレームの撮像画像から前記第2の特徴量記憶部に基づいて前記認識対象物の検出を行い、前記認識対象物が検出されなかったときには前記第1の特徴量記憶部に基づいて前記認識対象物の検出を行う認識対象物検出手段として、コンピュータを機能させることを特徴とする認識対象物検出プログラム。
  13. 移動体の移動制御を行う移動制御手段と、
    前記移動体の周囲を撮像対象として撮像する撮像手段と、
    前記撮像手段から入力される撮像画像から、前記撮像対象内に存在する認識対象物を検出する認識対象物検出手段と、を備え、
    前記認識対象物検出手段として、請求項1〜10のいずれか一項に記載の画像処理装置を用いたことを特徴とする移動体制御システム。
JP2014120743A 2013-08-15 2014-06-11 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム Expired - Fee Related JP6398347B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014120743A JP6398347B2 (ja) 2013-08-15 2014-06-11 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム
US14/451,860 US20150049195A1 (en) 2013-08-15 2014-08-05 Image processing unit, object detection method, object detection program, and vehicle control system
EP14180114.2A EP2838050A3 (en) 2013-08-15 2014-08-07 Image processing unit, object detection method, object detection program, and vehicle control system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013168881 2013-08-15
JP2013168881 2013-08-15
JP2014120743A JP6398347B2 (ja) 2013-08-15 2014-06-11 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム

Publications (2)

Publication Number Publication Date
JP2015057690A true JP2015057690A (ja) 2015-03-26
JP6398347B2 JP6398347B2 (ja) 2018-10-03

Family

ID=51266198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014120743A Expired - Fee Related JP6398347B2 (ja) 2013-08-15 2014-06-11 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム

Country Status (3)

Country Link
US (1) US20150049195A1 (ja)
EP (1) EP2838050A3 (ja)
JP (1) JP6398347B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017154389A1 (ja) * 2016-03-10 2017-09-14 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
WO2017163736A1 (ja) * 2016-03-22 2017-09-28 株式会社デンソー 移動軌跡検出装置、移動物体検出装置、移動軌跡検出方法
WO2018173819A1 (ja) * 2017-03-22 2018-09-27 パナソニックIpマネジメント株式会社 画像認識装置
JP2020042775A (ja) * 2018-09-06 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 障害物の検知方法、システム、コンピュータ装置、コンピュータ記憶媒体
JP2020061128A (ja) * 2018-10-11 2020-04-16 ティンデイ・ネットワーク・テクノロジー・(シャンハイ)・カンパニー・リミテッドTindei Network Technology (Shanghai) Co., Ltd. 二重ストリームディープラーニングニューラルネットワークを有する双眼歩行者検出システムおよびこれを利用する方法
US10930162B2 (en) 2016-06-13 2021-02-23 SZ DJI Technology Co., Ltd. Unmanned aerial vehicle, delivery system, control method for unmanned aerial vehicle, and program for controlling unmanned aerial vehicle

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6519262B2 (ja) 2014-04-10 2019-05-29 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
JP2016001464A (ja) 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム、及び、処理方法
JP6648411B2 (ja) 2014-05-19 2020-02-14 株式会社リコー 処理装置、処理システム、処理プログラム及び処理方法
JP6256239B2 (ja) * 2014-07-25 2018-01-10 株式会社デンソー 歩行者検出装置および歩行者検出方法
EP3352134B1 (en) 2015-09-15 2023-10-11 Ricoh Company, Ltd. Image processing device, object recognition device, device control system, image processing method, and program
JP6662388B2 (ja) 2015-11-27 2020-03-11 株式会社リコー 画像処理装置、撮像装置、機器制御システム、分布データ生成方法、及びプログラム
JP6597792B2 (ja) 2015-11-30 2019-10-30 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
WO2017099199A1 (ja) 2015-12-10 2017-06-15 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
WO2017104574A1 (ja) 2015-12-14 2017-06-22 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6601506B2 (ja) 2015-12-28 2019-11-06 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法、画像処理プログラム及び車両
EP3410415B1 (en) 2016-01-28 2020-11-18 Ricoh Company, Ltd. Image processing device, imaging device, moving body device control system and image processing program
WO2017134936A1 (ja) 2016-02-05 2017-08-10 株式会社リコー 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム
JP6614247B2 (ja) 2016-02-08 2019-12-04 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
EP3428876A4 (en) 2016-03-10 2019-01-23 Ricoh Company, Ltd. IMAGE PROCESSING DEVICE, DEVICE CONTROL SYSTEM, IMAGING DEVICE AND PROGRAM
WO2017158958A1 (ja) 2016-03-15 2017-09-21 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
WO2017158982A1 (ja) 2016-03-18 2017-09-21 株式会社リコー 画像処理装置、画像処理方法、画像処理プログラム、物体認識装置及び機器制御システム
US10037471B2 (en) 2016-07-05 2018-07-31 Nauto Global Limited System and method for image analysis
JP2019531560A (ja) 2016-07-05 2019-10-31 ナウト, インコーポレイテッドNauto, Inc. 自動運転者識別システムおよび方法
JP6688970B2 (ja) * 2016-07-15 2020-04-28 パナソニックIpマネジメント株式会社 画像認識システム
WO2018031678A1 (en) * 2016-08-09 2018-02-15 Nauto Global Limited System and method for precision localization and mapping
US10733460B2 (en) 2016-09-14 2020-08-04 Nauto, Inc. Systems and methods for safe route determination
JP6940612B2 (ja) 2016-09-14 2021-09-29 ナウト, インコーポレイテッドNauto, Inc. ニアクラッシュ判定システムおよび方法
WO2018085804A1 (en) 2016-11-07 2018-05-11 Nauto Global Limited System and method for driver distraction determination
JP6950170B2 (ja) 2016-11-30 2021-10-13 株式会社リコー 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム
CN107330925B (zh) * 2017-05-11 2020-05-22 北京交通大学 一种基于激光雷达深度图像的多障碍物检测和跟踪方法
WO2018229550A1 (en) 2017-06-16 2018-12-20 Nauto Global Limited System and method for adverse vehicle event determination
EP3759700B1 (en) 2018-02-27 2023-03-15 Nauto, Inc. Method for determining driving policy
JP7111586B2 (ja) * 2018-11-09 2022-08-02 株式会社Soken 物体検出装置
DE102019123430A1 (de) * 2019-09-02 2021-03-04 HELLA GmbH & Co. KGaA Verfahren und Vorrichtung zum Erfassen und Klassifizieren eines Objekts in einem Erfassungsbereich vor oder hinter einem Fahrzeug
US20230106278A1 (en) * 2020-02-21 2023-04-06 Harman International Industries, Incorporated Image processing method, apparatus, device and medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222678A (ja) * 1997-02-05 1998-08-21 Toshiba Corp 物体検出装置および物体検出方法
JP2011192092A (ja) * 2010-03-15 2011-09-29 Omron Corp 対象物追跡装置、対象物追跡方法、および制御プログラム
WO2012017650A1 (ja) * 2010-08-03 2012-02-09 パナソニック株式会社 物体検出装置、物体検出方法及びプログラム
JP2012183867A (ja) * 2011-03-03 2012-09-27 Fuji Heavy Ind Ltd 車両の運転支援装置
JP2012203669A (ja) * 2011-03-25 2012-10-22 Sony Corp 端末装置、情報処理装置、物体識別方法、プログラム及び物体識別システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4573977B2 (ja) * 1999-09-22 2010-11-04 富士重工業株式会社 監視システムの距離補正装置、および監視システムの消失点補正装置
US7225338B2 (en) * 2001-06-21 2007-05-29 Sal Khan Secure system for the identification of persons using remote searching of facial, iris and voice biometric templates
US20040207743A1 (en) * 2003-04-15 2004-10-21 Nikon Corporation Digital camera system
US8032152B2 (en) * 2007-04-19 2011-10-04 Trimble Navigation Limited Method and system for creating a flexible GIS data collection network
JP2009200713A (ja) * 2008-02-20 2009-09-03 Sony Corp 画像処理装置、画像処理方法、プログラム
EP2246806B1 (en) * 2009-04-29 2014-04-02 Autoliv Development AB Vision method and system for automatically detecting objects in front of a motor vehicle
US7978122B2 (en) * 2009-08-13 2011-07-12 Tk Holdings Inc. Object sensing system
JP2012164275A (ja) 2011-02-09 2012-08-30 Toyota Motor Corp 画像認識装置
US9681125B2 (en) * 2011-12-29 2017-06-13 Pelco, Inc Method and system for video coding with noise filtering
JP6550881B2 (ja) * 2014-07-14 2019-07-31 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222678A (ja) * 1997-02-05 1998-08-21 Toshiba Corp 物体検出装置および物体検出方法
JP2011192092A (ja) * 2010-03-15 2011-09-29 Omron Corp 対象物追跡装置、対象物追跡方法、および制御プログラム
WO2012017650A1 (ja) * 2010-08-03 2012-02-09 パナソニック株式会社 物体検出装置、物体検出方法及びプログラム
JP2012183867A (ja) * 2011-03-03 2012-09-27 Fuji Heavy Ind Ltd 車両の運転支援装置
JP2012203669A (ja) * 2011-03-25 2012-10-22 Sony Corp 端末装置、情報処理装置、物体識別方法、プログラム及び物体識別システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
和泉 圭祐、外3名: ""車載ステレオカメラを用いた障害物検出のための性能評価手法の検討"", 映像情報メディア学会技術報告, vol. 36, no. 34, JPN6018018247, 27 August 2012 (2012-08-27), JP, pages 43 - 46, ISSN: 0003849886 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017154389A1 (ja) * 2016-03-10 2017-09-14 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JPWO2017154389A1 (ja) * 2016-03-10 2019-02-28 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
US11691585B2 (en) 2016-03-10 2023-07-04 Ricoh Company, Ltd. Image processing apparatus, imaging device, moving body device control system, image processing method, and program product
WO2017163736A1 (ja) * 2016-03-22 2017-09-28 株式会社デンソー 移動軌跡検出装置、移動物体検出装置、移動軌跡検出方法
JP2017174015A (ja) * 2016-03-22 2017-09-28 株式会社デンソー 移動軌跡検出装置、移動物体検出装置、移動軌跡検出方法
US10909850B2 (en) 2016-03-22 2021-02-02 Denso Corporation Movement track detection apparatus, moving object detection apparatus, and movement track detection method
US10930162B2 (en) 2016-06-13 2021-02-23 SZ DJI Technology Co., Ltd. Unmanned aerial vehicle, delivery system, control method for unmanned aerial vehicle, and program for controlling unmanned aerial vehicle
WO2018173819A1 (ja) * 2017-03-22 2018-09-27 パナソニックIpマネジメント株式会社 画像認識装置
JP2018160049A (ja) * 2017-03-22 2018-10-11 パナソニックIpマネジメント株式会社 画像認識装置
JP2020042775A (ja) * 2018-09-06 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 障害物の検知方法、システム、コンピュータ装置、コンピュータ記憶媒体
US11042761B2 (en) 2018-09-06 2021-06-22 Baidu Online Network Technology (Beijing) Co., Ltd. Method and system for sensing an obstacle, and storage medium
JP2020061128A (ja) * 2018-10-11 2020-04-16 ティンデイ・ネットワーク・テクノロジー・(シャンハイ)・カンパニー・リミテッドTindei Network Technology (Shanghai) Co., Ltd. 二重ストリームディープラーニングニューラルネットワークを有する双眼歩行者検出システムおよびこれを利用する方法

Also Published As

Publication number Publication date
EP2838050A2 (en) 2015-02-18
JP6398347B2 (ja) 2018-10-03
EP2838050A3 (en) 2015-07-08
US20150049195A1 (en) 2015-02-19

Similar Documents

Publication Publication Date Title
JP6398347B2 (ja) 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム
CN111033512B (zh) 用于基于简单的二维平面摄像装置与自主行驶车辆通信的动作控制装置
JP4899424B2 (ja) 物体検出装置
JP6467798B2 (ja) 画像処理装置、立体物検出方法、立体物検出プログラム、および、移動体制御システム
US20160019429A1 (en) Image processing apparatus, solid object detection method, solid object detection program, and moving object control system
US8994823B2 (en) Object detection apparatus and storage medium storing object detection program
JP5999127B2 (ja) 画像処理装置
JP4692344B2 (ja) 画像認識装置
JP5760696B2 (ja) 画像認識装置
JP2005136946A (ja) 路上走行車両用のカメラ式位置認識装置および方法
JP4425642B2 (ja) 歩行者抽出装置
JP5036611B2 (ja) 画像認識装置
JP6021689B2 (ja) 車両諸元計測処理装置、車両諸元計測方法及びプログラム
JP4561346B2 (ja) 車両運動推定装置及び移動体検出装置
JP6597792B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
US9870513B2 (en) Method and device for detecting objects from depth-resolved image data
CN112513873A (zh) 根据摄像机图像识别行人的运动意图
JP2009237898A (ja) 画像認識装置
JP4937844B2 (ja) 歩行者検出装置
JP2010079582A (ja) 物体を検出する装置、方法及びプログラム
JPWO2017145634A1 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2019053625A (ja) 移動物体検出装置および移動物体検出方法
JP6572696B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP4887537B2 (ja) 車両周辺監視装置
JP2012118683A (ja) 歩行者認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180820

R151 Written notification of patent or utility model registration

Ref document number: 6398347

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees