JP5780249B2 - 画像処理装置及び、当該画像処理装置を用いた車両制御システム - Google Patents

画像処理装置及び、当該画像処理装置を用いた車両制御システム Download PDF

Info

Publication number
JP5780249B2
JP5780249B2 JP2013037715A JP2013037715A JP5780249B2 JP 5780249 B2 JP5780249 B2 JP 5780249B2 JP 2013037715 A JP2013037715 A JP 2013037715A JP 2013037715 A JP2013037715 A JP 2013037715A JP 5780249 B2 JP5780249 B2 JP 5780249B2
Authority
JP
Japan
Prior art keywords
area
score
image processing
processing apparatus
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013037715A
Other languages
English (en)
Other versions
JP2013211005A (ja
Inventor
映 酒井
映 酒井
孝行 宮原
孝行 宮原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2013037715A priority Critical patent/JP5780249B2/ja
Publication of JP2013211005A publication Critical patent/JP2013211005A/ja
Application granted granted Critical
Publication of JP5780249B2 publication Critical patent/JP5780249B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、車載カメラの画像内から歩行者を検出する技術に関する。
従来、車両走行の障害となる物体との衝突回避等を目的として、車載カメラの画像内から歩行者を検出する技術が提案されている。例えば、車載カメラの画像内から判別対象となる物体を検出し、その物体に対して歩行者の輪郭パターンを用いたニューラルネットワークの物体判別手法を適用し、歩行者を検出する技術が提案されている。
ところが、歩行者の輪郭パターンを用いたニューラルネットワークの物体判別手法では、歩行者の輪郭パターンに類似した例えば樹木などの物体を歩行者として検出する虞があり、歩行者の検出精度が低下してしまうことがある。
この課題を解決するための手法として、歩行者を構成する所定部位に関する判定を行い、各所定部位の判定出力値の総和が閾値を上回っているか否かで歩行者を判定する技術が提案されている(例えば、特許文献1参照)。例えば、頭、胴体、手、足という所定部位に関する判定を行い、各所定部位の判定出力値の総和を基に検出するという具合である。
特開2008−21034号公報
しかしながら、上記特許文献1に記載の技術には、歩行者の後ろにいる歩行者や、物陰に隠れた歩行者を精度よく検出できないという課題がある。すなわち、歩行者の頭、胴体、手、足などの所定部位のいくつかが画像内に写らない場合、その所定部位の判定出力値が小さくなることにより、判定出力値の総和が小さくなる。そのため、判定出力値の総和を基に歩行者を検出した場合、歩行者が検出されないことが懸念される。
なお、ここに挙げた課題は、歩行者に限られるものではなく、画像内の対象物を検出する場合にも同様に生じるものである。
本発明は、上述した課題を解決するためになされたものであり、その目的は、画像内の対象物を適切に検出することが可能な画像処理装置及び、当該画像処理装置を用いた車両制御システムを提供することにある。
上記目的を達成するためになされた画像処理装置(10)は、車両に搭載される撮像装置(32)からの画像に基づいて対象物を検出する。
この画像処理装置では、パーツモデル記憶手段(61)に、対象物の特徴を示す各部位であるパーツを画像内から検出可能な複数のパーツモデルが記憶されている。パーツモデルは、例えば対象物が歩行者であれば、頭部に対応する頭部パーツモデル、腕部に対応する腕部パーツモデル、腰部に対応する腰部パーツモデル、脚部に対応する脚部パーツモデルなどとして用意される。また例えば対象物が車両であれば、タイヤに対応するタイヤパーツモデル、テールライトに対応するテールライトパーツモデル、窓に対応する窓パーツモデルなどとして用意される。
このとき、パーツ領域抽出手段(51)が、パーツモデル記憶手段に記憶されたパーツモデルを用い、パーツ毎のパーツ領域を抽出する。そして、対象物領域推定手段(51)が、パーツ領域抽出手段にて抽出されたパーツ領域に基づき、対象物が存在する対象物領域を推定する。
つまり、パーツモデルを用いてパーツ毎のパーツ領域を抽出し、パーツ領域に基づいて対象物領域を推定するのである。例えば、歩行者の脚部に対応するパーツ領域だけが抽出された場合でも、当該脚部に対応するパーツ領域から歩行者を対象物とする領域を推定するという具合である。さらに、パーツ領域抽出手段は、画像内でパーツモデルを移動させ、当該パーツモデルと重なった領域であるエリアとの一致度をスコアとして算出し、スコアが予め定められた設定閾値を上回る高スコアエリアに基づき(S120)、撮像された画像内に映る複数の対象物における共通する部位を含む領域をパーツ領域として抽出する。ここで、請求項1に記載の画像処理装置では、対象物は、歩行者であり、パーツ領域抽出手段は、高スコアエリアを包含するパーツグループ領域を抽出した後(S130)、パーツグループ領域に基づいて、前記パーツ領域を抽出し、相互の距離が一定閾値以下である高スコアエリアを包含するようにパーツグループ領域を抽出し、パーツグループ領域における高スコアエリアの密集度が一定閾値以下である場合、当該パーツグループ領域を抽出対象から外すこととしている。一方、請求項2に記載の画像処理装置では、設定閾値は、パーツ毎に定められており、パーツ領域抽出手段は、高スコアエリアを包含するパーツグループ領域を抽出した後(S130)、パーツグループ領域に基づいて、前記パーツ領域を抽出し、相互の距離が一定閾値以下である前記高スコアエリアを包含するようにパーツグループ領域を抽出し、パーツグループ領域における高スコアエリアの密集度が一定閾値以下である場合、当該パーツグループ領域を抽出対象から外すこととしている。したがって、画像内の対象物を適切に検出することができる。
車両制御システムの概略構成を示すブロック図である。 歩行者検出処理を示すフローチャートである。 パーツモデルを用いた高スコアエリアの抽出を示す説明図である。 スコアマップにおけるスコアに対する設定閾値の決定を示す説明図である。 パーツグループ領域の抽出を示す説明図である。 パーツグループ領域に基づくパーツ領域の抽出及びパーツ領域のスコアの算出を示す説明図である。 パーツ領域からの歩行者領域の抽出を示す説明図である。
以下、本発明の一実施形態を図面に基づいて説明する。
本実施形態の車両制御システムは、画像処理装置10および車両制御装置20を中心に構成されている。画像処理装置10には、測距装置31および撮像装置32が接続されている。また、車両制御装置20には、スピーカ41、ブレーキ42およびステアリング43が接続されている。
画像処理装置10および車両制御装置20は、いわゆるコンピュータとして構成されている。これにより、画像処理装置10では、撮像装置32からの画像に基づき歩行者を検出し、測距装置31による距離情報に基づき、衝突危険度を判定する。これに対し、車両制御装置20は、画像処理装置10から出力される衝突危険度に応じて、スピーカ41による報知を行ったり、緊急度合が大きい場合には、ブレーキ42およびステアリング43による回避制御を行ったりする。
次に、各部の構成について具体的に説明する。
測距装置31は、レーザレーダなどとして具現化される。もちろん、ミリ波レーダなどの別の構成を用いてもよい。この測距装置31により、車両前方の物体までの距離を検知することが可能となる。
撮像装置32は、単眼カメラなどとして具現化される。この撮像装置32により、車両前方が撮像される。画像処理装置10では、上述したように、この画像に基づいて歩行者を検出する。
スピーカ41は、音声出力のための構成である。歩行者との衝突危険度が大きくなると、このスピーカ41を介して「前方に歩行者がいます」や「注意してください」などの音声が出力される。
ブレーキ42は、ブレーキの駆動装置を含み、車両制御装置20からの信号によって、車両を減速させる。また、ステアリング43は、EPS(Electric Power Steering )装置を含み、車両制御装置20からの信号によって運転者の操舵をアシストする。このような車両制御が行われるのは、歩行者との衝突危険度がさらに大きくなった場合であり、緊急性の大きい場合である。
画像処理装置10は、制御部50および記憶部60を有している。制御部50は、いわゆるマイコン(マイクロコンピュータ)として具現化される。制御部50は、機能ブロックとして、歩行者検出部51および衝突危険度判定部52を具備する。また、記憶部60は、例えばROMなどとして具現化される。もちろん、ROM以外のフラッシュメモリやHDDなどを用いてもよい。記憶部60は、パーツモデル記憶部61および衝突危険度判定テーブル記憶部62を具備している。
ここで歩行者検出部51は、撮像装置32から出力される画像内の歩行者を検出する。具体的には後述するが、画像をスキャンすることで、歩行者の各パーツを検出し、歩行者の存在とその位置を推定する。
衝突危険度判定部52は、歩行者が検出された後、当該歩行者までの距離が測距装置31にて分かるため、当該歩行者との距離に応じて衝突危険度を判定する。この衝突危険度は、車両制御装置20へ出力される。
パーツモデル記憶部61には、パーツモデルが記憶されている。パーツモデルは、歩行者の各パーツをモデル化したものであり、歩行者の各パーツの画像内における分布の検出に用いられる。本実施形態では、頭部、腕部、腰部、および、脚部をパーツとして用意する。以下では、これらのパーツに対応するパーツモデルを「頭部パーツモデル」、「腕部パーツモデル」、「腰部パーツモデル」および「脚部パーツモデル」として適宜区別する。なお、パーツモデルは、例えば、輪郭情報等の各パーツの特徴を表現する特徴ベクトルである。
衝突危険度判定テーブル記憶部62には、衝突危険度判定テーブルが記憶されている。この衝突危険度判定テーブルは、歩行者までの距離と衝突危険度とを対応付けるテーブルである。衝突危険度判定部52は、この衝突危険度判定テーブルを参照することで、衝突危険度を判定する。
車両制御装置20は、報知制御部70および車両制御部80を有している。いずれもいわゆるマイコンとして具現化される。報知制御部70は、スピーカ41を介した報知を行うための構成であり、衝突危険度が大きくなると、まずはスピーカ41を介した報知が行われる。車両制御部80は、ブレーキ42およびステアリング43を介した車両制御を行うための構成であり、衝突危険度がさらに大きくなった場合に衝突回避制御が行われる。
なお、本実施形態は、歩行者検出部51の機能としての歩行者検出処理に特徴を有する。そこで、以下では、この歩行者検出処理の詳細を説明する。歩行者検出処理は、所定時間間隔で繰り返し実行される。
図2に示すように、最初のS110では、画像入力を行う。この処理は、撮像装置32から出力される画像を入力するものである。
続くS120では、スコアマップを作成し高スコアのエリア(以下「高スコアエリア」という)を抽出する。歩行者の各パーツをモデル化したパーツモデルがパーツモデル記憶部61に記憶されることは上述したが、当該パーツモデルによって画像をスキャンすることで、スコアマップを作成する。また、設定された閾値を上回るスコアを有する高スコアエリアを抽出する。
具体的には、図3(a)に示すように、頭部パーツモデルTP1を、例えば画像の左上部分から順に、予め定められた間隔で右方向へ移動させていく。そして、画像の右端に到達したら、左端に戻し、予め定められた間隔で下方向へ移動させる。その後は、同様の移動を繰り返し、画像の右下部分まで順に移動させていく。このとき、頭部パーツモデルTP1の位置ごとに、頭部パーツモデルTP1と重なるエリアとの類似度をスコアとして記憶する。これによりパーツモデルの位置毎(エリア毎)にスコアを持つスコアマップ(不図示)が作成される。
また、相対的に遠い距離に存在する歩行者は、画像内では小さく写る。そこで、図3(b)に示すように、頭部パーツモデルTP1を縮小した頭部パーツモデルTP2を用いて同様のスコア化を行う。
なお、ここでは、歩行者が相対的に近くに存在する場合と、歩行者が相対的に遠くに存在する場合との2段階でのスキャンを説明したが、現実的には、3段階以上でスキャンすることが考えられる。また、段階的なスキャンに際し、パーツモデルを拡大/縮小するようにしてもよいし、パーツモデルの大きさはそのままで、スキャンの対象となる画像を拡大/縮小するようにしてもよい。
このようなスコアマップを作成した後、設定された閾値を越えているスコアを有するパーツモデルの位置、すなわち高スコアエリアを抽出する。これにより、図3(c)に示すように、画像内に高スコアエリアTC、TTが抽出される。なお、高スコアエリアTCは、頭部パーツモデルTP1でスキャンした場合にスコアが高くなった領域であり、高スコアエリアTTは、頭部パーツモデルTP2でスキャンした場合にスコアが高くなった領域である。なお、頭部パーツモデルの他に、腕部パーツモデル、腰部パーツモデル、および、脚部パーツモデルがあるため、各パーツモデルでのスキャンに対応して、図3(c)と同様に高スコアエリアが抽出される。
ここで、高スコアエリアを判定するための閾値の設定の一例を説明する。図4(a)では、二人の人物J1,J2が画像に写り込んでいるが、手前の人物J2の腕や脚で、奥の人物J1の腕や脚が隠れている。そこで、歩行者のパーツにも隠れやすいパーツが存在するということに着目し、図4(b)に示すように、頭部K、腕部L1,L2、腰部M、および、脚部N1,N2の各パーツにおいて、本実施形態では、隠れにくい頭部K及び腰部Mを抽出する際の閾値に比べ、腕部L1,L2及び脚部N1,N2を抽出する際の閾値を低めに設定している。
図2に戻り、S130では、パーツグループ領域を抽出する。この処理は、S120で抽出した高スコアエリアをグループ化するものである。
具体的には、図5(a)に示すように、高スコアエリアTC,TTの相互の距離及び、高スコアエリアTC,TTのサイズでグループ化する。サイズを用いて近くに存在する歩行者と遠くに存在する歩行者とを別に抽出することで、抽出精度を上げるのである。図5(a)では、高スコアエリアTCを包含するパーツグループ領域G1、及び、高スコアエリアTTを包含するパーツグループ領域G2が抽出された様子を示している。ここでいう距離とは、画像上の2D距離、又は、実空間の3D距離である(以下でも同様)。
なお、図5(b)に示すように、高スコアエリアTC,TTの相互の距離だけでグループ領域を抽出するようにしてもよい。この場合は、比較的処理が簡単になるという点で有利である。
また、高スコアエリアの密集度を考慮してパーツグループ領域を抽出するようにしてもよい。密集度が相対的に低い場合、誤検出であることが考えられるためである。具体的には、図5(c)に示すように、高スコアエリアTTの距離でグループ化し、高スコアエリアTTを包含するパーツグループ領域G4,G5を抽出する。そして、各パーツグループ領域G4,G5に含まれるエリアTTの数を当該パーツグループ領域G4,G5の面積で除して、密集度を計算する。そして、密集度が一定の閾値を越えている場合にパーツグループ領域とし、一定の閾値以下である場合には、パーツグループ領域から外す。
さらにまた、密集度に加えあるいは代えて、スコアの総和を考慮してパーツグループ領域を抽出するようにしてもよい。スコアの総和が相対的に低い場合、誤検出であることが考えられるためである。具体的には、図5(c)に示すように、高スコアエリアTTの距離でグループ化し、高スコアエリアTTを包含するパーツグループ領域G4,G5を抽出する。そして、各パーツグループ領域G4,G5に含まれる高スコアエリアTTのスコアの総和を求める。そして、スコアの総和が一定の閾値を越えている場合にパーツグループ領域とし、一定の閾値以下である場合には、パーツグループ領域から外す。
図2に戻り、S140では、パーツ領域を抽出する。この処理は、S130で抽出したパーツグループ領域を包含する外接矩形の領域を抽出するものである。このとき、距離の近いパーツグループ領域があれば、それらグループ領域を包含する外接矩形の領域を抽出する。パーツグループ領域同士の距離は、境界から境界までの最短距離としてもよいし、パーツグループ領域の中心位置の距離としてもよいし、各エリアのスコアに基づく重心位置の距離としてもよい。このような距離が一定の閾値を下回る場合に、距離が近いものと判定することが考えられる。図6は、2つのパーツグループ領域G6,G7を包含するパーツ領域Pの抽出を示している。
続くS150では、パーツ領域のスコアを算出する。この処理は、S140で抽出されたパーツ領域のスコアを算出するものである。
具体的には、パーツ領域に含まれるパーツグループ領域のスコアの総和として算出する。パーツグループ領域のスコアは、当該パーツグループ領域に含まれる高スコアエリアのスコアの総和として算出する。例えば図6では、パーツグループ領域G1,G2に含まれる高スコアエリアTTのスコアの総和としてパーツグループ領域G1,G2のスコアを算出し、パーツグループ領域G1,G2のスコアの総和としてパーツ領域Pのスコアを算出するという具合である。この場合、比較的簡単に、パーツ領域のスコアを算出することができる。
また、グループ領域G1,G2のスコアを算出する場合、高スコアエリアの「位置の近さ」を含めてスコアを算出してもよい。具体的には、図6の下部に示すように、高スコアエリアの位置pの差分和の逆数として、高スコアエリアの「位置の近さ」を定義することが考えられる。
さらにまた、高スコアエリアの「位置の近さ」に加え又は代え、パーツグループ領域にサイズの異なる高スコアエリアが含まれることを前提に、「サイズの近さ」を含め、パーツグループ領域のスコアを算出してもよい。具体的には、高スコアエリアのサイズsの差分和の逆数として、各エリアの「サイズの近さ」を定義することができる。
また、これら「位置の近さ」や「サイズの近さ」に加え又は代え、パーツグループ領域の密集度を含めてパーツグループ領域のスコアを算出してもよい。この場合の密集度は、既に上述した。
続くS160では、歩行者を検出する。この処理は、抽出したパーツ領域を基に、歩行者の存在する領域である歩行者領域を抽出するものである。パーツ領域を構成するパーツの種類及び、高スコアエリアのサイズが分かれば、歩行者領域を抽出することが可能となる。
具体的に、図7(a)に示すように頭部パーツモデルを基に抽出されたパーツ領域Pがある場合、その下に胴体部分があると推測する。また、パーツ領域Pに含まれる高スコアエリアのサイズから、胴体部分のサイズを推測する。これにより、パーツ領域Pから歩行者領域Sを推定する。なお、歩行者領域Sに含まれるパーツ領域Pのスコアが一定の閾値以下である場合、その歩行者領域Sを抽出対象から外す。
また具体的に、図7(b)に示すように、頭部パーツモデルを基に抽出された2つのパーツ領域P1,P3があり、脚部パーツモデルを基に抽出されたパーツ領域P2がある場合、その配置関係を基に、歩行者領域を検出する。例えば、パーツ領域P1,P2に含まれる高スコアエリアのサイズが同じである場合、2つのパーツ領域P1,P2は対応関係にあると考えられる。つまり、同じ歩行者集団の頭部と脚部と考えられるのである。これに対し、パーツ領域P3に含まれる高スコアエリアのサイズが他のパーツ領域P1,P2に含まれる高スコアエリアのサイズと異なっており、パーツ領域P3に対応するパーツ領域が存在しない場合、パーツ領域P3は誤検出であるとする。
そして、図7(c)に示すように、2つのパーツ領域P1,P2が対応関係にある場合、当該パーツ領域P1,P2から推定される歩行者領域S1,S2に対する外接矩形を歩行者領域S3として推定する。このとき、パーツ領域P1,P2のそれぞれのスコアの総和が一定の閾値を上回るときに、歩行者領域S3を推定する。一定の閾値以下である場合には、歩行者領域S3を抽出対象から外す。
以上、詳述したように本実施形態によれば、画像処理装置10のパーツモデル記憶部61に、歩行者の特徴を示す各部位であるパーツを画像内から検出可能な複数のパーツモデルが記憶されている。このとき、制御部50の歩行者検出部51は、撮像装置32からの画像を入力し(図2中のS110)、パーツモデル記憶部61に記憶されたパーツモデルを用い、スコアマップを作成して高スコアエリアを抽出する(S120)。これにより、パーツグループ領域を抽出し(S130)、パーツグループ領域を基に、パーツ毎のパーツ領域を抽出する(S140)。そして、抽出されたパーツ領域のスコアを算出して(S150)、歩行者が存在する歩行者領域を推定する(S160)。
つまり、パーツモデルを用いてパーツ毎のパーツ領域を抽出し、パーツ領域に基づいて歩行者領域を推定するのである。例えば、歩行者の脚部に対応するパーツ領域だけが抽出された場合でも、当該脚部に対応するパーツ領域から歩行者領域を推定するという具合である。したがって、画像内の歩行者を適切に検出することができる。
また、本実施形態では、図3(a)に示したように、画像内で頭部パーツモデルTP1を移動させ、当該頭部パーツモデルTP1と重なった領域であるエリアとの一致度をスコアとして算出してスコアマップを作成し、スコアが予め定められた設定閾値を上回る高スコアエリアを抽出する(図2中のS120)。すなわち、画像内でパーツモデルを移動させ、当該パーツモデルと重なった領域であるエリアとの一致度をスコアとして算出し、スコアが予め定められた設定閾値を上回る高スコアエリアに基づき、パーツ領域を抽出する。これにより、比較的簡単にパーツ領域を抽出することができる。
このとき、本実施形態では、歩行者のパーツにも隠れやすいパーツが存在するということに着目し、図4(b)に示したように、頭部K、腕部L1,L2、腰部M、および、脚部N1,N2の各パーツにおいて、隠れにくい頭部K及び腰部Mを抽出する際の閾値に比べ、腕部L1,L2及び脚部N1,N2を抽出する際の閾値を低めに設定している。すなわち、設定閾値をパーツ毎に定めている。これにより、各パーツを適切に検出することができる。
また、本実施形態では、高スコアエリアをグループ化してパーツグループ領域を抽出すし(図2中のS130)、パーツグループ領域に基づきパーツ領域を抽出する(S140)。これにより、より適切なパーツ領域を抽出することができる。
具体的には、図5(a)に示したように、高スコアエリアTC,TTの距離及び、高スコアエリアTC,TTのサイズでグループ化する。すなわち、相互の距離が一定閾値以下である高スコアエリアであって、相互に同様のサイズを有する高スコアエリアを包含するようにパーツグループ領域を抽出する。このように、サイズを用いて近くに存在する歩行者と遠くに存在する歩行者とを別に抽出するため、抽出精度を上げることができる。
さらにまた、本実施形態では、パーツグループ領域を包含する外接矩形領域としてパーツ領域を抽出する(図2中のS140)。外接矩形領域としてパーツ領域を抽出することにより、その後の処理が比較的簡単になるという点で有利である。
このとき、距離の近いパーツグループ領域があれば、それらグループ領域を包含する外接矩形の領域を抽出する。例えば、図6の例では、2つのパーツグループ領域G6,G7を包含するパーツ領域Pを抽出した。すなわち、相互の距離が一定閾値以下であるパーツグループ領域を包含する外接矩形領域としてパーツ領域を抽出する。これにより、歩行者が集団を形成している場合のパーツ領域を適切に抽出することができる。
また、本実施形態では、高スコアエリアのスコアの総和としてパーツグループ領域のスコアを算出し、パーツグループ領域のスコアの総和としてパーツ領域のスコアを算出する(図2中のS150)。例えば図6では、パーツグループ領域G1,G2に含まれる高スコアエリアTTのスコアの総和としてパーツグループ領域G1,G2のスコアを算出し、パーツグループ領域G1,G2のスコアの総和としてパーツ領域Pのスコアを算出する。これにより、比較的簡単に、パーツ領域のスコアを算出することができる。
さらにまた、本実施形態では、図7(a)に示したように頭部パーツモデルを基に抽出されたパーツ領域Pがある場合はその下に胴体部分があると推測し、パーツ領域Pに含まれる高スコアエリアのサイズから胴体部分のサイズを推測して、歩行者領域Sを推定する。すなわち、パーツ領域に包含される高スコアエリアのサイズに基づき対象物が存在する対象物領域(実施形態でいう歩行者領域、以下も同様)を推定する。これにより、各パーツ領域から歩行者領域を推定することができる。
しかも、図7(b)に示したように、頭部パーツモデルを基に抽出された2つのパーツ領域P1,P3があり、脚部パーツモデルを基に抽出されたパーツ領域P2がある場合、その配置関係を基に、歩行者領域を推定する。すなわち、パーツ領域同士の位置関係に基づき対象物が存在する対象物領域を推定する。これにより、より適切な歩行者領域を推定することができる。
このとき、図7(c)に示したように、2つのパーツ領域P1,P2が対応関係にある場合、当該パーツ領域P1,P2から推定される歩行者領域S1,S2に対する外接矩形を歩行者領域S3として推定する。すなわち、パーツ領域を包含する外接矩形として対象物領域を推定する。これにより、より適切な歩行者領域を推定することができる。
そして、歩行者領域の推定にあっては、歩行者領域に包含されるパーツ領域のスコアの総和が一定閾値以下である場合には、当該歩行者領域を抽出対象から外す。すなわち、パーツ領域に基づく対象物領域のスコアを算出し、当該スコアが一定閾値以下の対象物領域を抽出対象から外す。これにより、より確かな歩行者領域を推定することができる。
また、本実施形態では、歩行者領域が推定されると、衝突危険度判定部52が、測距装置31から出力される歩行者までの距離に基づき、衝突危険度を判定する。そして、この衝突危険度に基づき、車両制御装置20の報知制御部70によるスピーカ41を介した運転者への報知、および、車両制御部80によるブレーキ42、ステアリング43を介した衝突回避制御が行われる。これにより、より安全性の高い運転支援が実現される。
以上、本発明は、上述した実施形態に何ら限定されるものではなく、その技術的範囲を逸脱しない限り、種々なる形態で実施可能である。
(イ)上記実施形態では、図5(a)に示したように、高スコアエリアTC,TTの距離及び、高スコアエリアTC,TTのサイズでグループ化していた。
(イ−1)これに対し、図5(b)に示したように、高スコアエリアTC,TTの距離だけでパーツグループ領域を抽出するようにしてもよい。すなわち、相互の距離が一定閾値以下である高スコアエリアを包含するようにパーツグループ領域を抽出するようにしてもよい。このようにすれば、比較的簡単な処理でパーツグループ領域が抽出できる。
(イ−2)また、図5(c)に示したように、パーツグループ領域G4,G5に含まれるエリアTTの数を当該パーツグループ領域G4,G5の面積で除して密集度を計算し、密集度が一定の閾値を越えている場合にパーツグループ領域とし、一定の閾値以下である場合には、パーツグループ領域から外すこととしてもよい。すなわち、パーツグループ領域における高スコアエリアの密集度が一定閾値以下である場合、当該パーツグループ領域を抽出対象から外すようにしてもよい。このようにすれば、誤検出の虞が小さくなり、より精度よくパーツグループ領域を抽出することができる。
(イ−3)さらにまた、図5(c)に示した例で、パーツグループ領域G4,G5に含まれる高スコアエリアTTのスコアの総和を求め、スコアの総和が一定の閾値を越えている場合にパーツグループ領域とし、一定の閾値以下である場合には、パーツグループ領域から外すようにしてもよい。すなわち、パーツグループ領域における高スコアエリアのスコアの総和が一定閾値以下である場合、当該パーツグループ領域を抽出対象から外すようにしてもよい。このようにしても、誤検出の虞が小さくなり、より精度よくパーツグループ領域を抽出することができる。
(ロ)上記実施形態では、パーツ領域に含まれるパーツグループ領域のスコアの総和を、パーツ領域のスコアとしていた(図2中のS150)。
(ロ−1)ここでパーツグループ領域のスコアを算出するにあたり、高スコアエリアの「位置の近さ」を含めてスコアを算出してもよい。具体的には、図6の下部に示すように、高スコアエリアの位置pの差分和の逆数として、高スコアエリアの「位置の近さ」を定義することが考えられる。すなわち、パーツグループ領域のスコアを算出する際、当該パーツグループ領域に含まれる高スコアエリア同士の距離を加味してスコアを算出してもよい。このようにすれば、パーツ領域のスコアがより信頼性の大きなものとなる。
(ロ−2)また、パーツグループ領域のスコアを算出するにあたり、高スコアエリアの「位置の近さ」に加え又は代え、パーツグループ領域にサイズの異なる高スコアエリアが含まれることを前提に「サイズの近さ」を含めてスコアを算出してもよい。具体的には、図6の下部に示すように、高スコアエリアのサイズsの差分和の逆数として、各エリアの「サイズの近さ」を定義することができる。すなわち、パーツグループ領域のスコアを算出する際、当該パーツグループ領域に含まれる高スコアエリアのサイズの差分を加味してスコアを算出してもよい。このようにすれば、パーツ領域のスコアがより信頼性の大きなものとなる。
(ロ−3)さらにまた、「位置の近さ」や「サイズの近さ」に加え又は代え、パーツグループ領域における高スコアエリアの密集度を含め、パーツグループ領域のスコアを算出してもよい。すなわち、パーツグループ領域のスコアを算出する際、当該パーツグループ領域における高スコアエリアの密集度を加味してスコアを算出してもよい。このようにすれば、パーツ領域のスコアがより信頼性の大きなものとなる。
(ハ)上記実施形態では、歩行者領域(対象物領域)に含まれるパーツ領域のスコアの総和が一定閾値以下である場合、当該歩行者領域を抽出対象から外すようにしていた。これに対し、パーツ領域のスコアを算出した時点で、当該スコアが一定閾値以下である場合、当該パーツ領域を抽出対象から外すようにしてもよい。このようにすれば、信頼性が相対的に小さなパーツ領域に基づく歩行者領域の推定が行われず、より適切に歩行者領域を推定することができる。
(ニ)上記実施形態では、測距装置31から出力される歩行者までの距離に基づき、衝突危険性を判定していた。これに対し、歩行者までの距離に加え又は代え、歩行者領域(対象物領域)の位置、サイズ、および、スコアの少なくとも一つを用いて、衝突危険性を判定するようにしてもよい。
(ホ)上記実施形態では、歩行者までの距離を測距装置31にて測定していたが、測距装置31に代え、撮像装置32からの画像情報を基に距離を測定してもよい。すなわち、測距装置31を省略した構成としてもよい。もちろん、測距装置31を備えることで、精度の高い測定が可能となる。
10…画像処理装置、20…車両制御装置、31…測距装置、32…撮像装置、41…スピーカ、42…ブレーキ、43…ステアリング、50…制御部、51…歩行者検出部、52…衝突危険度判定部、60…記憶部、61…パーツモデル記憶部、62…衝突危険度判定テーブル記憶部、70…報知制御部、80…車両制御部

Claims (18)

  1. 車両に搭載される撮像装置(32)からの画像に基づいて対象物を検出する画像処理装置(10)であって、
    該対象物の各部位であるパーツを画像内から検出可能な複数のパーツモデルを記憶するパーツモデル記憶手段(61)と、
    前記パーツモデル記憶手段に記憶された前記パーツモデルを用い、前記パーツ毎のパーツ領域を抽出するパーツ領域抽出手段(51)と、
    前記パーツ領域抽出手段にて抽出された前記パーツ領域に基づき、該対象物が存在する対象物領域を推定する対象物領域推定手段(51)と、
    を備え、
    前記パーツ領域抽出手段は、前記画像内で前記パーツモデルを移動させ、当該パーツモデルと重なった領域であるエリアとの一致度をスコアとして算出し、前記スコアが予め定められた設定閾値を上回る高スコアエリアに基づき(S120)、撮像された画像内に映る複数の対象物における共通する部位を含む領域を前記パーツ領域として抽出し、
    前記対象物は、歩行者であり、
    さらに、前記パーツ領域抽出手段は、前記高スコアエリアを包含するパーツグループ領域を抽出した後(S130)、前記パーツグループ領域に基づいて、前記パーツ領域を抽出し、相互の距離が一定閾値以下である前記高スコアエリアを包含するように前記パーツグループ領域を抽出し、前記パーツグループ領域における高スコアエリアの密集度が一定閾値以下である場合、当該パーツグループ領域を抽出対象から外すこと
    を特徴とする画像処理装置。
  2. 車両に搭載される撮像装置(32)からの画像に基づいて対象物を検出する画像処理装置(10)であって、
    該対象物の各部位であるパーツを画像内から検出可能な複数のパーツモデルを記憶するパーツモデル記憶手段(61)と、
    前記パーツモデル記憶手段に記憶された前記パーツモデルを用い、前記パーツ毎のパーツ領域を抽出するパーツ領域抽出手段(51)と、
    前記パーツ領域抽出手段にて抽出された前記パーツ領域に基づき、該対象物が存在する対象物領域を推定する対象物領域推定手段(51)と、
    を備え、
    前記パーツ領域抽出手段は、前記画像内で前記パーツモデルを移動させ、当該パーツモデルと重なった領域であるエリアとの一致度をスコアとして算出し、前記スコアが予め定められた設定閾値を上回る高スコアエリアに基づき(S120)、撮像された画像内に映る複数の対象物における共通する部位を含む領域を前記パーツ領域として抽出し、
    前記設定閾値は、前記パーツ毎に定められており、
    さらに、前記パーツ領域抽出手段は、前記高スコアエリアを包含するパーツグループ領域を抽出した後(S130)、前記パーツグループ領域に基づいて、前記パーツ領域を抽出し、相互の距離が一定閾値以下である前記高スコアエリアを包含するように前記パーツグループ領域を抽出し、前記パーツグループ領域における高スコアエリアの密集度が一定閾値以下である場合、当該パーツグループ領域を抽出対象から外すこと
    を特徴とする画像処理装置。
  3. 請求項1又は2に記載の画像処理装置において、
    前記パーツ領域抽出手段は、相互に同様のサイズを有する前記高スコアエリアを包含するように前記パーツグループ領域を抽出すること
    を特徴とする画像処理装置。
  4. 請求項の何れか一項に記載の画像処理装置において、
    前記パーツ領域抽出手段は、前記パーツグループ領域における高スコアエリアのスコアの総和が一定閾値以下である場合、当該パーツグループ領域を抽出対象から外すこと
    を特徴とする画像処理装置。
  5. 請求項の何れか一項に記載の画像処理装置において、
    前記パーツ領域抽出手段は、前記パーツグループ領域を包含する外接矩形領域として前記パーツ領域を抽出すること(S140)
    を特徴とする画像処理装置。
  6. 請求項に記載の画像処理装置において、
    前記パーツ領域抽出手段は、相互の距離が一定閾値以下である前記パーツグループ領域を包含する外接矩形領域として前記パーツ領域を抽出すること
    を特徴とする画像処理装置。
  7. 請求項又はに記載の画像処理装置において、
    前記パーツ領域抽出手段は、前記外接矩形領域に包含される前記パーツグループ領域のスコアを当該パーツグループ領域に含まれる前記高スコアエリアのスコアの総和として算出し、前記パーツグループ領域のスコアの総和として前記パーツ領域のスコアであるパーツ領域スコアを算出すること(S150)
    を特徴とする画像処理装置。
  8. 請求項に記載の画像処理装置において、
    前記パーツ領域抽出手段は、前記パーツグループ領域のスコアを算出する際、当該パーツグループ領域に含まれる前記高スコアエリア同士の距離を加味してスコアを算出すること
    を特徴とする画像処理装置。
  9. 請求項又はに記載の画像処理装置において、
    前記パーツ領域抽出手段は、前記パーツグループ領域のスコアを算出する際、当該パーツグループ領域に含まれる前記高スコアエリアのサイズの差分を加味してスコアを算出すること
    を特徴とする画像処理装置。
  10. 請求項の何れか一項に記載の画像処理装置において、
    前記パーツ領域抽出手段は、前記パーツグループ領域のスコアを算出する際、当該パーツグループ領域における前記高スコアエリアの密集度を加味してスコアを算出すること
    を特徴とする画像処理装置。
  11. 請求項10の何れか一項に記載の画像処理装置において、
    前記パーツ領域抽出手段は、前記パーツ領域の前記パーツ領域スコアが一定閾値以下である場合、当該パーツ領域を抽出対象から外すこと
    を特徴とする画像処理装置。
  12. 請求項11の何れか一項に記載の画像処理装置において、
    前記対象物領域推定手段は、前記パーツ領域に包含される前記高スコアエリアのサイズに基づき対象物が存在する対象物領域を推定すること(S160)
    を特徴とする画像処理装置。
  13. 請求項12の何れか一項に記載の画像処理装置において、
    前記対象物領域推定手段は、前記パーツ領域同士の位置関係に基づき対象物が存在する対象物領域を推定すること(S160)
    を特徴とする画像処理装置。
  14. 請求項13に記載の画像処理装置において、
    前記対象物領域推定手段は、前記パーツ領域を包含する外接矩形として前記対象物領域を推定すること(S160)
    を特徴とする画像処理装置。
  15. 請求項1〜14の何れか一項に記載の画像処理装置において、
    前記対象物領域推定手段は、前記パーツ領域に基づく前記対象物領域のスコアを算出し、当該スコアが一定閾値以下の対象物領域を抽出対象から外すこと
    を特徴とする画像処理装置。
  16. 請求項1〜15の何れか一項に記載の画像処理装置において、
    前記対象物領域推定手段にて推定された前記対象物領域の位置、サイズ、スコア、及び、対象物までの距離の少なくとも一つに基づき、衝突危険度を判定する衝突危険度判定手段(52)をさらに備えていること
    を特徴とする画像処理装置。
  17. 請求項16に記載の画像処理装置と、
    前記衝突危険度判定手段にて判定された前記衝突危険度に基づき、運転者への報知を行う報知制御手段(70)を有する車両制御装置(20)と、
    を備えていることを特徴とする車両制御システム。
  18. 請求項16に記載の画像処理装置と、
    前記衝突危険度判定手段にて判定された前記衝突危険度に基づき、衝突回避制御を行う車両制御手段(80)を有する車両制御装置(20)と、
    を備えていることを特徴とする車両制御システム。
JP2013037715A 2012-02-27 2013-02-27 画像処理装置及び、当該画像処理装置を用いた車両制御システム Expired - Fee Related JP5780249B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013037715A JP5780249B2 (ja) 2012-02-27 2013-02-27 画像処理装置及び、当該画像処理装置を用いた車両制御システム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012040516 2012-02-27
JP2012040516 2012-02-27
JP2013037715A JP5780249B2 (ja) 2012-02-27 2013-02-27 画像処理装置及び、当該画像処理装置を用いた車両制御システム

Publications (2)

Publication Number Publication Date
JP2013211005A JP2013211005A (ja) 2013-10-10
JP5780249B2 true JP5780249B2 (ja) 2015-09-16

Family

ID=48951029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013037715A Expired - Fee Related JP5780249B2 (ja) 2012-02-27 2013-02-27 画像処理装置及び、当該画像処理装置を用いた車両制御システム

Country Status (2)

Country Link
JP (1) JP5780249B2 (ja)
DE (1) DE102013203300A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6382525B2 (ja) * 2014-02-10 2018-08-29 株式会社デンソー 物体識別方法、および物体識別装置
US9916508B2 (en) 2015-03-12 2018-03-13 Toyota Jidosha Kabushiki Kaisha Detecting roadway objects in real-time images
JP6411942B2 (ja) * 2015-04-23 2018-10-24 株式会社デンソー 物体認識装置
US10336326B2 (en) * 2016-06-24 2019-07-02 Ford Global Technologies, Llc Lane detection systems and methods
KR102553730B1 (ko) * 2018-03-08 2023-07-11 주식회사 에이치엘클레무브 차량의 충돌 회피 제어 장치 및 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3540494B2 (ja) * 1996-03-15 2004-07-07 株式会社東芝 協同作業調整装置及び協同作業調整方法
EP1923835A4 (en) * 2005-08-12 2017-10-25 Sony Interactive Entertainment Inc. Face image display, face image display method, and face image display program
JP2007188417A (ja) * 2006-01-16 2007-07-26 Fujitsu Ten Ltd 画像認識装置、画像認識方法および画像認識プログラム
JP2008021034A (ja) 2006-07-11 2008-01-31 Fujitsu Ten Ltd 画像認識装置、画像認識方法、歩行者認識装置および車両制御装置

Also Published As

Publication number Publication date
JP2013211005A (ja) 2013-10-10
DE102013203300A1 (de) 2013-08-29

Similar Documents

Publication Publication Date Title
JP6942712B2 (ja) コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出
US9121717B1 (en) Collision avoidance for vehicle control
JP5780249B2 (ja) 画像処理装置及び、当該画像処理装置を用いた車両制御システム
JP6720715B2 (ja) 駐車支援方法および装置
KR20180060784A (ko) 비정상 객체 판단 방법 및 장치
CN105128836A (zh) 自主紧急制动系统及其中识别行人的方法
JP5407898B2 (ja) 対象物検出装置及びプログラム
JP2007148835A (ja) 物体判別装置、報知制御装置、物体判別方法および物体判別プログラム
KR20180094055A (ko) 주차 지원 방법 및 장치
JP2008021035A (ja) 画像認識装置、画像認識方法および車両制御装置
JP2008021034A (ja) 画像認識装置、画像認識方法、歩行者認識装置および車両制御装置
JP2007188417A (ja) 画像認識装置、画像認識方法および画像認識プログラム
JPWO2014024336A1 (ja) 物体検出装置及び運転支援装置
JP6520740B2 (ja) 物体検出方法、物体検出装置、およびプログラム
JP2013225295A5 (ja)
JP5838940B2 (ja) 画像処理装置及び車両制御システム
JPWO2017187592A1 (ja) 駐車支援方法および装置
JP6597352B2 (ja) 物体認識装置
JP2010218246A (ja) 物体識別装置
CN111497741B (zh) 碰撞预警方法及装置
JP2015225546A (ja) 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム
JP2017162178A (ja) 判定装置、判定方法、および判定プログラム
JP2012220377A (ja) 物体識別装置、および物体識別プログラム
KR20140004413A (ko) 안전운전 지원 장치 및 방법
JP6815963B2 (ja) 車両用外界認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140609

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150323

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150629

R151 Written notification of patent or utility model registration

Ref document number: 5780249

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees