JP6273156B2 - Pedestrian recognition device - Google Patents

Pedestrian recognition device Download PDF

Info

Publication number
JP6273156B2
JP6273156B2 JP2014030817A JP2014030817A JP6273156B2 JP 6273156 B2 JP6273156 B2 JP 6273156B2 JP 2014030817 A JP2014030817 A JP 2014030817A JP 2014030817 A JP2014030817 A JP 2014030817A JP 6273156 B2 JP6273156 B2 JP 6273156B2
Authority
JP
Japan
Prior art keywords
partial image
image
target
pedestrian
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014030817A
Other languages
Japanese (ja)
Other versions
JP2015156120A (en
Inventor
野村 直樹
直樹 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2014030817A priority Critical patent/JP6273156B2/en
Publication of JP2015156120A publication Critical patent/JP2015156120A/en
Application granted granted Critical
Publication of JP6273156B2 publication Critical patent/JP6273156B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、検出領域に存在する対象物がいずれの特定物に対応するかを特定する歩行者認識装置に関する。   The present invention relates to a pedestrian recognition device that specifies which specific object corresponds to an object existing in a detection region.

従来、自車両の前方に位置する車両等の特定物を検出し、先行車両との衝突を回避したり(衝突回避制御)、先行車両との車間距離を安全な距離に保つように制御する(クルーズコントロール)技術が知られている。このような自車両の前方監視技術により、先行車両のみならず、歩行者との接触事故の回避や軽減にも効果が期待されている。   Conventionally, a specific object such as a vehicle positioned in front of the host vehicle is detected, and a collision with a preceding vehicle is avoided (collision avoidance control), or the distance between the preceding vehicle and the preceding vehicle is controlled to be a safe distance ( (Cruise Control) technology is known. Such a forward monitoring technology for the host vehicle is expected to be effective not only for the preceding vehicle but also for avoiding and reducing contact accidents with pedestrians.

歩行者の検出技術としては、例えば、ステレオ画像処理によって生成された距離画像を用いて、画像中の道路表面を特定し、道路から所定の高さに位置する画像のブロック群の形状によって歩行者を特定する技術が公開されている(例えば、特許文献1)。この技術では、ブロック群を、高さ方向の上部と下部に分割し、下部の画像のエッジが人の下半身の形状に類似するかを判定することで、歩行者の検出精度を向上させている。   As a pedestrian detection technique, for example, a road surface in an image is specified using a distance image generated by stereo image processing, and a pedestrian is determined based on the shape of a block group of an image located at a predetermined height from the road. A technique for identifying the above has been disclosed (for example, Patent Document 1). In this technology, the block group is divided into an upper part and a lower part in the height direction, and the detection accuracy of the pedestrian is improved by determining whether the edge of the lower image is similar to the shape of the lower body of a person. .

また、ステレオ画像処理によって生成された距離画像を用いて物体を検出する際、検出対象として想定される物体の種類に応じて、物体を特定する条件を予め複数設けておく技術が提案されている(例えば、特許文献2)。さらに、自車両の外界の照度や、可視画像と赤外線画像それぞれからエッジを検出して、エッジ同士の差分を評価して歩行者を検出する処理が公開されている(例えば、特許文献3)。   In addition, when detecting an object using a distance image generated by stereo image processing, a technique has been proposed in which a plurality of conditions for specifying an object are provided in advance according to the type of object assumed as a detection target. (For example, patent document 2). Furthermore, the process which detects an illuminant of the external field of the own vehicle, each edge from a visible image and an infrared image, evaluates the difference between edges, and detects a pedestrian is disclosed (for example, patent document 3).

特開2013−109720号公報JP 2013-109720 A 特開2008−45974号公報JP 2008-45974 A 特開2007−259076号公報JP 2007-259076 A

車両が高速で走行している場合、歩行者が車両前方の遠方に位置していても、歩行者に接近するまでの時間が短時間となることから、衝突を回避すべく、歩行者を早期に検出して制動制御などを開始する必要がある。しかし、歩行者が遠方に位置していると、撮像装置などから取得される歩行者の画像は小さすぎるので、画像のエッジを評価しても歩行者の形状に類似しない場合が多い。そのため、従来の技術では、遠方の歩行者については検出精度を高くできず、歩行者を早期に検出することが困難であった。   When the vehicle is traveling at high speed, it takes a short time to approach the pedestrian, even if the pedestrian is located far in front of the vehicle. Therefore, it is necessary to start braking control and the like. However, if the pedestrian is located far away, the image of the pedestrian acquired from the imaging device or the like is too small, and thus the shape of the pedestrian is often not similar even if the edge of the image is evaluated. Therefore, in the conventional technology, it is difficult to detect the pedestrian at an early stage because the detection accuracy cannot be increased for a pedestrian far away.

本発明は、このような課題に鑑み、車両前方の遠方に位置する障害物を早期かつ高精度に検出することが可能な、歩行者認識装置を提供することを目的としている。   In view of such a problem, an object of the present invention is to provide a pedestrian recognition device capable of detecting an obstacle located far in front of a vehicle with high accuracy at an early stage.

上記課題を解決するために、本発明の歩行者認識装置は、検出領域を撮像した撮像画像における複数の対象部位の実空間における3次元位置を導出する3次元位置導出部と、3次元位置の差分が所定範囲内にある対象部位同士をグループ化して、撮像画像における対象物が含まれる部分画像を特定する部分画像特定部と、部分画像を構成する構成部位の輝度および色差に基づいて部分画像の輝度平均値または色差平均値の少なくとも一方を対象平均として導出するとともに、部分画像に隣接する複数の構成部位を参照画像とし、参照画像を構成する構成部位の輝度または色差に基づいて参照画像の輝度平均値または色差平均値の少なくとも一方を背景平均として導出し、対象平均および背景平均を用いて部分画像を構成する構成部位のうち背景を示す構成部位および対象物を示す構成部位の少なくとも一方を特定する対象背景特定部と、部分画像における背景を示す構成部位および対象物を示す構成部位の少なくとも一方が水平方向に連続するグループの数、または、一方の数の分布に基づいて、対象物が歩行者か否かを判定する歩行者判定部と、を備えることを特徴とする。
対象背景特定部は、部分画像について、複数のブロックに分割して正規化し、ブロックを構成部位としてもよい。
上記課題を解決するために、本発明の他の歩行者認識装置は、検出領域を撮像した撮像画像における複数の対象部位の実空間における3次元位置を導出する3次元位置導出部と、3次元位置の差分が所定範囲内にある対象部位同士をグループ化して、撮像画像における対象物が含まれる部分画像を特定する部分画像特定部と、部分画像を分割して正規化した複数のブロックを、部分画像を構成する構成部位として、ブロックの輝度および色差に基づいて部分画像の輝度平均値または色差平均値の少なくとも一方を対象平均として導出するとともに、部分画像に隣接する複数のブロックを参照画像とし、参照画像を構成するブロックの輝度または色差に基づいて参照画像の輝度平均値または色差平均値の少なくとも一方を背景平均として導出し、対象平均および背景平均を用いて部分画像を構成するブロックのうち背景を示すブロックおよび対象物を示すブロックの少なくとも一方を特定する対象背景特定部と、部分画像における背景を示すブロックおよび対象物を示すブロックの少なくとも一方の分布に基づいて、垂直方向の位置が低いブロックの分布の方が、垂直方向の位置が高いブロックの分布よりも、大きな重み付けをして、対象物が歩行者か否かを判定する歩行者判定部と、を備えることを特徴とする。
In order to solve the above-described problem, a pedestrian recognition apparatus according to the present invention includes a three-dimensional position deriving unit that derives a three-dimensional position in a real space of a plurality of target parts in a captured image obtained by capturing a detection region, Grouping target parts whose differences are within a predetermined range to specify a partial image specifying unit for specifying a partial image including the target object in the captured image, and a partial image based on the luminance and color difference of the constituent parts constituting the partial image Is derived as a target average, and a plurality of components adjacent to the partial image are used as reference images, and the reference image is determined based on the luminance or color difference of the components constituting the reference image. At least one of the luminance average value or the color difference average value is derived as the background average, and the back of the components constituting the partial image using the target average and the background average. The number of groups and the target background specifying unit configured to specify at least one of the constituent parts showing the component parts and the object, at least one of the component part showing the component parts and the object indicating the background in the partial image is horizontally continuous shows the Or a pedestrian determination unit that determines whether or not the object is a pedestrian based on the distribution of one of the numbers .
The target background specifying unit may divide and normalize the partial image into a plurality of blocks and use the blocks as constituent parts.
In order to solve the above-described problem, another pedestrian recognition apparatus according to the present invention includes a three-dimensional position deriving unit that derives a three-dimensional position in a real space of a plurality of target parts in a captured image obtained by imaging a detection region, and a three-dimensional Grouping target parts whose positional differences are within a predetermined range, and specifying a partial image specifying unit for specifying a partial image including the target object in the captured image, and a plurality of blocks obtained by dividing and normalizing the partial image, As a component constituting the partial image, at least one of the luminance average value or the color difference average value of the partial image is derived as a target average based on the luminance and color difference of the block, and a plurality of blocks adjacent to the partial image are used as reference images. Based on the luminance or color difference of the blocks constituting the reference image, at least one of the average luminance value or the average color difference value of the reference image is derived as the background average. A target background specifying unit for specifying at least one of a block indicating a background and a block indicating an object among blocks constituting the partial image using the target average and the background average, and a block and an object indicating the background in the partial image are indicated. Based on the distribution of at least one of the blocks, the distribution of blocks with a low vertical position is weighted more than the distribution of blocks with a high vertical position to determine whether the object is a pedestrian or not. And a pedestrian determination unit for determining.

対象背景特定部は、撮像画像の垂直方向の位置が等しく水平方向に並んだ複数の画素の中から、部分画像を構成する画素と、参照画像を構成する画素とを選択し、選択した画素に基づいて導出した対象平均および背景平均を用いて閾値を導出し、部分画像を構成する各構成部位の輝度または色差を閾値と比較することで、部分画像を構成する構成部位が背景を示す構成部位であるか、もしくは、対象物を示す構成部位であるかを特定してもよい。   The target background specifying unit selects a pixel constituting the partial image and a pixel constituting the reference image from a plurality of pixels having the same vertical position in the captured image and arranged in the horizontal direction. A component that shows the background of the component part that constitutes the partial image by deriving a threshold value using the target average and the background average derived based on this, and comparing the luminance or color difference of each component part that constitutes the partial image with the threshold value Or a constituent part indicating the object may be specified.

歩行者判定部は、部分画像に含まれる対象物が撮像画像の取得位置から所定距離未満の位置にある場合、対象物の輪郭形状に基づいて、対象物が歩行者か否かを判定し、部分画像に含まれる対象物が撮像画像の取得位置から所定距離以上離れている場合、部分画像における背景を示す構成部位および対象物を示す構成部位の少なくとも一方の分布に基づいて、対象物が歩行者か否かを判定してもよい。   The pedestrian determination unit determines whether or not the target object is a pedestrian based on the contour shape of the target object when the target object included in the partial image is at a position less than a predetermined distance from the acquisition position of the captured image. When the target object included in the partial image is at least a predetermined distance from the acquisition position of the captured image, the target object walks based on the distribution of at least one of the constituent part indicating the background and the constituent part indicating the target object in the partial image. It may be determined whether the person is a person.

本発明によれば、車両前方の遠方に位置する歩行者を早期かつ高精度に検出することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to detect the pedestrian located far ahead of a vehicle with high precision early.

環境認識システムの接続関係を示したブロック図である。It is the block diagram which showed the connection relation of the environment recognition system. 車外環境認識装置の概略的な機能を示した機能ブロック図である。It is the functional block diagram which showed the schematic function of the external environment recognition apparatus. カラー画像と距離画像を説明するための説明図である。It is explanatory drawing for demonstrating a color image and a distance image. 歩行者特定処理を説明するための第1の図である。It is a 1st figure for demonstrating a pedestrian specific process. 歩行者特定処理を説明するための第2の図である。It is a 2nd figure for demonstrating a pedestrian specific process. 歩行者特定処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of a pedestrian specific process.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

近年では、車両に搭載した車載カメラによって自車両の前方の道路環境を撮像し、画像内における色情報や位置情報に基づいて先行車両等の対象物を特定し、特定された対象物との衝突を回避したり、先行車両との車間距離を安全な距離に保つ(ACC:Adaptive Cruise Control)、所謂衝突防止機能を搭載した車両が普及しつつある。かかる衝突防止機能では、自車両前方の様々な障害物を特定し、それが静止している対象物であるか、それとも移動を伴った対象物であるかに応じて適切に回避制御を行っている。移動を伴う対象物としては、主として車両や歩行者が想定されるが、特に、歩行者は検出領域に様々な方向から突然出現する可能性があり、また、その絶対的な大きさも車両と比較して小さいので、特定が困難、または、特定に時間を要するという問題があった。   In recent years, an in-vehicle camera mounted on a vehicle images a road environment ahead of the host vehicle, identifies an object such as a preceding vehicle based on color information and position information in the image, and collides with the identified object. Vehicles equipped with a so-called anti-collision function, which avoids the above-mentioned problem and keeps the inter-vehicle distance from the preceding vehicle at a safe distance (ACC: Adaptive Cruise Control), are becoming popular. With such a collision prevention function, various obstacles ahead of the host vehicle are identified, and avoidance control is appropriately performed depending on whether the object is a stationary object or a moving object. Yes. Vehicles and pedestrians are mainly assumed as objects with movement, but in particular, pedestrians may suddenly appear in various directions in the detection area, and their absolute size is also compared with that of vehicles. Therefore, there is a problem that it is difficult to specify or it takes time to specify.

例えば、対象物の外観とパターンマッチングを行うことで対象物を歩行者と特定する技術を用いたとしても、歩行者であるとの誤認識による車両の誤作動を回避すべく、複数のフレームに亘って外観がマッチングしたことをもって歩行者と特定しなければならない。したがって、歩行者の特定には長時間が費やされることになる。そこで、本実施形態では、対象物の外観に関する外観情報のみならず、その色に関する色情報にも着目し、早期に歩行者らしさを判定することで、車両前方の遠方に位置する歩行者を早期かつ高精度に検出することを目的としている。以下、このような目的を達成するための環境認識システムを説明し、その具体的な構成要素である車外環境認識装置(歩行者認識装置)を詳述する。   For example, even if technology that identifies an object as a pedestrian by performing pattern matching with the appearance of the object is used, multiple frames can be used to avoid malfunction of the vehicle due to erroneous recognition that the object is a pedestrian. It must be identified as a pedestrian when the appearance matches. Therefore, it takes a long time to specify the pedestrian. Therefore, in the present embodiment, not only the appearance information related to the appearance of the target object but also the color information related to the color is used, and the pedestrian located far away in front of the vehicle is determined early by determining the pedestrian-likeness at an early stage. And it aims at detecting with high precision. Hereinafter, an environment recognition system for achieving such an object will be described, and a vehicle exterior environment recognition device (pedestrian recognition device) as a specific component will be described in detail.

(環境認識システム100)
図1は、環境認識システム100の接続関係を示したブロック図である。環境認識システム100は、車両1内に設けられた、撮像装置110と、車外環境認識装置120(歩行者認識装置)と、車両制御装置(ECU:Engine Control Unit)130とを含んで構成される。
(Environment recognition system 100)
FIG. 1 is a block diagram showing a connection relationship of the environment recognition system 100. The environment recognition system 100 includes an imaging device 110, an outside vehicle environment recognition device 120 (pedestrian recognition device), and a vehicle control device (ECU: Engine Control Unit) 130 provided in the vehicle 1. .

撮像装置110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、車両1の前方に相当する環境を撮像し、3つの色相(R(赤)、G(緑)、B(青))からなるカラー画像を生成することができる。ここでは、撮像装置110で撮像されたカラー画像を、後述する距離画像と区別する。   The imaging device 110 is configured to include an imaging element such as a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor). The imaging device 110 captures an environment corresponding to the front of the vehicle 1 and captures three hues (R (red ), G (green), and B (blue)). Here, the color image picked up by the image pickup apparatus 110 is distinguished from a distance image described later.

また、撮像装置110は、車両1の進行方向側において2つの撮像装置110それぞれの光軸が略平行になるように、略水平方向に離隔して配置される。撮像装置110は、車両1の前方の検出領域に存在する対象物を撮像した画像データを、例えば1/60秒のフレーム毎(60fps)に連続して生成する。ここで、認識する対象物は、車両、歩行者、信号機、道路(進行路)、ガードレール、建物といった独立して存在する立体物のみならず、テールランプやウィンカー、信号機の各点灯部分等、立体物の一部として特定できる物も含む。以下の実施形態における各機能部は、このような画像データの更新を契機としてフレーム毎に各処理を遂行する。   In addition, the imaging devices 110 are arranged in a substantially horizontal direction so that the optical axes of the two imaging devices 110 are substantially parallel on the traveling direction side of the vehicle 1. The imaging device 110 continuously generates image data obtained by imaging an object existing in a detection area in front of the vehicle 1, for example, every 1/60 second frame (60 fps). Here, the objects to be recognized are not only three-dimensional objects such as vehicles, pedestrians, traffic lights, roads (travel paths), guardrails, and buildings, but also three-dimensional objects such as taillights, blinkers, and lighting parts of traffic lights. The thing which can be specified as a part of is also included. Each functional unit in the following embodiment performs each process for each frame in response to such update of the image data.

車外環境認識装置120は、2つの撮像装置110それぞれから画像データを取得し、所謂パターンマッチングを用いて視差を導き出し、導出された視差情報(後述する奥行距離に相当)を画像データに対応付けて距離画像を生成する。カラー画像および距離画像については後ほど詳述する。また、車外環境認識装置120は、カラー画像に基づく輝度および色差、並びに、距離画像に基づく車両1との奥行距離を用いて、車両1前方の検出領域における対象物がいずれの特定物に対応するかを特定する。   The vehicle exterior environment recognition device 120 acquires image data from each of the two imaging devices 110, derives parallax using so-called pattern matching, and associates the derived parallax information (corresponding to a depth distance described later) with the image data. Generate a distance image. The color image and the distance image will be described in detail later. Further, the outside-vehicle environment recognition device 120 uses the brightness and color difference based on the color image and the depth distance from the vehicle 1 based on the distance image to correspond to any specific object in the detection area in front of the vehicle 1. To identify.

また、車外環境認識装置120は、特定物を特定すると、その特定物(例えば、先行車両)を追跡しつつ、特定物の相対速度等を導出し、特定物と車両1とが衝突する可能性が高いか否かの判定を行う。ここで、衝突の可能性が高いと判定した場合、車外環境認識装置120は、その旨、運転者の前方に設置されたディスプレイ122を通じて運転者に警告表示(報知)を行うとともに、車両制御装置130に対して、その旨を示す情報を出力する。   Further, when the outside environment recognition device 120 identifies a specific object, the specific object (for example, a preceding vehicle) is tracked and the relative speed of the specific object is derived, and the specific object and the vehicle 1 may collide. It is determined whether or not is high. Here, when it is determined that the possibility of the collision is high, the outside environment recognition device 120 displays a warning (notification) to the driver through the display 122 installed in front of the driver, and the vehicle control device. Information indicating that is output to 130.

車両制御装置130は、ステアリングホイール132、アクセルペダル134、ブレーキペダル136を通じて運転者の操作入力を受け付け、操舵機構142、駆動機構144、制動機構146に伝達することで車両1を制御する。また、車両制御装置130は、車外環境認識装置120の指示に従い、駆動機構144、制動機構146を制御する。   The vehicle control device 130 receives a driver's operation input through the steering wheel 132, the accelerator pedal 134, and the brake pedal 136, and controls the vehicle 1 by transmitting it to the steering mechanism 142, the drive mechanism 144, and the brake mechanism 146. In addition, the vehicle control device 130 controls the drive mechanism 144 and the braking mechanism 146 in accordance with instructions from the outside environment recognition device 120.

以下、車外環境認識装置120の構成について詳述する。ここでは、本実施形態に特徴的な、対象物を歩行者と特定する手順について詳細に説明し、本実施形態の特徴と無関係の構成については説明を省略する。   Hereinafter, the configuration of the outside environment recognition device 120 will be described in detail. Here, the procedure for identifying an object as a pedestrian, which is characteristic of the present embodiment, will be described in detail, and the description of the configuration unrelated to the features of the present embodiment will be omitted.

(車外環境認識装置120)
図2は、車外環境認識装置120の概略的な機能を示した機能ブロック図である。図2に示すように、車外環境認識装置120は、I/F部150と、データ保持部152と、中央制御部154とを含んで構成される。
(Vehicle environment recognition device 120)
FIG. 2 is a functional block diagram showing a schematic function of the outside environment recognition device 120. As shown in FIG. 2, the vehicle exterior environment recognition device 120 includes an I / F unit 150, a data holding unit 152, and a central control unit 154.

I/F部150は、撮像装置110や車両制御装置130との双方向の情報交換を行うためのインターフェースである。データ保持部152は、RAM、フラッシュメモリ、HDD等で構成され、以下に示す各機能部の処理に必要な様々な情報を保持し、また、撮像装置110から受信した画像データを一時的に保持する。   The I / F unit 150 is an interface for performing bidirectional information exchange with the imaging device 110 and the vehicle control device 130. The data holding unit 152 includes a RAM, a flash memory, an HDD, and the like. The data holding unit 152 holds various pieces of information necessary for the processing of each function unit described below, and temporarily holds image data received from the imaging device 110. To do.

中央制御部154は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路で構成され、システムバス156を通じて、I/F部150、データ保持部152等を制御する。また、本実施形態において、中央制御部154は、画像処理部160、3次元位置導出部162、部分画像特定部164、対象背景特定部166、歩行者判定部168としても機能する。以下、このような機能部について大凡の目的を踏まえ、画像処理、部分画像特定処理、歩行者特定処理といった順に詳細な動作を説明する。   The central control unit 154 is configured by a semiconductor integrated circuit including a central processing unit (CPU), a ROM storing a program, a RAM as a work area, and the like, and through the system bus 156, an I / F unit 150, a data holding unit 152 and the like are controlled. In the present embodiment, the central control unit 154 also functions as an image processing unit 160, a three-dimensional position deriving unit 162, a partial image specifying unit 164, a target background specifying unit 166, and a pedestrian determining unit 168. In the following, detailed operations of such functional units will be described in the order of image processing, partial image specifying processing, pedestrian specifying processing, based on the general purpose.

(画像処理)
画像処理部160は、2つの撮像装置110それぞれから画像データを取得し、一方の画像データから任意に抽出したブロック(例えば水平4画素×垂直4画素の配列)に対応するブロックを他方の画像データから検索する、所謂パターンマッチングを用いて視差を導き出す。ここで、「水平」は画面横方向を示し、「垂直」は画面縦方向を示す。
(Image processing)
The image processing unit 160 acquires image data from each of the two imaging devices 110, and selects a block corresponding to a block arbitrarily extracted from one image data (for example, an array of horizontal 4 pixels × vertical 4 pixels) as the other image data. The parallax is derived using so-called pattern matching that is searched from the above. Here, “horizontal” indicates the horizontal direction of the screen, and “vertical” indicates the vertical direction of the screen.

このパターンマッチングとしては、2つの画像データ間において、任意の画像位置を示すブロック単位で輝度(Y色差信号)を比較することが考えられる。例えば、輝度の差分をとるSAD(Sum of Absolute Difference)、差分を2乗して用いるSSD(Sum of Squared intensity Difference)や、各画素の輝度から平均値を引いた分散値の類似度をとるNCC(Normalized Cross Correlation)等の手法がある。画像処理部160は、このようなブロック単位の視差導出処理を検出領域(例えば水平600画素×垂直180画素)に映し出されている全てのブロックについて行う。ここでは、ブロックを水平4画素×垂直4画素としているが、ブロック内の画素数は任意に設定することができる。以下、かかる視差情報を導出する単位となるブロックを視差ブロックと称する。   As this pattern matching, it is conceivable to compare the luminance (Y color difference signal) in units of blocks indicating an arbitrary image position between two pieces of image data. For example, SAD (Sum of Absolute Difference) that takes the difference in luminance, SSD (Sum of Squared Intensity Difference) that uses the difference squared, or NCC that takes the similarity of the variance value obtained by subtracting the average value from the luminance of each pixel There are methods such as (Normalized Cross Correlation). The image processing unit 160 performs such a block-unit parallax derivation process for all blocks displayed in the detection area (for example, horizontal 600 pixels × vertical 180 pixels). Here, the block is assumed to be horizontal 4 pixels × vertical 4 pixels, but the number of pixels in the block can be arbitrarily set. Hereinafter, a block that is a unit for deriving such parallax information is referred to as a parallax block.

ただし、画像処理部160では、検出分解能単位である視差ブロック毎に視差を導出することはできるが、その視差ブロックがどのような対象物の一部であるかを認識できない。したがって、視差情報は、対象物単位ではなく、検出領域における検出分解能単位(例えば視差ブロック単位)で独立して導出されることとなる。ここでは、このようにして導出された視差情報(後述する奥行距離に相当)を画像データに対応付けた画像を距離画像という。   However, the image processing unit 160 can derive the parallax for each parallax block that is a unit of detection resolution, but cannot recognize what kind of target object the parallax block is. Therefore, the parallax information is derived independently not in units of objects but in units of detection resolution (for example, units of parallax blocks) in the detection region. Here, an image in which the parallax information derived in this way (corresponding to a depth distance described later) is associated with image data is referred to as a distance image.

図3は、カラー画像210と距離画像212を説明するための説明図である。例えば、2つの撮像装置110を通じ、検出領域214について図3(a)のようなカラー画像(画像データ)210が生成されたとする。ただし、ここでは、理解を容易にするため、撮像装置110それぞれが生成した2つのカラー画像210の一方のみを模式的に示している。本実施形態において、画像処理部160は、このようなカラー画像210から視差ブロック毎の視差を求め、図3(b)のような距離画像212を形成する。距離画像212における各視差ブロックには、その視差ブロックの視差が関連付けられている。ここでは、説明の便宜上、視差が導出された視差ブロックを黒のドットで表している。   FIG. 3 is an explanatory diagram for explaining the color image 210 and the distance image 212. For example, it is assumed that a color image (image data) 210 as shown in FIG. 3A is generated for the detection region 214 through the two imaging devices 110. However, for ease of understanding, only one of the two color images 210 generated by each of the imaging devices 110 is schematically shown here. In the present embodiment, the image processing unit 160 obtains the parallax for each parallax block from such a color image 210, and forms a distance image 212 as shown in FIG. Each parallax block in the distance image 212 is associated with the parallax of the parallax block. Here, for convenience of explanation, the parallax block from which the parallax is derived is represented by black dots.

図2に戻って説明すると、3次元位置導出部162は、画像処理部160で生成された距離画像212に基づいて検出領域214内の視差ブロック毎の視差情報を、所謂ステレオ法を用いて、水平距離、高さおよび奥行距離を含む実空間における3次元の位置情報に変換する。ここで、ステレオ法は、三角測量法を用いることで、対象部位の距離画像212における視差からその対象部位の撮像装置110に対する奥行距離を導出する方法である。このとき、3次元位置導出部162は、対象部位の奥行距離と、対象部位と同奥行距離にある道路表面上の点と対象部位との距離画像212上の検出距離とに基づいて、対象部位の道路表面からの高さを導出する。そして、導出された3次元位置情報を改めて距離画像212に対応付ける。かかる奥行距離の導出処理や3次元位置の特定処理は、様々な公知技術を適用できるので、ここでは、その説明を省略する。   Returning to FIG. 2, the three-dimensional position deriving unit 162 uses the so-called stereo method to calculate disparity information for each disparity block in the detection region 214 based on the distance image 212 generated by the image processing unit 160. The information is converted into three-dimensional position information in real space including the horizontal distance, height, and depth distance. Here, the stereo method is a method of deriving the depth distance of the target part with respect to the imaging device 110 from the parallax in the distance image 212 of the target part by using a triangulation method. At this time, the three-dimensional position deriving unit 162 determines the target part based on the depth distance of the target part and the detected distance on the distance image 212 between the point on the road surface and the target part at the same depth distance as the target part. The height from the road surface is derived. Then, the derived three-dimensional position information is associated with the distance image 212 again. Since various known techniques can be applied to the depth distance deriving process and the three-dimensional position specifying process, description thereof is omitted here.

(部分画像特定処理)
部分画像特定部164は、距離画像212に基づく3次元の位置情報を用いて検出領域214における対象部位(画素やブロック)同士をグループ化して、一部に対象物が含まれた部分画像を特定する。具体的に、部分画像特定部164は、任意の対象部位を基点として、その対象部位と、水平距離の差分、高さの差分、および、奥行距離の差分が予め定められた所定範囲内にある他の対象部位をグループ化し、その対象部位も一体的な部分画像とする。ここで、所定範囲は実空間上の距離で表され、任意の値(例えば、1.0m等)に設定することができる。また、部分画像特定部164は、グループ化により新たに追加された対象部位に関しても、その対象部位を基点として、水平距離の差分、高さの差分、および、奥行距離の差分が所定範囲内にある他の対象部位をグループ化する。結果的に、距離が所定範囲内であれば、それら全ての対象部位が、対象物が示された部分画像としてグループ化されることとなる。
(Partial image identification processing)
The partial image specifying unit 164 groups the target parts (pixels and blocks) in the detection region 214 using the three-dimensional position information based on the distance image 212, and specifies a partial image that includes the target object in part. To do. Specifically, the partial image specifying unit 164 uses an arbitrary target part as a base point, and the difference between the target part, the horizontal distance, the height difference, and the depth distance is within a predetermined range. Other target parts are grouped, and the target parts are also integrated into a partial image. Here, the predetermined range is represented by a distance in the real space, and can be set to an arbitrary value (for example, 1.0 m). Further, the partial image specifying unit 164 also sets the difference in the horizontal distance, the difference in the height, and the difference in the depth distance within a predetermined range with respect to the target part newly added by the grouping, with the target part as a base point. Group some other target area. As a result, if the distance is within the predetermined range, all of the target parts are grouped as a partial image showing the target object.

(歩行者特定処理)
図4および図5は、歩行者特定処理を説明するための図である。歩行者特定処理では、対象部位をグループ化した対象物の外観に基づいて、対象物が歩行者であるか否か判定される。歩行者が車両1に近い場合、歩行者判定部168は、エッジを強調して、輪郭形状をモデル形状と比較することで、歩行者を特定する。
(Pedestrian identification processing)
4 and 5 are diagrams for explaining the pedestrian identification process. In the pedestrian identification process, it is determined whether or not the target object is a pedestrian based on the appearance of the target object grouped by the target part. When the pedestrian is close to the vehicle 1, the pedestrian determination unit 168 identifies the pedestrian by enhancing the edge and comparing the contour shape with the model shape.

一方、図4(a)に示すように、歩行者(ここでは、対象物220)が車両1(撮像画像の取得位置)から遠いと、撮像装置110から取得されるカラー画像210において、当該歩行者の画像が小さくなり輪郭形状からの歩行者の特定が困難となる。例えば、本来、図4(b)に示すように、輪郭形状から明確に歩行者と判別可能な画像216aが、図4(c)に示すように、細かな輪郭形状が潰れて粗い形状の画像216bとなってしまう。   On the other hand, as shown in FIG. 4A, when the pedestrian (here, the object 220) is far from the vehicle 1 (captured image acquisition position), the gait in the color image 210 acquired from the imaging device 110. A person's image becomes small and it becomes difficult to specify a pedestrian from a contour shape. For example, as shown in FIG. 4B, an image 216a that can be clearly identified as a pedestrian from the contour shape is originally an image having a rough shape with a fine contour shape collapsed as shown in FIG. 4C. 216b.

そこで、本実施形態では、対象物220が所定距離以上離れているとき、対象背景特定部166による画像処理が行われる。   Therefore, in the present embodiment, when the object 220 is separated by a predetermined distance or more, image processing by the target background specifying unit 166 is performed.

図4(d)に示すように、上記の部分画像特定部164は、矩形の部分画像222aを生成する。対象部位(ここでは、視差ブロック)がグループ化された部分画像222bが全体として矩形でない場合、矩形となるように隣接する視差ブロック224を追加して矩形形状にグループ化する。その結果、部分画像222aは、各列の垂直方向のブロック数が等しくなり、かつ、各列の水平方向のブロック数が等しくなる。   As shown in FIG. 4D, the partial image specifying unit 164 generates a rectangular partial image 222a. When the partial image 222b in which the target parts (here, parallax blocks) are grouped is not rectangular as a whole, adjacent parallax blocks 224 are added and grouped into a rectangular shape so as to be rectangular. As a result, in the partial image 222a, the number of blocks in the vertical direction of each column is equal, and the number of blocks in the horizontal direction of each column is equal.

対象背景特定部166は、図4(e)に示すように、部分画像222aを構成する視差ブロックの各行ごとに、部分画像222aから水平方向に隣接する4ブロック、左右に計8ブロックを、部分画像222aの垂直方向の高さ分、選択する。以下、選択された視差ブロックを、参照画像226と称する。すなわち、対象背景特定部166は、視差ブロックの垂直方向の位置が等しく水平方向に並んだ複数の画素の中から、部分画像222aを構成する画素と、参照画像226の画素とを選択することとなる。   As shown in FIG. 4E, the target background specifying unit 166 includes, for each row of the parallax blocks constituting the partial image 222a, four blocks adjacent in the horizontal direction from the partial image 222a and a total of eight blocks on the left and right sides. The image 222a is selected by the vertical height. Hereinafter, the selected parallax block is referred to as a reference image 226. That is, the target background specifying unit 166 selects a pixel constituting the partial image 222a and a pixel of the reference image 226 from a plurality of pixels in which the vertical positions of the parallax blocks are equally aligned in the horizontal direction. Become.

そして、対象背景特定部166は、各行ごとの部分画像222aおよび参照画像226それぞれについて、輝度の平均値、および、色差の平均値を導出する。ここでは、例えば、YUV色空間で表される色情報のうち、輝度Yと色差U(輝度Yと青色成分との差)を用いる。   Then, the target background identification unit 166 derives an average value of luminance and an average value of color differences for each of the partial image 222a and the reference image 226 for each row. Here, for example, the luminance Y and the color difference U (difference between the luminance Y and the blue component) are used in the color information expressed in the YUV color space.

上記のように、部分画像特定部164は、視差ブロックがグループ化された部分画像222bが全体として矩形でない場合、矩形となるように隣接する視差ブロック224を追加して矩形形状にグループ化して、部分画像222aを生成する。そのため、部分画像222aには、隣接する視差ブロック224など、対象物220が含まれていない可能性が高い視差ブロックが含まれる。そこで、対象背景特定部166は、例えば、部分画像222aについて、水平方向の両端の視差ブロックは除外し、中心側の2ブロックを構成する画素の輝度の平均値である対象平均が導出される。   As described above, when the partial image 222b in which the parallax blocks are grouped is not rectangular as a whole, the partial image specifying unit 164 adds the adjacent parallax blocks 224 so as to be rectangular and groups them into a rectangular shape. A partial image 222a is generated. Therefore, the partial image 222a includes parallax blocks that are highly likely not to include the object 220, such as the adjacent parallax block 224. Therefore, for example, the target background specifying unit 166 excludes the parallax blocks at both ends in the horizontal direction from the partial image 222a, and derives the target average that is the average value of the luminance of the pixels constituting the two blocks on the center side.

参照画像226については、部分画像222aの左右両方の計8つの視差ブロックを構成する画素の輝度の平均値、および、色差の平均値である背景平均が導出される。   With respect to the reference image 226, an average value of luminance of pixels constituting a total of eight parallax blocks on both the left and right sides of the partial image 222a and a background average that is an average value of color differences are derived.

その後、対象背景特定部166は、視差ブロックの各行ごとに、対象平均と背景平均の平均を輝度および色差それぞれについて導出して、後述する2値化処理の閾値とする。   After that, the target background specifying unit 166 derives the average of the target average and the background average for each luminance and color difference for each row of the parallax block, and sets it as a threshold value for the binarization process described later.

また、対象背景特定部166は、図5(a)に示すように、部分画像222aについて、上記の視差情報の導出単位となった視差ブロックとは異なるブロックに分割する。具体的には、対象背景特定部166は、部分画像222aを構成する画素を、縦横それぞれ10ブロックに大凡均等に分割する。こうして、部分画像222aは、その大きさ(画素の多さ)に関わらず、縦横10のブロックで構成されるように、正規化される。以下、かかる正規化によって生成されたブロックを正規化ブロックと称する。   Further, as illustrated in FIG. 5A, the target background specifying unit 166 divides the partial image 222a into blocks different from the disparity blocks that are the unit for deriving the disparity information. Specifically, the target background specifying unit 166 divides the pixels constituting the partial image 222a roughly equally into 10 blocks in the vertical and horizontal directions. In this way, the partial image 222a is normalized so as to be composed of 10 blocks in the vertical and horizontal directions regardless of the size (the number of pixels). Hereinafter, a block generated by such normalization is referred to as a normalization block.

続いて、対象背景特定部166は、正規化ブロック毎の輝度の平均値、および、色差の平均値に基づいて、対象平均と背景平均を用いて、部分画像を構成する正規化ブロックのうち、対象物220を示す正規化ブロックを特定する。   Subsequently, the target background specifying unit 166 uses the target average and the background average based on the average luminance value and the average color difference for each normalized block, among the normalized blocks that form the partial image, A normalization block indicating the object 220 is specified.

具体的に、対象背景特定部166は、正規化ブロックの行ごとに2値化処理を行う。2値化処理の閾値は、上記のように、視差ブロックの各行ごとに導出されている。しかし、正規化の対象は、視差ブロックではなく正規化ブロックであることから、正規化ブロックのそれぞれの行に、視差ブロックの行ごとに導出された閾値のいずれかを対応付けなければならない。そこで、対象背景特定部166は、正規化ブロックの行それぞれについて、正規化ブロックの行の垂直方向の中心に最も近い視差ブロックの行を対応付ける。そして、正規化ブロックの正規化処理に、その正規化ブロックの行に対応付けられた視差ブロックの行を用いて導出された閾値を用いる。   Specifically, the target background specifying unit 166 performs binarization processing for each row of the normalized block. As described above, the threshold value for the binarization process is derived for each row of the parallax block. However, since the normalization target is not a disparity block but a normalization block, one of the threshold values derived for each row of the disparity block must be associated with each row of the normalization block. Therefore, the target background specifying unit 166 associates the row of the parallax block closest to the center in the vertical direction of the row of the normalized block with respect to each row of the normalized block. Then, a threshold derived using the parallax block row associated with the normalization block row is used for normalization processing of the normalization block.

こうして、対象背景特定部166は、正規化ブロックそれぞれの輝度の平均値、および、色差の平均値と、特定された閾値とを比較し、輝度の平均値、および、色差の平均値が閾値よりも対象平均寄りの値であるか、背景平均寄りの値であるかを判定する。   In this way, the target background specifying unit 166 compares the average value of luminance and the average value of color difference of each normalized block with the specified threshold value, and the average value of luminance and the average value of color difference are compared with the threshold value. Is also a value close to the target average or a value close to the background average.

対象背景特定部166は、各正規化ブロックについて、輝度の平均値が閾値よりも対象平均寄りの値であれば、輝度を1とし、輝度の平均値が閾値よりも背景平均寄りの値であれば、輝度を0とする。対象背景特定部166は、同様の処理を色差についても行う。   For each normalized block, the target background specifying unit 166 sets the luminance to 1 if the average luminance value is closer to the target average than the threshold value, and the average luminance value is closer to the background average value than the threshold value. In this case, the luminance is 0. The target background specifying unit 166 performs the same process for the color difference.

例えば、対象平均の方が背景平均よりも大きい場合、対象背景特定部166は、正規化ブロックの輝度の平均値が、閾値よりも大きければ、輝度を1とし、閾値よりも小さければ、輝度を0とする。   For example, when the target average is larger than the background average, the target background specifying unit 166 sets the luminance to 1 if the average value of the luminance of the normalized block is larger than the threshold, and increases the luminance if the average is smaller than the threshold. 0.

対象背景特定部166は、上記の2値化処理を正規化ブロックの各行に対して行い、部分画像222aを構成する全ての正規化ブロックの輝度値、および、色差を2値化する。そして、輝度値と色差の2つの値について、値が1となっているものが1つ以上あれば、その正規化ブロックの代表値を1とする。また、輝度値と色差の2つの値について、いずれも値が0となっていれば、その正規化ブロックの代表値を0とする。図5(b)では、代表値が1の正規化ブロックを黒塗りで示し、代表値が0の正規化ブロックを白抜きで示す。   The target background specifying unit 166 performs the above binarization process on each row of the normalized block, and binarizes the luminance values and the color differences of all the normalized blocks constituting the partial image 222a. If there are one or more of the two values of the luminance value and the color difference having a value of 1, the representative value of the normalized block is set to 1. In addition, if the values of the luminance value and the color difference are both 0, the representative value of the normalized block is set to 0. In FIG. 5B, a normalized block with a representative value of 1 is shown in black, and a normalized block with a representative value of 0 is shown in white.

ここでは、代表値が1の正規化ブロックは、対象物220の一部を示し、代表値が0の正規化ブロックは、対象物220の背景の一部を示すと見做す。   Here, it is assumed that a normalized block with a representative value of 1 indicates a part of the object 220, and a normalized block with a representative value of 0 indicates a part of the background of the object 220.

このように、対象背景特定部166は、撮像装置110から取得したカラー画像のうち、対象物220を示す所定の形状(例えば、矩形)の部分画像222aを特定し、部分画像222aの輝度、および、色差に基づいて、部分画像222aを構成する正規化ブロックにおける、対象物220を示す正規化ブロックを特定する。   As described above, the target background specifying unit 166 specifies the partial image 222a having a predetermined shape (for example, a rectangle) indicating the target object 220 from the color image acquired from the imaging device 110, the luminance of the partial image 222a, and Based on the color difference, a normalization block indicating the object 220 in the normalization block constituting the partial image 222a is specified.

ここでは、正規化ブロックごとに、対象物220を示すものか否かを特定する場合について説明したが、特定処理の単位である構成部位は、正規化ブロックごとではなく、画素であってもよいし、他の画素群であってもよい。   Here, a case has been described in which whether or not the object 220 is indicated for each normalized block has been described. However, the constituent part that is a unit of the specified process may be a pixel instead of each normalized block. However, other pixel groups may be used.

歩行者判定部168は、部分画像222aにおける対象物220を示す正規化ブロックの分布に基づいて、部分画像222aが歩行者を示すか、すなわち、対象物220が歩行者であるか否かを判定する。本実施形態では、部分画像222aを所定数のブロックに正規化していることから、歩行者判定部168は、部分画像222aにおける背景を示す正規化ブロックの分布に基づいて、対象物220が歩行者であるか否かを判定できる。   The pedestrian determination unit 168 determines whether or not the partial image 222a indicates a pedestrian, that is, whether or not the target object 220 is a pedestrian, based on the normalized block distribution indicating the target object 220 in the partial image 222a. To do. In this embodiment, since the partial image 222a is normalized to a predetermined number of blocks, the pedestrian determination unit 168 determines that the object 220 is a pedestrian based on the distribution of normalized blocks indicating the background in the partial image 222a. It can be determined whether or not.

図5(c)に示す例では、歩行者判定部168は、上から1行目の正規化ブロックは、代表値が0の正規化ブロックが10個、すべて連続していることを特定する。同様に、歩行者判定部168は、上から2行目の正規化ブロックは、代表値が0の正規化ブロックが8個、代表値が1の正規化ブロックを挟んで左右に2つのグループに分かれていることを特定する。   In the example illustrated in FIG. 5C, the pedestrian determination unit 168 specifies that the normalized blocks in the first row from the top are all 10 normalized blocks having a representative value of 0, which are continuous. Similarly, the pedestrian determination unit 168 determines that the normalization blocks in the second row from the top are eight normalization blocks with a representative value of 0 and two groups on the left and right with the normalization block with a representative value of 1. Identify that they are separated.

また、歩行者判定部168は、上から9行目の正規化ブロックについては、代表値が0の正規化ブロックが8個、代表値が1の正規化ブロックに分断されて、3つのグループに分かれていることを特定する。   In addition, the pedestrian determination unit 168 divides the normalized block in the ninth row from the top into eight normalized blocks with a representative value of 0 and a normalized block with a representative value of 1 so as to be divided into three groups. Identify that they are separated.

こうして、歩行者判定部168は、正規化ブロックのすべての行について、代表値が0の正規化ブロックについて、総数とグループの数を特定する。   In this way, the pedestrian determination unit 168 specifies the total number and the number of groups for the normalized block whose representative value is 0 for all the rows of the normalized block.

そして、歩行者判定部168は、上から1〜3行目までの正規化ブロックを、歩行者の頭部に対応するものとし、上から4〜7行目までの正規化ブロックを、歩行者の胴体に対応するものとし、上から8〜10行目までの正規化ブロックを、歩行者の脚部に対応するものとして、以下の判定処理を行う。   And the pedestrian determination part 168 shall correspond the normalization block from the top to the 1st line to the pedestrian's head, and the normalization block from the top to the 4th to 7th line is the pedestrian. The following determination processing is performed on the assumption that the normalized blocks from the top to the 10th row from the top correspond to the legs of the pedestrian.

歩行者判定部168は、図5(d)に示すように、部分画像222aにおける、代表値が0となった背景を示す正規化ブロックの分布によって、歩行者の画像との類似度合いを判定し、歩行者の画像に類似する特徴に該当すると、評価ポイントが加算される。以下、歩行者の画像に類似する特徴を列記する。
a.頭部(1〜3行目)
・対象物220を示す正規化ブロックが、胴部や脚部よりも多く連続する(横幅が大きい)
・対象物220を示す正規化ブロックが、行ごとに1つのグループにまとまっている(複数のグループに分割されていない)
b.胴部(4〜7行目)
・対象物220を示す正規化ブロックが、行ごとに1つのグループにまとまっている(複数のグループに分割されていない)
・対象物220を示す正規化ブロックの数が、行ごとに、3〜5つである
c.脚部(8〜10行目)
・対象物220を示す正規化ブロックが、行ごとに2つのグループに分かれている
・2つのグループそれぞれを構成する正規化ブロックの数が、1〜3つである
As shown in FIG. 5D, the pedestrian determination unit 168 determines the degree of similarity to the pedestrian image based on the distribution of normalized blocks indicating the background with the representative value of 0 in the partial image 222a. If the feature is similar to a pedestrian image, an evaluation point is added. Below, features similar to pedestrian images are listed.
a. Head (1st to 3rd lines)
-The normalization block indicating the object 220 continues more than the trunk and legs (the width is large).
The normalization block indicating the object 220 is grouped into one group for each row (not divided into a plurality of groups).
b. Torso (4th to 7th lines)
The normalization block indicating the object 220 is grouped into one group for each row (not divided into a plurality of groups).
The number of normalized blocks representing the object 220 is 3-5 per row c. Leg (8th to 10th lines)
The normalization block indicating the object 220 is divided into two groups for each row. The number of normalization blocks constituting each of the two groups is 1 to 3.

また、部分画像222aにおいては、頭部寄りの部分よりも、脚部寄りの部分の方が、歩行者の画像の特徴が表れやすい。そこで、歩行者判定部168は、画像の垂直方向の位置が低い正規化ブロックの集合の形状(分布)の方が、垂直方向の位置が高い正規化ブロックの集合の形状(分布)よりも、大きな重み付けをして、評価ポイントの加算を行う。   In the partial image 222a, the feature of the pedestrian image is more likely to appear in the portion closer to the leg than in the portion closer to the head. Therefore, the pedestrian determination unit 168 determines that the shape (distribution) of a set of normalized blocks having a low vertical position of the image is more than the shape (distribution) of a set of normalized blocks having a high vertical position. Add a large weight and add evaluation points.

このように、歩行者判定部168は、部分画像222aにおける背景を示す正規化ブロックの分布が、上記の歩行者の画像に類似する特徴に該当するか否かを判定し、該当する場合、部分画像222aに、該当する特徴に対応するポイントを加算する。そして、すべての特徴についての判定が終了した後、歩行者判定部168は、積算された評価ポイントが所定値以上である場合、部分画像222aが歩行者を示す、すなわち、対象物220が歩行者であると判定する。   As described above, the pedestrian determination unit 168 determines whether or not the distribution of the normalized blocks indicating the background in the partial image 222a corresponds to a feature similar to the above pedestrian image. Points corresponding to the corresponding feature are added to the image 222a. And after the determination about all the characteristics is complete | finished, the pedestrian determination part 168 will show the pedestrian in the partial image 222a, when the integrated evaluation point is more than predetermined value, ie, the target object 220 will be a pedestrian. It is determined that

図6は、歩行者特定処理の流れを説明するためのフローチャートである。図6に示す歩行者特定処理は、撮像装置110から取得されるカラー画像のフレーム毎に繰り返し実行される。   FIG. 6 is a flowchart for explaining the flow of the pedestrian identification process. The pedestrian specifying process shown in FIG. 6 is repeatedly executed for each frame of the color image acquired from the imaging device 110.

図6に示すように、画像処理部160は、パターンマッチングを用いて視差ブロックの視差を導出して距離画像212を生成する(S300)。そして、3次元位置導出部162は、視差ブロックの実空間における3次元位置を導出する(S302)。部分画像特定部164は、距離画像212に基づく3次元の位置情報を用いて検出領域214における視差ブロック同士をグループ化して、一部に対象物220が含まれた部分画像222aを特定する(S304)。   As illustrated in FIG. 6, the image processing unit 160 derives the parallax of the parallax block using pattern matching to generate the distance image 212 (S300). Then, the three-dimensional position deriving unit 162 derives a three-dimensional position in the real space of the parallax block (S302). The partial image specifying unit 164 groups the parallax blocks in the detection area 214 using the three-dimensional position information based on the distance image 212, and specifies the partial image 222a that includes the object 220 in part (S304). ).

歩行者判定部168は、特定された部分画像222aのうち未選択のものを1つ選択する(S306)。そして、歩行者判定部168は、選択した対象物220が、車両1(撮像画像の取得位置)から所定距離以上離れているか否かを判定する(S308)。所定距離以上離れていない場合(S308におけるNO)、歩行者判定部168は、対象物220の画像にエッジ強調処理を施し(S312)、エッジが示す輪郭形状が、歩行者の形状に類似して歩行者と見做せるか否かを判定する(S314)。歩行者と見做せない場合(S314におけるNO)、未選択判定処理S318に処理を移す。   The pedestrian determination unit 168 selects one unselected one of the identified partial images 222a (S306). Then, the pedestrian determination unit 168 determines whether or not the selected object 220 is separated from the vehicle 1 (captured image acquisition position) by a predetermined distance or more (S308). When the distance is not greater than the predetermined distance (NO in S308), the pedestrian determination unit 168 performs edge enhancement processing on the image of the object 220 (S312), and the contour shape indicated by the edge is similar to the shape of the pedestrian. It is determined whether it can be regarded as a pedestrian (S314). When it cannot be regarded as a pedestrian (NO in S314), the process proceeds to an unselected determination process S318.

エッジが示す輪郭形状が、歩行者の形状に類似して歩行者と見做せる場合(S314におけるYES)、当該対象物220を歩行者と特定して(S316)、まだ選択されていない部分画像222aがあるか否かを判定する(S318)。まだ選択されていない部分画像222aがなければ(S318におけるNO)、当該歩行者特定処理を終了する。まだ選択されていない部分画像222aがある場合(S318におけるYES)、部分画像選択処理S306に処理を移す。   When the contour shape indicated by the edge can be regarded as a pedestrian similar to the shape of a pedestrian (YES in S314), the object 220 is identified as a pedestrian (S316), and the partial image that has not yet been selected. It is determined whether or not there is 222a (S318). If there is no partial image 222a that has not yet been selected (NO in S318), the pedestrian identification process ends. If there is a partial image 222a that has not yet been selected (YES in S318), the process proceeds to partial image selection processing S306.

対象物220が車両1から所定距離以上離れている場合(S308におけるYES)、対象背景特定部166は、部分画像222aおよび参照画像226を用いて、画素の輝度、および、色差に基づいて、各行ごとに閾値を導出する(S320)。そして、対象背景特定部166は、部分画像222aを構成する画素を、縦横それぞれ10ブロックに大凡均等に分割して正規化する(S322)。   When the target object 220 is separated from the vehicle 1 by a predetermined distance or more (YES in S308), the target background specifying unit 166 uses the partial image 222a and the reference image 226 to perform each row based on the pixel brightness and the color difference. A threshold is derived for each (S320). Then, the target background specifying unit 166 normalizes the pixels constituting the partial image 222a by dividing the pixels in the vertical and horizontal directions roughly equally into 10 blocks (S322).

その後、対象背景特定部166は、正規化ブロックそれぞれについて、画素の輝度の平均値、および、色差の平均値を導出し、対応する閾値と比較する。そして、輝度の平均値が閾値よりも対象平均寄りの値であれば、輝度を1とし、輝度の平均値が閾値よりも背景平均寄りの値であれば、輝度を0とする2値化処理を行う。色差についても2値化処理を行う。そして、輝度値と色差の2つの値について、値が1となっているものが1つ以上あれば、その正規化ブロックの代表値を1とする。また、輝度値と色差の2つの値について、値が0となっているものが2つであれば、その正規化ブロックの代表値を0とする(S324)。   Thereafter, the target background specifying unit 166 derives the average value of the luminance of the pixel and the average value of the color difference for each normalized block, and compares the average value with the corresponding threshold value. If the average luminance value is closer to the target average than the threshold, the luminance is set to 1. If the average luminance value is closer to the background average than the threshold, the binarization processing is set to 0. I do. The binarization process is also performed for the color difference. If there are one or more of the two values of the luminance value and the color difference having a value of 1, the representative value of the normalized block is set to 1. If two values of the luminance value and the color difference are two, the representative value of the normalized block is set to 0 (S324).

歩行者判定部168は、部分画像222aにおける背景を示す正規化ブロックの分布を特定し、歩行者の画像との類似度合いを判定して、評価ポイントを導出する(S326)。評価ポイントが所定値を超えていれば(S328におけるYES)、歩行者判定部168は、対象物220を歩行者と特定し(S316)、未選択判定処理S318に処理を移す。評価ポイントが所定値を超えていなければ(S328におけるNO)、未選択判定処理S318に処理を移す。   The pedestrian determination unit 168 identifies the distribution of normalized blocks indicating the background in the partial image 222a, determines the degree of similarity with the pedestrian image, and derives an evaluation point (S326). If the evaluation point exceeds the predetermined value (YES in S328), the pedestrian determination unit 168 specifies the object 220 as a pedestrian (S316), and moves the process to the unselected determination process S318. If the evaluation point does not exceed the predetermined value (NO in S328), the process proceeds to the unselected determination process S318.

上述したように、本実施形態の歩行者特定処理によれば、歩行者が車両1から遠方に離れており、撮像装置110から取得される歩行者の画像が小さすぎて、輪郭による歩行者の特定が困難であっても、歩行者を早期かつ高精度に検出することが可能となる。   As described above, according to the pedestrian specifying process of the present embodiment, the pedestrian is far away from the vehicle 1, the pedestrian image acquired from the imaging device 110 is too small, and the contour of the pedestrian is Even if identification is difficult, it becomes possible to detect a pedestrian early and with high accuracy.

また、コンピュータを、車外環境認識装置120として機能させるプログラムや当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、CD、DVD、BD等の記憶媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。   Also provided are a program that causes a computer to function as the vehicle exterior environment recognition device 120 and a computer-readable storage medium that stores the program, such as a flexible disk, magneto-optical disk, ROM, CD, DVD, and BD. Here, the program refers to data processing means described in an arbitrary language or description method.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Is done.

例えば、上述した実施形態では、対象背景特定部166は、対象物を示すものか背景を示すものかを特定する特定処理の処理単位である構成部位として、部分画像222aを正規化した正規化ブロックを用いる場合について説明したが、上記のように、構成部位は、画素であってもよいし、他の画素群であってもよい。ただし、部分画像222aを正規化して正規化ブロックとすれば、部分画像222aの大きさに関わらず、対象物を示す正規化ブロックの分布から、歩行者か否かの判定を行うことが容易となる。   For example, in the above-described embodiment, the target background specifying unit 166 normalizes the partial image 222a as a constituent part that is a processing unit of a specific process for specifying whether the target object or the background is indicated. However, as described above, the constituent part may be a pixel or another pixel group. However, if the partial image 222a is normalized to be a normalized block, it is easy to determine whether or not the person is a pedestrian from the distribution of the normalized blocks indicating the object regardless of the size of the partial image 222a. Become.

また、上述した実施形態では、正規化ブロックを構成する画素の輝度、および、色差と、対応する閾値との比較によって、対象物を示す正規化ブロックを特定する場合について説明したが、閾値との比較以外の処理によって、対象物を示す正規化ブロックを特定してもよい。ただし、閾値との比較によって対象物を示す正規化ブロックを特定することで、簡易な処理で特定処理を遂行することが可能となる。   In the above-described embodiment, the case where the normalized block indicating the target object is specified by comparing the luminance and color difference of the pixels constituting the normalized block with the corresponding threshold value has been described. You may identify the normalization block which shows a target object by processes other than a comparison. However, it is possible to perform the specifying process with a simple process by specifying the normalized block indicating the object by comparison with the threshold.

また、上述した実施形態では、対象背景特定部166は、部分画像222aを構成する画素と、部分画像222aに隣接する部分画像222a外の参照画像226の画素それぞれの輝度、および、色差から、対象物を示す正規化ブロックを特定する閾値をそれぞれ導出する場合について説明した。しかし、閾値は任意の値が設定されていてもよい。ただし、参照画像226には背景が含まれる可能性が高いことから、当該閾値を、部分画像222aを構成する画素と、参照画像226の画素それぞれの輝度、および、色差から導出することで、部分画像222aから対象物と背景を高精度に分別することが可能となる。その結果、歩行者の検出精度が向上する。   In the above-described embodiment, the target background specifying unit 166 determines the target from the luminance and color difference of the pixels constituting the partial image 222a and the pixels of the reference image 226 outside the partial image 222a adjacent to the partial image 222a. A case has been described in which thresholds for specifying normalized blocks indicating objects are derived. However, an arbitrary value may be set as the threshold value. However, since there is a high possibility that the reference image 226 includes a background, the threshold value is derived from the luminance and color difference of the pixels constituting the partial image 222a and the pixels of the reference image 226. The object and the background can be separated from the image 222a with high accuracy. As a result, pedestrian detection accuracy is improved.

また、上述した実施形態では、対象背景特定部166は、部分画像222aの正規化処理を行った後、閾値との比較によって、部分画像222aの輝度、および、色差の2値化処理を行う場合について説明した。しかし、対象背景特定部166は、部分画像222aの輝度、および、色差の2値化処理を行った後、部分画像222aの正規化処理を行ってもよい。   In the above-described embodiment, when the target background specifying unit 166 performs the normalization process of the partial image 222a and then performs the binarization process of the luminance and color difference of the partial image 222a by comparison with the threshold value. Explained. However, the target background specifying unit 166 may perform the normalization process of the partial image 222a after performing the binarization process of the luminance and the color difference of the partial image 222a.

また、上述した実施形態では、歩行者判定部168は、画像の垂直方向の位置が低い正規化ブロックの集合の形状(分布)の方が、垂直方向の位置が高い正規化ブロックの集合の形状(分布)よりも、大きな重み付けをして、評価ポイントの加算を行う場合について説明した。しかし、歩行者判定部168は、このような重み付けを行わずともよい。ただし、かかる重み付けを行うことで、形状の特定がし易い、人の下半身についてのポイントの影響が大きくなり、検出精度を向上することが可能となる。   In the above-described embodiment, the pedestrian determination unit 168 determines that the shape (distribution) of a set of normalized blocks having a lower vertical position in the image has a shape of a set of normalized blocks having a higher vertical position. The case where evaluation points are added by weighting more than (distribution) has been described. However, the pedestrian determination unit 168 may not perform such weighting. However, by performing such weighting, the influence of the point on the lower body of a person, which makes it easy to specify the shape, is increased, and the detection accuracy can be improved.

また、上述した実施形態では、対象背景特定部166は、部分画像を構成する正規化ブロックのうち対象物を示す正規化ブロックを特定し、歩行者判定部168は、部分画像における対象物を示す正規化ブロックの分布に基づいて、対象物が歩行者か否かを判定する場合について説明した。しかし、対象背景特定部166は、部分画像を構成する正規化ブロックのうち背景を示す正規化ブロックを特定し、歩行者判定部168は、部分画像における背景を示す正規化ブロックの分布に基づいて、対象物が歩行者か否かを判定してもよい。さらには、対象物を示す正規化ブロックおよび背景を示す正規化ブロックの両方の分布に基づいて、対象物が歩行者か否かを判定してもよい。   In the above-described embodiment, the target background specifying unit 166 specifies a normalization block indicating the target object among the normalization blocks constituting the partial image, and the pedestrian determination unit 168 indicates the target object in the partial image. The case where it is determined whether or not the object is a pedestrian based on the distribution of normalized blocks has been described. However, the target background specifying unit 166 specifies a normalized block indicating the background among the normalized blocks constituting the partial image, and the pedestrian determination unit 168 is based on the distribution of the normalized block indicating the background in the partial image. It may be determined whether the object is a pedestrian. Furthermore, it may be determined whether or not the object is a pedestrian based on the distribution of both the normalized block indicating the object and the normalized block indicating the background.

また、上述した実施形態では、対象背景特定部166は、YUV色空間で表される色情報のうち、輝度Yと色差Uを用いて、部分画像を構成する正規化ブロックのうち対象物を示す正規化ブロックを特定する場合について説明した。しかし、対象背景特定部166は、YUV色空間で表される色情報のうち、輝度Yと色差Vを用いて、または、輝度Yと色差U、Vの両方を用いて、部分画像を構成する正規化ブロックのうち対象物を示す正規化ブロックを特定してもよい。さらに、対象背景特定部166は、色差U、Vのいずれか一方、または、両方を用いて、部分画像を構成する正規化ブロックのうち対象物を示す正規化ブロックを特定してもよい。   Further, in the above-described embodiment, the target background specifying unit 166 indicates the target object among the normalized blocks constituting the partial image using the luminance Y and the color difference U among the color information represented in the YUV color space. The case where the normalization block is specified has been described. However, the target background specifying unit 166 configures a partial image using the luminance Y and the color difference V or both the luminance Y and the color differences U and V among the color information expressed in the YUV color space. You may identify the normalization block which shows a target object among normalization blocks. Furthermore, the target background specifying unit 166 may specify a normalization block indicating the target object from among the normalization blocks constituting the partial image using either one or both of the color differences U and V.

また、対象背景特定部166は、YUV色空間で表される色情報に限らず、RGBの各色相の輝度で表される色情報を用いてもよいし、カラー画像に限らず、グレースケールの輝度で表される画像情報を用いてもよい。ただし、撮像画像がカラー画像であって、対象背景特定部166は、輝度に加えて色差にも基づいて、部分画像を構成する正規化ブロックのうち対象物を示す正規化ブロックを特定することで、輝度Yの差がつき難い背景と対象物であっても色差U、Vに差があれば識別が容易となる。   Further, the target background specifying unit 166 may use not only the color information expressed in the YUV color space but also the color information expressed by the luminance of each hue of RGB, not only the color image but also the gray scale. Image information represented by luminance may be used. However, the captured image is a color image, and the target background specifying unit 166 specifies a normalization block indicating the target object from the normalization blocks constituting the partial image based on the color difference in addition to the luminance. Even if the difference between the luminance Y is difficult for the background and the object, identification is easy if there is a difference in the color differences U and V.

また、上述した実施形態では、歩行者判定部168は、部分画像に含まれる対象物が車両1(撮像画像の取得位置であって、撮像装置110の位置)から所定距離未満の位置にある場合、対象物の輪郭形状に基づいて、対象物が歩行者か否かを判定し、部分画像に含まれる対象物が車両1から所定距離以上離れている場合、部分画像における対象物を示す正規化ブロックの分布に基づいて、対象物が歩行者か否かを判定する場合について説明した。しかし、歩行者判定部168は、部分画像に含まれる対象物の位置にかかわらず、部分画像における対象物を示す正規化ブロックの分布に基づいて、対象物が歩行者か否かを判定してもよい。ただし、部分画像に含まれる対象物が当該歩行者認識装置から所定距離未満の位置にある場合、対象物の輪郭形状に基づいて、対象物が歩行者か否かを判定し、正規化ブロックの分布による判定を回避することで、処理負荷を低減することが可能となる。   Further, in the above-described embodiment, the pedestrian determination unit 168 has a case where the object included in the partial image is located at a position less than a predetermined distance from the vehicle 1 (captured image acquisition position and position of the imaging device 110). Based on the contour shape of the object, it is determined whether or not the object is a pedestrian, and when the object included in the partial image is separated from the vehicle 1 by a predetermined distance or more, normalization indicating the object in the partial image The case where it is determined whether the object is a pedestrian based on the block distribution has been described. However, the pedestrian determination unit 168 determines whether the target object is a pedestrian based on the distribution of normalized blocks indicating the target object in the partial image regardless of the position of the target object included in the partial image. Also good. However, when the target object included in the partial image is at a position less than a predetermined distance from the pedestrian recognition device, it is determined whether the target object is a pedestrian based on the contour shape of the target object. By avoiding the determination based on the distribution, the processing load can be reduced.

なお、本明細書の歩行者特定処理の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。   In addition, each process of the pedestrian specification process of this specification does not necessarily need to process in time series along the order described as a flowchart, and may include the process by parallel or a subroutine.

本発明は、検出領域に存在する対象物がいずれの特定物に対応するかを特定する歩行者認識装置に利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used for a pedestrian recognition device that specifies to which specific object an object existing in a detection region corresponds.

1 車両
100 環境認識システム
120 車外環境認識装置(歩行者認識装置)
160 画像処理部
162 3次元位置導出部
164 部分画像特定部
166 対象背景特定部
168 歩行者判定部
220 対象物
222a 部分画像
226 参照画像
1 Vehicle 100 Environment Recognition System 120 Outside Environment Recognition Device (Pedestrian Recognition Device)
160 Image processing unit 162 Three-dimensional position deriving unit 164 Partial image specifying unit 166 Target background specifying unit 168 Pedestrian determination unit 220 Object 222a Partial image 226 Reference image

Claims (5)

検出領域を撮像した撮像画像における複数の対象部位の実空間における3次元位置を導出する3次元位置導出部と、
前記3次元位置の差分が所定範囲内にある対象部位同士をグループ化して、前記撮像画像における対象物が含まれる部分画像を特定する部分画像特定部と、
前記部分画像を構成する構成部位の輝度および色差に基づいて該部分画像の輝度平均値または色差平均値の少なくとも一方を対象平均として導出するとともに、該部分画像に隣接する複数の構成部位を参照画像とし、該参照画像を構成する構成部位の輝度または色差に基づいて該参照画像の輝度平均値または色差平均値の少なくとも一方を背景平均として導出し、該対象平均および該背景平均を用いて該部分画像を構成する構成部位のうち背景を示す構成部位および前記対象物を示す構成部位の少なくとも一方を特定する対象背景特定部と、
前記部分画像における前記背景を示す構成部位および前記対象物を示す構成部位の少なくとも一方が水平方向に連続するグループの数、または、該一方の数の分布に基づいて、前記対象物が歩行者か否かを判定する歩行者判定部と、
を備えることを特徴とする歩行者認識装置。
A three-dimensional position deriving unit for deriving a three-dimensional position in real space of a plurality of target parts in a captured image obtained by imaging a detection region;
A partial image specifying unit for grouping target parts having a difference in the three-dimensional position within a predetermined range, and specifying a partial image including the target in the captured image;
Based on the luminance and color difference of the constituent parts constituting the partial image, at least one of the luminance average value or the color difference average value of the partial image is derived as a target average, and a plurality of constituent parts adjacent to the partial image are referred to as a reference image And at least one of the luminance average value or the color difference average value of the reference image is derived as a background average based on the luminance or the color difference of the constituent parts constituting the reference image, and the target average and the background average are used to A target background specifying unit for specifying at least one of a constituent part showing a background and a constituent part showing the object among constituent parts constituting an image;
Whether the target object is a pedestrian based on the number of groups in which at least one of the constituent part indicating the background and the constituent part indicating the object in the partial image is continuous in the horizontal direction, or the distribution of the number of the one. A pedestrian determination unit for determining whether or not,
A pedestrian recognition device comprising:
前記対象背景特定部は、前記部分画像について、複数のブロックに分割して正規化し、該ブロックを前記構成部位とすることを特徴とする請求項1に記載の歩行者認識装置。  The pedestrian recognition device according to claim 1, wherein the target background specifying unit divides and normalizes the partial image into a plurality of blocks, and uses the blocks as the constituent parts. 検出領域を撮像した撮像画像における複数の対象部位の実空間における3次元位置を導出する3次元位置導出部と、  A three-dimensional position deriving unit for deriving a three-dimensional position in real space of a plurality of target parts in a captured image obtained by imaging a detection region;
前記3次元位置の差分が所定範囲内にある対象部位同士をグループ化して、前記撮像画像における対象物が含まれる部分画像を特定する部分画像特定部と、  A partial image specifying unit for grouping target parts having a difference in the three-dimensional position within a predetermined range, and specifying a partial image including the target in the captured image;
前記部分画像を分割して正規化した複数のブロックを、該部分画像を構成する構成部位として、該ブロックの輝度および色差に基づいて該部分画像の輝度平均値または色差平均値の少なくとも一方を対象平均として導出するとともに、該部分画像に隣接する複数のブロックを参照画像とし、該参照画像を構成するブロックの輝度または色差に基づいて該参照画像の輝度平均値または色差平均値の少なくとも一方を背景平均として導出し、該対象平均および該背景平均を用いて該部分画像を構成するブロックのうち背景を示すブロックおよび前記対象物を示すブロックの少なくとも一方を特定する対象背景特定部と、  A plurality of blocks obtained by dividing and normalizing the partial image are used as components constituting the partial image, and at least one of the luminance average value or the color difference average value of the partial image is targeted based on the luminance and color difference of the block A plurality of blocks adjacent to the partial image are used as a reference image, and at least one of the luminance average value or the color difference average value of the reference image is used as a background based on the luminance or the color difference of the blocks constituting the reference image. A target background specifying unit for determining at least one of a block indicating the background and a block indicating the target object among the blocks constituting the partial image using the target average and the background average,
前記部分画像における前記背景を示すブロックおよび前記対象物を示すブロックの少なくとも一方の分布に基づいて、垂直方向の位置が低い該ブロックの分布の方が、該垂直方向の位置が高い該ブロックの分布よりも、大きな重み付けをして、前記対象物が歩行者か否かを判定する歩行者判定部と、  Based on the distribution of at least one of the blocks indicating the background and the blocks indicating the object in the partial image, the distribution of the blocks having a lower vertical position is higher than the distribution of the blocks having a lower vertical position. Than, a pedestrian determination unit that determines whether or not the object is a pedestrian,
を備えることを特徴とする歩行者認識装置。A pedestrian recognition device comprising:
前記対象背景特定部は、前記撮像画像の垂直方向の位置が等しく水平方向に並んだ複数の画素の中から、前記部分画像を構成する画素と、前記参照画像を構成する画素とを選択し、選択した画素に基づいて導出した前記対象平均および前記背景平均を用いて閾値を導出し、該部分画像を構成する各構成部位の輝度または色差を該閾値と比較することで、該部分画像を構成する構成部位が背景を示す構成部位であるか、もしくは、前記対象物を示す構成部位であるかを特定することを特徴とする請求項1から3のいずれか1項に記載の歩行者認識装置 The target background specifying unit selects a pixel constituting the partial image and a pixel constituting the reference image from a plurality of pixels in which the vertical position of the captured image is equally aligned in the horizontal direction, The partial image is constructed by deriving a threshold using the target average and the background average derived based on the selected pixel, and comparing the luminance or color difference of each component constituting the partial image with the threshold. The pedestrian recognition device according to any one of claims 1 to 3 , wherein the constituent part to be identified is a constituent part showing a background or a constituent part showing the object. . 前記歩行者判定部は、
前記部分画像に含まれる対象物が前記撮像画像の取得位置から所定距離未満の位置にある場合、該対象物の輪郭形状に基づいて、該対象物が歩行者か否かを判定し、
前記部分画像に含まれる対象物が前記撮像画像の取得位置から所定距離以上離れている場合、該部分画像における前記背景を示す構成部位および該対象物を示す構成部位の少なくとも一方の分布に基づいて、該対象物が歩行者か否かを判定することを特徴とする請求項1から4のいずれか1項に記載の歩行者認識装置。
The pedestrian determination unit
When the target object included in the partial image is at a position less than a predetermined distance from the acquisition position of the captured image, based on the contour shape of the target object, determine whether the target object is a pedestrian,
When the object included in the partial image is separated from the acquisition position of the captured image by a predetermined distance or more, based on the distribution of at least one of the component part indicating the background and the component part indicating the object in the partial image The pedestrian recognition device according to any one of claims 1 to 4, wherein it is determined whether or not the object is a pedestrian.
JP2014030817A 2014-02-20 2014-02-20 Pedestrian recognition device Active JP6273156B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014030817A JP6273156B2 (en) 2014-02-20 2014-02-20 Pedestrian recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014030817A JP6273156B2 (en) 2014-02-20 2014-02-20 Pedestrian recognition device

Publications (2)

Publication Number Publication Date
JP2015156120A JP2015156120A (en) 2015-08-27
JP6273156B2 true JP6273156B2 (en) 2018-01-31

Family

ID=54775400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014030817A Active JP6273156B2 (en) 2014-02-20 2014-02-20 Pedestrian recognition device

Country Status (1)

Country Link
JP (1) JP6273156B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6764378B2 (en) 2017-07-26 2020-09-30 株式会社Subaru External environment recognition device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08287258A (en) * 1995-04-19 1996-11-01 Fuji Xerox Co Ltd Color image recognition device
JP4389602B2 (en) * 2004-02-24 2009-12-24 パナソニック電工株式会社 Object detection apparatus, object detection method, and program
JP4495606B2 (en) * 2005-01-19 2010-07-07 日本放送協会 Color identification device and color identification program
JP4708124B2 (en) * 2005-08-30 2011-06-22 富士重工業株式会社 Image processing device
JP4611919B2 (en) * 2006-03-23 2011-01-12 本田技研工業株式会社 Pedestrian recognition device
JP5127182B2 (en) * 2006-08-14 2013-01-23 富士重工業株式会社 Object detection device
JP4937029B2 (en) * 2007-07-23 2012-05-23 株式会社豊田中央研究所 Object detection apparatus and program
JP2009048240A (en) * 2007-08-13 2009-03-05 Tokyo Institute Of Technology Detection method, detection device, monitoring method, and monitoring system of moving object in moving image
JP5548667B2 (en) * 2011-11-24 2014-07-16 富士重工業株式会社 Outside environment recognition device
JP2013242702A (en) * 2012-05-21 2013-12-05 Panasonic Corp Facial image collation apparatus, facial image collation method, unique region detection device, and unique region detection method

Also Published As

Publication number Publication date
JP2015156120A (en) 2015-08-27

Similar Documents

Publication Publication Date Title
JP5886809B2 (en) Outside environment recognition device
JP6132412B2 (en) Outside environment recognition device
JP5906224B2 (en) Outside environment recognition device
JP5537492B2 (en) Environment recognition device
JP6236039B2 (en) Outside environment recognition device
JP6034923B1 (en) Outside environment recognition device
JP6420650B2 (en) Outside environment recognition device
JP5955291B2 (en) Filtering device and environment recognition system
JP6591188B2 (en) Outside environment recognition device
JP6564218B2 (en) Outside environment recognition device
JP6240475B2 (en) Outside environment recognition device
JP7229032B2 (en) External object detection device
JP6174960B2 (en) Outside environment recognition device
JP6273156B2 (en) Pedestrian recognition device
JP6764378B2 (en) External environment recognition device
JP6378547B2 (en) Outside environment recognition device
JP2019114150A (en) Extravehicular environment recognition device
JP6378594B2 (en) Outside environment recognition device
JP6983334B2 (en) Image recognition device
KR20140054922A (en) Method and device for detecting front vehicle
JP7071102B2 (en) External environment recognition device
JP5890816B2 (en) Filtering device and environment recognition system
JP6523694B2 (en) Outside environment recognition device
JP6254870B2 (en) Outside environment recognition device
JP6313667B2 (en) Outside environment recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180105

R150 Certificate of patent or registration of utility model

Ref document number: 6273156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250