JP2009237773A - Image processor and image processing program - Google Patents

Image processor and image processing program Download PDF

Info

Publication number
JP2009237773A
JP2009237773A JP2008081181A JP2008081181A JP2009237773A JP 2009237773 A JP2009237773 A JP 2009237773A JP 2008081181 A JP2008081181 A JP 2008081181A JP 2008081181 A JP2008081181 A JP 2008081181A JP 2009237773 A JP2009237773 A JP 2009237773A
Authority
JP
Japan
Prior art keywords
image
pedestrian candidate
pedestrian
regularity
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008081181A
Other languages
Japanese (ja)
Other versions
JP5120627B2 (en
Inventor
Takao Shirai
隆生 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008081181A priority Critical patent/JP5120627B2/en
Publication of JP2009237773A publication Critical patent/JP2009237773A/en
Application granted granted Critical
Publication of JP5120627B2 publication Critical patent/JP5120627B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor for detecting highly precisely a person by simple processing. <P>SOLUTION: Pedestrian candidate images are extracted from image data, by comparing the image data from an imaging device for imaging the surroundings of a vehicle, with a reference pattern that is a model pattern of a pedestrian. The presence of regularity is determined in at least one of a shape and an arrangement of each pedestrian candidate image. A displaying image data is generated based on the residual pedestrian candidate image excluding the pedestrian candidate images determined to have the regularity. An image is displayed based on the display image data. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像処理装置および画像処理プログラムに関し、より特定的には、車載カメラ等の画像に基づいて人物を検知する人物認識システムに利用される画像処理に関する。   The present invention relates to an image processing apparatus and an image processing program, and more specifically to image processing used in a person recognition system that detects a person based on an image of a vehicle-mounted camera or the like.

従来より、自動車などの車両に、遠赤外用のビデオカメラを搭載し、夜間走行時に車両前方の歩行者、自転車に乗った人間などを認識して運転者に注意を促す前方監視システムが知られている。このようなシステムの一つに、例えば、人間の輝度分布を表す基準パターンを予め記憶しておき、カメラ画像データと基準パターンとを比較して歩行者を検知する人間認識システムが知られている(例えば、特許文献1)。また、赤外線カメラで撮像した入力画像と、予め、モデル画像記憶部に記憶されている全身モデル画像及び頭部モデル画像とのパターンマッチングを行って歩行者を検出する装置も知られている(例えば、特許文献2)。   Conventionally, a front monitoring system is known in which a far infrared video camera is mounted on a vehicle such as an automobile, and recognizes a pedestrian in front of the vehicle or a person on a bicycle when driving at night to alert the driver. ing. As one of such systems, for example, a human recognition system is known in which a reference pattern representing a human luminance distribution is stored in advance and a pedestrian is detected by comparing camera image data with the reference pattern. (For example, patent document 1). There is also known an apparatus for detecting a pedestrian by performing pattern matching between an input image captured by an infrared camera and a whole body model image and a head model image stored in advance in a model image storage unit (for example, Patent Document 2).

また、物体の大きさ、物体の上部形状、および、物体の側部形状を要素として含む入力特徴ベクトルを、物体の画像に基づいて生成し、これに基づいて物体が歩行者であるか否かを判別する画像処理装置も知られている(例えば特許文献3)。この装置では、上記入力特徴ベクトルに基づいて分析のための演算を行うことにより、判別空間へ写像されたベクトルyを生成する。そして、このベクトルyが判別空間上所定の領域内にあるか否かに応じて、物体が歩行者であるか否かを判別する。
特開2005−285011号公報 特開2005−196590号公報 特開2007−65924号公報
Also, an input feature vector including the size of the object, the upper shape of the object, and the side shape of the object as elements is generated based on the image of the object, and whether or not the object is a pedestrian based on this An image processing apparatus that discriminates the image is also known (for example, Patent Document 3). In this apparatus, a vector y mapped to the discriminant space is generated by performing an operation for analysis based on the input feature vector. Then, it is determined whether or not the object is a pedestrian depending on whether or not the vector y is within a predetermined region in the determination space.
JP 2005-285011 A JP 2005-196590 A JP 2007-65924 A

しかしながら、上述したような上記特許文献1や2に開示された装置においては、以下に示す問題点があった。すなわち、上記特許文献1や2のような手法でパターンマッチングを行って判別する場合、例えばガードレールのポールを歩行者として検知してしまうという問題があった。   However, the devices disclosed in Patent Documents 1 and 2 as described above have the following problems. That is, when pattern matching is performed by the method as described in Patent Documents 1 and 2, for example, there is a problem that a guardrail pole is detected as a pedestrian.

また、特許文献3の手法では、複雑なベクトル演算を行う必要があり、処理負荷が高く、また、このような処理を実現するために高価なハードウェアが必要となり、コストがかかるという問題があった。   In addition, the technique of Patent Document 3 requires a complicated vector operation, and has a high processing load. In addition, expensive hardware is required to realize such processing, which increases costs. It was.

それ故に、本発明の目的は、より簡易な処理で精度の高い人物検出ができる画像処理装置を提供することである。   Therefore, an object of the present invention is to provide an image processing apparatus capable of detecting a person with high accuracy with simpler processing.

本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施形態との対応関係の一例を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like are examples of the correspondence with the embodiments described later in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、車両の外界を撮像する撮像装置からの画像データに基づいて歩行者の存在を認識する画像処理装置であって、画像データと歩行者のモデルパターンである基準パターンとを比較して当該画像データから歩行者候補画像を抽出する歩行者候補抽出手段(13)と、歩行者候補抽出手段が抽出した歩行者候補画像の形状または並び方の少なくとも一つに規則性があるか否かを判定する規則性分析手段(14)と、規則性分析手段が規則性があると判定した歩行者候補画像を除外し、残った歩行者候補画像に基づいて表示用画像データを生成する除外手段(14,15)と、除外手段が生成した表示用画像データに基づく画像を表示する表示手段(17)とを備える。   A first invention is an image processing device that recognizes the presence of a pedestrian based on image data from an imaging device that captures the outside of a vehicle, and compares the image data with a reference pattern that is a pedestrian model pattern. Whether or not at least one of the shape or arrangement of the pedestrian candidate image extracted by the pedestrian candidate extraction unit and the pedestrian candidate extraction unit that extracts the pedestrian candidate image from the image data is regular. Regularity analysis means (14) for determining whether or not the pedestrian candidate image determined to be regular by the regularity analysis means, and generating image data for display based on the remaining pedestrian candidate image Means (14, 15) and display means (17) for displaying an image based on the display image data generated by the exclusion means.

第1の発明によれば、規則性のある歩行者候補者画像について歩行者候補から除外する。これにより、例えばガードレールのポールのような、並び方や形状に規則性がある物体が歩行者として誤検出されることを防ぎ、より精度の高い歩行者検出が可能となる。   According to the first invention, regular pedestrian candidate images are excluded from pedestrian candidates. Thereby, for example, an object having regularity in arrangement and shape such as a pole of a guardrail is prevented from being erroneously detected as a pedestrian, and more accurate pedestrian detection is possible.

第2の発明は、第1の発明において、規則性分析手段は、複数の歩行者候補画像のそれぞれの端部が一直線上に並んでいるか否かを判定し、一直線上に並んでいる歩行者候補画像について規則性があると判定する。   In a second aspect based on the first aspect, the regularity analyzing means determines whether or not the end portions of the plurality of candidate pedestrian images are aligned on a straight line, and the pedestrians aligned on the straight line It is determined that the candidate image has regularity.

第3の発明は、第2の発明において、規則性分析手段は、複数の歩行者候補画像のそれぞれの端部と画像データで示される画像上における消失点とを結ぶ直線を算出する直線算出手段(14)と、端部が交差している歩行者候補画像の数が所定数以上である直線を抽出する抽出手段(14)とを含む。そして、規則性分析手段は、抽出手段が抽出した直線と端部が交差している歩行者候補画像については規則性があると判定する。   In a third aspect based on the second aspect, the regularity analyzing means calculates a straight line connecting each end of the plurality of pedestrian candidate images and a vanishing point on the image indicated by the image data. (14) and extraction means (14) for extracting a straight line in which the number of pedestrian candidate images whose ends intersect each other is a predetermined number or more. Then, the regularity analysis unit determines that the pedestrian candidate image whose end portion intersects with the straight line extracted by the extraction unit has regularity.

第2乃至第3の発明によれば、一直線に並んでいる歩行者候補画像を歩行者候補から除外することができる。これにより、精度の高い歩行者検出が可能となる。   According to the second to third inventions, pedestrian candidate images arranged in a straight line can be excluded from pedestrian candidates. Thereby, highly accurate pedestrian detection becomes possible.

第4の発明は、第1乃至第3のいずれかの発明において、規則性分析手段は、複数の歩行者候補画像間の画素数に基づいて、歩行者候補画像に対応する物体が車両の外界において等間隔で並んでいるか否かを判定する等間隔配置判定手段を含む。そして、規則性分析手段は、等間隔配置判定手段によって等間隔で並んでいると判定された複数の歩行者候補画像については規則性があると判定する。   According to a fourth invention, in any one of the first to third inventions, the regularity analyzing means is configured such that the object corresponding to the pedestrian candidate image is based on the number of pixels between the plurality of pedestrian candidate images. Includes an equidistant arrangement determining means for determining whether or not they are arranged at equal intervals. Then, the regularity analysis unit determines that the plurality of pedestrian candidate images determined to be arranged at equal intervals by the equal interval arrangement determination unit have regularity.

第4の発明によれば、等間隔に並んでいる歩行者候補画像については歩行者候補から除外する。これにより、例えばガードレールのポールのような、等間隔に配置されている物体について歩行者として誤検出されることを防ぎ、歩行者検出の精度をより高めることができる。   According to the fourth invention, pedestrian candidate images arranged at equal intervals are excluded from pedestrian candidates. Thereby, for example, it is possible to prevent erroneous detection as an pedestrian of an object arranged at equal intervals, such as a pole of a guardrail, and to further improve the accuracy of pedestrian detection.

第5の発明は、第1の発明において、規則性分析手段は、複数の歩行者候補画像の輝度に基づいて歩行者候補の形状を算出する形状算出手段を含む。そして、規則性分析手段は、歩行者候補の形状が相似しているときは規則性があると判定する。   In a fifth aspect based on the first aspect, the regularity analysis means includes shape calculation means for calculating the shape of the pedestrian candidate based on the luminance of the plurality of pedestrian candidate images. Then, the regularity analysis means determines that there is regularity when the shapes of the pedestrian candidates are similar.

第6の発明は、第1の発明において、画像処理装置は、歩行者候補抽出手段が歩行者候補画像を抽出したときに用いた基準パターンを示す合致パターン情報を各歩行者候補画像と対応づけて記憶する合致パターン情報記憶手段を更に備える。そして、規則性分析手段は、合致パターン情報に基づいて、同じ基準パターンによって抽出された歩行者候補画像については規則性があると判定する。   In a sixth aspect based on the first aspect, the image processing apparatus associates the matching pattern information indicating the reference pattern used when the pedestrian candidate extracting unit extracts the pedestrian candidate image with each pedestrian candidate image. And a matching pattern information storage means for storing. Then, the regularity analysis unit determines that the pedestrian candidate images extracted based on the same reference pattern have regularity based on the matching pattern information.

第5乃至第6の発明によれば、形状が類似する歩行者候補画像については歩行者候補から除外することができ、歩行者検出の精度をより高めることができる。   According to the fifth to sixth inventions, pedestrian candidate images having similar shapes can be excluded from pedestrian candidates, and the accuracy of pedestrian detection can be further increased.

第7の発明は、車両の外界を撮像する撮像装置からの画像データに基づいて歩行者の存在を認識する画像処理装置のコンピュータに実行させる画像処理プログラムであって、コンピュータを、画像データと歩行者のモデルパターンである基準パターンとを比較して当該画像データから歩行者候補画像を抽出する歩行者候補抽出手段(S2)と、歩行者候補抽出手段が抽出した歩行者候補画像の形状または並び方の少なくとも一つに規則性があるか否かを判定する規則性分析手段(S3〜S8)と、規則性分析手段が規則性があると判定した歩行者候補画像を除外し、残った歩行者候補画像に基づいて表示用画像データを生成する除外手段(S7、S9)と、除外手段が生成した表示用画像データに基づく画像を表示する表示手段(S10)として機能させる。   A seventh aspect of the invention is an image processing program for causing a computer of an image processing apparatus to recognize the presence of a pedestrian based on image data from an imaging apparatus that captures the outside of a vehicle. A pedestrian candidate extraction means (S2) for extracting a pedestrian candidate image from the image data by comparing with a reference pattern that is a model pattern of the pedestrian, and a shape or arrangement of pedestrian candidate images extracted by the pedestrian candidate extraction means Regularity analysis means (S3 to S8) for determining whether or not at least one of them has regularity, and pedestrian candidate images determined by the regularity analysis means to be regularity are excluded, and the remaining pedestrians Exclusion means (S7, S9) for generating display image data based on the candidate image, and display means (S10) for displaying an image based on the display image data generated by the exclusion means To function Te.

第7の発明によれば、上記第1の発明と同様の効果を得ることができる。   According to the seventh aspect, the same effect as the first aspect can be obtained.

本発明によれば、より精度の高い歩行者検出を実現することができる。   According to the present invention, more accurate pedestrian detection can be realized.

以下、本発明の実施の形態について、図面を参照して説明する。尚、この実施例により本発明が限定されるものではない。   Embodiments of the present invention will be described below with reference to the drawings. In addition, this invention is not limited by this Example.

図1は、本発明の実施形態に係る画像処理装置10の構成を示した図である。図1において、画像処理装置10は、ナイトビューカメラ11と人物検知部12と、表示部17とで構成される。   FIG. 1 is a diagram showing a configuration of an image processing apparatus 10 according to an embodiment of the present invention. In FIG. 1, the image processing apparatus 10 includes a night view camera 11, a person detection unit 12, and a display unit 17.

ナイトビューカメラ11は、例えば、車両に搭載され、夜間の歩行者、自転車に乗った人間などを認識する遠赤外用のビデオカメラである。ナイトビューカメラ11は、IEEE1394に準拠した車載LAN通信線を介して人物検知部12に接続されている。ナイトビューカメラ11で取得された画像は、人物検知部12に出力される。   The night view camera 11 is, for example, a far-infrared video camera that is mounted on a vehicle and recognizes a pedestrian at night and a person on a bicycle. The night view camera 11 is connected to the person detection unit 12 via an in-vehicle LAN communication line compliant with IEEE1394. The image acquired by the night view camera 11 is output to the person detection unit 12.

人物検知部12は、ナイトビューカメラ11で取得された画像に基づいて歩行者を検知する。そして、カメラ画像上の歩行者の位置に注意枠を重ねた画像を生成する。人物検知部12は、一次抽出部13と二次抽出部14と画像生成部15とで構成されている。   The person detection unit 12 detects a pedestrian based on the image acquired by the night view camera 11. Then, an image in which a caution frame is superimposed on the position of the pedestrian on the camera image is generated. The person detection unit 12 includes a primary extraction unit 13, a secondary extraction unit 14, and an image generation unit 15.

一次抽出部13は、ナイトビューカメラ11から出力されたカメラ画像を取得する。そして、当該画像の各画素の輝度値に基づき、人物候補画像を含む領域(以下、人間候補領域)を抽出する。そして、当該人間候補領域を示す画像(以下、一次抽出画像)を二次抽出部14に出力する。   The primary extraction unit 13 acquires the camera image output from the night view camera 11. Then, based on the luminance value of each pixel of the image, an area including the human candidate image (hereinafter, human candidate area) is extracted. Then, an image indicating the human candidate region (hereinafter referred to as a primary extraction image) is output to the secondary extraction unit 14.

二次抽出部14は、一次抽出画像に基づき、後述するような処理を行うことで人物候補領域の規則性を分析する。更に、規則性のある人物候補領域群については除外する処理を行う。そして、その抽出結果を示す画像(以下、二次抽出画像)を画像生成部15に出力する。   The secondary extraction unit 14 analyzes the regularity of the person candidate region by performing processing as described later based on the primary extracted image. Further, a process for excluding the candidate person group with regularity is performed. Then, an image indicating the extraction result (hereinafter referred to as a secondary extracted image) is output to the image generation unit 15.

画像生成部15は、二次抽出画像に基づき、人間候補領域の大きさに応じた注意枠を生成する。また、画像生成部15は、当該注意枠を上記カメラ画像に重ねた画像を表示画像として生成する。更に、画像生成部15は、当該表示画像を表示部17に出力する。   The image generation unit 15 generates a caution frame corresponding to the size of the human candidate region based on the secondary extracted image. The image generation unit 15 generates an image obtained by superimposing the attention frame on the camera image as a display image. Further, the image generation unit 15 outputs the display image to the display unit 17.

記憶部16には、後述するような処理で用いられる各種データが記憶されている。具体的には、人間モデルの輝度パターンを示す基準パターンや、上記カメラ画像における消失点(FOE;Focus of Expansion)の位置を示すFOE座標161等が記憶されている。当該FOE座標は、上記ナイトビューカメラ11の設置位置や角度に基づいて一意に定められるものであり、表示部17の画面座標系におけるFOEの位置がFOE座標161として予め記憶されている。   The storage unit 16 stores various data used in processing as described later. Specifically, a reference pattern indicating a luminance pattern of a human model, an FOE coordinate 161 indicating a position of a vanishing point (FOE; Focus of Expansion) in the camera image, and the like are stored. The FOE coordinates are uniquely determined based on the installation position and angle of the night view camera 11, and the FOE position in the screen coordinate system of the display unit 17 is stored in advance as the FOE coordinates 161.

表示部17は、上記ナイトビューカメラ11の画素数に応じた解像度を有する表示デバイスであり、例えば、ナイトビューカメラ11が45万画素のカメラであるとすると、770×578ドットの解像度を有する。そして、表示部17は、画像生成部15から出力された画像を人物検知結果として表示する。   The display unit 17 is a display device having a resolution corresponding to the number of pixels of the night view camera 11. For example, if the night view camera 11 is a camera having 450,000 pixels, the display unit 17 has a resolution of 770 × 578 dots. The display unit 17 displays the image output from the image generation unit 15 as a person detection result.

次に、図2〜図8を用いて、本実施形態における人物検知処理の概要について説明する。本実施形態では、従来の手法により検知された人物候補領域に対して、その人物候補領域の位置や並びの規則性を分析し、当該人物候補領域が、例えばガードレールのポールような、人間以外の物であるか否かを判定するための処理が実行される。   Next, an outline of person detection processing in the present embodiment will be described with reference to FIGS. In the present embodiment, the position of the person candidate area and the regularity of the person candidate area detected by the conventional method are analyzed, and the person candidate area is, for example, a non-human person such as a guardrail pole. A process for determining whether or not it is an object is executed.

図2は、上記ナイトビューカメラ11が撮影したカメラ画像の一例を模式的に示す図である。図2では、歩行者101a〜101cと、ガードレール102aおよび102b、標識103が表示されている。また、ガードレール102aは、ポール104a〜104dを含み、ガードレール102bは、ポール104e〜104hを含んでいる。   FIG. 2 is a diagram schematically showing an example of a camera image taken by the night view camera 11. In FIG. 2, pedestrians 101a to 101c, guardrails 102a and 102b, and a sign 103 are displayed. The guard rail 102a includes poles 104a to 104d, and the guard rail 102b includes poles 104e to 104h.

本実施形態では、図2のようなカメラ画像に対して、まず、一次抽出部13において人物検知処理が行われる。ここでの人物検知処理は、従来から知られている手法でよいが、一例として、本実施形態では、輝度に基づく人物検知処理(以下、一次抽出処理と呼ぶ)を行う。より具体的には、カメラ画像の各画素の輝度について、所定値以上の輝度を有する画素で構成される領域が抽出される。そして、予め記憶部16に記憶されている人間の輝度パターンを示す基準パターンとのパターンマッチングが行われ、マッチしたものについて人間候補領域とする。図3は、一次抽出処理の結果を示す画像(以下、一次抽出画像と呼ぶ)の例である。当該画像のサイズ(画素数)は、上記カメラ画像と同じサイズである。図3では、各歩行者101と、各ポール104を点線で囲んだ領域が人物候補領域110a〜110kとして表示されている。すなわち、図3では、一次抽出処理においてポール104も歩行者として誤認識された状態であることが示されている。   In the present embodiment, a person detection process is first performed on the camera image as shown in FIG. The person detection process here may be a conventionally known technique, but as an example, in the present embodiment, a person detection process based on luminance (hereinafter referred to as a primary extraction process) is performed. More specifically, an area composed of pixels having a luminance equal to or higher than a predetermined value is extracted for the luminance of each pixel of the camera image. Then, pattern matching with a reference pattern indicating a human luminance pattern stored in advance in the storage unit 16 is performed, and the matched one is set as a human candidate region. FIG. 3 is an example of an image showing the result of the primary extraction process (hereinafter referred to as a primary extracted image). The size (number of pixels) of the image is the same size as the camera image. In FIG. 3, areas where each pedestrian 101 and each pole 104 are surrounded by dotted lines are displayed as person candidate areas 110a to 110k. That is, FIG. 3 shows that the pole 104 is also erroneously recognized as a pedestrian in the primary extraction process.

本実施形態では、上記一次抽出画像に対して、更に人物検知処理を行う(以下、二次抽出処理と呼ぶ)。当該二次抽出処理では、上記ポール104が実空間においては同じ高さであり、一直線に並んでいる、という規則性があることに着目し、このような規則性を有する人物候補領域は歩行者ではないとして除外するという処理が実行される。具体的には、以下のような処理が実行される。   In the present embodiment, person detection processing is further performed on the primary extraction image (hereinafter referred to as secondary extraction processing). In the secondary extraction process, paying attention to the regularity that the poles 104 have the same height in real space and are aligned in a straight line, the human candidate area having such regularity is a pedestrian. The process of excluding it is not executed. Specifically, the following processing is executed.

まず、図3に示したような一次抽出画像において、各人物候補領域110の上端の座標(正確には点線で示されている長方形の上辺の中心座標であるが、以下では単に上端座標と呼ぶ)と、FOEに相当する座標とを結ぶ直線を算出する。図4は、人物候補領域110a(ポール104aに対応)の上端座標とFOE121とを結んだ直線122の例を示す。このような直線を各人物候補領域について算出する。図5は、各人物候補領域の上端座標とFOE121とを直線で結んだ状態を示す図である。   First, in the primary extracted image as shown in FIG. 3, the coordinates of the upper end of each person candidate area 110 (more precisely, the center coordinates of the upper side of the rectangle indicated by the dotted line, but in the following, simply referred to as the upper end coordinates). ) And coordinates corresponding to FOE are calculated. FIG. 4 shows an example of a straight line 122 connecting the upper end coordinates of the person candidate area 110 a (corresponding to the pole 104 a) and the FOE 121. Such a straight line is calculated for each person candidate region. FIG. 5 is a diagram illustrating a state where the upper end coordinates of each person candidate region and the FOE 121 are connected by a straight line.

ここで、図4や図5に示されるように、左側のポール104a〜104dに対応する人物候補領域110a〜110dついては、その上端部分が直線122aに重複した状態となっている。同様に、右側の人物候補領域110e〜110hについても、その上端部分が直線122bと重複した状態となっている。このように、ポール104のような同じ高さで直線的に並んでいる物は、FOE121に向かう直線122aや122bに重なる状態となる。そのため、当該直線122aおよび122bに重なっている人物候補領域110については人物ではないと考えることができる。   Here, as shown in FIG. 4 and FIG. 5, the upper end portions of the person candidate regions 110a to 110d corresponding to the left poles 104a to 104d are overlapped with the straight line 122a. Similarly, the upper right part of the right person candidate areas 110e to 110h overlaps the straight line 122b. In this way, objects that are linearly arranged at the same height, such as the pole 104, overlap with the straight lines 122 a and 122 b toward the FOE 121. Therefore, it can be considered that the person candidate region 110 overlapping the straight lines 122a and 122b is not a person.

そこで、本実施形態では、上記直線122aおよび122bに重なっている人物候補領域110a〜110hを一次抽出画像から削除して二次抽出画像を生成する。図6は、二次抽出画像の例である。図6では、歩行者101に対応する人物候補領域110i〜110kのみが残っている状態が示されている。そして、当該二次抽出画像画像に基づいて、図7に示すような注意枠141a〜141cを生成する。   Therefore, in this embodiment, the candidate human regions 110a to 110h overlapping the straight lines 122a and 122b are deleted from the primary extraction image to generate a secondary extraction image. FIG. 6 is an example of a secondary extracted image. FIG. 6 shows a state in which only the human candidate areas 110i to 110k corresponding to the pedestrian 101 remain. Then, based on the secondary extracted image, attention frames 141a to 141c as shown in FIG. 7 are generated.

最後に、図8に示すような、上記カメラ画像に当該注意枠141a〜141cを重ね合わせた画像を生成し、当該画像を歩行者検出結果として表示部17に表示する。   Finally, as shown in FIG. 8, an image in which the attention frames 141a to 141c are superimposed on the camera image is generated, and the image is displayed on the display unit 17 as a pedestrian detection result.

このように、本実施形態では、従来の手法によってガードレールのポール等のような物体が人間として誤検出されたとしても、当該物体の有する規則性に着目して、これらの物体が人間ではないことを検知することができる。これにより、人物検出処理の精度をより高めることが可能となる。   As described above, in this embodiment, even if an object such as a guardrail pole is erroneously detected as a human by a conventional method, paying attention to the regularity of the object, these objects are not human. Can be detected. Thereby, it is possible to further improve the accuracy of the person detection process.

以下、図9を用いて、画像処理装置10が行う人物検知処理の詳細動作を説明する。なお、図9のフローチャートで示す処理は、1/10秒毎に繰り返されるものとする。   Hereinafter, the detailed operation of the person detection process performed by the image processing apparatus 10 will be described with reference to FIG. The process shown in the flowchart of FIG. 9 is repeated every 1/10 second.

図9において、まず、一次抽出部13は、ナイトビューカメラ11からカメラ画像を取得する(ステップS1)。   In FIG. 9, first, the primary extraction unit 13 acquires a camera image from the night view camera 11 (step S1).

次に、一次抽出部13は、当該カメラ画像に基づく一次抽出処理を実行する(ステップS2)。本実施形態における当該処理は、上述したように各画素の輝度に基づいて人物候補領域110を抽出するための処理である。当該処理の原理、及び基本的な処理手法等については当業者には既知であるため、詳しい説明は省略するが、本実施形態では、まず、所定値以上の輝度を有す画素を抽出し、これらの画素で構成される領域を適宜設定する。そして、この領域(輝度のパターン)を、人間の輝度パターンを示す基準パターンとパターンマッチングする(当該基準パターンには、人間をあらゆる角度から観察した輝度のパターンが多数含まれている)。そして、基準パターン(のうちのいすれか)とマッチしていれば、その領域は人物候補領域として扱う処理が実行される。そして、当該処理の結果、上述したような一次抽出画像(そのサイズは、表示部17の解像度に合わせたサイズとなっている)が生成され、一次抽出部13は、二次抽出部14に当該一次抽出画像を出力する。   Next, the primary extraction part 13 performs the primary extraction process based on the said camera image (step S2). The process in the present embodiment is a process for extracting the candidate person area 110 based on the luminance of each pixel as described above. Since the principle of the processing and the basic processing method are known to those skilled in the art, detailed description is omitted, but in the present embodiment, first, a pixel having a luminance of a predetermined value or more is extracted, A region composed of these pixels is set as appropriate. Then, this region (luminance pattern) is pattern-matched with a reference pattern indicating a human luminance pattern (the reference pattern includes a large number of luminance patterns obtained by observing a human from all angles). If it matches the reference pattern (any one of them), processing for treating the area as a person candidate area is executed. As a result of the processing, a primary extraction image as described above (the size of which corresponds to the resolution of the display unit 17) is generated, and the primary extraction unit 13 sends the secondary extraction unit 14 to the secondary extraction unit 14. A primary extracted image is output.

次に、二次抽出部14において、以下に示すような処理(二次抽出処理)が実行される。まず、二次抽出部14は、記憶部16からFOE座標161を読み出す(ステップS3)。続いて、二次抽出部14は、上記一次抽出画像上の各人物候補領域110の上端座標と、FOE座標161(図5のFOE121に相当)とを結ぶ直線を算出する(ステップS4)。   Next, in the secondary extraction unit 14, the following process (secondary extraction process) is executed. First, the secondary extraction unit 14 reads the FOE coordinates 161 from the storage unit 16 (step S3). Subsequently, the secondary extraction unit 14 calculates a straight line connecting the upper end coordinates of each person candidate area 110 on the primary extraction image and the FOE coordinates 161 (corresponding to the FOE 121 in FIG. 5) (step S4).

次に、二次抽出部14は、所定数以上の人物候補領域110が重なっている直線を抽出し、当該直線に重なっている人物候補領域110を各直線毎にグループ化する処理を行う(ステップS5)。このステップS5の処理をより具体的に説明すると、まず、二次抽出部14は、上記直線に重なっている人物候補領域110の数を算出する。ここで、重なっているか否かの判定部分については、基本的には上端座標を基準とするが、検出条件が厳しくなりすぎて、検出されるべき物が検出されなくなることを防ぐために、図10に示すように、重なり判定を行う部分に若干の幅を持たせる。例えば、人物候補領域110の上辺から3ドットまでの部分において直線と重なっていれば、その候補領域は重なっていると判定する。次に、直線に重なっている人物候補領域110の数が所定値以上、例えば”4”以上の直線のみを抽出する。そして、これらの直線に重なっている人物候補領域110を直線毎にグループ化する(図11参照)。   Next, the secondary extraction unit 14 extracts a straight line where a predetermined number or more of the human candidate areas 110 overlap, and performs a process of grouping the human candidate areas 110 overlapping the straight lines for each straight line (step) S5). The processing in step S5 will be described more specifically. First, the secondary extraction unit 14 calculates the number of person candidate regions 110 that overlap the straight line. Here, the determination part of whether or not they are overlapped is basically based on the upper end coordinates, but in order to prevent the detection condition from becoming too strict and the object to be detected not being detected, FIG. As shown in FIG. 5, a part of the overlap determination is given a slight width. For example, if the portion from the upper side of the person candidate area 110 to 3 dots overlaps with a straight line, it is determined that the candidate area overlaps. Next, only straight lines in which the number of candidate human areas 110 overlapping the straight line is equal to or greater than a predetermined value, for example, “4” or more, are extracted. Then, the person candidate areas 110 overlapping these straight lines are grouped for each straight line (see FIG. 11).

次に、上記でグループ化された各グループについて、以下のような処理が行われる。まず、二次抽出部14は、上記グループに含まれている人物候補領域110の配置間隔が3次元空間内において等間隔であるか否かを判定する(ステップS6)。このステップS6の処理をより具体的に説明すると、まず、二次抽出部14は、各人物候補領域間の画素数を上記直線に沿ってカウントする。つまり、直線上における各人物候補領域の間隔の大きさを画素数として取得する。次に、当該画素数が所定の比率で小さくなっていく関係にあるかを判定する。これは、例えばガードレールのポール等は3次元空間内では等間隔で配置されていても、2次元画像(2次元座標系)で表されると、図11に示されるように、奥に行くほど当該間隔が小さく(狭く)なって表現される。しかし、3次元空間内で等間隔で配置されている物については、2次元座標系において、間隔が小さくなっていく比率を予め所定の計算によって算出しておくことが可能である。そのため、例えば、上記画素数の変化が、画面下から上に向かって10:8:6のような比率(間隔パターン)であれば、3次元空間内においては等間隔であると判定する。なお、上記の処理方法はあくまで一例であり、これに限らず、上記のような人物候補領域110の配置関係が3次元空間内において等間隔であることが判定できれば、どのような処理方法を用いても良い。   Next, the following processing is performed for each group grouped as described above. First, the secondary extraction unit 14 determines whether or not the arrangement intervals of the human candidate regions 110 included in the group are equal intervals in the three-dimensional space (Step S6). The process of step S6 will be described more specifically. First, the secondary extraction unit 14 counts the number of pixels between the person candidate regions along the straight line. That is, the size of the interval between the candidate human regions on the straight line is acquired as the number of pixels. Next, it is determined whether or not the number of pixels is in a relationship of decreasing at a predetermined ratio. For example, even if the guardrail poles and the like are arranged at equal intervals in the three-dimensional space, when represented by a two-dimensional image (two-dimensional coordinate system), as shown in FIG. The interval is expressed as being small (narrow). However, for objects that are arranged at equal intervals in the three-dimensional space, it is possible to calculate in advance by a predetermined calculation the ratio at which the intervals become smaller in the two-dimensional coordinate system. Therefore, for example, if the change in the number of pixels is a ratio (interval pattern) of 10: 8: 6 from the bottom to the top of the screen, it is determined that the intervals are equal in the three-dimensional space. Note that the above processing method is merely an example, and the present invention is not limited to this, and any processing method can be used as long as it is possible to determine that the arrangement relationship of the person candidate regions 110 as described above is equally spaced in the three-dimensional space. May be.

上記判定の結果、等間隔と判定したときは、二次抽出部14は、上記グループ化された人物候補領域110はガードレールのポールのような物体と考えられるため、上記一次抽出画像から削除する(ステップS7)。一方、等間隔でないと判定したときは、二次抽出部14は、次のステップS8へと処理を進める。   As a result of the determination, when it is determined that the intervals are equal, the secondary extraction unit 14 deletes the grouped person candidate regions 110 from the primary extraction image because the grouped candidate human regions 110 are considered to be objects such as guardrail poles ( Step S7). On the other hand, when it determines with it being not equal intervals, the secondary extraction part 14 advances a process to following step S8.

次に、二次抽出部14は、全てのグループについて上記ステップS6〜S7の処理を行ったか否か判定し(ステップS8)、行われていなければ(ステップS8でNO)、まだチェックしていないグループについて上記ステップS6〜S7の処理を繰り返す。   Next, the secondary extraction unit 14 determines whether or not the processing in steps S6 to S7 has been performed for all groups (step S8). If not performed (NO in step S8), the secondary extraction unit 14 has not yet checked. The processes in steps S6 to S7 are repeated for the group.

一方、ステップS8の判定の結果、全てのグループをチェックしていれば(ステップS8でYES)、上記の処理で人物候補領域110が削除された一次抽出画像を二次抽出画像として画像生成部15に出力する。画像生成部15は、二次抽出画像上に残っている各人物候補領域の大きさに合わせて、図7に示したような注意枠141をそれぞれ生成する(ステップS9)。   On the other hand, if all the groups are checked as a result of the determination in step S8 (YES in step S8), the image generation unit 15 uses the primary extraction image from which the person candidate area 110 has been deleted by the above processing as the secondary extraction image. Output to. The image generation unit 15 generates a caution frame 141 as shown in FIG. 7 according to the size of each human candidate region remaining on the secondary extracted image (step S9).

更に、画像生成部15は、上記カメラ画像に、当該生成した注意枠141を重畳した画像を生成する。そして、画像生成部15は、当該画像を表示画像として表示部17に出力する(ステップS10)。その結果、図8に示したような画像が表示部17に表示されることになる。以上で、本実施形態にかかる人物検知処理は終了する。   Furthermore, the image generation unit 15 generates an image in which the generated attention frame 141 is superimposed on the camera image. Then, the image generation unit 15 outputs the image as a display image to the display unit 17 (step S10). As a result, an image as shown in FIG. 8 is displayed on the display unit 17. The person detection process according to the present embodiment is thus completed.

以上のように、本実施形態では、従来の手法で一旦人物候補領域を検出した後、更に、人物候補領域の有する規則性、具体的には一直線に並んで配置されているか否か等に基づいて人物ではない物体を検知し、人物候補領域から除外する処理を行っている。これにより、ガードレールのポール等が人物として誤検出されることを防ぐことができ、より精度の高い人物検知を実現することが可能となる。   As described above, in the present embodiment, after the person candidate area is once detected by the conventional method, the person candidate area further has regularity, specifically based on whether or not the person candidate area is arranged in a straight line. An object that is not a person is detected and excluded from the person candidate area. As a result, it is possible to prevent a guardrail pole or the like from being erroneously detected as a person, and to realize more accurate person detection.

なお、上述の実施形態では、候補領域の上端座標とFOEを結ぶ直線を算出し、当該直線と、各候補領域の上端部分との重なりを判定していた、これに加えて、更に、候補領域の下端側を併用するようにしても良い。すなわち、候補領域の下端座標とFOE121を結ぶ直線を算出し、各人物候補領域の下端部分(上記上端座標と同様に、重なり判定を行う部分には幅を持たせる)と当該直線との重なりも判定して、直線上に並んでいるか否かを判定するようにしても良い。そして、上端、および下端側のいずれか一方が所定数以上直線に重なっていれば、その人物候補領域は人物ではないものとして削除するするようにしても良い。   In the above-described embodiment, a straight line connecting the upper end coordinates of the candidate area and the FOE is calculated, and the overlap between the straight line and the upper end portion of each candidate area is determined. In addition, the candidate area You may make it use together the lower end side of. That is, a straight line connecting the lower end coordinates of the candidate area and the FOE 121 is calculated, and the overlap between the lower end part of each person candidate area (the same as the above upper end coordinates, the part for performing overlap determination has a width) and the straight line is also calculated. It may be determined to determine whether or not they are aligned on a straight line. Then, if either one of the upper end and the lower end overlaps a predetermined number or more, the person candidate area may be deleted as not being a person.

また、人物であるか否かの判定方法についても、上記のような直線を利用した処理だけに限らず、例えば、各人物候補領域の輝度パターンの類似性に基づいて判定するようにしても良い。ガードレールのポールのようなものは、その輝度パターンについても類似するものと考えられるからである。更には、当該輝度パターンからその物体の形状を算出し、当該形状の類似性に基づいて判定するようにしても良い。例えば、ガードレールのポール等はその形状が同じであるため、形状の類似度が高い人物候補領域が所定数以上あれば、それらは人物ではないと判定するようにしてもよい。   Also, the method for determining whether or not a person is a person is not limited to the process using a straight line as described above. For example, the determination may be made based on the similarity of the luminance patterns of each person candidate area. . This is because a guardrail pole is considered to be similar in luminance pattern. Furthermore, the shape of the object may be calculated from the luminance pattern, and the determination may be made based on the similarity of the shape. For example, since the poles of the guardrail have the same shape, if there are a predetermined number or more of human candidate regions having a high degree of similarity in shape, it may be determined that they are not persons.

更に、上述の実施形態では、上記ステップS2において人物候補領域を抽出する処理として、基準パターンと輝度パターンのマッチングを例に説明した。この基準パターンに着目し、同じ基準パターンとマッチした複数の人物候補領域については、人物ではないと判定するようにしても良い。つまり、人物であれば、服装や背格好が個人個人で異なり、その反射率も異なるため、人物に対応する人物候補領域に関しては、全く同じ基準パターンにマッチして抽出されたという可能性は低い。一方、ガードレールのポールのような、同じ物が複数連続して並んでいるようなものは反射率もほぼ同じであると考えられる。そのため、同じ基準パターンにマッチして人物候補領域として抽出されるという可能性は高いと考えられる。そこで、上記ステップS2の処理の際に、人物候補領域として抽出された際に用いられた基準パターンの情報、例えば、上記基準パターンの識別番号等を合致パターン情報として記憶部16に一時的に記憶する。この際、抽出された各人物候補領域と合致パターン情報とを対応づけて記憶しておく。そして、二次抽出部14は、当該合致パターン情報を読み出して、同じ識別番号を有する基準パターンによって抽出された人物候補領域(つまり、合致パターン情報が同じである人物候補領域)については、人物ではないと判定するようにしてもよい。   Further, in the above-described embodiment, the matching between the reference pattern and the luminance pattern has been described as an example of the process of extracting the person candidate area in step S2. Focusing on this reference pattern, a plurality of candidate human regions that match the same reference pattern may be determined not to be a person. In other words, for a person, the clothes and appearance are different for each individual, and the reflectance is also different. Therefore, it is unlikely that the person candidate area corresponding to the person was extracted by matching the same reference pattern. . On the other hand, it is considered that the reflectance is almost the same when a plurality of the same objects such as guardrail poles are continuously arranged. Therefore, it is considered highly possible that the candidate pattern is extracted as a person candidate area by matching the same reference pattern. Therefore, in the process of step S2, information on the reference pattern used when extracted as the person candidate area, for example, the identification number of the reference pattern, etc., is temporarily stored in the storage unit 16 as matching pattern information. To do. At this time, each extracted person candidate area and the matching pattern information are stored in association with each other. Then, the secondary extraction unit 14 reads out the matching pattern information, and the person candidate area extracted by the reference pattern having the same identification number (that is, the person candidate area having the same matching pattern information) is not a person. You may make it determine with not.

また、FOE座標に関して、上述の実施形態では予め記憶部16に記憶されているFOE座標161を読み出して使用していたが、これに限らず、上記ステップS3の処理において、その都度、ナイトビューカメラ11の角度や焦点距離等の情報を取得し、FOE座標を算出して用いるようにしてもよい。   Further, regarding the FOE coordinates, in the above-described embodiment, the FOE coordinates 161 stored in advance in the storage unit 16 are read out and used. However, the present invention is not limited to this, and the night view camera is used every time in the process of step S3. Information such as 11 angles and focal lengths may be acquired and FOE coordinates may be calculated and used.

本発明にかかる画像処理装置および画像処理プログラムは、カメラの撮像画像に基づく人物検知の精度を高めることができ、車載用の人物検知システム等に有用である。   The image processing apparatus and the image processing program according to the present invention can improve the accuracy of person detection based on a captured image of a camera, and are useful for a vehicle-mounted person detection system and the like.

本発明の実施形態に係る画像処理装置を示す機能ブロック図1 is a functional block diagram illustrating an image processing apparatus according to an embodiment of the present invention. カメラ画像の一例を模式的に示す図The figure which shows an example of a camera image typically 一次抽出画像の一例Example of primary extracted image 人物候補領域とFOEとを結んだ直線の例を示す図The figure which shows the example of the straight line which connected the person candidate area | region and FOE 人物候補領域とFOEとを結んだ直線の例を示す図The figure which shows the example of the straight line which connected the person candidate area | region and FOE 二次抽出画像の一例Example of secondary extracted image 注意枠の一例を示す図Figure showing an example of a caution frame カメラ画像に注意枠を重ね合わせた画像の一例An example of an image with a caution frame superimposed on a camera image 本発明の実施形態に係る人物検知処理を示すフローチャートThe flowchart which shows the person detection process which concerns on embodiment of this invention 人物候補領域と直線との重なり判定領域を説明するための図The figure for demonstrating the overlap judgment area | region of a person candidate area | region and a straight line 人物候補領域のグループ化の一例を示す図The figure which shows an example of grouping of a person candidate area | region

符号の説明Explanation of symbols

10 画像処理装置
11 ナイトビューカメラ
12 人物検知部
13 一次抽出部
14 二次抽出部
15 画像生成部
16 記憶部
17 表示部
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 11 Night view camera 12 Person detection part 13 Primary extraction part 14 Secondary extraction part 15 Image generation part 16 Storage part 17 Display part

Claims (7)

車両の外界を撮像する撮像装置からの画像データに基づいて歩行者の存在を認識する画像処理装置であって、
前記画像データと歩行者のモデルパターンである基準パターンとを比較して当該画像データから歩行者候補画像を抽出する歩行者候補抽出手段と、
前記歩行者候補抽出手段が抽出した歩行者候補画像の形状または並び方の少なくとも一つに規則性があるか否かを判定する規則性分析手段と、
前記規則性分析手段が規則性があると判定した歩行者候補画像を除外し、残った歩行者候補画像に基づいて表示用画像データを生成する除外手段と、
前記除外手段が生成した表示用画像データに基づく画像を表示する表示手段とを備える画像処理装置。
An image processing device for recognizing the presence of a pedestrian based on image data from an imaging device that images the outside of the vehicle,
A pedestrian candidate extraction means for comparing the image data with a reference pattern which is a model pattern of a pedestrian and extracting a pedestrian candidate image from the image data;
Regularity analysis means for determining whether at least one of the shape or arrangement of the pedestrian candidate images extracted by the pedestrian candidate extraction means has regularity;
Excluding the pedestrian candidate image determined by the regularity analysis means to be regular, and generating the display image data based on the remaining pedestrian candidate image,
An image processing apparatus comprising: display means for displaying an image based on the display image data generated by the exclusion means.
前記規則性分析手段は、複数の前記歩行者候補画像のそれぞれの端部が一直線上に並んでいるか否かを判定し、一直線上に並んでいる歩行者候補画像について規則性があると判定する、請求項1に記載の画像処理装置。   The regularity analysis means determines whether or not the end portions of the plurality of pedestrian candidate images are aligned on a straight line, and determines that the pedestrian candidate images aligned on the straight line are regular. The image processing apparatus according to claim 1. 前記規則性分析手段は、
複数の前記歩行者候補画像のそれぞれの端部と前記画像データで示される画像上における消失点とを結ぶ直線を算出する直線算出手段と、
前記端部が交差している歩行者候補画像の数が所定数以上である前記直線を抽出する抽出手段とを含み、
前記抽出手段が抽出した直線と端部が交差している前記歩行者候補画像については規則性があると判定する、請求項2に記載の画像処理装置。
The regularity analysis means includes:
Straight line calculating means for calculating a straight line connecting each end portion of the plurality of pedestrian candidate images and a vanishing point on the image indicated by the image data;
Extracting means for extracting the straight line in which the number of pedestrian candidate images intersecting at the ends is a predetermined number or more,
The image processing apparatus according to claim 2, wherein the pedestrian candidate image whose end portion intersects with the straight line extracted by the extraction unit is determined to have regularity.
前記規則性分析手段は、
複数の前記歩行者候補画像間の画素数に基づいて、前記歩行者候補画像に対応する物体が車両の外界において等間隔で並んでいるか否かを判定する等間隔配置判定手段を含み、
前記等間隔配置判定手段によって等間隔で並んでいると判定された複数の歩行者候補画像については規則性があると判定する、請求項1乃至請求項3のいずれかに記載の画像処理装置。
The regularity analysis means includes:
Based on the number of pixels between the plurality of pedestrian candidate images, including equidistant arrangement determination means for determining whether or not the objects corresponding to the pedestrian candidate images are arranged at equal intervals in the outside world of the vehicle,
The image processing apparatus according to claim 1, wherein the plurality of pedestrian candidate images determined to be arranged at equal intervals by the equal interval arrangement determination unit are determined to have regularity.
前記規則性分析手段は、
複数の前記歩行者候補画像の輝度に基づいて歩行者候補の形状を算出する形状算出手段を含み、
前記歩行者候補の形状が相似しているときは規則性があると判定する、請求項1に記載の画像処理装置。
The regularity analysis means includes:
Including a shape calculating means for calculating the shape of the pedestrian candidate based on the luminance of the plurality of pedestrian candidate images,
The image processing apparatus according to claim 1, wherein when the shape of the pedestrian candidate is similar, it is determined that there is regularity.
前記画像処理装置は、前記歩行者候補抽出手段が前記歩行者候補画像を抽出したときに用いた基準パターンを示す合致パターン情報を各歩行者候補画像と対応づけて記憶する合致パターン情報記憶手段を更に備え、
前記規則性分析手段は、前記合致パターン情報に基づいて、同じ基準パターンによって抽出された歩行者候補画像については規則性があると判定する、請求項1に記載の画像処理装置。
The image processing device includes matching pattern information storage means for storing matching pattern information indicating a reference pattern used when the pedestrian candidate extracting means extracts the pedestrian candidate image in association with each pedestrian candidate image. In addition,
The image processing apparatus according to claim 1, wherein the regularity analysis unit determines that pedestrian candidate images extracted based on the same reference pattern have regularity based on the match pattern information.
車両の外界を撮像する撮像装置からの画像データに基づいて歩行者の存在を認識する画像処理装置のコンピュータに実行させる画像処理プログラムであって、
前記コンピュータを、
前記画像データと歩行者のモデルパターンである基準パターンとを比較して当該画像データから歩行者候補画像を抽出する歩行者候補抽出手段と、
前記歩行者候補抽出手段が抽出した歩行者候補画像の形状または並び方の少なくとも一つに規則性があるか否かを判定する規則性分析手段と、
前記規則性分析手段が規則性があると判定した歩行者候補画像を除外し、残った歩行者候補画像に基づいて表示用画像データを生成する除外手段と、
前記除外手段が生成した表示用画像データに基づく画像を表示する表示手段として機能させる、画像処理プログラム。
An image processing program to be executed by a computer of an image processing device that recognizes the presence of a pedestrian based on image data from an imaging device that captures an external environment of a vehicle,
The computer,
A pedestrian candidate extraction means for comparing the image data with a reference pattern which is a model pattern of a pedestrian and extracting a pedestrian candidate image from the image data;
Regularity analysis means for determining whether at least one of the shape or arrangement of the pedestrian candidate images extracted by the pedestrian candidate extraction means has regularity;
Excluding the pedestrian candidate image determined by the regularity analysis means to be regular, and generating the display image data based on the remaining pedestrian candidate image,
An image processing program that functions as a display unit that displays an image based on display image data generated by the exclusion unit.
JP2008081181A 2008-03-26 2008-03-26 Image processing apparatus and image processing program Expired - Fee Related JP5120627B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008081181A JP5120627B2 (en) 2008-03-26 2008-03-26 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008081181A JP5120627B2 (en) 2008-03-26 2008-03-26 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2009237773A true JP2009237773A (en) 2009-10-15
JP5120627B2 JP5120627B2 (en) 2013-01-16

Family

ID=41251663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008081181A Expired - Fee Related JP5120627B2 (en) 2008-03-26 2008-03-26 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP5120627B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011243154A (en) * 2010-05-21 2011-12-01 Mitsubishi Electric Corp Device and method for detecting vehicle
WO2013108371A1 (en) * 2012-01-17 2013-07-25 パイオニア株式会社 Image processing apparatus, image processing server, image processing method, image processing program, and recording medium
US9002630B2 (en) 2010-11-04 2015-04-07 Toyota Jidosha Kabushiki Kaisha Road shape estimation apparatus
WO2016159364A1 (en) * 2015-04-02 2016-10-06 株式会社デンソー Pedestrian determination device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005159392A (en) * 2003-11-20 2005-06-16 Nissan Motor Co Ltd Vehicle periphery monitoring device and method
JP2005352974A (en) * 2004-06-14 2005-12-22 Honda Motor Co Ltd Vehicle circumference monitoring device
JP2006304265A (en) * 2005-03-25 2006-11-02 Fuji Photo Film Co Ltd Image output apparatus, image output method, and image output program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005159392A (en) * 2003-11-20 2005-06-16 Nissan Motor Co Ltd Vehicle periphery monitoring device and method
JP2005352974A (en) * 2004-06-14 2005-12-22 Honda Motor Co Ltd Vehicle circumference monitoring device
JP2006304265A (en) * 2005-03-25 2006-11-02 Fuji Photo Film Co Ltd Image output apparatus, image output method, and image output program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011243154A (en) * 2010-05-21 2011-12-01 Mitsubishi Electric Corp Device and method for detecting vehicle
US9002630B2 (en) 2010-11-04 2015-04-07 Toyota Jidosha Kabushiki Kaisha Road shape estimation apparatus
WO2013108371A1 (en) * 2012-01-17 2013-07-25 パイオニア株式会社 Image processing apparatus, image processing server, image processing method, image processing program, and recording medium
CN104081763A (en) * 2012-01-17 2014-10-01 日本先锋公司 Image processing apparatus, image processing server, image processing method, image processing program and recording medium
JPWO2013108371A1 (en) * 2012-01-17 2015-05-11 パイオニア株式会社 Image processing apparatus, image processing server, image processing method, image processing program, and recording medium
WO2016159364A1 (en) * 2015-04-02 2016-10-06 株式会社デンソー Pedestrian determination device
JP2016197278A (en) * 2015-04-02 2016-11-24 株式会社デンソー Pedestrian determination device
US10482332B2 (en) 2015-04-02 2019-11-19 Denso Corporation Pedestrian determining apparatus for determining whether an object is a pedestrian crossing ahead of an own vehicle

Also Published As

Publication number Publication date
JP5120627B2 (en) 2013-01-16

Similar Documents

Publication Publication Date Title
JP4203512B2 (en) Vehicle periphery monitoring device
JP4263737B2 (en) Pedestrian detection device
JP4173901B2 (en) Vehicle periphery monitoring device
JP6398347B2 (en) Image processing apparatus, recognition object detection method, recognition object detection program, and moving object control system
JP6118096B2 (en) AV image-based parking position setting apparatus and method
JP3934119B2 (en) Vehicle periphery monitoring device
JP4171501B2 (en) Vehicle periphery monitoring device
JP4173902B2 (en) Vehicle periphery monitoring device
JP4692344B2 (en) Image recognition device
US20050276450A1 (en) Vehicle surroundings monitoring apparatus
US9165197B2 (en) Vehicle surroundings monitoring apparatus
JP4528283B2 (en) Vehicle periphery monitoring device
JP4609603B2 (en) 3D information display device and 3D information display method
JP2014089687A (en) Obstacle detection apparatus and method for avm system
US9160986B2 (en) Device for monitoring surroundings of a vehicle
JP2010191793A (en) Alarm display and alarm display method
JP5120627B2 (en) Image processing apparatus and image processing program
JP2006155388A (en) Vehicle circumference monitoring device
JP2007334511A (en) Object detection device, vehicle, object detection method and program for object detection
JP4553071B1 (en) 3D information display device and 3D information display method
JP4823753B2 (en) Vehicle periphery monitoring device
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
JP5004882B2 (en) Vehicle periphery monitoring device
JP2009044631A (en) Object detection device
JP2008084138A (en) Vehicle surrounding monitoring device and surrounding monitoring program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101019

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120119

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120615

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120927

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121010

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees