JP2009237773A - Image processor and image processing program - Google Patents
Image processor and image processing program Download PDFInfo
- Publication number
- JP2009237773A JP2009237773A JP2008081181A JP2008081181A JP2009237773A JP 2009237773 A JP2009237773 A JP 2009237773A JP 2008081181 A JP2008081181 A JP 2008081181A JP 2008081181 A JP2008081181 A JP 2008081181A JP 2009237773 A JP2009237773 A JP 2009237773A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pedestrian candidate
- pedestrian
- regularity
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置および画像処理プログラムに関し、より特定的には、車載カメラ等の画像に基づいて人物を検知する人物認識システムに利用される画像処理に関する。 The present invention relates to an image processing apparatus and an image processing program, and more specifically to image processing used in a person recognition system that detects a person based on an image of a vehicle-mounted camera or the like.
従来より、自動車などの車両に、遠赤外用のビデオカメラを搭載し、夜間走行時に車両前方の歩行者、自転車に乗った人間などを認識して運転者に注意を促す前方監視システムが知られている。このようなシステムの一つに、例えば、人間の輝度分布を表す基準パターンを予め記憶しておき、カメラ画像データと基準パターンとを比較して歩行者を検知する人間認識システムが知られている(例えば、特許文献1)。また、赤外線カメラで撮像した入力画像と、予め、モデル画像記憶部に記憶されている全身モデル画像及び頭部モデル画像とのパターンマッチングを行って歩行者を検出する装置も知られている(例えば、特許文献2)。 Conventionally, a front monitoring system is known in which a far infrared video camera is mounted on a vehicle such as an automobile, and recognizes a pedestrian in front of the vehicle or a person on a bicycle when driving at night to alert the driver. ing. As one of such systems, for example, a human recognition system is known in which a reference pattern representing a human luminance distribution is stored in advance and a pedestrian is detected by comparing camera image data with the reference pattern. (For example, patent document 1). There is also known an apparatus for detecting a pedestrian by performing pattern matching between an input image captured by an infrared camera and a whole body model image and a head model image stored in advance in a model image storage unit (for example, Patent Document 2).
また、物体の大きさ、物体の上部形状、および、物体の側部形状を要素として含む入力特徴ベクトルを、物体の画像に基づいて生成し、これに基づいて物体が歩行者であるか否かを判別する画像処理装置も知られている(例えば特許文献3)。この装置では、上記入力特徴ベクトルに基づいて分析のための演算を行うことにより、判別空間へ写像されたベクトルyを生成する。そして、このベクトルyが判別空間上所定の領域内にあるか否かに応じて、物体が歩行者であるか否かを判別する。
しかしながら、上述したような上記特許文献1や2に開示された装置においては、以下に示す問題点があった。すなわち、上記特許文献1や2のような手法でパターンマッチングを行って判別する場合、例えばガードレールのポールを歩行者として検知してしまうという問題があった。
However, the devices disclosed in
また、特許文献3の手法では、複雑なベクトル演算を行う必要があり、処理負荷が高く、また、このような処理を実現するために高価なハードウェアが必要となり、コストがかかるという問題があった。 In addition, the technique of Patent Document 3 requires a complicated vector operation, and has a high processing load. In addition, expensive hardware is required to realize such processing, which increases costs. It was.
それ故に、本発明の目的は、より簡易な処理で精度の高い人物検出ができる画像処理装置を提供することである。 Therefore, an object of the present invention is to provide an image processing apparatus capable of detecting a person with high accuracy with simpler processing.
本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施形態との対応関係の一例を示したものであって、本発明を何ら限定するものではない。 The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like are examples of the correspondence with the embodiments described later in order to help understanding of the present invention, and do not limit the present invention.
第1の発明は、車両の外界を撮像する撮像装置からの画像データに基づいて歩行者の存在を認識する画像処理装置であって、画像データと歩行者のモデルパターンである基準パターンとを比較して当該画像データから歩行者候補画像を抽出する歩行者候補抽出手段(13)と、歩行者候補抽出手段が抽出した歩行者候補画像の形状または並び方の少なくとも一つに規則性があるか否かを判定する規則性分析手段(14)と、規則性分析手段が規則性があると判定した歩行者候補画像を除外し、残った歩行者候補画像に基づいて表示用画像データを生成する除外手段(14,15)と、除外手段が生成した表示用画像データに基づく画像を表示する表示手段(17)とを備える。 A first invention is an image processing device that recognizes the presence of a pedestrian based on image data from an imaging device that captures the outside of a vehicle, and compares the image data with a reference pattern that is a pedestrian model pattern. Whether or not at least one of the shape or arrangement of the pedestrian candidate image extracted by the pedestrian candidate extraction unit and the pedestrian candidate extraction unit that extracts the pedestrian candidate image from the image data is regular. Regularity analysis means (14) for determining whether or not the pedestrian candidate image determined to be regular by the regularity analysis means, and generating image data for display based on the remaining pedestrian candidate image Means (14, 15) and display means (17) for displaying an image based on the display image data generated by the exclusion means.
第1の発明によれば、規則性のある歩行者候補者画像について歩行者候補から除外する。これにより、例えばガードレールのポールのような、並び方や形状に規則性がある物体が歩行者として誤検出されることを防ぎ、より精度の高い歩行者検出が可能となる。 According to the first invention, regular pedestrian candidate images are excluded from pedestrian candidates. Thereby, for example, an object having regularity in arrangement and shape such as a pole of a guardrail is prevented from being erroneously detected as a pedestrian, and more accurate pedestrian detection is possible.
第2の発明は、第1の発明において、規則性分析手段は、複数の歩行者候補画像のそれぞれの端部が一直線上に並んでいるか否かを判定し、一直線上に並んでいる歩行者候補画像について規則性があると判定する。 In a second aspect based on the first aspect, the regularity analyzing means determines whether or not the end portions of the plurality of candidate pedestrian images are aligned on a straight line, and the pedestrians aligned on the straight line It is determined that the candidate image has regularity.
第3の発明は、第2の発明において、規則性分析手段は、複数の歩行者候補画像のそれぞれの端部と画像データで示される画像上における消失点とを結ぶ直線を算出する直線算出手段(14)と、端部が交差している歩行者候補画像の数が所定数以上である直線を抽出する抽出手段(14)とを含む。そして、規則性分析手段は、抽出手段が抽出した直線と端部が交差している歩行者候補画像については規則性があると判定する。 In a third aspect based on the second aspect, the regularity analyzing means calculates a straight line connecting each end of the plurality of pedestrian candidate images and a vanishing point on the image indicated by the image data. (14) and extraction means (14) for extracting a straight line in which the number of pedestrian candidate images whose ends intersect each other is a predetermined number or more. Then, the regularity analysis unit determines that the pedestrian candidate image whose end portion intersects with the straight line extracted by the extraction unit has regularity.
第2乃至第3の発明によれば、一直線に並んでいる歩行者候補画像を歩行者候補から除外することができる。これにより、精度の高い歩行者検出が可能となる。 According to the second to third inventions, pedestrian candidate images arranged in a straight line can be excluded from pedestrian candidates. Thereby, highly accurate pedestrian detection becomes possible.
第4の発明は、第1乃至第3のいずれかの発明において、規則性分析手段は、複数の歩行者候補画像間の画素数に基づいて、歩行者候補画像に対応する物体が車両の外界において等間隔で並んでいるか否かを判定する等間隔配置判定手段を含む。そして、規則性分析手段は、等間隔配置判定手段によって等間隔で並んでいると判定された複数の歩行者候補画像については規則性があると判定する。 According to a fourth invention, in any one of the first to third inventions, the regularity analyzing means is configured such that the object corresponding to the pedestrian candidate image is based on the number of pixels between the plurality of pedestrian candidate images. Includes an equidistant arrangement determining means for determining whether or not they are arranged at equal intervals. Then, the regularity analysis unit determines that the plurality of pedestrian candidate images determined to be arranged at equal intervals by the equal interval arrangement determination unit have regularity.
第4の発明によれば、等間隔に並んでいる歩行者候補画像については歩行者候補から除外する。これにより、例えばガードレールのポールのような、等間隔に配置されている物体について歩行者として誤検出されることを防ぎ、歩行者検出の精度をより高めることができる。 According to the fourth invention, pedestrian candidate images arranged at equal intervals are excluded from pedestrian candidates. Thereby, for example, it is possible to prevent erroneous detection as an pedestrian of an object arranged at equal intervals, such as a pole of a guardrail, and to further improve the accuracy of pedestrian detection.
第5の発明は、第1の発明において、規則性分析手段は、複数の歩行者候補画像の輝度に基づいて歩行者候補の形状を算出する形状算出手段を含む。そして、規則性分析手段は、歩行者候補の形状が相似しているときは規則性があると判定する。 In a fifth aspect based on the first aspect, the regularity analysis means includes shape calculation means for calculating the shape of the pedestrian candidate based on the luminance of the plurality of pedestrian candidate images. Then, the regularity analysis means determines that there is regularity when the shapes of the pedestrian candidates are similar.
第6の発明は、第1の発明において、画像処理装置は、歩行者候補抽出手段が歩行者候補画像を抽出したときに用いた基準パターンを示す合致パターン情報を各歩行者候補画像と対応づけて記憶する合致パターン情報記憶手段を更に備える。そして、規則性分析手段は、合致パターン情報に基づいて、同じ基準パターンによって抽出された歩行者候補画像については規則性があると判定する。 In a sixth aspect based on the first aspect, the image processing apparatus associates the matching pattern information indicating the reference pattern used when the pedestrian candidate extracting unit extracts the pedestrian candidate image with each pedestrian candidate image. And a matching pattern information storage means for storing. Then, the regularity analysis unit determines that the pedestrian candidate images extracted based on the same reference pattern have regularity based on the matching pattern information.
第5乃至第6の発明によれば、形状が類似する歩行者候補画像については歩行者候補から除外することができ、歩行者検出の精度をより高めることができる。 According to the fifth to sixth inventions, pedestrian candidate images having similar shapes can be excluded from pedestrian candidates, and the accuracy of pedestrian detection can be further increased.
第7の発明は、車両の外界を撮像する撮像装置からの画像データに基づいて歩行者の存在を認識する画像処理装置のコンピュータに実行させる画像処理プログラムであって、コンピュータを、画像データと歩行者のモデルパターンである基準パターンとを比較して当該画像データから歩行者候補画像を抽出する歩行者候補抽出手段(S2)と、歩行者候補抽出手段が抽出した歩行者候補画像の形状または並び方の少なくとも一つに規則性があるか否かを判定する規則性分析手段(S3〜S8)と、規則性分析手段が規則性があると判定した歩行者候補画像を除外し、残った歩行者候補画像に基づいて表示用画像データを生成する除外手段(S7、S9)と、除外手段が生成した表示用画像データに基づく画像を表示する表示手段(S10)として機能させる。 A seventh aspect of the invention is an image processing program for causing a computer of an image processing apparatus to recognize the presence of a pedestrian based on image data from an imaging apparatus that captures the outside of a vehicle. A pedestrian candidate extraction means (S2) for extracting a pedestrian candidate image from the image data by comparing with a reference pattern that is a model pattern of the pedestrian, and a shape or arrangement of pedestrian candidate images extracted by the pedestrian candidate extraction means Regularity analysis means (S3 to S8) for determining whether or not at least one of them has regularity, and pedestrian candidate images determined by the regularity analysis means to be regularity are excluded, and the remaining pedestrians Exclusion means (S7, S9) for generating display image data based on the candidate image, and display means (S10) for displaying an image based on the display image data generated by the exclusion means To function Te.
第7の発明によれば、上記第1の発明と同様の効果を得ることができる。 According to the seventh aspect, the same effect as the first aspect can be obtained.
本発明によれば、より精度の高い歩行者検出を実現することができる。 According to the present invention, more accurate pedestrian detection can be realized.
以下、本発明の実施の形態について、図面を参照して説明する。尚、この実施例により本発明が限定されるものではない。 Embodiments of the present invention will be described below with reference to the drawings. In addition, this invention is not limited by this Example.
図1は、本発明の実施形態に係る画像処理装置10の構成を示した図である。図1において、画像処理装置10は、ナイトビューカメラ11と人物検知部12と、表示部17とで構成される。
FIG. 1 is a diagram showing a configuration of an
ナイトビューカメラ11は、例えば、車両に搭載され、夜間の歩行者、自転車に乗った人間などを認識する遠赤外用のビデオカメラである。ナイトビューカメラ11は、IEEE1394に準拠した車載LAN通信線を介して人物検知部12に接続されている。ナイトビューカメラ11で取得された画像は、人物検知部12に出力される。
The
人物検知部12は、ナイトビューカメラ11で取得された画像に基づいて歩行者を検知する。そして、カメラ画像上の歩行者の位置に注意枠を重ねた画像を生成する。人物検知部12は、一次抽出部13と二次抽出部14と画像生成部15とで構成されている。
The
一次抽出部13は、ナイトビューカメラ11から出力されたカメラ画像を取得する。そして、当該画像の各画素の輝度値に基づき、人物候補画像を含む領域(以下、人間候補領域)を抽出する。そして、当該人間候補領域を示す画像(以下、一次抽出画像)を二次抽出部14に出力する。
The primary extraction unit 13 acquires the camera image output from the
二次抽出部14は、一次抽出画像に基づき、後述するような処理を行うことで人物候補領域の規則性を分析する。更に、規則性のある人物候補領域群については除外する処理を行う。そして、その抽出結果を示す画像(以下、二次抽出画像)を画像生成部15に出力する。 The secondary extraction unit 14 analyzes the regularity of the person candidate region by performing processing as described later based on the primary extracted image. Further, a process for excluding the candidate person group with regularity is performed. Then, an image indicating the extraction result (hereinafter referred to as a secondary extracted image) is output to the image generation unit 15.
画像生成部15は、二次抽出画像に基づき、人間候補領域の大きさに応じた注意枠を生成する。また、画像生成部15は、当該注意枠を上記カメラ画像に重ねた画像を表示画像として生成する。更に、画像生成部15は、当該表示画像を表示部17に出力する。
The image generation unit 15 generates a caution frame corresponding to the size of the human candidate region based on the secondary extracted image. The image generation unit 15 generates an image obtained by superimposing the attention frame on the camera image as a display image. Further, the image generation unit 15 outputs the display image to the
記憶部16には、後述するような処理で用いられる各種データが記憶されている。具体的には、人間モデルの輝度パターンを示す基準パターンや、上記カメラ画像における消失点(FOE;Focus of Expansion)の位置を示すFOE座標161等が記憶されている。当該FOE座標は、上記ナイトビューカメラ11の設置位置や角度に基づいて一意に定められるものであり、表示部17の画面座標系におけるFOEの位置がFOE座標161として予め記憶されている。
The
表示部17は、上記ナイトビューカメラ11の画素数に応じた解像度を有する表示デバイスであり、例えば、ナイトビューカメラ11が45万画素のカメラであるとすると、770×578ドットの解像度を有する。そして、表示部17は、画像生成部15から出力された画像を人物検知結果として表示する。
The
次に、図2〜図8を用いて、本実施形態における人物検知処理の概要について説明する。本実施形態では、従来の手法により検知された人物候補領域に対して、その人物候補領域の位置や並びの規則性を分析し、当該人物候補領域が、例えばガードレールのポールような、人間以外の物であるか否かを判定するための処理が実行される。 Next, an outline of person detection processing in the present embodiment will be described with reference to FIGS. In the present embodiment, the position of the person candidate area and the regularity of the person candidate area detected by the conventional method are analyzed, and the person candidate area is, for example, a non-human person such as a guardrail pole. A process for determining whether or not it is an object is executed.
図2は、上記ナイトビューカメラ11が撮影したカメラ画像の一例を模式的に示す図である。図2では、歩行者101a〜101cと、ガードレール102aおよび102b、標識103が表示されている。また、ガードレール102aは、ポール104a〜104dを含み、ガードレール102bは、ポール104e〜104hを含んでいる。
FIG. 2 is a diagram schematically showing an example of a camera image taken by the
本実施形態では、図2のようなカメラ画像に対して、まず、一次抽出部13において人物検知処理が行われる。ここでの人物検知処理は、従来から知られている手法でよいが、一例として、本実施形態では、輝度に基づく人物検知処理(以下、一次抽出処理と呼ぶ)を行う。より具体的には、カメラ画像の各画素の輝度について、所定値以上の輝度を有する画素で構成される領域が抽出される。そして、予め記憶部16に記憶されている人間の輝度パターンを示す基準パターンとのパターンマッチングが行われ、マッチしたものについて人間候補領域とする。図3は、一次抽出処理の結果を示す画像(以下、一次抽出画像と呼ぶ)の例である。当該画像のサイズ(画素数)は、上記カメラ画像と同じサイズである。図3では、各歩行者101と、各ポール104を点線で囲んだ領域が人物候補領域110a〜110kとして表示されている。すなわち、図3では、一次抽出処理においてポール104も歩行者として誤認識された状態であることが示されている。
In the present embodiment, a person detection process is first performed on the camera image as shown in FIG. The person detection process here may be a conventionally known technique, but as an example, in the present embodiment, a person detection process based on luminance (hereinafter referred to as a primary extraction process) is performed. More specifically, an area composed of pixels having a luminance equal to or higher than a predetermined value is extracted for the luminance of each pixel of the camera image. Then, pattern matching with a reference pattern indicating a human luminance pattern stored in advance in the
本実施形態では、上記一次抽出画像に対して、更に人物検知処理を行う(以下、二次抽出処理と呼ぶ)。当該二次抽出処理では、上記ポール104が実空間においては同じ高さであり、一直線に並んでいる、という規則性があることに着目し、このような規則性を有する人物候補領域は歩行者ではないとして除外するという処理が実行される。具体的には、以下のような処理が実行される。 In the present embodiment, person detection processing is further performed on the primary extraction image (hereinafter referred to as secondary extraction processing). In the secondary extraction process, paying attention to the regularity that the poles 104 have the same height in real space and are aligned in a straight line, the human candidate area having such regularity is a pedestrian. The process of excluding it is not executed. Specifically, the following processing is executed.
まず、図3に示したような一次抽出画像において、各人物候補領域110の上端の座標(正確には点線で示されている長方形の上辺の中心座標であるが、以下では単に上端座標と呼ぶ)と、FOEに相当する座標とを結ぶ直線を算出する。図4は、人物候補領域110a(ポール104aに対応)の上端座標とFOE121とを結んだ直線122の例を示す。このような直線を各人物候補領域について算出する。図5は、各人物候補領域の上端座標とFOE121とを直線で結んだ状態を示す図である。
First, in the primary extracted image as shown in FIG. 3, the coordinates of the upper end of each person candidate area 110 (more precisely, the center coordinates of the upper side of the rectangle indicated by the dotted line, but in the following, simply referred to as the upper end coordinates). ) And coordinates corresponding to FOE are calculated. FIG. 4 shows an example of a straight line 122 connecting the upper end coordinates of the
ここで、図4や図5に示されるように、左側のポール104a〜104dに対応する人物候補領域110a〜110dついては、その上端部分が直線122aに重複した状態となっている。同様に、右側の人物候補領域110e〜110hについても、その上端部分が直線122bと重複した状態となっている。このように、ポール104のような同じ高さで直線的に並んでいる物は、FOE121に向かう直線122aや122bに重なる状態となる。そのため、当該直線122aおよび122bに重なっている人物候補領域110については人物ではないと考えることができる。
Here, as shown in FIG. 4 and FIG. 5, the upper end portions of the
そこで、本実施形態では、上記直線122aおよび122bに重なっている人物候補領域110a〜110hを一次抽出画像から削除して二次抽出画像を生成する。図6は、二次抽出画像の例である。図6では、歩行者101に対応する人物候補領域110i〜110kのみが残っている状態が示されている。そして、当該二次抽出画像画像に基づいて、図7に示すような注意枠141a〜141cを生成する。
Therefore, in this embodiment, the candidate
最後に、図8に示すような、上記カメラ画像に当該注意枠141a〜141cを重ね合わせた画像を生成し、当該画像を歩行者検出結果として表示部17に表示する。
Finally, as shown in FIG. 8, an image in which the attention frames 141a to 141c are superimposed on the camera image is generated, and the image is displayed on the
このように、本実施形態では、従来の手法によってガードレールのポール等のような物体が人間として誤検出されたとしても、当該物体の有する規則性に着目して、これらの物体が人間ではないことを検知することができる。これにより、人物検出処理の精度をより高めることが可能となる。 As described above, in this embodiment, even if an object such as a guardrail pole is erroneously detected as a human by a conventional method, paying attention to the regularity of the object, these objects are not human. Can be detected. Thereby, it is possible to further improve the accuracy of the person detection process.
以下、図9を用いて、画像処理装置10が行う人物検知処理の詳細動作を説明する。なお、図9のフローチャートで示す処理は、1/10秒毎に繰り返されるものとする。
Hereinafter, the detailed operation of the person detection process performed by the
図9において、まず、一次抽出部13は、ナイトビューカメラ11からカメラ画像を取得する(ステップS1)。 In FIG. 9, first, the primary extraction unit 13 acquires a camera image from the night view camera 11 (step S1).
次に、一次抽出部13は、当該カメラ画像に基づく一次抽出処理を実行する(ステップS2)。本実施形態における当該処理は、上述したように各画素の輝度に基づいて人物候補領域110を抽出するための処理である。当該処理の原理、及び基本的な処理手法等については当業者には既知であるため、詳しい説明は省略するが、本実施形態では、まず、所定値以上の輝度を有す画素を抽出し、これらの画素で構成される領域を適宜設定する。そして、この領域(輝度のパターン)を、人間の輝度パターンを示す基準パターンとパターンマッチングする(当該基準パターンには、人間をあらゆる角度から観察した輝度のパターンが多数含まれている)。そして、基準パターン(のうちのいすれか)とマッチしていれば、その領域は人物候補領域として扱う処理が実行される。そして、当該処理の結果、上述したような一次抽出画像(そのサイズは、表示部17の解像度に合わせたサイズとなっている)が生成され、一次抽出部13は、二次抽出部14に当該一次抽出画像を出力する。
Next, the primary extraction part 13 performs the primary extraction process based on the said camera image (step S2). The process in the present embodiment is a process for extracting the
次に、二次抽出部14において、以下に示すような処理(二次抽出処理)が実行される。まず、二次抽出部14は、記憶部16からFOE座標161を読み出す(ステップS3)。続いて、二次抽出部14は、上記一次抽出画像上の各人物候補領域110の上端座標と、FOE座標161(図5のFOE121に相当)とを結ぶ直線を算出する(ステップS4)。
Next, in the secondary extraction unit 14, the following process (secondary extraction process) is executed. First, the secondary extraction unit 14 reads the FOE coordinates 161 from the storage unit 16 (step S3). Subsequently, the secondary extraction unit 14 calculates a straight line connecting the upper end coordinates of each
次に、二次抽出部14は、所定数以上の人物候補領域110が重なっている直線を抽出し、当該直線に重なっている人物候補領域110を各直線毎にグループ化する処理を行う(ステップS5)。このステップS5の処理をより具体的に説明すると、まず、二次抽出部14は、上記直線に重なっている人物候補領域110の数を算出する。ここで、重なっているか否かの判定部分については、基本的には上端座標を基準とするが、検出条件が厳しくなりすぎて、検出されるべき物が検出されなくなることを防ぐために、図10に示すように、重なり判定を行う部分に若干の幅を持たせる。例えば、人物候補領域110の上辺から3ドットまでの部分において直線と重なっていれば、その候補領域は重なっていると判定する。次に、直線に重なっている人物候補領域110の数が所定値以上、例えば”4”以上の直線のみを抽出する。そして、これらの直線に重なっている人物候補領域110を直線毎にグループ化する(図11参照)。
Next, the secondary extraction unit 14 extracts a straight line where a predetermined number or more of the
次に、上記でグループ化された各グループについて、以下のような処理が行われる。まず、二次抽出部14は、上記グループに含まれている人物候補領域110の配置間隔が3次元空間内において等間隔であるか否かを判定する(ステップS6)。このステップS6の処理をより具体的に説明すると、まず、二次抽出部14は、各人物候補領域間の画素数を上記直線に沿ってカウントする。つまり、直線上における各人物候補領域の間隔の大きさを画素数として取得する。次に、当該画素数が所定の比率で小さくなっていく関係にあるかを判定する。これは、例えばガードレールのポール等は3次元空間内では等間隔で配置されていても、2次元画像(2次元座標系)で表されると、図11に示されるように、奥に行くほど当該間隔が小さく(狭く)なって表現される。しかし、3次元空間内で等間隔で配置されている物については、2次元座標系において、間隔が小さくなっていく比率を予め所定の計算によって算出しておくことが可能である。そのため、例えば、上記画素数の変化が、画面下から上に向かって10:8:6のような比率(間隔パターン)であれば、3次元空間内においては等間隔であると判定する。なお、上記の処理方法はあくまで一例であり、これに限らず、上記のような人物候補領域110の配置関係が3次元空間内において等間隔であることが判定できれば、どのような処理方法を用いても良い。
Next, the following processing is performed for each group grouped as described above. First, the secondary extraction unit 14 determines whether or not the arrangement intervals of the
上記判定の結果、等間隔と判定したときは、二次抽出部14は、上記グループ化された人物候補領域110はガードレールのポールのような物体と考えられるため、上記一次抽出画像から削除する(ステップS7)。一方、等間隔でないと判定したときは、二次抽出部14は、次のステップS8へと処理を進める。
As a result of the determination, when it is determined that the intervals are equal, the secondary extraction unit 14 deletes the grouped
次に、二次抽出部14は、全てのグループについて上記ステップS6〜S7の処理を行ったか否か判定し(ステップS8)、行われていなければ(ステップS8でNO)、まだチェックしていないグループについて上記ステップS6〜S7の処理を繰り返す。 Next, the secondary extraction unit 14 determines whether or not the processing in steps S6 to S7 has been performed for all groups (step S8). If not performed (NO in step S8), the secondary extraction unit 14 has not yet checked. The processes in steps S6 to S7 are repeated for the group.
一方、ステップS8の判定の結果、全てのグループをチェックしていれば(ステップS8でYES)、上記の処理で人物候補領域110が削除された一次抽出画像を二次抽出画像として画像生成部15に出力する。画像生成部15は、二次抽出画像上に残っている各人物候補領域の大きさに合わせて、図7に示したような注意枠141をそれぞれ生成する(ステップS9)。
On the other hand, if all the groups are checked as a result of the determination in step S8 (YES in step S8), the image generation unit 15 uses the primary extraction image from which the
更に、画像生成部15は、上記カメラ画像に、当該生成した注意枠141を重畳した画像を生成する。そして、画像生成部15は、当該画像を表示画像として表示部17に出力する(ステップS10)。その結果、図8に示したような画像が表示部17に表示されることになる。以上で、本実施形態にかかる人物検知処理は終了する。
Furthermore, the image generation unit 15 generates an image in which the generated attention frame 141 is superimposed on the camera image. Then, the image generation unit 15 outputs the image as a display image to the display unit 17 (step S10). As a result, an image as shown in FIG. 8 is displayed on the
以上のように、本実施形態では、従来の手法で一旦人物候補領域を検出した後、更に、人物候補領域の有する規則性、具体的には一直線に並んで配置されているか否か等に基づいて人物ではない物体を検知し、人物候補領域から除外する処理を行っている。これにより、ガードレールのポール等が人物として誤検出されることを防ぐことができ、より精度の高い人物検知を実現することが可能となる。 As described above, in the present embodiment, after the person candidate area is once detected by the conventional method, the person candidate area further has regularity, specifically based on whether or not the person candidate area is arranged in a straight line. An object that is not a person is detected and excluded from the person candidate area. As a result, it is possible to prevent a guardrail pole or the like from being erroneously detected as a person, and to realize more accurate person detection.
なお、上述の実施形態では、候補領域の上端座標とFOEを結ぶ直線を算出し、当該直線と、各候補領域の上端部分との重なりを判定していた、これに加えて、更に、候補領域の下端側を併用するようにしても良い。すなわち、候補領域の下端座標とFOE121を結ぶ直線を算出し、各人物候補領域の下端部分(上記上端座標と同様に、重なり判定を行う部分には幅を持たせる)と当該直線との重なりも判定して、直線上に並んでいるか否かを判定するようにしても良い。そして、上端、および下端側のいずれか一方が所定数以上直線に重なっていれば、その人物候補領域は人物ではないものとして削除するするようにしても良い。
In the above-described embodiment, a straight line connecting the upper end coordinates of the candidate area and the FOE is calculated, and the overlap between the straight line and the upper end portion of each candidate area is determined. In addition, the candidate area You may make it use together the lower end side of. That is, a straight line connecting the lower end coordinates of the candidate area and the
また、人物であるか否かの判定方法についても、上記のような直線を利用した処理だけに限らず、例えば、各人物候補領域の輝度パターンの類似性に基づいて判定するようにしても良い。ガードレールのポールのようなものは、その輝度パターンについても類似するものと考えられるからである。更には、当該輝度パターンからその物体の形状を算出し、当該形状の類似性に基づいて判定するようにしても良い。例えば、ガードレールのポール等はその形状が同じであるため、形状の類似度が高い人物候補領域が所定数以上あれば、それらは人物ではないと判定するようにしてもよい。 Also, the method for determining whether or not a person is a person is not limited to the process using a straight line as described above. For example, the determination may be made based on the similarity of the luminance patterns of each person candidate area. . This is because a guardrail pole is considered to be similar in luminance pattern. Furthermore, the shape of the object may be calculated from the luminance pattern, and the determination may be made based on the similarity of the shape. For example, since the poles of the guardrail have the same shape, if there are a predetermined number or more of human candidate regions having a high degree of similarity in shape, it may be determined that they are not persons.
更に、上述の実施形態では、上記ステップS2において人物候補領域を抽出する処理として、基準パターンと輝度パターンのマッチングを例に説明した。この基準パターンに着目し、同じ基準パターンとマッチした複数の人物候補領域については、人物ではないと判定するようにしても良い。つまり、人物であれば、服装や背格好が個人個人で異なり、その反射率も異なるため、人物に対応する人物候補領域に関しては、全く同じ基準パターンにマッチして抽出されたという可能性は低い。一方、ガードレールのポールのような、同じ物が複数連続して並んでいるようなものは反射率もほぼ同じであると考えられる。そのため、同じ基準パターンにマッチして人物候補領域として抽出されるという可能性は高いと考えられる。そこで、上記ステップS2の処理の際に、人物候補領域として抽出された際に用いられた基準パターンの情報、例えば、上記基準パターンの識別番号等を合致パターン情報として記憶部16に一時的に記憶する。この際、抽出された各人物候補領域と合致パターン情報とを対応づけて記憶しておく。そして、二次抽出部14は、当該合致パターン情報を読み出して、同じ識別番号を有する基準パターンによって抽出された人物候補領域(つまり、合致パターン情報が同じである人物候補領域)については、人物ではないと判定するようにしてもよい。
Further, in the above-described embodiment, the matching between the reference pattern and the luminance pattern has been described as an example of the process of extracting the person candidate area in step S2. Focusing on this reference pattern, a plurality of candidate human regions that match the same reference pattern may be determined not to be a person. In other words, for a person, the clothes and appearance are different for each individual, and the reflectance is also different. Therefore, it is unlikely that the person candidate area corresponding to the person was extracted by matching the same reference pattern. . On the other hand, it is considered that the reflectance is almost the same when a plurality of the same objects such as guardrail poles are continuously arranged. Therefore, it is considered highly possible that the candidate pattern is extracted as a person candidate area by matching the same reference pattern. Therefore, in the process of step S2, information on the reference pattern used when extracted as the person candidate area, for example, the identification number of the reference pattern, etc., is temporarily stored in the
また、FOE座標に関して、上述の実施形態では予め記憶部16に記憶されているFOE座標161を読み出して使用していたが、これに限らず、上記ステップS3の処理において、その都度、ナイトビューカメラ11の角度や焦点距離等の情報を取得し、FOE座標を算出して用いるようにしてもよい。
Further, regarding the FOE coordinates, in the above-described embodiment, the FOE coordinates 161 stored in advance in the
本発明にかかる画像処理装置および画像処理プログラムは、カメラの撮像画像に基づく人物検知の精度を高めることができ、車載用の人物検知システム等に有用である。 The image processing apparatus and the image processing program according to the present invention can improve the accuracy of person detection based on a captured image of a camera, and are useful for a vehicle-mounted person detection system and the like.
10 画像処理装置
11 ナイトビューカメラ
12 人物検知部
13 一次抽出部
14 二次抽出部
15 画像生成部
16 記憶部
17 表示部
DESCRIPTION OF
Claims (7)
前記画像データと歩行者のモデルパターンである基準パターンとを比較して当該画像データから歩行者候補画像を抽出する歩行者候補抽出手段と、
前記歩行者候補抽出手段が抽出した歩行者候補画像の形状または並び方の少なくとも一つに規則性があるか否かを判定する規則性分析手段と、
前記規則性分析手段が規則性があると判定した歩行者候補画像を除外し、残った歩行者候補画像に基づいて表示用画像データを生成する除外手段と、
前記除外手段が生成した表示用画像データに基づく画像を表示する表示手段とを備える画像処理装置。 An image processing device for recognizing the presence of a pedestrian based on image data from an imaging device that images the outside of the vehicle,
A pedestrian candidate extraction means for comparing the image data with a reference pattern which is a model pattern of a pedestrian and extracting a pedestrian candidate image from the image data;
Regularity analysis means for determining whether at least one of the shape or arrangement of the pedestrian candidate images extracted by the pedestrian candidate extraction means has regularity;
Excluding the pedestrian candidate image determined by the regularity analysis means to be regular, and generating the display image data based on the remaining pedestrian candidate image,
An image processing apparatus comprising: display means for displaying an image based on the display image data generated by the exclusion means.
複数の前記歩行者候補画像のそれぞれの端部と前記画像データで示される画像上における消失点とを結ぶ直線を算出する直線算出手段と、
前記端部が交差している歩行者候補画像の数が所定数以上である前記直線を抽出する抽出手段とを含み、
前記抽出手段が抽出した直線と端部が交差している前記歩行者候補画像については規則性があると判定する、請求項2に記載の画像処理装置。 The regularity analysis means includes:
Straight line calculating means for calculating a straight line connecting each end portion of the plurality of pedestrian candidate images and a vanishing point on the image indicated by the image data;
Extracting means for extracting the straight line in which the number of pedestrian candidate images intersecting at the ends is a predetermined number or more,
The image processing apparatus according to claim 2, wherein the pedestrian candidate image whose end portion intersects with the straight line extracted by the extraction unit is determined to have regularity.
複数の前記歩行者候補画像間の画素数に基づいて、前記歩行者候補画像に対応する物体が車両の外界において等間隔で並んでいるか否かを判定する等間隔配置判定手段を含み、
前記等間隔配置判定手段によって等間隔で並んでいると判定された複数の歩行者候補画像については規則性があると判定する、請求項1乃至請求項3のいずれかに記載の画像処理装置。 The regularity analysis means includes:
Based on the number of pixels between the plurality of pedestrian candidate images, including equidistant arrangement determination means for determining whether or not the objects corresponding to the pedestrian candidate images are arranged at equal intervals in the outside world of the vehicle,
The image processing apparatus according to claim 1, wherein the plurality of pedestrian candidate images determined to be arranged at equal intervals by the equal interval arrangement determination unit are determined to have regularity.
複数の前記歩行者候補画像の輝度に基づいて歩行者候補の形状を算出する形状算出手段を含み、
前記歩行者候補の形状が相似しているときは規則性があると判定する、請求項1に記載の画像処理装置。 The regularity analysis means includes:
Including a shape calculating means for calculating the shape of the pedestrian candidate based on the luminance of the plurality of pedestrian candidate images,
The image processing apparatus according to claim 1, wherein when the shape of the pedestrian candidate is similar, it is determined that there is regularity.
前記規則性分析手段は、前記合致パターン情報に基づいて、同じ基準パターンによって抽出された歩行者候補画像については規則性があると判定する、請求項1に記載の画像処理装置。 The image processing device includes matching pattern information storage means for storing matching pattern information indicating a reference pattern used when the pedestrian candidate extracting means extracts the pedestrian candidate image in association with each pedestrian candidate image. In addition,
The image processing apparatus according to claim 1, wherein the regularity analysis unit determines that pedestrian candidate images extracted based on the same reference pattern have regularity based on the match pattern information.
前記コンピュータを、
前記画像データと歩行者のモデルパターンである基準パターンとを比較して当該画像データから歩行者候補画像を抽出する歩行者候補抽出手段と、
前記歩行者候補抽出手段が抽出した歩行者候補画像の形状または並び方の少なくとも一つに規則性があるか否かを判定する規則性分析手段と、
前記規則性分析手段が規則性があると判定した歩行者候補画像を除外し、残った歩行者候補画像に基づいて表示用画像データを生成する除外手段と、
前記除外手段が生成した表示用画像データに基づく画像を表示する表示手段として機能させる、画像処理プログラム。 An image processing program to be executed by a computer of an image processing device that recognizes the presence of a pedestrian based on image data from an imaging device that captures an external environment of a vehicle,
The computer,
A pedestrian candidate extraction means for comparing the image data with a reference pattern which is a model pattern of a pedestrian and extracting a pedestrian candidate image from the image data;
Regularity analysis means for determining whether at least one of the shape or arrangement of the pedestrian candidate images extracted by the pedestrian candidate extraction means has regularity;
Excluding the pedestrian candidate image determined by the regularity analysis means to be regular, and generating the display image data based on the remaining pedestrian candidate image,
An image processing program that functions as a display unit that displays an image based on display image data generated by the exclusion unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008081181A JP5120627B2 (en) | 2008-03-26 | 2008-03-26 | Image processing apparatus and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008081181A JP5120627B2 (en) | 2008-03-26 | 2008-03-26 | Image processing apparatus and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009237773A true JP2009237773A (en) | 2009-10-15 |
JP5120627B2 JP5120627B2 (en) | 2013-01-16 |
Family
ID=41251663
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008081181A Expired - Fee Related JP5120627B2 (en) | 2008-03-26 | 2008-03-26 | Image processing apparatus and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5120627B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011243154A (en) * | 2010-05-21 | 2011-12-01 | Mitsubishi Electric Corp | Device and method for detecting vehicle |
WO2013108371A1 (en) * | 2012-01-17 | 2013-07-25 | パイオニア株式会社 | Image processing apparatus, image processing server, image processing method, image processing program, and recording medium |
US9002630B2 (en) | 2010-11-04 | 2015-04-07 | Toyota Jidosha Kabushiki Kaisha | Road shape estimation apparatus |
WO2016159364A1 (en) * | 2015-04-02 | 2016-10-06 | 株式会社デンソー | Pedestrian determination device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005159392A (en) * | 2003-11-20 | 2005-06-16 | Nissan Motor Co Ltd | Vehicle periphery monitoring device and method |
JP2005352974A (en) * | 2004-06-14 | 2005-12-22 | Honda Motor Co Ltd | Vehicle circumference monitoring device |
JP2006304265A (en) * | 2005-03-25 | 2006-11-02 | Fuji Photo Film Co Ltd | Image output apparatus, image output method, and image output program |
-
2008
- 2008-03-26 JP JP2008081181A patent/JP5120627B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005159392A (en) * | 2003-11-20 | 2005-06-16 | Nissan Motor Co Ltd | Vehicle periphery monitoring device and method |
JP2005352974A (en) * | 2004-06-14 | 2005-12-22 | Honda Motor Co Ltd | Vehicle circumference monitoring device |
JP2006304265A (en) * | 2005-03-25 | 2006-11-02 | Fuji Photo Film Co Ltd | Image output apparatus, image output method, and image output program |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011243154A (en) * | 2010-05-21 | 2011-12-01 | Mitsubishi Electric Corp | Device and method for detecting vehicle |
US9002630B2 (en) | 2010-11-04 | 2015-04-07 | Toyota Jidosha Kabushiki Kaisha | Road shape estimation apparatus |
WO2013108371A1 (en) * | 2012-01-17 | 2013-07-25 | パイオニア株式会社 | Image processing apparatus, image processing server, image processing method, image processing program, and recording medium |
CN104081763A (en) * | 2012-01-17 | 2014-10-01 | 日本先锋公司 | Image processing apparatus, image processing server, image processing method, image processing program and recording medium |
JPWO2013108371A1 (en) * | 2012-01-17 | 2015-05-11 | パイオニア株式会社 | Image processing apparatus, image processing server, image processing method, image processing program, and recording medium |
WO2016159364A1 (en) * | 2015-04-02 | 2016-10-06 | 株式会社デンソー | Pedestrian determination device |
JP2016197278A (en) * | 2015-04-02 | 2016-11-24 | 株式会社デンソー | Pedestrian determination device |
US10482332B2 (en) | 2015-04-02 | 2019-11-19 | Denso Corporation | Pedestrian determining apparatus for determining whether an object is a pedestrian crossing ahead of an own vehicle |
Also Published As
Publication number | Publication date |
---|---|
JP5120627B2 (en) | 2013-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4203512B2 (en) | Vehicle periphery monitoring device | |
JP4263737B2 (en) | Pedestrian detection device | |
JP4173901B2 (en) | Vehicle periphery monitoring device | |
JP6398347B2 (en) | Image processing apparatus, recognition object detection method, recognition object detection program, and moving object control system | |
JP6118096B2 (en) | AV image-based parking position setting apparatus and method | |
JP3934119B2 (en) | Vehicle periphery monitoring device | |
JP4171501B2 (en) | Vehicle periphery monitoring device | |
JP4173902B2 (en) | Vehicle periphery monitoring device | |
JP4692344B2 (en) | Image recognition device | |
US20050276450A1 (en) | Vehicle surroundings monitoring apparatus | |
US9165197B2 (en) | Vehicle surroundings monitoring apparatus | |
JP4528283B2 (en) | Vehicle periphery monitoring device | |
JP4609603B2 (en) | 3D information display device and 3D information display method | |
JP2014089687A (en) | Obstacle detection apparatus and method for avm system | |
US9160986B2 (en) | Device for monitoring surroundings of a vehicle | |
JP2010191793A (en) | Alarm display and alarm display method | |
JP5120627B2 (en) | Image processing apparatus and image processing program | |
JP2006155388A (en) | Vehicle circumference monitoring device | |
JP2007334511A (en) | Object detection device, vehicle, object detection method and program for object detection | |
JP4553071B1 (en) | 3D information display device and 3D information display method | |
JP4823753B2 (en) | Vehicle periphery monitoring device | |
US9030560B2 (en) | Apparatus for monitoring surroundings of a vehicle | |
JP5004882B2 (en) | Vehicle periphery monitoring device | |
JP2009044631A (en) | Object detection device | |
JP2008084138A (en) | Vehicle surrounding monitoring device and surrounding monitoring program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101019 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20110901 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120119 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120229 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120615 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120927 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121010 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151102 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151102 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |