JP6423594B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP6423594B2
JP6423594B2 JP2014028730A JP2014028730A JP6423594B2 JP 6423594 B2 JP6423594 B2 JP 6423594B2 JP 2014028730 A JP2014028730 A JP 2014028730A JP 2014028730 A JP2014028730 A JP 2014028730A JP 6423594 B2 JP6423594 B2 JP 6423594B2
Authority
JP
Japan
Prior art keywords
value
window
image
pixel
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014028730A
Other languages
Japanese (ja)
Other versions
JP2015153313A (en
Inventor
雄基 原口
雄基 原口
祐次郎 谷
祐次郎 谷
長谷川 弘
弘 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2014028730A priority Critical patent/JP6423594B2/en
Priority to PCT/JP2015/053759 priority patent/WO2015125681A1/en
Publication of JP2015153313A publication Critical patent/JP2015153313A/en
Application granted granted Critical
Publication of JP6423594B2 publication Critical patent/JP6423594B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体検出装置に関し、さらに詳しくは、検出対象をフレーム画像から検出する物体検出装置に関する。   The present invention relates to an object detection device, and more particularly to an object detection device that detects a detection target from a frame image.

カメラが撮影した画像などに検出対象が存在するか否かを判定する物体検出装置が存在する。物体検出装置は、たとえば、カメラとともに車両に搭載される。物体検出装置は、カメラが撮影した画像に人物が存在するか否かを判定することにより、運転手に歩行者の存在を知らせることができる。物体検出装置を利用することにより、運転手は、車両の外部の状況を容易に把握することができる。   There is an object detection device that determines whether or not a detection target exists in an image taken by a camera. For example, the object detection device is mounted on a vehicle together with a camera. The object detection device can notify the driver of the presence of a pedestrian by determining whether or not a person is present in an image captured by the camera. By using the object detection device, the driver can easily grasp the situation outside the vehicle.

物体検出装置は、検出対象が画像に存在するか否かを判定するために、パターンマッチングを用いる。パターンマッチングのアルゴリズムとして、ニューラルネットワークや、サポートベクターマシンなどが挙げられる。物体検出装置は、入力された画像に対して、物体を検出する領域(窓領域)を設定する。物体検出装置は、上記のアルゴリズムが実装されたプログラムを用いて、検出対象が窓領域に含まれているか否かを判定する。   The object detection apparatus uses pattern matching to determine whether or not a detection target exists in an image. Examples of pattern matching algorithms include neural networks and support vector machines. The object detection device sets an area (window area) for detecting an object for the input image. The object detection device determines whether or not the detection target is included in the window region using a program in which the above algorithm is implemented.

パターンマッチングを用いる物体検出装置が、特許文献1及び2に開示されている。   Patent Documents 1 and 2 disclose object detection apparatuses using pattern matching.

特許文献1で開示されている装置は、車載カメラが撮影した画像から歩行者を検出する。具体的には、この装置は、ニューラルネットワークを用いて画像から歩行者の可能性がある候補物体を検出した場合、候補物体を歩行者の頭及び手足などと比較することにより、候補物体が歩行者であるか否かを判定する。   The device disclosed in Patent Literature 1 detects a pedestrian from an image captured by an in-vehicle camera. Specifically, this apparatus detects a candidate object that may be a pedestrian from an image using a neural network, and compares the candidate object with a pedestrian's head, limbs, etc. It is determined whether it is a person.

特許文献2で開示されている装置は、カメラにより撮影された画像に対して、検出対象の領域が一部重複する複数の検出窓を設定する。この装置は、認識対象(歩行者など)の基準パターンを用いて、各検出窓に対するパターンマッチングを実行する。この装置は、パターンマッチングが複数回実行された領域については、各パターンマッチングの結果を積分する。積分結果に基づいて、歩行者の位置が特定される。   The apparatus disclosed in Patent Document 2 sets a plurality of detection windows in which detection target areas partially overlap with respect to an image captured by a camera. This apparatus performs pattern matching for each detection window using a reference pattern of a recognition target (such as a pedestrian). This apparatus integrates the results of each pattern matching for an area where pattern matching has been executed a plurality of times. Based on the integration result, the position of the pedestrian is specified.

特開2008−21034号公報JP 2008-21034 A 特開2009−70344号公報JP 2009-70344 A

パターンマッチングを用いる物体検出装置は、検出対象を画像中から検出するために、検出対象を含む画像(サンプル画像データ)を用いて、検出対象のパターンを予め学習しておく。例えば、検出対象が歩行者である場合、サンプル画像データは、歩行者を撮影した学習用画像から、歩行者を含む領域を切り出すことにより生成される。学習用画像は、所定の露出条件の下で撮影される。   In order to detect a detection target from an image, an object detection device using pattern matching learns a detection target pattern in advance using an image (sample image data) including the detection target. For example, when the detection target is a pedestrian, the sample image data is generated by cutting out a region including the pedestrian from a learning image obtained by photographing the pedestrian. The learning image is taken under a predetermined exposure condition.

物体検出装置は、歩行者のパターンを学習した後に、カメラから入力される撮影画像から歩行者を検出する。しかし、撮影画像が生成されるときの露出条件が、学習用画像が生成されるときの露出条件と一致しないことにより、歩行者の検出精度が低くなる場合がある。   The object detection device detects a pedestrian from a captured image input from the camera after learning a pedestrian pattern. However, since the exposure condition when the captured image is generated does not match the exposure condition when the learning image is generated, the detection accuracy of the pedestrian may be lowered.

例えば、学習用画像が陽のあたる場所での撮影により生成され、物体検出装置が、日陰で撮影された撮影画像から歩行者を検出する場合を考える。この場合、撮影画像の露出条件と、学習用画像の露出条件とが異なるため、物体検出装置は、日陰で撮影された撮影画像が歩行者を含んでいるにも関わらず、歩行者を検出できないおそれがある。従って、撮影画像から検出対象を検出する精度を向上させるためには、様々な露出条件下で撮影された撮影画像を使用することが望ましい。   For example, let us consider a case where a learning image is generated by shooting in a positive location and the object detection device detects a pedestrian from a shot image shot in the shade. In this case, since the exposure condition of the captured image is different from the exposure condition of the learning image, the object detection device cannot detect the pedestrian even though the captured image captured in the shade includes the pedestrian. There is a fear. Therefore, in order to improve the accuracy of detecting the detection target from the photographed image, it is desirable to use the photographed image photographed under various exposure conditions.

検出精度を向上させるために、カメラが、複数の露出条件を切り替えて、各露出条件で撮影された複数の撮影画像を生成する方法が考えられる。しかし、この方法では、各露出条件での撮影、露出条件の切り替えに時間を要する。   In order to improve the detection accuracy, a method in which the camera switches a plurality of exposure conditions and generates a plurality of captured images photographed under each exposure condition is conceivable. However, with this method, it takes time to shoot and switch between exposure conditions.

また、物体検出装置が、学習用画像の露出条件に合うように、カメラの露出を制御する方法が考えられる。この方法では、物体検出装置が、カメラから入力される撮影画像を解析して、露出条件をカメラにフィードバックする。しかし、カメラが、外部からの露出条件の制御を受け付けない場合、この方法を用いることはできない。   Also, a method of controlling the exposure of the camera so that the object detection device meets the exposure condition of the learning image can be considered. In this method, the object detection device analyzes a captured image input from the camera and feeds back the exposure condition to the camera. However, this method cannot be used when the camera does not accept external exposure condition control.

本発明は、上記課題に鑑み、カメラの露出条件を変更することなく、検出対象の検出精度を向上することができる物体検出装置を提供することを課題とする。   In view of the above problems, an object of the present invention is to provide an object detection apparatus that can improve the detection accuracy of a detection target without changing the exposure conditions of the camera.

上記課題を解決するために、請求項1記載の発明は、フレーム画像から検出対象を検出する物体検出装置であって、前記フレーム画像内に窓領域を設定し、前記窓領域の画像を有する第1窓画像を取得する窓領域設定部と、第1窓画像内の画素の画素値が補正基準値よりも小さい場合、前記画素値よりも小さい値を取得することにより、第2窓画像を生成する画素値補正部と、前記検出対象が前記第1窓画像内に存在する度合いを示す第1識別値と、前記検出対象が前記第2窓画像内に存在する度合いを示す第2識別値とを、前記検出対象の特徴を示す特徴データに基づいて算出する識別値算出部と、前記第1識別値と前記第2識別値とに基づいて、前記検出対象が前記フレーム画像の窓領域に存在するか否かを判定する判定部と、を備える。   In order to solve the above-mentioned problem, the invention according to claim 1 is an object detection device for detecting a detection target from a frame image, wherein a window region is set in the frame image and the image of the window region is included. A window region setting unit that acquires a one-window image, and if the pixel value of a pixel in the first window image is smaller than a correction reference value, a second window image is generated by acquiring a value smaller than the pixel value A pixel value correcting unit, a first identification value indicating the degree to which the detection target is present in the first window image, and a second identification value indicating the degree to which the detection target is present in the second window image Based on feature data indicating features of the detection target, and based on the first identification value and the second identification value, the detection target exists in the window region of the frame image. A determination unit that determines whether or not to

請求項2記載の発明は、請求項1に記載の物体検出装置であって、前記画素値補正部は、前記第1窓画像内の画素の画素値がゼロ基準値よりも小さい場合、前記画素の画素値がゼロに設定された画素値を取得し、前記ゼロ基準値以上であり前記補正基準値よりも小さい場合、前記画素の画素値がゼロよりも大きい値に設定された画素値を取得し、前記ゼロ基準値は、前記補正基準値よりも小さい。   Invention of Claim 2 is the object detection apparatus of Claim 1, Comprising: The said pixel value correction | amendment part WHEREIN: When the pixel value of the pixel in the said 1st window image is smaller than a zero reference value, the said pixel If the pixel value of the pixel is greater than or equal to the zero reference value and smaller than the correction reference value, the pixel value of the pixel is set to a value greater than zero. The zero reference value is smaller than the correction reference value.

請求項3記載の発明は、請求項1または2に記載の物体検出装置であって、前記判定部は、前記検出対象が前記第1窓画像に存在するか否かを前記第1識別値に基づいて判定し、前記検出対象が前記第2窓画像に存在するか否かを前記第2識別値に基づいて判定し、前記検出対象が前記第1窓画像及び前記第2窓画像の少なくとも1つに存在すると判定した場合に前記検出対象が前記フレーム画像の前記窓領域に存在すると判定する。   Invention of Claim 3 is the object detection apparatus of Claim 1 or 2, Comprising: The said determination part makes the said 1st identification value whether the said detection target exists in the said 1st window image. And determining whether or not the detection target exists in the second window image based on the second identification value, and the detection target is at least one of the first window image and the second window image. It is determined that the detection target exists in the window area of the frame image.

請求項4記載の発明は、請求項1または2に記載の物体検出装置であって、前記判定部は、前記第1識別値及び前記第2識別値の積算値を計算する積算部と、前記積算値に基づいて、前記フレーム画像内の窓領域に前記検出対象が存在するか否かを判断する最終判定部と、を含む。   Invention of Claim 4 is the object detection apparatus of Claim 1 or 2, Comprising: The said determination part, The integration part which calculates the integrated value of a said 1st identification value and a said 2nd identification value, And a final determination unit that determines whether or not the detection target exists in a window region in the frame image based on an integrated value.

請求項5記載の発明は、請求項4に記載の物体検出装置であって、前記積算部は、第1重み付け係数を前記第1識別値に乗算した乗算値と、第2重み付け係数を前記第2識別値に乗算した乗算値とを積算することにより前記積算値を取得する。   A fifth aspect of the present invention is the object detection device according to the fourth aspect, wherein the integration unit calculates a multiplication value obtained by multiplying the first identification value by a first weighting coefficient, and a second weighting coefficient. The integrated value is obtained by integrating the multiplied value obtained by multiplying the two identification values.

請求項6記載の発明は、請求項1ないし5のいずれかに記載の物体検出装置であって、前記画素値補正部は、第1窓画像内の画素の画素値が前記補正基準値と異なる基準値よりも小さい場合、前記画素値よりも小さい変更画素値を取得することにより、第3窓画像を生成し、前記識別値算出部は、前記検出対象が前記第3窓画像内に存在する度合いを示す第3識別値を、前記特徴データに基づいて算出し、前記判定部は、前記第1〜第3識別値に基づいて、前記検出対象が前記フレーム画像の前記窓領域に存在するか否かを判定する。   A sixth aspect of the present invention is the object detection device according to any one of the first to fifth aspects, wherein the pixel value correction unit has a pixel value of a pixel in the first window image different from the correction reference value. When it is smaller than a reference value, a changed pixel value smaller than the pixel value is acquired to generate a third window image, and the identification value calculation unit includes the detection target in the third window image. A third identification value indicating a degree is calculated based on the feature data, and the determination unit determines whether the detection target exists in the window region of the frame image based on the first to third identification values. Determine whether or not.

請求項7記載の発明は、請求項1ないし請求項6のいずれかに記載の物体検出装置であって、前記フレーム画像は、カメラにより撮影された撮影画像をグレースケール変換することにより生成される。   A seventh aspect of the present invention is the object detection device according to any one of the first to sixth aspects, wherein the frame image is generated by performing gray scale conversion on a captured image captured by a camera. .

請求項8記載の発明は、請求項1ないし請求項6のいずれかに記載の物体検出装置であって、前記フレーム画像は、カメラにより撮影された撮影画像をエッジ強調することにより生成される。   The invention according to an eighth aspect is the object detection device according to any one of the first to sixth aspects, wherein the frame image is generated by performing edge enhancement on a captured image captured by a camera.

請求項9記載の発明は、フレーム画像から検出対象を検出する物体検出装置であって、前記フレーム画像内に窓領域を設定する窓領域設定部と、前記窓領域を有する画像内の画素の画素値が第1補正基準値よりも小さい場合、前記画素値よりも小さい値を取得することにより第1窓画像を生成し、前記窓領域を有する画像内の画素の画素値が前記第1補正基準値と異なる第2補正基準値よりも小さい場合、前記画素値よりも小さい値を取得することにより第2窓画像を生成する画素値補正部と、前記検出対象が前記第1窓画像内に存在する度合いを示す第1識別値と、前記検出対象が前記第2窓画像内に存在する度合いを示す第2識別値とを、前記検出対象の特徴を示す特徴データに基づいて算出する識別値算出部と、前記第1識別値と前記第2識別値とに基づいて、前記検出対象が前記フレーム画像の窓領域に存在するか否かを判定する判定部と、を備える。   The invention according to claim 9 is an object detection device for detecting a detection target from a frame image, wherein a window region setting unit that sets a window region in the frame image, and a pixel of a pixel in the image having the window region When the value is smaller than the first correction reference value, a first window image is generated by acquiring a value smaller than the pixel value, and the pixel value of the pixel in the image having the window region is the first correction reference value. A pixel value correction unit that generates a second window image by acquiring a value smaller than the pixel value when the second correction reference value is different from the value, and the detection target is present in the first window image The identification value calculation that calculates the first identification value indicating the degree of the detection and the second identification value indicating the degree that the detection target exists in the second window image based on the feature data indicating the feature of the detection target Part, the first identification value and the Based on the second identification value, and a determination unit configured to determine whether or not present in the window area of the detection target is the frame image.

請求項10に記載の発明は、フレーム画像から検出対象を検出する物体検出装置に搭載されるコンピュータに、前記フレーム画像内に窓領域を設定し、前記窓領域の画像を有する第1窓画像を取得するステップと、第1窓画像内の画素の画素値が補正基準値よりも小さい場合、前記画素値よりも小さい値を取得することにより、第2窓画像を生成するステップと、前記検出対象が前記第1窓画像内に存在する度合いを示す第1識別値と、前記検出対象が前記第2窓画像内に存在する度合いを示す第2識別値とを、前記検出対象の特徴を示す特徴データに基づいて算出するステップと、前記第1識別値と前記第2識別値とに基づいて、前記検出対象が前記フレーム画像の窓領域に存在するか否かを判定するステップと、を実行させる物体検出プログラムである。   In a tenth aspect of the present invention, in a computer mounted on an object detection apparatus that detects a detection target from a frame image, a window area is set in the frame image, and a first window image having an image of the window area is provided. Obtaining a second window image by obtaining a value smaller than the pixel value when the pixel value of the pixel in the first window image is smaller than the correction reference value; and the detection target Is a feature that indicates the characteristics of the detection object, and a first identification value that indicates the degree to which the detection object exists in the first window image and a second identification value that indicates the degree to which the detection object exists in the second window image. A step of calculating based on data, and a step of determining whether or not the detection target exists in a window region of the frame image based on the first identification value and the second identification value. Object detection process A gram.

請求項11記載の発明は、フレーム画像から検出対象を検出する物体検出装置に搭載されるコンピュータに、前記フレーム画像内に窓領域を設定するステップと、前記窓領域を有する画像内の画素の画素値が第1補正基準値よりも小さい場合、前記画素値よりも小さい値を取得することにより第1窓画像を生成し、前記窓領域を有する画像内の画素の画素値が前記第1補正基準値と異なる第2補正基準値よりも小さい場合、前記画素値よりも小さい値を取得することにより第2窓画像を生成するステップと、前記検出対象が前記第1窓画像内に存在する度合いを示す第1識別値と、前記検出対象が前記第2窓画像内に存在する度合いを示す第2識別値とを、前記検出対象の特徴を示す特徴データに基づいて算出するステップと、前記第1識別値と前記第2識別値とに基づいて、前記検出対象が前記フレーム画像の窓領域に存在するか否かを判定するステップと、を実行させる物体検出プログラムである。   According to an eleventh aspect of the present invention, a step of setting a window area in the frame image in a computer mounted on an object detection apparatus that detects a detection target from the frame image, and a pixel of the pixel in the image having the window area When the value is smaller than the first correction reference value, a first window image is generated by acquiring a value smaller than the pixel value, and the pixel value of the pixel in the image having the window region is the first correction reference value. If the second correction reference value is different from the value, a step of generating a second window image by obtaining a value smaller than the pixel value, and a degree to which the detection target exists in the first window image Calculating a first identification value indicating a second identification value indicating a degree to which the detection target exists in the second window image based on feature data indicating a characteristic of the detection target; identification On the basis of the second identification value, which is the detection target object detection program for executing, and determining whether or not there in the window region of the frame image.

本発明に係る物体検出装置は、フレーム画像内の窓領域を有する第1窓画像を生成する。物体検出装置は、第1窓画像の画素の画素値が補正基準値よりも小さい場合、この画素値よりも小さい値を取得することにより、第2窓画像を取得する。第1窓画像及び第2窓画像とは、露出条件の異なる2つの撮影画像からそれぞれ切り出された画像に対応する。物体検出装置は、第1窓画像及び第2窓画像から算出された第1及び第2識別値に基づいて、検出対象が窓領域内に存在するか否かを判定する。従って、カメラの露出条件を変更することなく、検出対象の検出精度を向上することができる。   The object detection apparatus according to the present invention generates a first window image having a window region in a frame image. When the pixel value of the pixel of the first window image is smaller than the correction reference value, the object detection device acquires the second window image by acquiring a value smaller than the pixel value. The first window image and the second window image correspond to images cut out from two captured images having different exposure conditions. The object detection device determines whether or not the detection target exists in the window region based on the first and second identification values calculated from the first window image and the second window image. Therefore, the detection accuracy of the detection target can be improved without changing the exposure condition of the camera.

本発明の第1の実施の形態に係る物体検出装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the object detection apparatus which concerns on the 1st Embodiment of this invention. 図1に示す物体検出装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the object detection apparatus shown in FIG. 図1に示す物体検出装置に入力される撮影画像の一例を示す図である。It is a figure which shows an example of the picked-up image input into the object detection apparatus shown in FIG. 図1に示す物体検出装置により生成される窓画像の一例を示す図である。It is a figure which shows an example of the window image produced | generated by the object detection apparatus shown in FIG. 図1に示す画素値補正部により生成される補正窓画像24の生成を説明する図である。It is a figure explaining the production | generation of the correction | amendment window image 24 produced | generated by the pixel value correction | amendment part shown in FIG. 図1に示す画素値補正部により生成される補正窓画像25の生成を説明する図である。It is a figure explaining the production | generation of the correction | amendment window image 25 produced | generated by the pixel value correction | amendment part shown in FIG. 図1に示す特徴データの生成に用いられるサンプル画像データの一例を示す図である。It is a figure which shows an example of the sample image data used for the production | generation of the characteristic data shown in FIG. 図2に示す判定処理のフローチャートである。It is a flowchart of the determination process shown in FIG. 図1に示す係数テーブルの一例を示す図である。It is a figure which shows an example of the coefficient table shown in FIG. 図4に示す窓画像に対応する識別値及び乗算値の一例を示す図である。It is a figure which shows an example of the identification value and multiplication value corresponding to the window image shown in FIG. 本発明の第2の実施の形態に係る物体検出装置における歩行者の検出結果の一例を示す図である。It is a figure which shows an example of the detection result of the pedestrian in the object detection apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係る物体検出装置における判定処理のフローチャートである。It is a flowchart of the determination process in the object detection apparatus which concerns on the 2nd Embodiment of this invention.

以下、図面を参照しつつ、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1の実施の形態]
{1.全体構成}
図1は、本発明の第1の実施の形態に係る物体検出装置1の機能ブロック図である。物体検出装置1は、カメラ100が撮影したカラーの撮影画像から、検出対象を検出する。物体検出装置1は、カメラ100とともに自動車などの車両に搭載される。本実施の形態では、検出対象は、歩行者である。
[First Embodiment]
{1. overall structure}
FIG. 1 is a functional block diagram of an object detection apparatus 1 according to the first embodiment of the present invention. The object detection apparatus 1 detects a detection target from a color captured image captured by the camera 100. The object detection device 1 is mounted on a vehicle such as an automobile together with the camera 100. In the present embodiment, the detection target is a pedestrian.

カメラ100は、自動車のダッシュボード上に設置され、前方の景色を撮影して画像データ20を生成する。画像データ20は、複数のフレームにより構成される動画像であり、フレーム単位で物体検出装置1に入力される。物体検出装置1は、1つのフレーム(以下、「撮影画像21」と呼ぶ。)内に歩行者が存在するか否かを判定する。   The camera 100 is installed on the dashboard of the automobile, and generates image data 20 by photographing the scenery in front. The image data 20 is a moving image composed of a plurality of frames, and is input to the object detection apparatus 1 in units of frames. The object detection device 1 determines whether or not a pedestrian exists in one frame (hereinafter referred to as “captured image 21”).

図1に示すように、物体検出装置1は、エッジ画像生成部11と、窓領域設定部12と、画素値補正部13と、識別値算出部14と、判定部15と、記憶部16とを備える。   As shown in FIG. 1, the object detection apparatus 1 includes an edge image generation unit 11, a window area setting unit 12, a pixel value correction unit 13, an identification value calculation unit 14, a determination unit 15, and a storage unit 16. Is provided.

エッジ画像生成部11は、撮影画像21をグレースケール画像に変換し、グレースケール画像からエッジ画像22を生成する。エッジ画像生成部11は、グレーススケール画像に対して水平方向及び垂直方向のエッジを強調する処理を行うことにより、エッジ画像22を生成する。エッジ画像22は、1つのフレーム画像である。   The edge image generation unit 11 converts the captured image 21 into a grayscale image, and generates an edge image 22 from the grayscale image. The edge image generation unit 11 generates an edge image 22 by performing processing for enhancing horizontal and vertical edges on the grace scale image. The edge image 22 is one frame image.

窓領域設定部12は、エッジ画像22に対して窓領域を設定し、設定した窓領域をエッジ画像22から切り出すことにより通常窓画像23を生成する。窓領域は、撮影画像21から歩行者を検出するための単位領域である。1つの窓領域に対して、1つの通常窓画像23が生成される。生成された通常窓画像23は、画素値補正部13及び識別値算出部14に供給される。   The window area setting unit 12 sets a window area for the edge image 22 and generates a normal window image 23 by cutting out the set window area from the edge image 22. The window area is a unit area for detecting a pedestrian from the captured image 21. One normal window image 23 is generated for one window region. The generated normal window image 23 is supplied to the pixel value correction unit 13 and the identification value calculation unit 14.

画素値補正部13は、通常窓画像23内の各画素の画素値を補正することにより、補正窓画像24,25を生成する。画素値補正部13は、通常窓画像23が有する画素の画素値が補正基準値35aよりも小さい場合、この画素値を元の値よりも小さい値に置き換えることにより、補正窓画像24を生成する。画素値補正部13は、通常窓画像23の画素の画素値が補正基準値35bよりも小さい場合、この画素値を元の値よりも小さい値に置き換えることにより、補正窓画像25を生成する。   The pixel value correcting unit 13 generates corrected window images 24 and 25 by correcting the pixel value of each pixel in the normal window image 23. When the pixel value of the pixel included in the normal window image 23 is smaller than the correction reference value 35a, the pixel value correction unit 13 generates the correction window image 24 by replacing the pixel value with a value smaller than the original value. . When the pixel value of the pixel of the normal window image 23 is smaller than the correction reference value 35b, the pixel value correction unit 13 generates the correction window image 25 by replacing the pixel value with a value smaller than the original value.

補正基準値35a,35bは、互いに異なる値であり、画素値の補正基準として、基準データ32に記録されている。基準データ32に記録されているゼロ基準値36a,36bについては、後述する。   The correction reference values 35a and 35b are different from each other, and are recorded in the reference data 32 as pixel value correction references. The zero reference values 36a and 36b recorded in the reference data 32 will be described later.

以下、通常窓画像23及び補正窓画像24,25を総称する場合、「窓画像23〜25」と記載する。   Hereinafter, when the normal window image 23 and the corrected window images 24 and 25 are collectively referred to, they are described as “window images 23 to 25”.

識別値算出部14は、記憶部16に記憶された特徴データ31を用いて、通常窓画像23内に歩行者が存在する度合いを示す識別値43を算出する。識別値43は、0以上1以下の実数である。識別値43が1に近いほど、通常窓画像23内に歩行者が存在する可能性が高いことを示す。識別値算出部14は、識別値43の算出と同様に、特徴データ31を用いて、補正窓画像24,25に歩行者が存在する度合いを示す識別値44,45を算出する。   The identification value calculation unit 14 uses the feature data 31 stored in the storage unit 16 to calculate an identification value 43 indicating the degree of presence of a pedestrian in the normal window image 23. The identification value 43 is a real number between 0 and 1. The closer the identification value 43 is to 1, the higher the possibility that a pedestrian exists in the normal window image 23. Similar to the calculation of the identification value 43, the identification value calculation unit 14 uses the feature data 31 to calculate identification values 44 and 45 indicating the degree to which pedestrians exist in the correction window images 24 and 25.

判定部15は、識別値43〜45を重み付け加算して積算値を算出し、算出した積算値に基づいて、撮影画像21の窓領域に歩行者が存在するか否かを判定する。判定結果は、結果データ25として判定部15から出力される。   The determination unit 15 calculates the integrated value by weighting and adding the identification values 43 to 45, and determines whether or not a pedestrian exists in the window region of the captured image 21 based on the calculated integrated value. The determination result is output from the determination unit 15 as result data 25.

記憶部16は、例えば、ハードディスク装置やフラッシュメモリなどである。記憶部16は、特徴データ31と、基準データ32と、係数テーブル33とを格納する。記憶部16に格納される各データの詳細については、後述する。   The storage unit 16 is, for example, a hard disk device or a flash memory. The storage unit 16 stores feature data 31, reference data 32, and a coefficient table 33. Details of each data stored in the storage unit 16 will be described later.

{2.物体検出装置1の動作}
図2は、物体検出装置1の動作を示すフローチャートである。物体検出装置1は、カメラ100から撮影画像21(フレーム)が入力されるたびに、図2に示す処理を実行して、入力された撮影画像21から歩行者を検出する。
{2. Operation of Object Detection Device 1}
FIG. 2 is a flowchart showing the operation of the object detection apparatus 1. Each time the captured image 21 (frame) is input from the camera 100, the object detection device 1 executes the process shown in FIG. 2 and detects a pedestrian from the input captured image 21.

図3は、物体検出装置1に入力される撮影画像21の一例を示す図である。図3に示すように、撮影画像21は、左上頂点を原点とし、横方向をx軸、縦方向をy軸とした座標系を有する。撮影画像21上に配置された窓領域51〜54については、後述する。以下、図3に示す撮影画像21が物体検出装置1に入力された場合を例にして、図2に示す処理を詳しく説明する。   FIG. 3 is a diagram illustrating an example of the captured image 21 input to the object detection device 1. As shown in FIG. 3, the captured image 21 has a coordinate system in which the upper left vertex is the origin, the horizontal direction is the x axis, and the vertical direction is the y axis. The window areas 51 to 54 arranged on the captured image 21 will be described later. Hereinafter, the process shown in FIG. 2 will be described in detail by taking as an example the case where the captured image 21 shown in FIG.

{2.1.エッジ画像の生成}
エッジ画像生成部11は、カラーの撮影画像21からエッジ画像22を生成する(ステップS1)。具体的には、エッジ画像生成部11は、撮影画像21をグレースケール画像に変換し、グレースケール画像に対してエッジ強調処理を実行する。グレースケール画像及びエッジ画像22は、撮影画像21と同じ座標系を有する。グレースケール画像の各画素の画素値をf(x,y)とした場合、エッジ画像生成部11は、下記式(1)〜(3)の処理を実行することにより、エッジ画像22を生成する。
{2.1. Edge image generation}
The edge image generation unit 11 generates an edge image 22 from the color photographed image 21 (step S1). Specifically, the edge image generation unit 11 converts the captured image 21 into a grayscale image, and executes edge enhancement processing on the grayscale image. The gray scale image and the edge image 22 have the same coordinate system as the captured image 21. When the pixel value of each pixel of the grayscale image is f (x, y), the edge image generation unit 11 generates the edge image 22 by executing the processes of the following formulas (1) to (3). .

上記式(1)は、縦方向のエッジを強調するSobelフィルタ処理を示す。上記式(2)は、横方向のエッジを強調するSobelフィルタ処理を示す。式(3)は、式(1)の計算結果と式(2)の計算結果とを加算することにより、エッジ画像22の各画素の画素値が計算されることを示す。   The above equation (1) represents Sobel filter processing for emphasizing vertical edges. The above equation (2) represents Sobel filter processing for enhancing the edge in the horizontal direction. Expression (3) indicates that the pixel value of each pixel of the edge image 22 is calculated by adding the calculation result of Expression (1) and the calculation result of Expression (2).

{2.2.窓領域の設定(ステップS2)}
窓領域設定部12は、エッジ画像生成部11により生成されたエッジ画像22を入力する。窓領域設定部12は、入力されたエッジ画像22に対して、歩行者を検出するための窓領域を1つ設定する(ステップS2)。検出対象である歩行者と設定された窓領域との位置関係を分かりやすく示すために、図3において、窓領域設定部12により設定される窓領域の位置を、撮影画像21上に示す。
{2.2. Setting of window area (step S2)}
The window area setting unit 12 receives the edge image 22 generated by the edge image generation unit 11. The window area setting unit 12 sets one window area for detecting a pedestrian in the input edge image 22 (step S2). In order to show the positional relationship between the detection target pedestrian and the set window area, the position of the window area set by the window area setting unit 12 is shown on the captured image 21 in FIG.

図2に示すように、ステップS2〜S7が繰り返されることにより、撮影画像21において複数の窓領域が設定される。窓領域設定部12は、撮影画像21を左上から右下にかけてスキャンするように窓領域を設定する。新たに窓領域が設定される場合、窓領域設定部12は、既に設定された窓領域の一部と重複するように新しい窓領域を設定することが望ましい。   As shown in FIG. 2, a plurality of window regions are set in the captured image 21 by repeating steps S <b> 2 to S <b> 7. The window area setting unit 12 sets the window area so that the captured image 21 is scanned from the upper left to the lower right. When a new window area is set, it is desirable that the window area setting unit 12 sets a new window area so as to overlap a part of the already set window area.

以下、特に説明のない限り、窓領域設定部12が窓領域52を設定した場合を例にして、物体検出装置1の動作を説明する。   Hereinafter, unless otherwise specified, the operation of the object detection apparatus 1 will be described using the case where the window area setting unit 12 sets the window area 52 as an example.

図4は、各窓領域に対応する通常窓画像23と、補正窓画像24,25とを示す図である。窓領域設定部12は、エッジ画像22から窓領域52を切り出すことにより、通常窓画像23を生成する(ステップS3)。図4に示すように、1つの窓領域52から、1つの通常窓画像23が生成される。生成された通常窓画像23は、画素値補正部13及び識別値算出部14に供給される。   FIG. 4 is a diagram showing a normal window image 23 and correction window images 24 and 25 corresponding to each window region. The window area setting unit 12 generates the normal window image 23 by cutting out the window area 52 from the edge image 22 (step S3). As shown in FIG. 4, one normal window image 23 is generated from one window region 52. The generated normal window image 23 is supplied to the pixel value correction unit 13 and the identification value calculation unit 14.

{2.3.補正窓画像の生成(ステップS4)}
再び、図2を参照する。画素値補正部13は、窓領域設定部12から入力された通常窓画像23の各画素の画素値を補正することにより、補正窓画像24,25を生成する。通常窓画像23の各画素の画素値の補正には、コアリング処理が用いられる。コアリング処理で用いられるパラメータは、補正窓画像24,25の生成において互いに異なる。
{2.3. Generation of Correction Window Image (Step S4)}
Reference is again made to FIG. The pixel value correcting unit 13 generates corrected window images 24 and 25 by correcting the pixel value of each pixel of the normal window image 23 input from the window area setting unit 12. A coring process is used for correcting the pixel value of each pixel of the normal window image 23. The parameters used in the coring process are different from each other in generating the correction window images 24 and 25.

図5を参照しながら、補正窓画像24の生成について説明する。図5は、補正窓画像24を生成する際のコアリング処理を説明する図である。図5に示すように、グレースケール画像において、画素値の最大値は255であり、最小値は0である。   The generation of the correction window image 24 will be described with reference to FIG. FIG. 5 is a diagram for explaining a coring process when the correction window image 24 is generated. As shown in FIG. 5, in the grayscale image, the maximum pixel value is 255 and the minimum value is 0.

コアリング処理では、2つのパラメータが用いられる。一方のパラメータは、画素の画素値をそのまま維持するか、画素の画素値を現在の画素値よりも小さい値に変更するかを判断するためのパラメータである(補正基準値35a)。他方のパラメータは、画素値を補正する際に、補正後の画素値をゼロに設定するか否かを判断するためのパラメータである(ゼロ基準値36a)。補正基準値35b及びゼロ基準値36bは、補正窓画像25の生成の際に用いられるため、後述する。   In the coring process, two parameters are used. One parameter is a parameter for determining whether to maintain the pixel value of the pixel as it is or to change the pixel value of the pixel to a value smaller than the current pixel value (correction reference value 35a). The other parameter is a parameter for determining whether or not the corrected pixel value is set to zero when the pixel value is corrected (zero reference value 36a). Since the correction reference value 35b and the zero reference value 36b are used when the correction window image 25 is generated, they will be described later.

図5において、1点鎖線は、補正基準値35a及びゼロ基準値36aがゼロに設定された場合における、補正前の画素値と補正後の画素値との関係を示す。この場合、補正後の画素値は、補正前の画素値と等しいため、1点鎖線は、傾き1の直線となる。   In FIG. 5, a one-dot chain line indicates a relationship between the pixel value before correction and the pixel value after correction when the correction reference value 35a and the zero reference value 36a are set to zero. In this case, since the pixel value after correction is equal to the pixel value before correction, the alternate long and short dash line is a straight line having an inclination of 1.

図5において、実線56は、補正窓画像24の生成の際における補正前の画素値と補正後の画素値との関係を示す。実線56の変曲点56A、56Bに対応する補正前の画素値が、補正基準値35a、ゼロ基準値36aに対応する。補正窓画像24の生成では、補正基準値35aが100に設定され、ゼロ基準値36aが50に設定される。   In FIG. 5, a solid line 56 indicates the relationship between the pixel value before correction and the pixel value after correction when the correction window image 24 is generated. The pixel values before correction corresponding to the inflection points 56A and 56B of the solid line 56 correspond to the correction reference value 35a and the zero reference value 36a. In the generation of the correction window image 24, the correction reference value 35a is set to 100, and the zero reference value 36a is set to 50.

画素値補正部13は、実線56で表される対応関係を用いて、通常窓画像23内の各画素の画素値を補正する。   The pixel value correction unit 13 corrects the pixel value of each pixel in the normal window image 23 using the correspondence relationship represented by the solid line 56.

具体的には、通常窓画像23内の注目画素の画素値が、補正基準値35a以上である場合、すなわち、注目画素の画素値が100以上である場合、注目画素の画素値は、変更されない。注目画素の画素値が、ゼロ基準値36aよりも小さい場合、すなわち、注目画素の画素値が50よりも小さい場合、注目画素の画素値は、ゼロに補正される。   Specifically, when the pixel value of the target pixel in the normal window image 23 is the correction reference value 35a or more, that is, when the pixel value of the target pixel is 100 or more, the pixel value of the target pixel is not changed. . When the pixel value of the target pixel is smaller than the zero reference value 36a, that is, when the pixel value of the target pixel is smaller than 50, the pixel value of the target pixel is corrected to zero.

注目画素の画素値が、補正基準値35a(100)よりも小さく、ゼロ基準値36a(50)以上である場合、すなわち、注目画素の画素値が100よりも小さく、50以上である場合、注目画素の画素値は、変曲点56Aから56Bまでの実線56で表される対応関係に基づいて補正される。補正前の画素値をPとした場合、50≦P<100の範囲における実線56の傾きは、1よりも大きい。従って、注目画素の画素値は、ゼロよりも大きく、現在の画素値よりも小さい値に補正される。なお、50≦P<100の範囲において、補正前の画素値と補正後の画素値とが1対1に対応していれば、実線56は、直線でなくてもよい。   When the pixel value of the target pixel is smaller than the correction reference value 35a (100) and equal to or greater than the zero reference value 36a (50), that is, when the pixel value of the target pixel is smaller than 100 and equal to or greater than 50 The pixel value of the pixel is corrected based on the correspondence represented by the solid line 56 from the inflection points 56A to 56B. When the pixel value before correction is P, the slope of the solid line 56 in the range of 50 ≦ P <100 is larger than 1. Therefore, the pixel value of the target pixel is corrected to a value larger than zero and smaller than the current pixel value. In the range of 50 ≦ P <100, the solid line 56 may not be a straight line as long as the pixel value before correction and the pixel value after correction correspond one-to-one.

次に、図6を参照しながら、補正窓画像25の生成について説明する。図6は、補正窓画像25を生成する際のコアリング処理を説明する図である。   Next, generation of the correction window image 25 will be described with reference to FIG. FIG. 6 is a diagram for explaining coring processing when the correction window image 25 is generated.

図6において、実線57は、補正窓画像25の生成の際における補正前の画素値と補正後の画素値との関係を示す。実線57の変曲点57A,57Bに対応する補正前の画素値が、補正基準値35b、ゼロ基準値36bに対応する。補正窓画像25の生成では、補正基準値35bが150に設定され、ゼロ基準値36bが100に設定される。   In FIG. 6, the solid line 57 indicates the relationship between the pixel value before correction and the pixel value after correction when the correction window image 25 is generated. The pixel values before correction corresponding to the inflection points 57A and 57B of the solid line 57 correspond to the correction reference value 35b and the zero reference value 36b. In the generation of the correction window image 25, the correction reference value 35b is set to 150, and the zero reference value 36b is set to 100.

画素値補正部13は、実線57で表される対応関係を用いて、通常窓画像23内の各画素の画素値を補正する。   The pixel value correction unit 13 corrects the pixel value of each pixel in the normal window image 23 using the correspondence relationship represented by the solid line 57.

具体的には、通常窓画像23内の注目画素の画素値が補正基準値35b以上である場合、すなわち、注目画素の画素値が150以上である場合、注目画素の画素値は、変更されない。注目画素の画素値が、ゼロ基準値36bよりも小さい場合、注目画素の画素値が100以下である場合、注目画素の画素値は、ゼロに補正される。   Specifically, when the pixel value of the target pixel in the normal window image 23 is the correction reference value 35b or more, that is, when the pixel value of the target pixel is 150 or more, the pixel value of the target pixel is not changed. When the pixel value of the target pixel is smaller than the zero reference value 36b, when the pixel value of the target pixel is 100 or less, the pixel value of the target pixel is corrected to zero.

注目画素の画素値が、補正基準値35bよりも小さく、ゼロ基準値36b以上である場合、すなわち、注目画素の画素値が150よりも小さく、100以上である場合、注目画素の画素値は、変曲点57Aから57Bまでの実線57で表される対応関係に基づいて補正される。補正前の画素値をPとした場合、100≦P<150の範囲における実線57の傾きは、1よりも大きい。従って、注目画素の画素値は、ゼロよりも大きく、現在の画素値よりも小さい値に補正される。   When the pixel value of the target pixel is smaller than the correction reference value 35b and equal to or greater than the zero reference value 36b, that is, when the pixel value of the target pixel is smaller than 150 and equal to or greater than 100, the pixel value of the target pixel is Correction is performed based on the correspondence relationship indicated by the solid line 57 from the inflection points 57A to 57B. When the pixel value before correction is P, the slope of the solid line 57 in the range of 100 ≦ P <150 is larger than 1. Therefore, the pixel value of the target pixel is corrected to a value larger than zero and smaller than the current pixel value.

窓領域52に対応する窓画像23〜25は、互いに異なる露出条件の下で同一のタイミングで撮影された3つの撮影画像21のそれぞれから切り出された窓領域に相当する。以下、詳しく説明する。   Window images 23 to 25 corresponding to the window region 52 correspond to window regions cut out from the three captured images 21 captured at the same timing under different exposure conditions. This will be described in detail below.

画素値補正部13は、通常窓画像23の画素値Pが補正基準値35a以上である場合に画素値Pを維持し、画素値Pが補正基準値35aよりも小さい場合に画素値Pを小さくすることにより補正窓画像24を生成する。この処理の結果、通常窓画像23及び補正窓画像24において、最小画素値(0)と最大画素値(255)との差は同じであるが、補正窓画像24における中間画素値の分布が、通常窓画像23における中間画素値の分布から変化する。中間画素値とは、最小画素値及び最大画素値を除く他の画素値のことである。図5に示すように、通常窓画像23において、中間画素値の分布は、1から254までの範囲である。一方、補正窓画像24において、中間画素値の分布が、ゼロ基準値36aよりも1大きい画素値(51)から254までの範囲である。補正窓画像24における中間画素値の分布範囲は、通常窓画像23における中間画素値の分布範囲よりも狭くなるため、補正窓画像24の明暗差は、通常窓画像23の明暗差よりも急峻になる。   The pixel value correction unit 13 maintains the pixel value P when the pixel value P of the normal window image 23 is equal to or greater than the correction reference value 35a, and decreases the pixel value P when the pixel value P is smaller than the correction reference value 35a. By doing so, the correction window image 24 is generated. As a result of this processing, the difference between the minimum pixel value (0) and the maximum pixel value (255) is the same in the normal window image 23 and the correction window image 24, but the distribution of intermediate pixel values in the correction window image 24 is It changes from the distribution of intermediate pixel values in the normal window image 23. The intermediate pixel value is a pixel value other than the minimum pixel value and the maximum pixel value. As shown in FIG. 5, in the normal window image 23, the distribution of intermediate pixel values ranges from 1 to 254. On the other hand, in the corrected window image 24, the distribution of intermediate pixel values is in a range from pixel values (51) to 254 that are one greater than the zero reference value 36a. Since the distribution range of the intermediate pixel values in the correction window image 24 is narrower than the distribution range of the intermediate pixel values in the normal window image 23, the brightness difference of the correction window image 24 is steeper than the brightness difference of the normal window image 23. Become.

画素値補正部13は、通常窓画像23の画素値Pが補正基準値35b以上である場合に画素値Pを維持し、画素値Pが補正基準値35bよりも小さい場合に画素値Pを小さくすることにより補正窓画像24を生成する。従って、補正窓画像25の明暗差は、補正窓画像24と同様に、通常窓画像23の明暗差よりも急峻になる。さらに、補正基準値35b及びゼロ基準値36bは、補正基準値35a及びゼロ基準値36aよりも大きいため、補正窓画像25の明暗差は、補正窓画像24の明暗差よりも急峻となる。   The pixel value correction unit 13 maintains the pixel value P when the pixel value P of the normal window image 23 is equal to or greater than the correction reference value 35b, and decreases the pixel value P when the pixel value P is smaller than the correction reference value 35b. By doing so, the correction window image 24 is generated. Therefore, the brightness difference of the correction window image 25 is steeper than the brightness difference of the normal window image 23 as in the correction window image 24. Further, since the correction reference value 35b and the zero reference value 36b are larger than the correction reference value 35a and the zero reference value 36a, the contrast difference of the correction window image 25 is steeper than the contrast difference of the correction window image 24.

このように、窓画像23〜25の各々の明暗差は、互いに異なる。一般的に、カメラ100により生成される撮影画像21の明暗差は、撮影時の露出条件に応じて変化する。従って、窓画像23〜25は、互いに異なる露出条件の下で同一のタイミングで撮影された3つの撮影画像21の各々から切り出された窓領域に相当する。   As described above, the brightness differences of the window images 23 to 25 are different from each other. In general, the contrast of the captured image 21 generated by the camera 100 changes according to the exposure condition at the time of shooting. Accordingly, the window images 23 to 25 correspond to window regions cut out from each of the three captured images 21 captured at the same timing under different exposure conditions.

また、補正窓画像24,25において、通常窓画像23の画素の画素値が一部で維持されているため、通常窓画像23に含まれる物体の特徴が、補正窓画像24,25においても維持される。つまり、上述の3つの機能部の処理により、通常窓画像23に含まれる物体の特徴を損なうことなく、通常窓画像23と異なる明暗差を有する補正窓画像24,25を生成することができる。   In addition, since the pixel values of the pixels of the normal window image 23 are partially maintained in the correction window images 24 and 25, the characteristics of the object included in the normal window image 23 are also maintained in the correction window images 24 and 25. Is done. In other words, the correction window images 24 and 25 having a difference in brightness and darkness from the normal window image 23 can be generated without impairing the characteristics of the object included in the normal window image 23 by the processing of the three functional units described above.

{2.4.識別値の計算(ステップS5}
識別値算出部14は、記憶部16に格納された特徴データ31を用いて窓領域52に対応する窓画像23〜25に対応する識別値43〜45を算出する(ステップS5)。識別値43〜45は、窓画像23〜25のそれぞれに歩行者が存在する度合いを示し、0以上1以下の数値である。識別値43〜45は、歩行者が窓画像内に存在する可能性が高いほど、1に近い値となる。
{2.4. Calculation of identification value (step S5)
The identification value calculation unit 14 calculates the identification values 43 to 45 corresponding to the window images 23 to 25 corresponding to the window region 52 using the feature data 31 stored in the storage unit 16 (step S5). The identification values 43 to 45 indicate the degree to which a pedestrian exists in each of the window images 23 to 25, and are numerical values of 0 or more and 1 or less. The identification values 43 to 45 are closer to 1 as the pedestrian is more likely to be present in the window image.

識別値算出部14は、識別値43〜45の算出するためのアルゴリズムとして、ニューラルネットワークを用いる。ニューラルネットワークは、パターンマッチングの1種である。従って、識別値算出部14は、カメラ100により生成された撮影画像21から歩行者を検出する処理を開始する前に、歩行者の特徴を学習して特徴データ31を生成する。以下、特徴データ31の生成について説明する。   The identification value calculation unit 14 uses a neural network as an algorithm for calculating the identification values 43 to 45. A neural network is one type of pattern matching. Therefore, the identification value calculation unit 14 learns the characteristics of the pedestrian and generates the feature data 31 before starting the process of detecting the pedestrian from the captured image 21 generated by the camera 100. Hereinafter, generation of the feature data 31 will be described.

図7は、識別値算出部14が歩行者の学習に用いるサンプル画像データ55の一例を示す図である。図7に示す3つのサンプル画像データ55において、縦方向のサイズ及び横方向のサイズは、窓領域51〜54のサイズと同じである。サンプル画像データ55は、歩行者を含んでいるが、各サンプル画像データ55における歩行者のエッジ強度が正規化されていない。「エッジ強度が正規化される」とは、サンプル画像データ55のそれぞれにおいて、歩行者のエッジ強度が、予め設定された範囲内となるように調整されていることをいう。   FIG. 7 is a diagram illustrating an example of the sample image data 55 used by the identification value calculation unit 14 for pedestrian learning. In the three sample image data 55 shown in FIG. 7, the size in the vertical direction and the size in the horizontal direction are the same as the sizes of the window areas 51 to 54. The sample image data 55 includes pedestrians, but the pedestrian edge strength in each sample image data 55 is not normalized. “Edge strength is normalized” means that the pedestrian's edge strength is adjusted to be within a preset range in each of the sample image data 55.

つまり、本実施の形態では、サンプル画像データ55は、様々な露出条件の下で撮影された画像から生成される。識別値算出部14は、正規化されていないサンプル画像データ55を用いることにより、様々な露出条件の下で撮影された画像に含まれる歩行者のパターンを学習する。   That is, in the present embodiment, the sample image data 55 is generated from images taken under various exposure conditions. The identification value calculation unit 14 learns pedestrian patterns included in images taken under various exposure conditions by using the non-normalized sample image data 55.

{2.5.判定処理(ステップS6)}
判定部15は、3つの窓画像23〜25に対応する識別値43〜45を、識別値算出部14から入力する。判定部15は、識別値43〜45に基づいて、窓領域52に歩行者が存在するか否かを判定する(ステップS6)。ステップS6の詳細は、後述する。
{2.5. Determination process (step S6)}
The determination unit 15 inputs identification values 43 to 45 corresponding to the three window images 23 to 25 from the identification value calculation unit 14. The determination unit 15 determines whether or not there is a pedestrian in the window area 52 based on the identification values 43 to 45 (step S6). Details of step S6 will be described later.

次に、窓領域設定部12は、撮影画像21に対する窓領域の設定が終了したか否かを確認する(ステップS7)。窓領域の設定が終了していない場合(ステップS7においてNo)、窓領域設定部12は、新たな窓領域を設定するために、ステップS2に戻る。一方、窓領域の設定が終了した場合(ステップS7においてYes)、物体検出装置1は、図2に示す処理を終了する。物体検出装置1は、新たなフレーム(撮影画像21)が入力された場合、図2に示す処理を再び実行する。   Next, the window area setting unit 12 confirms whether or not the setting of the window area for the captured image 21 is completed (step S7). When the setting of the window area is not completed (No in step S7), the window area setting unit 12 returns to step S2 in order to set a new window area. On the other hand, when the setting of the window area is completed (Yes in step S7), the object detection device 1 ends the process shown in FIG. When a new frame (captured image 21) is input, the object detection device 1 executes the process illustrated in FIG. 2 again.

以下、判定処理(ステップS6)の詳細を説明する。図8は、判定処理(ステップS6)のフローチャートである。   Details of the determination process (step S6) will be described below. FIG. 8 is a flowchart of the determination process (step S6).

図9は、記憶部16に格納される係数テーブル33の一例を示す図である。図9に示すように、係数テーブル33には、窓画像23〜25の各々に応じた重み付け係数34a〜34cが設定されている。判定部15は、記憶部16から、重み付け係数34a〜34cを取得する(ステップS611)。   FIG. 9 is a diagram illustrating an example of the coefficient table 33 stored in the storage unit 16. As shown in FIG. 9, weighting coefficients 34 a to 34 c corresponding to the window images 23 to 25 are set in the coefficient table 33. The determination unit 15 acquires the weighting coefficients 34a to 34c from the storage unit 16 (step S611).

画素値が補正されない窓画像(通常窓画像23)に対して設定された重み付け係数34aは、1.8である。補正窓画像24に対して設定された重み付け係数34bは、1.6であり、補正窓画像25に対して設定された重み付け係数34cは、1.4である。図9に示す例では、重み付け係数34aが最大であるが、それぞれの重み付け係数を適宜変更してもよい。   The weighting coefficient 34a set for the window image (normal window image 23) whose pixel value is not corrected is 1.8. The weighting coefficient 34b set for the correction window image 24 is 1.6, and the weighting coefficient 34c set for the correction window image 25 is 1.4. In the example shown in FIG. 9, the weighting coefficient 34a is the maximum, but each weighting coefficient may be changed as appropriate.

判定部15は、重み付け係数34a〜34cを識別値43〜45にそれぞれ乗算することにより、各窓画像23〜25に対応する乗算値を取得する(ステップS612)。図10は、各窓画像23〜25の識別値及び乗算値の算出結果を示すテーブルである。図10において、窓領域52〜54の各々における算出結果が示されている。   The determination unit 15 obtains multiplication values corresponding to the respective window images 23 to 25 by multiplying the identification values 43 to 45 by the weighting coefficients 34a to 34c, respectively (step S612). FIG. 10 is a table showing calculation results of identification values and multiplication values of the window images 23 to 25. In FIG. 10, the calculation results in each of the window regions 52 to 54 are shown.

図10において、各窓画像23〜25の数値(カッコなし)は、乗算値を示す。窓画像23〜25のカッコ内の数値は、各窓画像の識別値を示す。判定部15は、窓領域52に対応する3つの窓画像23〜25の乗算値を積算する(ステップS613)。図10に示す積算値は、各窓画像の乗算値の合計である。   In FIG. 10, the numerical values (without parentheses) of the window images 23 to 25 indicate multiplication values. Numerical values in parentheses of the window images 23 to 25 indicate identification values of the window images. The determination unit 15 accumulates the multiplication values of the three window images 23 to 25 corresponding to the window region 52 (step S613). The integrated value shown in FIG. 10 is the sum of the multiplied values of the window images.

判定部15は、窓領域52における歩行者の有無を判定するために、窓領域52に対応する積算値を、予め設定されたしきい値と比較する(ステップS614)。判定部15に設定されたしきい値が、2.5であるとする。この場合、窓領域52の積算値(3.82)がしきい値よりも大きいため(ステップS614においてYes)、判定部15は、窓領域52に検出対象(歩行者)が存在すると判定する(ステップS615)。   The determination unit 15 compares the integrated value corresponding to the window region 52 with a preset threshold value in order to determine the presence or absence of a pedestrian in the window region 52 (step S614). It is assumed that the threshold set in the determination unit 15 is 2.5. In this case, since the integrated value (3.82) of the window area 52 is larger than the threshold value (Yes in step S614), the determination unit 15 determines that a detection target (pedestrian) exists in the window area 52 ( Step S615).

同様に、判定部15は、窓領域53に対応する窓画像23〜25の識別値43〜45を用いて、判定処理(ステップS6)を実行する。この場合、窓領域53に対応する積算値は、3.14である。窓領域54に対応する積算値がしきい値よりも大きいため(ステップS614においてYes)、判定部15は、窓領域53に歩行者が存在すると判定する(ステップS615)。   Similarly, the determination unit 15 performs a determination process (step S6) using the identification values 43 to 45 of the window images 23 to 25 corresponding to the window region 53. In this case, the integrated value corresponding to the window region 53 is 3.14. Since the integrated value corresponding to the window area 54 is larger than the threshold value (Yes in step S614), the determination unit 15 determines that there is a pedestrian in the window area 53 (step S615).

判定部15は、窓領域54に対応する窓画像23〜25の識別値43〜45を用いて、判定処理(ステップS6)を実行する。この場合、窓領域52に対応する積算値は、1.23である。窓領域54に対応する積算値がしきい値以下であるため(ステップS614においてYes)、判定部15は、窓領域54に歩行者が存在しないと判定する(ステップS616)。   The determination unit 15 executes determination processing (step S6) using the identification values 43 to 45 of the window images 23 to 25 corresponding to the window region 54. In this case, the integrated value corresponding to the window area 52 is 1.23. Since the integrated value corresponding to the window area 54 is equal to or less than the threshold value (Yes in step S614), the determination unit 15 determines that there is no pedestrian in the window area 54 (step S616).

図4に示すように、歩行者は、窓領域52及び53内に存在しており、窓領域54内に存在していない。判定処理(ステップS6)の結果、窓領域52〜54内における歩行者の有無が精度よく判定されていることが分かる。   As shown in FIG. 4, the pedestrian is present in the window areas 52 and 53 and is not present in the window area 54. As a result of the determination process (step S6), it can be seen that the presence or absence of a pedestrian in the window regions 52 to 54 is accurately determined.

このように、物体検出装置1は、3つの窓画像の各々の識別値43〜45を重み付け積算して、積算値をしきい値と比較することにより、窓領域における歩行者の有無を判断する。これにより、物体検出装置1が、検出窓領域に歩行者が存在するか否かを高精度で判定することができる。この理由を、図4及び図9を参照しながら説明する。   Thus, the object detection apparatus 1 determines the presence or absence of a pedestrian in the window region by weighting and integrating the identification values 43 to 45 of the three window images and comparing the integrated value with the threshold value. . Thereby, the object detection apparatus 1 can determine with high precision whether a pedestrian exists in a detection window area | region. The reason for this will be described with reference to FIGS.

上述のように、複数のサンプル画像データ55は、正規化されていないため、従って、通常窓画像23のエッジ強度が、サンプル画像データ55のいずれか1つのエッジ強度とほぼ等しくなる可能性が高くなる。   As described above, since the plurality of sample image data 55 is not normalized, the edge strength of the normal window image 23 is likely to be substantially equal to the edge strength of any one of the sample image data 55. Become.

通常窓画像23のエッジ強度がサンプル画像データ55のいずれか1つのエッジ強度とほぼ等しい場合、識別値算出部14は、通常窓画像23の識別値43として、人物が存在する可能性が高いことを示す値(例えば、0.5以上)を算出する。同様に、識別値算出部14は、補正窓画像24,25の識別値44,45についても、0.5以上の値を算出する。この結果、窓領域52に対応する積算値は、しきい値(2.5)を大きく上回ることができる。   When the edge strength of the normal window image 23 is substantially equal to the edge strength of any one of the sample image data 55, the identification value calculation unit 14 is likely to have a person as the identification value 43 of the normal window image 23. Is calculated (for example, 0.5 or more). Similarly, the identification value calculation unit 14 calculates a value of 0.5 or more for the identification values 44 and 45 of the correction window images 24 and 25. As a result, the integrated value corresponding to the window region 52 can greatly exceed the threshold value (2.5).

一方、窓領域54内には、歩行者が存在せず、木が存在する。識別値算出部14は、窓領域54に対応する識別値43〜45は、人物の存在する可能性が低い値(例えば、0.5以下)である。この場合、窓領域54に対応する積算値は、しきい値を大きく下回る。   On the other hand, there are no pedestrians and trees in the window area 54. In the identification value calculation unit 14, the identification values 43 to 45 corresponding to the window area 54 are values (for example, 0.5 or less) that have a low possibility that a person exists. In this case, the integrated value corresponding to the window region 54 is significantly below the threshold value.

このように、通常窓画像23及び補正窓画像24,25の各々の識別値を重み付け積算することにより、歩行者を含む窓領域の積算値と、歩行者を含まない窓領域の積算値との差を際立たせることができる。従って、歩行者を高精度で検出することができる。   In this way, by integrating the identification values of the normal window image 23 and the corrected window images 24 and 25 by weighting, the integrated value of the window area including the pedestrian and the integrated value of the window area not including the pedestrian are calculated. The difference can be highlighted. Therefore, a pedestrian can be detected with high accuracy.

なお、窓領域54に対応する窓画像23〜25のうちいずれか1つが、図10に示す値と異なり、0.5よりも大きい値となる場合がある。例えば、窓領域54に対応する通常窓画像23の木のパターンが、あるサンプル画像データ55に含まれる歩行者のパターンに似ており、窓領域54に対応する通常窓画像23のエッジ強度が、このサンプル画像データ55のエッジ強度がほぼ等しい場合が、偶発的に発生する場合がある。この場合、窓領域54の識別値43は、1に近い値となる。しかし、識別値44,45が、識別値43と同様に、0.5以上となる可能性は低い。従って、窓領域54の積算値が超えることが抑制されるため、誤検出を防ぐことが可能となる。   Note that any one of the window images 23 to 25 corresponding to the window region 54 may have a value larger than 0.5, unlike the value shown in FIG. For example, the tree pattern of the normal window image 23 corresponding to the window region 54 is similar to the pattern of a pedestrian included in a certain sample image data 55, and the edge strength of the normal window image 23 corresponding to the window region 54 is A case where the edge strengths of the sample image data 55 are approximately equal may occur accidentally. In this case, the identification value 43 of the window area 54 is a value close to 1. However, like the identification value 43, the identification values 44 and 45 are unlikely to be 0.5 or more. Therefore, since it is suppressed that the integrated value of the window area | region 54 exceeds, it becomes possible to prevent a misdetection.

また、窓領域52に対応する識別値43〜45のうちいずれか1つが0.5以下である場合においても、他の2つの識別値が、0.5以下となる可能性は低い。このような場合には、窓領域52の積算値がしきい値を下回ることが抑制されるため、歩行者が窓領域に実際に存在するにもかかわらず、物体検出装置1が、窓領域52に歩行者が存在しない誤って判定することを防ぐことができる。   Further, even when any one of the identification values 43 to 45 corresponding to the window region 52 is 0.5 or less, the possibility that the other two identification values are 0.5 or less is low. In such a case, since the integrated value of the window area 52 is suppressed from falling below the threshold value, the object detection device 1 does not move even though the pedestrian is actually present in the window area. It is possible to prevent erroneous determination that no pedestrian exists.

以上説明したように、本実施の形態の物体検出装置1は、通常窓画像23に対して2種類のコアリング処理を用いて補正窓画像24,25を生成し、窓画像23〜25の各々から識別値43〜45を算出する。これにより、物体検出装置1は、露出条件が互いに異なるとともに、同一のタイミングで撮影された複数の撮影画像21を用いて歩行者の検出を行った場合と同様の処理を、1枚の撮影画像21を用いて実行することができる。従って、カメラ100の露出条件を制御することなく、歩行者の検出精度を向上させることが可能となる。   As described above, the object detection apparatus 1 according to the present embodiment generates the correction window images 24 and 25 using the two types of coring processes for the normal window image 23, and each of the window images 23 to 25. The identification values 43 to 45 are calculated from the above. As a result, the object detection apparatus 1 performs the same processing as when a pedestrian is detected using a plurality of captured images 21 that have different exposure conditions and are captured at the same timing. 21 can be used. Therefore, it is possible to improve the detection accuracy of pedestrians without controlling the exposure conditions of the camera 100.

[第2の実施の形態]
以下、本発明の第2の実施の形態について説明する。第2の実施の形態については、第1の実施の形態と異なる部分を中心に説明する。
[Second Embodiment]
Hereinafter, a second embodiment of the present invention will be described. The second embodiment will be described with a focus on differences from the first embodiment.

第2の実施の形態では、識別値算出部14が学習するサンプル画像データにおいて、エッジ強度が正規化されている。また、判定部15は、判定処理(ステップS6)において、歩行者が存在するか否かを3つの窓画像ごとに判定する。判定部15は、歩行者が存在すると判断された窓画像が1つでも存在する場合、窓領域に歩行者が存在すると判断する。   In the second embodiment, the edge strength is normalized in the sample image data learned by the identification value calculation unit 14. Moreover, the determination part 15 determines whether a pedestrian exists for every three window images in determination processing (step S6). The determination unit 15 determines that there is a pedestrian in the window area when there is even one window image in which it is determined that there is a pedestrian.

以下、窓領域52における歩行者の有無を判定する場合を例にして、本実施の形態について詳しく説明する。   Hereinafter, the present embodiment will be described in detail by taking as an example the case of determining the presence or absence of a pedestrian in the window region 52.

上述のように、識別値算出部14は、エッジ強度が正規化されたサンプル画像データ55を予め学習して特徴データ31を生成する。正規化されたサンプル画像データ55は、各画像データのエッジ強度が一定の範囲となるように調整されている。識別値算出部14は、生成した特徴データ31を用いて、3つの窓画像23〜25に対応する識別値43〜45を算出する。   As described above, the identification value calculation unit 14 generates the feature data 31 by learning in advance the sample image data 55 with normalized edge strength. The normalized sample image data 55 is adjusted so that the edge intensity of each image data is in a certain range. The identification value calculation unit 14 calculates identification values 43 to 45 corresponding to the three window images 23 to 25 using the generated feature data 31.

図11は、本実施の形態における、識別値43〜45と、窓領域52〜54の判定結果とを示す図である。図11に示す各窓画像の識別値は、図10に示す値と同じである。   FIG. 11 is a diagram illustrating identification values 43 to 45 and determination results of the window areas 52 to 54 in the present embodiment. The identification value of each window image shown in FIG. 11 is the same as the value shown in FIG.

物体検出装置1は、図2に示すステップS1〜S5の処理を実行して、窓領域52の各窓画像23〜25の識別値43〜45を算出する。そして、判定部15は、判定処理(ステップS6)として、図12に示す処理を実行する。   The object detection device 1 executes the processes of steps S1 to S5 shown in FIG. 2 to calculate the identification values 43 to 45 of the window images 23 to 25 in the window area 52. And the determination part 15 performs the process shown in FIG. 12 as a determination process (step S6).

図12は、第2の実施の形態における判定処理の内容を示すフローチャートである。以下、窓領域52における歩行者の有無を判定する場合を例に説明する。判定部15は、窓画像23〜25の中から、判定対象の窓画像を指定し(ステップS621)、指定した窓画像に歩行者が存在するか否かを判定する(ステップS622)。判定部15には、歩行者が存在するか否かを窓画像ごとに判定するためのしきい値が予め設定されている。判定部15は、指定した窓画像の識別値をしきい値と比較して、各窓画像に歩行者が存在するか否かを判定する。   FIG. 12 is a flowchart showing the contents of the determination process in the second embodiment. Hereinafter, the case where the presence or absence of the pedestrian in the window area 52 is determined will be described as an example. The determination unit 15 specifies a window image to be determined from the window images 23 to 25 (step S621), and determines whether a pedestrian exists in the specified window image (step S622). The determination unit 15 is preset with a threshold value for determining whether or not there is a pedestrian for each window image. The determination unit 15 compares the specified window image identification value with a threshold value to determine whether or not there is a pedestrian in each window image.

ここで、しきい値が0.8に設定され、通常窓画像23が判定対象に指定されている場合を考える。判定部15は、通常窓画像23の識別値(0.92)がしきい値を超えているため(ステップS622においてYes)、歩行者が通常窓画像23に存在すると判定する(ステップS623)。   Here, consider a case where the threshold value is set to 0.8 and the normal window image 23 is designated as a determination target. Since the identification value (0.92) of the normal window image 23 exceeds the threshold value (Yes in Step S622), the determination unit 15 determines that a pedestrian exists in the normal window image 23 (Step S623).

窓領域52の通常窓画像23及び補正窓画像24,25のうち、学習済みのサンプル画像データ55のエッジ強度にほぼ等しいエッジ強度を有する窓画像の識別値は、1に近い値を有すると考えられる。従って、しきい値を超える識別値が算出された窓画像が1つでも存在する場合、判定部15は、窓領域52に歩行者が存在すると判断する。   Of the normal window image 23 and the corrected window images 24 and 25 in the window region 52, the identification value of the window image having an edge strength substantially equal to the edge strength of the learned sample image data 55 is considered to have a value close to 1. It is done. Therefore, when there is even one window image for which an identification value exceeding the threshold is calculated, the determination unit 15 determines that a pedestrian exists in the window region 52.

なお、窓領域54は、歩行者を含まない。従って、窓領域54に対応する3つの窓画像のうちいずれか1つのエッジ強度が、サンプル画像データのエッジ強度が一致したとしても、しきい値を超える値となる可能性は少ない。このように、正規化されたサンプル画像データ55を学習する場合には、上記実施形態のように、重み付け計算を用いることなく、各窓領域における歩行者の有無を高精度で計算することができる。   Note that the window area 54 does not include a pedestrian. Therefore, even if the edge strength of any one of the three window images corresponding to the window region 54 matches the edge strength of the sample image data, there is little possibility that the value will exceed the threshold value. As described above, when learning the normalized sample image data 55, the presence / absence of a pedestrian in each window region can be calculated with high accuracy without using weighting calculation as in the above embodiment. .

判定部15は、窓領域52に対応する窓画像23〜25の全てを指定したか否かを確認する(ステップS625)。全ての窓画像を指定していない場合(ステップS625においてNo)、判定部15は、ステップS621の処理に戻る。これにより、ステップS622の処理が、全ての窓画像に対して行われる。図11に示すように、補正窓画像24,25の識別値は、0.73,0.54であり、しきい値以下である(ステップS622においてNo)。このため、判定部15は、歩行者が補正窓画像24,25のいずれにも存在しないと判定する(ステップS624)。   The determination unit 15 checks whether or not all the window images 23 to 25 corresponding to the window region 52 have been designated (step S625). If not all window images have been designated (No in step S625), the determination unit 15 returns to the process of step S621. Thereby, the process of step S622 is performed with respect to all the window images. As shown in FIG. 11, the identification values of the correction window images 24 and 25 are 0.73 and 0.54, which are not more than the threshold value (No in step S622). For this reason, the determination unit 15 determines that the pedestrian does not exist in any of the correction window images 24 and 25 (step S624).

全ての窓画像が指定されていた場合(ステップS625においてYes)、判定部15は、窓画像23〜25の判定結果に基づいて、検出窓領域41に歩行者が存在するか否かを判定する。具体的には、判定部15は、歩行者が存在すると判定された窓画像が一つ以上ある場合(ステップS626においてYes)、歩行者が窓領域52に存在すると判定する(ステップS627)。歩行者が存在すると判定された窓画像が一つもない場合(ステップS626においてNo)、判定部15は、窓領域52に歩行者が存在しないと判定する(ステップS628)。   When all the window images have been designated (Yes in step S625), the determination unit 15 determines whether or not there is a pedestrian in the detection window region 41 based on the determination results of the window images 23 to 25. . Specifically, the determination unit 15 determines that a pedestrian exists in the window region 52 when there is one or more window images determined to have a pedestrian (Yes in step S626) (step S627). If there is no window image at which it is determined that there is a pedestrian (No in step S626), the determination unit 15 determines that there is no pedestrian in the window area 52 (step S628).

なお、判定部15は、ステップS626において、他の判定基準を用いて、窓領域に歩行者が存在するか否かを判定してもよい。たとえば、歩行者が存在すると判定された窓画像の数が過半数以上である場合、判定部15は、窓領域52に歩行者が存在すると判定してもよい。あるいは、歩行者が存在しないと判定された窓画像が一つでも存在する場合、判定部15は、歩行者が窓領域52に存在しないと判定してもよい。また、判定部15は、ステップS622の処理において、補正基準値及びゼロ基準値に応じたしきい値を設定していてもよい。また、判定部15は、ステップS622において、窓領域52の窓画像23〜25に、重み付け係数34a〜34cをそれぞれ乗算してもよい。この場合、乗算値が1以上の値となる場合があるため、乗算値に応じたしきい値が設定される。   Note that the determination unit 15 may determine whether or not there is a pedestrian in the window area using another determination criterion in step S626. For example, when the number of window images determined to have a pedestrian is more than a majority, the determination unit 15 may determine that there is a pedestrian in the window region 52. Alternatively, when there is at least one window image that is determined to have no pedestrian, the determination unit 15 may determine that no pedestrian exists in the window region 52. Further, the determination unit 15 may set a threshold value according to the correction reference value and the zero reference value in the process of step S622. Further, the determination unit 15 may multiply the window images 23 to 25 in the window region 52 by weighting coefficients 34a to 34c, respectively, in step S622. In this case, since the multiplication value may be 1 or more, a threshold value corresponding to the multiplication value is set.

以上説明したように、第2の実施の形態において、判定部15は、歩行者が存在するか否かを判定する処理を窓画像ごとに行い、各窓画像の判定結果に基づいて、窓領域に歩行者が存在するか否かを最終的に判定する。第2の実施の形態の物体検出装置1は、各窓画像の識別値に重み付け係数を乗算することなく、検出窓領域に歩行者が存在するか否かを判定することが可能となる。   As described above, in the second embodiment, the determination unit 15 performs the process of determining whether or not there is a pedestrian for each window image, and based on the determination result of each window image, the window region It is finally determined whether or not there is a pedestrian. The object detection apparatus 1 according to the second embodiment can determine whether or not there is a pedestrian in the detection window area without multiplying the identification value of each window image by a weighting coefficient.

上記実施の形態において、画素値補正部13は、補正基準値を用いなくてもよい。つまり、画素値補正部13は、通常窓画像内の画素の画素値が所定の基準値よりも小さい場合、前記画素値よりも小さい値を取得することにより、補正窓画像を生成すればよい。この場合、ゼロ基準値よりも大きい画素値を変更することなく、補正基準値を用いた場合に生成される補正窓画像の明暗差よりもさらに急峻な明暗差を有する補正窓画像を生成することができる。   In the above embodiment, the pixel value correction unit 13 may not use the correction reference value. That is, when the pixel value of the pixel in the normal window image is smaller than a predetermined reference value, the pixel value correction unit 13 may generate a correction window image by acquiring a value smaller than the pixel value. In this case, it is possible to generate a correction window image having a sharper contrast than the correction window image generated when the correction reference value is used without changing a pixel value larger than the zero reference value. Can do.

上記第1及び第2の実施の形態では、物体検出装置1が、カメラ(図示省略)が撮影した撮影画像21から歩行者を検出する処理をリアルタイムで実行する例を説明した。しかし、物体検出装置1は、ハードディスク装置などの記憶装置に格納されている画像に対して、上記の物体検出処理を行ってもよい。   In the first and second embodiments, the example has been described in which the object detection device 1 executes processing for detecting a pedestrian from the captured image 21 captured by a camera (not shown) in real time. However, the object detection apparatus 1 may perform the above-described object detection process on an image stored in a storage device such as a hard disk device.

また、上記実施の形態では、通常窓画像23から補正窓画像24,25を生成する例を説明したが、これに限られない。補正窓画像の数は、1つであってもよいし、3つ以上であってもよい。3つ以上の補正窓画像が生成される場合、各補正窓画像を生成するコアリング処理は、互いに異なる。   Moreover, although the example which produces | generates the correction window images 24 and 25 from the normal window image 23 was demonstrated in the said embodiment, it is not restricted to this. The number of correction window images may be one, or may be three or more. When three or more correction window images are generated, the coring process for generating each correction window image is different from each other.

また、上記実施の形態では、画素値補正部13が、通常窓画像23に対してコアリング処理を実行する例を説明したが、これに限られない。エッジ画像22(フレーム画像)に対してコアリング処理を実行してもよい。この場合、コアリング処理が行われたエッジ画像から窓領域を切り出すことにより、補正窓画像を生成すればよい。   Moreover, although the pixel value correction | amendment part 13 demonstrated the example which performs a coring process with respect to the normal window image 23 in the said embodiment, it is not restricted to this. The coring process may be executed on the edge image 22 (frame image). In this case, a corrected window image may be generated by cutting out the window region from the edge image that has been subjected to the coring process.

また、上記実施の形態では、窓画像23〜25から識別値43〜45を算出する例を説明したが、これに限られない。物体検出装置1は、通常窓画像23を、歩行者の検出に使用しなくてもよい。この場合、物体検出装置1は、補正窓画像24,25の識別値44,45を用いて、判定処理(ステップS6)を実行する。   Moreover, although the said embodiment demonstrated the example which calculates the identification values 43-45 from the window images 23-25, it is not restricted to this. The object detection device 1 does not have to use the normal window image 23 for detecting a pedestrian. In this case, the object detection apparatus 1 executes the determination process (step S6) using the identification values 44 and 45 of the correction window images 24 and 25.

上記実施の形態で説明した物体検出装置1において、各機能部は、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されてもよい。集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサーで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。   In the object detection apparatus 1 described in the above embodiment, each functional unit may be individually made into one chip by a semiconductor device such as an LSI, or may be made into one chip so as to include a part or the whole. . The method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.

また、上記実施の形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記実施の形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。   In addition, a part or all of the processing of each functional block of the above embodiment may be realized by a program. A part or all of the processing of each functional block in the above embodiment is performed by a central processing unit (CPU) in the computer. In addition, a program for performing each processing is stored in a storage device such as a hard disk or a ROM, and is read out and executed in the ROM or the RAM.

また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。なお、上記実施の形態に係る物体検出装置1をハードウェアにより実現する場合、各処理を行うためのタイミング調整を行う必要があるのは言うまでもない。   Each processing of the above embodiment may be realized by hardware, or may be realized by software (including a case where the processing is realized together with an OS (Operating System), middleware, or a predetermined library). Further, it may be realized by mixed processing of software and hardware. Needless to say, when the object detection apparatus 1 according to the above embodiment is realized by hardware, it is necessary to adjust the timing for performing each process.

前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc)、半導体メモリを挙げることができる。   A computer program that causes a computer to execute the above-described method and a computer-readable recording medium that records the program are included in the scope of the present invention. Here, examples of the computer-readable recording medium include a flexible disk, a hard disk, a CD-ROM, an MO, a DVD, a DVD-ROM, a DVD-RAM, a BD (Blu-ray Disc), and a semiconductor memory. .

上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。   The computer program is not limited to the one recorded on the recording medium, and may be transmitted via a telecommunication line, a wireless or wired communication line, a network represented by the Internet, or the like.

1 物体検出装置
11 エッジ画像生成部
12 窓領域設定部
13 画素値補正部
14 識別値算出部
15 判定部
16 記憶部
31 特徴データ
35a,35b 補正基準値
36a,36b ゼロ基準値
100 カメラ
DESCRIPTION OF SYMBOLS 1 Object detection apparatus 11 Edge image generation part 12 Window area | region setting part 13 Pixel value correction | amendment part 14 Discrimination value calculation part 15 Determination part 16 Memory | storage part 31 Feature data 35a, 35b Correction reference value 36a, 36b Zero reference value 100 Camera

Claims (9)

カメラにより撮影された撮影画像をグレースケール変換、および、エッジ強調することにより生成されるフレーム画像から検出対象を検出する物体検出装置であって、
前記フレーム画像内に窓領域を設定し、前記窓領域の画像を有する第1窓画像を取得する窓領域設定部と、
第1窓画像内の画素の画素値が補正基準値よりも小さい場合、前記画素値よりも小さい値を取得することにより、第2窓画像を生成する画素値補正部と、
前記検出対象が前記第1窓画像内に存在する度合いを示す第1識別値と、前記検出対象が前記第2窓画像内に存在する度合いを示す第2識別値とを、前記検出対象の特徴を示す特徴データに基づいて算出する識別値算出部と、
前記第1識別値と前記第2識別値とに基づいて、前記検出対象が前記フレーム画像の窓領域に存在するか否かを判定する判定部と、
を備える物体検出装置。
An object detection device that detects a detection target from a frame image generated by performing grayscale conversion and edge enhancement on a captured image captured by a camera ,
A window area setting unit that sets a window area in the frame image and obtains a first window image having an image of the window area;
A pixel value correction unit that generates a second window image by obtaining a value smaller than the pixel value when the pixel value of the pixel in the first window image is smaller than the correction reference value;
A first identification value indicating the degree to which the detection object exists in the first window image and a second identification value indicating the degree to which the detection object exists in the second window image are characterized by the detection object. An identification value calculation unit for calculating based on feature data indicating
A determination unit that determines whether or not the detection target exists in a window region of the frame image based on the first identification value and the second identification value;
An object detection apparatus comprising:
請求項1に記載の物体検出装置であって、
前記画素値補正部は、前記第1窓画像内の画素の画素値がゼロ基準値よりも小さい場合、前記画素の画素値がゼロに設定された画素値を取得し、前記ゼロ基準値以上であり前記補正基準値よりも小さい場合、前記画素の画素値がゼロよりも大きい値に設定された画素値を取得し、
前記ゼロ基準値は、前記補正基準値よりも小さい物体検出装置。
The object detection device according to claim 1,
When the pixel value of the pixel in the first window image is smaller than a zero reference value, the pixel value correction unit acquires a pixel value in which the pixel value of the pixel is set to zero, and is equal to or greater than the zero reference value. When the pixel value of the pixel is set to a value greater than zero when the pixel value is smaller than the correction reference value,
The zero reference value is an object detection device that is smaller than the correction reference value.
請求項1または2に記載の物体検出装置であって、
前記判定部は、前記検出対象が前記第1窓画像に存在するか否かを前記第1識別値に基づいて判定し、前記検出対象が前記第2窓画像に存在するか否かを前記第2識別値に基づいて判定し、前記検出対象が前記第1窓画像及び前記第2窓画像の少なくとも1つに存在すると判定した場合に前記検出対象が前記フレーム画像の前記窓領域に存在すると判定する物体検出装置。
The object detection device according to claim 1 or 2,
The determination unit determines whether the detection target is present in the first window image based on the first identification value, and determines whether the detection target is present in the second window image. 2 based on the identification value, and when it is determined that the detection target exists in at least one of the first window image and the second window image, it is determined that the detection target exists in the window region of the frame image Object detection device.
請求項1または2に記載の物体検出装置であって、
前記判定部は、
前記第1識別値及び前記第2識別値の積算値を計算する積算部と、
前記積算値に基づいて、前記フレーム画像内の窓領域に前記検出対象が存在するか否かを判断する最終判定部と、
を含む物体検出装置。
The object detection device according to claim 1 or 2,
The determination unit
An integration unit for calculating an integrated value of the first identification value and the second identification value;
Based on the integrated value, a final determination unit that determines whether or not the detection target exists in a window region in the frame image;
An object detection apparatus including:
請求項4に記載の物体検出装置であって、
前記積算部は、第1重み付け係数を前記第1識別値に乗算した乗算値と、第2重み付け係数を前記第2識別値に乗算した乗算値とを積算することにより前記積算値を取得する物体検出装置。
The object detection device according to claim 4,
The integration unit obtains the integrated value by integrating a multiplication value obtained by multiplying the first identification value by a first weighting coefficient and a multiplication value obtained by multiplying the second identification value by a second weighting coefficient. Detection device.
請求項1ないし5のいずれかに記載の物体検出装置であって、
前記画素値補正部は、第1窓画像内の画素の画素値が前記補正基準値と異なる基準値よりも小さい場合、前記画素値よりも小さい変更画素値を取得することにより、第3窓画像を生成し、
前記識別値算出部は、前記検出対象が前記第3窓画像内に存在する度合いを示す第3識別値を、前記特徴データに基づいて算出し、
前記判定部は、前記第1〜第3識別値に基づいて、前記検出対象が前記フレーム画像の前記窓領域に存在するか否かを判定する物体検出装置。
The object detection device according to any one of claims 1 to 5,
When the pixel value of the pixel in the first window image is smaller than a reference value different from the correction reference value, the pixel value correction unit acquires a changed pixel value smaller than the pixel value, thereby obtaining a third window image. Produces
The identification value calculation unit calculates a third identification value indicating the degree to which the detection target exists in the third window image based on the feature data,
The said determination part is an object detection apparatus which determines whether the said detection target exists in the said window area | region of the said frame image based on the said 1st-3rd identification value.
カメラにより撮影された撮影画像をグレースケール変換、および、エッジ強調することにより生成されるフレーム画像から検出対象を検出する物体検出装置であって、An object detection device that detects a detection target from a frame image generated by performing grayscale conversion and edge enhancement on a captured image captured by a camera,
前記フレーム画像内に窓領域を設定する窓領域設定部と、  A window area setting unit for setting a window area in the frame image;
前記窓領域を有する画像内の画素の画素値が第1補正基準値よりも小さい場合、前記画素値よりも小さい値を取得することにより第1窓画像を生成し、前記窓領域を有する画像内の画素の画素値が前記第1補正基準値と異なる第2補正基準値よりも小さい場合、前記画素値よりも小さい値を取得することにより第2窓画像を生成する画素値補正部と、  When a pixel value of a pixel in the image having the window region is smaller than a first correction reference value, a first window image is generated by acquiring a value smaller than the pixel value, and the image having the window region A pixel value correction unit that generates a second window image by obtaining a value smaller than the pixel value when the pixel value of the pixel is smaller than a second correction reference value different from the first correction reference value;
前記検出対象が前記第1窓画像内に存在する度合いを示す第1識別値と、前記検出対象が前記第2窓画像内に存在する度合いを示す第2識別値とを、前記検出対象の特徴を示す特徴データに基づいて算出する識別値算出部と、  A first identification value indicating the degree to which the detection object exists in the first window image and a second identification value indicating the degree to which the detection object exists in the second window image are characterized by the detection object. An identification value calculation unit for calculating based on feature data indicating
前記第1識別値と前記第2識別値とに基づいて、前記検出対象が前記フレーム画像の窓領域に存在するか否かを判定する判定部と、  A determination unit that determines whether or not the detection target exists in a window region of the frame image based on the first identification value and the second identification value;
を備える物体検出装置。An object detection apparatus comprising:
カメラにより撮影された撮影画像をグレースケール変換、および、エッジ強調することにより生成されるフレーム画像から検出対象を検出する物体検出装置に搭載されるコンピュータに、In a computer mounted on an object detection device that detects a detection target from a frame image generated by performing grayscale conversion and edge enhancement on a captured image captured by a camera,
前記フレーム画像内に窓領域を設定し、前記窓領域の画像を有する第1窓画像を取得するステップと、  Setting a window area in the frame image and obtaining a first window image having an image of the window area;
第1窓画像内の画素の画素値が補正基準値よりも小さい場合、前記画素値よりも小さい値を取得することにより、第2窓画像を生成するステップと、  Generating a second window image by obtaining a value smaller than the pixel value when the pixel value of the pixel in the first window image is smaller than the correction reference value;
前記検出対象が前記第1窓画像内に存在する度合いを示す第1識別値と、前記検出対象が前記第2窓画像内に存在する度合いを示す第2識別値とを、前記検出対象の特徴を示す特徴データに基づいて算出するステップと、  A first identification value indicating the degree to which the detection object exists in the first window image and a second identification value indicating the degree to which the detection object exists in the second window image are characterized by the detection object. Calculating based on feature data indicating
前記第1識別値と前記第2識別値とに基づいて、前記検出対象が前記フレーム画像の窓領域に存在するか否かを判定するステップと、  Determining whether or not the detection target exists in a window region of the frame image based on the first identification value and the second identification value;
を実行させる物体検出プログラム。An object detection program that executes
カメラにより撮影された撮影画像をグレースケール変換、および、エッジ強調することにより生成されるフレーム画像から検出対象を検出する物体検出装置に搭載されるコンピュータに、In a computer mounted on an object detection device that detects a detection target from a frame image generated by performing grayscale conversion and edge enhancement on a captured image captured by a camera,
前記フレーム画像内に窓領域を設定するステップと、  Setting a window region in the frame image;
前記窓領域を有する画像内の画素の画素値が第1補正基準値よりも小さい場合、前記画素値よりも小さい値を取得することにより第1窓画像を生成し、前記窓領域を有する画像内の画素の画素値が前記第1補正基準値と異なる第2補正基準値よりも小さい場合、前記画素値よりも小さい値を取得することにより第2窓画像を生成するステップと、  When a pixel value of a pixel in the image having the window region is smaller than a first correction reference value, a first window image is generated by acquiring a value smaller than the pixel value, and the image having the window region Generating a second window image by obtaining a value smaller than the pixel value when the pixel value of the pixel is smaller than a second correction reference value different from the first correction reference value;
前記検出対象が前記第1窓画像内に存在する度合いを示す第1識別値と、前記検出対象が前記第2窓画像内に存在する度合いを示す第2識別値とを、前記検出対象の特徴を示す特徴データに基づいて算出するステップと、  A first identification value indicating the degree to which the detection object exists in the first window image and a second identification value indicating the degree to which the detection object exists in the second window image are characterized by the detection object. Calculating based on feature data indicating
前記第1識別値と前記第2識別値とに基づいて、前記検出対象が前記フレーム画像の窓領域に存在するか否かを判定するステップと、  Determining whether or not the detection target exists in a window region of the frame image based on the first identification value and the second identification value;
を実行させる物体検出プログラム。An object detection program that executes
JP2014028730A 2014-02-18 2014-02-18 Object detection device Expired - Fee Related JP6423594B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014028730A JP6423594B2 (en) 2014-02-18 2014-02-18 Object detection device
PCT/JP2015/053759 WO2015125681A1 (en) 2014-02-18 2015-02-12 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014028730A JP6423594B2 (en) 2014-02-18 2014-02-18 Object detection device

Publications (2)

Publication Number Publication Date
JP2015153313A JP2015153313A (en) 2015-08-24
JP6423594B2 true JP6423594B2 (en) 2018-11-14

Family

ID=53878186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014028730A Expired - Fee Related JP6423594B2 (en) 2014-02-18 2014-02-18 Object detection device

Country Status (2)

Country Link
JP (1) JP6423594B2 (en)
WO (1) WO2015125681A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6936957B2 (en) * 2017-11-07 2021-09-22 オムロン株式会社 Inspection device, data generation device, data generation method and data generation program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100230391B1 (en) * 1996-11-29 1999-11-15 윤종용 Method for correcting contour components of luminance signal and circuit thereof
JP5535443B2 (en) * 2008-03-26 2014-07-02 株式会社メガチップス Image processing device
JP2012249079A (en) * 2011-05-27 2012-12-13 Semiconductor Components Industries Llc Contour correction device
JP6242563B2 (en) * 2011-09-09 2017-12-06 株式会社メガチップス Object detection device
JP6116959B2 (en) * 2013-03-26 2017-04-19 株式会社メガチップス Object detection device

Also Published As

Publication number Publication date
JP2015153313A (en) 2015-08-24
WO2015125681A1 (en) 2015-08-27

Similar Documents

Publication Publication Date Title
JP6242563B2 (en) Object detection device
US9330446B2 (en) Method and apparatus for processing image
JP6401922B2 (en) Object detection device
KR20180119484A (en) Moving object detection apparatus, control method for moving object detection apparatus, computer-readable storage medium, and program
JP2007172500A (en) Data processor
JP6928785B2 (en) Imaging device, axle load measurement system, and imaging method
JP6423594B2 (en) Object detection device
US20210090237A1 (en) Deposit detection device and deposit detection method
US20190266392A1 (en) Image processing apparatus, image processing method, and storage medium
JP2017165345A (en) Object recognition device, object recognition method and object recognition program
JP6280412B2 (en) Object detection device
JP6140478B2 (en) Object detection device, program, and integrated circuit
US9536137B2 (en) Object detection apparatus
US20160316125A1 (en) Image processing apparatus that corrects contour, control method therefor, storage medium storing control program therefor, and image pickup apparatus
JP6800743B2 (en) Master image data creation device
JP2009059047A (en) Device, method and program for detecting object
JP2015215235A (en) Object detection device and object detection method
JP6116959B2 (en) Object detection device
JP6320130B2 (en) Image processing apparatus, control method thereof, and control program
US9591220B2 (en) Selection apparatus, selection method, and storage medium
JP6396138B2 (en) Human body detection device
JP6161931B2 (en) Object detection device
JP7408973B2 (en) Learning model generation device, image correction device, learning model generation program, and image correction program
US20200342575A1 (en) Image processing apparatus, control method of same, and non-transitory computer-readable storage medium
CN106650557B (en) Image partition threshold value determination method and system and gesture judgment method and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181019

R150 Certificate of patent or registration of utility model

Ref document number: 6423594

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees