JP2020035334A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2020035334A
JP2020035334A JP2018163185A JP2018163185A JP2020035334A JP 2020035334 A JP2020035334 A JP 2020035334A JP 2018163185 A JP2018163185 A JP 2018163185A JP 2018163185 A JP2018163185 A JP 2018163185A JP 2020035334 A JP2020035334 A JP 2020035334A
Authority
JP
Japan
Prior art keywords
range
distribution
target
pattern
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018163185A
Other languages
Japanese (ja)
Other versions
JP7192312B2 (en
Inventor
佑太 榊原
Yuta Sakakibara
佑太 榊原
清水 修一
Shuichi Shimizu
修一 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2018163185A priority Critical patent/JP7192312B2/en
Publication of JP2020035334A publication Critical patent/JP2020035334A/en
Application granted granted Critical
Publication of JP7192312B2 publication Critical patent/JP7192312B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide a technique that improves recognition precision of a target.SOLUTION: An image processing apparatus comprises a range setting part S310, an edge detection part S340, a distribution calculation part S370, a distribution pattern memory, and a target determination part S380. The range setting part sets as a target range a range in which presence of a target in a captured image acquired by an image acquisition part is estimated. The distribution calculation part calculates an edge distribution which is a distribution where edge degrees being numerals are arranged along a horizontal direction of the image, the edge degrees being obtained by adding the numbers of edge points calculated by the edge detection part. The distribution pattern memory memorizes at least one distribution pattern. The target determination part determines whether a target range represents a target corresponding to the distribution pattern according to respective similarities between the edge distribution calculated by the distribution calculation part and the at least one distribution pattern memorized in the distribution pattern memory.SELECTED DRAWING: Figure 4

Description

本開示は、画像処理装置に関する。   The present disclosure relates to an image processing device.

特許文献1には、パターンマッチングにより歩行者などの物標の認識を行う技術が記載されている。当該パターンマッチングによれば、画像のあらかじめ決められた大きさの領域を抜き出し、抜き出された領域である対象領域を格子状のセルに分割する。そして、格子状に分割されたセルごとに、輝度勾配の方向をヒストグラム化した特徴量であるHOG特徴量を算出する。さらに、当該セルごとのHOG特徴量と、あらかじめ記憶され、認識しようとする物標の部分に対応したパターンである照合パターンのHOG特徴量とを照合する。照合によりHOG特徴量が一致する場合、セルは照合パターンが表す物標の部分を表すものであると判定される。そして、画像中の当該セルを含む範囲に当該照合パターンと対応した物標の部分を含む物標が存在すると判定される。   Patent Literature 1 discloses a technique for recognizing a target such as a pedestrian by pattern matching. According to the pattern matching, an area of a predetermined size of the image is extracted, and the extracted target area is divided into lattice cells. Then, for each of the cells divided in a grid pattern, a HOG feature value, which is a feature value obtained by converting the direction of the luminance gradient into a histogram, is calculated. Further, the HOG feature amount of each cell is compared with the HOG feature amount of a matching pattern that is stored in advance and is a pattern corresponding to a portion of a target to be recognized. If the HOG feature values match by collation, it is determined that the cell represents the target portion represented by the collation pattern. Then, it is determined that a target including a target portion corresponding to the matching pattern exists in a range including the cell in the image.

特開2014−81826号公報JP 2014-81826 A

しかしながら、例えば、人の脚を含む対象領域と標識の支柱を含む対象領域とのそれぞれについて、上記HOG特徴量を用いたパターンマッチングを行った場合、人の脚も標識の支柱も地面に対して水平方向に輝度勾配を有するため、輝度勾配の方向をヒストグラム化したHOG特徴量は類似することとなる。   However, for example, when pattern matching using the HOG feature amount is performed for each of the target region including the human leg and the target region including the sign post, both the human leg and the sign post are positioned relative to the ground. Since there is a luminance gradient in the horizontal direction, the HOG feature amounts obtained by converting the direction of the luminance gradient into a histogram are similar.

その結果、HOG特徴量を用いたパターンマッチングでは、人の脚を含む対象領域と標識の支柱を含む対象領域とを区別することができず、例えば、標識の支柱を含む対象領域を人の脚を含む対象領域であると認識し、歩行者を認識する認識精度が低下する可能性がある。   As a result, in the pattern matching using the HOG feature, it is not possible to distinguish a target region including a human leg from a target region including a sign post. There is a possibility that the recognition accuracy may be reduced by recognizing that the target region includes a pedestrian.

本開示の1つの局面は、物標の認識精度を向上させる技術を提供する。   One aspect of the present disclosure provides a technique for improving recognition accuracy of a target.

本開示の一態様は、画像処理装置であって、画像取得部(S210)と、範囲設定部(S110,S310)と、エッジ検出部(S340)と、分布算出部(S370)と、分布パターンメモリ(64)と、物標判定部(S380)と、を備える。画像取得部は、車両に搭載された撮像装置(10)により取得された撮像画像(100)を取得するように構成される。範囲設定部は、画像取得部により取得された撮像画像中の物標が存在すると推定される範囲を物標範囲として設定するように構成される。エッジ検出部は、範囲設定部により設定された物標範囲の少なくとも一部において、当該画像での水平方向に沿って物標の輪郭部分を表す点であるエッジ点として検出するように構成される。分布算出部は、エッジ検出部により算出されたエッジ点の個数を当該画像における鉛直方向に加算することによって得られる数値であるエッジ度を、当該画像における水平方向に沿って配置した分布であるエッジ分布を算出するように構成される。分布パターンメモリは、物標の種類ごとにあらかじめ対応付けられたエッジ分布の代表パターンである分布パターンを少なくとも1つ記憶するように構成される。物標判定部は、分布算出部により算出されたエッジ分布と、分布パターンメモリに記憶された少なくとも1つの分布パターンそれぞれとの類似度に応じて物標範囲は当該分布パターンに対応する物標を表しているものであるか否かを判定するように構成される。   One embodiment of the present disclosure is an image processing apparatus, and includes an image acquisition unit (S210), a range setting unit (S110, S310), an edge detection unit (S340), a distribution calculation unit (S370), and a distribution pattern. It includes a memory (64) and a target determination unit (S380). The image acquisition unit is configured to acquire a captured image (100) acquired by the imaging device (10) mounted on the vehicle. The range setting unit is configured to set, as a target range, a range in which a target in the captured image acquired by the image acquisition unit is assumed to be present. The edge detection unit is configured to detect, at least in a part of the target range set by the range setting unit, as an edge point that is a point representing a contour portion of the target along the horizontal direction in the image. . The distribution calculating unit calculates the edge degree, which is a numerical value obtained by adding the number of edge points calculated by the edge detecting unit in the vertical direction in the image, and distributes the edge degree along the horizontal direction in the image. It is configured to calculate a distribution. The distribution pattern memory is configured to store at least one distribution pattern that is a representative pattern of an edge distribution previously associated with each type of target. The target determination unit determines a target range corresponding to the distribution pattern according to the similarity between the edge distribution calculated by the distribution calculation unit and each of the at least one distribution pattern stored in the distribution pattern memory. It is configured so as to determine whether or not the information is represented.

HOG特徴量を用いたパターンマッチングでは、照合を行う対象領域を複数のセルに分割し、分割した各セル単位で照合結果を合計することにより、対象領域の全体が対象となる物標と一致するか否かを判定する。そのため、分割した各セル単位の一部が照合を行う物標と一致度が高い場合、その一致度が高いセルの結果が対象領域全体の結果に影響を与えるため、全体として照合を行う物標と一致すると判定される可能性がある。   In the pattern matching using the HOG feature amount, the target area to be matched is divided into a plurality of cells, and the matching result is summed up for each of the divided cells, so that the entire target area matches the target target. It is determined whether or not. Therefore, if a part of each divided cell unit has a high degree of coincidence with the target to be compared, the result of the cell with the high degree of coincidence will affect the result of the entire target area. May be determined to match.

上述した構成によれば、分布算出部は、画像における鉛直方向に加算することによって得られる数値であるエッジ度を、当該画像における水平方向に沿って配置した分布であるエッジ分布を算出する。これにより、少なくとも鉛直方向に対して、セル単位で判定する場合に比べ、より広い範囲におけるエッジ分布が算出され、算出されたエッジ分布をあらかじめ決められた分布パターンと比較することで、物標を認識する。   According to the configuration described above, the distribution calculation unit calculates an edge distribution, which is a distribution in which a numerical value obtained by adding in the vertical direction in an image is arranged along the horizontal direction in the image. Thereby, at least in the vertical direction, the edge distribution in a wider range is calculated as compared with the case where the determination is made on a cell-by-cell basis, and the calculated edge distribution is compared with a predetermined distribution pattern, so that the target is determined. recognize.

セル単位で判定する場合よりも広い範囲での検出結果を元に比較することができるため、セルに相当する一部の一致度が高い場合にも、全体に与える影響を抑えることができる。
これにより、物標範囲が表している物標を認識する精度を向上させることができる。
Since the comparison can be made based on the detection results in a wider range than when the determination is made on a cell-by-cell basis, even when the degree of coincidence of a part corresponding to a cell is high, the influence on the whole can be suppressed.
As a result, the accuracy of recognizing the target represented by the target range can be improved.

なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。   Note that the reference numerals in parentheses described in this column and in the claims indicate a correspondence relationship with specific means described in the embodiment described below as one aspect, and the technical scope of the present disclosure will be described. It is not limited.

画像認識システムの構成を示すブロック図である。It is a block diagram showing the composition of an image recognition system. 歩行者認識処理のフローチャートである。It is a flowchart of a pedestrian recognition process. 推定処理のフローチャートである。It is a flowchart of an estimation process. 認識処理のフローチャートである。It is a flowchart of a recognition process. 撮像映像と撮像画像中の推定範囲及び注目範囲の例を表した線図である。FIG. 3 is a diagram illustrating an example of a captured video and an estimated range and a range of interest in the captured image. 第一注目範囲の画像を表した図である。It is a figure showing the image of the 1st attention range. 第一注目範囲のエッジ画像を表した図である。FIG. 5 is a diagram illustrating an edge image of a first attention range. 第一注目範囲のエッジ分布を表した図である。FIG. 6 is a diagram illustrating an edge distribution of a first attention range. 第三注目範囲の画像を表した図である。It is a figure showing the image of the 3rd attention range. 第三注目範囲のエッジ画像を表した図である。It is a figure showing the edge image of the 3rd attention range. 第三注目範囲のエッジ分布を表した図である。It is a figure showing the edge distribution of the 3rd attention range.

以下、図面を参照しながら、本開示の実施形態を説明する。
[1.構成]
図1に示す画像認識システム1は、車両に搭載され、カメラモジュール10、制御装置20、ブレーキアクチュエータ30、表示装置40、スピーカ50及び画像処理装置60を備える。以下では、画像認識システム1が搭載される車両を自車という。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. Constitution]
The image recognition system 1 shown in FIG. 1 is mounted on a vehicle and includes a camera module 10, a control device 20, a brake actuator 30, a display device 40, a speaker 50, and an image processing device 60. Hereinafter, a vehicle on which the image recognition system 1 is mounted is referred to as a host vehicle.

カメラモジュール10は、例えば、カラー画像を出力するCCDカメラのカメラモジュールである。カメラモジュール10は、例えば自車の前方を撮像するために自車の車室内に設けられる。   The camera module 10 is, for example, a camera module of a CCD camera that outputs a color image. The camera module 10 is provided, for example, in the cabin of the host vehicle to capture an image of the front of the host vehicle.

また、カメラモジュール10は自車の前方を撮像するものに限定されず、自車の周囲を撮像するものであればよく、カメラモジュール10が設置される位置は車室内でなくてもよい。   Further, the camera module 10 is not limited to the one that images the front of the own vehicle, but may be any one that images the surroundings of the own vehicle, and the position where the camera module 10 is installed may not be in the vehicle interior.

ブレーキアクチュエータ30は自車の制動力を調整するアクチュエータである。
表示装置40は自車の車室内に設置され、表示装置40が有する表示画面に画像等を表示する装置である。
The brake actuator 30 is an actuator that adjusts the braking force of the own vehicle.
The display device 40 is a device that is installed in the cabin of the host vehicle and displays an image or the like on a display screen of the display device 40.

スピーカ50は、自車の車室内に設置され、音声を出力する装置である。
制御装置20は、画像処理装置60により出力される歩行者認識の結果に応じて、ブレーキアクチュエータ30、表示装置40又はスピーカ50の制御を行う。
The speaker 50 is a device that is installed in the cabin of the vehicle and outputs sound.
The control device 20 controls the brake actuator 30, the display device 40, or the speaker 50 according to the result of the pedestrian recognition output from the image processing device 60.

ブレーキアクチュエータ30の制御とは、例えば自車の位置を基準としてあらかじめ決められた範囲内に歩行者が存在すると判定した場合に、自車の制動力を増大させるブレーキの制御をいう。   The control of the brake actuator 30 refers to brake control for increasing the braking force of the own vehicle, for example, when it is determined that a pedestrian exists within a predetermined range based on the position of the own vehicle.

表示装置40の制御とは、例えば表示装置40に自車の周囲の撮像画像を表示している場合に、撮像画像中に歩行者が存在すると判定された範囲である歩行者範囲が存在する場合に、その範囲を強調して表示する制御をいう。なお、表示装置40の制御は、強調表示を行う制御に限られず、自車の運転者に注意を促す表示を行う制御であればよい。また、撮像画像中に存在する物体が存在すると判定された範囲である物体範囲が存在する場合に、その範囲を強調して表示してもよい。この場合、歩行者範囲の表示と物体範囲の表示とを異なる表示態様で表示してもよい。   The control of the display device 40 is, for example, when a captured image around the own vehicle is displayed on the display device 40 and a pedestrian range that is a range where it is determined that a pedestrian exists in the captured image exists. Control for highlighting and displaying the range. In addition, the control of the display device 40 is not limited to the control of performing the highlighted display, and may be any control as long as it performs a display that calls attention to the driver of the own vehicle. Further, when there is an object range that is a range determined to include an object present in the captured image, the range may be emphasized and displayed. In this case, the display of the pedestrian range and the display of the object range may be displayed in different display modes.

スピーカ50の制御とは、例えばカメラモジュール10により撮像された自車の周囲に歩行者が存在すると判定された場合に、警報音などを発し、自車のドライバに報知する制御をいう。   The control of the speaker 50 means, for example, a control that emits an alarm sound and notifies the driver of the own vehicle when it is determined that a pedestrian is present around the own vehicle captured by the camera module 10.

なお、制御装置20は、ブレーキアクチュエータ30の制御、表示装置40の制御、スピーカ50の制御のうち何れか一つの制御のみを行ってもよく、複数の制御を行ってもよい。   The control device 20 may perform only one of the control of the brake actuator 30, the control of the display device 40, and the control of the speaker 50, or may perform a plurality of controls.

画像処理装置60は、CPU61と、例えば、RAM又はROM等の半導体メモリ(以下、処理メモリ62)と、を有するマイクロコンピュータ、照合パターンメモリ63及び分布パターンメモリ64を備える。画像処理装置60の各機能は、CPU61が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、処理メモリ62が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、画像処理装置60は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。   The image processing device 60 includes a microcomputer having a CPU 61 and a semiconductor memory such as a RAM or a ROM (hereinafter, a processing memory 62), a matching pattern memory 63, and a distribution pattern memory 64. Each function of the image processing device 60 is realized by the CPU 61 executing a program stored in a non-transitional substantial recording medium. In this example, the processing memory 62 corresponds to a non-transitional substantial recording medium storing a program. When this program is executed, a method corresponding to the program is executed. Note that the image processing device 60 may include one microcomputer, or may include a plurality of microcomputers.

画像処理装置60が備える各機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の機能は、一つあるいは複数のハードウェアを用いて実現されてもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は、デジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現されてもよい。   The technique for realizing each function of the image processing apparatus 60 is not limited to software, and some or all of the functions may be realized using one or a plurality of hardware. For example, when the above function is implemented by an electronic circuit that is hardware, the electronic circuit may be implemented by a digital circuit, an analog circuit, or a combination thereof.

なお、画像処理装置60は、自車のイグニッションスイッチがオンである間、自車から電力の供給を受ける。また、画像処理装置60は、制御装置20に対し検出結果を出力する処理を行う。ここでいう検出結果とは、例えば歩行者が存在するか否かを含み、検出された歩行者の位置の情報などを含んでもよい。   Note that the image processing device 60 receives power supply from the own vehicle while the ignition switch of the own vehicle is on. Further, the image processing device 60 performs a process of outputting a detection result to the control device 20. The detection result here includes, for example, whether or not a pedestrian is present, and may include information on the position of the detected pedestrian.

また、照合パターンメモリ63は、照合パターンを記憶するメモリである。照合パターンは、歩行者の一部分に対応する矩形状のパターンであり、あらかじめ決められたHOG特徴量を表す。HOG特徴量は、輝度勾配の勾配方向ごとに輝度勾配の勾配強度を表したヒストグラムである。   The matching pattern memory 63 is a memory that stores a matching pattern. The matching pattern is a rectangular pattern corresponding to a part of the pedestrian, and represents a predetermined HOG feature amount. The HOG feature amount is a histogram representing the gradient strength of the luminance gradient for each gradient direction of the luminance gradient.

分布パターンメモリ64は、分布パターンを記憶するメモリである。分布パターンは、物標の種類ごとにあらかじめ設定される物標の少なくとも一部のエッジ分布の代表的なパターンである。エッジ分布は、エッジ度を撮像画像における水平方向に沿って配置した分布である。エッジ度は、撮像画像における鉛直方向に沿って、エッジ点の個数を加算することにより算出される値である。   The distribution pattern memory 64 is a memory that stores a distribution pattern. The distribution pattern is a representative pattern of the edge distribution of at least a part of the target preset for each type of target. The edge distribution is a distribution in which the edge degrees are arranged along the horizontal direction in the captured image. The edge degree is a value calculated by adding the number of edge points along the vertical direction in the captured image.

すなわち、分布パターンは、撮像画像において検出された物標の一部のエッジ分布と比較するために、あらかじめ物標の種類ごとに記憶されるエッジ分布の代表的なパターンである。   That is, the distribution pattern is a representative pattern of the edge distribution stored in advance for each type of target in order to compare with a part of the edge distribution of the target detected in the captured image.

さらに、分布パターンには、物体パターンが含まれる。物体パターンは歩行者以外の物標である物体の少なくとも一部を表す分布パターンである。物体パターンには、例えば、道路上に立設される柱状体であるポールの一部を表した物体パターンであるポールパターンが含まれる。   Further, the distribution pattern includes an object pattern. The object pattern is a distribution pattern representing at least a part of an object that is a target other than a pedestrian. The object pattern includes, for example, a pole pattern which is an object pattern representing a part of a pole which is a pillar-shaped body erected on a road.

なお、カメラモジュール10が撮像装置に相当する。
[2.処理]
次に、CPU61が実行する歩行者認識処理について、図2のフローチャートを用いて説明する。なお、歩行者認識装置は、画像処理装置60の電源がオンである間、繰り返し実行される。
Note that the camera module 10 corresponds to an imaging device.
[2. processing]
Next, the pedestrian recognition process executed by the CPU 61 will be described with reference to the flowchart in FIG. The pedestrian recognition device is repeatedly executed while the power of the image processing device 60 is on.

S110で、CPU61は、推定処理を行う。ここでいう推定処理の詳細は後述するが、カメラモジュール10により撮像された撮像画像中に存在する物標を表した範囲である物標範囲のうち歩行者であると推定される範囲を推定範囲として抽出する処理をいう。なお、推定範囲が撮像画像中に複数存在する場合には、撮像画像中に存在する複数の推定範囲を抽出する。   In S110, the CPU 61 performs an estimation process. Although the details of the estimation processing here will be described later, a range in which a pedestrian is estimated to be a pedestrian in a target range which is a range representing a target existing in an image captured by the camera module 10 is referred to as an estimation range. Means a process of extracting as When a plurality of estimation ranges exist in the captured image, a plurality of estimation ranges existing in the captured image are extracted.

S120で、CPU61は、S110の推定処理により、撮像画像中に推定範囲が存在するか否か、すなわち、推定処理により推定範囲が1つ以上抽出されたか否かを判定する。
CPU61は、S120で、推定範囲が存在すると判定された場合、すなわち、推定範囲が1つ以上抽出されたと判定された場合にはS130に処理を移行する。
In S120, the CPU 61 determines whether or not an estimated range exists in the captured image, that is, whether or not one or more estimated ranges have been extracted by the estimation process, in the estimation process in S110.
If it is determined in S120 that an estimation range exists, that is, if it is determined that one or more estimation ranges have been extracted, the CPU 61 shifts the processing to S130.

一方、CPU61は、S120で、推定範囲が存在しないと判定された場合、すなわち、推定範囲が1つも抽出されていない場合には、歩行者認識処理を終了する。
S130で、CPU61は、認識処理を行う。ここでいう認識処理の詳細は後述するが、認識処理は、S110により抽出された推定範囲のそれぞれを、歩行者を表しているものである歩行者範囲であるか、歩行者以外を表しているものである物体範囲であるかを判定し、歩行者範囲及び物体範囲を出力する処理である。
On the other hand, if it is determined in S120 that no estimation range exists, that is, if no estimation range has been extracted, the CPU 61 ends the pedestrian recognition process.
In S130, the CPU 61 performs a recognition process. Although the details of the recognition processing here will be described later, the recognition processing indicates that each of the estimated ranges extracted in S110 is a pedestrian range that represents a pedestrian, or represents a region other than a pedestrian. This is a process of determining whether the object range is an object range and outputting a pedestrian range and an object range.

S110が範囲設定部としての処理に相当する。
<推定処理>
次に、CPU61が歩行者認識処理のS110で実行する推定処理の詳細について図3を用いて説明する。
S110 corresponds to the processing as the range setting unit.
<Estimation processing>
Next, details of the estimation processing executed by the CPU 61 in S110 of the pedestrian recognition processing will be described with reference to FIG.

S210で、CPU61は、カメラモジュール10により撮像された撮像画像を取得する。
S220で、CPU61は、S210で取得した撮像画像をあらかじめ設定された画素数を有する矩形状のセルに分割し、セルごとにHOG特徴量を算出する。ここで、設定されるセルの画素数は例えば16画素×16画素の範囲が設定される。
In S210, the CPU 61 obtains an image captured by the camera module 10.
In S220, the CPU 61 divides the captured image acquired in S210 into rectangular cells having a preset number of pixels, and calculates a HOG feature amount for each cell. Here, the number of pixels of the cell to be set is set to, for example, a range of 16 pixels × 16 pixels.

なお、HOG特徴量は、以下のようにして求められる。すなわち、セルの横座標をx、縦座標をy、座標(x,y)での輝度をL(x,y)で表すものとして、まず、各セルの輝度勾配の大きさを表す勾配強度m(x,y)及び各分割領域の輝度勾配の方向を表す勾配方向θ(x,y)を算出する。   Note that the HOG feature amount is obtained as follows. That is, assuming that the abscissa of the cell is x, the ordinate is y, and the luminance at the coordinates (x, y) is L (x, y), first, a gradient intensity m representing the magnitude of the luminance gradient of each cell. (X, y) and a gradient direction θ (x, y) representing the direction of the luminance gradient of each divided region are calculated.

そして、0°〜180°までをm方向に分割し、勾配方向が同じ方向であると見なすことができる分割領域の勾配強度を合計したものを、その方向の勾配強度とする輝度勾配ヒストグラムを作成する。この輝度ヒストグラムによって表されるm次元の値がHOG特徴量である。   Then, a brightness gradient histogram is created by dividing 0 ° to 180 ° in the m direction and summing the gradient intensities of the divided regions in which the gradient direction can be considered to be the same direction as the gradient intensity in that direction. I do. The m-dimensional value represented by the luminance histogram is the HOG feature amount.

S230で、CPU61は、S210で取得された撮像画像に対して、後述するS240で選択されていない照合パターンである未照合パターンが存在するか否かを判定する。
CPU61は、未照合パターンが存在すると判定した場合、S240に処理を移行する。
In S230, the CPU 61 determines whether or not an uncollated pattern, which is a collation pattern not selected in S240 described later, exists in the captured image acquired in S210.
If the CPU 61 determines that an unmatched pattern exists, the process proceeds to S240.

S240からS270までの処理により、撮像画像中の領域と照合パターンメモリ63に記憶された各照合パターンとを照合し、撮像画像中に存在する歩行者を表す推定範囲を抽出する。   By the processing from S240 to S270, the area in the captured image is collated with each collation pattern stored in the collation pattern memory 63, and an estimated range representing a pedestrian present in the captured image is extracted.

S240で、CPU61は、未照合パターンのうちから一つの照合パターンを選択する。
S250で、CPU61は、探査領域について設定された複数の探査サイズのうち、後述するS260で選択されていない未選択の探査サイズ(以下、未選択サイズという)が存在するか否かを判定する。ここで、探査領域とは、nを自然数としてnセル×nセルで表される矩形の領域である。探査領域の大きさは、撮像画像に映り込む探査の対象となる物標の大きさに応じて複数種類が設定される。
In S240, the CPU 61 selects one matching pattern from the unmatched patterns.
In S250, the CPU 61 determines whether or not there is an unselected search size (hereinafter, referred to as an unselected size) that has not been selected in S260 described later among a plurality of search sizes set for the search area. Here, the search area is a rectangular area represented by n cells × n cells where n is a natural number. As the size of the search area, a plurality of types are set according to the size of the target to be searched which is reflected in the captured image.

CPU61は、S250で未選択サイズが存在しないと判定した場合には、S230に戻り、以降の処理を行う。すなわち、照合パターンを変更してS260からS270までの処理を繰り返し実行する。   If the CPU 61 determines in step S250 that there is no unselected size, the process returns to step S230, and performs the subsequent processing. That is, the process from S260 to S270 is repeatedly performed while changing the matching pattern.

一方、CPU61は、S250で未選択サイズが存在すると判定した場合には、S260に処理を移行する。
S260で、CPU61は、未選択サイズのうち、いずれか一つの探査サイズを選択する。以下では、S260で選択された探査サイズを選択サイズともいう。
On the other hand, if the CPU 61 determines in step S250 that there is an unselected size, the process proceeds to step S260.
In S260, the CPU 61 selects any one of the unselected sizes. Hereinafter, the search size selected in S260 is also referred to as a selected size.

S270で、CPU61は、推定範囲の抽出を行う。推定範囲の抽出は具体的には以下のように行われる。すなわち、選択サイズの探査領域を1セルずつずらしながら撮像画像の全体を走査する。このとき、探査領域に含まれる全てのセルのHOG特徴量を合計したものを、探査領域のHOG特徴量として、探査領域のHOG特徴量と照合パターンのHOG特徴量とを比較して類似度を算出する。類似度が大きい探査領域の位置を、照合パターンが表す歩行者が存在する可能性がある推定範囲として抽出する。   In S270, the CPU 61 extracts an estimation range. The extraction of the estimation range is specifically performed as follows. That is, the entire captured image is scanned while shifting the search area of the selected size by one cell. At this time, the sum of the HOG features of all the cells included in the search area is used as the HOG feature of the search area, and the HOG feature of the search area is compared with the HOG feature of the matching pattern to determine the similarity. calculate. The position of the search area having a high degree of similarity is extracted as an estimated range in which a pedestrian represented by the matching pattern may exist.

CPU61は、撮像画像全体を走査し終わるとS250に処理を移行する。すなわち、CPU61は、選択サイズを変更して同様の処理を繰り返し実行する。
先のS230で未照合パターンがないと判定された場合は、推定処理を終了する。
When the scanning of the entire captured image is completed, the CPU 61 shifts the processing to S250. That is, the CPU 61 changes the selected size and repeatedly executes the same processing.
If it is determined in S230 that there is no unmatched pattern, the estimation process ends.

なお、S210が画像取得部としての処理に相当する。
<認識処理>
次に、CPU61が歩行者認識処理のS130で実行する認識処理の詳細について図4を用いて説明する。
Note that S210 corresponds to the processing as the image acquisition unit.
<Recognition processing>
Next, the details of the recognition processing executed by the CPU 61 in S130 of the pedestrian recognition processing will be described with reference to FIG.

S310で、CPU61は、推定処理のS270で抽出されたすべての推定範囲を取得する。ここで推定範囲は上述したとおり、物標範囲のうち歩行者であると推定される範囲である。   In S310, the CPU 61 acquires all the estimation ranges extracted in S270 of the estimation processing. Here, the estimation range is the range in which the pedestrian is estimated in the target range, as described above.

S320からS400までの処理において、推定範囲のそれぞれの少なくとも一部である注目範囲が物体パターンと一致するか否かを判定することにより、推定範囲が歩行者を表すか、歩行者以外の物標である物体を表すか否かを判定する。   In the processing from S320 to S400, it is determined whether or not the attention range, which is at least a part of each of the estimation ranges, matches the object pattern, so that the estimation range represents a pedestrian or a target other than the pedestrian. It is determined whether or not the object is represented.

S320で、CPU61は、すべての推定範囲のうち、後述するS330で選択されていない推定範囲である未処理範囲が存在するか否かを判定する。
CPU61は、未処理範囲が存在すると判定した場合、S330に処理を移行する。
In S320, the CPU 61 determines whether or not there is an unprocessed range, which is an estimation range not selected in S330 described later, among all the estimation ranges.
When determining that the unprocessed range exists, the CPU 61 shifts the processing to S330.

S330で、CPU61は、未処理範囲のうちから一つの推定範囲を選択し、選択範囲とする。
S340で、CPU61は、S330で選択された範囲の水平方向に隣接する画素と画素との輝度差の絶対値があらかじめ決められた輝度の閾値である輝度閾値以上である点をエッジ点として検出する。なお、輝度閾値は、物標の輪郭部分が有する輝度差に相当する大きさの値が設定される。
In S330, the CPU 61 selects one estimated range from the unprocessed ranges and sets it as the selected range.
In S340, the CPU 61 detects, as an edge point, a point in which the absolute value of the luminance difference between the pixels adjacent in the horizontal direction in the range selected in S330 is equal to or greater than a predetermined luminance threshold value. . The luminance threshold is set to a value corresponding to the luminance difference of the outline of the target.

S350で、CPU61は、分布パターンのうち、後述するS360で呼び出されていない未呼出パターンが存在するか否かを判定する。
S360で、CPU61は、分布パターンメモリ64に記憶されている物体パターンのうちの一つを呼び出す。なお、S360で呼び出される物体パターンは、S330で選択された推定範囲に対してまだ呼び出されていない物体パターンのうちから呼び出される。
In S350, the CPU 61 determines whether or not there is an uncalled pattern that has not been called in S360 described later among the distribution patterns.
In S360, the CPU 61 calls one of the object patterns stored in the distribution pattern memory 64. The object pattern called in S360 is called from among the object patterns that have not been called yet for the estimation range selected in S330.

S370で、CPU61は、S330で選択された範囲である選択範囲の少なくとも一部を構成するあらかじめ決められた範囲である注目範囲において鉛直方向に配置された画素列の境界ごとに、S340で検出されたエッジ点の個数をエッジ度として算出する。そして、算出したエッジ度を画素列の境界の位置に対応して水平方向に並べることにより得られる分布をエッジ分布として導出する。   In S370, the CPU 61 detects in S340 each of the boundaries of the pixel rows arranged in the vertical direction in the predetermined range of interest, which is at least a part of the selection range selected in S330. The number of edge points thus calculated is calculated as an edge degree. Then, a distribution obtained by arranging the calculated edge degrees in the horizontal direction corresponding to the position of the boundary of the pixel row is derived as an edge distribution.

注目範囲は、選択範囲においてS360で呼び出される物体パターンに対応した範囲が設定される。ここで物体パターンに対応して設定される注目範囲は、物体パターンが表す物標の一部が、歩行者の一部と認識されやすい範囲があらかじめ設定される。   As the attention range, a range corresponding to the object pattern called in S360 in the selection range is set. Here, the range of interest set corresponding to the object pattern is set in advance so that a part of the target represented by the object pattern is easily recognized as a part of the pedestrian.

S380で、CPU61は、S360で呼び出した物体パターンである呼出パターンと、S370で算出したエッジ分布とが一致するか否かを判定する。
ここで、呼出パターンとエッジ分布との一致とは、完全一致に限定されるものではなく、類似度があらかじめ決められた閾値以上であれば、一致すると判定されてもよい。また、類似度は、呼出パターンが有する分布の特徴と、エッジ分布が有する分布の特徴とを比較することにより行われてもよい。ここで分布の特徴とは、例えば、ピークの数、分布の広がり具合、ピークの位置等が例として挙げられる。ここで、ピークとは、例えば、エッジ度が最大となる部分又は極大となる部分をいう。分布の広がりとは、例えばピークの半値幅が用いられてもよい。分布の類似は、例えば、エッジ分布と分布パターンとで、エッジ度のピークの数が一致し、エッジ度の分布の広がりが類似していれば一致とみなしてもよい。
In S380, the CPU 61 determines whether or not the calling pattern, which is the object pattern called in S360, matches the edge distribution calculated in S370.
Here, the coincidence between the call pattern and the edge distribution is not limited to a perfect coincidence, but may be determined to coincide if the similarity is equal to or greater than a predetermined threshold. The similarity may be determined by comparing the characteristics of the distribution of the call pattern with the characteristics of the distribution of the edge distribution. Here, the characteristics of the distribution include, for example, the number of peaks, the extent of the distribution, the positions of the peaks, and the like. Here, the peak refers to, for example, a portion where the edge degree is maximum or a portion where the edge degree is maximum. For example, the half width of the peak may be used as the spread of the distribution. For example, the distribution similarity may be regarded as a match if the edge distribution and the distribution pattern have the same number of edge degree peaks and the spread of the edge degree distribution is similar.

CPU61は、S380でエッジ分布と呼出パターンとが一致すると判定した場合には、S390に処理を移行する。
S390で、CPU61は、S330で選択された選択範囲が物体を表す物体範囲であると認識し、S320に戻り以降の処理を実行する。
If the CPU 61 determines in step S380 that the edge distribution matches the calling pattern, the process proceeds to step S390.
In S390, the CPU 61 recognizes that the selection range selected in S330 is the object range representing the object, returns to S320, and executes the subsequent processing.

一方、CPU61は、S380でエッジ分布と呼出パターンとが不一致であると判定した場合には、S350に処理を移行する。
S350に戻り、未呼出パターンが存在しないと判定した場合には、S400に処理を移行する。
On the other hand, if the CPU 61 determines in step S380 that the edge distribution does not match the calling pattern, the process proceeds to step S350.
Returning to S350, if it is determined that there is no uncalled pattern, the process proceeds to S400.

S400で、CPU61は、S330で選択された選択範囲が歩行者を表す歩行者範囲であると認識し、S320に戻り以降の処理を実行する。
このようにS350からS400までの処理により、S330で選択された選択範囲の一部である注目範囲と物体の一部を表すパターンである物体パターンとが比較され、選択範囲が物体を表すものであるか判定される。
In S400, the CPU 61 recognizes that the selection range selected in S330 is a pedestrian range representing a pedestrian, returns to S320, and executes the subsequent processing.
As described above, by the processes from S350 to S400, the attention range which is a part of the selection range selected in S330 is compared with the object pattern which is a pattern representing a part of the object, and the selection range represents the object. It is determined whether there is.

先のS320で未処理範囲が存在しないと判定された場合は、S410に処理を移行する。
S410で、CPU61は、歩行者範囲及び物体範囲を出力し、推定処理を終了する。
If it is determined in S320 that there is no unprocessed area, the process proceeds to S410.
In S410, the CPU 61 outputs the pedestrian range and the object range, and ends the estimation processing.

上記認識処理により、CPU61は、推定範囲のうち、物体範囲以外の推定範囲を、歩行者範囲として出力する。
なお、S310が範囲設定部としての処理に相当し、S360が範囲抽出部としての処理に相当し、S340及びS370がエッジ検出部としての処理に相当し、S370が分布算出部としての処理に相当する。また、S380が物標判定部としての処理に相当し、S400が歩行者判定部としての処理に相当する。
By the above-described recognition processing, the CPU 61 outputs an estimated range other than the object range among the estimated ranges as the pedestrian range.
Note that S310 corresponds to processing as a range setting unit, S360 corresponds to processing as a range extraction unit, S340 and S370 correspond to processing as an edge detection unit, and S370 corresponds to processing as a distribution calculation unit. I do. In addition, S380 corresponds to processing as a target determination unit, and S400 corresponds to processing as a pedestrian determination unit.

[3.動作例]
上記歩行者認識処理が行われた際の画像処理の例を、図を用いて説明する。
図5に示すように、例えば、撮像画像として、静止している歩行者である第一歩行者101、自車の前方を横切るように歩いている第二歩行者102及びポール103が画像中に含まれる撮像画像100を例とする。なお、撮像画像100は、図5に示すような画像に限定されず、自車の周囲を撮像した種々の画像であってもよい。
[3. Operation example]
An example of image processing when the pedestrian recognition processing is performed will be described with reference to the drawings.
As shown in FIG. 5, for example, as a captured image, a first pedestrian 101 who is a stationary pedestrian, a second pedestrian 102 walking across the front of the own vehicle, and a pole 103 are included in the image. The captured image 100 included is taken as an example. Note that the captured image 100 is not limited to the image shown in FIG. 5 and may be various images obtained by capturing the surroundings of the own vehicle.

撮像画像100について歩行者認識処理のS110で推定処理が実行されると、例えば、図5中の第一推定範囲101a、第二推定範囲102a及び第三推定範囲103aが推定範囲として抽出される。   When the estimation process is performed on the captured image 100 in S110 of the pedestrian recognition process, for example, the first estimation range 101a, the second estimation range 102a, and the third estimation range 103a in FIG. 5 are extracted as the estimation ranges.

ここで、HOG特徴量で推定範囲を抽出する際、第一歩行者101、第二歩行者102だけでなくポール103も推定範囲として抽出される可能性がある。
推定範囲の一部である注目範囲に含まれるポールの棒状形状は人間の脚部分と同様、画像に対して鉛直方向に長手方向となる形状を有しており、画像に対して水平方向に輝度勾配を有する。このため、ポールの棒状形状を人間の脚部分であるとして認識する可能性があるからである。
Here, when extracting the estimation range using the HOG feature amount, not only the first pedestrian 101 and the second pedestrian 102 but also the pole 103 may be extracted as the estimation range.
The pole shape of the pole included in the attention range, which is a part of the estimation range, has a shape that is longitudinal in the vertical direction with respect to the image, similar to the human leg portion, and has brightness in the horizontal direction with respect to the image. It has a gradient. For this reason, the pole-like shape of the pole may be recognized as a human leg.

すなわち、HOG特徴量の比較により歩行者を検出した場合、歩行者だけでなくポールのような道路に設置された立体物も抽出される可能性がある。
次に、S130で各推定範囲について認識処理が実行される。認識処理において、S330で第一推定範囲101aが選択されると、第一推定範囲101aに対して物体パターンとの照合が行われる。
That is, when a pedestrian is detected by comparing the HOG feature amounts, not only a pedestrian but also a three-dimensional object installed on a road such as a pole may be extracted.
Next, in S130, a recognition process is performed for each estimation range. In the recognition process, when the first estimation range 101a is selected in S330, the first estimation range 101a is collated with the object pattern.

S360で物体パターンの呼出が実行される。S340で、選択範囲についてエッジ点の検出がなされる。
エッジ点の検出は以下のようになされる。すなわち、図6に示すような選択範囲に対して、図7に示すようなエッジ画像が作成される。ここでいうエッジ画像とは、水平方向の輝度差の絶対値があらかじめ決められた輝度閾値以上の点であるエッジ点を表した画像をいう。なお、図7において白く表した複数の点Pe1がエッジ点を表している。
In S360, the calling of the object pattern is executed. In S340, an edge point is detected for the selected range.
The detection of an edge point is performed as follows. That is, an edge image as shown in FIG. 7 is created for the selection range as shown in FIG. The edge image referred to here is an image representing an edge point at which the absolute value of the horizontal luminance difference is equal to or greater than a predetermined luminance threshold. In FIG. 7, a plurality of white points Pe1 represent edge points.

図7に示したエッジ画像を用いてエッジ点の個数を、鉛直方向に沿って加算することにより、選択範囲の画素列の境界ごとのエッジ度を算出する。算出したエッジ点の個数を画像に対して水平方向に沿って画素列の境界ごとに並べることにより、図8に示すような注目範囲の画素列の境界ごとのエッジ度を表したエッジ分布が導出される。   By adding the number of edge points along the vertical direction using the edge image shown in FIG. 7, the edge degree for each boundary of the pixel row in the selection range is calculated. By arranging the calculated number of edge points for each pixel row boundary in the horizontal direction with respect to the image, an edge distribution representing the edge degree at each pixel row boundary of the attention range as shown in FIG. 8 is derived. Is done.

S380で、S370で導出されたエッジ分布が呼出パターンであるポールの一部を表した物体パターンと一致するか否かを判定する。ポールの物体パターンの特徴として、例えば、エッジ分布のエッジ度のピークが二本であることが記憶されていると、S370で導出されたエッジ分布は、ピークの本数が三本以上存在するため、ポールを表した物体パターンとは一致しないと判断される。   In S380, it is determined whether or not the edge distribution derived in S370 matches an object pattern representing a part of a pole which is a call pattern. As a feature of the object pattern of the pole, for example, if it is stored that the peak of the edge degree of the edge distribution is two, the edge distribution derived in S370 has three or more peaks. It is determined that it does not match the object pattern representing the pole.

以上のように第一推定範囲101aの一部である第一注目範囲101bは、物体パターンのいずれとも一致しないと判断されると、歩行者を表した範囲であると認識される。
第二推定範囲102aについても第一推定範囲101aの場合と同様に第二注目範囲102bにおいて、物体パターンとの照合が行われ、歩行者を表した範囲であるか否かが判断される。
As described above, when it is determined that the first attention range 101b which is a part of the first estimation range 101a does not match any of the object patterns, it is recognized as a range representing a pedestrian.
Similar to the case of the first estimation range 101a, the second estimation range 102a is compared with the object pattern in the second attention range 102b, and it is determined whether the second estimation range 102a is a range representing a pedestrian.

一方、認識処理において、S330で第三推定範囲103aが選択されると、第一推定範囲101aの場合と同様に第三注目範囲103bにおいて物体パターンとの照合が行われる。   On the other hand, when the third estimation range 103a is selected in S330 in the recognition processing, the matching with the object pattern is performed in the third attention range 103b as in the case of the first estimation range 101a.

ここで、S340でのエッジ点の検出により、第三推定範囲103aの一部を構成する図9に示すような第三注目範囲103bに対して図10に示すようなエッジ点を表す点Pe2を含むエッジ画像が得られる。図10に示したエッジ画像を用いて、第一注目範囲101bの場合と同様、エッジ分布を求めると、図11に示すように画素列の境界ごとのエッジ度を表したエッジ分布が導出される。   Here, by detecting the edge point in S340, a point Pe2 representing an edge point as shown in FIG. 10 is formed with respect to the third attention range 103b as shown in FIG. 9 which constitutes a part of the third estimation range 103a. The obtained edge image is obtained. When the edge distribution is obtained using the edge image shown in FIG. 10 as in the case of the first range of interest 101b, an edge distribution representing the edge degree for each boundary of the pixel row is derived as shown in FIG. .

S380で、S370で導出されたエッジ分布が呼出パターンであるポールの一部を表した物体パターンと一致するか否かを判定する。ポールの物体パターンの特徴として、同様に、エッジ分布のエッジ度のピークが二本であることが記憶されていると、S370で導出されたエッジ分布は、ピークの本数が二本存在するため、ポールを表した物体パターンの特徴と一致すると判断される。   In S380, it is determined whether or not the edge distribution derived in S370 matches an object pattern representing a part of a pole which is a call pattern. Similarly, if the feature of the object pattern of the pole is stored that the peak of the edge degree of the edge distribution is two, the edge distribution derived in S370 has two peaks. It is determined that the feature matches the feature of the object pattern representing the pole.

これにより第三推定範囲103aは、ポールを表した物体パターンと一致すると判断され、物体を表した物体範囲であると認識される。
そして、撮像画像100中のすべての推定範囲である第一推定範囲101a、第二推定範囲102a及び第三推定範囲103aに対して、認識処理がなされたと判定されると、S410でS第一推定範囲101a及び第二推定範囲102aが歩行者範囲であり、第三推定範囲103aが物体範囲であることを表す認識結果が出力される。
As a result, the third estimation range 103a is determined to match the object pattern representing the pole, and is recognized as the object range representing the object.
If it is determined that the recognition processing has been performed on the first estimation range 101a, the second estimation range 102a, and the third estimation range 103a that are all the estimation ranges in the captured image 100, the S first estimation range is determined in S410. A recognition result indicating that the range 101a and the second estimation range 102a are pedestrian ranges and the third estimation range 103a is an object range is output.

[4.効果]
以上詳述した実施形態によれば、以下の効果を奏する。
(1)上記実施形態によれば、セル中の物標の輪郭の位置を表すエッジ度の分布であるエッジ分布と、あらかじめ決められた物標の輪郭の位置を表すエッジ度の分布である分布パターンとが比較される。このため、セルと照合パターンとのHOG特徴量が比較された場合に比べ、物標における輪郭の位置も判定材料として、物標が判定される。
[4. effect]
According to the embodiment described in detail above, the following effects can be obtained.
(1) According to the above embodiment, an edge distribution which is a distribution of the edge degree indicating the position of the contour of the target in the cell, and a distribution which is a distribution of the edge degree indicating the position of the contour of the predetermined target in the cell. The pattern is compared. For this reason, the target is determined using the position of the contour on the target as the determination material, as compared with the case where the HOG feature amounts of the cell and the matching pattern are compared.

これにより、物標範囲が表している物標を認識する精度を向上させることができる。
例えば、上記HOG特徴量を用いたパターンマッチングでは識別できない歩行者とポールといった物標であっても、上記実施形態によれば、それぞれの物標を識別することができる。
As a result, the accuracy of recognizing the target represented by the target range can be improved.
For example, according to the above-described embodiment, each target can be identified even if it is a target such as a pedestrian and a pole that cannot be identified by pattern matching using the HOG feature amount.

[5.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[5. Other Embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above embodiments, and can be implemented with various modifications.

(1)推定処理においてHOG特徴量が一致するか否かによって歩行者であるか否かを推定したが、推定処理において歩行者であるか否かを推定するために使用される特徴量はHOG特徴量に限定されるものではなく、歩行者であることを表すセルごとの特徴に対応した特徴量であればよい。また、推定処理は、図3に示すような方法により行われるとしたが、このような方法に限定されるものではなく、歩行者を表すと推定される範囲である推定範囲が抽出されれば、他の周知のテンプレートマッチングなどの方法により行われてもよい。   (1) In the estimation processing, whether or not a pedestrian is estimated is based on whether or not the HOG feature quantities match. However, in the estimation processing, the feature quantity used for estimating whether or not a pedestrian is HOG is used. The feature amount is not limited to the feature amount, and may be a feature amount corresponding to a feature of each cell representing a pedestrian. Although the estimation process is performed by the method shown in FIG. 3, the present invention is not limited to such a method. If an estimation range that is estimated to represent a pedestrian is extracted, , And other well-known methods such as template matching.

(2)上記実施形態では、推定処理により推定範囲を抽出した後に、認識範囲を行うが、推定範囲の抽出を省略してもよい。この場合、撮像画像を取得し、取得した撮像範囲のうち、任意の範囲を推定範囲として順次抽出し、認識処理を行ってもよい。   (2) In the above embodiment, the recognition range is performed after the estimation range is extracted by the estimation process. However, the extraction of the estimation range may be omitted. In this case, a captured image may be acquired, and an arbitrary range among the acquired imaging ranges may be sequentially extracted as an estimated range, and recognition processing may be performed.

(3)上記実施形態では、物体パターンの例として道路に設置されるポールの一部の分布パターンを挙げたが、歩行者として認識されやすい物体であれば、ポールの一部に限られず、樹木の輪郭形状など、他の物体の一部を表すパターンが記憶されていてもよい。   (3) In the above embodiment, a distribution pattern of a part of a pole installed on a road is given as an example of the object pattern. However, an object that is easily recognized as a pedestrian is not limited to a part of the pole, and may be a tree. A pattern representing a part of another object, such as the outline shape of the object, may be stored.

(4)また、物体パターンの例として歩行者の脚部分と認識される物体の一部を例として挙げたが、歩行者として認識されやすい部分であれば、脚部分に限られず、頭部などと誤認識されるような物体の部分を物体パターンとして有していてもよい。また、注目範囲と比較される分布パターンは、頭部の輪郭形状に対応した分布パターンが設定されてもよい。具体的には、例えば水平方向に沿って中央のエッジ度が高く、周囲のエッジ度が低いという分布パターンが設定されてもよい。   (4) Also, as an example of the object pattern, a part of an object recognized as a pedestrian's leg is given as an example. However, any part that can be easily recognized as a pedestrian is not limited to the leg, but may be a head or the like. May be included as an object pattern. Further, as the distribution pattern to be compared with the attention range, a distribution pattern corresponding to the contour shape of the head may be set. Specifically, for example, a distribution pattern in which the edge degree at the center is high and the edge degree at the periphery is low along the horizontal direction may be set.

(5)上記実施形態では、エッジ度は、選択範囲において鉛直方向に配置された画素列の境界ごとに、エッジ点の個数を算出することにより得られるが、エッジ度は、このような方法により算出されるものに限定されるものではなく、例えば、エッジ点の輝度差をエッジ点ごとに乗算した上で加算することによりエッジ度を算出してもよい。また、エッジ度の算出は、画像の輝度値に対してソーベルフィルタを用いることにより得られた値を鉛直方向に配置された画素列の境界ごとに足し合わせることにより算出されてもよい。   (5) In the above embodiment, the edge degree is obtained by calculating the number of edge points for each boundary of the pixel row arranged in the vertical direction in the selection range. The edge degree is obtained by such a method. The edge degree is not limited to the calculated one, but may be calculated by, for example, multiplying the luminance difference between the edge points for each edge point and adding them. The calculation of the edge degree may be performed by adding a value obtained by using a Sobel filter to the luminance value of the image for each boundary of the pixel row arranged in the vertical direction.

(6)上記実施形態では、歩行者認識処理において、撮像画像中に推定範囲が存在しない場合、歩行者認識処理を終了するが、このような処理に限定されるものではない。例えば、撮像画像中に歩行者が存在しないと推定される旨を報知する処理を行ってもよい。   (6) In the above-described embodiment, in the pedestrian recognition processing, if the estimated range does not exist in the captured image, the pedestrian recognition processing ends, but the present invention is not limited to such processing. For example, a process of notifying that a pedestrian does not exist in the captured image may be performed.

(7)さらに、物体パターンは分布パターンメモリ64に記憶されるとしたが、分布パターンメモリ64に記憶される物体パターンは更新されてもよい。例えば、推定処理において歩行者であると認識されたが、認識処理により歩行者でないと判定された物体の一部を選択し、選択された物体の一部を物体パターンとして分布パターンメモリ64に追加するような構成を有してもよい。   (7) Furthermore, although the object pattern is stored in the distribution pattern memory 64, the object pattern stored in the distribution pattern memory 64 may be updated. For example, a part of an object that is recognized as a pedestrian in the estimation processing but is determined not to be a pedestrian by the recognition processing is selected, and a part of the selected object is added to the distribution pattern memory 64 as an object pattern. You may have the structure which performs.

(8)更に、物標を検出するセンサ又はソナーを有してもよい。また、当該センサ又はソナーにより検出された物標の範囲を推定範囲として抽出し、認識処理が実行されてもよい。   (8) Further, a sensor or a sonar for detecting a target may be provided. Further, the range of the target detected by the sensor or the sonar may be extracted as the estimated range, and the recognition processing may be executed.

(9)また、自車の移動した方向や自車の移動量を検出するセンサを備えていてもよい。当該センサにより検出した自車の移動した方向及び移動量から、画像中の物標の移動量を算出し、移動に伴って移動した物標を検出してもよい。   (9) A sensor may be provided for detecting the direction in which the vehicle has moved and the amount of movement of the vehicle. The moving amount of the target in the image may be calculated from the moving direction and the moving amount of the own vehicle detected by the sensor, and the target moving with the movement may be detected.

(10)さらに、カメラモジュールは、例えば、広角レンズを有するカメラモジュールであってもよい。この場合、画像処理装置は、画像を取得する際に、広角画像を通常の画像に変換する変換部を有してもいい。なお、通常の画像とは、広角レンズなどにより撮像された画像ではなく、通常の人間の眼で視認する場合と同様の画像をいう。   (10) Further, the camera module may be, for example, a camera module having a wide-angle lens. In this case, the image processing device may include a conversion unit that converts a wide-angle image into a normal image when acquiring an image. Note that a normal image is not an image captured by a wide-angle lens or the like, but an image similar to that when viewed with normal human eyes.

(11)上記実施形態では、分布パターンは物体を表す物体パターンを含むが、さらに、歩行者を表す歩行者パターンを記憶していてもよい。
(12)また、上記実施形態では、認識処理において物体パターンを順に呼び出し、呼び出していない物体パターンが存在しなくなった場合に、当該推定範囲が歩行者を表していると認識するが、認識処理はこのようなステップに限定されるものではない。例えば、反対に、歩行者パターンを順に呼び出して、呼び出していない歩行者パターンが存在しなくなった場合に推定範囲は物体を表すと認識してもよい。
(11) In the above embodiment, the distribution pattern includes the object pattern representing the object, but may further store a pedestrian pattern representing the pedestrian.
(12) Also, in the above embodiment, in the recognition process, object patterns are sequentially called, and when there is no longer an object pattern that has not been called, it is recognized that the estimated range represents a pedestrian. It is not limited to such steps. For example, on the contrary, the pedestrian patterns may be sequentially called, and when there is no pedestrian pattern that has not been called, the estimation range may be recognized as representing the object.

(14)また、物体パターン及び歩行者パターンの両方とも呼び出し、呼び出したパターンのうち、一致度が高かったものを、選択範囲が表す物標の一部であると認識してもよい。   (14) In addition, both the object pattern and the pedestrian pattern may be called, and among the called patterns, a pattern having a high degree of coincidence may be recognized as a part of the target represented by the selection range.

(15)上記実施形態では、認識処理は歩行者認識に用いられるが、このような処理に限定されるものではない。例えば、歩行者以外の物標の認識に用いられてもよい。また、推定処理が行われなくてもよい。推定処理が実行されない場合、撮像画像中のあらかじめ決められた範囲を順次推定範囲又は注目範囲として抽出してもよい。   (15) In the above embodiment, the recognition processing is used for pedestrian recognition, but is not limited to such processing. For example, it may be used for recognition of a target other than a pedestrian. Further, the estimation process does not have to be performed. When the estimation process is not performed, a predetermined range in the captured image may be sequentially extracted as the estimation range or the attention range.

(16)上記実施形態では、認識処理で、歩行者範囲及び物体範囲を出力する。しかし、認識結果として、歩行者範囲及び物体範囲の両方を含むものでなくてもよい。例えば、認識結果として物体範囲を出力することなく、歩行者範囲を出力してもよい。   (16) In the above embodiment, the pedestrian range and the object range are output in the recognition processing. However, the recognition result need not include both the pedestrian range and the object range. For example, the pedestrian range may be output without outputting the object range as a recognition result.

(17)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。   (17) A plurality of functions of one component in the above embodiment may be realized by a plurality of components, or one function of one component may be realized by a plurality of components. . Also, a plurality of functions of a plurality of components may be realized by one component, or one function realized by a plurality of components may be realized by one component. Further, a part of the configuration of the above embodiment may be omitted. Further, at least a part of the configuration of the above-described embodiment may be added to or replaced with the configuration of another above-described embodiment. Note that all aspects included in the technical idea specified by the language described in the claims are embodiments of the present disclosure.

(18)上述した画像処理装置の他、当該画像処理装置を構成要素とするシステム、当該画像処理装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、画像処理方法など、種々の形態で本開示を実現することもできる。   (18) In addition to the above-described image processing apparatus, a system including the image processing apparatus as a component, a program for causing a computer to function as the image processing apparatus, and a non-transitional actual recording such as a semiconductor memory storing the program. The present disclosure can be realized in various forms such as a medium and an image processing method.

1…画像認識システム、10…カメラモジュール、20…制御装置、30…ブレーキアクチュエータ、40…表示装置、50…スピーカ、60…画像処理装置、61…CPU、62…処理メモリ、63…照合パターンメモリ、64…分布パターンメモリ、100…撮像画像、101…第一歩行者、101a…第一推定範囲、101b…第一注目範囲、102…第二歩行者、102a…第二推定範囲、102b…第二注目範囲、103…ポール、103a…第三推定範囲、103b…第三注目範囲。   DESCRIPTION OF SYMBOLS 1 ... Image recognition system, 10 ... Camera module, 20 ... Control device, 30 ... Brake actuator, 40 ... Display device, 50 ... Speaker, 60 ... Image processing device, 61 ... CPU, 62 ... Processing memory, 63 ... Matching pattern memory 64, distribution pattern memory, 100, captured image, 101, first pedestrian, 101a, first estimation range, 101b, first attention range, 102, second pedestrian, 102a, second estimation range, 102b, second Second attention range, 103 ... pole, 103a ... third estimated range, 103b ... third attention range.

Claims (4)

車両に搭載された撮像装置(10)により取得された撮像画像(100)を取得するように構成された画像取得部(S210)と、
前記画像取得部により取得された前記撮像画像中の物標が存在すると推定される範囲を物標範囲として設定するように構成された範囲設定部(S110,S310)と、
前記範囲設定部により設定された前記物標範囲の少なくとも一部において、当該画像での水平方向に沿って物標の輪郭部分を表す点であるエッジ点として検出するように構成されたエッジ検出部(S340)と、
前記エッジ検出部により算出された前記エッジ点の個数を当該画像における鉛直方向に加算することによって得られる数値であるエッジ度を、当該画像の水平方向に沿って配置した分布であるエッジ分布を算出するように構成された分布算出部(S370)と、
物標の種類ごとにあらかじめ当該物標の少なくとも一部対応付けられた前記エッジ分布の代表パターンである分布パターンを少なくとも1つ記憶するように構成された分布パターンメモリ(64)と、
前記分布算出部により算出されたエッジ分布と、前記分布パターンメモリに記憶された少なくとも1つの分布パターンそれぞれとの類似度に応じて前記物標範囲は当該分布パターンに対応する物標を表しているものであるか否かを判定するように構成された物標判定部(S380)と、
を備える、画像処理装置。
An image acquisition unit (S210) configured to acquire a captured image (100) acquired by an imaging device (10) mounted on a vehicle;
A range setting unit (S110, S310) configured to set, as a target range, a range in which the target in the captured image acquired by the image acquisition unit is assumed to be present;
An edge detection unit configured to detect as an edge point that is a point representing a contour portion of the target along a horizontal direction in the image in at least a part of the target range set by the range setting unit. (S340),
Calculate an edge distribution, which is a distribution obtained by adding the number of the edge points calculated by the edge detection unit in the vertical direction of the image in a vertical direction in the image, and a distribution of the edge degrees arranged along the horizontal direction of the image. A distribution calculation unit (S370) configured to perform
A distribution pattern memory (64) configured to store at least one distribution pattern that is a representative pattern of the edge distribution previously associated with at least a part of the target for each type of target;
The target range represents a target corresponding to the distribution pattern according to the similarity between the edge distribution calculated by the distribution calculation unit and each of the at least one distribution pattern stored in the distribution pattern memory. A target determining unit (S380) configured to determine whether the object is a target or not;
An image processing apparatus comprising:
請求項1に記載の画像処理装置であって、
前記分布パターンメモリは、前記分布パターンとして、歩行者以外の物標である物体を表すパターンである物体パターンを含むように記憶する、画像処理装置。
The image processing device according to claim 1,
The image processing device, wherein the distribution pattern memory stores the distribution pattern so as to include an object pattern that is a pattern representing an object that is a target other than a pedestrian.
請求項2に記載の画像処理装置であって、
前記範囲設定部は、歩行者を表すと推定される前記物標範囲を推定範囲として設定するように構成され、
前記物標判定部により、前記推定のうち、前記物体を表していると判定された推定範囲以外の推定範囲を、歩行者を表す範囲であると確定するように構成された歩行者判定部(S130,S400)を更に備える、画像処理装置。
The image processing device according to claim 2,
The range setting unit is configured to set the target range estimated to represent a pedestrian as an estimated range,
A pedestrian determination unit configured to determine, by the target determination unit, an estimation range other than the estimation range determined to represent the object in the estimation as a range representing a pedestrian; An image processing apparatus further comprising (S130, S400).
請求項2又は請求項3に記載の画像処理装置であって、
前記物体パターンには、道路上に設置される柱状体であるポールを表すパターンであるポールパターンが含まれる、画像処理装置。
The image processing apparatus according to claim 2 or 3, wherein:
The image processing device, wherein the object pattern includes a pole pattern that is a pattern representing a pole that is a columnar body installed on a road.
JP2018163185A 2018-08-31 2018-08-31 Image processing device Active JP7192312B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018163185A JP7192312B2 (en) 2018-08-31 2018-08-31 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018163185A JP7192312B2 (en) 2018-08-31 2018-08-31 Image processing device

Publications (2)

Publication Number Publication Date
JP2020035334A true JP2020035334A (en) 2020-03-05
JP7192312B2 JP7192312B2 (en) 2022-12-20

Family

ID=69668306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018163185A Active JP7192312B2 (en) 2018-08-31 2018-08-31 Image processing device

Country Status (1)

Country Link
JP (1) JP7192312B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111307249A (en) * 2018-11-27 2020-06-19 宁波旭磊电子科技有限公司 Water edge height alarm platform

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156626A (en) * 2005-12-01 2007-06-21 Nissan Motor Co Ltd Object type determination device and object type determination method
JP2009193147A (en) * 2008-02-12 2009-08-27 Toyota Motor Corp Object detection device
JP2009276910A (en) * 2008-05-13 2009-11-26 Toyota Central R&D Labs Inc Image processor, method and program
JP2010020404A (en) * 2008-07-08 2010-01-28 Toshiba Corp Image processor and method thereof
JP2010160770A (en) * 2009-01-12 2010-07-22 Denso Corp Pedestrian detection device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156626A (en) * 2005-12-01 2007-06-21 Nissan Motor Co Ltd Object type determination device and object type determination method
JP2009193147A (en) * 2008-02-12 2009-08-27 Toyota Motor Corp Object detection device
JP2009276910A (en) * 2008-05-13 2009-11-26 Toyota Central R&D Labs Inc Image processor, method and program
JP2010020404A (en) * 2008-07-08 2010-01-28 Toshiba Corp Image processor and method thereof
JP2010160770A (en) * 2009-01-12 2010-07-22 Denso Corp Pedestrian detection device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111307249A (en) * 2018-11-27 2020-06-19 宁波旭磊电子科技有限公司 Water edge height alarm platform

Also Published As

Publication number Publication date
JP7192312B2 (en) 2022-12-20

Similar Documents

Publication Publication Date Title
JP6088792B2 (en) Image detection apparatus, control program, and image detection method
JP4203512B2 (en) Vehicle periphery monitoring device
US9811742B2 (en) Vehicle-surroundings recognition device
US10943141B2 (en) Object detection device and object detection method
US20190220685A1 (en) Image processing apparatus that identifies object and method therefor
US9776564B2 (en) Vehicle periphery monitoring device
US9292751B2 (en) Object identifier
US10127702B2 (en) Image processing device and image processing method
KR102052833B1 (en) Apparatus and method for vehicle speed detection using image tracking
JP4946878B2 (en) Image identification apparatus and program
JP2013030183A (en) Environment recognition device, and program
JP2009157821A (en) Range image generating device, environment recognition device, and program
JP6110174B2 (en) Image detection apparatus, control program, and image detection method
JP2008035301A (en) Mobile body tracing apparatus
JP2011165170A (en) Object detection device and program
US20170358089A1 (en) Object identifying apparatus
JP2020035334A (en) Image processing apparatus
JP2014016710A (en) Object detection device and program
JP5020920B2 (en) Pedestrian detection device and program
JP5217917B2 (en) Object detection and tracking device, object detection and tracking method, and object detection and tracking program
JP2011221630A (en) Vehicle periphery monitoring device
JP6276504B2 (en) Image detection apparatus, control program, and image detection method
JP2021051348A (en) Object distance estimation apparatus and object distance estimation method
JP2021043141A (en) Object distance estimating device and object distance estimating method
JP2009070097A (en) Vehicle length measuring device and vehicle model determination device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221121

R151 Written notification of patent or utility model registration

Ref document number: 7192312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151