JP7192312B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP7192312B2
JP7192312B2 JP2018163185A JP2018163185A JP7192312B2 JP 7192312 B2 JP7192312 B2 JP 7192312B2 JP 2018163185 A JP2018163185 A JP 2018163185A JP 2018163185 A JP2018163185 A JP 2018163185A JP 7192312 B2 JP7192312 B2 JP 7192312B2
Authority
JP
Japan
Prior art keywords
range
edge
distribution
pattern
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018163185A
Other languages
Japanese (ja)
Other versions
JP2020035334A (en
Inventor
佑太 榊原
修一 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2018163185A priority Critical patent/JP7192312B2/en
Publication of JP2020035334A publication Critical patent/JP2020035334A/en
Application granted granted Critical
Publication of JP7192312B2 publication Critical patent/JP7192312B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は、画像処理装置に関する。 The present disclosure relates to an image processing device.

特許文献1には、パターンマッチングにより歩行者などの物標の認識を行う技術が記載されている。当該パターンマッチングによれば、画像のあらかじめ決められた大きさの領域を抜き出し、抜き出された領域である対象領域を格子状のセルに分割する。そして、格子状に分割されたセルごとに、輝度勾配の方向をヒストグラム化した特徴量であるHOG特徴量を算出する。さらに、当該セルごとのHOG特徴量と、あらかじめ記憶され、認識しようとする物標の部分に対応したパターンである照合パターンのHOG特徴量とを照合する。照合によりHOG特徴量が一致する場合、セルは照合パターンが表す物標の部分を表すものであると判定される。そして、画像中の当該セルを含む範囲に当該照合パターンと対応した物標の部分を含む物標が存在すると判定される。 Patent Literature 1 describes a technique for recognizing targets such as pedestrians by pattern matching. According to the pattern matching, an area of a predetermined size is extracted from an image, and the target area, which is the extracted area, is divided into grid-like cells. Then, the HOG feature quantity, which is a feature quantity obtained by histogramming the direction of the luminance gradient, is calculated for each cell divided into a lattice. Further, the HOG feature amount for each cell is compared with the HOG feature amount of a matching pattern, which is a pattern corresponding to the part of the target to be recognized and stored in advance. If the HOG feature values match as a result of matching, the cell is determined to represent the part of the target represented by the matching pattern. Then, it is determined that there is a target including a portion of the target corresponding to the collation pattern in the range including the cell in the image.

特開2014-81826号公報JP 2014-81826 A

しかしながら、例えば、人の脚を含む対象領域と標識の支柱を含む対象領域とのそれぞれについて、上記HOG特徴量を用いたパターンマッチングを行った場合、人の脚も標識の支柱も地面に対して水平方向に輝度勾配を有するため、輝度勾配の方向をヒストグラム化したHOG特徴量は類似することとなる。 However, for example, when pattern matching is performed using the above-mentioned HOG feature quantity for each of a target region including a human leg and a target region including a sign post, both the human leg and the sign post are relative to the ground. Since there is a luminance gradient in the horizontal direction, the HOG feature quantities obtained by histogramming the direction of the luminance gradient are similar.

その結果、HOG特徴量を用いたパターンマッチングでは、人の脚を含む対象領域と標識の支柱を含む対象領域とを区別することができず、例えば、標識の支柱を含む対象領域を人の脚を含む対象領域であると認識し、歩行者を認識する認識精度が低下する可能性がある。 As a result, pattern matching using HOG features cannot distinguish between a target region including a person's leg and a target region including a sign post. is recognized as a target area containing a

本開示の1つの局面は、物標の認識精度を向上させる技術を提供する。 One aspect of the present disclosure provides a technique for improving target recognition accuracy.

本開示の一態様は、画像処理装置であって、画像取得部(S210)と、範囲設定部(S110,S310)と、エッジ検出部(S340)と、分布算出部(S370)と、分布パターンメモリ(64)と、物標判定部(S380)と、を備える。画像取得部は、車両に搭載された撮像装置(10)により取得された撮像画像(100)を取得するように構成される。範囲設定部は、画像取得部により取得された撮像画像中の物標が存在すると推定される範囲を物標範囲として設定するように構成される。エッジ検出部は、範囲設定部により設定された物標範囲の少なくとも一部において、当該画像での水平方向に沿って物標の輪郭部分を表す点であるエッジ点として検出するように構成される。分布算出部は、エッジ検出部により算出されたエッジ点の個数を当該画像における鉛直方向に加算することによって得られる数値であるエッジ度を、当該画像における水平方向に沿って配置した分布であるエッジ分布を算出するように構成される。分布パターンメモリは、物標の種類ごとにあらかじめ対応付けられたエッジ分布の代表パターンである分布パターンを少なくとも1つ記憶するように構成される。物標判定部は、分布算出部により算出されたエッジ分布と、分布パターンメモリに記憶された少なくとも1つの分布パターンそれぞれとの類似度に応じて物標範囲は当該分布パターンに対応する物標を表しているものであるか否かを判定するように構成される。 One aspect of the present disclosure is an image processing apparatus comprising an image acquisition unit (S210), a range setting unit (S110, S310), an edge detection unit (S340), a distribution calculation unit (S370), a distribution pattern A memory (64) and a target determination unit (S380) are provided. The image acquisition unit is configured to acquire a captured image (100) captured by an imaging device (10) mounted on a vehicle. The range setting section is configured to set, as a target range, a range in which the target is estimated to exist in the captured image acquired by the image acquisition section. The edge detection unit is configured to detect, in at least part of the target range set by the range setting unit, as edge points representing the outline portion of the target along the horizontal direction in the image. . The distribution calculation unit calculates the edge degree, which is a numerical value obtained by adding the number of edge points calculated by the edge detection unit in the vertical direction of the image, to an edge, which is a distribution arranged along the horizontal direction of the image. configured to calculate a distribution; The distribution pattern memory is configured to store at least one distribution pattern, which is a representative pattern of edge distribution pre-associated with each type of target. The target determination unit determines a target range corresponding to the distribution pattern according to the degree of similarity between the edge distribution calculated by the distribution calculation unit and each of at least one distribution pattern stored in the distribution pattern memory. It is configured to determine whether it is what it represents.

HOG特徴量を用いたパターンマッチングでは、照合を行う対象領域を複数のセルに分割し、分割した各セル単位で照合結果を合計することにより、対象領域の全体が対象となる物標と一致するか否かを判定する。そのため、分割した各セル単位の一部が照合を行う物標と一致度が高い場合、その一致度が高いセルの結果が対象領域全体の結果に影響を与えるため、全体として照合を行う物標と一致すると判定される可能性がある。 In pattern matching using HOG features, the target area to be matched is divided into a plurality of cells, and the matching results are totaled for each divided cell, so that the entire target area matches the target. Determine whether or not Therefore, if a portion of each divided cell unit has a high degree of matching with the target to be verified, the result of the cell with a high degree of matching affects the result of the entire target area. may be determined to match the

上述した構成によれば、分布算出部は、画像における鉛直方向に加算することによって得られる数値であるエッジ度を、当該画像における水平方向に沿って配置した分布であるエッジ分布を算出する。これにより、少なくとも鉛直方向に対して、セル単位で判定する場合に比べ、より広い範囲におけるエッジ分布が算出され、算出されたエッジ分布をあらかじめ決められた分布パターンと比較することで、物標を認識する。 According to the configuration described above, the distribution calculation unit calculates the edge distribution, which is a distribution in which edge degrees, which are numerical values obtained by adding in the vertical direction in the image, are arranged along the horizontal direction in the image. As a result, the edge distribution in a wider range is calculated, at least in the vertical direction, compared to the case where the determination is made in units of cells. recognize.

セル単位で判定する場合よりも広い範囲での検出結果を元に比較することができるため、セルに相当する一部の一致度が高い場合にも、全体に与える影響を抑えることができる。
これにより、物標範囲が表している物標を認識する精度を向上させることができる。
Since comparison is possible based on detection results in a wider range than in the case of making determinations on a cell-by-cell basis, even if the degree of matching is high for a part corresponding to a cell, the effect on the whole can be suppressed.
As a result, it is possible to improve the accuracy of recognizing the target represented by the target range.

なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。 It should be noted that the symbols in parentheses described in this column and the scope of claims indicate the correspondence with specific means described in the embodiment described later as one mode, and the technical scope of the present disclosure is It is not limited.

画像認識システムの構成を示すブロック図である。1 is a block diagram showing the configuration of an image recognition system; FIG. 歩行者認識処理のフローチャートである。It is a flow chart of pedestrian recognition processing. 推定処理のフローチャートである。6 is a flowchart of estimation processing; 認識処理のフローチャートである。4 is a flowchart of recognition processing; 撮像映像と撮像画像中の推定範囲及び注目範囲の例を表した線図である。FIG. 4 is a diagram showing an example of an estimated range and an attention range in a captured video and a captured image; 第一注目範囲の画像を表した図である。FIG. 4 is a diagram showing an image of a first attention range; 第一注目範囲のエッジ画像を表した図である。FIG. 4 is a diagram showing an edge image of a first attention range; 第一注目範囲のエッジ分布を表した図である。FIG. 10 is a diagram showing edge distribution of the first attention range; 第三注目範囲の画像を表した図である。FIG. 11 is a diagram showing an image of a third attention range; 第三注目範囲のエッジ画像を表した図である。FIG. 11 is a diagram showing an edge image of a third attention range; 第三注目範囲のエッジ分布を表した図である。FIG. 11 is a diagram showing edge distribution of a third attention range;

以下、図面を参照しながら、本開示の実施形態を説明する。
[1.構成]
図1に示す画像認識システム1は、車両に搭載され、カメラモジュール10、制御装置20、ブレーキアクチュエータ30、表示装置40、スピーカ50及び画像処理装置60を備える。以下では、画像認識システム1が搭載される車両を自車という。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. composition]
An image recognition system 1 shown in FIG. 1 is mounted on a vehicle and includes a camera module 10, a control device 20, a brake actuator 30, a display device 40, a speaker 50 and an image processing device 60. Hereinafter, the vehicle on which the image recognition system 1 is mounted is referred to as the own vehicle.

カメラモジュール10は、例えば、カラー画像を出力するCCDカメラのカメラモジュールである。カメラモジュール10は、例えば自車の前方を撮像するために自車の車室内に設けられる。 The camera module 10 is, for example, a camera module of a CCD camera that outputs color images. The camera module 10 is provided in the interior of the vehicle, for example, to capture an image of the front of the vehicle.

また、カメラモジュール10は自車の前方を撮像するものに限定されず、自車の周囲を撮像するものであればよく、カメラモジュール10が設置される位置は車室内でなくてもよい。 Further, the camera module 10 is not limited to one that captures an image of the front of the vehicle, but may be one that captures an image of the surroundings of the vehicle.

ブレーキアクチュエータ30は自車の制動力を調整するアクチュエータである。
表示装置40は自車の車室内に設置され、表示装置40が有する表示画面に画像等を表示する装置である。
The brake actuator 30 is an actuator that adjusts the braking force of the host vehicle.
The display device 40 is installed in the passenger compartment of the vehicle and displays an image or the like on a display screen of the display device 40 .

スピーカ50は、自車の車室内に設置され、音声を出力する装置である。
制御装置20は、画像処理装置60により出力される歩行者認識の結果に応じて、ブレーキアクチュエータ30、表示装置40又はスピーカ50の制御を行う。
The speaker 50 is a device that is installed inside the vehicle and outputs sound.
The control device 20 controls the brake actuator 30 , the display device 40 or the speaker 50 according to the pedestrian recognition result output by the image processing device 60 .

ブレーキアクチュエータ30の制御とは、例えば自車の位置を基準としてあらかじめ決められた範囲内に歩行者が存在すると判定した場合に、自車の制動力を増大させるブレーキの制御をいう。 Control of the brake actuator 30 refers to brake control that increases the braking force of the vehicle when it is determined that a pedestrian exists within a predetermined range based on the position of the vehicle.

表示装置40の制御とは、例えば表示装置40に自車の周囲の撮像画像を表示している場合に、撮像画像中に歩行者が存在すると判定された範囲である歩行者範囲が存在する場合に、その範囲を強調して表示する制御をいう。なお、表示装置40の制御は、強調表示を行う制御に限られず、自車の運転者に注意を促す表示を行う制御であればよい。また、撮像画像中に存在する物体が存在すると判定された範囲である物体範囲が存在する場合に、その範囲を強調して表示してもよい。この場合、歩行者範囲の表示と物体範囲の表示とを異なる表示態様で表示してもよい。 The control of the display device 40 is, for example, when a captured image of the surroundings of the own vehicle is displayed on the display device 40, and a pedestrian range, which is a range in which it is determined that a pedestrian exists in the captured image, is present. In addition, it refers to control that emphasizes and displays the range. Note that the control of the display device 40 is not limited to the control of performing the highlighted display, and may be the control of performing the display to call attention to the driver of the own vehicle. Further, when there is an object range, which is a range in which it is determined that an object exists in the captured image, the range may be emphasized and displayed. In this case, the pedestrian range display and the object range display may be displayed in different display modes.

スピーカ50の制御とは、例えばカメラモジュール10により撮像された自車の周囲に歩行者が存在すると判定された場合に、警報音などを発し、自車のドライバに報知する制御をいう。 The control of the speaker 50 means, for example, when it is determined that a pedestrian exists around the vehicle imaged by the camera module 10, a warning sound or the like is emitted to notify the driver of the vehicle.

なお、制御装置20は、ブレーキアクチュエータ30の制御、表示装置40の制御、スピーカ50の制御のうち何れか一つの制御のみを行ってもよく、複数の制御を行ってもよい。 Note that the control device 20 may perform only one of the control of the brake actuator 30, the control of the display device 40, and the control of the speaker 50, or may perform a plurality of controls.

画像処理装置60は、CPU61と、例えば、RAM又はROM等の半導体メモリ(以下、処理メモリ62)と、を有するマイクロコンピュータ、照合パターンメモリ63及び分布パターンメモリ64を備える。画像処理装置60の各機能は、CPU61が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、処理メモリ62が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、画像処理装置60は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。 The image processing apparatus 60 includes a microcomputer having a CPU 61 and a semiconductor memory such as RAM or ROM (hereinafter referred to as processing memory 62), a collation pattern memory 63, and a distribution pattern memory 64. FIG. Each function of the image processing device 60 is realized by the CPU 61 executing a program stored in a non-transitional substantive recording medium. In this example, the processing memory 62 corresponds to the non-transitional substantive recording medium storing the program. Also, by executing this program, a method corresponding to the program is executed. Note that the image processing device 60 may include one microcomputer, or may include a plurality of microcomputers.

画像処理装置60が備える各機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の機能は、一つあるいは複数のハードウェアを用いて実現されてもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は、デジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現されてもよい。 The method of realizing each function provided in the image processing device 60 is not limited to software, and some or all of the functions may be realized using one or more pieces of hardware. For example, when the above functions are realized by an electronic circuit that is hardware, the electronic circuit may be realized by a digital circuit, an analog circuit, or a combination thereof.

なお、画像処理装置60は、自車のイグニッションスイッチがオンである間、自車から電力の供給を受ける。また、画像処理装置60は、制御装置20に対し検出結果を出力する処理を行う。ここでいう検出結果とは、例えば歩行者が存在するか否かを含み、検出された歩行者の位置の情報などを含んでもよい。 The image processing device 60 is supplied with power from the own vehicle while the ignition switch of the own vehicle is on. The image processing device 60 also performs processing for outputting detection results to the control device 20 . The detection result here includes, for example, whether or not a pedestrian exists, and may include information on the position of the detected pedestrian.

また、照合パターンメモリ63は、照合パターンを記憶するメモリである。照合パターンは、歩行者の一部分に対応する矩形状のパターンであり、あらかじめ決められたHOG特徴量を表す。HOG特徴量は、輝度勾配の勾配方向ごとに輝度勾配の勾配強度を表したヒストグラムである。 A collation pattern memory 63 is a memory for storing a collation pattern. The matching pattern is a rectangular pattern corresponding to a portion of the pedestrian, and represents a predetermined HOG feature amount. The HOG feature amount is a histogram representing the gradient strength of the luminance gradient for each gradient direction of the luminance gradient.

分布パターンメモリ64は、分布パターンを記憶するメモリである。分布パターンは、物標の種類ごとにあらかじめ設定される物標の少なくとも一部のエッジ分布の代表的なパターンである。エッジ分布は、エッジ度を撮像画像における水平方向に沿って配置した分布である。エッジ度は、撮像画像における鉛直方向に沿って、エッジ点の個数を加算することにより算出される値である。 The distribution pattern memory 64 is a memory for storing distribution patterns. The distribution pattern is a representative pattern of edge distribution of at least a part of the target that is set in advance for each type of target. The edge distribution is a distribution in which edge degrees are arranged along the horizontal direction in the captured image. The edge degree is a value calculated by adding the number of edge points along the vertical direction in the captured image.

すなわち、分布パターンは、撮像画像において検出された物標の一部のエッジ分布と比較するために、あらかじめ物標の種類ごとに記憶されるエッジ分布の代表的なパターンである。 That is, the distribution pattern is a representative pattern of edge distribution stored in advance for each type of target in order to be compared with the edge distribution of a portion of the target detected in the captured image.

さらに、分布パターンには、物体パターンが含まれる。物体パターンは歩行者以外の物標である物体の少なくとも一部を表す分布パターンである。物体パターンには、例えば、道路上に立設される柱状体であるポールの一部を表した物体パターンであるポールパターンが含まれる。 Furthermore, the distribution pattern includes object patterns. The object pattern is a distribution pattern representing at least part of objects other than pedestrians, which are targets. The object pattern includes, for example, a pole pattern, which is an object pattern representing a portion of a pole, which is a columnar body erected on a road.

なお、カメラモジュール10が撮像装置に相当する。
[2.処理]
次に、CPU61が実行する歩行者認識処理について、図2のフローチャートを用いて説明する。なお、歩行者認識装置は、画像処理装置60の電源がオンである間、繰り返し実行される。
Note that the camera module 10 corresponds to an imaging device.
[2. process]
Next, pedestrian recognition processing executed by the CPU 61 will be described with reference to the flowchart of FIG. The pedestrian recognition device is repeatedly executed while the image processing device 60 is powered on.

S110で、CPU61は、推定処理を行う。ここでいう推定処理の詳細は後述するが、カメラモジュール10により撮像された撮像画像中に存在する物標を表した範囲である物標範囲のうち歩行者であると推定される範囲を推定範囲として抽出する処理をいう。なお、推定範囲が撮像画像中に複数存在する場合には、撮像画像中に存在する複数の推定範囲を抽出する。 In S110, the CPU 61 performs estimation processing. Details of the estimation processing here will be described later. It refers to the process of extracting as Note that when a plurality of estimated ranges exist in the captured image, the plurality of estimated ranges existing in the captured image are extracted.

S120で、CPU61は、S110の推定処理により、撮像画像中に推定範囲が存在するか否か、すなわち、推定処理により推定範囲が1つ以上抽出されたか否かを判定する。
CPU61は、S120で、推定範囲が存在すると判定された場合、すなわち、推定範囲が1つ以上抽出されたと判定された場合にはS130に処理を移行する。
In S120, the CPU 61 determines whether or not an estimated range exists in the captured image by the estimation processing of S110, that is, whether or not one or more estimated ranges are extracted by the estimation processing.
When it is determined in S120 that there is an estimated range, that is, when it is determined that one or more estimated ranges are extracted, the CPU 61 shifts the process to S130.

一方、CPU61は、S120で、推定範囲が存在しないと判定された場合、すなわち、推定範囲が1つも抽出されていない場合には、歩行者認識処理を終了する。
S130で、CPU61は、認識処理を行う。ここでいう認識処理の詳細は後述するが、認識処理は、S110により抽出された推定範囲のそれぞれを、歩行者を表しているものである歩行者範囲であるか、歩行者以外を表しているものである物体範囲であるかを判定し、歩行者範囲及び物体範囲を出力する処理である。
On the other hand, if the CPU 61 determines in S120 that no estimated range exists, that is, if no estimated range has been extracted, the pedestrian recognition process ends.
In S130, the CPU 61 performs recognition processing. The details of the recognition processing here will be described later, but in the recognition processing, each of the estimated ranges extracted in S110 is a pedestrian range representing pedestrians or a non-pedestrian range. This is the process of determining whether the object range is a real object and outputting the pedestrian range and the object range.

S110が範囲設定部としての処理に相当する。
<推定処理>
次に、CPU61が歩行者認識処理のS110で実行する推定処理の詳細について図3を用いて説明する。
S110 corresponds to the processing of the range setting unit.
<Estimation processing>
Next, details of the estimation process executed by the CPU 61 in S110 of the pedestrian recognition process will be described with reference to FIG.

S210で、CPU61は、カメラモジュール10により撮像された撮像画像を取得する。
S220で、CPU61は、S210で取得した撮像画像をあらかじめ設定された画素数を有する矩形状のセルに分割し、セルごとにHOG特徴量を算出する。ここで、設定されるセルの画素数は例えば16画素×16画素の範囲が設定される。
In S<b>210 , the CPU 61 acquires the captured image captured by the camera module 10 .
In S220, the CPU 61 divides the captured image acquired in S210 into rectangular cells having a preset number of pixels, and calculates the HOG feature amount for each cell. Here, the number of pixels of the cell to be set is set within a range of 16 pixels×16 pixels, for example.

なお、HOG特徴量は、以下のようにして求められる。すなわち、セルの横座標をx、縦座標をy、座標(x,y)での輝度をL(x,y)で表すものとして、まず、各セルの輝度勾配の大きさを表す勾配強度m(x,y)及び各分割領域の輝度勾配の方向を表す勾配方向θ(x,y)を算出する。 Note that the HOG feature amount is obtained as follows. That is, assuming that the abscissa of the cell is x, the ordinate is y, and the luminance at the coordinates (x, y) is L(x, y), first, the gradient strength m (x, y) and the gradient direction θ(x, y) representing the direction of the luminance gradient of each divided area are calculated.

そして、0°~180°までをm方向に分割し、勾配方向が同じ方向であると見なすことができる分割領域の勾配強度を合計したものを、その方向の勾配強度とする輝度勾配ヒストグラムを作成する。この輝度ヒストグラムによって表されるm次元の値がHOG特徴量である。 Then, 0° to 180° are divided in the m direction, and a brightness gradient histogram is created in which the sum of the gradient strengths of the divided regions that can be regarded as having the same gradient direction is the gradient strength in that direction. do. The m-dimensional value represented by this luminance histogram is the HOG feature amount.

S230で、CPU61は、S210で取得された撮像画像に対して、後述するS240で選択されていない照合パターンである未照合パターンが存在するか否かを判定する。
CPU61は、未照合パターンが存在すると判定した場合、S240に処理を移行する。
In S230, the CPU 61 determines whether or not an unmatched pattern, which is a matching pattern not selected in S240 to be described later, exists in the captured image acquired in S210.
When the CPU 61 determines that there is an unmatched pattern, the process proceeds to S240.

S240からS270までの処理により、撮像画像中の領域と照合パターンメモリ63に記憶された各照合パターンとを照合し、撮像画像中に存在する歩行者を表す推定範囲を抽出する。 Through the processing from S240 to S270, the area in the captured image is compared with each matching pattern stored in the matching pattern memory 63, and the estimated range representing the pedestrian present in the captured image is extracted.

S240で、CPU61は、未照合パターンのうちから一つの照合パターンを選択する。
S250で、CPU61は、探査領域について設定された複数の探査サイズのうち、後述するS260で選択されていない未選択の探査サイズ(以下、未選択サイズという)が存在するか否かを判定する。ここで、探査領域とは、nを自然数としてnセル×nセルで表される矩形の領域である。探査領域の大きさは、撮像画像に映り込む探査の対象となる物標の大きさに応じて複数種類が設定される。
At S240, the CPU 61 selects one matching pattern from among the unmatched patterns.
In S250, the CPU 61 determines whether or not there is an unselected exploration size (hereinafter referred to as an unselected size) that has not been selected in S260 to be described later among the plurality of exploration sizes set for the exploration area. Here, the search area is a rectangular area represented by n cells×n cells, where n is a natural number. As for the size of the search area, a plurality of types are set according to the size of the target to be searched and reflected in the captured image.

CPU61は、S250で未選択サイズが存在しないと判定した場合には、S230に戻り、以降の処理を行う。すなわち、照合パターンを変更してS260からS270までの処理を繰り返し実行する。 If the CPU 61 determines in S250 that there is no unselected size, it returns to S230 and performs subsequent processing. That is, the process from S260 to S270 is repeatedly executed by changing the collation pattern.

一方、CPU61は、S250で未選択サイズが存在すると判定した場合には、S260に処理を移行する。
S260で、CPU61は、未選択サイズのうち、いずれか一つの探査サイズを選択する。以下では、S260で選択された探査サイズを選択サイズともいう。
On the other hand, when the CPU 61 determines in S250 that there is an unselected size, the process proceeds to S260.
In S260, the CPU 61 selects any one search size from the unselected sizes. The search size selected in S260 is hereinafter also referred to as the selected size.

S270で、CPU61は、推定範囲の抽出を行う。推定範囲の抽出は具体的には以下のように行われる。すなわち、選択サイズの探査領域を1セルずつずらしながら撮像画像の全体を走査する。このとき、探査領域に含まれる全てのセルのHOG特徴量を合計したものを、探査領域のHOG特徴量として、探査領域のHOG特徴量と照合パターンのHOG特徴量とを比較して類似度を算出する。類似度が大きい探査領域の位置を、照合パターンが表す歩行者が存在する可能性がある推定範囲として抽出する。 In S270, the CPU 61 extracts the estimated range. Specifically, extraction of the estimated range is performed as follows. That is, the entire captured image is scanned while shifting the search area of the selected size by one cell. At this time, the sum of the HOG feature amounts of all the cells included in the search area is used as the HOG feature amount of the search area, and the similarity is calculated by comparing the HOG feature amount of the search area and the HOG feature amount of the matching pattern. calculate. The position of the search area with a high degree of similarity is extracted as an estimated range in which the pedestrian represented by the matching pattern may exist.

CPU61は、撮像画像全体を走査し終わるとS250に処理を移行する。すなわち、CPU61は、選択サイズを変更して同様の処理を繰り返し実行する。
先のS230で未照合パターンがないと判定された場合は、推定処理を終了する。
When the CPU 61 finishes scanning the entire captured image, the process proceeds to S250. That is, the CPU 61 changes the selected size and repeats the same processing.
If it is determined in S230 that there is no unmatched pattern, the estimation process ends.

なお、S210が画像取得部としての処理に相当する。
<認識処理>
次に、CPU61が歩行者認識処理のS130で実行する認識処理の詳細について図4を用いて説明する。
It should be noted that S210 corresponds to processing as an image acquisition unit.
<Recognition processing>
Next, the details of the recognition process executed by the CPU 61 in S130 of the pedestrian recognition process will be described with reference to FIG.

S310で、CPU61は、推定処理のS270で抽出されたすべての推定範囲を取得する。ここで推定範囲は上述したとおり、物標範囲のうち歩行者であると推定される範囲である。 At S310, the CPU 61 acquires all estimated ranges extracted at S270 of the estimation process. Here, as described above, the estimated range is the range estimated to be a pedestrian within the target range.

S320からS400までの処理において、推定範囲のそれぞれの少なくとも一部である注目範囲が物体パターンと一致するか否かを判定することにより、推定範囲が歩行者を表すか、歩行者以外の物標である物体を表すか否かを判定する。 In the processing from S320 to S400, it is determined whether or not the target range, which is at least a part of each estimated range, matches the object pattern. It is determined whether or not represents an object.

S320で、CPU61は、すべての推定範囲のうち、後述するS330で選択されていない推定範囲である未処理範囲が存在するか否かを判定する。
CPU61は、未処理範囲が存在すると判定した場合、S330に処理を移行する。
In S320, the CPU 61 determines whether or not there is an unprocessed range, which is an estimated range not selected in S330, among all the estimated ranges.
When the CPU 61 determines that there is an unprocessed range, the process proceeds to S330.

S330で、CPU61は、未処理範囲のうちから一つの推定範囲を選択し、選択範囲とする。
S340で、CPU61は、S330で選択された範囲の水平方向に隣接する画素と画素との輝度差の絶対値があらかじめ決められた輝度の閾値である輝度閾値以上である点をエッジ点として検出する。なお、輝度閾値は、物標の輪郭部分が有する輝度差に相当する大きさの値が設定される。
In S330, the CPU 61 selects one estimated range from the unprocessed ranges as a selection range.
In S340, the CPU 61 detects, as an edge point, a point where the absolute value of the luminance difference between horizontally adjacent pixels in the range selected in S330 is equal to or greater than a predetermined luminance threshold. . Note that the brightness threshold value is set to a value corresponding to the brightness difference of the contour portion of the target.

S350で、CPU61は、分布パターンのうち、後述するS360で呼び出されていない未呼出パターンが存在するか否かを判定する。
S360で、CPU61は、分布パターンメモリ64に記憶されている物体パターンのうちの一つを呼び出す。なお、S360で呼び出される物体パターンは、S330で選択された推定範囲に対してまだ呼び出されていない物体パターンのうちから呼び出される。
At S350, the CPU 61 determines whether or not there is an uncalled pattern that has not been called at S360 to be described later among the distribution patterns.
At S<b>360 , the CPU 61 calls one of the object patterns stored in the distribution pattern memory 64 . The object pattern called up in S360 is called out of the object patterns that have not yet been called up for the estimated range selected in S330.

S370で、CPU61は、S330で選択された範囲である選択範囲の少なくとも一部を構成するあらかじめ決められた範囲である注目範囲において鉛直方向に配置された画素列の境界ごとに、S340で検出されたエッジ点の個数をエッジ度として算出する。そして、算出したエッジ度を画素列の境界の位置に対応して水平方向に並べることにより得られる分布をエッジ分布として導出する。 In S370, the CPU 61 detects each boundary between pixel rows arranged in the vertical direction in the range of interest, which is a predetermined range constituting at least a part of the selection range selected in S330. The number of edge points obtained is calculated as the edge degree. Then, a distribution obtained by arranging the calculated edge degrees in the horizontal direction corresponding to the position of the boundary of the pixel row is derived as an edge distribution.

注目範囲は、選択範囲においてS360で呼び出される物体パターンに対応した範囲が設定される。ここで物体パターンに対応して設定される注目範囲は、物体パターンが表す物標の一部が、歩行者の一部と認識されやすい範囲があらかじめ設定される。 The attention range is set to a range corresponding to the object pattern called in S360 in the selection range. Here, the range of interest set corresponding to the object pattern is set in advance to a range in which a part of the target indicated by the object pattern is likely to be recognized as a part of the pedestrian.

S380で、CPU61は、S360で呼び出した物体パターンである呼出パターンと、S370で算出したエッジ分布とが一致するか否かを判定する。
ここで、呼出パターンとエッジ分布との一致とは、完全一致に限定されるものではなく、類似度があらかじめ決められた閾値以上であれば、一致すると判定されてもよい。また、類似度は、呼出パターンが有する分布の特徴と、エッジ分布が有する分布の特徴とを比較することにより行われてもよい。ここで分布の特徴とは、例えば、ピークの数、分布の広がり具合、ピークの位置等が例として挙げられる。ここで、ピークとは、例えば、エッジ度が最大となる部分又は極大となる部分をいう。分布の広がりとは、例えばピークの半値幅が用いられてもよい。分布の類似は、例えば、エッジ分布と分布パターンとで、エッジ度のピークの数が一致し、エッジ度の分布の広がりが類似していれば一致とみなしてもよい。
At S380, the CPU 61 determines whether or not the calling pattern, which is the object pattern called at S360, matches the edge distribution calculated at S370.
Here, the match between the call pattern and the edge distribution is not limited to perfect match, and may be determined as match if the degree of similarity is equal to or greater than a predetermined threshold. The similarity may also be obtained by comparing the distribution characteristics of the call pattern and the distribution characteristics of the edge distribution. Here, the characteristics of the distribution include, for example, the number of peaks, the spread of the distribution, the positions of the peaks, and the like. Here, the peak means, for example, a portion where the degree of edge is the maximum or a portion where the degree of edge is the maximum. For example, the half width of the peak may be used as the spread of the distribution. The similarity of the distributions may be regarded as matching if, for example, the edge distribution and the distribution pattern have the same number of edge degree peaks and the spread of the edge degree distributions is similar.

CPU61は、S380でエッジ分布と呼出パターンとが一致すると判定した場合には、S390に処理を移行する。
S390で、CPU61は、S330で選択された選択範囲が物体を表す物体範囲であると認識し、S320に戻り以降の処理を実行する。
When the CPU 61 determines in S380 that the edge distribution and the calling pattern match, the process proceeds to S390.
At S390, the CPU 61 recognizes that the selection range selected at S330 is an object range representing an object, and returns to S320 to execute subsequent processing.

一方、CPU61は、S380でエッジ分布と呼出パターンとが不一致であると判定した場合には、S350に処理を移行する。
S350に戻り、未呼出パターンが存在しないと判定した場合には、S400に処理を移行する。
On the other hand, when the CPU 61 determines in S380 that the edge distribution and the calling pattern do not match, the process proceeds to S350.
Returning to S350, if it is determined that there is no uncalled pattern, the process proceeds to S400.

S400で、CPU61は、S330で選択された選択範囲が歩行者を表す歩行者範囲であると認識し、S320に戻り以降の処理を実行する。
このようにS350からS400までの処理により、S330で選択された選択範囲の一部である注目範囲と物体の一部を表すパターンである物体パターンとが比較され、選択範囲が物体を表すものであるか判定される。
At S400, the CPU 61 recognizes that the selection range selected at S330 is a pedestrian range representing a pedestrian, returns to S320, and executes subsequent processing.
In this way, by the processing from S350 to S400, the attention range, which is a part of the selection range selected in S330, and the object pattern, which is a pattern representing a part of the object, are compared to determine whether the selection range represents the object. It is determined whether there is

先のS320で未処理範囲が存在しないと判定された場合は、S410に処理を移行する。
S410で、CPU61は、歩行者範囲及び物体範囲を出力し、推定処理を終了する。
If it is determined in S320 that there is no unprocessed range, the process proceeds to S410.
At S410, the CPU 61 outputs the pedestrian range and the object range, and terminates the estimation process.

上記認識処理により、CPU61は、推定範囲のうち、物体範囲以外の推定範囲を、歩行者範囲として出力する。
なお、S310が範囲設定部としての処理に相当し、S360が範囲抽出部としての処理に相当し、S340及びS370がエッジ検出部としての処理に相当し、S370が分布算出部としての処理に相当する。また、S380が物標判定部としての処理に相当し、S400が歩行者判定部としての処理に相当する。
Through the recognition process, the CPU 61 outputs the estimated range other than the object range as the pedestrian range.
S310 corresponds to processing as a range setting unit, S360 corresponds to processing as a range extraction unit, S340 and S370 corresponds to processing as an edge detection unit, and S370 corresponds to processing as a distribution calculation unit. do. Further, S380 corresponds to the processing of the target determination unit, and S400 corresponds to the processing of the pedestrian determination unit.

[3.動作例]
上記歩行者認識処理が行われた際の画像処理の例を、図を用いて説明する。
図5に示すように、例えば、撮像画像として、静止している歩行者である第一歩行者101、自車の前方を横切るように歩いている第二歩行者102及びポール103が画像中に含まれる撮像画像100を例とする。なお、撮像画像100は、図5に示すような画像に限定されず、自車の周囲を撮像した種々の画像であってもよい。
[3. Operation example]
An example of image processing when the pedestrian recognition processing is performed will be described with reference to the drawings.
As shown in FIG. 5, for example, as a captured image, a stationary pedestrian 101, a second pedestrian 102 walking across the front of the vehicle, and a pole 103 are shown in the image. Take the included captured image 100 as an example. Note that the captured image 100 is not limited to the image shown in FIG. 5, and may be various images captured around the vehicle.

撮像画像100について歩行者認識処理のS110で推定処理が実行されると、例えば、図5中の第一推定範囲101a、第二推定範囲102a及び第三推定範囲103aが推定範囲として抽出される。 When the estimation process is performed on the captured image 100 in S110 of the pedestrian recognition process, for example, the first estimated range 101a, the second estimated range 102a, and the third estimated range 103a in FIG. 5 are extracted as estimated ranges.

ここで、HOG特徴量で推定範囲を抽出する際、第一歩行者101、第二歩行者102だけでなくポール103も推定範囲として抽出される可能性がある。
推定範囲の一部である注目範囲に含まれるポールの棒状形状は人間の脚部分と同様、画像に対して鉛直方向に長手方向となる形状を有しており、画像に対して水平方向に輝度勾配を有する。このため、ポールの棒状形状を人間の脚部分であるとして認識する可能性があるからである。
Here, when extracting the estimated range with the HOG feature amount, not only the first pedestrian 101 and the second pedestrian 102 but also the pole 103 may be extracted as the estimated range.
The rod-like shape of the pole included in the attention range, which is part of the estimation range, has a shape whose longitudinal direction is the vertical direction with respect to the image, similar to human legs, and whose luminance is horizontal with respect to the image. have a gradient. For this reason, there is a possibility that the rod-like shape of the pole will be recognized as a human leg.

すなわち、HOG特徴量の比較により歩行者を検出した場合、歩行者だけでなくポールのような道路に設置された立体物も抽出される可能性がある。
次に、S130で各推定範囲について認識処理が実行される。認識処理において、S330で第一推定範囲101aが選択されると、第一推定範囲101aに対して物体パターンとの照合が行われる。
That is, when pedestrians are detected by comparing HOG feature amounts, not only pedestrians but also three-dimensional objects such as poles installed on the road may be extracted.
Next, in S130, recognition processing is performed for each estimated range. In the recognition process, when the first estimated range 101a is selected in S330, the first estimated range 101a is compared with the object pattern.

S360で物体パターンの呼出が実行される。S340で、選択範囲についてエッジ点の検出がなされる。
エッジ点の検出は以下のようになされる。すなわち、図6に示すような選択範囲に対して、図7に示すようなエッジ画像が作成される。ここでいうエッジ画像とは、水平方向の輝度差の絶対値があらかじめ決められた輝度閾値以上の点であるエッジ点を表した画像をいう。なお、図7において白く表した複数の点Pe1がエッジ点を表している。
Recalling the object pattern is performed at S360. At S340, edge point detection is performed on the selection.
Detection of edge points is done as follows. That is, an edge image as shown in FIG. 7 is created for the selected range as shown in FIG. The term "edge image" as used herein refers to an image representing an edge point, which is a point whose absolute value of luminance difference in the horizontal direction is equal to or greater than a predetermined luminance threshold. A plurality of white points Pe1 in FIG. 7 represent edge points.

図7に示したエッジ画像を用いてエッジ点の個数を、鉛直方向に沿って加算することにより、選択範囲の画素列の境界ごとのエッジ度を算出する。算出したエッジ点の個数を画像に対して水平方向に沿って画素列の境界ごとに並べることにより、図8に示すような注目範囲の画素列の境界ごとのエッジ度を表したエッジ分布が導出される。 By adding the number of edge points along the vertical direction using the edge image shown in FIG. 7, the edge degree for each boundary of the pixel row in the selection range is calculated. By arranging the calculated number of edge points along the horizontal direction of the image for each pixel row boundary, an edge distribution representing the edge degree for each pixel row boundary in the range of interest as shown in FIG. 8 is derived. be done.

S380で、S370で導出されたエッジ分布が呼出パターンであるポールの一部を表した物体パターンと一致するか否かを判定する。ポールの物体パターンの特徴として、例えば、エッジ分布のエッジ度のピークが二本であることが記憶されていると、S370で導出されたエッジ分布は、ピークの本数が三本以上存在するため、ポールを表した物体パターンとは一致しないと判断される。 At S380, it is determined whether the edge distribution derived at S370 matches the object pattern representing part of the pole, which is the calling pattern. As a feature of Paul's object pattern, for example, if it is stored that the edge distribution has two edge degree peaks, the edge distribution derived in S370 has three or more peaks. It is determined that it does not match the object pattern representing the pole.

以上のように第一推定範囲101aの一部である第一注目範囲101bは、物体パターンのいずれとも一致しないと判断されると、歩行者を表した範囲であると認識される。
第二推定範囲102aについても第一推定範囲101aの場合と同様に第二注目範囲102bにおいて、物体パターンとの照合が行われ、歩行者を表した範囲であるか否かが判断される。
As described above, when it is determined that the first attention range 101b, which is a part of the first estimated range 101a, does not match any of the object patterns, it is recognized as a range representing a pedestrian.
As with the first estimated range 101a, the second estimated range 102a is also compared with the object pattern in the second attention range 102b to determine whether or not the range represents a pedestrian.

一方、認識処理において、S330で第三推定範囲103aが選択されると、第一推定範囲101aの場合と同様に第三注目範囲103bにおいて物体パターンとの照合が行われる。 On the other hand, in the recognition process, when the third estimated range 103a is selected in S330, matching with the object pattern is performed in the third attention range 103b as in the case of the first estimated range 101a.

ここで、S340でのエッジ点の検出により、第三推定範囲103aの一部を構成する図9に示すような第三注目範囲103bに対して図10に示すようなエッジ点を表す点Pe2を含むエッジ画像が得られる。図10に示したエッジ画像を用いて、第一注目範囲101bの場合と同様、エッジ分布を求めると、図11に示すように画素列の境界ごとのエッジ度を表したエッジ分布が導出される。 Here, by the edge point detection in S340, a point Pe2 representing an edge point as shown in FIG. An edge image containing When the edge distribution is obtained using the edge image shown in FIG. 10 in the same manner as in the case of the first attention range 101b, the edge distribution representing the degree of edge for each pixel row boundary is derived as shown in FIG. .

S380で、S370で導出されたエッジ分布が呼出パターンであるポールの一部を表した物体パターンと一致するか否かを判定する。ポールの物体パターンの特徴として、同様に、エッジ分布のエッジ度のピークが二本であることが記憶されていると、S370で導出されたエッジ分布は、ピークの本数が二本存在するため、ポールを表した物体パターンの特徴と一致すると判断される。 At S380, it is determined whether the edge distribution derived at S370 matches the object pattern representing part of the pole, which is the calling pattern. Similarly, if it is stored that the edge distribution has two edge degree peaks as a feature of Paul's object pattern, the edge distribution derived in S370 has two peaks. It is determined to match the features of the object pattern representing the pole.

これにより第三推定範囲103aは、ポールを表した物体パターンと一致すると判断され、物体を表した物体範囲であると認識される。
そして、撮像画像100中のすべての推定範囲である第一推定範囲101a、第二推定範囲102a及び第三推定範囲103aに対して、認識処理がなされたと判定されると、S410でS第一推定範囲101a及び第二推定範囲102aが歩行者範囲であり、第三推定範囲103aが物体範囲であることを表す認識結果が出力される。
As a result, the third estimated range 103a is determined to match the object pattern representing the pole, and is recognized as the object range representing the object.
Then, when it is determined that recognition processing has been performed for all the estimation ranges in the captured image 100, namely the first estimation range 101a, the second estimation range 102a, and the third estimation range 103a, in S410, S first estimation A recognition result indicating that the range 101a and the second estimated range 102a are pedestrian ranges and the third estimated range 103a is an object range is output.

[4.効果]
以上詳述した実施形態によれば、以下の効果を奏する。
(1)上記実施形態によれば、セル中の物標の輪郭の位置を表すエッジ度の分布であるエッジ分布と、あらかじめ決められた物標の輪郭の位置を表すエッジ度の分布である分布パターンとが比較される。このため、セルと照合パターンとのHOG特徴量が比較された場合に比べ、物標における輪郭の位置も判定材料として、物標が判定される。
[4. effect]
According to the embodiment detailed above, the following effects are obtained.
(1) According to the above embodiment, an edge distribution that is a distribution of edge degrees representing the position of the outline of the target in the cell and a predetermined distribution that is a distribution of edge degrees representing the position of the outline of the target. Patterns are compared. Therefore, the target is determined using the position of the outline of the target as a determination material, compared to the case where the HOG feature amount of the cell and the matching pattern is compared.

これにより、物標範囲が表している物標を認識する精度を向上させることができる。
例えば、上記HOG特徴量を用いたパターンマッチングでは識別できない歩行者とポールといった物標であっても、上記実施形態によれば、それぞれの物標を識別することができる。
As a result, it is possible to improve the accuracy of recognizing the target represented by the target range.
For example, even targets such as a pedestrian and a pole that cannot be identified by pattern matching using the HOG feature amount can be identified according to the above embodiment.

[5.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[5. Other embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and various modifications can be made.

(1)推定処理においてHOG特徴量が一致するか否かによって歩行者であるか否かを推定したが、推定処理において歩行者であるか否かを推定するために使用される特徴量はHOG特徴量に限定されるものではなく、歩行者であることを表すセルごとの特徴に対応した特徴量であればよい。また、推定処理は、図3に示すような方法により行われるとしたが、このような方法に限定されるものではなく、歩行者を表すと推定される範囲である推定範囲が抽出されれば、他の周知のテンプレートマッチングなどの方法により行われてもよい。 (1) In the estimation process, whether or not a pedestrian is estimated based on whether or not the HOG feature values match. The feature amount is not limited to the feature amount, and may be any feature amount corresponding to the feature of each cell representing the pedestrian. In addition, although the estimation process is performed by the method shown in FIG. 3, it is not limited to such a method. , other well-known methods such as template matching.

(2)上記実施形態では、推定処理により推定範囲を抽出した後に、認識範囲を行うが、推定範囲の抽出を省略してもよい。この場合、撮像画像を取得し、取得した撮像範囲のうち、任意の範囲を推定範囲として順次抽出し、認識処理を行ってもよい。 (2) In the above embodiment, the recognition range is performed after the estimation range is extracted by the estimation process, but the extraction of the estimation range may be omitted. In this case, a captured image may be acquired, and an arbitrary range may be sequentially extracted as an estimated range from the captured image range acquired, and recognition processing may be performed.

(3)上記実施形態では、物体パターンの例として道路に設置されるポールの一部の分布パターンを挙げたが、歩行者として認識されやすい物体であれば、ポールの一部に限られず、樹木の輪郭形状など、他の物体の一部を表すパターンが記憶されていてもよい。 (3) In the above embodiment, the distribution pattern of a part of poles installed on the road was given as an example of the object pattern. Patterns representing portions of other objects may also be stored, such as the outline shape of the .

(4)また、物体パターンの例として歩行者の脚部分と認識される物体の一部を例として挙げたが、歩行者として認識されやすい部分であれば、脚部分に限られず、頭部などと誤認識されるような物体の部分を物体パターンとして有していてもよい。また、注目範囲と比較される分布パターンは、頭部の輪郭形状に対応した分布パターンが設定されてもよい。具体的には、例えば水平方向に沿って中央のエッジ度が高く、周囲のエッジ度が低いという分布パターンが設定されてもよい。 (4) As an example of the object pattern, a part of the object recognized as the leg portion of the pedestrian is given as an example, but any portion that can be easily recognized as a pedestrian is not limited to the leg portion, such as the head. A portion of the object that is erroneously recognized as the object pattern may be included. Also, a distribution pattern corresponding to the contour shape of the head may be set as the distribution pattern to be compared with the attention range. Specifically, for example, a distribution pattern may be set in which the edge degree is high in the center and the edge degree is low in the periphery along the horizontal direction.

(5)上記実施形態では、エッジ度は、選択範囲において鉛直方向に配置された画素列の境界ごとに、エッジ点の個数を算出することにより得られるが、エッジ度は、このような方法により算出されるものに限定されるものではなく、例えば、エッジ点の輝度差をエッジ点ごとに乗算した上で加算することによりエッジ度を算出してもよい。また、エッジ度の算出は、画像の輝度値に対してソーベルフィルタを用いることにより得られた値を鉛直方向に配置された画素列の境界ごとに足し合わせることにより算出されてもよい。 (5) In the above embodiment, the edge degree is obtained by calculating the number of edge points for each boundary of pixel columns arranged in the vertical direction in the selection range. The degree of edging is not limited to being calculated, and for example, the degree of edging may be calculated by multiplying the luminance difference of each edge point and then adding them. The edge degree may also be calculated by adding values obtained by applying a Sobel filter to the luminance values of the image for each boundary of pixel rows arranged in the vertical direction.

(6)上記実施形態では、歩行者認識処理において、撮像画像中に推定範囲が存在しない場合、歩行者認識処理を終了するが、このような処理に限定されるものではない。例えば、撮像画像中に歩行者が存在しないと推定される旨を報知する処理を行ってもよい。 (6) In the above embodiment, the pedestrian recognition process ends when the estimated range does not exist in the captured image in the pedestrian recognition process, but the process is not limited to such a process. For example, a process of notifying that it is estimated that a pedestrian does not exist in the captured image may be performed.

(7)さらに、物体パターンは分布パターンメモリ64に記憶されるとしたが、分布パターンメモリ64に記憶される物体パターンは更新されてもよい。例えば、推定処理において歩行者であると認識されたが、認識処理により歩行者でないと判定された物体の一部を選択し、選択された物体の一部を物体パターンとして分布パターンメモリ64に追加するような構成を有してもよい。 (7) Furthermore, although the object pattern is stored in the distribution pattern memory 64, the object pattern stored in the distribution pattern memory 64 may be updated. For example, a part of an object recognized as a pedestrian in the estimation process but determined not to be a pedestrian in the recognition process is selected, and the part of the selected object is added to the distribution pattern memory 64 as an object pattern. You may have the structure which carries out.

(8)更に、物標を検出するセンサ又はソナーを有してもよい。また、当該センサ又はソナーにより検出された物標の範囲を推定範囲として抽出し、認識処理が実行されてもよい。 (8) Further, it may have a sensor or sonar for detecting a target. Alternatively, the range of the target detected by the sensor or sonar may be extracted as the estimated range and the recognition process may be executed.

(9)また、自車の移動した方向や自車の移動量を検出するセンサを備えていてもよい。当該センサにより検出した自車の移動した方向及び移動量から、画像中の物標の移動量を算出し、移動に伴って移動した物標を検出してもよい。 (9) Further, a sensor for detecting the direction in which the vehicle has moved and the amount of movement of the vehicle may be provided. The amount of movement of the target in the image may be calculated from the direction and amount of movement of the own vehicle detected by the sensor, and the target that has moved along with the movement may be detected.

(10)さらに、カメラモジュールは、例えば、広角レンズを有するカメラモジュールであってもよい。この場合、画像処理装置は、画像を取得する際に、広角画像を通常の画像に変換する変換部を有してもいい。なお、通常の画像とは、広角レンズなどにより撮像された画像ではなく、通常の人間の眼で視認する場合と同様の画像をいう。 (10) Furthermore, the camera module may be, for example, a camera module with a wide-angle lens. In this case, the image processing device may have a conversion unit that converts the wide-angle image into a normal image when acquiring the image. Note that the normal image is not an image captured by a wide-angle lens or the like, but an image similar to the one viewed with normal human eyes.

(11)上記実施形態では、分布パターンは物体を表す物体パターンを含むが、さらに、歩行者を表す歩行者パターンを記憶していてもよい。
(12)また、上記実施形態では、認識処理において物体パターンを順に呼び出し、呼び出していない物体パターンが存在しなくなった場合に、当該推定範囲が歩行者を表していると認識するが、認識処理はこのようなステップに限定されるものではない。例えば、反対に、歩行者パターンを順に呼び出して、呼び出していない歩行者パターンが存在しなくなった場合に推定範囲は物体を表すと認識してもよい。
(11) In the above embodiment, the distribution patterns include object patterns representing objects, but pedestrian patterns representing pedestrians may also be stored.
(12) In the above embodiment, the object patterns are sequentially called in the recognition process, and when there is no object pattern that has not been called, the estimated range is recognized as representing a pedestrian. It is not limited to such steps. For example, conversely, pedestrian patterns may be invoked in sequence, and the estimated range may be recognized as representing an object when there are no more uninvoked pedestrian patterns.

(14)また、物体パターン及び歩行者パターンの両方とも呼び出し、呼び出したパターンのうち、一致度が高かったものを、選択範囲が表す物標の一部であると認識してもよい。 (14) Alternatively, both the object pattern and the pedestrian pattern may be called, and among the called patterns, the pattern with the highest degree of matching may be recognized as part of the target represented by the selection range.

(15)上記実施形態では、認識処理は歩行者認識に用いられるが、このような処理に限定されるものではない。例えば、歩行者以外の物標の認識に用いられてもよい。また、推定処理が行われなくてもよい。推定処理が実行されない場合、撮像画像中のあらかじめ決められた範囲を順次推定範囲又は注目範囲として抽出してもよい。 (15) In the above embodiment, the recognition processing is used for pedestrian recognition, but it is not limited to such processing. For example, it may be used to recognize targets other than pedestrians. Also, the estimation process may not be performed. When the estimation process is not executed, predetermined ranges in the captured image may be sequentially extracted as the estimated range or the attention range.

(16)上記実施形態では、認識処理で、歩行者範囲及び物体範囲を出力する。しかし、認識結果として、歩行者範囲及び物体範囲の両方を含むものでなくてもよい。例えば、認識結果として物体範囲を出力することなく、歩行者範囲を出力してもよい。 (16) In the above embodiment, the pedestrian range and the object range are output in the recognition process. However, the recognition result may not include both the pedestrian range and the object range. For example, the pedestrian range may be output without outputting the object range as the recognition result.

(17)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。 (17) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or a function possessed by one component may be realized by a plurality of components. . Also, a plurality of functions possessed by a plurality of components may be realized by a single component, or a function realized by a plurality of components may be realized by a single component. Also, part of the configuration of the above embodiment may be omitted. Moreover, at least part of the configuration of the above embodiment may be added or replaced with respect to the configuration of the other above embodiment. It should be noted that all aspects included in the technical idea specified by the wording described in the claims are embodiments of the present disclosure.

(18)上述した画像処理装置の他、当該画像処理装置を構成要素とするシステム、当該画像処理装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、画像処理方法など、種々の形態で本開示を実現することもできる。 (18) In addition to the above-described image processing device, a system having the image processing device as a component, a program for making a computer function as the image processing device, a non-transitional actual record such as a semiconductor memory in which this program is recorded The present disclosure can also be implemented in various forms such as media and image processing methods.

1…画像認識システム、10…カメラモジュール、20…制御装置、30…ブレーキアクチュエータ、40…表示装置、50…スピーカ、60…画像処理装置、61…CPU、62…処理メモリ、63…照合パターンメモリ、64…分布パターンメモリ、100…撮像画像、101…第一歩行者、101a…第一推定範囲、101b…第一注目範囲、102…第二歩行者、102a…第二推定範囲、102b…第二注目範囲、103…ポール、103a…第三推定範囲、103b…第三注目範囲。 REFERENCE SIGNS LIST 1 image recognition system 10 camera module 20 control device 30 brake actuator 40 display device 50 speaker 60 image processing device 61 CPU 62 processing memory 63 matching pattern memory , 64... Distribution pattern memory, 100... Captured image, 101... First pedestrian, 101a... First estimated range, 101b... First attention range, 102... Second pedestrian, 102a... Second estimated range, 102b... Third Second range of interest, 103... Pole, 103a... Third estimated range, 103b... Third range of interest.

Claims (6)

車両に搭載された撮像装置(10)により取得された撮像画像(100)を取得するように構成された画像取得部(S210)と、
前記画像取得部により取得された前記撮像画像中の物標が存在すると推定される範囲を物標範囲として設定するように構成された範囲設定部(S110,S310)と、
前記範囲設定部により設定された前記物標範囲の少なくとも一部において、前記撮像画像での水平方向に沿って前記物標の輪郭部分を表す点であるエッジ点として検出するように構成されたエッジ検出部(S340)と、
前記エッジ検出部により算出された前記エッジ点の個数を前記撮像画像における鉛直方向に加算することによって得られる数値であるエッジ度を、前記撮像画像の水平方向に沿って配置した分布であるエッジ分布を算出するように構成された分布算出部(S370)と、
前記物標の種類ごとにあらかじめ当該物標の少なくとも一部対応付けられた前記エッジ分布の代表パターンである分布パターンを少なくとも1つ記憶するように構成された分布パターンメモリ(64)と、
前記分布算出部により算出された前記エッジ分布と、前記分布パターンメモリに記憶された少なくとも1つの前記分布パターンそれぞれとの類似度に応じて前記物標範囲は当該分布パターンに対応する前記物標を表しているものであるか否かを判定するように構成された物標判定部(S380)と、
を備える、画像処理装置。
an image acquisition unit (S210) configured to acquire a captured image (100) captured by an imaging device (10) mounted on a vehicle;
a range setting unit (S110, S310) configured to set, as a target range, a range in which a target is estimated to exist in the captured image acquired by the image acquisition unit;
An edge configured to be detected as an edge point representing a contour portion of the target along the horizontal direction in the captured image in at least part of the target range set by the range setting unit. a detection unit (S340);
An edge distribution in which edge degrees, which are numerical values obtained by adding the number of edge points calculated by the edge detection unit in the vertical direction of the captured image, are arranged along the horizontal direction of the captured image. a distribution calculator (S370) configured to calculate
a distribution pattern memory (64) configured to store at least one distribution pattern, which is a representative pattern of the edge distribution previously associated with at least a part of the target, for each type of the target;
According to the degree of similarity between the edge distribution calculated by the distribution calculating unit and each of at least one of the distribution patterns stored in the distribution pattern memory, the target range determines the target corresponding to the distribution pattern. a target determination unit (S380) configured to determine whether or not the
An image processing device comprising:
請求項1に記載の画像処理装置であって、
前記分布パターンメモリは、前記分布パターンとして、歩行者以外の物標である物体を表すパターンである物体パターンを含むように記憶する、画像処理装置。
The image processing device according to claim 1,
The image processing device, wherein the distribution pattern memory stores, as the distribution pattern, an object pattern, which is a pattern representing an object other than a pedestrian, that is a target object.
請求項2に記載の画像処理装置であって、
前記範囲設定部は、歩行者を表すと推定される前記物標範囲を推定範囲として設定するように構成され、
前記物標判定部により、前記推定のうち、前記物体を表していると判定された推定範囲以外の推定範囲を、歩行者を表す範囲であると確定するように構成された歩行者判定部(S130,S400)を更に備える、画像処理装置。
The image processing device according to claim 2,
The range setting unit is configured to set the target range estimated to represent a pedestrian as an estimated range,
A pedestrian determination unit ( S130, S400).
請求項2又は請求項3に記載の画像処理装置であって、
前記物体パターンには、道路上に設置される柱状体であるポールを表すパターンであるポールパターンが含まれる、画像処理装置。
The image processing device according to claim 2 or 3,
The image processing device, wherein the object patterns include a pole pattern that is a pattern representing a pole that is a columnar body installed on a road.
請求項1から請求項4までのいずれか1項に記載の画像処理装置であって、The image processing device according to any one of claims 1 to 4,
前記エッジ分布おける前記エッジ度のピークの数に基づいて、前記物標の判定を行う、画像処理装置。 The image processing device that determines the target based on the number of peaks of the edge degree in the edge distribution.
請求項1から請求項5までのいずれか1項に記載の画像処理装置であって、The image processing device according to any one of claims 1 to 5,
前記エッジ点として、前記水平方向に隣接する画素と画素との輝度差の絶対値があらかじめ決められた輝度の閾値である輝度閾値以上である点を用いる、画像処理装置。 The image processing apparatus uses, as the edge point, a point at which an absolute value of a luminance difference between pixels adjacent in the horizontal direction is equal to or greater than a predetermined luminance threshold.
JP2018163185A 2018-08-31 2018-08-31 Image processing device Active JP7192312B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018163185A JP7192312B2 (en) 2018-08-31 2018-08-31 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018163185A JP7192312B2 (en) 2018-08-31 2018-08-31 Image processing device

Publications (2)

Publication Number Publication Date
JP2020035334A JP2020035334A (en) 2020-03-05
JP7192312B2 true JP7192312B2 (en) 2022-12-20

Family

ID=69668306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018163185A Active JP7192312B2 (en) 2018-08-31 2018-08-31 Image processing device

Country Status (1)

Country Link
JP (1) JP7192312B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111307249A (en) * 2018-11-27 2020-06-19 宁波旭磊电子科技有限公司 Water edge height alarm platform

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156626A (en) 2005-12-01 2007-06-21 Nissan Motor Co Ltd Object type determination device and object type determination method
JP2009193147A (en) 2008-02-12 2009-08-27 Toyota Motor Corp Object detection device
JP2009276910A (en) 2008-05-13 2009-11-26 Toyota Central R&D Labs Inc Image processor, method and program
JP2010020404A (en) 2008-07-08 2010-01-28 Toshiba Corp Image processor and method thereof
JP2010160770A (en) 2009-01-12 2010-07-22 Denso Corp Pedestrian detection device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156626A (en) 2005-12-01 2007-06-21 Nissan Motor Co Ltd Object type determination device and object type determination method
JP2009193147A (en) 2008-02-12 2009-08-27 Toyota Motor Corp Object detection device
JP2009276910A (en) 2008-05-13 2009-11-26 Toyota Central R&D Labs Inc Image processor, method and program
JP2010020404A (en) 2008-07-08 2010-01-28 Toshiba Corp Image processor and method thereof
JP2010160770A (en) 2009-01-12 2010-07-22 Denso Corp Pedestrian detection device

Also Published As

Publication number Publication date
JP2020035334A (en) 2020-03-05

Similar Documents

Publication Publication Date Title
JP4203512B2 (en) Vehicle periphery monitoring device
JP4482599B2 (en) Vehicle periphery monitoring device
US10943141B2 (en) Object detection device and object detection method
US10565438B2 (en) Vehicle periphery monitor device
JP5975598B2 (en) Image processing apparatus, image processing method, and program
JP2012226745A (en) Method and system for detecting body in depth image
US9747507B2 (en) Ground plane detection
JP4946878B2 (en) Image identification apparatus and program
JP2008288684A (en) Person detection device and program
JP2008035301A (en) Mobile body tracing apparatus
JP4548181B2 (en) Obstacle detection device
JP7192312B2 (en) Image processing device
US9392146B2 (en) Apparatus and method for extracting object
JP5172887B2 (en) Vehicle periphery monitoring device
JP5020920B2 (en) Pedestrian detection device and program
JP5484118B2 (en) Vehicle periphery monitoring device
CN111339840B (en) Face detection method and monitoring system
JP2008108118A (en) Image processor
JP6276504B2 (en) Image detection apparatus, control program, and image detection method
JP2009070097A (en) Vehicle length measuring device and vehicle model determination device
JP2021051348A (en) Object distance estimation apparatus and object distance estimation method
JP2008236029A (en) Vehicle-surroundings monitoring system, method and program
JP2008040724A (en) Image processing device and image processing method
JP5149918B2 (en) Vehicle periphery monitoring device
JP4887539B2 (en) Object type determination device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221121

R151 Written notification of patent or utility model registration

Ref document number: 7192312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151