JP5838940B2 - Image processing apparatus and vehicle control system - Google Patents

Image processing apparatus and vehicle control system Download PDF

Info

Publication number
JP5838940B2
JP5838940B2 JP2012206981A JP2012206981A JP5838940B2 JP 5838940 B2 JP5838940 B2 JP 5838940B2 JP 2012206981 A JP2012206981 A JP 2012206981A JP 2012206981 A JP2012206981 A JP 2012206981A JP 5838940 B2 JP5838940 B2 JP 5838940B2
Authority
JP
Japan
Prior art keywords
target
image processing
processing apparatus
parts
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012206981A
Other languages
Japanese (ja)
Other versions
JP2014063273A (en
Inventor
映 酒井
映 酒井
孝行 宮原
孝行 宮原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2012206981A priority Critical patent/JP5838940B2/en
Publication of JP2014063273A publication Critical patent/JP2014063273A/en
Application granted granted Critical
Publication of JP5838940B2 publication Critical patent/JP5838940B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、撮像された画像においてターゲットを検出するための画像処理の技術に関する。   The present invention relates to an image processing technique for detecting a target in a captured image.

従来、例えば車両に搭載されたカメラにより撮像された画像において、歩行者等のターゲット(対象物)を検出(識別)するための画像処理の技術が知られている。この種の画像処理の代表的な手法は、機械学習によってあらかじめ得られたターゲットのモデルを用い、画像をスキャンして各位置でマッチングをとることによりターゲットを識別するというものである。ここで、ターゲットのモデルとは、ターゲットの様々な状態(例えば人の場合、服装・向き・姿勢等)の画像を多数収集し、これらを用いて学習することで得られる代表パターンである。   2. Description of the Related Art Conventionally, for example, an image processing technique for detecting (identifying) a target (object) such as a pedestrian in an image captured by a camera mounted on a vehicle is known. A typical method of this type of image processing is to identify a target by using a target model obtained in advance by machine learning, scanning the image, and performing matching at each position. Here, the target model is a representative pattern obtained by collecting a large number of images of various states of the target (for example, in the case of a person, clothes, orientation, posture, etc.) and learning them.

ただし、ターゲットは、その状態によって見え方が大きく変動する。例えば人の場合、立ち止まっている状態、歩いている状態、走っている状態など、各状態で手足の位置などが異なる。このため、従来の単純な学習モデルだけでは識別性能が低く、このようなターゲットの見え方の変化に頑強な識別器を構成することが求められる。   However, the appearance of the target varies greatly depending on its state. For example, in the case of a person, the positions of limbs and the like differ in each state, such as a stationary state, a walking state, and a running state. For this reason, it is required to construct a discriminator that is low in discrimination performance only with a conventional simple learning model and is robust against such changes in target appearance.

そこで、従来のターゲット全体のモデルとともに、ターゲットが有する特徴的なパーツ(例えば人であれば、頭・腕・胴・脚といったパーツ)を別途学習し、パーツの位置関係(バネモデル)を考慮した識別を行う技術が提案されている。ここで、バネモデル(DPM:Deformable Part Model)とは、全体モデルに対する各パーツの基準位置と、その基準位置に対するパーツの位置に応じた値(バネコスト)と、を規定したものである。具体的には、バネモデルでは、基準位置からのパーツのずれが大きいほどバネコスト(ペナルティ)が増加するように規定されており、バネコストに基づいてパーツの位置を評価することができる。逆にいえば、基準位置からの位置が多少ずれていたとしても、パーツの形状がモデルに似ていれば許容されるような判定が可能であり、パーツの位置がある程度変わっても柔軟に識別することができる。   Therefore, together with the conventional model of the entire target, distinctive parts of the target (for example, parts such as head, arms, torso, and legs for humans) are separately learned, and identification taking into account the positional relationship (spring model) of the parts A technique for performing the above has been proposed. Here, the spring model (DPM: Deformable Part Model) defines a reference position of each part with respect to the entire model and a value (spring cost) corresponding to the position of the part with respect to the reference position. Specifically, in the spring model, it is defined that the spring cost (penalty) increases as the deviation of the part from the reference position increases, and the position of the part can be evaluated based on the spring cost. In other words, even if the position is slightly different from the reference position, it can be determined that the part shape is similar to the model, and it can be identified flexibly even if the position of the part changes to some extent. can do.

P. Felzenszwalb, D. McAllester, D. Ramanan, A Discriminatively Trained, Multiscale, Deformable Part Model, Proceedings of the IEEE CVPR 2008P. Felzenszwalb, D. McAllester, D. Ramanan, A Discriminatively Trained, Multiscale, Deformable Part Model, Proceedings of the IEEE CVPR 2008

ところで、複数のターゲットが集団を構成している状態においては、手前のターゲットは検出されるものの、奥(後ろ側)のターゲットは、手前のターゲットにより部分的に隠れることにより、検出されにくくなるという問題がある。例えば、歩行者の集団においては、カメラに向かって一番手前の歩行者は検出されるが、その歩行者の後ろに隠れた歩行者は、身体の一部(パーツ)が手前の歩行者の身体によって隠れることにより、そのパーツのスコアが低下するため、歩行者として検出されにくくなる。なお、このような問題は、歩行者に限られるものではなく、他のターゲットについても同様に生じ得る。   By the way, in a state in which a plurality of targets constitute a group, the front target is detected, but the back (rear) target is partially hidden by the front target, so that it is difficult to detect. There's a problem. For example, in the group of pedestrians, the pedestrian closest to the camera is detected, but the pedestrian hidden behind the pedestrian is a part of the body of the pedestrian in front. By hiding by the body, the score of the part decreases, so that it becomes difficult to be detected as a pedestrian. Note that such a problem is not limited to pedestrians, and may occur similarly for other targets.

本発明は、こうした問題にかんがみてなされたものであり、ターゲットの集団を精度よく検出可能とするための技術を提供することを目的としている。   The present invention has been made in view of these problems, and an object of the present invention is to provide a technique for enabling a target population to be detected with high accuracy.

本発明の画像処理装置(10)は、撮像装置(32)により撮像された画像を入力し、その画像においてターゲットを検出するための画像処理を行うものであり、記憶手段(60)と、パーツ検出手段(S12)と、集団検出手段(S13,S14)と、を備える。   The image processing apparatus (10) of the present invention inputs an image picked up by the image pickup apparatus (32) and performs image processing for detecting a target in the image. The storage means (60) and parts Detection means (S12) and group detection means (S13, S14) are provided.

記憶手段は、ターゲットが有する複数種類のパーツを画像において識別するためのパーツモデルと、ターゲットにおける複数種類のパーツの基準位置及びその基準位置に対するパーツの位置に応じたバネコストを表すバネモデルと、を記憶する。そして、パーツ検出手段が、パーツモデルを用いたマッチング処理により算出される類似度に基づいて、画像においてパーツを検出する。さらに、集団検出手段が、パーツ検出手段により検出されたパーツに基づいて、画像においてターゲットの集団を検出する。   The storage means stores a part model for identifying a plurality of types of parts of the target in the image, and a spring model representing a reference position of the plurality of types of parts on the target and a spring cost corresponding to the position of the part relative to the reference position. To do. And a part detection means detects parts in an image based on the similarity calculated by the matching process using a parts model. Further, the group detection unit detects a group of targets in the image based on the parts detected by the part detection unit.

具体的には、集団検出手段は、設定手段(S21,S29)と、バネコスト算出手段(S23)と、判定手段(S24,S25)と、を備える。設定手段は、ターゲットの存否を判定するための注目領域を、画像における複数の位置に順次設定する。そして、バネコスト算出手段が、注目領域にターゲットが存在すると仮定した場合のパーツの基準位置をバネモデルに基づいて設定し、基準位置からのずれの度合いを表す値であるバネコストを、パーツ検出手段により検出されたパーツのそれぞれについて算出する。さらに、判定手段が、バネコスト算出手段により算出されたバネコストが所定範囲内の同一種類のパーツが複数存在することを条件として、注目領域を、集団を構成するターゲットが存在するターゲット領域として判定する。   Specifically, the group detection means includes setting means (S21, S29), spring cost calculation means (S23), and determination means (S24, S25). The setting means sequentially sets attention areas for determining whether or not the target exists at a plurality of positions in the image. Then, the spring cost calculation means sets the reference position of the part when it is assumed that the target is present in the attention area based on the spring model, and the spring cost that is a value indicating the degree of deviation from the reference position is detected by the part detection means. Calculate for each of the parts. Further, the determination means determines the attention area as the target area where the targets constituting the group exist on the condition that there are a plurality of parts of the same type whose spring cost calculated by the spring cost calculation means is within a predetermined range.

つまり、同一種類のパーツが複数集まっている場合には、ターゲットの集団が存在する可能性が高いと考えられるため、注目領域に基づき定められる基準位置からのずれの度合いが小さい同一種類のパーツが複数存在することを条件として、集団を構成するターゲットがその注目領域に存在すると判定する。このような判定手法によれば、手前のターゲットにより一部が隠れた奥のターゲットについても、集団を構成するターゲットとして検出されやすくすることが可能となる。したがって、集団を構成する個々のターゲットを独立して検出する場合と比較して、ターゲットの集団を精度よく検出可能とすることができる。   In other words, when multiple parts of the same type are gathered, it is considered that there is a high possibility that a target group exists.Therefore, there are parts of the same type that have a small degree of deviation from the reference position determined based on the attention area. On the condition that there are a plurality, it is determined that the target constituting the group exists in the attention area. According to such a determination method, it is possible to make it easier to detect a target in the back that is partially hidden by the target in front as a target constituting the group. Therefore, the target group can be detected with higher accuracy than the case where individual targets constituting the group are detected independently.

なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。   In addition, the code | symbol in the parenthesis described in this column and a claim shows the correspondence with the specific means as described in embodiment mentioned later as one aspect, Comprising: The technical scope of this invention is shown. It is not limited.

車両制御システムの構成を示すブロック図である。It is a block diagram which shows the structure of a vehicle control system. 衝突危険度判定テーブルを示す図である。It is a figure which shows a collision risk determination table. ターゲット集団判定処理のフローチャートである。It is a flowchart of a target group determination process. (A)は第1の距離に存在するターゲットのパーツを検出するためのマッチング処理を示す図、(B)は第2の距離に存在するターゲットのパーツを検出するためのマッチング処理を示す図、(C)は高スコアパーツを検出する処理を示す図である。(A) is a diagram showing a matching process for detecting a target part existing at a first distance, (B) is a diagram showing a matching process for detecting a target part existing at a second distance; (C) is a figure which shows the process which detects a high score part. 集団条件判定処理のフローチャートである。It is a flowchart of a group condition determination process. ターゲット領域を検出する処理を示す図である。It is a figure which shows the process which detects a target area | region. ターゲット集団検出処理を示す図である。It is a figure which shows a target group detection process. ターゲット集団検出処理におけるターゲット領域の統合方法を示す図である。It is a figure which shows the integration method of the target area | region in a target group detection process. (A)は注目する歩行者を独立して検出する処理を示す図、(B)は注目する歩行者を集団の一人として検出する処理を示す図である。(A) is a figure which shows the process which detects the focused pedestrian independently, (B) is a figure which shows the process which detects the focused pedestrian as one of the groups. 異なる種類の他のパーツとの位置関係に応じてバネコストを低く算出する処理を示す図である。It is a figure which shows the process which calculates a spring cost low according to the positional relationship with another part of a different kind. 同一種類の他のパーツとの位置関係に応じてバネコストを低く算出する処理を示す図である。It is a figure which shows the process which calculates a spring cost low according to the positional relationship with other parts of the same kind. 高スコアパーツと注目領域とを包含する領域をターゲット領域として判定する処理を示す図である。It is a figure which shows the process which determines the area | region containing a high score part and an attention area as a target area.

以下、本発明が適用された実施形態について、図面を用いて説明する。
[1.構成]
図1に示すように、本実施形態の車両制御システムは、車両に搭載された画像処理装置10及び車両制御装置20を中心に構成されている。画像処理装置10には、車両に搭載された測距装置31及び撮像装置32が接続されている。また、車両制御装置20には、車両に搭載されたスピーカ41、ブレーキ42及びステアリング43が接続されている。
Embodiments to which the present invention is applied will be described below with reference to the drawings.
[1. Constitution]
As shown in FIG. 1, the vehicle control system of the present embodiment is configured with an image processing device 10 and a vehicle control device 20 mounted on the vehicle as the center. A distance measuring device 31 and an imaging device 32 mounted on the vehicle are connected to the image processing device 10. The vehicle control device 20 is connected to a speaker 41, a brake 42, and a steering 43 mounted on the vehicle.

画像処理装置10及び車両制御装置20は、いわゆるコンピュータとして構成されている。これにより、画像処理装置10では、撮像装置32から入力した画像(撮像画像)においてターゲット(本実施形態では歩行者)を検出し、測距装置31による距離情報に基づき、衝突危険度を判定する。これに対し、車両制御装置20は、画像処理装置10から出力される衝突危険度に応じて、スピーカ41による報知を行ったり、緊急度合が大きい場合には、ブレーキ42及びステアリング43による回避制御を行ったりする。   The image processing device 10 and the vehicle control device 20 are configured as a so-called computer. As a result, the image processing apparatus 10 detects the target (pedestrian in the present embodiment) in the image (captured image) input from the imaging apparatus 32 and determines the collision risk based on the distance information from the distance measuring apparatus 31. . On the other hand, the vehicle control device 20 performs notification by the speaker 41 according to the collision risk output from the image processing device 10, or performs avoidance control by the brake 42 and the steering 43 when the degree of emergency is large. To go.

次に、各部の構成について具体的に説明する。
測距装置31は、レーザレーダなどとして具現化される。もちろん、ミリ波レーダなどの別の構成を用いてもよい。この測距装置31により、車両前方の物体までの距離を検知することが可能となる。
Next, the configuration of each unit will be specifically described.
The distance measuring device 31 is embodied as a laser radar or the like. Of course, another configuration such as a millimeter wave radar may be used. The distance measuring device 31 can detect the distance to the object in front of the vehicle.

撮像装置32は、単眼カメラなどとして具現化される。この撮像装置32により、車両前方が撮像される。画像処理装置10では、前述したように、この画像においてターゲットを検出する。   The imaging device 32 is embodied as a monocular camera or the like. The imaging device 32 images the front of the vehicle. The image processing apparatus 10 detects the target in this image as described above.

スピーカ41は、音声出力のための構成である。ターゲットとの衝突危険度が大きくなると、このスピーカ41を介して「前方に注意してください」などの音声が出力される。
ブレーキ42は、ブレーキの駆動装置を含み、車両制御装置20からの信号によって、車両を減速させる。また、ステアリング43は、EPS(Electric Power Steering)装置を含み、車両制御装置20からの信号によって運転者の操舵をアシストする。このような車両制御が行われるのは、ターゲットとの衝突危険度がさらに大きくなった場合であり、緊急度合の大きい場合である。
The speaker 41 is configured for audio output. When the risk of collision with the target increases, a sound such as “Be careful ahead” is output through the speaker 41.
The brake 42 includes a brake driving device, and decelerates the vehicle by a signal from the vehicle control device 20. Further, the steering 43 includes an EPS (Electric Power Steering) device, and assists the driver's steering by a signal from the vehicle control device 20. Such vehicle control is performed when the risk of collision with the target is further increased, and when the degree of emergency is large.

画像処理装置10は、制御部50及び記憶部60を有している。制御部50は、いわゆるマイコン(マイクロコンピュータ)として具現化される。制御部50は、機能ブロックとして、ターゲット集団検出部51及び衝突危険度判定部52を具備する。また、記憶部60は、例えばROMなどとして具現化される。もちろん、ROM以外のフラッシュメモリやHDDなどを用いてもよい。記憶部60には、パーツモデルと、バネモデルと、衝突危険度判定テーブルと、が記憶されている。   The image processing apparatus 10 includes a control unit 50 and a storage unit 60. The control unit 50 is embodied as a so-called microcomputer. The control unit 50 includes a target group detection unit 51 and a collision risk determination unit 52 as functional blocks. The storage unit 60 is embodied as a ROM, for example. Of course, a flash memory or HDD other than the ROM may be used. The storage unit 60 stores a part model, a spring model, and a collision risk determination table.

ここでターゲット集団検出部51は、撮像装置32から出力される画像においてターゲットを検出するための画像処理を行う。具体的には後述するが、画像をスキャンすることで、ターゲットが有する複数種類のパーツを検出し、検出されたパーツに基づいてターゲットの集団の存在とその位置を推定する。   Here, the target group detection unit 51 performs image processing for detecting the target in the image output from the imaging device 32. More specifically, as will be described later, by scanning an image, a plurality of types of parts included in the target are detected, and the presence and position of the target group are estimated based on the detected parts.

衝突危険度判定部52は、ターゲットが検出された後、当該ターゲットまでの距離が測距装置31にて分かるため、当該ターゲットとの距離に応じて衝突危険度を判定する。この衝突危険度は、車両制御装置20へ出力される。   Since the distance to the target is known by the distance measuring device 31 after the target is detected, the collision risk determination unit 52 determines the collision risk according to the distance to the target. The collision risk is output to the vehicle control device 20.

記憶部60に記憶されているパーツモデルは、ターゲットが有する複数種類のパーツをモデル化したものであり、ターゲットの各パーツを画像において識別するために用いられる。パーツモデルは、例えば、輪郭情報等の各パーツの特徴を表現する特徴ベクトルとして表される。本実施形態では、歩行者が有する複数種類のパーツである、頭、左腕、右腕、胴、左脚及び右脚のそれぞれに対応するパーツモデルが用いられる。   The part model stored in the storage unit 60 is obtained by modeling a plurality of types of parts that the target has, and is used to identify each part of the target in the image. The part model is represented, for example, as a feature vector that represents the characteristics of each part such as contour information. In the present embodiment, a part model corresponding to each of the head, left arm, right arm, torso, left leg, and right leg, which are a plurality of types of parts that a pedestrian has, is used.

記憶部60に記憶されているバネモデルは、ターゲットにおける複数種類のパーツ(頭、左腕、右腕、胴、左脚及び右脚)の位置関係をモデル化したものであり、ターゲットにおける各パーツの基準位置と、その基準位置に対するパーツの位置に応じた値(バネコスト)を表す。このようなバネモデルを用いることで、パーツモデルにより検出されたパーツの基準位置からのずれを、バネコストで表す(評価する)ことができる。バネコストは、バネモデルに基づく基準位置からのずれが大きいほど増加する値であり、バネコストが小さいほど、位置に基づく信頼度が高いといえる。   The spring model stored in the storage unit 60 is a model of the positional relationship of multiple types of parts (head, left arm, right arm, torso, left leg and right leg) in the target, and the reference position of each part in the target And a value (spring cost) corresponding to the position of the part with respect to the reference position. By using such a spring model, it is possible to express (evaluate) the deviation from the reference position of the part detected by the part model by the spring cost. The spring cost increases as the deviation from the reference position based on the spring model increases, and it can be said that the reliability based on the position increases as the spring cost decreases.

記憶部60に記憶されている衝突危険度判定テーブルは、検出されたターゲットまでの距離及び後述する集団スコア(検出結果の信頼度)に応じた衝突危険度を規定したテーブルである。具体的には、例えば図2に示すように、ターゲットまでの距離と集団スコアとに応じた衝突危険度のレベル(L1〜L3)を示す二次元テーブルが用いられる。本実施形態では、ターゲットの集団が検出された場合に、距離が近いほど、また、集団スコアが高い(検出結果の信頼度が高い)ほど、衝突危険度が高いと判定される。衝突危険度判定部52は、この衝突危険度判定テーブルを参照することで、衝突危険度を判定する。   The collision risk determination table stored in the storage unit 60 is a table that defines the collision risk according to the detected distance to the target and the collective score (reliability of the detection result) described later. Specifically, as shown in FIG. 2, for example, a two-dimensional table indicating the level of collision risk (L1 to L3) according to the distance to the target and the collective score is used. In the present embodiment, when the target group is detected, it is determined that the collision risk is higher as the distance is shorter and the group score is higher (the reliability of the detection result is higher). The collision risk determination unit 52 determines the collision risk by referring to the collision risk determination table.

車両制御装置20は、報知制御部70及び車両制御部80を有しており、いずれもいわゆるマイコンとして具現化される。報知制御部70は、スピーカ41を介した報知を行うための構成であり、衝突危険度が大きくなると、まずはスピーカ41を介した報知が行われる。車両制御部80は、ブレーキ42及びステアリング43を介した車両制御を行うための構成であり、衝突危険度がさらに大きくなった場合に衝突回避制御が行われる。具体的には、衝突危険度がレベル1(L1)の場合にはターゲットの存在を知らせる警報制御(報知制御)が行われ、レベル2(L2)の場合にはブレーキ制御(減速制御)が行われ、レベル3(L3)の場合にはステアリング制御(衝突回避制御)が行われる。なお、ターゲットが検出されていない場合(レベル0の場合)には、車両制御が行われない。   The vehicle control device 20 includes a notification control unit 70 and a vehicle control unit 80, both of which are embodied as so-called microcomputers. The notification control unit 70 is configured to perform notification via the speaker 41. When the collision risk level increases, first, notification via the speaker 41 is performed. The vehicle control unit 80 is configured to perform vehicle control via the brake 42 and the steering 43, and collision avoidance control is performed when the risk of collision further increases. Specifically, when the collision risk is level 1 (L1), alarm control (notification control) for notifying the presence of the target is performed, and when it is level 2 (L2), brake control (deceleration control) is performed. In the case of level 3 (L3), steering control (collision avoidance control) is performed. In addition, when the target is not detected (in the case of level 0), vehicle control is not performed.

[2.処理]
本実施形態は、ターゲット集団検出部51の機能としてのターゲット集団判定処理に特徴を有する。そこで、このターゲット集団判定処理の詳細について、図3のフローチャートを用いて説明する。ターゲット集団判定処理は、所定時間間隔で繰り返し実行される。
[2. processing]
The present embodiment is characterized by target group determination processing as a function of the target group detection unit 51. The details of this target group determination processing will be described with reference to the flowchart of FIG. The target group determination process is repeatedly executed at predetermined time intervals.

図3に示すように、最初のS11では、撮像装置32により撮像された車両前方の画像を入力する画像入力処理を実行する。
続いて、S12では、入力した画像において、記憶部60に記憶されているターゲットのパーツモデルを用いたマッチング処理により算出される類似度(一致度)に基づいて、各パーツを検出するパーツ検出処理を実行する。算出される類似度は、形状に基づく信頼度を表す。なお、画像上の各位置とパーツモデルとの類似度は、例えばHOG(Histograms of Oriented Gradients)特徴量を用いた周知のマッチングアルゴリズムにより算出される。
As shown in FIG. 3, in the first step S <b> 11, an image input process for inputting an image ahead of the vehicle imaged by the imaging device 32 is executed.
Subsequently, in S12, a part detection process for detecting each part based on the similarity (matching degree) calculated by the matching process using the target part model stored in the storage unit 60 in the input image. Execute. The calculated similarity represents a reliability based on the shape. The similarity between each position on the image and the part model is calculated by a known matching algorithm using, for example, HOG (Histograms of Oriented Gradients) feature amount.

具体的には、図4(A)に示すように、頭パーツモデルHMを、例えば画像の左上部分から順に、あらかじめ定められた間隔で右方向へ移動させていく。そして、画像の右端に到達したら、左端に戻し、あらかじめ定められた間隔で下方向へ移動させる。その後は、同様の移動を繰り返し、画像の右下部分まで順に移動させていく。このとき、頭パーツモデルHMの位置ごとに、頭パーツモデルHMと重なる部分領域との類似度をスコアとして記憶することにより、画像における位置ごとにスコアが記録されたスコアマップが生成される。なお、頭パーツ以外のパーツについても、頭パーツと同様の処理が行われ、パーツの種類ごとにスコアマップが生成される。   Specifically, as shown in FIG. 4A, the head part model HM is moved rightward at predetermined intervals, for example, sequentially from the upper left part of the image. When the right end of the image is reached, the image is returned to the left end and moved downward at a predetermined interval. Thereafter, the same movement is repeated, and the image is moved in order to the lower right part of the image. At this time, for each position of the head part model HM, the similarity with the partial area overlapping the head part model HM is stored as a score, thereby generating a score map in which the score is recorded for each position in the image. For parts other than the head part, processing similar to that for the head part is performed, and a score map is generated for each type of part.

また、撮像装置32からの距離(撮像位置からの距離)が近いターゲットほど、画像内では大きく写る。そこで、図4(B)に示すように、パーツモデルHMのサイズはそのままで、スキャンの対象となる画像を縮小して、同様のスコア化を行う。つまり、画像に対するパーツモデルのサイズを相対的に大きくする。このようにして、第1の距離に存在するターゲットを想定したスキャン(図4(A))と、第2の距離に存在するターゲットを想定したスキャン(図4(B))と、を行う。   In addition, the closer the target from the imaging device 32 (the distance from the imaging position), the larger the image appears in the image. Therefore, as shown in FIG. 4B, the same image is formed by reducing the image to be scanned while keeping the size of the part model HM as it is. That is, the size of the part model relative to the image is relatively increased. In this way, a scan assuming the target existing at the first distance (FIG. 4A) and a scan assuming the target existing at the second distance (FIG. 4B) are performed.

なお、ここでは、ターゲットが相対的に遠い第1の距離に存在する場合と、ターゲットが相対的に近い第2の距離に存在する場合と、の2段階でのスキャンを説明したが、現実的には、3段階以上でスキャンすることが考えられる。なお、段階的なスキャンに際し、前述したようにスキャンの対象となる画像を拡大/縮小するようにしてもよいし、これとは逆にパーツモデルを拡大/縮小するようにしてもよい。   Here, the scanning in two stages, that is, the case where the target exists at a first distance that is relatively far away and the case where the target exists at a second distance that is relatively close, has been described. It is conceivable to scan in three or more stages. In the stepwise scan, the image to be scanned may be enlarged / reduced as described above, or the part model may be enlarged / reduced on the contrary.

こうしてパーツの種類ごとに生成したスコアマップにおいて、図4(C)に示すように、設定されたしきい値以上のスコアを有する位置(エリア)を、高スコアパーツHP1,HP2として検出する。つまり、高スコアパーツとは、画像において、パーツモデルとのマッチングが高い(パーツである可能性の高い)エリアのことである。なお、図4(C)の例において、高スコアパーツHP1は、第1の距離に存在するターゲットを想定したスキャンによる高スコアパーツであり、高スコアパーツHP2は、第2の距離に存在するターゲットを想定したスキャンによる高スコアパーツである。なお、頭パーツ以外のパーツについても、頭パーツと同様の処理が行われ、パーツの種類ごとに高スコアパーツが検出される。   In the score map generated for each part type in this way, as shown in FIG. 4C, a position (area) having a score equal to or higher than the set threshold value is detected as the high score parts HP1 and HP2. That is, a high score part is an area with high matching with a part model (high possibility of being a part) in an image. In the example of FIG. 4C, the high score part HP1 is a high score part obtained by scanning assuming a target existing at the first distance, and the high score part HP2 is a target present at the second distance. It is a high score part by the scan which assumed the. Note that parts other than the head part are also processed in the same manner as the head part, and a high score part is detected for each type of part.

図3に戻り、S13では、画像においてターゲットの集団が存在すると判定するための条件である集団条件を満たすか否かを判定する集団条件判定処理を実行する。本実施形態で規定されている集団条件とは、1つの基準位置に対するバネコストの小さい高スコアパーツが、所定数以上存在することである。   Returning to FIG. 3, in S <b> 13, a group condition determination process is performed to determine whether or not a group condition that is a condition for determining that a target group exists in the image is satisfied. The collective condition defined in the present embodiment is that there are a predetermined number or more of high score parts having a small spring cost with respect to one reference position.

ここで、S13で実行される集団条件判定処理の詳細について、図5のフローチャートを用いて説明する。
まず、S21では、画像において、ターゲットの存否を判定するための注目領域を設定する。注目領域は、ターゲットの身体全体に対応する大きさの領域(本実施形態では矩形領域)であり、注目領域を設定することで、その注目領域にターゲットが存在すると仮定した場合の各パーツの基準位置(バネコストの評価基準)が、バネモデルに基づき画像において設定される。なお、後述するように、注目領域は、前述したパーツモデルによるスキャンと同様、例えば画像の左上部分から順に、あらかじめ定められた間隔で右方向へ移動し、画像の右端に到達したら左端に戻して、あらかじめ定められた間隔で下方向へ移動させる。その後は、同様の移動を繰り返し、画像の右下部分まで順に移動する。つまり、あらかじめ決められた規則に従い、注目領域が、画像における複数の位置に順次設定されるようになっており、集団条件判定処理の開始直後は、初期位置(例えば画像の左上部分)に設定される。
Here, the details of the collective condition determination process executed in S13 will be described using the flowchart of FIG.
First, in S21, a region of interest for determining the presence or absence of a target is set in the image. The attention area is an area of a size corresponding to the entire target body (rectangular area in this embodiment), and by setting the attention area, it is assumed that the target exists in the attention area. The position (spring cost evaluation criteria) is set in the image based on the spring model. As will be described later, the region of interest moves to the right at predetermined intervals, for example, in order from the upper left part of the image, and returns to the left end when reaching the right end of the image, as in the case of the above-described part model scan. , Move downward at a predetermined interval. Thereafter, the same movement is repeated and the image is moved in order to the lower right part of the image. In other words, according to a predetermined rule, the attention area is sequentially set at a plurality of positions in the image, and immediately after the start of the collective condition determination process, it is set at the initial position (for example, the upper left portion of the image). The

続いて、S22では、頭パーツを処理対象のパーツに設定する。すなわち、以下のS23〜S25の処理をパーツの種類ごとに行うため、最初に処理対象とするパーツを頭パーツに設定するのである。なお、最初に処理対象とするパーツや処理順序などは特に限定されない。   Subsequently, in S22, the head part is set as a part to be processed. That is, since the following processes of S23 to S25 are performed for each type of part, the part to be processed is first set as the head part. Note that the parts to be initially processed and the processing order are not particularly limited.

続いて、S23では、処理対象のパーツの高スコアパーツのそれぞれについて、注目領域に基づき定められる処理対象パーツの基準位置に対するバネコストを算出する。バネコストは、基準位置からのずれを表す値であり、ずれが大きいほど高い値となる。バネコストは、単にずれの大きさ(基準位置から高スコアパーツの位置までの距離)に比例する値とすることも可能ではあるが、実際には、パーツごとに、例えば縦方向と比較して横方向にずれやすいなどの特性があるため、その特性に応じた値に設定することが好ましい。例えば、基準位置からの距離xに対するバネコストyが二次関数y=ax2で表され、その二次関数の係数aが、縦方向の距離(ずれ量)と横方向の距離(ずれ量)とで異なるようにしてもよい。縦方向のずれ量に対するバネコストの増加割合が、横方向のずれ量に対するバネコストの増加割合と比較して、大きく設定される場合、例えば図6に示すように、バネコストが一定の領域CRは、横に長い楕円形となる。つまり、縦方向のずれと比較して、横方向のずれは許容されやすくなる。 Subsequently, in S23, for each of the high score parts of the part to be processed, the spring cost with respect to the reference position of the part to be processed determined based on the attention area is calculated. The spring cost is a value representing a deviation from the reference position, and the higher the deviation, the higher the value. The spring cost can be simply a value proportional to the magnitude of the deviation (distance from the reference position to the position of the high score part). Since there is a characteristic such as the tendency to shift in the direction, it is preferable to set the value according to the characteristic. For example, the spring cost y with respect to the distance x from the reference position is represented by a quadratic function y = ax 2 , and the coefficient a of the quadratic function is a vertical distance (deviation amount) and a lateral distance (deviation amount). May be different. When the rate of increase of the spring cost with respect to the amount of displacement in the vertical direction is set to be larger than the rate of increase of the spring cost with respect to the amount of displacement in the horizontal direction, for example, as shown in FIG. A long oval shape. That is, the horizontal shift is more easily tolerated than the vertical shift.

続いて、S24では、バネコストがしきい値以下の高スコアパーツの数が一定数(本実施形態では3つ)以上であるか否かを判定する。つまり、注目領域に基づき定められる基準位置からのずれが小さい高スコアパーツが、複数のターゲット分(本実施形態では3人分)存在するか否かを判定する。そして、一定数以上であると判定した場合には、S25へ移行し、現在の注目領域を、集団の一部を構成するターゲットが存在すると推測される領域(以下「ターゲット領域」という。)として検出した後、S26へ移行する。例えば図6に示す例では、基準位置BPに対するバネコストがしきい値以下の領域CRに、高スコアパーツHPが5つ含まれているため、現在の注目領域FRがターゲット領域TRとして検出される。一方、S24で、バネコストがしきい値以下の高スコアパーツの数が一定数以上でないと判定した場合には、S25をスキップしてS26へ移行する。   Subsequently, in S24, it is determined whether or not the number of high score parts having a spring cost equal to or less than a threshold value is equal to or greater than a certain number (three in the present embodiment). That is, it is determined whether or not there are a plurality of target parts (in this embodiment, three persons) having high score parts with a small deviation from the reference position determined based on the attention area. If it is determined that the number is equal to or greater than a certain number, the process proceeds to S25, and the current attention area is set as an area (hereinafter referred to as “target area”) in which it is estimated that a target constituting a part of the group exists. After detection, the process proceeds to S26. For example, in the example illustrated in FIG. 6, since the five high score parts HP are included in the region CR in which the spring cost with respect to the reference position BP is equal to or less than the threshold value, the current attention region FR is detected as the target region TR. On the other hand, if it is determined in S24 that the number of high score parts whose spring cost is equal to or less than the threshold value is not a certain number or more, S25 is skipped and the process proceeds to S26.

続いて、S26では、現在の注目領域においてすべてのパーツの処理が終了したか否かを判定する。すべてのパーツの処理が終了していないと判定した場合には、S27へ移行し、処理対象のパーツを変更した後、S23へ戻る。例えば、頭パーツ→左腕パーツ→右腕パーツ→胴パーツ→左脚パーツ→右脚パーツの順に処理対象のパーツを変更する。   Subsequently, in S26, it is determined whether or not all parts have been processed in the current attention area. If it is determined that all parts have not been processed, the process proceeds to S27, and after changing the part to be processed, the process returns to S23. For example, the parts to be processed are changed in the order of head part → left arm part → right arm part → trunk part → left leg part → right leg part.

一方、S26で、すべてのパーツの処理が終了したと判定した場合には、S28へ移行し、現在の撮像画像においてすべての注目領域の処理が終了したか否かを判定する。すべての注目領域の処理が終了していないと判定した場合には、S29へ移行し、注目領域の位置を変更した後、S22へ戻る。なお、前述したように、注目領域を画像の左上部分から右下部分まで順に移動させる場合には、その移動順序に従って注目領域の位置を変更する。   On the other hand, if it is determined in S26 that all parts have been processed, the process proceeds to S28, where it is determined whether or not all the attention areas have been processed in the current captured image. If it is determined that all the attention areas have not been processed, the process proceeds to S29, the position of the attention area is changed, and the process returns to S22. As described above, when the attention area is sequentially moved from the upper left part to the lower right part of the image, the position of the attention area is changed according to the movement order.

一方、すべての注目領域の処理が終了したと判定した場合には、図5の集団条件判定処理を終了する。つまり、集団条件判定処理では、注目領域ごとに、高スコアパーツのそれぞれについてのバネコストが算出され、バネコストが一定範囲内の高スコアパーツが一定数以上存在する場合に、その注目領域がターゲット領域として検出される。ターゲット領域とは、パーツの種類ごとに検出される領域であって、集団を構成するターゲットが存在する可能性の高い領域である。なお、前述したように、スコアマップは異なる距離(例えば第1の距離及び第2の距離)ごとに生成されるため、集団条件判定処理も異なる距離ごとに実行される。   On the other hand, if it is determined that the processing for all the attention areas has been completed, the collective condition determination processing in FIG. 5 ends. In other words, in the collective condition determination process, the spring cost for each high score part is calculated for each attention area, and when there are a certain number or more of high score parts within a certain range, the attention area is set as the target area. Detected. The target area is an area that is detected for each type of part, and is likely to have a target that constitutes a group. As described above, since the score map is generated for each different distance (for example, the first distance and the second distance), the collective condition determination process is also executed for each different distance.

図3に戻り、S14では、S13でパーツの種類ごとに検出したターゲット領域(矩形領域)を、その位置に応じて統合(グループ化)し、ターゲットの集団が存在する領域である集団領域として検出するターゲット集団検出処理を実行する。具体的には、図7に示すように、複数のターゲット領域TRを、重なりがあるもの同士をグループ化し、グループ化したターゲット領域TRを包含する外接矩形を、最終的な集団領域GRとする。このとき、図8に示すように、ターゲットサイズから推定される距離(例えば第1の距離及び第2の距離)が互いに近いもの同士を統合する(遠くに存在するターゲットと近くに存在するターゲットとを区別して別々に統合する)ことで、集団領域の検出精度を向上させることができる。ここで、ターゲット領域TRの距離は、ターゲット領域の下端位置(ターゲットの足下の位置)に基づき推測することも可能である。このようにすれば、距離による分類を細かく行うことが可能となる。   Returning to FIG. 3, in S14, the target areas (rectangular areas) detected for each type of part in S13 are integrated (grouped) according to their positions, and detected as a collective area that is an area where the target population exists. Target group detection processing is executed. Specifically, as shown in FIG. 7, a plurality of target regions TR are grouped together, and a circumscribed rectangle including the grouped target regions TR is defined as a final collective region GR. At this time, as shown in FIG. 8, the distances estimated from the target size (for example, the first distance and the second distance) are integrated with each other (a distant target and a nearby target) , And separately integrating them), the detection accuracy of the collective region can be improved. Here, the distance of the target region TR can be estimated based on the lower end position of the target region (the position under the target's feet). In this way, it is possible to perform detailed classification by distance.

続くS15では、集団領域の検出結果の信頼度を表す値である集団スコアを算出する集団スコア算出処理を実行する。具体的には、集団領域に含まれるターゲット領域のスコアの総和を、集団スコアとして算出する。ターゲット領域のスコアは、当該ターゲット領域の判定に用いられた複数の高スコアパーツのスコアの総和として算出される。その後、図3のターゲット集団判定処理が終了する。   In subsequent S15, a collective score calculation process for calculating a collective score that is a value representing the reliability of the detection result of the collective region is executed. Specifically, the sum of the scores of the target regions included in the collective region is calculated as the collective score. The score of the target area is calculated as the sum of the scores of a plurality of high score parts used for determining the target area. Thereafter, the target group determination process in FIG. 3 ends.

なお、ここでは各パーツのスコアに基づいて集団スコアを算出しているが、これに限定されるものではなく、各パーツのバネコストに基づいて集団スコアを算出してもよい。例えば次式によれば、複数のパーツが集まっているほど集団スコアが高く算出される。なお、次式において、nはパーツ数(パーツの種類)、aveiはパーツの種類別のバネコストの平均値、AVEiはバネコスト平均値に関する定数、veriはパーツの種類別のバネコストの分散値、VERiはバネコスト分散値に関する定数である。また、各パーツのスコアに基づく集団スコアと、各パーツのバネコストに基づく集団スコアと、を加算した値を集団スコアとしてもよい。 Here, the collective score is calculated based on the score of each part. However, the present invention is not limited to this, and the collective score may be calculated based on the spring cost of each part. For example, according to the following equation, the collective score is calculated higher as the plurality of parts are gathered. In the following formula, n is the number of parts (type of part), ave i is the average value of spring cost by part type, AVE i is a constant related to the average value of spring cost, and ver i is the variance value of spring cost by type of part. , VER i is a constant related to the spring cost variance value. A value obtained by adding the group score based on the score of each part and the group score based on the spring cost of each part may be used as the group score.

Figure 0005838940
Figure 0005838940

以上のようなターゲット集団判定処理により画像においてターゲットの集団が検出されると、前述したように、ターゲットまでの距離と集団スコアとに応じた制御が、車両制御装置20により行われる。具体的には、衝突危険度が低い場合にはターゲットの存在を知らせる警報制御(報知制御)が行われ、衝突危険度が高くなるとブレーキ制御(減速制御)が行われ、衝突危険度が更に高くなるとステアリング制御(衝突回避制御)が行われる。なお、それぞれの制御において、複数段階の制御を行ってもよい。例えば、車両が走行するレーンを基準とするターゲットの位置(距離)に応じて、警報レベル等を変更してもよい。また例えば、ステアリング制御において、集団スコアに応じて回避パスを変更するようにしてもよい。   When the target group is detected in the image by the target group determination process as described above, the vehicle control device 20 performs control according to the distance to the target and the group score as described above. Specifically, when the risk of collision is low, alarm control (notification control) that notifies the presence of the target is performed, and when the risk of collision becomes high, brake control (deceleration control) is performed, and the risk of collision is further increased. Then, steering control (collision avoidance control) is performed. In each control, a plurality of stages of control may be performed. For example, the alarm level or the like may be changed according to the position (distance) of the target relative to the lane in which the vehicle travels. Further, for example, in steering control, the avoidance path may be changed according to the group score.

[3.効果]
以上詳述した本実施形態によれば、以下の効果が得られる。
(1)画像処理装置10は、撮像装置32により撮像された画像においてパーツを検出し(S12)、検出したパーツ(高スコアパーツ)に基づいて、画像においてターゲットの集団を検出する(S13,S14)。具体的には、ターゲットの存否を判定するための注目領域を、画像における複数の位置に順次設定し(S21,S29)、検出したパーツのそれぞれについてバネコストを算出し(S23)、バネコストが所定範囲内の同一種類のパーツが複数存在することを条件として、注目領域をターゲット領域として判定する(S24,S25)。
[3. effect]
According to the embodiment described above in detail, the following effects can be obtained.
(1) The image processing apparatus 10 detects parts in the image captured by the imaging apparatus 32 (S12), and detects a target group in the image based on the detected parts (high score parts) (S13, S14). ). Specifically, the attention area for determining the presence or absence of the target is sequentially set at a plurality of positions in the image (S21, S29), the spring cost is calculated for each detected part (S23), and the spring cost is within a predetermined range. The region of interest is determined as the target region on the condition that there are a plurality of parts of the same type in S <b> 24 and S <b> 25.

画像において検出される複数種類の各パーツは、1つのターゲット(歩行者一人)につき1つであり、同一種類のパーツが複数集まっている場合には、複数のターゲットが集まっている可能性が高いと考えられる。このため、注目領域に基づき定められる基準位置からのずれの度合いが小さい同一種類のパーツが複数存在することを条件として、集団を構成するターゲットがその注目領域に存在すると判定する。このような判定手法によれば、手前のターゲットにより一部が隠れた奥のターゲットについても、集団を構成するターゲットとして検出されやすくすることが可能となる。したがって、集団を構成する個々のターゲットを独立して検出する従来の手法と比較して、ターゲットの集団を精度よく検出可能とすることができる。   The number of parts detected in the image is one for each target (one pedestrian). If there are multiple parts of the same type, there is a high possibility that multiple targets are gathered. it is conceivable that. For this reason, on the condition that there are a plurality of parts of the same type with a small degree of deviation from the reference position determined based on the attention area, it is determined that the target constituting the group exists in the attention area. According to such a determination method, it is possible to make it easier to detect a target in the back that is partially hidden by the target in front as a target constituting the group. Therefore, the target group can be detected with higher accuracy than the conventional method of detecting individual targets constituting the group independently.

例えば、図9(A)に示すように、歩行者の集団のうち、矩形枠で囲まれた歩行者に注目すると、一番手前(図9(A)における中央)の歩行者により左腕が隠れている(領域HR)。このため、注目する歩行者を独立して検出しようとすると、左腕のスコアが低下し、その結果、全体のスコアが低下することとなり、歩行者として検出されにくくなる。   For example, as shown in FIG. 9A, when attention is paid to a pedestrian surrounded by a rectangular frame in a group of pedestrians, the left arm is hidden by the pedestrian in the forefront (center in FIG. 9A). (Region HR). For this reason, if it is going to detect the pedestrian to pay attention independently, the score of a left arm will fall, As a result, the whole score will fall and it will become difficult to be detected as a pedestrian.

一方、図9(B)に示すように、注目する歩行者の左腕(領域HR)の近くには、他の複数の歩行者の左腕が露出しており(領域ER)、これらは高いスコアで(高スコアパーツとして)検出される。したがって、バネコストの小さい同一種類のパーツが複数存在することを条件とする本実施形態の手法によれば、集団を構成する歩行者として検出されやすくすることができる。   On the other hand, as shown in FIG. 9B, the left arms of other pedestrians are exposed near the left arm (region HR) of the pedestrian of interest (region ER), and these are high scores. Detected (as a high score part). Therefore, according to the method of the present embodiment on condition that there are a plurality of parts of the same type with a low spring cost, it can be easily detected as a pedestrian constituting a group.

(2)画像処理装置10は、パーツの種類ごとに判定したターゲット領域を統合し、ターゲットの集団が存在する集団領域を検出する(S14)。集団を構成するターゲットの数が少ない場合と多い場合とでは、画像において集団が占める領域のサイズも異なるが、ターゲット領域を統合して集団領域を検出するようにしているため、集団を構成するターゲットの数に応じたサイズの集団領域を検出することができる。   (2) The image processing apparatus 10 integrates the target regions determined for each type of part, and detects a collective region where a target population exists (S14). The size of the area occupied by the group in the image differs depending on whether the number of targets constituting the group is small or large, but the target area is integrated to detect the group area. It is possible to detect a collective region having a size corresponding to the number of.

具体的には、互いに重なり合う複数のターゲット領域を包含する領域を、集団領域として検出するようにしているため、集団領域を簡易的に特定することができる。
また、撮像装置32からの距離に応じて分類されるグループごとに、互いに重なり合う複数のターゲット領域を包含する領域を、集団領域として検出するようにしているため、ターゲットの集団を精度よく検出することができる。
Specifically, since a region including a plurality of target regions overlapping each other is detected as a collective region, the collective region can be easily specified.
In addition, for each group classified according to the distance from the imaging device 32, a region including a plurality of target regions that overlap each other is detected as a collective region, so that a target population can be detected with high accuracy. Can do.

(3)画像処理装置10は、検出した集団領域の集団スコアを算出する(S15)。集団領域の検出は、画像処理に基づくものであるため、誤検出が生じ得るものであり、検出結果の信頼度は常に一定ではない。この点、本実施形態では、検出した集団領域の集団スコアを算出するようにしているため、検出結果の信頼度を客観的基準で評価することができる。   (3) The image processing apparatus 10 calculates a collective score of the detected collective region (S15). Since the detection of the collective region is based on image processing, erroneous detection may occur, and the reliability of the detection result is not always constant. In this regard, in the present embodiment, since the collective score of the detected collective region is calculated, the reliability of the detection result can be evaluated on an objective basis.

具体的には、集団領域に含まれる各ターゲット領域の判定に用いられたパーツのスコアの総和を、集団スコアとして算出するようにしているため、信頼度の高い集団スコアを簡易的に算出することができる。また、集団領域に含まれる各ターゲット領域の判定に用いられたパーツのバネコストに基づく値(例えば、バネコストのばらつき度合いを表す値)を、集団スコアとして算出しても、同様の効果を得ることができる。また、各パーツのスコアの総和に基づく値と、各パーツのバネコストに基づく値と、を加算した値を集団スコアとして算出してもよい。   Specifically, the total score of the parts used to determine each target area included in the collective area is calculated as a collective score, so a highly reliable collective score can be calculated easily. Can do. Further, even if a value based on the spring cost of the parts used for determining each target region included in the collective region (for example, a value indicating the degree of variation of the spring cost) is calculated as the collective score, the same effect can be obtained. it can. Further, a value obtained by adding a value based on the sum of scores of each part and a value based on the spring cost of each part may be calculated as a collective score.

(4)本実施形態の車両制御システムは、画像処理装置10により算出された集団領域の集団スコアに基づく制御として、車両の乗員への報知制御及び車両の衝突回避制御を行う車両制御装置20を備える。したがって、ターゲットの集団を車両の乗員へ報知したり、ターゲットの集団に対する衝突を回避したりすることができる。   (4) The vehicle control system according to the present embodiment includes a vehicle control device 20 that performs notification control for vehicle occupants and vehicle collision avoidance control as control based on the collective score of the collective region calculated by the image processing device 10. Prepare. Therefore, the target group can be notified to the vehicle occupant, and a collision with the target group can be avoided.

特に、車両制御装置20は、集団領域の集団スコアに応じて制御の内容を異ならせるようにしているため、画像処理装置10により検出された集団領域の信頼度に応じた制御を行うことができる。加えて、本実施形態では、集団スコアに基づく制御として、ターゲットまでの距離と集団スコアとに応じた制御を行うようにしているため、より適切な制御を実現することができる。   In particular, since the vehicle control device 20 is configured to vary the control content according to the collective score of the collective region, the vehicle control device 20 can perform control according to the reliability of the collective region detected by the image processing device 10. . In addition, in the present embodiment, as control based on the group score, control according to the distance to the target and the group score is performed, so that more appropriate control can be realized.

なお、上記実施形態では、記憶部60が記憶手段の一例に相当し、S12がパーツ検出手段としての処理の一例に相当する。また、S13,S14が集団検出手段としての処理の一例に相当し、特に、S14が統合手段としての処理の一例に相当し、S21,S29が設定手段としての処理の一例に相当し、S23がバネコスト算出手段としての処理の一例に相当し、S24,S25が判定手段としての処理の一例に相当する。また、集団スコアが評価値の一例に相当し、S15が評価値算出手段としての処理の一例に相当する。   In the above embodiment, the storage unit 60 corresponds to an example of a storage unit, and S12 corresponds to an example of a process as a part detection unit. Further, S13 and S14 correspond to an example of processing as a group detection unit, in particular, S14 corresponds to an example of processing as an integration unit, S21 and S29 correspond to an example of processing as a setting unit, and S23. This corresponds to an example of processing as a spring cost calculation unit, and S24 and S25 correspond to an example of processing as a determination unit. The group score corresponds to an example of an evaluation value, and S15 corresponds to an example of processing as an evaluation value calculation unit.

[4.他の実施形態]
以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限定されることなく、種々の形態を採り得ることは言うまでもない。
[4. Other Embodiments]
As mentioned above, although embodiment of this invention was described, it cannot be overemphasized that this invention can take a various form, without being limited to the said embodiment.

(1)上記実施形態では、スコアマップにおけるスコアが高く、かつ、バネモデルに基づくバネコストの小さいパーツ(高スコアかつ低バネコストのパーツ)が、所定数以上存在することを、ターゲットの集団が存在すると判定するための条件である集団条件としている。これは、形状及び位置のいずれにおいても信頼度の高いターゲットのパーツが、ある範囲内に多数存在する場合には、ターゲットの集団が存在する可能性が高いからである。ただし、上記実施形態の集団条件はあくまでも一例であり、これに限定されるものではない。   (1) In the above embodiment, it is determined that there is a target group when there are a predetermined number or more of parts having a high score in the score map and a low spring cost based on the spring model (parts having a high score and a low spring cost). It is a collective condition that is a condition for This is because there is a high possibility that a group of targets is present when there are a large number of target parts with high reliability within a certain range both in shape and position. However, the collective conditions in the above embodiment are merely examples, and the present invention is not limited to these.

例えば、高スコアかつ低バネコストのパーツが、所定数以上存在し、更に、これら複数のパーツのスコアが全体的に高いことを、集団条件としてもよい。具体的には、例えば上記実施形態のS24において、算出したバネコストがしきい値以下の高スコアパーツの数が一定数以上であり、かつ、これら高スコアパーツのスコアの総和が所定のしきい値以上であるか否かを判定し、肯定判定した場合に、S25へ移行して、現在の注目領域をターゲット領域として検出する。このようにすれば、ターゲットの集団が存在するか否かを判定する精度を向上させることができる。なお、複数のパーツのスコアが全体的に高いか否かは、複数のパーツのスコアの総和がしきい値以上であることに限定されるものではなく、例えば、複数のパーツのスコアの平均値がしきい値以上であることをもって評価してもよい。   For example, a collective condition may be that a predetermined number or more of high-score and low-spring cost parts exist, and that the scores of these parts are generally high. Specifically, for example, in S24 of the above embodiment, the number of high score parts whose calculated spring cost is less than or equal to a threshold value is a certain number or more, and the sum of the scores of these high score parts is a predetermined threshold value. If it is determined whether or not this is the case and an affirmative determination is made, the process proceeds to S25 to detect the current attention area as the target area. In this way, it is possible to improve the accuracy of determining whether or not a target group exists. Note that whether or not the score of a plurality of parts is generally high is not limited to the sum of scores of a plurality of parts being equal to or greater than a threshold value. For example, the average value of the scores of a plurality of parts It may be evaluated that is equal to or greater than a threshold value.

(2)また、例えば、高スコアかつ低バネコストのパーツが、所定数以上存在し、更に、それら複数のパーツのバネコストのばらつきが小さいことを、集団条件としてもよい。具体的には、例えば上記実施形態のS24において、算出したバネコストがしきい値以下の高スコアパーツの数が一定数以上であり、かつ、これら高スコアパーツのバネコストのばらつき度合いが所定範囲内であるか否かを判定し、肯定判定した場合に、S25へ移行して、現在の注目領域をターゲット領域として検出する。ここで、バネコストのばらつき度合いを表す値は、バネコストの平均値及び分散値として算出することができる。例えば、高スコアかつ低バネコストの複数のパーツのバネコストの平均値が一定範囲内で、かつ、それら複数のパーツのバネコストの分散値が一定範囲内の場合に、ターゲットの集団が存在すると判定する。このようにすれば、ターゲットの集団が存在するか否かを判定する精度を向上させることができる。   (2) Further, for example, it may be set as a collective condition that there are a predetermined number or more of high score and low spring cost parts, and that the variation of the spring cost of the plurality of parts is small. Specifically, for example, in S24 of the above embodiment, the number of high score parts whose calculated spring cost is equal to or less than a threshold value is equal to or greater than a certain number, and the variation degree of the spring cost of these high score parts is within a predetermined range. When it is determined whether or not there is an affirmative determination, the process proceeds to S25 to detect the current attention area as the target area. Here, the value indicating the variation degree of the spring cost can be calculated as an average value and a variance value of the spring cost. For example, when the average value of the spring cost of a plurality of parts having a high score and a low spring cost is within a certain range, and the variance of the spring cost of the plurality of parts is within a certain range, it is determined that a target group exists. In this way, it is possible to improve the accuracy of determining whether or not a target group exists.

(3)上記実施形態では、バネコストを、単にバネモデルに基づく基準位置からのずれを表す値として定義したが、これに限定されるものではない。例えば、パーツのバネコストを算出する場合に、算出対象のパーツとは異なる種類の他のパーツであって、算出対象のパーツとの位置関係が同一のターゲットにおける位置関係として適正であると判定される他のパーツが存在する場合には、当該他のパーツが存在しない場合と比較して、バネコストを低く算出してもよい。具体的には、図10に示す例では、頭パーツHP1は、その頭パーツを基準とする適正な位置(バネモデルに基づく位置であり、詳細にはその位置を基準とする所定範囲内)に、左腕パーツLP1及び右腕パーツRP1が存在するため、バネコストを下げる。同様に、頭パーツHP2も、その頭パーツを基準とする適正な位置に、左腕パーツLP2及び右腕パーツRP2が存在するため、バネコストを下げる。その結果、他の頭パーツHP3,HP4,HP5のバネコストが相対的に高くなり、誤検出が抑制され、判定精度を向上させることができる。   (3) In the above embodiment, the spring cost is simply defined as a value representing a deviation from the reference position based on the spring model, but is not limited to this. For example, when calculating the spring cost of a part, it is determined that another part of a different type from the part to be calculated and the positional relation with the part to be calculated is appropriate as the positional relation in the same target When other parts are present, the spring cost may be calculated lower than when the other parts are not present. Specifically, in the example shown in FIG. 10, the head part HP1 is at an appropriate position based on the head part (a position based on the spring model, specifically, within a predetermined range based on the position). Since the left arm part LP1 and the right arm part RP1 exist, the spring cost is reduced. Similarly, the head part HP2 also has a left arm part LP2 and a right arm part RP2 at appropriate positions with respect to the head part, so that the spring cost is reduced. As a result, the spring costs of the other head parts HP3, HP4, and HP5 are relatively high, erroneous detection is suppressed, and determination accuracy can be improved.

(4)また、例えば、パーツのバネコストを算出する場合に、算出対象のパーツと同一種類の他のパーツであって、算出対象のパーツとの位置関係が、集団を構成する他のターゲットが有するパーツとの位置関係として適正である(例えば、集団に特有の周期性を満たす)と判定される他のパーツが存在する場合には、当該他のパーツが存在しない場合と比較して、バネコストを低く算出してもよい。例えば、複数のターゲットが横方向に並んでいる場合、ターゲットの各パーツは、横方向に一定の周期性を持って(例えばターゲットの横幅相当の周期で)存在する可能性が高いため、そのような位置に存在するパーツのバネコストを下げる。図11に示す例では、頭の基準位置BPに対して、注目領域FRの横幅(ターゲットの肩幅)分に左右にシフトした位置SP1,SP2を設定し、その位置SP1,SP2(詳細には、その位置を基準とする所定範囲内)に存在する頭パーツHP1,HP2のバネコストを下げる。その結果、他の頭パーツHP3,HP4,HP5のバネコストが相対的に高くなり、誤検出が抑制され、判定精度を向上させることができる。   (4) Also, for example, when calculating the spring cost of a part, other parts of the same type as the part to be calculated and the positional relationship with the part to be calculated have other targets constituting the group If there is another part that is determined to be appropriate as a positional relationship with the part (for example, satisfying the periodicity peculiar to the group), the spring cost is reduced compared to the case where the other part does not exist. You may calculate low. For example, when a plurality of targets are arranged in the horizontal direction, each part of the target is likely to exist with a certain periodicity in the horizontal direction (for example, with a period corresponding to the horizontal width of the target). Lower the spring cost of parts that exist in different locations. In the example shown in FIG. 11, positions SP1 and SP2 shifted to the left and right by the width of the attention area FR (the shoulder width of the target) are set with respect to the head reference position BP, and the positions SP1 and SP2 The spring cost of the head parts HP1 and HP2 existing within a predetermined range based on the position is reduced. As a result, the spring costs of the other head parts HP3, HP4, and HP5 are relatively high, erroneous detection is suppressed, and determination accuracy can be improved.

(5)上記実施形態では、注目領域ごとに、バネコストが一定範囲内の高スコアパーツが一定数以上存在する場合に、その注目領域を、ターゲット領域として検出したが、これに限定されるものではない。例えば図12に示すように、バネコストが所定範囲内の同一種類の複数の高スコアパーツHPと、注目領域FRと、を包含する領域(例えば外接矩形)を、ターゲット領域TRとして判定してもよい。その後は、前述したように(図7)、パーツの種類ごとに検出したターゲット領域TRを、その位置に応じて統合(グループ化)し、グループに属するターゲット領域TRの外接矩形を、ターゲットの集団が存在する領域である集団領域GRとして検出する。このようにすれば、高スコアパーツの位置が加味されたターゲット領域を検出することができる。   (5) In the above embodiment, when there are a certain number or more of high score parts having a spring cost within a certain range for each region of interest, the region of interest is detected as a target region. However, the present invention is not limited to this. Absent. For example, as shown in FIG. 12, a region (for example, a circumscribed rectangle) including a plurality of high score parts HP of the same type within a predetermined range and the attention region FR may be determined as the target region TR. . Thereafter, as described above (FIG. 7), the target regions TR detected for each type of parts are integrated (grouped) according to the position, and the circumscribed rectangles of the target regions TR belonging to the group are converted into target groups. Is detected as a collective region GR, which is a region where is present. In this way, it is possible to detect the target area in which the position of the high score part is taken into account.

(6)上記実施形態では、注目領域を画像上の各位置(画像全域)に順に移動させるようにしているが、これに限定されるものではない。例えば、ターゲットの身体全体のモデルによって画像をスキャンして各位置でマッチングをとり、スコアが高い領域を事前に検出した上で、注目領域を設定すべき位置を絞り込むようにしてもよい。このようにすれば、ターゲット領域を検出するための処理負荷を低減することができる。   (6) In the above embodiment, the attention area is sequentially moved to each position on the image (entire image area), but the present invention is not limited to this. For example, an image may be scanned with a model of the entire target body, matching may be performed at each position, and a region having a high score may be detected in advance, and then a position where an attention region should be set may be narrowed down. In this way, the processing load for detecting the target area can be reduced.

(7)上記実施形態では、車両前方の物体までの距離を検知する測距装置31を備えた構成を例示したが、物体までの距離は、画像に基づき推測が可能であるため、必ずしも測距装置31を設ける必要はない。例えば、画像におけるターゲット領域の下端位置(ターゲットの足下の位置)に基づいて、そのターゲットまでの距離を推測することができる。ただし、測距装置31を備えた構成によれば、物体までの距離を精度よく検出することができ、より高精度の車両制御が可能となるという利点がある。   (7) In the above embodiment, the configuration including the distance measuring device 31 that detects the distance to the object in front of the vehicle is exemplified. However, since the distance to the object can be estimated based on the image, the distance measurement is not necessarily performed. There is no need to provide the device 31. For example, the distance to the target can be estimated based on the lower end position of the target area in the image (the position of the target's feet). However, according to the configuration provided with the distance measuring device 31, there is an advantage that the distance to the object can be detected with high accuracy, and vehicle control with higher accuracy is possible.

(8)上記実施形態では、ターゲットのパーツとして、頭、左腕、右腕、胴、左脚及び右脚のパーツを例示したが、パーツの数や、パーツとする部分など、上記実施形態に限定されるものではない。また、ターゲットは歩行者に限定されるものではなく、例えば、車両をターゲットとしてもよい。   (8) In the above embodiment, the parts of the head, left arm, right arm, torso, left leg and right leg are exemplified as the target parts. However, the number of parts and the parts to be used are limited to the above embodiment. It is not something. Moreover, a target is not limited to a pedestrian, For example, it is good also considering a vehicle as a target.

(9)上記実施形態では、車両前方を撮像した画像からターゲットを検出するようにしているが、これに限定されるものではなく、例えば、車両の側方や後方を撮像した画像からターゲットを検出してもよい。また、車両以外で撮像した画像からターゲットを検出してもよい。   (9) In the above embodiment, the target is detected from an image obtained by imaging the front of the vehicle. However, the present invention is not limited to this. For example, the target is detected from an image obtained by imaging the side and rear of the vehicle. May be. Moreover, you may detect a target from the image imaged other than the vehicle.

(10)上記実施形態の各構成要素が有する機能は、ハードウェアに代えてソフトウェアで実現してもよく、ソフトウェアに代えてハードウェアで実現してもよく、ハードウェア及びソフトウェアの組合せで実現してもよい。また、各構成要素は概念的なものであり、上記実施形態に限定されない。例えば、1つの構成要素が有する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてもよい。また、上記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。   (10) The function of each component of the above embodiment may be realized by software instead of hardware, may be realized by hardware instead of software, or realized by a combination of hardware and software. May be. Each component is conceptual and is not limited to the above embodiment. For example, the functions of one component may be distributed to a plurality of components, or the functions of a plurality of components may be integrated into one component. Further, at least a part of the configuration of the above embodiment may be replaced with a known configuration having the same function.

(11)上記実施形態は、本発明が適用された実施形態の一例に過ぎない。本発明は、システム、装置、方法、プログラム、プログラムを記録した記録媒体(CD−ROMやDVD等の光ディスク、磁気ディスク、半導体製メモリ等)、などの種々の形態で実現することができる。   (11) The above embodiment is merely an example of an embodiment to which the present invention is applied. The present invention can be realized in various forms such as a system, an apparatus, a method, a program, and a recording medium on which the program is recorded (an optical disc such as a CD-ROM or DVD, a magnetic disc, a semiconductor memory, etc.).

10…画像処理装置、20…車両制御装置、31…測距装置、32…撮像装置、41…スピーカ、42…ブレーキ、43…ステアリング、50…制御部、51…ターゲット集団検出部、52…衝突危険度判定部、60…記憶部、70…報知制御部、80…車両制御部   DESCRIPTION OF SYMBOLS 10 ... Image processing device, 20 ... Vehicle control device, 31 ... Distance measuring device, 32 ... Imaging device, 41 ... Speaker, 42 ... Brake, 43 ... Steering, 50 ... Control part, 51 ... Target group detection part, 52 ... Collision Risk determination unit, 60 ... storage unit, 70 ... notification control unit, 80 ... vehicle control unit

Claims (15)

撮像装置(32)により撮像された画像を入力し、前記画像においてターゲットを検出するための画像処理を行う画像処理装置(10)であって、
前記ターゲットが有する複数種類のパーツを前記画像において識別するためのパーツモデルと、前記ターゲットにおける複数種類の前記パーツの基準位置及びその基準位置に対するパーツの位置に応じたバネコストを表すバネモデルと、を記憶する記憶手段(60)と、
前記パーツモデルを用いたマッチング処理により算出される類似度に基づいて、前記画像において前記パーツを検出するパーツ検出手段(S12)と、
前記パーツ検出手段により検出された前記パーツに基づいて、前記画像において前記ターゲットの集団を検出する集団検出手段(S13,S14)と、
を備え、
前記集団検出手段は、
前記ターゲットの存否を判定するための注目領域を、前記画像における複数の位置に順次設定する設定手段(S21,S29)と、
前記注目領域に前記ターゲットが存在すると仮定した場合の前記基準位置を前記バネモデルに基づいて設定し、前記基準位置からのずれの度合いを表す値であるバネコストを、前記パーツ検出手段により検出された前記パーツのそれぞれについて算出するバネコスト算出手段(S23)と、
前記バネコスト算出手段により算出された前記バネコストが所定範囲内の同一種類の前記パーツが複数存在することを条件として、前記注目領域を、集団を構成する前記ターゲットが存在するターゲット領域として判定する判定手段(S24,S25)と、
を備えることを特徴とする画像処理装置。
An image processing apparatus (10) for inputting an image captured by an imaging apparatus (32) and performing image processing for detecting a target in the image,
A part model for identifying a plurality of types of parts possessed by the target in the image, and a spring model representing a reference position of the plurality of types of the part on the target and a spring cost corresponding to the position of the part relative to the reference position are stored. Storage means (60) for
Parts detection means (S12) for detecting the parts in the image based on the similarity calculated by the matching process using the parts model;
Group detection means (S13, S14) for detecting the target group in the image based on the parts detected by the parts detection means;
With
The group detection means includes
Setting means (S21, S29) for sequentially setting a region of interest for determining the presence or absence of the target at a plurality of positions in the image;
The reference position when the target is assumed to be present in the region of interest is set based on the spring model, and a spring cost that is a value representing the degree of deviation from the reference position is detected by the parts detection unit. Spring cost calculating means (S23) for calculating each of the parts;
Determining means for determining the region of interest as a target region where the target constituting the group exists, on condition that there are a plurality of parts of the same type within a predetermined range in which the spring cost calculated by the spring cost calculating unit (S24, S25),
An image processing apparatus comprising:
請求項1に記載の画像処理装置であって、
前記判定手段は、前記バネコストが所定範囲内の同一種類の複数の前記パーツについて、前記バネコストのばらつき度合いを表す値を算出し、算出した値が所定範囲内であることを条件として、前記注目領域を前記ターゲット領域として判定する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The determination means calculates a value representing a variation degree of the spring cost for the plurality of parts of the same type whose spring cost is within a predetermined range, and the region of interest is on condition that the calculated value is within the predetermined range. Is determined as the target region.
請求項2に記載の画像処理装置であって、
前記判定手段は、前記バネコストのばらつき度合いを表す値として、前記バネコストの平均値及び分散値のうち少なくとも一方を用いた値を算出する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The determination unit calculates a value using at least one of an average value and a variance value of the spring cost as a value representing a degree of variation of the spring cost.
請求項1から請求項3までのいずれか1項に記載の画像処理装置であって、
前記判定手段は、前記バネコストが所定範囲内の同一種類の複数の前記パーツについて、前記類似度の総和を算出し、算出した総和が所定のしきい値以上であることを条件として、前記注目領域を前記ターゲット領域として判定する
ことを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 1 to 3, wherein
The determination means calculates the sum of the similarities for the plurality of parts of the same type whose spring cost is within a predetermined range, and the region of interest is on condition that the calculated sum is equal to or greater than a predetermined threshold value. Is determined as the target region.
請求項1から請求項4に記載の画像処理装置であって、
前記バネコスト算出手段は、前記パーツの前記バネコストを算出する場合に、算出対象の前記パーツとは異なる種類の他の前記パーツであって、算出対象の前記パーツとの位置関係が同一の前記ターゲットにおける位置関係として適正であると判定される他の前記パーツが存在する場合には、当該他の前記パーツが存在しない場合と比較して、前記バネコストを低く算出する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1, wherein:
When calculating the spring cost of the part, the spring cost calculation unit is another part of the type different from the part to be calculated, and the positional relationship with the part to be calculated is the same in the target The image processing apparatus, wherein when there is another part determined to be appropriate as a positional relationship, the spring cost is calculated lower than when the other part does not exist.
請求項1から請求項5に記載の画像処理装置であって、
前記バネコスト算出手段は、前記パーツの前記バネコストを算出する場合に、算出対象の前記パーツと同一種類の他の前記パーツであって、算出対象の前記パーツとの位置関係が、集団を構成する他の前記ターゲットが有する前記パーツとの位置関係として適正であると判定される他の前記パーツが存在する場合には、当該他の前記パーツが存在しない場合と比較して、前記バネコストを低く算出する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1, wherein:
When calculating the spring cost of the part, the spring cost calculation means is another part of the same type as the part to be calculated, and the positional relationship with the part to be calculated constitutes a group When there is another part that is determined to be appropriate as the positional relationship with the part of the target, the spring cost is calculated lower than when the other part is not present. An image processing apparatus.
請求項1から請求項6までのいずれか1項に記載の画像処理装置であって、
前記パーツ検出手段は、前記画像における複数の部分領域について前記類似度を算出し、前記類似度が所定のしきい値以上の前記部分領域を前記パーツモデルの表す前記パーツとして検出する
ことを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 1 to 6, wherein
The part detection means calculates the similarity for a plurality of partial areas in the image, and detects the partial area having the similarity equal to or higher than a predetermined threshold as the part represented by the part model. An image processing apparatus.
請求項1から請求項7までのいずれか1項に記載の画像処理装置であって、
前記判定手段は、前記バネコストが所定範囲内の同一種類の複数の前記パーツと、前記注目領域と、を包含する領域を、前記ターゲット領域として判定する
ことを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 1 to 7,
The image processing apparatus according to claim 1, wherein the determination unit determines, as the target area, an area including the plurality of parts of the same type whose spring cost is within a predetermined range and the attention area.
請求項1から請求項8までのいずれか1項に記載の画像処理装置であって、
前記集団検出手段は、前記判定手段により前記パーツの種類ごとに判定された前記ターゲット領域を統合し、前記ターゲットの集団が存在する集団領域を検出する統合手段(S14)を更に備える
ことを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 1 to 8, wherein
The group detection means further comprises integration means (S14) for integrating the target areas determined for each type of part by the determination means and detecting a group area where the target group exists. An image processing apparatus.
請求項9に記載の画像処理装置であって、
前記統合手段は、互いに重なり合う複数の前記ターゲット領域を包含する領域を、前記集団領域として検出する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 9,
The image processing apparatus characterized in that the integration unit detects, as the collective region, a region including a plurality of the target regions that overlap each other.
請求項10に記載の画像処理装置であって、
前記統合手段は、前記撮像装置からの距離に応じて分類されるグループごとに、互いに重なり合う複数の前記ターゲット領域を包含する領域を、前記集団領域として検出する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 10,
The integration unit detects, as the collective region, a region including a plurality of target regions that overlap each other for each group classified according to a distance from the imaging device.
請求項9から請求項11までのいずれか1項に記載の画像処理装置であって、
前記集団検出手段により検出された前記集団領域の評価値を算出する評価値算出手段(S15)を更に備える
ことを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 9 to 11,
An image processing apparatus, further comprising: an evaluation value calculation unit (S15) that calculates an evaluation value of the group region detected by the group detection unit.
請求項12に記載の画像処理装置であって、
前記評価値算出手段は、前記集団領域に含まれる前記ターゲット領域の判定に用いられた前記パーツの前記類似度の総和に基づいて、前記評価値を算出する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 12,
The image processing apparatus, wherein the evaluation value calculation means calculates the evaluation value based on a sum of the similarities of the parts used for determining the target area included in the collective area.
車両に搭載された撮像装置により撮像された画像を入力する請求項12又は請求項13に記載の画像処理装置と、
前記画像処理装置により算出された前記集団領域の評価値に基づく制御として、前記車両の乗員への報知制御、及び、前記車両の衝突回避制御、のうち少なくとも一方を行う車両制御装置(20)と、
を備えることを特徴とする車両制御システム。
The image processing apparatus according to claim 12 or 13, which inputs an image captured by an imaging apparatus mounted on a vehicle,
A vehicle control device (20) that performs at least one of notification control to the vehicle occupant and collision avoidance control of the vehicle as control based on the evaluation value of the collective region calculated by the image processing device; ,
A vehicle control system comprising:
請求項14に記載の車両制御システムであって、
前記車両制御装置は、前記集団領域の評価値に応じて前記制御の内容を異ならせる
ことを特徴とする車両制御システム。
The vehicle control system according to claim 14,
The vehicle control system varies the contents of the control according to an evaluation value of the collective region.
JP2012206981A 2012-09-20 2012-09-20 Image processing apparatus and vehicle control system Expired - Fee Related JP5838940B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012206981A JP5838940B2 (en) 2012-09-20 2012-09-20 Image processing apparatus and vehicle control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012206981A JP5838940B2 (en) 2012-09-20 2012-09-20 Image processing apparatus and vehicle control system

Publications (2)

Publication Number Publication Date
JP2014063273A JP2014063273A (en) 2014-04-10
JP5838940B2 true JP5838940B2 (en) 2016-01-06

Family

ID=50618469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012206981A Expired - Fee Related JP5838940B2 (en) 2012-09-20 2012-09-20 Image processing apparatus and vehicle control system

Country Status (1)

Country Link
JP (1) JP5838940B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6325927B2 (en) * 2014-07-18 2018-05-16 日立オートモティブシステムズ株式会社 Object detection apparatus and vehicle control system using the same
EP3236419A4 (en) * 2015-09-25 2018-07-18 Hitachi Information & Telecommunication Engineering, Ltd. Image processing device and image processing method
WO2018051399A1 (en) 2016-09-13 2018-03-22 株式会社日立情報通信エンジニアリング State prediction device and state prediction method
WO2018220673A1 (en) 2017-05-29 2018-12-06 株式会社日立情報通信エンジニアリング State prediction control device and state prediction control method
US20220284702A1 (en) * 2019-08-20 2022-09-08 Nippon Telegraph And Telephone Corporation Estimation program, estimation device, generation method of detection model, learning method, and learning device
SG10202003027QA (en) * 2020-04-01 2020-10-29 Sensetime Int Pte Ltd Image recognition method, apparatus, and storage medium
CN117561468A (en) * 2021-06-29 2024-02-13 佳能株式会社 Optical system, image pickup apparatus, and image pickup system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007188417A (en) * 2006-01-16 2007-07-26 Fujitsu Ten Ltd Image recognition device, image recognition method, and image recognition program
JP4203512B2 (en) * 2006-06-16 2009-01-07 本田技研工業株式会社 Vehicle periphery monitoring device
JP4765075B2 (en) * 2006-09-04 2011-09-07 国立大学法人九州工業大学 Object position and orientation recognition system using stereo image and program for executing object position and orientation recognition method

Also Published As

Publication number Publication date
JP2014063273A (en) 2014-04-10

Similar Documents

Publication Publication Date Title
JP5838940B2 (en) Image processing apparatus and vehicle control system
JP5786947B2 (en) Pedestrian behavior prediction apparatus and pedestrian behavior prediction method
JP7025912B2 (en) In-vehicle environment recognition device
JP5197679B2 (en) Object detection apparatus and program
JP4708124B2 (en) Image processing device
US7817848B2 (en) Apparatus, method, and computer product for discriminating object
JP5737397B2 (en) Pedestrian motion prediction device
JP5407898B2 (en) Object detection apparatus and program
JP2008021035A (en) Image recognition device, image recognition method, and vehicle control device
US20130010112A1 (en) Object detection apparatus and storage medium storing object detection program
WO2013042206A1 (en) Subject change detection device and subject change detection method
JP2017222309A (en) Parking support method and apparatus
JP2013225295A (en) Collision warning system taking azimuth information into consideration
US20140002658A1 (en) Overtaking vehicle warning system and overtaking vehicle warning method
CN111497741B (en) Collision early warning method and device
JP2012221162A (en) Object detection device and program
JP2012123642A (en) Image identifying device and program
JP5780249B2 (en) Image processing apparatus and vehicle control system using the image processing apparatus
JP6523196B2 (en) Estimation apparatus, method and program
JP2016015043A (en) Object recognition device
KR20180047149A (en) Apparatus and method for risk alarming of collision
JP2012118683A (en) Pedestrian recognition device
JP2010072947A (en) Obstacle detection device
JP5345999B2 (en) Lane mark recognition device
JP4788399B2 (en) Pedestrian detection method, apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151026

R151 Written notification of patent or utility model registration

Ref document number: 5838940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees