JP5838940B2 - Image processing apparatus and vehicle control system - Google Patents
Image processing apparatus and vehicle control system Download PDFInfo
- Publication number
- JP5838940B2 JP5838940B2 JP2012206981A JP2012206981A JP5838940B2 JP 5838940 B2 JP5838940 B2 JP 5838940B2 JP 2012206981 A JP2012206981 A JP 2012206981A JP 2012206981 A JP2012206981 A JP 2012206981A JP 5838940 B2 JP5838940 B2 JP 5838940B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- image processing
- processing apparatus
- parts
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本発明は、撮像された画像においてターゲットを検出するための画像処理の技術に関する。 The present invention relates to an image processing technique for detecting a target in a captured image.
従来、例えば車両に搭載されたカメラにより撮像された画像において、歩行者等のターゲット(対象物)を検出(識別)するための画像処理の技術が知られている。この種の画像処理の代表的な手法は、機械学習によってあらかじめ得られたターゲットのモデルを用い、画像をスキャンして各位置でマッチングをとることによりターゲットを識別するというものである。ここで、ターゲットのモデルとは、ターゲットの様々な状態(例えば人の場合、服装・向き・姿勢等)の画像を多数収集し、これらを用いて学習することで得られる代表パターンである。 2. Description of the Related Art Conventionally, for example, an image processing technique for detecting (identifying) a target (object) such as a pedestrian in an image captured by a camera mounted on a vehicle is known. A typical method of this type of image processing is to identify a target by using a target model obtained in advance by machine learning, scanning the image, and performing matching at each position. Here, the target model is a representative pattern obtained by collecting a large number of images of various states of the target (for example, in the case of a person, clothes, orientation, posture, etc.) and learning them.
ただし、ターゲットは、その状態によって見え方が大きく変動する。例えば人の場合、立ち止まっている状態、歩いている状態、走っている状態など、各状態で手足の位置などが異なる。このため、従来の単純な学習モデルだけでは識別性能が低く、このようなターゲットの見え方の変化に頑強な識別器を構成することが求められる。 However, the appearance of the target varies greatly depending on its state. For example, in the case of a person, the positions of limbs and the like differ in each state, such as a stationary state, a walking state, and a running state. For this reason, it is required to construct a discriminator that is low in discrimination performance only with a conventional simple learning model and is robust against such changes in target appearance.
そこで、従来のターゲット全体のモデルとともに、ターゲットが有する特徴的なパーツ(例えば人であれば、頭・腕・胴・脚といったパーツ)を別途学習し、パーツの位置関係(バネモデル)を考慮した識別を行う技術が提案されている。ここで、バネモデル(DPM:Deformable Part Model)とは、全体モデルに対する各パーツの基準位置と、その基準位置に対するパーツの位置に応じた値(バネコスト)と、を規定したものである。具体的には、バネモデルでは、基準位置からのパーツのずれが大きいほどバネコスト(ペナルティ)が増加するように規定されており、バネコストに基づいてパーツの位置を評価することができる。逆にいえば、基準位置からの位置が多少ずれていたとしても、パーツの形状がモデルに似ていれば許容されるような判定が可能であり、パーツの位置がある程度変わっても柔軟に識別することができる。 Therefore, together with the conventional model of the entire target, distinctive parts of the target (for example, parts such as head, arms, torso, and legs for humans) are separately learned, and identification taking into account the positional relationship (spring model) of the parts A technique for performing the above has been proposed. Here, the spring model (DPM: Deformable Part Model) defines a reference position of each part with respect to the entire model and a value (spring cost) corresponding to the position of the part with respect to the reference position. Specifically, in the spring model, it is defined that the spring cost (penalty) increases as the deviation of the part from the reference position increases, and the position of the part can be evaluated based on the spring cost. In other words, even if the position is slightly different from the reference position, it can be determined that the part shape is similar to the model, and it can be identified flexibly even if the position of the part changes to some extent. can do.
ところで、複数のターゲットが集団を構成している状態においては、手前のターゲットは検出されるものの、奥(後ろ側)のターゲットは、手前のターゲットにより部分的に隠れることにより、検出されにくくなるという問題がある。例えば、歩行者の集団においては、カメラに向かって一番手前の歩行者は検出されるが、その歩行者の後ろに隠れた歩行者は、身体の一部(パーツ)が手前の歩行者の身体によって隠れることにより、そのパーツのスコアが低下するため、歩行者として検出されにくくなる。なお、このような問題は、歩行者に限られるものではなく、他のターゲットについても同様に生じ得る。 By the way, in a state in which a plurality of targets constitute a group, the front target is detected, but the back (rear) target is partially hidden by the front target, so that it is difficult to detect. There's a problem. For example, in the group of pedestrians, the pedestrian closest to the camera is detected, but the pedestrian hidden behind the pedestrian is a part of the body of the pedestrian in front. By hiding by the body, the score of the part decreases, so that it becomes difficult to be detected as a pedestrian. Note that such a problem is not limited to pedestrians, and may occur similarly for other targets.
本発明は、こうした問題にかんがみてなされたものであり、ターゲットの集団を精度よく検出可能とするための技術を提供することを目的としている。 The present invention has been made in view of these problems, and an object of the present invention is to provide a technique for enabling a target population to be detected with high accuracy.
本発明の画像処理装置(10)は、撮像装置(32)により撮像された画像を入力し、その画像においてターゲットを検出するための画像処理を行うものであり、記憶手段(60)と、パーツ検出手段(S12)と、集団検出手段(S13,S14)と、を備える。 The image processing apparatus (10) of the present invention inputs an image picked up by the image pickup apparatus (32) and performs image processing for detecting a target in the image. The storage means (60) and parts Detection means (S12) and group detection means (S13, S14) are provided.
記憶手段は、ターゲットが有する複数種類のパーツを画像において識別するためのパーツモデルと、ターゲットにおける複数種類のパーツの基準位置及びその基準位置に対するパーツの位置に応じたバネコストを表すバネモデルと、を記憶する。そして、パーツ検出手段が、パーツモデルを用いたマッチング処理により算出される類似度に基づいて、画像においてパーツを検出する。さらに、集団検出手段が、パーツ検出手段により検出されたパーツに基づいて、画像においてターゲットの集団を検出する。 The storage means stores a part model for identifying a plurality of types of parts of the target in the image, and a spring model representing a reference position of the plurality of types of parts on the target and a spring cost corresponding to the position of the part relative to the reference position. To do. And a part detection means detects parts in an image based on the similarity calculated by the matching process using a parts model. Further, the group detection unit detects a group of targets in the image based on the parts detected by the part detection unit.
具体的には、集団検出手段は、設定手段(S21,S29)と、バネコスト算出手段(S23)と、判定手段(S24,S25)と、を備える。設定手段は、ターゲットの存否を判定するための注目領域を、画像における複数の位置に順次設定する。そして、バネコスト算出手段が、注目領域にターゲットが存在すると仮定した場合のパーツの基準位置をバネモデルに基づいて設定し、基準位置からのずれの度合いを表す値であるバネコストを、パーツ検出手段により検出されたパーツのそれぞれについて算出する。さらに、判定手段が、バネコスト算出手段により算出されたバネコストが所定範囲内の同一種類のパーツが複数存在することを条件として、注目領域を、集団を構成するターゲットが存在するターゲット領域として判定する。 Specifically, the group detection means includes setting means (S21, S29), spring cost calculation means (S23), and determination means (S24, S25). The setting means sequentially sets attention areas for determining whether or not the target exists at a plurality of positions in the image. Then, the spring cost calculation means sets the reference position of the part when it is assumed that the target is present in the attention area based on the spring model, and the spring cost that is a value indicating the degree of deviation from the reference position is detected by the part detection means. Calculate for each of the parts. Further, the determination means determines the attention area as the target area where the targets constituting the group exist on the condition that there are a plurality of parts of the same type whose spring cost calculated by the spring cost calculation means is within a predetermined range.
つまり、同一種類のパーツが複数集まっている場合には、ターゲットの集団が存在する可能性が高いと考えられるため、注目領域に基づき定められる基準位置からのずれの度合いが小さい同一種類のパーツが複数存在することを条件として、集団を構成するターゲットがその注目領域に存在すると判定する。このような判定手法によれば、手前のターゲットにより一部が隠れた奥のターゲットについても、集団を構成するターゲットとして検出されやすくすることが可能となる。したがって、集団を構成する個々のターゲットを独立して検出する場合と比較して、ターゲットの集団を精度よく検出可能とすることができる。 In other words, when multiple parts of the same type are gathered, it is considered that there is a high possibility that a target group exists.Therefore, there are parts of the same type that have a small degree of deviation from the reference position determined based on the attention area. On the condition that there are a plurality, it is determined that the target constituting the group exists in the attention area. According to such a determination method, it is possible to make it easier to detect a target in the back that is partially hidden by the target in front as a target constituting the group. Therefore, the target group can be detected with higher accuracy than the case where individual targets constituting the group are detected independently.
なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。 In addition, the code | symbol in the parenthesis described in this column and a claim shows the correspondence with the specific means as described in embodiment mentioned later as one aspect, Comprising: The technical scope of this invention is shown. It is not limited.
以下、本発明が適用された実施形態について、図面を用いて説明する。
[1.構成]
図1に示すように、本実施形態の車両制御システムは、車両に搭載された画像処理装置10及び車両制御装置20を中心に構成されている。画像処理装置10には、車両に搭載された測距装置31及び撮像装置32が接続されている。また、車両制御装置20には、車両に搭載されたスピーカ41、ブレーキ42及びステアリング43が接続されている。
Embodiments to which the present invention is applied will be described below with reference to the drawings.
[1. Constitution]
As shown in FIG. 1, the vehicle control system of the present embodiment is configured with an
画像処理装置10及び車両制御装置20は、いわゆるコンピュータとして構成されている。これにより、画像処理装置10では、撮像装置32から入力した画像(撮像画像)においてターゲット(本実施形態では歩行者)を検出し、測距装置31による距離情報に基づき、衝突危険度を判定する。これに対し、車両制御装置20は、画像処理装置10から出力される衝突危険度に応じて、スピーカ41による報知を行ったり、緊急度合が大きい場合には、ブレーキ42及びステアリング43による回避制御を行ったりする。
The
次に、各部の構成について具体的に説明する。
測距装置31は、レーザレーダなどとして具現化される。もちろん、ミリ波レーダなどの別の構成を用いてもよい。この測距装置31により、車両前方の物体までの距離を検知することが可能となる。
Next, the configuration of each unit will be specifically described.
The distance measuring
撮像装置32は、単眼カメラなどとして具現化される。この撮像装置32により、車両前方が撮像される。画像処理装置10では、前述したように、この画像においてターゲットを検出する。
The
スピーカ41は、音声出力のための構成である。ターゲットとの衝突危険度が大きくなると、このスピーカ41を介して「前方に注意してください」などの音声が出力される。
ブレーキ42は、ブレーキの駆動装置を含み、車両制御装置20からの信号によって、車両を減速させる。また、ステアリング43は、EPS(Electric Power Steering)装置を含み、車両制御装置20からの信号によって運転者の操舵をアシストする。このような車両制御が行われるのは、ターゲットとの衝突危険度がさらに大きくなった場合であり、緊急度合の大きい場合である。
The
The brake 42 includes a brake driving device, and decelerates the vehicle by a signal from the
画像処理装置10は、制御部50及び記憶部60を有している。制御部50は、いわゆるマイコン(マイクロコンピュータ)として具現化される。制御部50は、機能ブロックとして、ターゲット集団検出部51及び衝突危険度判定部52を具備する。また、記憶部60は、例えばROMなどとして具現化される。もちろん、ROM以外のフラッシュメモリやHDDなどを用いてもよい。記憶部60には、パーツモデルと、バネモデルと、衝突危険度判定テーブルと、が記憶されている。
The
ここでターゲット集団検出部51は、撮像装置32から出力される画像においてターゲットを検出するための画像処理を行う。具体的には後述するが、画像をスキャンすることで、ターゲットが有する複数種類のパーツを検出し、検出されたパーツに基づいてターゲットの集団の存在とその位置を推定する。
Here, the target
衝突危険度判定部52は、ターゲットが検出された後、当該ターゲットまでの距離が測距装置31にて分かるため、当該ターゲットとの距離に応じて衝突危険度を判定する。この衝突危険度は、車両制御装置20へ出力される。
Since the distance to the target is known by the
記憶部60に記憶されているパーツモデルは、ターゲットが有する複数種類のパーツをモデル化したものであり、ターゲットの各パーツを画像において識別するために用いられる。パーツモデルは、例えば、輪郭情報等の各パーツの特徴を表現する特徴ベクトルとして表される。本実施形態では、歩行者が有する複数種類のパーツである、頭、左腕、右腕、胴、左脚及び右脚のそれぞれに対応するパーツモデルが用いられる。
The part model stored in the
記憶部60に記憶されているバネモデルは、ターゲットにおける複数種類のパーツ(頭、左腕、右腕、胴、左脚及び右脚)の位置関係をモデル化したものであり、ターゲットにおける各パーツの基準位置と、その基準位置に対するパーツの位置に応じた値(バネコスト)を表す。このようなバネモデルを用いることで、パーツモデルにより検出されたパーツの基準位置からのずれを、バネコストで表す(評価する)ことができる。バネコストは、バネモデルに基づく基準位置からのずれが大きいほど増加する値であり、バネコストが小さいほど、位置に基づく信頼度が高いといえる。
The spring model stored in the
記憶部60に記憶されている衝突危険度判定テーブルは、検出されたターゲットまでの距離及び後述する集団スコア(検出結果の信頼度)に応じた衝突危険度を規定したテーブルである。具体的には、例えば図2に示すように、ターゲットまでの距離と集団スコアとに応じた衝突危険度のレベル(L1〜L3)を示す二次元テーブルが用いられる。本実施形態では、ターゲットの集団が検出された場合に、距離が近いほど、また、集団スコアが高い(検出結果の信頼度が高い)ほど、衝突危険度が高いと判定される。衝突危険度判定部52は、この衝突危険度判定テーブルを参照することで、衝突危険度を判定する。
The collision risk determination table stored in the
車両制御装置20は、報知制御部70及び車両制御部80を有しており、いずれもいわゆるマイコンとして具現化される。報知制御部70は、スピーカ41を介した報知を行うための構成であり、衝突危険度が大きくなると、まずはスピーカ41を介した報知が行われる。車両制御部80は、ブレーキ42及びステアリング43を介した車両制御を行うための構成であり、衝突危険度がさらに大きくなった場合に衝突回避制御が行われる。具体的には、衝突危険度がレベル1(L1)の場合にはターゲットの存在を知らせる警報制御(報知制御)が行われ、レベル2(L2)の場合にはブレーキ制御(減速制御)が行われ、レベル3(L3)の場合にはステアリング制御(衝突回避制御)が行われる。なお、ターゲットが検出されていない場合(レベル0の場合)には、車両制御が行われない。
The
[2.処理]
本実施形態は、ターゲット集団検出部51の機能としてのターゲット集団判定処理に特徴を有する。そこで、このターゲット集団判定処理の詳細について、図3のフローチャートを用いて説明する。ターゲット集団判定処理は、所定時間間隔で繰り返し実行される。
[2. processing]
The present embodiment is characterized by target group determination processing as a function of the target
図3に示すように、最初のS11では、撮像装置32により撮像された車両前方の画像を入力する画像入力処理を実行する。
続いて、S12では、入力した画像において、記憶部60に記憶されているターゲットのパーツモデルを用いたマッチング処理により算出される類似度(一致度)に基づいて、各パーツを検出するパーツ検出処理を実行する。算出される類似度は、形状に基づく信頼度を表す。なお、画像上の各位置とパーツモデルとの類似度は、例えばHOG(Histograms of Oriented Gradients)特徴量を用いた周知のマッチングアルゴリズムにより算出される。
As shown in FIG. 3, in the first step S <b> 11, an image input process for inputting an image ahead of the vehicle imaged by the
Subsequently, in S12, a part detection process for detecting each part based on the similarity (matching degree) calculated by the matching process using the target part model stored in the
具体的には、図4(A)に示すように、頭パーツモデルHMを、例えば画像の左上部分から順に、あらかじめ定められた間隔で右方向へ移動させていく。そして、画像の右端に到達したら、左端に戻し、あらかじめ定められた間隔で下方向へ移動させる。その後は、同様の移動を繰り返し、画像の右下部分まで順に移動させていく。このとき、頭パーツモデルHMの位置ごとに、頭パーツモデルHMと重なる部分領域との類似度をスコアとして記憶することにより、画像における位置ごとにスコアが記録されたスコアマップが生成される。なお、頭パーツ以外のパーツについても、頭パーツと同様の処理が行われ、パーツの種類ごとにスコアマップが生成される。 Specifically, as shown in FIG. 4A, the head part model HM is moved rightward at predetermined intervals, for example, sequentially from the upper left part of the image. When the right end of the image is reached, the image is returned to the left end and moved downward at a predetermined interval. Thereafter, the same movement is repeated, and the image is moved in order to the lower right part of the image. At this time, for each position of the head part model HM, the similarity with the partial area overlapping the head part model HM is stored as a score, thereby generating a score map in which the score is recorded for each position in the image. For parts other than the head part, processing similar to that for the head part is performed, and a score map is generated for each type of part.
また、撮像装置32からの距離(撮像位置からの距離)が近いターゲットほど、画像内では大きく写る。そこで、図4(B)に示すように、パーツモデルHMのサイズはそのままで、スキャンの対象となる画像を縮小して、同様のスコア化を行う。つまり、画像に対するパーツモデルのサイズを相対的に大きくする。このようにして、第1の距離に存在するターゲットを想定したスキャン(図4(A))と、第2の距離に存在するターゲットを想定したスキャン(図4(B))と、を行う。 In addition, the closer the target from the imaging device 32 (the distance from the imaging position), the larger the image appears in the image. Therefore, as shown in FIG. 4B, the same image is formed by reducing the image to be scanned while keeping the size of the part model HM as it is. That is, the size of the part model relative to the image is relatively increased. In this way, a scan assuming the target existing at the first distance (FIG. 4A) and a scan assuming the target existing at the second distance (FIG. 4B) are performed.
なお、ここでは、ターゲットが相対的に遠い第1の距離に存在する場合と、ターゲットが相対的に近い第2の距離に存在する場合と、の2段階でのスキャンを説明したが、現実的には、3段階以上でスキャンすることが考えられる。なお、段階的なスキャンに際し、前述したようにスキャンの対象となる画像を拡大/縮小するようにしてもよいし、これとは逆にパーツモデルを拡大/縮小するようにしてもよい。 Here, the scanning in two stages, that is, the case where the target exists at a first distance that is relatively far away and the case where the target exists at a second distance that is relatively close, has been described. It is conceivable to scan in three or more stages. In the stepwise scan, the image to be scanned may be enlarged / reduced as described above, or the part model may be enlarged / reduced on the contrary.
こうしてパーツの種類ごとに生成したスコアマップにおいて、図4(C)に示すように、設定されたしきい値以上のスコアを有する位置(エリア)を、高スコアパーツHP1,HP2として検出する。つまり、高スコアパーツとは、画像において、パーツモデルとのマッチングが高い(パーツである可能性の高い)エリアのことである。なお、図4(C)の例において、高スコアパーツHP1は、第1の距離に存在するターゲットを想定したスキャンによる高スコアパーツであり、高スコアパーツHP2は、第2の距離に存在するターゲットを想定したスキャンによる高スコアパーツである。なお、頭パーツ以外のパーツについても、頭パーツと同様の処理が行われ、パーツの種類ごとに高スコアパーツが検出される。 In the score map generated for each part type in this way, as shown in FIG. 4C, a position (area) having a score equal to or higher than the set threshold value is detected as the high score parts HP1 and HP2. That is, a high score part is an area with high matching with a part model (high possibility of being a part) in an image. In the example of FIG. 4C, the high score part HP1 is a high score part obtained by scanning assuming a target existing at the first distance, and the high score part HP2 is a target present at the second distance. It is a high score part by the scan which assumed the. Note that parts other than the head part are also processed in the same manner as the head part, and a high score part is detected for each type of part.
図3に戻り、S13では、画像においてターゲットの集団が存在すると判定するための条件である集団条件を満たすか否かを判定する集団条件判定処理を実行する。本実施形態で規定されている集団条件とは、1つの基準位置に対するバネコストの小さい高スコアパーツが、所定数以上存在することである。 Returning to FIG. 3, in S <b> 13, a group condition determination process is performed to determine whether or not a group condition that is a condition for determining that a target group exists in the image is satisfied. The collective condition defined in the present embodiment is that there are a predetermined number or more of high score parts having a small spring cost with respect to one reference position.
ここで、S13で実行される集団条件判定処理の詳細について、図5のフローチャートを用いて説明する。
まず、S21では、画像において、ターゲットの存否を判定するための注目領域を設定する。注目領域は、ターゲットの身体全体に対応する大きさの領域(本実施形態では矩形領域)であり、注目領域を設定することで、その注目領域にターゲットが存在すると仮定した場合の各パーツの基準位置(バネコストの評価基準)が、バネモデルに基づき画像において設定される。なお、後述するように、注目領域は、前述したパーツモデルによるスキャンと同様、例えば画像の左上部分から順に、あらかじめ定められた間隔で右方向へ移動し、画像の右端に到達したら左端に戻して、あらかじめ定められた間隔で下方向へ移動させる。その後は、同様の移動を繰り返し、画像の右下部分まで順に移動する。つまり、あらかじめ決められた規則に従い、注目領域が、画像における複数の位置に順次設定されるようになっており、集団条件判定処理の開始直後は、初期位置(例えば画像の左上部分)に設定される。
Here, the details of the collective condition determination process executed in S13 will be described using the flowchart of FIG.
First, in S21, a region of interest for determining the presence or absence of a target is set in the image. The attention area is an area of a size corresponding to the entire target body (rectangular area in this embodiment), and by setting the attention area, it is assumed that the target exists in the attention area. The position (spring cost evaluation criteria) is set in the image based on the spring model. As will be described later, the region of interest moves to the right at predetermined intervals, for example, in order from the upper left part of the image, and returns to the left end when reaching the right end of the image, as in the case of the above-described part model scan. , Move downward at a predetermined interval. Thereafter, the same movement is repeated and the image is moved in order to the lower right part of the image. In other words, according to a predetermined rule, the attention area is sequentially set at a plurality of positions in the image, and immediately after the start of the collective condition determination process, it is set at the initial position (for example, the upper left portion of the image). The
続いて、S22では、頭パーツを処理対象のパーツに設定する。すなわち、以下のS23〜S25の処理をパーツの種類ごとに行うため、最初に処理対象とするパーツを頭パーツに設定するのである。なお、最初に処理対象とするパーツや処理順序などは特に限定されない。 Subsequently, in S22, the head part is set as a part to be processed. That is, since the following processes of S23 to S25 are performed for each type of part, the part to be processed is first set as the head part. Note that the parts to be initially processed and the processing order are not particularly limited.
続いて、S23では、処理対象のパーツの高スコアパーツのそれぞれについて、注目領域に基づき定められる処理対象パーツの基準位置に対するバネコストを算出する。バネコストは、基準位置からのずれを表す値であり、ずれが大きいほど高い値となる。バネコストは、単にずれの大きさ(基準位置から高スコアパーツの位置までの距離)に比例する値とすることも可能ではあるが、実際には、パーツごとに、例えば縦方向と比較して横方向にずれやすいなどの特性があるため、その特性に応じた値に設定することが好ましい。例えば、基準位置からの距離xに対するバネコストyが二次関数y=ax2で表され、その二次関数の係数aが、縦方向の距離(ずれ量)と横方向の距離(ずれ量)とで異なるようにしてもよい。縦方向のずれ量に対するバネコストの増加割合が、横方向のずれ量に対するバネコストの増加割合と比較して、大きく設定される場合、例えば図6に示すように、バネコストが一定の領域CRは、横に長い楕円形となる。つまり、縦方向のずれと比較して、横方向のずれは許容されやすくなる。 Subsequently, in S23, for each of the high score parts of the part to be processed, the spring cost with respect to the reference position of the part to be processed determined based on the attention area is calculated. The spring cost is a value representing a deviation from the reference position, and the higher the deviation, the higher the value. The spring cost can be simply a value proportional to the magnitude of the deviation (distance from the reference position to the position of the high score part). Since there is a characteristic such as the tendency to shift in the direction, it is preferable to set the value according to the characteristic. For example, the spring cost y with respect to the distance x from the reference position is represented by a quadratic function y = ax 2 , and the coefficient a of the quadratic function is a vertical distance (deviation amount) and a lateral distance (deviation amount). May be different. When the rate of increase of the spring cost with respect to the amount of displacement in the vertical direction is set to be larger than the rate of increase of the spring cost with respect to the amount of displacement in the horizontal direction, for example, as shown in FIG. A long oval shape. That is, the horizontal shift is more easily tolerated than the vertical shift.
続いて、S24では、バネコストがしきい値以下の高スコアパーツの数が一定数(本実施形態では3つ)以上であるか否かを判定する。つまり、注目領域に基づき定められる基準位置からのずれが小さい高スコアパーツが、複数のターゲット分(本実施形態では3人分)存在するか否かを判定する。そして、一定数以上であると判定した場合には、S25へ移行し、現在の注目領域を、集団の一部を構成するターゲットが存在すると推測される領域(以下「ターゲット領域」という。)として検出した後、S26へ移行する。例えば図6に示す例では、基準位置BPに対するバネコストがしきい値以下の領域CRに、高スコアパーツHPが5つ含まれているため、現在の注目領域FRがターゲット領域TRとして検出される。一方、S24で、バネコストがしきい値以下の高スコアパーツの数が一定数以上でないと判定した場合には、S25をスキップしてS26へ移行する。 Subsequently, in S24, it is determined whether or not the number of high score parts having a spring cost equal to or less than a threshold value is equal to or greater than a certain number (three in the present embodiment). That is, it is determined whether or not there are a plurality of target parts (in this embodiment, three persons) having high score parts with a small deviation from the reference position determined based on the attention area. If it is determined that the number is equal to or greater than a certain number, the process proceeds to S25, and the current attention area is set as an area (hereinafter referred to as “target area”) in which it is estimated that a target constituting a part of the group exists. After detection, the process proceeds to S26. For example, in the example illustrated in FIG. 6, since the five high score parts HP are included in the region CR in which the spring cost with respect to the reference position BP is equal to or less than the threshold value, the current attention region FR is detected as the target region TR. On the other hand, if it is determined in S24 that the number of high score parts whose spring cost is equal to or less than the threshold value is not a certain number or more, S25 is skipped and the process proceeds to S26.
続いて、S26では、現在の注目領域においてすべてのパーツの処理が終了したか否かを判定する。すべてのパーツの処理が終了していないと判定した場合には、S27へ移行し、処理対象のパーツを変更した後、S23へ戻る。例えば、頭パーツ→左腕パーツ→右腕パーツ→胴パーツ→左脚パーツ→右脚パーツの順に処理対象のパーツを変更する。 Subsequently, in S26, it is determined whether or not all parts have been processed in the current attention area. If it is determined that all parts have not been processed, the process proceeds to S27, and after changing the part to be processed, the process returns to S23. For example, the parts to be processed are changed in the order of head part → left arm part → right arm part → trunk part → left leg part → right leg part.
一方、S26で、すべてのパーツの処理が終了したと判定した場合には、S28へ移行し、現在の撮像画像においてすべての注目領域の処理が終了したか否かを判定する。すべての注目領域の処理が終了していないと判定した場合には、S29へ移行し、注目領域の位置を変更した後、S22へ戻る。なお、前述したように、注目領域を画像の左上部分から右下部分まで順に移動させる場合には、その移動順序に従って注目領域の位置を変更する。 On the other hand, if it is determined in S26 that all parts have been processed, the process proceeds to S28, where it is determined whether or not all the attention areas have been processed in the current captured image. If it is determined that all the attention areas have not been processed, the process proceeds to S29, the position of the attention area is changed, and the process returns to S22. As described above, when the attention area is sequentially moved from the upper left part to the lower right part of the image, the position of the attention area is changed according to the movement order.
一方、すべての注目領域の処理が終了したと判定した場合には、図5の集団条件判定処理を終了する。つまり、集団条件判定処理では、注目領域ごとに、高スコアパーツのそれぞれについてのバネコストが算出され、バネコストが一定範囲内の高スコアパーツが一定数以上存在する場合に、その注目領域がターゲット領域として検出される。ターゲット領域とは、パーツの種類ごとに検出される領域であって、集団を構成するターゲットが存在する可能性の高い領域である。なお、前述したように、スコアマップは異なる距離(例えば第1の距離及び第2の距離)ごとに生成されるため、集団条件判定処理も異なる距離ごとに実行される。 On the other hand, if it is determined that the processing for all the attention areas has been completed, the collective condition determination processing in FIG. 5 ends. In other words, in the collective condition determination process, the spring cost for each high score part is calculated for each attention area, and when there are a certain number or more of high score parts within a certain range, the attention area is set as the target area. Detected. The target area is an area that is detected for each type of part, and is likely to have a target that constitutes a group. As described above, since the score map is generated for each different distance (for example, the first distance and the second distance), the collective condition determination process is also executed for each different distance.
図3に戻り、S14では、S13でパーツの種類ごとに検出したターゲット領域(矩形領域)を、その位置に応じて統合(グループ化)し、ターゲットの集団が存在する領域である集団領域として検出するターゲット集団検出処理を実行する。具体的には、図7に示すように、複数のターゲット領域TRを、重なりがあるもの同士をグループ化し、グループ化したターゲット領域TRを包含する外接矩形を、最終的な集団領域GRとする。このとき、図8に示すように、ターゲットサイズから推定される距離(例えば第1の距離及び第2の距離)が互いに近いもの同士を統合する(遠くに存在するターゲットと近くに存在するターゲットとを区別して別々に統合する)ことで、集団領域の検出精度を向上させることができる。ここで、ターゲット領域TRの距離は、ターゲット領域の下端位置(ターゲットの足下の位置)に基づき推測することも可能である。このようにすれば、距離による分類を細かく行うことが可能となる。 Returning to FIG. 3, in S14, the target areas (rectangular areas) detected for each type of part in S13 are integrated (grouped) according to their positions, and detected as a collective area that is an area where the target population exists. Target group detection processing is executed. Specifically, as shown in FIG. 7, a plurality of target regions TR are grouped together, and a circumscribed rectangle including the grouped target regions TR is defined as a final collective region GR. At this time, as shown in FIG. 8, the distances estimated from the target size (for example, the first distance and the second distance) are integrated with each other (a distant target and a nearby target) , And separately integrating them), the detection accuracy of the collective region can be improved. Here, the distance of the target region TR can be estimated based on the lower end position of the target region (the position under the target's feet). In this way, it is possible to perform detailed classification by distance.
続くS15では、集団領域の検出結果の信頼度を表す値である集団スコアを算出する集団スコア算出処理を実行する。具体的には、集団領域に含まれるターゲット領域のスコアの総和を、集団スコアとして算出する。ターゲット領域のスコアは、当該ターゲット領域の判定に用いられた複数の高スコアパーツのスコアの総和として算出される。その後、図3のターゲット集団判定処理が終了する。 In subsequent S15, a collective score calculation process for calculating a collective score that is a value representing the reliability of the detection result of the collective region is executed. Specifically, the sum of the scores of the target regions included in the collective region is calculated as the collective score. The score of the target area is calculated as the sum of the scores of a plurality of high score parts used for determining the target area. Thereafter, the target group determination process in FIG. 3 ends.
なお、ここでは各パーツのスコアに基づいて集団スコアを算出しているが、これに限定されるものではなく、各パーツのバネコストに基づいて集団スコアを算出してもよい。例えば次式によれば、複数のパーツが集まっているほど集団スコアが高く算出される。なお、次式において、nはパーツ数(パーツの種類)、aveiはパーツの種類別のバネコストの平均値、AVEiはバネコスト平均値に関する定数、veriはパーツの種類別のバネコストの分散値、VERiはバネコスト分散値に関する定数である。また、各パーツのスコアに基づく集団スコアと、各パーツのバネコストに基づく集団スコアと、を加算した値を集団スコアとしてもよい。 Here, the collective score is calculated based on the score of each part. However, the present invention is not limited to this, and the collective score may be calculated based on the spring cost of each part. For example, according to the following equation, the collective score is calculated higher as the plurality of parts are gathered. In the following formula, n is the number of parts (type of part), ave i is the average value of spring cost by part type, AVE i is a constant related to the average value of spring cost, and ver i is the variance value of spring cost by type of part. , VER i is a constant related to the spring cost variance value. A value obtained by adding the group score based on the score of each part and the group score based on the spring cost of each part may be used as the group score.
以上のようなターゲット集団判定処理により画像においてターゲットの集団が検出されると、前述したように、ターゲットまでの距離と集団スコアとに応じた制御が、車両制御装置20により行われる。具体的には、衝突危険度が低い場合にはターゲットの存在を知らせる警報制御(報知制御)が行われ、衝突危険度が高くなるとブレーキ制御(減速制御)が行われ、衝突危険度が更に高くなるとステアリング制御(衝突回避制御)が行われる。なお、それぞれの制御において、複数段階の制御を行ってもよい。例えば、車両が走行するレーンを基準とするターゲットの位置(距離)に応じて、警報レベル等を変更してもよい。また例えば、ステアリング制御において、集団スコアに応じて回避パスを変更するようにしてもよい。
When the target group is detected in the image by the target group determination process as described above, the
[3.効果]
以上詳述した本実施形態によれば、以下の効果が得られる。
(1)画像処理装置10は、撮像装置32により撮像された画像においてパーツを検出し(S12)、検出したパーツ(高スコアパーツ)に基づいて、画像においてターゲットの集団を検出する(S13,S14)。具体的には、ターゲットの存否を判定するための注目領域を、画像における複数の位置に順次設定し(S21,S29)、検出したパーツのそれぞれについてバネコストを算出し(S23)、バネコストが所定範囲内の同一種類のパーツが複数存在することを条件として、注目領域をターゲット領域として判定する(S24,S25)。
[3. effect]
According to the embodiment described above in detail, the following effects can be obtained.
(1) The
画像において検出される複数種類の各パーツは、1つのターゲット(歩行者一人)につき1つであり、同一種類のパーツが複数集まっている場合には、複数のターゲットが集まっている可能性が高いと考えられる。このため、注目領域に基づき定められる基準位置からのずれの度合いが小さい同一種類のパーツが複数存在することを条件として、集団を構成するターゲットがその注目領域に存在すると判定する。このような判定手法によれば、手前のターゲットにより一部が隠れた奥のターゲットについても、集団を構成するターゲットとして検出されやすくすることが可能となる。したがって、集団を構成する個々のターゲットを独立して検出する従来の手法と比較して、ターゲットの集団を精度よく検出可能とすることができる。 The number of parts detected in the image is one for each target (one pedestrian). If there are multiple parts of the same type, there is a high possibility that multiple targets are gathered. it is conceivable that. For this reason, on the condition that there are a plurality of parts of the same type with a small degree of deviation from the reference position determined based on the attention area, it is determined that the target constituting the group exists in the attention area. According to such a determination method, it is possible to make it easier to detect a target in the back that is partially hidden by the target in front as a target constituting the group. Therefore, the target group can be detected with higher accuracy than the conventional method of detecting individual targets constituting the group independently.
例えば、図9(A)に示すように、歩行者の集団のうち、矩形枠で囲まれた歩行者に注目すると、一番手前(図9(A)における中央)の歩行者により左腕が隠れている(領域HR)。このため、注目する歩行者を独立して検出しようとすると、左腕のスコアが低下し、その結果、全体のスコアが低下することとなり、歩行者として検出されにくくなる。 For example, as shown in FIG. 9A, when attention is paid to a pedestrian surrounded by a rectangular frame in a group of pedestrians, the left arm is hidden by the pedestrian in the forefront (center in FIG. 9A). (Region HR). For this reason, if it is going to detect the pedestrian to pay attention independently, the score of a left arm will fall, As a result, the whole score will fall and it will become difficult to be detected as a pedestrian.
一方、図9(B)に示すように、注目する歩行者の左腕(領域HR)の近くには、他の複数の歩行者の左腕が露出しており(領域ER)、これらは高いスコアで(高スコアパーツとして)検出される。したがって、バネコストの小さい同一種類のパーツが複数存在することを条件とする本実施形態の手法によれば、集団を構成する歩行者として検出されやすくすることができる。 On the other hand, as shown in FIG. 9B, the left arms of other pedestrians are exposed near the left arm (region HR) of the pedestrian of interest (region ER), and these are high scores. Detected (as a high score part). Therefore, according to the method of the present embodiment on condition that there are a plurality of parts of the same type with a low spring cost, it can be easily detected as a pedestrian constituting a group.
(2)画像処理装置10は、パーツの種類ごとに判定したターゲット領域を統合し、ターゲットの集団が存在する集団領域を検出する(S14)。集団を構成するターゲットの数が少ない場合と多い場合とでは、画像において集団が占める領域のサイズも異なるが、ターゲット領域を統合して集団領域を検出するようにしているため、集団を構成するターゲットの数に応じたサイズの集団領域を検出することができる。
(2) The
具体的には、互いに重なり合う複数のターゲット領域を包含する領域を、集団領域として検出するようにしているため、集団領域を簡易的に特定することができる。
また、撮像装置32からの距離に応じて分類されるグループごとに、互いに重なり合う複数のターゲット領域を包含する領域を、集団領域として検出するようにしているため、ターゲットの集団を精度よく検出することができる。
Specifically, since a region including a plurality of target regions overlapping each other is detected as a collective region, the collective region can be easily specified.
In addition, for each group classified according to the distance from the
(3)画像処理装置10は、検出した集団領域の集団スコアを算出する(S15)。集団領域の検出は、画像処理に基づくものであるため、誤検出が生じ得るものであり、検出結果の信頼度は常に一定ではない。この点、本実施形態では、検出した集団領域の集団スコアを算出するようにしているため、検出結果の信頼度を客観的基準で評価することができる。
(3) The
具体的には、集団領域に含まれる各ターゲット領域の判定に用いられたパーツのスコアの総和を、集団スコアとして算出するようにしているため、信頼度の高い集団スコアを簡易的に算出することができる。また、集団領域に含まれる各ターゲット領域の判定に用いられたパーツのバネコストに基づく値(例えば、バネコストのばらつき度合いを表す値)を、集団スコアとして算出しても、同様の効果を得ることができる。また、各パーツのスコアの総和に基づく値と、各パーツのバネコストに基づく値と、を加算した値を集団スコアとして算出してもよい。 Specifically, the total score of the parts used to determine each target area included in the collective area is calculated as a collective score, so a highly reliable collective score can be calculated easily. Can do. Further, even if a value based on the spring cost of the parts used for determining each target region included in the collective region (for example, a value indicating the degree of variation of the spring cost) is calculated as the collective score, the same effect can be obtained. it can. Further, a value obtained by adding a value based on the sum of scores of each part and a value based on the spring cost of each part may be calculated as a collective score.
(4)本実施形態の車両制御システムは、画像処理装置10により算出された集団領域の集団スコアに基づく制御として、車両の乗員への報知制御及び車両の衝突回避制御を行う車両制御装置20を備える。したがって、ターゲットの集団を車両の乗員へ報知したり、ターゲットの集団に対する衝突を回避したりすることができる。
(4) The vehicle control system according to the present embodiment includes a
特に、車両制御装置20は、集団領域の集団スコアに応じて制御の内容を異ならせるようにしているため、画像処理装置10により検出された集団領域の信頼度に応じた制御を行うことができる。加えて、本実施形態では、集団スコアに基づく制御として、ターゲットまでの距離と集団スコアとに応じた制御を行うようにしているため、より適切な制御を実現することができる。
In particular, since the
なお、上記実施形態では、記憶部60が記憶手段の一例に相当し、S12がパーツ検出手段としての処理の一例に相当する。また、S13,S14が集団検出手段としての処理の一例に相当し、特に、S14が統合手段としての処理の一例に相当し、S21,S29が設定手段としての処理の一例に相当し、S23がバネコスト算出手段としての処理の一例に相当し、S24,S25が判定手段としての処理の一例に相当する。また、集団スコアが評価値の一例に相当し、S15が評価値算出手段としての処理の一例に相当する。
In the above embodiment, the
[4.他の実施形態]
以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限定されることなく、種々の形態を採り得ることは言うまでもない。
[4. Other Embodiments]
As mentioned above, although embodiment of this invention was described, it cannot be overemphasized that this invention can take a various form, without being limited to the said embodiment.
(1)上記実施形態では、スコアマップにおけるスコアが高く、かつ、バネモデルに基づくバネコストの小さいパーツ(高スコアかつ低バネコストのパーツ)が、所定数以上存在することを、ターゲットの集団が存在すると判定するための条件である集団条件としている。これは、形状及び位置のいずれにおいても信頼度の高いターゲットのパーツが、ある範囲内に多数存在する場合には、ターゲットの集団が存在する可能性が高いからである。ただし、上記実施形態の集団条件はあくまでも一例であり、これに限定されるものではない。 (1) In the above embodiment, it is determined that there is a target group when there are a predetermined number or more of parts having a high score in the score map and a low spring cost based on the spring model (parts having a high score and a low spring cost). It is a collective condition that is a condition for This is because there is a high possibility that a group of targets is present when there are a large number of target parts with high reliability within a certain range both in shape and position. However, the collective conditions in the above embodiment are merely examples, and the present invention is not limited to these.
例えば、高スコアかつ低バネコストのパーツが、所定数以上存在し、更に、これら複数のパーツのスコアが全体的に高いことを、集団条件としてもよい。具体的には、例えば上記実施形態のS24において、算出したバネコストがしきい値以下の高スコアパーツの数が一定数以上であり、かつ、これら高スコアパーツのスコアの総和が所定のしきい値以上であるか否かを判定し、肯定判定した場合に、S25へ移行して、現在の注目領域をターゲット領域として検出する。このようにすれば、ターゲットの集団が存在するか否かを判定する精度を向上させることができる。なお、複数のパーツのスコアが全体的に高いか否かは、複数のパーツのスコアの総和がしきい値以上であることに限定されるものではなく、例えば、複数のパーツのスコアの平均値がしきい値以上であることをもって評価してもよい。 For example, a collective condition may be that a predetermined number or more of high-score and low-spring cost parts exist, and that the scores of these parts are generally high. Specifically, for example, in S24 of the above embodiment, the number of high score parts whose calculated spring cost is less than or equal to a threshold value is a certain number or more, and the sum of the scores of these high score parts is a predetermined threshold value. If it is determined whether or not this is the case and an affirmative determination is made, the process proceeds to S25 to detect the current attention area as the target area. In this way, it is possible to improve the accuracy of determining whether or not a target group exists. Note that whether or not the score of a plurality of parts is generally high is not limited to the sum of scores of a plurality of parts being equal to or greater than a threshold value. For example, the average value of the scores of a plurality of parts It may be evaluated that is equal to or greater than a threshold value.
(2)また、例えば、高スコアかつ低バネコストのパーツが、所定数以上存在し、更に、それら複数のパーツのバネコストのばらつきが小さいことを、集団条件としてもよい。具体的には、例えば上記実施形態のS24において、算出したバネコストがしきい値以下の高スコアパーツの数が一定数以上であり、かつ、これら高スコアパーツのバネコストのばらつき度合いが所定範囲内であるか否かを判定し、肯定判定した場合に、S25へ移行して、現在の注目領域をターゲット領域として検出する。ここで、バネコストのばらつき度合いを表す値は、バネコストの平均値及び分散値として算出することができる。例えば、高スコアかつ低バネコストの複数のパーツのバネコストの平均値が一定範囲内で、かつ、それら複数のパーツのバネコストの分散値が一定範囲内の場合に、ターゲットの集団が存在すると判定する。このようにすれば、ターゲットの集団が存在するか否かを判定する精度を向上させることができる。 (2) Further, for example, it may be set as a collective condition that there are a predetermined number or more of high score and low spring cost parts, and that the variation of the spring cost of the plurality of parts is small. Specifically, for example, in S24 of the above embodiment, the number of high score parts whose calculated spring cost is equal to or less than a threshold value is equal to or greater than a certain number, and the variation degree of the spring cost of these high score parts is within a predetermined range. When it is determined whether or not there is an affirmative determination, the process proceeds to S25 to detect the current attention area as the target area. Here, the value indicating the variation degree of the spring cost can be calculated as an average value and a variance value of the spring cost. For example, when the average value of the spring cost of a plurality of parts having a high score and a low spring cost is within a certain range, and the variance of the spring cost of the plurality of parts is within a certain range, it is determined that a target group exists. In this way, it is possible to improve the accuracy of determining whether or not a target group exists.
(3)上記実施形態では、バネコストを、単にバネモデルに基づく基準位置からのずれを表す値として定義したが、これに限定されるものではない。例えば、パーツのバネコストを算出する場合に、算出対象のパーツとは異なる種類の他のパーツであって、算出対象のパーツとの位置関係が同一のターゲットにおける位置関係として適正であると判定される他のパーツが存在する場合には、当該他のパーツが存在しない場合と比較して、バネコストを低く算出してもよい。具体的には、図10に示す例では、頭パーツHP1は、その頭パーツを基準とする適正な位置(バネモデルに基づく位置であり、詳細にはその位置を基準とする所定範囲内)に、左腕パーツLP1及び右腕パーツRP1が存在するため、バネコストを下げる。同様に、頭パーツHP2も、その頭パーツを基準とする適正な位置に、左腕パーツLP2及び右腕パーツRP2が存在するため、バネコストを下げる。その結果、他の頭パーツHP3,HP4,HP5のバネコストが相対的に高くなり、誤検出が抑制され、判定精度を向上させることができる。 (3) In the above embodiment, the spring cost is simply defined as a value representing a deviation from the reference position based on the spring model, but is not limited to this. For example, when calculating the spring cost of a part, it is determined that another part of a different type from the part to be calculated and the positional relation with the part to be calculated is appropriate as the positional relation in the same target When other parts are present, the spring cost may be calculated lower than when the other parts are not present. Specifically, in the example shown in FIG. 10, the head part HP1 is at an appropriate position based on the head part (a position based on the spring model, specifically, within a predetermined range based on the position). Since the left arm part LP1 and the right arm part RP1 exist, the spring cost is reduced. Similarly, the head part HP2 also has a left arm part LP2 and a right arm part RP2 at appropriate positions with respect to the head part, so that the spring cost is reduced. As a result, the spring costs of the other head parts HP3, HP4, and HP5 are relatively high, erroneous detection is suppressed, and determination accuracy can be improved.
(4)また、例えば、パーツのバネコストを算出する場合に、算出対象のパーツと同一種類の他のパーツであって、算出対象のパーツとの位置関係が、集団を構成する他のターゲットが有するパーツとの位置関係として適正である(例えば、集団に特有の周期性を満たす)と判定される他のパーツが存在する場合には、当該他のパーツが存在しない場合と比較して、バネコストを低く算出してもよい。例えば、複数のターゲットが横方向に並んでいる場合、ターゲットの各パーツは、横方向に一定の周期性を持って(例えばターゲットの横幅相当の周期で)存在する可能性が高いため、そのような位置に存在するパーツのバネコストを下げる。図11に示す例では、頭の基準位置BPに対して、注目領域FRの横幅(ターゲットの肩幅)分に左右にシフトした位置SP1,SP2を設定し、その位置SP1,SP2(詳細には、その位置を基準とする所定範囲内)に存在する頭パーツHP1,HP2のバネコストを下げる。その結果、他の頭パーツHP3,HP4,HP5のバネコストが相対的に高くなり、誤検出が抑制され、判定精度を向上させることができる。 (4) Also, for example, when calculating the spring cost of a part, other parts of the same type as the part to be calculated and the positional relationship with the part to be calculated have other targets constituting the group If there is another part that is determined to be appropriate as a positional relationship with the part (for example, satisfying the periodicity peculiar to the group), the spring cost is reduced compared to the case where the other part does not exist. You may calculate low. For example, when a plurality of targets are arranged in the horizontal direction, each part of the target is likely to exist with a certain periodicity in the horizontal direction (for example, with a period corresponding to the horizontal width of the target). Lower the spring cost of parts that exist in different locations. In the example shown in FIG. 11, positions SP1 and SP2 shifted to the left and right by the width of the attention area FR (the shoulder width of the target) are set with respect to the head reference position BP, and the positions SP1 and SP2 The spring cost of the head parts HP1 and HP2 existing within a predetermined range based on the position is reduced. As a result, the spring costs of the other head parts HP3, HP4, and HP5 are relatively high, erroneous detection is suppressed, and determination accuracy can be improved.
(5)上記実施形態では、注目領域ごとに、バネコストが一定範囲内の高スコアパーツが一定数以上存在する場合に、その注目領域を、ターゲット領域として検出したが、これに限定されるものではない。例えば図12に示すように、バネコストが所定範囲内の同一種類の複数の高スコアパーツHPと、注目領域FRと、を包含する領域(例えば外接矩形)を、ターゲット領域TRとして判定してもよい。その後は、前述したように(図7)、パーツの種類ごとに検出したターゲット領域TRを、その位置に応じて統合(グループ化)し、グループに属するターゲット領域TRの外接矩形を、ターゲットの集団が存在する領域である集団領域GRとして検出する。このようにすれば、高スコアパーツの位置が加味されたターゲット領域を検出することができる。 (5) In the above embodiment, when there are a certain number or more of high score parts having a spring cost within a certain range for each region of interest, the region of interest is detected as a target region. However, the present invention is not limited to this. Absent. For example, as shown in FIG. 12, a region (for example, a circumscribed rectangle) including a plurality of high score parts HP of the same type within a predetermined range and the attention region FR may be determined as the target region TR. . Thereafter, as described above (FIG. 7), the target regions TR detected for each type of parts are integrated (grouped) according to the position, and the circumscribed rectangles of the target regions TR belonging to the group are converted into target groups. Is detected as a collective region GR, which is a region where is present. In this way, it is possible to detect the target area in which the position of the high score part is taken into account.
(6)上記実施形態では、注目領域を画像上の各位置(画像全域)に順に移動させるようにしているが、これに限定されるものではない。例えば、ターゲットの身体全体のモデルによって画像をスキャンして各位置でマッチングをとり、スコアが高い領域を事前に検出した上で、注目領域を設定すべき位置を絞り込むようにしてもよい。このようにすれば、ターゲット領域を検出するための処理負荷を低減することができる。 (6) In the above embodiment, the attention area is sequentially moved to each position on the image (entire image area), but the present invention is not limited to this. For example, an image may be scanned with a model of the entire target body, matching may be performed at each position, and a region having a high score may be detected in advance, and then a position where an attention region should be set may be narrowed down. In this way, the processing load for detecting the target area can be reduced.
(7)上記実施形態では、車両前方の物体までの距離を検知する測距装置31を備えた構成を例示したが、物体までの距離は、画像に基づき推測が可能であるため、必ずしも測距装置31を設ける必要はない。例えば、画像におけるターゲット領域の下端位置(ターゲットの足下の位置)に基づいて、そのターゲットまでの距離を推測することができる。ただし、測距装置31を備えた構成によれば、物体までの距離を精度よく検出することができ、より高精度の車両制御が可能となるという利点がある。
(7) In the above embodiment, the configuration including the
(8)上記実施形態では、ターゲットのパーツとして、頭、左腕、右腕、胴、左脚及び右脚のパーツを例示したが、パーツの数や、パーツとする部分など、上記実施形態に限定されるものではない。また、ターゲットは歩行者に限定されるものではなく、例えば、車両をターゲットとしてもよい。 (8) In the above embodiment, the parts of the head, left arm, right arm, torso, left leg and right leg are exemplified as the target parts. However, the number of parts and the parts to be used are limited to the above embodiment. It is not something. Moreover, a target is not limited to a pedestrian, For example, it is good also considering a vehicle as a target.
(9)上記実施形態では、車両前方を撮像した画像からターゲットを検出するようにしているが、これに限定されるものではなく、例えば、車両の側方や後方を撮像した画像からターゲットを検出してもよい。また、車両以外で撮像した画像からターゲットを検出してもよい。 (9) In the above embodiment, the target is detected from an image obtained by imaging the front of the vehicle. However, the present invention is not limited to this. For example, the target is detected from an image obtained by imaging the side and rear of the vehicle. May be. Moreover, you may detect a target from the image imaged other than the vehicle.
(10)上記実施形態の各構成要素が有する機能は、ハードウェアに代えてソフトウェアで実現してもよく、ソフトウェアに代えてハードウェアで実現してもよく、ハードウェア及びソフトウェアの組合せで実現してもよい。また、各構成要素は概念的なものであり、上記実施形態に限定されない。例えば、1つの構成要素が有する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてもよい。また、上記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。 (10) The function of each component of the above embodiment may be realized by software instead of hardware, may be realized by hardware instead of software, or realized by a combination of hardware and software. May be. Each component is conceptual and is not limited to the above embodiment. For example, the functions of one component may be distributed to a plurality of components, or the functions of a plurality of components may be integrated into one component. Further, at least a part of the configuration of the above embodiment may be replaced with a known configuration having the same function.
(11)上記実施形態は、本発明が適用された実施形態の一例に過ぎない。本発明は、システム、装置、方法、プログラム、プログラムを記録した記録媒体(CD−ROMやDVD等の光ディスク、磁気ディスク、半導体製メモリ等)、などの種々の形態で実現することができる。 (11) The above embodiment is merely an example of an embodiment to which the present invention is applied. The present invention can be realized in various forms such as a system, an apparatus, a method, a program, and a recording medium on which the program is recorded (an optical disc such as a CD-ROM or DVD, a magnetic disc, a semiconductor memory, etc.).
10…画像処理装置、20…車両制御装置、31…測距装置、32…撮像装置、41…スピーカ、42…ブレーキ、43…ステアリング、50…制御部、51…ターゲット集団検出部、52…衝突危険度判定部、60…記憶部、70…報知制御部、80…車両制御部
DESCRIPTION OF
Claims (15)
前記ターゲットが有する複数種類のパーツを前記画像において識別するためのパーツモデルと、前記ターゲットにおける複数種類の前記パーツの基準位置及びその基準位置に対するパーツの位置に応じたバネコストを表すバネモデルと、を記憶する記憶手段(60)と、
前記パーツモデルを用いたマッチング処理により算出される類似度に基づいて、前記画像において前記パーツを検出するパーツ検出手段(S12)と、
前記パーツ検出手段により検出された前記パーツに基づいて、前記画像において前記ターゲットの集団を検出する集団検出手段(S13,S14)と、
を備え、
前記集団検出手段は、
前記ターゲットの存否を判定するための注目領域を、前記画像における複数の位置に順次設定する設定手段(S21,S29)と、
前記注目領域に前記ターゲットが存在すると仮定した場合の前記基準位置を前記バネモデルに基づいて設定し、前記基準位置からのずれの度合いを表す値であるバネコストを、前記パーツ検出手段により検出された前記パーツのそれぞれについて算出するバネコスト算出手段(S23)と、
前記バネコスト算出手段により算出された前記バネコストが所定範囲内の同一種類の前記パーツが複数存在することを条件として、前記注目領域を、集団を構成する前記ターゲットが存在するターゲット領域として判定する判定手段(S24,S25)と、
を備えることを特徴とする画像処理装置。 An image processing apparatus (10) for inputting an image captured by an imaging apparatus (32) and performing image processing for detecting a target in the image,
A part model for identifying a plurality of types of parts possessed by the target in the image, and a spring model representing a reference position of the plurality of types of the part on the target and a spring cost corresponding to the position of the part relative to the reference position are stored. Storage means (60) for
Parts detection means (S12) for detecting the parts in the image based on the similarity calculated by the matching process using the parts model;
Group detection means (S13, S14) for detecting the target group in the image based on the parts detected by the parts detection means;
With
The group detection means includes
Setting means (S21, S29) for sequentially setting a region of interest for determining the presence or absence of the target at a plurality of positions in the image;
The reference position when the target is assumed to be present in the region of interest is set based on the spring model, and a spring cost that is a value representing the degree of deviation from the reference position is detected by the parts detection unit. Spring cost calculating means (S23) for calculating each of the parts;
Determining means for determining the region of interest as a target region where the target constituting the group exists, on condition that there are a plurality of parts of the same type within a predetermined range in which the spring cost calculated by the spring cost calculating unit (S24, S25),
An image processing apparatus comprising:
前記判定手段は、前記バネコストが所定範囲内の同一種類の複数の前記パーツについて、前記バネコストのばらつき度合いを表す値を算出し、算出した値が所定範囲内であることを条件として、前記注目領域を前記ターゲット領域として判定する
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 1,
The determination means calculates a value representing a variation degree of the spring cost for the plurality of parts of the same type whose spring cost is within a predetermined range, and the region of interest is on condition that the calculated value is within the predetermined range. Is determined as the target region.
前記判定手段は、前記バネコストのばらつき度合いを表す値として、前記バネコストの平均値及び分散値のうち少なくとも一方を用いた値を算出する
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 2,
The determination unit calculates a value using at least one of an average value and a variance value of the spring cost as a value representing a degree of variation of the spring cost.
前記判定手段は、前記バネコストが所定範囲内の同一種類の複数の前記パーツについて、前記類似度の総和を算出し、算出した総和が所定のしきい値以上であることを条件として、前記注目領域を前記ターゲット領域として判定する
ことを特徴とする画像処理装置。 An image processing apparatus according to any one of claims 1 to 3, wherein
The determination means calculates the sum of the similarities for the plurality of parts of the same type whose spring cost is within a predetermined range, and the region of interest is on condition that the calculated sum is equal to or greater than a predetermined threshold value. Is determined as the target region.
前記バネコスト算出手段は、前記パーツの前記バネコストを算出する場合に、算出対象の前記パーツとは異なる種類の他の前記パーツであって、算出対象の前記パーツとの位置関係が同一の前記ターゲットにおける位置関係として適正であると判定される他の前記パーツが存在する場合には、当該他の前記パーツが存在しない場合と比較して、前記バネコストを低く算出する
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 1, wherein:
When calculating the spring cost of the part, the spring cost calculation unit is another part of the type different from the part to be calculated, and the positional relationship with the part to be calculated is the same in the target The image processing apparatus, wherein when there is another part determined to be appropriate as a positional relationship, the spring cost is calculated lower than when the other part does not exist.
前記バネコスト算出手段は、前記パーツの前記バネコストを算出する場合に、算出対象の前記パーツと同一種類の他の前記パーツであって、算出対象の前記パーツとの位置関係が、集団を構成する他の前記ターゲットが有する前記パーツとの位置関係として適正であると判定される他の前記パーツが存在する場合には、当該他の前記パーツが存在しない場合と比較して、前記バネコストを低く算出する
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 1, wherein:
When calculating the spring cost of the part, the spring cost calculation means is another part of the same type as the part to be calculated, and the positional relationship with the part to be calculated constitutes a group When there is another part that is determined to be appropriate as the positional relationship with the part of the target, the spring cost is calculated lower than when the other part is not present. An image processing apparatus.
前記パーツ検出手段は、前記画像における複数の部分領域について前記類似度を算出し、前記類似度が所定のしきい値以上の前記部分領域を前記パーツモデルの表す前記パーツとして検出する
ことを特徴とする画像処理装置。 An image processing apparatus according to any one of claims 1 to 6, wherein
The part detection means calculates the similarity for a plurality of partial areas in the image, and detects the partial area having the similarity equal to or higher than a predetermined threshold as the part represented by the part model. An image processing apparatus.
前記判定手段は、前記バネコストが所定範囲内の同一種類の複数の前記パーツと、前記注目領域と、を包含する領域を、前記ターゲット領域として判定する
ことを特徴とする画像処理装置。 An image processing apparatus according to any one of claims 1 to 7,
The image processing apparatus according to claim 1, wherein the determination unit determines, as the target area, an area including the plurality of parts of the same type whose spring cost is within a predetermined range and the attention area.
前記集団検出手段は、前記判定手段により前記パーツの種類ごとに判定された前記ターゲット領域を統合し、前記ターゲットの集団が存在する集団領域を検出する統合手段(S14)を更に備える
ことを特徴とする画像処理装置。 An image processing apparatus according to any one of claims 1 to 8, wherein
The group detection means further comprises integration means (S14) for integrating the target areas determined for each type of part by the determination means and detecting a group area where the target group exists. An image processing apparatus.
前記統合手段は、互いに重なり合う複数の前記ターゲット領域を包含する領域を、前記集団領域として検出する
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 9,
The image processing apparatus characterized in that the integration unit detects, as the collective region, a region including a plurality of the target regions that overlap each other.
前記統合手段は、前記撮像装置からの距離に応じて分類されるグループごとに、互いに重なり合う複数の前記ターゲット領域を包含する領域を、前記集団領域として検出する
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 10,
The integration unit detects, as the collective region, a region including a plurality of target regions that overlap each other for each group classified according to a distance from the imaging device.
前記集団検出手段により検出された前記集団領域の評価値を算出する評価値算出手段(S15)を更に備える
ことを特徴とする画像処理装置。 An image processing apparatus according to any one of claims 9 to 11,
An image processing apparatus, further comprising: an evaluation value calculation unit (S15) that calculates an evaluation value of the group region detected by the group detection unit.
前記評価値算出手段は、前記集団領域に含まれる前記ターゲット領域の判定に用いられた前記パーツの前記類似度の総和に基づいて、前記評価値を算出する
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 12,
The image processing apparatus, wherein the evaluation value calculation means calculates the evaluation value based on a sum of the similarities of the parts used for determining the target area included in the collective area.
前記画像処理装置により算出された前記集団領域の評価値に基づく制御として、前記車両の乗員への報知制御、及び、前記車両の衝突回避制御、のうち少なくとも一方を行う車両制御装置(20)と、
を備えることを特徴とする車両制御システム。 The image processing apparatus according to claim 12 or 13, which inputs an image captured by an imaging apparatus mounted on a vehicle,
A vehicle control device (20) that performs at least one of notification control to the vehicle occupant and collision avoidance control of the vehicle as control based on the evaluation value of the collective region calculated by the image processing device; ,
A vehicle control system comprising:
前記車両制御装置は、前記集団領域の評価値に応じて前記制御の内容を異ならせる
ことを特徴とする車両制御システム。 The vehicle control system according to claim 14,
The vehicle control system varies the contents of the control according to an evaluation value of the collective region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012206981A JP5838940B2 (en) | 2012-09-20 | 2012-09-20 | Image processing apparatus and vehicle control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012206981A JP5838940B2 (en) | 2012-09-20 | 2012-09-20 | Image processing apparatus and vehicle control system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014063273A JP2014063273A (en) | 2014-04-10 |
JP5838940B2 true JP5838940B2 (en) | 2016-01-06 |
Family
ID=50618469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012206981A Expired - Fee Related JP5838940B2 (en) | 2012-09-20 | 2012-09-20 | Image processing apparatus and vehicle control system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5838940B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6325927B2 (en) * | 2014-07-18 | 2018-05-16 | 日立オートモティブシステムズ株式会社 | Object detection apparatus and vehicle control system using the same |
EP3236419A4 (en) * | 2015-09-25 | 2018-07-18 | Hitachi Information & Telecommunication Engineering, Ltd. | Image processing device and image processing method |
WO2018051399A1 (en) | 2016-09-13 | 2018-03-22 | 株式会社日立情報通信エンジニアリング | State prediction device and state prediction method |
WO2018220673A1 (en) | 2017-05-29 | 2018-12-06 | 株式会社日立情報通信エンジニアリング | State prediction control device and state prediction control method |
US20220284702A1 (en) * | 2019-08-20 | 2022-09-08 | Nippon Telegraph And Telephone Corporation | Estimation program, estimation device, generation method of detection model, learning method, and learning device |
SG10202003027QA (en) * | 2020-04-01 | 2020-10-29 | Sensetime Int Pte Ltd | Image recognition method, apparatus, and storage medium |
CN117561468A (en) * | 2021-06-29 | 2024-02-13 | 佳能株式会社 | Optical system, image pickup apparatus, and image pickup system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007188417A (en) * | 2006-01-16 | 2007-07-26 | Fujitsu Ten Ltd | Image recognition device, image recognition method, and image recognition program |
JP4203512B2 (en) * | 2006-06-16 | 2009-01-07 | 本田技研工業株式会社 | Vehicle periphery monitoring device |
JP4765075B2 (en) * | 2006-09-04 | 2011-09-07 | 国立大学法人九州工業大学 | Object position and orientation recognition system using stereo image and program for executing object position and orientation recognition method |
-
2012
- 2012-09-20 JP JP2012206981A patent/JP5838940B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014063273A (en) | 2014-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5838940B2 (en) | Image processing apparatus and vehicle control system | |
JP5786947B2 (en) | Pedestrian behavior prediction apparatus and pedestrian behavior prediction method | |
JP7025912B2 (en) | In-vehicle environment recognition device | |
JP5197679B2 (en) | Object detection apparatus and program | |
JP4708124B2 (en) | Image processing device | |
US7817848B2 (en) | Apparatus, method, and computer product for discriminating object | |
JP5737397B2 (en) | Pedestrian motion prediction device | |
JP5407898B2 (en) | Object detection apparatus and program | |
JP2008021035A (en) | Image recognition device, image recognition method, and vehicle control device | |
US20130010112A1 (en) | Object detection apparatus and storage medium storing object detection program | |
WO2013042206A1 (en) | Subject change detection device and subject change detection method | |
JP2017222309A (en) | Parking support method and apparatus | |
JP2013225295A (en) | Collision warning system taking azimuth information into consideration | |
US20140002658A1 (en) | Overtaking vehicle warning system and overtaking vehicle warning method | |
CN111497741B (en) | Collision early warning method and device | |
JP2012221162A (en) | Object detection device and program | |
JP2012123642A (en) | Image identifying device and program | |
JP5780249B2 (en) | Image processing apparatus and vehicle control system using the image processing apparatus | |
JP6523196B2 (en) | Estimation apparatus, method and program | |
JP2016015043A (en) | Object recognition device | |
KR20180047149A (en) | Apparatus and method for risk alarming of collision | |
JP2012118683A (en) | Pedestrian recognition device | |
JP2010072947A (en) | Obstacle detection device | |
JP5345999B2 (en) | Lane mark recognition device | |
JP4788399B2 (en) | Pedestrian detection method, apparatus, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150925 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151013 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151026 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5838940 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |