JP2018041396A - Object recognition device, object recognition method, and object recognition program - Google Patents
Object recognition device, object recognition method, and object recognition program Download PDFInfo
- Publication number
- JP2018041396A JP2018041396A JP2016176747A JP2016176747A JP2018041396A JP 2018041396 A JP2018041396 A JP 2018041396A JP 2016176747 A JP2016176747 A JP 2016176747A JP 2016176747 A JP2016176747 A JP 2016176747A JP 2018041396 A JP2018041396 A JP 2018041396A
- Authority
- JP
- Japan
- Prior art keywords
- target
- targets
- recognition
- unit
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、物体認識装置、物体認識方法、および物体認識プログラムに関する。 The present invention relates to an object recognition device, an object recognition method, and an object recognition program.
従来、画像処理において、カメラによって撮像された画像から、物体を特定するためにエッジ(特徴箇所)を抽出することが行われている。このような画像処理において、抽出された歩行者が存在する可能性のある候補画像部分の数に基づいて画像から物体認識を行う領域を除くことにより、物体認識に要する時間を短縮する技術が知られている(例えば、特許文献1参照)。 Conventionally, in image processing, an edge (characteristic portion) is extracted from an image captured by a camera in order to specify an object. In such image processing, a technique for shortening the time required for object recognition by excluding the area for object recognition from the image based on the number of candidate image portions where there may be extracted pedestrians is known. (For example, refer to Patent Document 1).
しかしながら、従来の技術では、本来なら認識すべき物体が存在する領域を、画像から一時的に取り除いてしまう場合があった。この結果、物体に対する車両制御が遅れ、商品性が悪化する場合があった。 However, in the conventional technique, there is a case where a region where an object to be recognized originally exists is temporarily removed from an image. As a result, vehicle control over the object is delayed, and merchantability may be deteriorated.
本発明は、このような事情を考慮してなされたものであり、物体が存在するであろう領域に絞って優先的に処理を行うにあたって、領域を絞る際に過剰に領域を除外してしまうことを抑制することができる物体認識装置、物体認識方法、および物体認識プログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and when processing is preferentially focused on a region where an object is likely to exist, the region is excessively excluded when narrowing the region. An object of the present invention is to provide an object recognition device, an object recognition method, and an object recognition program that can suppress this.
請求項1記載の発明は、車両の周辺の物標を検出する検出部と、前記検出部により検出された物標に基づいて物体を認識する認識部と、前記検出部により検出された物標のうち、前記車両の進行方向に沿って検出された一又は複数の物標を含む物標グループにおける物標の数が所定数以上である場合に、前記物標グループに含まれる物標を前記認識部による認識対象から除外する処理対象設定部と、を備え、前記処理対象設定部は、前記物標グループにおける物標の数が所定数以上である場合に、更に前記物標グループにおける物標のばらつきの度合が閾値未満である場合、前記物標グループに含まれる物標を、前記認識部による認識対象から除外せずに認識対象とする、物体認識装置である。 The invention according to claim 1 is a detection unit for detecting a target around a vehicle, a recognition unit for recognizing an object based on the target detected by the detection unit, and a target detected by the detection unit. If the number of targets in the target group including one or more targets detected along the traveling direction of the vehicle is a predetermined number or more, the target included in the target group is A processing target setting unit that is excluded from recognition targets by a recognition unit, and the processing target setting unit further includes a target in the target group when the number of targets in the target group is equal to or greater than a predetermined number. When the degree of variation is less than the threshold value, the target recognition device is configured to recognize a target included in the target group without excluding it from the recognition target by the recognition unit.
請求項2記載の発明は、請求項1に記載の物体認識装置において、前記処理対象設定部は、前記物標グループにおける物標のばらつきの度合が閾値以下である場合に、前記物標グループに含まれる物標の位置を前記車両が通過するまでの期間、前記物標グループに含まれる物標を前記認識部による認識対象とし続けるものである。 According to a second aspect of the present invention, in the object recognition device according to the first aspect, the processing target setting unit includes the target group when the degree of variation of the target in the target group is equal to or less than a threshold value. The target included in the target group is continuously recognized as a recognition target by the recognition unit until the vehicle passes through the position of the target included.
請求項3記載の発明は、車両の前方を撮像するカメラと、前記カメラにより撮像された画像から、物体として認識され得る特徴箇所を抽出する抽出部と、前記抽出部により抽出された特徴箇所に基づいて前記画像上で物体を認識する認識部と、前記抽出部により前記画像の奥行き方向に沿って抽出された一または複数の特徴箇所を含む特徴箇所グループにおける特徴箇所の数が所定数以上である場合に、前記特徴箇所グループに含まれる特徴箇所を前記認識部による認識対象から除外する処理対象設定部と、を備え、前記処理対象設定部は、前記特徴箇所グループに含まれる特徴箇所の数が所定数以上である場合に、更に前記特徴箇所グループに含まれる特徴箇所のばらつきの度合が閾値未満である場合、前記特徴箇所グループに含まれる特徴箇所を、前記認識部による認識対象から除外せずに認識対象とする、物体認識装置である。 According to a third aspect of the present invention, there is provided a camera that images the front of a vehicle, an extraction unit that extracts a feature location that can be recognized as an object from an image captured by the camera, and a feature location that is extracted by the extraction unit. A recognition unit for recognizing an object on the basis of the image, and the number of feature locations in the feature location group including one or more feature locations extracted along the depth direction of the image by the extraction unit is a predetermined number or more. A processing target setting unit configured to exclude a feature location included in the feature location group from a recognition target by the recognition unit, and the processing target setting unit includes a number of feature locations included in the feature location group. Is greater than or equal to a predetermined number, and if the degree of variation of the feature locations included in the feature location group is less than a threshold, the features included in the feature location group Location and be recognized without excluding from the recognition target by the recognition unit, a object recognition apparatus.
請求項4記載の発明は、車載コンピュータが、車両の周辺の物標を検出し、前記検出した物標を物体として認識し、前記検出した物標のうち、前記車両の進行方向に沿って検出された一又は複数の物標を含む物標グループにおける物標の数が所定数以上である場合に、前記物標グループに含まれる物標を認識対象から除外し、前記物標グループにおける物標の数が所定数以上である場合に、更に前記物標グループにおける物標のばらつきの度合が閾値未満である場合、前記物標グループに含まれる物標を、認識対象から除外せずに認識対象とする、物体認識方法である。 In the invention according to claim 4, the in-vehicle computer detects a target around the vehicle, recognizes the detected target as an object, and detects the detected target along the traveling direction of the vehicle. When the number of targets in the target group including one or a plurality of targets is equal to or greater than a predetermined number, the targets included in the target group are excluded from recognition targets, and the targets in the target group When the number of target objects is greater than or equal to a predetermined number and the degree of variation of the target in the target group is less than a threshold, the target included in the target group is not excluded from the recognition target. This is an object recognition method.
請求項5記載の発明は、車載コンピュータに、車両の周辺の物標を検出させ、前記検出させた物標を物体として認識させ、前記検出させた物標のうち、前記車両の進行方向に沿って検出された一又は複数の物標を含む物標グループにおける物標の数が所定数以上である場合に、前記物標グループに含まれる物標を認識対象から除外させ、前記物標グループにおける物標の数が所定数以上である場合に、更に前記物標グループにおける物標のばらつきの度合が閾値未満である場合、前記物標グループに含まれる物標を、認識対象から除外させずに認識対象とさせる、物体認識プログラムである。 The invention according to claim 5 causes the in-vehicle computer to detect a target around the vehicle, recognizes the detected target as an object, and follows the traveling direction of the vehicle among the detected targets. When the number of targets in the target group including one or more targets detected in the above is a predetermined number or more, the target included in the target group is excluded from recognition targets, and the target group When the number of targets is equal to or greater than a predetermined number, and the degree of variation of the targets in the target group is less than a threshold value, the targets included in the target group are not excluded from recognition targets. An object recognition program to be recognized.
請求項1、3、4、5記載の発明によれば、車両の進行方向に沿って検出された一又は複数の物標を含む物標グループにおける物標の数が所定数以上である場合に、更に物標グループにおける物標のばらつきの度合が閾値未満である場合、物標グループに含まれる物標を、認識部による認識対象から除外せずに認識対象とすることにより、限られた処理時間の中で、物体(例えば歩行者等)が存在するであろう領域に絞って優先的に処理を行うにあたって、領域を絞る際に過剰に領域を除外してしまうことを抑制することができる。 According to the first, third, fourth, and fifth aspects of the invention, when the number of targets in the target group including one or more targets detected along the traveling direction of the vehicle is equal to or greater than a predetermined number. Furthermore, if the degree of target variation in the target group is less than the threshold value, the target process included in the target group is not excluded from the recognition targets, but limited processing is performed. It is possible to suppress excessive exclusion of a region when narrowing down the region when preferentially performing processing while narrowing down to a region where an object (such as a pedestrian) is likely to exist in time. .
請求項2記載の発明によれば、物標グループにおける物標のばらつきの度合が閾値以下である場合に、物標グループに含まれる物標の位置を車両が通過するまでの期間、物標グループに含まれる物標を物体認識時の認識対象とし続けることにより、物体の認識における精度を向上させることができる。 According to the invention described in claim 2, when the degree of variation of the target in the target group is equal to or less than the threshold, the period until the vehicle passes through the position of the target included in the target group, the target group The accuracy of object recognition can be improved by keeping the target included in the object as a recognition target at the time of object recognition.
以下、図面を参照し、本発明の物体認識装置、物体認識方法、および物体認識プログラムの実施形態について説明する。 Hereinafter, embodiments of an object recognition device, an object recognition method, and an object recognition program of the present invention will be described with reference to the drawings.
図1は、実施形態における物体認識装置100の構成の一例を示す図である。本実施形態における物体認識装置100は車両(以下、自車両Mと称する)に搭載される。物体認識装置100は、例えば、カメラ102と、制御部110と、記憶部130とを備える。物体認識装置100は、例えば、一以上のプロセッサまたは同等の機能を有するハードウェアにより実現される。物体認識装置100は、CPU(Central Processing Unit)などのプロセッサ、記憶装置、および通信インターフェースが内部バスによって接続されたECU(Electronic Control Unit)、或いはMPU(Micro-Processing Unit)などが組み合わされた構成であってよい。また、物体認識装置100は、複数のコンピュータ装置によって分散化されたものであってもよい。
FIG. 1 is a diagram illustrating an example of a configuration of an
カメラ102は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ102は、例えば、車室内のフロントウインドシールド上部やルームミラー裏面等に設けられる。カメラ102は、例えば、周期的に繰り返し自車両Mの前方を撮像する。カメラ102は、複数のカメラを含むステレオカメラであってもよい。
The
制御部110は、例えば、画像取得部112と、候補画像部分抽出部114と、距離算出部116と、処理対象設定部118と、候補画像部分判定部120と、歩行者画像識別部122と、歩行者向き判別部124と、回避判定部126と、警報出力部128とを備える。これらの構成要素は、プロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。
For example, the
記憶部130は、ROM(Read Only Memory)やRAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等で実現される。プロセッサが実行するプログラムは、予め記憶部130に格納されていてもよいし、車載インターネット設備等を介して外部装置からダウンロードされてもよい。また、プログラムは、そのプログラムを格納した可搬型記憶媒体が図示しないドライブ装置に装着されることで記憶部130にインストールされてもよい。記憶部130には、例えば、撮像画像132や候補画像部分134、簡易マッチングデータ136、歩行者用マッチングデータ138、制限時間設定用情報140などの情報が格納される。
The
以下、フローチャートを用いて制御部110が備える各構成について説明する。図2は、制御部110による処理の流れの一例を示すフローチャートである。
Hereinafter, each component with which the
まず、画像取得部112は、カメラ102から画像を取得し(ステップS100)、記憶部130に撮像画像132として記憶させる。カメラ102から取得される画像は、例えば、カラー画像であってもよいし、グレースケールの画像(輝度画像)であってもよい。
First, the
なお、画像取得部112は、自車両Mに搭載されたカメラ102から撮像画像132を取得する代わりに、道路脇や道路上方に設置された外部カメラと無線通信することにより、外部カメラにより撮像された画像を撮像画像132として取得してもよい。無線通信は、例えば、セルラー網やWi−Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用することで行われてよい。この場合、特許請求の範囲におけるカメラは、自車両Mに搭載されたカメラ102に加えて(或いは代えて)、道路脇や道路上方に設置された外部カメラを含んでもよい。
The
次に、候補画像部分抽出部114は、撮像画像132の全部または一部の領域から特徴箇所を抽出し、抽出した特徴箇所と、予め記憶部130に記憶させておいた簡易マッチングデータ136と比較することで、歩行者が存在する可能性のある領域(簡易マッチングデータ136に合致する特徴箇所の集まりを包含する領域)を候補画像部分134として抽出する(ステップS102)。候補画像部分134は、「物標」の一例である。また、カメラ102、画像取得部112および候補画像部分抽出部114は、「検出部」の一例である。
Next, the candidate image part extraction unit 114 extracts feature points from all or a part of the captured
「特徴箇所」とは、エッジすなわち周辺画素との輝度差や色彩パラメータの差が基準よりも大きい特徴点、あるいは、同等の性質を有する画素群である。 The “feature portion” is a feature point having a luminance difference or color parameter difference from an edge, that is, a surrounding pixel, or a pixel group having an equivalent property.
簡易マッチングデータ136は、歩行者用マッチングデータ138よりも緩やかな基準で作成されたデータである。「緩やかな基準」とは、例えば、後述する形状モデルデータが歩行者用マッチングデータ138に含まれる形状モデルデータと比べて少ない特徴箇所で表されていることを意味する。また、「緩やかな基準」は、ステップS102の処理において、「合致する」ことの要求レベルが、後述するステップS124の処理よりも低いことを意味してもよい。例えば、ステップS102の処理は、合致することが要求される形状モデルの数がステップS124よりも低いものであってよい。
The
歩行者用マッチングデータ138は、例えば、歩行者の身体の一部(例えば、頭、肩、手、足、目、鼻、口など)または全部の輪郭あるいは稜線などを示す形状モデルデータである。歩行者用マッチングデータ138は、歩行者の身体の複数の箇所(パーツ)に対応する複数の形状モデルデータを含んでよい。これに対し、簡易マッチングデータ136は、歩行者用マッチングデータ138に含まれる形状モデルデータよりも簡易な形状モデルデータであり、比較対象の特徴箇所群と合致すると判定されやすいデータである。
The
候補画像部分抽出部114は、抽出した特徴箇所が、簡易マッチングデータ136に含まれる形状モデルデータと合致する形状を示す領域を、候補画像部分134として抽出し、記憶部130に記憶させる。本処理では、形状の特徴を示す特徴箇所同士を比較するものであるため、歩行者(人間)以外の物体を映した部分が候補画像部分134として抽出される場合がある。
The candidate image portion extraction unit 114 extracts a region where the extracted feature location indicates a shape that matches the shape model data included in the
図3は、撮像画像132から候補画像部分134が抽出される様子を模式的に示す図である。図示の例では、雪道に車輪の轍が2条形成された後に轍の部分だけ雪が融けて2条の轍の間に雪の塊が残り、この雪の塊が候補画像部分134として抽出されてしまっている。
FIG. 3 is a diagram schematically illustrating how the
距離算出部116は、候補画像部分抽出部114により抽出された各候補画像部分134について、自車両Mからの距離を算出する(ステップS104)。例えば、距離算出部116は、撮像画像132において無限遠点である道路の消失点を導出し、消失点と候補画像部分134との画素間の距離を導出する。そして、距離算出部116は、カメラ102の焦点距離と、消失点および候補画像部分134の画素間の距離とに基づいて無限遠点に対する角度(仰角)を算出し、当該角度とカメラ102が設置された位置の高さとに基づいて、撮像画像132における候補画像部分134の位置に対応した実空間上の位置を求めることで、各候補画像部分134と自車両Mとの画像奥行き方向に関する距離を算出する。
The
候補画像部分判定部120は、距離算出部116によって距離が算出された候補画像部分134の位置を、実空間を示す座標系にマッピングする。実空間を示す座標系は、例えば、上方から自車両Mを見た場合の二次元空間で表されてよい。
The candidate image portion determination unit 120 maps the position of the
図4は、図3に示す撮像画像132から抽出された候補画像部分134の位置がマッピングされた座標系の一例を示す図である。図中X軸は水平方向を表し、Y軸は奥行き方向を表している。また、図中Oは、例えば、自車両Mの前端位置(例えばフロントバンパー等の位置)からの位置を表している。図中RCは、自車両Mが走行する走行車線に対して設定された判定領域を表し、RLA、RLBは、自車両Mの進行方向に対して左側の車線(或いは道路外の領域)に設定された判定領域を表している。また、RRA、RRBは、自車両Mの進行方向に対して右側の車線(或いは道路外の領域)に設定された判定領域を表している。
FIG. 4 is a diagram illustrating an example of a coordinate system in which the position of the
例えば、候補画像部分判定部120は、自車両Mから候補画像部分134までの距離をY軸における座標に変換すると共に、撮像画像132における候補画像部分134の水平方向成分の位置をX軸における座標に変換することで、各候補画像部分134の位置をX-Y座標系にマッピングする。
For example, the candidate image portion determination unit 120 converts the distance from the host vehicle M to the
次に、候補画像部分判定部120は、実空間を示す座標系(X-Y座標系)において、自車両Mの進行方向(Y軸方向)に直交する水平方向(X軸方向)の幅が所定幅の範囲内である判定領域Rを設定する。例えば、候補画像部分判定部120は、図4中のRC、RLA、RLB、RRA、RRBなどのように、複数の判定領域Rを設定する。そして、候補画像部分判定部120は、設定した複数の判定領域Rから、着目する一つの判定領域を選択する(ステップS106)。複数の判定領域Rを設定する場合、各判定領域Rの水平方向の所定幅は、同じであってもよいし異なっていてもよい。また、各判定領域Rは、隣り合う判定領域とその一部が重なってもよい。 Next, the candidate image portion determination unit 120 has a width in the horizontal direction (X-axis direction) orthogonal to the traveling direction (Y-axis direction) of the host vehicle M in the coordinate system (XY coordinate system) indicating the real space. A determination region R that is within a predetermined width is set. For example, the candidate image portion determination unit 120 sets a plurality of determination regions R such as R C , R LA , R LB , R RA , R RB in FIG. Then, the candidate image portion determination unit 120 selects one determination region of interest from the set determination regions R (step S106). When a plurality of determination regions R are set, the predetermined width in the horizontal direction of each determination region R may be the same or different. Moreover, each determination area | region R may overlap with the adjacent determination area | region.
次に、候補画像部分判定部120は、マッピングした候補画像部分134のうち、S106において選択した判定領域Rに属する候補画像部分134の数nをカウントする。図4の例において、複数の判定領域Rから判定領域RCが選択されている場合、候補画像部分134aは、判定領域RCに属さない候補画像部分となり、候補画像部分134bは、判定領域RCに属する候補画像部分となる。そして、候補画像部分判定部120は、判定領域Rに属する候補画像部分134(図中134b)の数nが所定数k以上であるか否かを判定する(ステップS108)。判定領域Rに属する候補画像部分は、「物標グループ」または「特徴箇所グループ」の一例である。
Next, the candidate image portion determination unit 120 counts the number n of
処理対象設定部118は、候補画像部分判定部120によって判定領域Rに属する候補画像部分134の数nが所定数k未満であると判定された場合、候補画像部分判定部120により選択された判定領域Rに属する全ての候補画像部分134を、後述する歩行者画像識別部122の処理対象に設定する(ステップS110)。
When the candidate image portion determination unit 120 determines that the number n of
一方、処理対象設定部118は、候補画像部分判定部120によって判定領域Rに属する候補画像部分134の数nが所定数k以上であると判定された場合、候補画像部分判定部120により選択された判定領域Rに属する候補画像部分134の分散を導出する。候補画像部分134の分散は、「物標のばらつきの度合」または「特徴箇所のばらつきの度合」の一例である。そして、処理対象設定部118は、導出した分散が閾値未満であるか否かを判定する(ステップS112)。
On the other hand, the processing
図5は、判定領域RのY軸方向における候補画像部分134の分布の一例を示す図である。図中縦軸は候補画像部分134の数(候補数n)を表し、横軸は判定領域RのY軸方向を表している。例えば、2条の轍の間に存在する雪の塊などは車道に沿って遍在しやすいため、図5に示すように、候補画像部分134は、Y軸方向においてある程度分散した状態でマッピングされる傾向がある。この場合、候補画像部分134の分散は大きくなりやすい。すなわち、候補画像部分134の分散が閾値を超えやすくなる。
FIG. 5 is a diagram illustrating an example of the distribution of the
処理対象設定部118は、候補画像部分134の分散が閾値以上となる場合、経過時間閾値Tthを所定時間Tに設定する(ステップS114)。経過時間閾値Tthとは、その閾値分の時間が経過するまでの間、後述するS120の処理を禁止するため(移行しないため)の時間である。
The process
一方、2条の轍の間に歩行者がいる場合、撮像画像132において融け残った雪と共に歩行者が候補画像部分134として抽出されることが想定される。図6は、2条の轍の間に存在する歩行者が候補画像部分134として抽出される様子を模式的に示す図である。図6のように、他の物体の特徴箇所と比べて歩行者の特徴箇所は、簡易マッチングデータ136に含まれる形状データとより合致しやすくなるため、歩行者が存在する地点においてより多くの候補画像部分134が抽出される傾向がある。すなわち、候補画像部分134の密度(Y軸方向の所定区間あたりの候補画像部分134の数n)が閾値を超える地点は、歩行者が存在する可能性が高いと評価することができる。
On the other hand, when there is a pedestrian between the two ridges, it is assumed that the pedestrian is extracted as the
図7は、図6に示す撮像画像132から抽出された候補画像部分134の位置がマッピングされた座標系の一例を示す図である。例えば、撮像画像132において歩行者が存在する地点に対応する座標A付近には、他の座標に比して候補画像部分134が多く抽出される。
FIG. 7 is a diagram illustrating an example of a coordinate system in which the position of the
図8は、判定領域RのY軸方向における候補画像部分134の分布の他の例を示す図である。図8に示す分布は、図7においてマッピングされた候補画像部分134に対応する。図示のように、選択した判定領域R内に歩行者が存在する場合、候補画像部分134の数がY軸方向のある地点において突出する傾向があり、候補画像部分134の分散が小さくなりやすい。すなわち、判定領域R内に歩行者が存在する場合、候補画像部分134の分散が閾値未満となりやすい。
FIG. 8 is a diagram illustrating another example of the distribution of the
処理対象設定部118は、S112の処理において、候補画像部分134の分散が閾値未満であると判定した場合、経過時間閾値Tthを、所定時間Tを拡張した時間T+αに設定する(ステップS116)。拡張分の時間αは、経過時間閾値Tthを、候補画像部分134の分散が閾値を超える地点(候補画像部分134が密集している地点)を自車両Mが通過可能な程度の時間に拡張する。拡張分の時間αは、例えば、予め定められた時間であってもよいし、ある基準時間から自車両Mの車速が増加するのに応じて減少し、自車両Mの車速が減少するのに応じて増加するような時間であってもよい。
If the process
例えば、候補画像部分134の分散が閾値未満である場合、判定領域R内に歩行者が存在している可能性が高いと判断することができため、後述する歩行者画像識別部122による認識処理によって、候補画像部分134の数nが突出している地点(すなわち歩行者が存在する可能性が高い地点)に歩行者が存在しているか否かが認識されるまでは、判定領域R内の候補画像部分134を処理対象から一律に除外せずに、その地点まで継続して候補画像部分134が歩行者であるのかどうかを認識し続けることが好ましい。従って、所定時間T、あるいは所定時間Tを拡張した時間T+αが経過するまでの間は、判定領域R内の候補画像部分134を処理対象から除外せずに、候補画像部分134が歩行者であるのかどうかを認識し続けることが必要となる。
For example, when the variance of the
例えば、処理対象設定部118は、記憶部130に格納された制限時間設定用情報140を参照して、自車両Mの速度Vに応じて経過時間閾値Tthを設定し、時間のカウントを開始する。図9は、制限時間設定用情報140の一例を示す図である。制限時間設定用情報140は、経過時間閾値Tthと自車両Mの速度Vとの関係を示した情報であり、例えば、テーブルやマップ、数式などによって表される。図示のように、経過時間閾値Tthは、自車両Mの速度Vが増加するのに応じて減少する傾向を有している。従って、処理対象設定部118は、自車両Mの速度Vが大きいほど経過時間閾値Tthを短く設定する。
For example, the processing
次に、処理対象設定部118は、経過時間tが、TまたはT+αに設定した経過時間閾値Tth以上となるか否かを判定する(ステップS118)。経過時間tは、例えば、本フローチャートの処理が開始された時刻から現時刻までに経過した時間である。
Next, the processing
処理対象設定部118は、経過時間tが経過時間閾値Tth以上となる場合、判定領域R内において抽出されている候補画像部分134が、歩行者が存在する領域である可能性が低いと判断して、候補画像部分判定部120により選択された判定領域R内の候補画像部分134を処理対象から除外する(ステップS120)。これによって、候補画像部分判定部120により選択された判定領域Rに含まれる候補画像部分134は、後述する歩行者画像識別部122の処理対象から除外されることになる。なお、処理対象設定部118は、判定領域R内に含まれる全ての候補画像部分134を処理対象から除外してもよいし、一部の候補画像部分134を処理対象から除外してもよい。一部の候補画像部分134は、例えば、判定領域Rにおいて、自車両Mに近い候補画像部分134である。これによって、例えば、除外対象の候補画像部分134であっても、自車両Mからの距離が遠く、処理時間に余裕がある場合には、歩行者画像識別部122の処理対象に含めることができる。
When the elapsed time t is equal to or greater than the elapsed time threshold Tth, the processing
一方、処理対象設定部118は、経過時間tが経過時間閾値Tth未満となる場合、上述したS110の処理に移り、候補画像部分判定部120により選択された判定領域Rに属する全ての候補画像部分134を、歩行者画像識別部122の処理対象に設定する。これによって、経過時間閾値Tthが経過するまでの間は、判定領域R内の候補画像部分134を処理対象から除外せずに、候補画像部分134が歩行者であるのかどうかを認識し続けることになる。
On the other hand, when the elapsed time t is less than the elapsed time threshold Tth, the processing
なお、上述した処理において、経過時間閾値Tthとして、所定時間Tと、所定時間Tを拡張した時間T+αとを用いることとしたが、この限りではなく、拡張分の時間+αを用いずに所定時間Tのみを用いることとしても良い。具体的にはS112の処理で候補画像部分134の分散が閾値未満となる場合はS114とS118との処理をスキップしてS120の処理を行い、候補画像部分134の分散が閾値以上となる場合はS116にて経過時間閾値Tthを所定時間Tに設定してS118の処理にて経過時間閾値Tthが経過したかどうかを判定することとしても良い。
In the above-described processing, the predetermined time T and the time T + α obtained by extending the predetermined time T are used as the elapsed time threshold Tth. However, the present invention is not limited to this, and the predetermined time without using the extended time + α. Only T may be used. Specifically, when the variance of the
次に、処理対象設定部118は、設定した全ての判定領域Rについて、その判定領域Rに属する候補画像部分134を処理対象から除外する、または処理対象とする処理を行ったかどうかを判定する(ステップS122)。処理対象設定部118は、全ての判定領域Rについて、その判定領域Rに属する候補画像部分134を処理対象から除外、または処理対象とする処理を行っていない場合、上述したS106に処理を移し、未だ選択していない判定領域Rを着目する判定領域として選択する。
Next, the processing
一方、全ての判定領域Rについて処理が行われた場合、歩行者画像識別部122は、歩行者用マッチングデータ138を用いることで、処理対象設定部118により設定された処理対象の候補画像部分134について、歩行者の画像部分を含むか否かを識別する歩行者識別処理を行う(ステップS124)。歩行者の画像部分とは、その画像部分に含まれる特徴箇所に基づいて推定可能な物体が歩行者を表していると定めることが可能な画像上の領域である。
On the other hand, when the processing is performed for all the determination regions R, the pedestrian
例えば、歩行者画像識別部122は、処理対象の候補画像部分134から、歩行者用マッチングデータ138に含まれる形状データに合致する特徴箇所を有する候補画像部分134を選択する。すなわち、歩行者画像識別部122は、候補画像部分抽出部114の処理において参照される簡易マッチングデータ136よりも更に詳細な(例えばマッチングをとる特徴箇所の数が数倍多い)歩行者用マッチングデータ138を用いることで、処理対象の候補画像部分134の中から、歩行者の画像部分を含む候補画像部分134を選択する。歩行者画像識別部122および歩行者向き判別部124は、「認識部」の一例である。
For example, the pedestrian
歩行者向き判別部124は、歩行者画像識別部122により選択された各候補画像部分134について、歩行者の向きを判別する(ステップS126)。例えば、歩行者向き判別部124は、歩行者の画像部分から、歩行者の姿勢、または頭部や四肢の向きを導出し、その姿勢や身体の部位の向きに基づいて、歩行者の向きを判別する。なお、処理対象の複数の候補画像部分134のうち、歩行者画像識別部122により歩行者の画像部分を含む候補画像部分134が選択されない場合、本フローチャートの処理は終了する。
The pedestrian
回避判定部126は、歩行者向き判別部124により判別された歩行者の向きに応じて、歩行者が回避すべき回避対象物であるか否かを判定する(ステップS128)。例えば、回避判定部126は、歩行者の向きが自車両Mに近づく方向である場合、或いは、自車両Mが走行する走行車線の中央などで歩行者が静止している場合、歩行者を回避対象物と判定する。
The
警報出力部128は、回避判定部126により歩行者が回避対象物であると判定された場合、車内のスピーカや表示装置を用いて、運転者に回避を促す警報を出力する(ステップS130)。これによって、本フローチャートの処理が終了する。
When the
図10は、候補画像部分134の分散に応じて候補画像部分134を処理対象から除外する様子を模式的に示す図である。図中(a)は、候補画像部分134の分散が閾値以上である場面を表しており、(b)は、候補画像部分134の分散が閾値未満である場面を表している。例えば、(a)の場面では、判定領域Rに属する候補画像部分134の数nが所定数k以上であると判定されてから経過時間閾値Tth以上の時間が経過した地点P1以降において、判定領域Rに属する候補画像部分134が処理対象から除外されることになる。この結果、歩行者の認識処理の対象となる候補画像部分134が少なくなるため、歩行者認識に要する時間を短縮することができる。また、(b)の場面では、歩行者が存在する可能性が高い地点Aをある程度通過した地点P2まで歩行者認識を継続するため、自車両Mをより安全に走行させることができる。
FIG. 10 is a diagram schematically illustrating a state in which the
尚、(a)(b)ではすべての除外領域で地点P1、P2以降を除外としているが、実際は除外領域毎に所定数kを超えてからの経過時間が経過時間閾値Tthを超えたか判定していることから、除外タイミングは各所帯領域毎に異なる。 In (a) and (b), points P1 and P2 and subsequent points are excluded in all excluded areas, but it is actually determined whether the elapsed time after exceeding a predetermined number k for each excluded area exceeds the elapsed time threshold value Tth. Therefore, the exclusion timing is different for each household area.
また、(b)では地点A以降を除外としているが、P1からAまでの領域も除外するようにしても良い。この場合、経過時間閾値Tthを用いた処理ではなく、判定領域Rを距離方向に複数に分割し、候補画像部分134が密集している部分に当たる領域のみ制御対象とするといった制御を行うことになる。尚、この処理はP1からAまでの領域も除外するために用いるに限らず、経過時間閾値Tthを用いた処理に替えて採用可能である。
Further, in (b), the area after the point A is excluded, but the area from P1 to A may also be excluded. In this case, instead of processing using the elapsed time threshold value Tth, control is performed such that the determination region R is divided into a plurality of regions in the distance direction, and only the region corresponding to the portion where the
以上説明した実施形態における物体認識装置100によれば、判定領域Rに属する候補画像部分134の数nが所定数k未満である場合に、判定領域Rに属する候補画像部分134を処理対象とし、判定領域Rに属する候補画像部分134の数nが所定数k以上である場合に、判定領域Rに属する候補画像部分134の分散が閾値以上である場合、判定領域Rに属する候補画像部分134を処理対象から除外し、判定領域Rに属する候補画像部分134の分散が閾値未満である場合、判定領域Rに属する候補画像部分134を処理対象から除外せずに認識対象とすることにより、物体が存在するであろう領域に絞って優先的に処理を行うにあたって、領域を絞る際に過剰に領域を除外してしまうことを抑制することができる。
According to the
また、上述した実施形態における物体認識装置100によれば、判定領域Rに属する候補画像部分134の分散が閾値未満である場合に、歩行者が存在する可能性が高い地点を自車両Mが通過するまでの期間、判定領域Rに属する候補画像部分134を処理対象とし続けることにより、物体の認識における精度を向上させることができ、自車両Mをより安全に走行させることができる。
Further, according to the
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 As mentioned above, although the form for implementing this invention was demonstrated using embodiment, this invention is not limited to such embodiment at all, In the range which does not deviate from the summary of this invention, various deformation | transformation and substitution Can be added.
100…物体認識装置、102…カメラ、110…制御部、112…画像取得部、114…候補画像部分抽出部、116…距離算出部、118…処理対象設定部、120…候補画像部分判定部、122…歩行者画像識別部、124…歩行者向き判別部、126…回避判定部、128…警報出力部、130…記憶部、132…撮像画像、134…候補画像部分、136…簡易マッチングデータ、138…歩行者用マッチングデータ、140…制限時間設定用情報
DESCRIPTION OF
Claims (5)
前記検出部により検出された物標に基づいて物体を認識する認識部と、
前記検出部により検出された物標のうち、前記車両の進行方向に沿って検出された一又は複数の物標を含む物標グループにおける物標の数が所定数以上である場合に、前記物標グループに含まれる物標を前記認識部による認識対象から除外する処理対象設定部と、を備え、
前記処理対象設定部は、
前記物標グループにおける物標の数が所定数以上である場合に、更に前記物標グループにおける物標のばらつきの度合が閾値未満である場合、前記物標グループに含まれる物標を、前記認識部による認識対象から除外せずに認識対象とする、
物体認識装置。 A detection unit for detecting a target around the vehicle;
A recognition unit for recognizing an object based on the target detected by the detection unit;
Among the targets detected by the detection unit, when the number of targets in a target group including one or more targets detected along the traveling direction of the vehicle is equal to or greater than a predetermined number, A processing target setting unit that excludes targets included in the target group from recognition targets by the recognition unit,
The processing target setting unit
When the number of targets in the target group is equal to or greater than a predetermined number, and when the degree of variation in the target group is less than a threshold, the target included in the target group is recognized as the recognition target. To be recognized without being excluded from recognition by
Object recognition device.
請求項1に記載の物体認識装置。 The processing target setting unit includes a period of time until the vehicle passes the position of the target included in the target group when the degree of variation of the target in the target group is a threshold value or less. Continue to include targets included in the group as recognition targets by the recognition unit.
The object recognition apparatus according to claim 1.
前記カメラにより撮像された画像から、物体として認識され得る特徴箇所を抽出する抽出部と、
前記抽出部により抽出された特徴箇所に基づいて前記画像上で物体を認識する認識部と、
前記抽出部により前記画像の奥行き方向に沿って抽出された一または複数の特徴箇所を含む特徴箇所グループに含まれる特徴箇所の数が所定数以上である場合に、前記特徴箇所グループに含まれる特徴箇所を前記認識部による認識対象から除外する処理対象設定部と、を備え、
前記処理対象設定部は、
前記特徴箇所グループに含まれる特徴箇所の数が所定数以上である場合に、更に前記特徴箇所グループに含まれる特徴箇所のばらつきの度合が閾値未満である場合、前記特徴箇所グループに含まれる特徴箇所を、前記認識部による認識対象から除外せずに認識対象とする、
物体認識装置。 A camera that images the front of the vehicle;
An extraction unit that extracts a feature location that can be recognized as an object from an image captured by the camera;
A recognition unit for recognizing an object on the image based on the feature location extracted by the extraction unit;
Features included in the feature location group when the number of feature locations included in the feature location group including one or more feature locations extracted along the depth direction of the image by the extraction unit is a predetermined number or more. A processing target setting unit that excludes a part from a recognition target by the recognition unit,
The processing target setting unit
When the number of feature locations included in the feature location group is equal to or greater than a predetermined number, and further when the degree of variation of the feature locations included in the feature location group is less than a threshold value, the feature locations included in the feature location group , As a recognition target without excluding from the recognition target by the recognition unit,
Object recognition device.
車両の周辺の物標を検出し、
前記検出した物標を物体として認識し、
前記検出した物標のうち、前記車両の進行方向に沿って検出された一又は複数の物標を含む物標グループにおける物標の数が所定数以上である場合に、前記物標グループに含まれる物標を認識対象から除外し、
前記物標グループにおける物標の数が所定数以上である場合に、更に前記物標グループにおける物標のばらつきの度合が閾値未満である場合、前記物標グループに含まれる物標を、認識対象から除外せずに認識対象とする、
物体認識方法。 In-vehicle computer
Detect targets around the vehicle,
Recognizing the detected target as an object,
Among the detected targets, when the number of targets in the target group including one or more targets detected along the traveling direction of the vehicle is a predetermined number or more, included in the target group Target to be recognized,
When the number of targets in the target group is equal to or greater than a predetermined number, and the degree of variation of the target in the target group is less than a threshold, the targets included in the target group are recognized To be recognized without being excluded from
Object recognition method.
車両の周辺の物標を検出させ、
前記検出させた物標を物体として認識させ、
前記検出させた物標のうち、前記車両の進行方向に沿って検出された一又は複数の物標を含む物標グループにおける物標の数が所定数以上である場合に、前記物標グループに含まれる物標を認識対象から除外させ、
前記物標グループにおける物標の数が所定数以上である場合に、更に前記物標グループにおける物標のばらつきの度合が閾値未満である場合、前記物標グループに含まれる物標を、認識対象から除外させずに認識対象とさせる、
物体認識プログラム。 On-board computer
Detect targets around the vehicle,
Recognizing the detected target as an object,
Among the detected targets, when the number of targets in the target group including one or more targets detected along the traveling direction of the vehicle is a predetermined number or more, the target group Excluding included targets from recognition,
When the number of targets in the target group is equal to or greater than a predetermined number, and the degree of variation of the target in the target group is less than a threshold, the targets included in the target group are recognized Make it a recognition target without excluding it from
Object recognition program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016176747A JP6354963B2 (en) | 2016-09-09 | 2016-09-09 | Object recognition apparatus, object recognition method, and object recognition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016176747A JP6354963B2 (en) | 2016-09-09 | 2016-09-09 | Object recognition apparatus, object recognition method, and object recognition program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018041396A true JP2018041396A (en) | 2018-03-15 |
JP6354963B2 JP6354963B2 (en) | 2018-07-11 |
Family
ID=61626110
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016176747A Active JP6354963B2 (en) | 2016-09-09 | 2016-09-09 | Object recognition apparatus, object recognition method, and object recognition program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6354963B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115147689A (en) * | 2021-03-29 | 2022-10-04 | 本田技研工业株式会社 | Identification device, vehicle system, identification method, and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04137014A (en) * | 1990-09-28 | 1992-05-12 | Mazda Motor Corp | Traveling path terminal detector for mobile vehicle |
JP2010205175A (en) * | 2009-03-05 | 2010-09-16 | Nissan Motor Co Ltd | Lane recognition device and method |
JP2015204017A (en) * | 2014-04-15 | 2015-11-16 | 日産自動車株式会社 | Lane recognition apparatus |
-
2016
- 2016-09-09 JP JP2016176747A patent/JP6354963B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04137014A (en) * | 1990-09-28 | 1992-05-12 | Mazda Motor Corp | Traveling path terminal detector for mobile vehicle |
JP2010205175A (en) * | 2009-03-05 | 2010-09-16 | Nissan Motor Co Ltd | Lane recognition device and method |
JP2015204017A (en) * | 2014-04-15 | 2015-11-16 | 日産自動車株式会社 | Lane recognition apparatus |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115147689A (en) * | 2021-03-29 | 2022-10-04 | 本田技研工业株式会社 | Identification device, vehicle system, identification method, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6354963B2 (en) | 2018-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6163453B2 (en) | Object detection device, driving support device, object detection method, and object detection program | |
JP6819996B2 (en) | Traffic signal recognition method and traffic signal recognition device | |
US9971946B2 (en) | Traveling road surface detection device and traveling road surface detection method | |
JP6021689B2 (en) | Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program | |
JP6087858B2 (en) | Traveling lane marking recognition device and traveling lane marking recognition program | |
CN106183979A (en) | A kind of method and apparatus vehicle reminded according to spacing | |
US9508000B2 (en) | Object recognition apparatus | |
JP2015225546A (en) | Object detection device, drive support apparatus, object detection method, and object detection program | |
JP2009053818A (en) | Image processor and method thereof | |
US20150243169A1 (en) | Traffic lane situation determining device and method for determining traffic lane situation | |
JP6483360B2 (en) | Object recognition device | |
JP2009301495A (en) | Image processor and image processing method | |
JP2016018521A (en) | Travel zone line recognition device and program | |
JP6241172B2 (en) | Vehicle position estimation device and vehicle position estimation method | |
JP2012252501A (en) | Traveling path recognition device and traveling path recognition program | |
JP6354963B2 (en) | Object recognition apparatus, object recognition method, and object recognition program | |
EP3410345A1 (en) | Information processing apparatus and non-transitory recording medium storing thereon a computer program | |
KR101603293B1 (en) | Lane recognition method | |
JP5345999B2 (en) | Lane mark recognition device | |
JP5464073B2 (en) | Outside environment recognition device, outside environment recognition method | |
JP2019109681A (en) | Compartment line specification device | |
JP6287683B2 (en) | Road curvature detection device | |
US20180181821A1 (en) | Recognition device | |
JP6677142B2 (en) | Parking frame recognition device | |
JP6343862B2 (en) | Object recognition apparatus, object recognition method, and object recognition program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180413 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180515 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180529 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6354963 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |