JP6871199B2 - Target recognition device - Google Patents
Target recognition device Download PDFInfo
- Publication number
- JP6871199B2 JP6871199B2 JP2018102163A JP2018102163A JP6871199B2 JP 6871199 B2 JP6871199 B2 JP 6871199B2 JP 2018102163 A JP2018102163 A JP 2018102163A JP 2018102163 A JP2018102163 A JP 2018102163A JP 6871199 B2 JP6871199 B2 JP 6871199B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- likelihood
- image
- recognition
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 32
- 238000012937 correction Methods 0.000 claims description 25
- 238000002474 experimental method Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、目標物認識装置に関し、特に、画像に示される目標物を認識する装置に関する。 The present invention relates to a target object recognition device, and more particularly to a device that recognizes a target object shown in an image.
画像に示された特定の物体を認識する技術につき研究開発が行われている。画像認識技術には、時間経過と共に順次取得される画像のそれぞれにおいて目標物を認識し、目標物を追跡するものがある。 Research and development is being carried out on a technology for recognizing a specific object shown in an image. Some image recognition techniques recognize a target in each of the images sequentially acquired over time and track the target.
例えば、以下の特許文献1には、カメラ映像から人物を検出し、検出された人物を追跡する画像認識装置が記載されている。この画像認識装置は、時間経過と共に順次取得された画像から検出対象物としての人物を検出し、各画像における人物の位置を求めることで人物を追跡する。人物を検出する処理は、処理対象の画像における特定の領域が人物を示す可能性としての尤度を求め、尤度が所定の尤度閾値よりも大きい場合に、その特定の領域に対応する物体を人物として確定することで行われる。 For example, the following Patent Document 1 describes an image recognition device that detects a person from a camera image and tracks the detected person. This image recognition device detects a person as a detection target from images sequentially acquired with the passage of time, and tracks the person by obtaining the position of the person in each image. In the process of detecting a person, the likelihood that a specific area in the image to be processed indicates a person is obtained, and when the likelihood is larger than a predetermined likelihood threshold, the object corresponding to the specific area is obtained. Is done by confirming as a person.
なお、画像上で認識される物体は、実際には、画像上で特定の領域を占める物体の像を指すが、本願明細書では、表現を簡略化するため、画像上で特定の領域を占める物体の像を、単に画像上の物体と表現する。 The object recognized on the image actually refers to an image of an object that occupies a specific area on the image, but in the present specification, in order to simplify the expression, the object occupies a specific area on the image. The image of an object is simply expressed as an object on the image.
画像上で目標物を認識する処理については、次のような課題がある。すなわち、尤度が近い複数の物体が1つの画像から認識された場合、いずれの物体を目標物として認識すべきかの判定が困難となる場合がある。これによって、例えば、時間経過と共に順次取得される画像において目標物を追跡する場合には、追跡の途中で目標物でない別の物体を誤って追跡してしまうことがある。 The process of recognizing a target object on an image has the following problems. That is, when a plurality of objects having similar likelihoods are recognized from one image, it may be difficult to determine which object should be recognized as the target object. As a result, for example, when tracking a target object in images that are sequentially acquired over time, another object that is not the target object may be mistakenly tracked during the tracking process.
本発明は、画像に示された目標物を確実に認識することを目的とする。 An object of the present invention is to reliably recognize a target shown in an image.
本発明は、時間経過と共に画像を順次取得する画像取得部と、画像上で目標物を認識する物体認識部と、を備え、前記物体認識部は、先に取得された画像で認識された前記目標物の位置に基づいて、前記目標物が認識されると予測される予測範囲を、次に取得された画像上に設定する予測範囲設定部と、次に取得された画像上の物体について前記目標物に対する尤度を求めると共に、当該尤度が所定の認識条件を満たす物体のうち、前記予測範囲に対する所定の位置条件が満たされる物体を前記目標物として認識する目標物認識部と、を備え、前記尤度が前記認識条件を満たす物体であって、前記予測範囲に対する所定の位置条件が満たされる物体がないときに、前記目標物認識部は、前記尤度が前記認識条件を満たさない物体であって、前記予測範囲に対する所定の位置条件が満たされる仮目標物があるときは、先に取得された画像のうち、前記尤度が前記認識条件を満たすことで前記目標物が認識された目標物認識画像の数に応じて、当該仮目標物についての前記尤度を修正し、修正尤度を求める修正処理と、前記修正尤度が前記認識条件を満たすときに、前記仮目標物を前記目標物として認識する修正認識処理と、を実行することを特徴とする。 The present invention includes an image acquisition unit that sequentially acquires images with the passage of time, and an object recognition unit that recognizes an object on the image, and the object recognition unit is the object recognized by the previously acquired image. The prediction range setting unit that sets the prediction range in which the target is predicted to be recognized based on the position of the target on the next acquired image, and the object on the next acquired image are described above. It is provided with a target object recognition unit that obtains a likelihood with respect to a target object and recognizes an object satisfying a predetermined position condition with respect to the prediction range as the target object among objects whose likelihood condition satisfies a predetermined recognition range. When there is no object whose likelihood satisfies the recognition condition and the predetermined position condition with respect to the prediction range is not satisfied, the target object recognition unit is an object whose likelihood does not satisfy the recognition condition. When there is a provisional target object that satisfies the predetermined position condition with respect to the prediction range, the target object is recognized by satisfying the recognition condition with the likelihood of the previously acquired images. The correction process of modifying the likelihood of the provisional target according to the number of target recognition images to obtain the correction likelihood, and the provisional target when the correction likelihood satisfies the recognition condition. It is characterized by executing the correction recognition process for recognizing the target object.
望ましくは、前記修正尤度は、前記目標物認識画像の数が大きい程、大きい値を有する。 Desirably, the correction likelihood has a larger value as the number of target recognition images increases.
本発明によれば、画像に示された目標物を確実に認識することができる。 According to the present invention, the target object shown in the image can be reliably recognized.
図1には、本発明の実施形態に係る物体認識装置10の構成が示されている。物体認識装置10は、画像取得部12、物体認識部14、追跡結果記憶部26、プログラム記憶部28、物体認識データベース30および追跡成功回数記憶部32を備えている。追跡結果記憶部26、プログラム記憶部28、および追跡成功回数記憶部32は、アドレスによって複数の部分に分けられた1つのメモリによって構成されてもよい。
FIG. 1 shows the configuration of the
物体認識装置10は、画像取得部12によって動画像を撮影し、動画像上の目標物を認識し追跡する。動画像は、画像取得部12によって時間経過と共に順次撮影される個々の画像によって構成される。すなわち、物体認識装置10は、時間経過と共に順次撮影される画像上で目標物を認識し、各画像上で認識された目標値の位置を求めることで目標物の追跡を行う。
The
画像取得部12はカメラを備えており、所定のフレームレートで画像を撮影(取得)し、1フレーム周期が経過するごとに1フレームの画像データを物体認識部14に出力する。画像取得部12が取得する画像データが示す画像の視野(撮影視野)は一定であり、目標物の追跡は一定の撮影視野内で行われる。また、画像取得部12はカメラを備えていなくてもよく、画像取得部12に接続された外部のカメラから画像を取得してもよい。さらに、画像取得部12は、外部に設けられたメモリから動画データを読み込んでもよいし、動画データを出力する情報処理装置から動画データを読み込んでもよい。
The
物体認識部14は、予測範囲設定部18、目標物認識部20、追跡結果生成部22および出力画像生成部24を備えている。物体認識部14は、例えば、プログラム記憶部28に記憶されたプログラムを実行するプロセッサによって構成される。この場合、プロセッサはプログラムを実行することで、予測範囲設定部18、目標物認識部20、追跡結果生成部22および出力画像生成部24を自らの内部に構成する。また、これらの構成要素は、ハードウエアとしてのディジタル回路によって個別に構成されてもよい。
The
物体認識部14は、画像取得部12から出力された画像データが示す画像において目標物を探索し、撮影視野内で目標物を追跡する。具体的には、以下に説明する目標物追跡処理を実行し、1フレームの画像における目標物の位置を求め、目標物の位置を表す追跡結果データを1フレームごとに求め、追跡結果記憶部26に記憶させる。追跡結果データは、目標物の位置を座標値によって表す数値データであってもよいし、目標物の位置を画像によって表す画像データであってもよい。目標物の位置を表す画像は、画像取得部12が取得した画像データが示す画像上に目標物を示す図形を重ねたものであってもよい。
The
目標物追跡処理について説明する。予測範囲設定部18は、画像取得部12から出力された画像データが示す画像に対し、目標物が認識される予測範囲を設定する。予測範囲の設定は、最新の画像データよりも先に取得されたMフレームの画像データのそれぞれに対して求められた追跡結果データを用いて行われる。ただし、Mは1以上の整数であり、最新の画像データよりも先に取得された画像データが1フレームであるときは、予測範囲設定部18は、先に取得された画像データが示す画像上で認識された目標物の位置から所定距離だけ所定方向にずれた範囲を予測範囲として設定する。また、最新の画像データよりも先に画像データが取得されていないときは、予測範囲設定部18は、予め定められた初期範囲を予測範囲として設定する。
The target tracking process will be described. The prediction
予測範囲設定部18は、追跡結果記憶部26に記憶されている各追跡結果データ、すなわち、過去のMフレームの画像データに対して求められた各追跡結果データを参照する。そして、Mフレームの間に目標物が撮影視野内で移動した経路を示す軌跡を求め、その軌跡を未来側に延長する処理によって、最後に取得された画像データが示す画像、すなわち、最新の画像データが示す最新画像に対して予測範囲を設定する。
The prediction
図2には、予測範囲を設定する処理が概念的に示されている。この図では、目標物としてワゴン車が撮影視野34内に示されている。目標物T1〜T3は、最新の画像データよりも先に取得された3フレームの画像データが示す画像上で認識された目標物である。目標物T1は、最も先に取得された第1の画像データが示す画像上で認識された目標物であり、目標物T2はその次に取得された第2の画像データが示す画像上で認識された目標物である。目標物T3は、第2の画像データの次に取得された第3の画像データが示す画像上で認識された目標物である。なお、図2では、説明の便宜上、1フレーム周期で目標物が移動する距離、すなわち、隣接する目標物の距離が誇張して描かれている。実際の1フレーム周期では、1フレーム周期で目標物が移動する距離は図2に示されているよりも短い場合が多い。
FIG. 2 conceptually shows the process of setting the prediction range. In this figure, a wagon vehicle is shown in the field of
予測範囲設定部18は、目標物T1〜T3の移動軌跡を求め、その移動軌跡の未来側への延長線上に予測範囲36を設定する。図2では、矩形の予測範囲36が二点鎖線によって示されている。予測範囲36の形状は、矩形の他、円形や楕円形、あるいはその他の多角形であってもよい。また、予測範囲36の形状は、目標物に近似した形状であってもよい。なお、図2には、目標物としてのワゴン車が最新画像上で探索される可能性のある位置が、ワゴン車を表す破線で示されている。
The prediction
目標物認識部20は、目標物に対する尤度が0でない領域を最新画像上で検出し、その領域を物体であると認識すると共に、目標物に対する尤度が尤度閾値Hを超える物体を最新画像において探索する。ここで、目標物に対する尤度とは、物体が目標物である可能性の高さを示す値(物体が目標物であるらしいことの度合いを示す値)をいう。以下の説明では「目標物に対する尤度」を単に「尤度」という。尤度は、物体からの距離または方向が異なる複数の位置から物体を眺めたときの画像についても、目標物である可能性が高い物体については、尤度閾値Hを超えるように定義されている。
The target
最新画像上で尤度を求める処理は、物体認識データベース30を参照しながら実行される。物体認識データベース30には、複数の異なる位置から1つの物体を見たときの形状を示す多元的物体データが、複数種の目標物のそれぞれについて予め記憶されている。多元的物体データが記憶される複数種の目標物は、自動車、オートバイ、人、動物等、物体認識装置10が認識することを予定している複数種の物体であってもよい。目標物認識部20は、目標物としてのワゴン車の多元的物体データを参照し、尤度が尤度閾値Hを超える物体を最新画像において探索する。
The process of obtaining the likelihood on the latest image is executed with reference to the
目標物認識部20は、尤度が尤度閾値Hを超える1つの物体が最新画像上で探索されたときは、この物体と予測範囲36との間の判定距離を求める。判定距離は、例えば、探索された物体の重心と、予測範囲36の重心との間の距離として定義される。目標物認識部20は、判定距離が所定の距離閾値以下である場合には、この物体を目標物であると認識する。
When one object whose likelihood exceeds the likelihood threshold value H is searched on the latest image, the target
目標物認識部20は、尤度が尤度閾値Hを超える複数の物体が最新画像上で探索されたときは、これら複数の物体のそれぞれについて判定距離を求める。目標物認識部20は、これら複数の物体のうち、判定距離が所定の距離閾値以下であり、判定距離が最短である物体を目標物であると認識する。
When a plurality of objects whose likelihood exceeds the likelihood threshold value H are searched for on the latest image, the target
追跡結果生成部22は、目標物認識部20が目標物を認識したことに応じて追跡結果データを生成し、追跡結果記憶部26に追跡結果データを記憶させる。追跡結果生成部22は、追跡成功回数記憶部32に記憶されている追跡成功回数を1だけ増加させる。追跡成功回数は、尤度が尤度閾値Hを超え、かつ、判定距離が距離閾値以下である物体が探索された追跡成功回数を示す0以上の整数である。なお、尤度が尤度閾値Hを超えると共に、判定距離が距離閾値以下である物体が最新画像上で探索されなかった場合の修正処理については後述する。
The tracking
図3には、目標物T1〜T3に加えて、第3の画像データの次に取得された第4の画像データが示す画像上で認識された目標物T4が示されている。第1〜第4の画像データに対して実行された処理と同様の処理によって、物体認識部14は、最新の画像データ(第5の画像データ)が示す最新画像上に予測範囲36を設定し、尤度が尤度閾値Hを超える物体を最新画像上で探索する。物体認識部14は、探索された物体について判定距離を求め、判定距離が距離閾値以下である場合には、この物体を目標物であると認識する。また、最新画像において尤度が尤度閾値Hを超える複数の物体が探索された場合には、物体認識部14は、判定距離が距離閾値以下であり、判定距離が最短である物体を目標物であると認識する。物体認識部14は、さらに、目標物に対して追跡結果データを生成して追跡結果記憶部26に記憶させると共に、追跡成功回数記憶部32に記憶されている追跡成功回数を1だけ増加させる。
In FIG. 3, in addition to the targets T1 to T3, the target T4 recognized on the image indicated by the fourth image data acquired next to the third image data is shown. By the same processing as the processing executed for the first to fourth image data, the
出力画像生成部24は、追跡結果記憶部26に記憶された追跡結果データを参照することで目標物の軌跡を示す出力画像データを生成し、物体認識部14から出力する。出力画像データが示す出力画像は、例えば、最新画像に対して目標物の軌跡を示す図形を重ねて示したものである。図4には、出力画像の例が示されている。この出力画像40では、最新画像に対し、曲線および矢印によって表された目標物Tの軌跡38が重ねて示されている。出力画像生成部24は、画像取得部12から順次出力された各画像データに対応する出力画像データを物体認識部14から順次出力する。また、出力画像生成部24は、各出力画像データを動画像データとして追跡結果記憶部26に記憶させてもよいし、物体認識部14に接続されたその他のメモリに記憶させてもよい。
The output
尤度が尤度閾値Hを超えると共に、判定距離が距離閾値以下である物体が最新画像上で探索されなかった場合の修正処理について説明する。目標物認識部20は、尤度が尤度閾値H0を超え、尤度閾値H以下である物体を最新画像上で探索する。
A correction process will be described when an object whose likelihood exceeds the likelihood threshold H and whose determination distance is equal to or less than the distance threshold is not searched on the latest image. The target
目標物認識部20は、尤度が尤度閾値H0を超え、尤度閾値H以下である1つの物体が最新画像上で探索されたときは、この物体と予測範囲36との間の判定距離を求める。目標物認識部20は、判定距離が所定の距離閾値以下である場合には、この物体を仮目標物であると認識する。
When the target
目標物認識部20は、目標物に対する尤度が尤度閾値H0を超え、尤度閾値H以下である複数の物体が最新画像上で探索されたときは、これら複数の物体のそれぞれについて判定距離を求める。目標物認識部20は、これら複数の物体のうち、判定距離が所定の距離閾値以下であり、判定距離が最短である物体を仮目標物であると認識する。物体認識部14は、各物体について求められた判定距離が所定の距離閾値を超える場合には、目標物の追跡を終了する。この場合、物体認識部14は、目標物を探索し追跡する処理を最初から実行する。
When a plurality of objects whose likelihood with respect to the target exceeds the likelihood threshold value H0 and are equal to or less than the likelihood threshold value H are searched on the latest image, the target
目標物認識部20は、追跡成功回数記憶部32に記憶されている追跡成功回数SCを読み込み、仮目標物に対して求められた尤度L0と追跡成功回数SCを用いた以下の(数1)に基づいて尤度L0を修正し、修正尤度L1を求める。
The
(数1)L1=L0+k・SC (Equation 1) L1 = L0 + k · SC
kは正の調整係数であり、例えば、実験やシミュレーションによって適切な値に設定される。(数1)は、最新の画像データよりも先に取得された画像データに対して求められた追跡成功回数SCが大きい程、尤度L0に対する加算値k・SCを大きくし、追跡成功回数SCが大きい程、修正尤度L1を大きくすることを意味する。 k is a positive adjustment factor and is set to an appropriate value by experiment or simulation, for example. In (Equation 1), the larger the tracking success count SC obtained for the image data acquired earlier than the latest image data, the larger the addition value k · SC with respect to the likelihood L0, and the tracking success count SC. The larger the value, the larger the correction likelihood L1.
目標物認識部20は、修正尤度L1が尤度閾値Hを超えるときは、仮目標物を目標物として認識する。追跡結果生成部22は、目標物認識部20が仮目標物を目標物として認識したことに応じて追跡結果データを生成し、追跡結果記憶部26に追跡結果データを記憶させる。
When the modified likelihood L1 exceeds the likelihood threshold H, the
なお、修正処理では、追跡成功回数記憶部32に記憶されている追跡成功回数はそのままに維持される。目標物認識部20は、修正尤度L1が尤度閾値H以下であるときは、これまで追跡していた目標物の追跡を終了する。この場合、物体認識部14は、目標物を探索し追跡する処理を最初から実行する。
In the correction process, the number of successful tracking times stored in the tracking success
図5には、目標物追跡処理において、画像上で目標物を認識する処理を例示するフローチャートが示されている。物体認識部14は、画像取得部12から出力された画像データが示す画像上で尤度が0でない領域を検出することで物体を探索する(S101)。物体認識部14は、尤度が尤度閾値Hを超え、かつ、判定距離が距離閾値以下の物体があるか否かを判定し(S102)、その物体が複数あるときは、判定距離が最短の物体を目標物として認識する(S103)。また、物体認識部14は、尤度が尤度閾値Hを超え、かつ、判定距離が距離閾値以下の物体が1つである場合には、その物体を目標物として認識する(S103)。物体認識部14は、追跡成功回数記憶部32に記憶された追跡成功回数に1を加算する(S104)。物体認識部14は、処理対象の画像上で目標物を探索する処理を終了し、次の画像上で目標物を認識する処理に進む。
FIG. 5 shows a flowchart illustrating a process of recognizing a target object on an image in the target object tracking process. The
物体認識部14は、尤度が尤度閾値Hを超え、かつ、判定距離が距離閾値以下の物体がないときは、尤度が尤度閾値H0を超え、尤度閾値H以下であり、かつ、判定距離が距離閾値以下の物体があるか否かを判定し(S105)、そのような物体が複数あるときは、判定距離が最短の物体を仮目標物として認識する(S106)。物体認識部14は、尤度が尤度閾値H0を超え、尤度閾値H以下であり、かつ、判定距離が距離閾値以下の物体が1つである場合には、その物体を仮目標物として認識する(S106)。
When the likelihood exceeds the likelihood threshold H and there is no object whose determination distance is equal to or less than the distance threshold value, the
物体認識部14は、仮目標物についての尤度L0を修正して修正尤度L1を求める(S107)。そして、修正尤度L1が尤度閾値Hを超えるか否かを判定する(S108)。物体認識部14は、修正尤度L1が尤度閾値Hを超えるときは、その仮目標物を目標物として認識し(S109)、処理対象の画像上で目標物を探索する処理を終了し、次の画像上で目標物を認識する処理に進む。
The
物体認識部14は、尤度が尤度閾値H0を超え、尤度閾値H以下であり、かつ、判定距離が距離閾値以下の物体がないとき(S105)、あるいは、仮目標物の修正尤度が尤度閾値H以下であるときは(S108)、処理対象の画像上で目標物を探索する処理を終了し、目標物の追跡を終了する。
When the likelihood exceeds the likelihood threshold H0, is equal to or less than the likelihood threshold H, and there is no object whose determination distance is equal to or less than the distance threshold (S105), the
図6には、第4の画像データが示す画像上で認識された物体Oの尤度が尤度閾値H以下であったときの例が示されている。この例では、物体Oに対して修正尤度L1が求められ、修正尤度L1が尤度閾値Hを超えたことによって、物体Oが目標物T4として認識されている。尤度が尤度閾値H以下となった原因としては、例えば、処理対象の物体Oが暗闇にあることや、逆光で撮影されたこと等によって尤度が低下したことがある。物体認識部14は、目標物T1〜T3に加えて目標物T4に基づいて、第5の画像データが示す画像上に予測範囲を設定し、目標物追跡処理を引き続き実行し、目標物T5を認識する。
FIG. 6 shows an example when the likelihood of the object O recognized on the image shown by the fourth image data is equal to or less than the likelihood threshold value H. In this example, the correction likelihood L1 is obtained for the object O, and the object O is recognized as the target object T4 because the correction likelihood L1 exceeds the likelihood threshold value H. The reason why the likelihood becomes equal to or less than the likelihood threshold value is that, for example, the object O to be processed is in the dark, or the likelihood is lowered because the image is taken against the sun. The
このように、本実施形態に係る物体認識装置10は、時間経過と共に画像を順次取得する画像取得部12と、画像上で目標物を認識する物体認識部14とを備えている。物体認識部14は、少なくとも予測範囲設定部18および目標物認識部20を備えている。予測範囲設定部18は、先に取得された画像で認識された目標物の位置に基づいて、目標物が認識されると予測される予測範囲36を、次に取得された画像上に設定する。目標物認識部20は、次に取得された画像上の物体について尤度を求めると共に、尤度が所定の認識条件を満たす物体のうち、予測範囲36に対する所定の位置条件が満たされる物体を目標物として認識する。
As described above, the
本実施形態における認識条件は、目標物に対する尤度が尤度閾値Hを超えるという条件である。また、本実施形態における位置条件は、物体または仮目標物と予測範囲36との間の判定距離が距離閾値以下であるという条件である。
The recognition condition in the present embodiment is that the likelihood with respect to the target object exceeds the likelihood threshold value H. Further, the position condition in the present embodiment is a condition that the determination distance between the object or the provisional target and the
目標物認識部20は、目標物に対する尤度が認識条件を満たさない物体であって、予測範囲36に対する所定の位置条件が満たされる仮目標物があるときは、先に取得された画像のうち、追跡成功回数SC(尤度が認識条件を満たすことで目標物が認識された目標物認識画像の数)に応じて、その仮目標物についての尤度を修正し、修正尤度を求める修正処理を実行する。目標物認識部20は、修正尤度が認識条件を満たすときに、仮目標物を目標物として認識する修正認識処理を実行する。
When the target
なお、上記の尤度閾値H、尤度閾値H0、および距離閾値は、実験やシミュレーションによって適切な値が求められてもよい。 Appropriate values may be obtained for the likelihood threshold value H, the likelihood threshold value H0, and the distance threshold value by experiments or simulations.
本実施形態に係る物体認識装置10では、尤度が認識条件を満たさないものの予測範囲に対する位置条件が満たされる物体が仮目標物として認識される。仮目標物については、過去に追跡が成功した回数が多い程、その値が大きくなるような修正尤度が求められ、修正尤度によって、仮目標物が目標物であると認識され得る。したがって、画像取得部12で順次取得される画像が、目標物追跡の途中で劣化した場合であっても、過去に目標物として認識された物体は再び目標物として認識され易く、目標物の追跡が確実に行われる。なお、画像の劣化には、視界が良好でない領域に目標物が入り込んだり、逆光で撮影されたりしたことによるものがある。
In the
従来技術では、目標物に対する尤度が近い複数の物体が1つの画像内にある場合には、目的物とすべきでない物体を誤って追跡してしまう可能性がある。例えば、図7に示されているように、目標物としてのワゴン車の他、目標物でない乗用車が撮影視野34内に現れている場合について、追跡誤りが生じる問題点について説明する。対象物体A1〜A4は、それぞれ、画像取得部12で順次取得された第1〜第4の画像データから認識された目標物を撮影視野34内に概念的に示したものである。非対象物体B1〜B4は、それぞれ、第1〜第4の画像データから認識された目標物でない物体を撮影視野34内に概念的に示したものである。対象物体A1、A2およびA4の尤度は尤度閾値Hを超えるものの、対象物体A3の尤度は尤度閾値H以下であるものとする。
In the prior art, when a plurality of objects having similar likelihoods to a target object are in one image, there is a possibility that an object that should not be the target object is erroneously tracked. For example, as shown in FIG. 7, a problem in which a tracking error occurs when a non-target passenger car appears in the shooting field of
乗用車はワゴン車に形態が近似しているため、非対象物体B1〜B4の尤度は、対象物体A1〜A4の尤度に近くなる可能性が高い。さらに、非対象物体B3は、対象物体A3に接近している。このような条件の下、従来技術では、対象物体A3ではなく非対象物体B3が誤って目標物であると認識され、それ以降は、ワゴン車ではなく乗用車が追跡されてしまう可能性がある。 Since the passenger car has a shape similar to that of a wagon, the likelihood of the non-target objects B1 to B4 is likely to be close to the likelihood of the target objects A1 to A4. Further, the non-target object B3 is close to the target object A3. Under such conditions, in the prior art, the non-target object B3 instead of the target object A3 may be mistakenly recognized as the target object, and thereafter, the passenger car instead of the wagon car may be tracked.
本実施形態に係る物体認識装置10によれば、非対象物体B3は、尤度について認識条件が満たされたとしても、予測範囲に対する位置条件が満たされない可能性が高い。一方、対象物体A3については修正尤度が求められ、修正尤度に基づいて対象物体A3が目標物であると認識される可能性が高い。したがって、非対象物B3を目標物であると誤って認識してしまう可能性が低くなり、目標物の追跡が確実に行われる。
According to the
なお、修正尤度L1は、(数1)で定義される他、追跡成功回数SCが大きい程、大きい値となるように定義されるものであればよい。例えば、修正尤度L1は、(数2)で定義される値であってもよい。(数2)中のcは1を超える調整係数であり、実験やシミュレーションによって適切な値に設定される。 In addition to being defined by (Equation 1), the correction likelihood L1 may be defined so that the larger the number of successful tracking times SC, the larger the value. For example, the correction likelihood L1 may be a value defined by (Equation 2). C in (Equation 2) is an adjustment coefficient exceeding 1, and is set to an appropriate value by experiments and simulations.
(数2)L1=L0・c・SC (Number 2) L1 = L0 ・ c ・ SC
物体認識部14は、物体認識データベース30を自ら更新する学習機能を備えていてもよい。すなわち、物体認識部14は、自動車、オートバイ、人物等に分類される目標物の各分類について、多元的物体データを自動的に生成する機能を備えていてもよい。この場合、物体認識部14はインターネットに接続されていてもよい。物体認識部14は、目標物の分類ごとにインターネットから物体の外見の特徴を表す情報を取得して多元的物体データを生成し、物体認識データベース30に蓄積する。多元的物体データの生成に際しては、画像取得部12によって取得された画像データが素材として用いられてもよい。
The
10 物体認識装置、12 画像取得部、14 物体認識部、18 予測範囲設定部、20 目標物認識部、22 追跡結果生成部、24 出力画像生成部、26 追跡結果記憶部、28 プログラム記憶部、30 物体認識データベース、32 追跡成功回数記憶部、34 撮影視野、36 予測範囲、38 軌跡、40 出力画像。
10 Object recognition device, 12 Image acquisition unit, 14 Object recognition unit, 18 Prediction range setting unit, 20 Target recognition unit, 22 Tracking result generation unit, 24 Output image generation unit, 26 Tracking result storage unit, 28 Program storage unit, 30 Object recognition database, 32 Tracking success count storage, 34 Shooting field, 36 Prediction range, 38 Trajectories, 40 Output images.
Claims (2)
画像上で目標物を認識する物体認識部と、を備え、
前記物体認識部は、
先に取得された画像で認識された前記目標物の位置に基づいて、前記目標物が認識されると予測される予測範囲を、次に取得された画像上に設定する予測範囲設定部と、
次に取得された画像上の物体について前記目標物に対する尤度を求めると共に、当該尤度が所定の認識条件を満たす物体のうち、前記予測範囲に対する所定の位置条件が満たされる物体を前記目標物として認識する目標物認識部と、を備え、
前記尤度が前記認識条件を満たす物体であって、前記予測範囲に対する所定の位置条件が満たされる物体がないときに、前記目標物認識部は、
前記尤度が前記認識条件を満たさない物体であって、前記予測範囲に対する所定の位置条件が満たされる仮目標物があるときは、先に取得された画像のうち、前記尤度が前記認識条件を満たすことで前記目標物が認識された目標物認識画像の数に応じて、当該仮目標物についての前記尤度を修正し、修正尤度を求める修正処理と、
前記修正尤度が前記認識条件を満たすときに、前記仮目標物を前記目標物として認識する修正認識処理と、を実行することを特徴とする物体認識装置。 An image acquisition unit that sequentially acquires images over time,
Equipped with an object recognition unit that recognizes the target on the image,
The object recognition unit
A prediction range setting unit that sets a prediction range in which the target is predicted to be recognized based on the position of the target recognized in the previously acquired image on the next acquired image.
Next, the likelihood of the acquired object on the image is obtained with respect to the target object, and among the objects whose likelihood satisfies the predetermined recognition condition, the object satisfying the predetermined position condition with respect to the predicted range is the target object. Equipped with a target recognition unit that recognizes as
When there is no object whose likelihood satisfies the recognition condition and the predetermined position condition with respect to the prediction range is not satisfied, the target object recognition unit may perform the target recognition unit.
When there is an object whose likelihood does not satisfy the recognition condition and there is a provisional target object whose predetermined position condition with respect to the prediction range is satisfied, the likelihood is the recognition condition among the images acquired earlier. The correction process of correcting the likelihood of the provisional target and obtaining the correction likelihood according to the number of target recognition images in which the target is recognized by satisfying the above.
An object recognition device characterized by executing a correction recognition process of recognizing the provisional target as the target when the correction likelihood satisfies the recognition condition.
前記修正尤度は、前記目標物認識画像の数が大きい程、大きい値を有することを特徴とする物体認識装置。 In the object recognition device according to claim 1,
An object recognition device characterized in that the correction likelihood has a larger value as the number of target recognition images increases.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018102163A JP6871199B2 (en) | 2018-05-29 | 2018-05-29 | Target recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018102163A JP6871199B2 (en) | 2018-05-29 | 2018-05-29 | Target recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019207523A JP2019207523A (en) | 2019-12-05 |
JP6871199B2 true JP6871199B2 (en) | 2021-05-12 |
Family
ID=68767038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018102163A Active JP6871199B2 (en) | 2018-05-29 | 2018-05-29 | Target recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6871199B2 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4961850B2 (en) * | 2006-06-15 | 2012-06-27 | ソニー株式会社 | Motion detection method, motion detection method program, recording medium recording motion detection method program, and motion detection apparatus |
JP5387052B2 (en) * | 2009-03-02 | 2014-01-15 | 富士通株式会社 | Data distribution system and data distribution method |
JP5136504B2 (en) * | 2009-04-02 | 2013-02-06 | トヨタ自動車株式会社 | Object identification device |
JP6488647B2 (en) * | 2014-09-26 | 2019-03-27 | 日本電気株式会社 | Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium |
JP6656987B2 (en) * | 2016-03-30 | 2020-03-04 | 株式会社エクォス・リサーチ | Image recognition device, mobile device, and image recognition program |
-
2018
- 2018-05-29 JP JP2018102163A patent/JP6871199B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019207523A (en) | 2019-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3338248B1 (en) | Systems and methods for object tracking | |
US11138467B2 (en) | Method, device, product, and computer program for operating a technical system | |
JP7176478B2 (en) | Image recognition device | |
JP6046666B2 (en) | Runway boundary estimation device and runway boundary estimation method | |
US10474884B2 (en) | Action determination device | |
JP5178276B2 (en) | Image recognition device | |
JP7311310B2 (en) | Information processing device, information processing method and program | |
Lee et al. | A memory model based on the Siamese network for long-term tracking | |
CN107133970A (en) | Online multi-object tracking method and device based on movable information | |
JP6953818B2 (en) | Operation judgment device | |
CN111242985A (en) | Video multi-pedestrian tracking method based on Markov model | |
JP2012118683A (en) | Pedestrian recognition device | |
CN107430821B (en) | Image processing apparatus | |
JP6871199B2 (en) | Target recognition device | |
CN111178218B (en) | Multi-feature joint video tracking method and system based on face recognition | |
JP5345999B2 (en) | Lane mark recognition device | |
CN111986231A (en) | Multi-target tracking method and system | |
US20200226763A1 (en) | Object Detection Method and Computing System Thereof | |
CN116434156A (en) | Target detection method, storage medium, road side equipment and automatic driving system | |
JP2010128961A (en) | Image monitoring apparatus | |
CN115082526A (en) | Target tracking method and device | |
CN115116022A (en) | Method and apparatus for tracking object and computer-readable recording medium | |
US20230343105A1 (en) | Method for detecting road users | |
Tian et al. | Tracking vulnerable road users with severe occlusion by adaptive part filter modeling | |
KR102172849B1 (en) | Detecting system for approaching vehicle in video and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210317 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210406 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210415 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6871199 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |