JP2017010224A - Object tracking apparatus, object tracking method, and program - Google Patents

Object tracking apparatus, object tracking method, and program Download PDF

Info

Publication number
JP2017010224A
JP2017010224A JP2015124205A JP2015124205A JP2017010224A JP 2017010224 A JP2017010224 A JP 2017010224A JP 2015124205 A JP2015124205 A JP 2015124205A JP 2015124205 A JP2015124205 A JP 2015124205A JP 2017010224 A JP2017010224 A JP 2017010224A
Authority
JP
Japan
Prior art keywords
detection
area
template
detected
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015124205A
Other languages
Japanese (ja)
Other versions
JP6532317B2 (en
JP2017010224A5 (en
Inventor
睦凌 郭
Muling Guo
睦凌 郭
山本 真司
Shinji Yamamoto
真司 山本
一郎 梅田
Ichiro Umeda
一郎 梅田
矢野 光太郎
Kotaro Yano
光太郎 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015124205A priority Critical patent/JP6532317B2/en
Publication of JP2017010224A publication Critical patent/JP2017010224A/en
Publication of JP2017010224A5 publication Critical patent/JP2017010224A5/ja
Application granted granted Critical
Publication of JP6532317B2 publication Critical patent/JP6532317B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To properly track an object which intersects with another object.SOLUTION: A foreground area is extracted from a detection area of an object, to detect an intersection on the basis of a foreground mask corresponding to a recognition model used in detecting the object. Only when an intersection is detected, a template indicating the feature quantity of the object is updated. When no object is detected, the object is tracked by performing a collation by using a template formed on the basis of an image area in a past frame. In the template, information on another object is unlikely to be included in the feature quantity before intersection, thereby increasing collation accuracy.SELECTED DRAWING: Figure 1

Description

本発明は、特に、物体の交差が生じるような状況で物体を追尾するために用いて好適な物体追尾装置、物体追尾方法及びプログラムに関する。   In particular, the present invention relates to an object tracking device, an object tracking method, and a program suitable for use in tracking an object in a situation where crossing of objects occurs.

近年、映像機器においてインテリジェント化が普及している。例えば監視カメラに人体検出機能を搭載し、人数をカウントしたり、お客様の意図を分析したり、異常動作を検知したり、危険領域の侵入を検知したりするなどの機能が提案されている。また、デジタルカメラなどの撮影装置で撮影された映像中の人物の位置を特定して追尾することにより、カメラのフォーカス、露出を自動制御する機能も注目されている。さらに人物以外に、犬、猫、花などの一般の物体に注目して、カメラを自動制御する機能も普及している。   In recent years, intelligentization has become widespread in video equipment. For example, a human body detection function is installed in a surveillance camera, and functions such as counting the number of people, analyzing customer intentions, detecting abnormal operations, and detecting intrusions in dangerous areas have been proposed. In addition, a function that automatically controls the focus and exposure of a camera by specifying and tracking the position of a person in a video imaged by an imaging device such as a digital camera has been attracting attention. In addition to people, a function for automatically controlling a camera by paying attention to general objects such as dogs, cats, and flowers has also become widespread.

映像機器のインテリジェント化の基盤は、機械学習による物体検出技術である。機械学習では、大量の物体及び非物体の学習サンプルから、物体と非物体とを区別する特徴量を抽出し、認識モデルを作成する。画像から物体を検出する際には、まず原画像のサイズをスケーリングしてピラミッドレイヤを作成する。そして、各ピラミッドレイヤについてラスタースキャンを行い、認識モデルに記述した各特徴量の判別器の応答を組み合わせることにより、異なるサイズの物体を検出する。   The foundation of intelligent video equipment is object detection technology based on machine learning. In machine learning, a feature quantity that distinguishes an object from a non-object is extracted from a large number of objects and non-object learning samples, and a recognition model is created. When detecting an object from an image, first, a pyramid layer is created by scaling the size of the original image. Then, a raster scan is performed for each pyramid layer, and objects of different sizes are detected by combining the responses of the discriminators for each feature amount described in the recognition model.

この認識モデルを作成する代表的な手法は、adaboost学習によりカスケード型の識別器を作成する手法である。この方法では、認識しようとする物体を複数のカテゴリに分類し、カテゴリ毎に認識モデルを作成する。例えば、人体を正面人体、側面人体、及び半側面人体の三つのカテゴリに分け、類似した人体を集めて認識モデルを学習することにより、認識精度を向上させるようにする。また、前述のカスケード型の識別器は、複数の弱判別器を直列で連結して構成される。それぞれの弱判別器は、学習した認識モデルに基づき、現在のスキャンウィンドウの物体らしさの尤度を出力するとともに、閾値と比較し、物体であるかどうかを判定する。そして、全ての弱判別器を通過したスキャンウィンドウは物体と判定される。   A typical method for creating this recognition model is a method for creating a cascade classifier by adaboost learning. In this method, an object to be recognized is classified into a plurality of categories, and a recognition model is created for each category. For example, the human body is divided into three categories of a front human body, a side human body, and a half human body, and similar human bodies are collected to learn a recognition model, thereby improving the recognition accuracy. Further, the cascade type discriminator described above is configured by connecting a plurality of weak discriminators in series. Each weak discriminator outputs the likelihood of the object likeness of the current scan window based on the learned recognition model and compares it with a threshold value to determine whether the object is an object. The scan window that has passed through all the weak classifiers is determined to be an object.

一方、カメラで撮影した動画を時系列画像に静止画化して時系列画像の連続フレームに物体検出技術を適用する場合には、前記カスケード型の識別器だけで物体を検出することは不十分である。例えば時系列画像の前後フレームで物体の姿勢が変化したり照明条件が変化したりする場合があり、この場合には物体の見え方が変化するため、前記識別器で検出できなくなることがしばしば発生する。そこで、追尾技術を利用し、探索領域に物体を検出できたフレームにおいて、前記識別器の検出結果を記憶した軌跡と対応付けて軌跡を更新する。一方、探索領域に物体を検出できなかったフレームにおいて物体の追尾を行い、追尾結果を記憶した軌跡と対応付けて軌跡を更新する。そして、更新した軌跡に基づき次フレームの探索領域を設定する。   On the other hand, when moving images captured by a camera are converted into still images as time-series images and object detection technology is applied to successive frames of the time-series images, it is not sufficient to detect an object using only the cascade classifier. is there. For example, there are cases where the posture of the object changes or the illumination conditions change in the frames before and after the time-series image, and in this case, the appearance of the object changes, so it often happens that it cannot be detected by the discriminator. To do. Therefore, using the tracking technique, in the frame in which the object can be detected in the search area, the trajectory is updated in association with the trajectory in which the detection result of the discriminator is stored. On the other hand, the object is tracked in the frame in which the object cannot be detected in the search area, and the track is updated in association with the track storing the tracking result. Then, a search area for the next frame is set based on the updated trajectory.

ところが、一般に物体を追尾する場合には、物体が交差したり遮蔽されたりすると、追尾の精度が低下してしまう。そこで、物体を追尾する従来の技術として、非特許文献1に記載の方法では、動きモデルで予測した物体の位置と追尾で観測した物体の位置とから、予測及び追尾の精度に基づいた重み付きに従って平均位置を求め、軌跡を平滑化して安定化するようにしている。   However, in general, when tracking an object, if the object crosses or is shielded, the tracking accuracy decreases. Therefore, as a conventional technique for tracking an object, the method described in Non-Patent Document 1 uses a weight based on the accuracy of prediction and tracking from the position of the object predicted by the motion model and the position of the object observed by tracking. The average position is obtained according to the above, and the trajectory is smoothed and stabilized.

また、非特許文献2に記載の方法では、物体を複数のパーティクルに分割し、それぞれ追尾して統合するようにしている。この方法では、追尾の確信度が低いパーティクルを消失させ、追尾の確信度が高いパーティクルに基づいてさらに多数のパーティクルを生成する。次に、各パーティクルについて、慣性と突発性とを考慮して各パーティクルの位置を予測し、追尾の確信度を求める。そして、求めた追尾の確信度を重みとして各パーティクルの平均位置を物体の位置として追尾を続ける。   In the method described in Non-Patent Document 2, an object is divided into a plurality of particles, and each is tracked and integrated. In this method, particles with low tracking confidence are lost, and a larger number of particles are generated based on particles with high tracking confidence. Next, for each particle, the position of each particle is predicted in consideration of inertia and suddenness, and the tracking certainty is obtained. Then, the tracking is continued with the average position of each particle as the position of the object with the obtained certainty of tracking as a weight.

さらに特許文献1に記載の方法では、物体の検出枠の交差を予測し、交差しない時の検出結果をテンプレートとして記憶し、このテンプレートを物体が交差した時のテンプレートの照合に利用して物体交差時の追尾精度を向上しようとしている。   Further, in the method described in Patent Document 1, an object detection frame intersection is predicted, a detection result when no object intersects is stored as a template, and this template is used for template matching when the object intersects. I am trying to improve tracking accuracy.

特表2009−510541号公報Special table 2009-510541 gazette

"An Introduction to the Kalman Filter," Greg Welch, Gray Bishop, SIGGRAPH 2001."An Introduction to the Kalman Filter," Greg Welch, Gray Bishop, SIGGRAPH 2001. "A tutorial on particle filters for online nonlinear/non-gaussian bayesian tracking(2002)," M. Sanjeev Arulampalam , Simon Maskell , Neil Gordon, IEEE TRANSACTIONS ON SIGNAL PROCESSING. VOL. 50, NO. 2."A tutorial on particle filters for online nonlinear / non-gaussian bayesian tracking (2002)," M. Sanjeev Arulampalam, Simon Maskell, Neil Gordon, IEEE TRANSACTIONS ON SIGNAL PROCESSING. VOL. 50, NO. 2. "Background Subtraction: Experiments and Improvements for ViBe," M. VAN DROOGENBROECK, and O. PAQUOT, Change Detection Workshop(CDW), Providence, Rhode Island, 6 pages, June 2012."Background Subtraction: Experiments and Improvements for ViBe," M. VAN DROOGENBROECK, and O. PAQUOT, Change Detection Workshop (CDW), Providence, Rhode Island, 6 pages, June 2012. David G. Lowe, "Distinctive image features from scale-invariant keypoints," International Journal of Computer Vision, 60, 2 (2004), pp. 91-110.David G. Lowe, "Distinctive image features from scale-invariant keypoints," International Journal of Computer Vision, 60, 2 (2004), pp. 91-110.

しかしながら、非特許文献1に記載の追尾方法では、追尾する物体が長時間交差または遮蔽されると、追尾を失敗してしまうことが多いという問題点がある。また、非特許文献2に記載の追尾方法では、追尾する物体が完全に遮蔽されると、追尾を続けることができないという問題点がある。   However, the tracking method described in Non-Patent Document 1 has a problem in that tracking often fails when an object to be tracked intersects or is shielded for a long time. In addition, the tracking method described in Non-Patent Document 2 has a problem that tracking cannot be continued if the object to be tracked is completely occluded.

また、特許文献1に記載の追尾方法では、物体の検出枠間の交差を検知している。このため、追尾する物体が同種類物体の検出枠外の他の部位と交差したり遮蔽されたりした場合や、他種類の動体と交差したり遮蔽されたりした場合に、テンプレートに同種類物体の部位または動体の情報が多く混入し、交差時や遮蔽時に追尾を失敗しやすくなる。さらに、特許文献1に記載の追尾方法では、フレーム間差分とエッジとに基づいて物体を検出しており、認識モデルを利用せず物体の位置及び範囲を検出するため、対象とする物体以外の画像領域に誤追尾してしまう可能性がある。   In the tracking method described in Patent Document 1, an intersection between detection frames of an object is detected. For this reason, if the object to be tracked crosses or is blocked by another part outside the detection frame of the same type of object, or if it crosses or is blocked by another type of moving object, the part of the same type of object in the template Or, a lot of moving body information is mixed, and tracking tends to fail at the time of crossing or blocking. Furthermore, in the tracking method described in Patent Document 1, an object is detected based on an interframe difference and an edge, and the position and range of the object are detected without using a recognition model. There is a possibility of erroneous tracking in the image area.

本発明は前述の問題点に鑑み、追尾する物体が他の物体などと交差するような場合に正しく追尾できるようにすることを目的としている。   In view of the above-described problems, an object of the present invention is to enable accurate tracking when an object to be tracked intersects with another object or the like.

本発明に係る物体追尾装置は、動画の注目するフレームにおける物体の探索領域を過去のフレームにおける追尾結果に基づいて設定する設定手段と、前記設定手段によって設定された探索領域において前記物体の認識モデルを用いて前記物体を検出する検出手段と、前記検出手段によって検出された物体の検出領域から前景領域を抽出し、前記抽出した前景領域、及び前記認識モデルに対応するマスクを用いて前記物体の交差を検知する検知手段と、前記検知手段によって前記物体の交差が検知されなかった場合に、前記検出手段によって検出された物体の検出領域に基づいて、前記物体の特徴量を示すテンプレートを更新するテンプレート更新手段と、前記検出手段によって前記物体が検出されなかった場合に、前記テンプレート更新手段によって前記過去のフレームにおいて更新されたテンプレートと照合して前記設定手段によって設定された探索領域内から前記物体の画像領域を抽出する照合手段と、前記検出手段によって検出された物体の検出領域、または前記照合手段によって抽出された画像領域を追尾結果として更新する追尾結果更新手段と、を備えることを特徴とする。   The object tracking device according to the present invention includes: a setting unit that sets an object search region in a frame of interest of a moving image based on a tracking result in a past frame; and the object recognition model in the search region set by the setting unit. Detecting the object using the detection means, extracting a foreground area from the detection area of the object detected by the detection means, and using the extracted foreground area and a mask corresponding to the recognition model, A detection unit for detecting an intersection, and a template indicating a feature amount of the object is updated based on a detection area of the object detected by the detection unit when the detection unit does not detect an intersection of the object. A template updating means, and when the object is not detected by the detecting means, the template updating means Therefore, collation means for extracting the image area of the object from the search area set by the setting means by collating with the template updated in the past frame, and the detection area of the object detected by the detection means, or Tracking result update means for updating the image area extracted by the matching means as a tracking result.

本発明によれば、追尾する物体が他の物体などと交差するような場合に正しく追尾することができる。   According to the present invention, tracking can be performed correctly when an object to be tracked intersects with another object or the like.

第1の実施形態に係る物体追尾装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the object tracking apparatus which concerns on 1st Embodiment. 実施形態における物体追尾装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the object tracking apparatus in embodiment. 第1の実施形態における物体を追尾する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence which tracks the object in 1st Embodiment. ピラミッドレイヤの各探索領域を説明するための図である。It is a figure for demonstrating each search area | region of a pyramid layer. カスケード型識別器の構成を説明するための図である。It is a figure for demonstrating the structure of a cascade type discriminator. 前景マスク外の前景領域の割合の計算を説明するための図である。It is a figure for demonstrating calculation of the ratio of the foreground area | region outside a foreground mask. 第2の実施形態における物体を追尾する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence which tracks the object in 2nd Embodiment. 第3の実施形態における物体を追尾する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence which tracks the object in 3rd Embodiment. 第4の実施形態に係る物体追尾装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the object tracking apparatus which concerns on 4th Embodiment. 第4の実施形態における物体を追尾する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence which tracks the object in 4th Embodiment.

以下、添付図面を参照しながら本発明の好適な実施形態について詳細に説明する。本実施形態では、動画の各フレームから物体を追尾する例について説明する。なお、本発明は以下の実施形態に限定されるものではなく、本発明の実施に有利な具体例を示すにすぎない。本発明の特徴となる機能を実現するものも本発明の範囲に含まれる。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In this embodiment, an example of tracking an object from each frame of a moving image will be described. In addition, this invention is not limited to the following embodiment, It shows only the specific example advantageous for implementation of this invention. What implement | achieves the function used as the characteristic of this invention is also contained in the scope of the present invention.

(第1の実施形態)
図1は、本実施形態に係る物体追尾装置100の機能構成例を示すブロック図である。
図1において、物体追尾装置100は、画像取得部101と、探索領域設定部102と、物体識別部103と、軌跡結合部104と、交差検知部105とを備えている。さらに、テンプレート更新部106と、テンプレート照合部107と、テンプレート記憶部109と、処理制御部199とを備えている。また、交差検知部105は、さらに前景領域抽出部1051と、前景マスク記憶部1052と、割合計算部1053とを備えている。なお、これらの構成が行う処理については後述する。
(First embodiment)
FIG. 1 is a block diagram illustrating a functional configuration example of the object tracking device 100 according to the present embodiment.
In FIG. 1, the object tracking device 100 includes an image acquisition unit 101, a search area setting unit 102, an object identification unit 103, a trajectory combination unit 104, and an intersection detection unit 105. Furthermore, the template update part 106, the template collation part 107, the template memory | storage part 109, and the process control part 199 are provided. The intersection detection unit 105 further includes a foreground region extraction unit 1051, a foreground mask storage unit 1052, and a ratio calculation unit 1053. The processing performed by these configurations will be described later.

図2は、本実施形態における物体追尾装置100のハードウェア構成例を示すブロック図である。
図2において、CPU201は、本実施形態の物体追尾装置100における各種制御を実行する。ROM202は、物体追尾装置100の立ち上げ時に実行されるブートプログラムや各種データを格納する。RAM203は、CPU201が処理するための制御プログラムを格納するとともに、CPU201が各種制御を実行する際の作業領域を提供する。キーボード204及びマウス205は、ユーザによる各種入力操作環境を提供する。
FIG. 2 is a block diagram illustrating a hardware configuration example of the object tracking device 100 according to the present embodiment.
In FIG. 2, the CPU 201 executes various controls in the object tracking device 100 of the present embodiment. The ROM 202 stores a boot program executed when the object tracking device 100 is started up and various data. The RAM 203 stores a control program to be processed by the CPU 201 and provides a work area when the CPU 201 executes various controls. A keyboard 204 and a mouse 205 provide various input operation environments for the user.

外部記憶装置206は、例えばハードディスクやフレキシブルディスク、光ディスク、磁気ディスク、光磁気ディスク、磁気テープ等である。ただし、外部記憶装置206は、制御プログラムや各種データを全てROM202に格納するようにする場合には、必ずしも必要な構成要素ではない。表示器207は、ディスプレイなどで構成され、本実施形態における処理の結果等を表示する。ネットワークインターフェース208は、外部装置と通信を行うためのインターフェースである。ビデオインターフェース209は、不図示の撮像部と同軸ケーブルを介してフレーム画像を取り込むためのインターフェースである。また、バス211は、上記の各構成を接続するためのバスである。   The external storage device 206 is, for example, a hard disk, flexible disk, optical disk, magnetic disk, magneto-optical disk, magnetic tape, or the like. However, the external storage device 206 is not necessarily a necessary component when all the control programs and various data are stored in the ROM 202. The display device 207 is configured by a display or the like, and displays a result of processing in the present embodiment. The network interface 208 is an interface for communicating with an external device. The video interface 209 is an interface for capturing a frame image via an imaging unit (not shown) and a coaxial cable. The bus 211 is a bus for connecting the above components.

図3は、本実施形態における物体を追尾する処理手順の一例を示すフローチャートである。以下、図3のフローチャートを参照しながら本実施形態における処理の流れを詳細に説明する。
まず、ステップS301において、処理制御部199は、画像取得部101から取得した全てのフレーム画像について、ステップS302〜S315までの処理を繰り返し行うように制御する。次に、ステップS302において、処理制御部199は、後述する軌跡結合部104で求めた全ての軌跡について、ステップS303〜S313までの処理を繰り返し行うように制御する。
FIG. 3 is a flowchart illustrating an example of a processing procedure for tracking an object in the present embodiment. Hereinafter, the flow of processing in this embodiment will be described in detail with reference to the flowchart of FIG.
First, in step S301, the process control unit 199 performs control so that the processes from steps S302 to S315 are repeatedly performed for all frame images acquired from the image acquisition unit 101. Next, in step S302, the process control unit 199 performs control so that the processes from steps S303 to S313 are repeatedly performed for all the trajectories obtained by the trajectory combining unit 104 described later.

本実施形態では、説明を簡単にするため、物体毎に検出して追尾する処理のみを説明する。ここで追尾処理の初期設定を行うために、本実施形態に係る追尾処理の他に、例えばフレーム全体に対して公知のグローバル検出器を用意する。この場合、画像取得部101から取得した初めのフレーム画像の全体について検出処理を行い、グローバル検出結果を軌跡の始まりとする。一方、一部または全部のフレーム画像の全体についてグローバル検出を行い、グローバル検出結果を物体毎の軌跡と有効に統合することにより追尾の精度を向上させることもできる。また、グローバル検出器は、物体識別部103と同じ認識モデルを利用することも可能であり、この処理は本発明の本質部分ではないので詳細な説明を省略する。   In the present embodiment, in order to simplify the description, only the processing for detecting and tracking each object will be described. Here, in order to perform the initial setting of the tracking process, a known global detector is prepared for the entire frame, for example, in addition to the tracking process according to the present embodiment. In this case, the entire first frame image acquired from the image acquisition unit 101 is detected, and the global detection result is set as the start of the trajectory. On the other hand, tracking accuracy can be improved by performing global detection on a part or all of the entire frame image and effectively integrating the global detection result with the trajectory for each object. Further, the global detector can use the same recognition model as that of the object identification unit 103, and since this process is not an essential part of the present invention, a detailed description thereof will be omitted.

ステップS303においては、探索領域設定部102は、過去のフレームにおいて軌跡結合部104で求めた各軌跡の最後位置とサイズとに基づき、処理対象となる注目するフレームにおける追尾対象の物体位置を予測し、探索領域の中心位置を設定する。そして、図4(a)に示すように、物体のサイズを所定の比率で拡大したサイズを探索領域のサイズに設定する。   In step S303, the search area setting unit 102 predicts the tracking target object position in the target frame to be processed based on the last position and size of each trajectory obtained by the trajectory combining unit 104 in the past frame. The center position of the search area is set. Then, as shown in FIG. 4A, a size obtained by enlarging the size of the object at a predetermined ratio is set as the size of the search area.

次に、ステップS304において、物体識別部103は、図4(b)に示すように、ステップS303で設定した物体の探索領域を所定数のピラミッドレイヤ(ピラミッド画像)に対応付ける。そして、各ピラミッドレイヤに対応する対応探索領域についてスキャンを行い、各カテゴリのそれぞれの認識モデルを用いて現在のスキャン位置にその物体があるか否かを判断する。本実施形態においては、学習した認識モデルを外部記憶装置206に複数保持しており、認識しようとする物体を複数のカテゴリに分類してカテゴリ毎に認識モデルを保持している。   Next, in step S304, the object identification unit 103 associates the object search area set in step S303 with a predetermined number of pyramid layers (pyramid images), as shown in FIG. 4B. Then, the corresponding search area corresponding to each pyramid layer is scanned, and it is determined whether or not the object is present at the current scan position using each recognition model of each category. In the present embodiment, a plurality of learned recognition models are held in the external storage device 206, and objects to be recognized are classified into a plurality of categories, and a recognition model is held for each category.

図5は、物体識別部103に用いるカスケード型識別器の構成例を示す図である。カスケード型識別器を各ピラミッドレイヤの各スキャン位置に適用する際に、各ピラミッドレイヤにおいて認識する画像領域のサイズは、カスケード型識別器のサイズであり一定である。各ピラミッドレイヤは原画像に対して縮小の比率が異なるため、物体が遠近移動して物体のサイズが変化する時にも、物体を識別することができる。以下、各ピラミッドレイヤの各スキャン位置における、カスケード型識別器(すなわち認識モデル)のサイズに正規化した画像領域を正規化局所領域と呼ぶことにする。   FIG. 5 is a diagram illustrating a configuration example of a cascade classifier used in the object identification unit 103. When the cascade classifier is applied to each scan position of each pyramid layer, the size of the image area recognized in each pyramid layer is the size of the cascade classifier and is constant. Since each pyramid layer has a different reduction ratio with respect to the original image, the object can be identified even when the object moves in the distance and the size of the object changes. Hereinafter, an image region normalized to the size of the cascade discriminator (that is, the recognition model) at each scan position of each pyramid layer will be referred to as a normalized local region.

図5に示すように、カスケード型識別器は複数の識別器を直列で連結して構成される。各識別器は、各認識モデルに記述した特徴量の位置、サイズ、タイプ、および尤度対応法則などに従って、各正規化局所領域の物体らしさを示す尤度を累積し、認識モデルに記述した識別閾値と比較する。そして、ある識別器で累積尤度が閾値より小さい場合には、その時点で識別する正規化局所領域を非物体として拒否する。そして、図5に示すように、全ての識別器を通過した場合に正規化局所領域を物体として識別する。   As shown in FIG. 5, the cascade type discriminator is configured by connecting a plurality of discriminators in series. Each discriminator accumulates the likelihood indicating the object likeness of each normalized local region according to the position, size, type, likelihood correspondence law, etc. of the feature amount described in each recognition model, and the identification described in the recognition model Compare with threshold. When the cumulative likelihood is smaller than the threshold value in a certain classifier, the normalized local region identified at that time is rejected as a non-object. Then, as shown in FIG. 5, the normalized local region is identified as an object when all the classifiers have been passed.

ステップS304においては、認識モデルを用いて物体の位置とサイズとを正確に識別できるため、その後、後述するステップS313のテンプレート照合処理において追尾物体を正しい位置に校正することができる。また、探索領域に制限して識別を行うため、高速に識別することができる。   In step S304, since the position and size of the object can be accurately identified using the recognition model, the tracking object can be calibrated to the correct position in the template matching process in step S313 described later. In addition, since identification is performed by limiting to the search area, identification can be performed at high speed.

次に、ステップS305において、物体識別部103は、ステップS304の処理結果である各ピラミッドレイヤにおける正規化局所領域の識別結果を統合する。通常、一つの物体を複数の近隣レイヤで識別したり、近隣位置において複数の物体を識別したりすることが多い。そのため、本ステップにおいて、ステップS304で識別された全ての正規化局所領域を物体毎に分離し、同じ物体の複数の正規化局所領域の位置及びサイズについて原画像における平均値を求め、物体の位置とサイズとを検出する。   Next, in step S305, the object identification unit 103 integrates the identification results of the normalized local regions in each pyramid layer, which is the processing result of step S304. Usually, a single object is often identified by a plurality of neighboring layers, or a plurality of objects are often identified at neighboring positions. Therefore, in this step, all the normalized local areas identified in step S304 are separated for each object, the average value in the original image is obtained for the positions and sizes of a plurality of normalized local areas of the same object, and the position of the object And detect size.

次に、ステップS306において、処理制御部199は、処理対象の軌跡の探索領域において物体が検出されたか否かを判断する。探索領域に物体が検出された軌跡については、ステップS307〜S311までの処理を行い、探索領域に物体が検出されなかった軌跡については、ステップS312〜S313までの処理を行うように制御する。   Next, in step S306, the processing control unit 199 determines whether or not an object is detected in the search area for the locus to be processed. For a trajectory in which an object is detected in the search area, the processing from steps S307 to S311 is performed, and for a trajectory in which no object is detected in the search area, control is performed to perform the processes from step S312 to S313.

ステップS307においては、交差検知部105の前景領域抽出部1051は、ステップS305で検出された物体の領域(以下、検出領域)について背景差分を計算し、前景領域を抽出する。本実施形態では、監視カメラで撮影された映像を想定しているため、画像取得部101から取得したフレーム画像における背景は固定である。したがって、背景差分は単純に計算することができ、非特許文献3に記載の方法を用いることにより、前景領域を抽出する。   In step S307, the foreground region extraction unit 1051 of the intersection detection unit 105 calculates a background difference for the object region (hereinafter, detection region) detected in step S305, and extracts the foreground region. In this embodiment, since the video image | photographed with the surveillance camera is assumed, the background in the frame image acquired from the image acquisition part 101 is fixed. Therefore, the background difference can be simply calculated, and the foreground region is extracted by using the method described in Non-Patent Document 3.

次に、ステップS308において、割合計算部1053は、ステップS304で利用した認識モデルに基づき、前景マスク記憶部1052に記憶されている各カテゴリの認識モデルの前景マスクを読み出す。このとき、ステップS304で正規化局所領域においてカスケード型識別器を通過した認識モデルのカテゴリが複数存在する場合、カスケード型識別器を通過した最も多い認識モデルの前景マスクを読み出す。   Next, in step S308, the ratio calculation unit 1053 reads the foreground mask of the recognition model of each category stored in the foreground mask storage unit 1052 based on the recognition model used in step S304. At this time, if there are a plurality of recognition model categories that have passed through the cascade discriminator in the normalized local region in step S304, the most foreground masks of recognition models that have passed through the cascade discriminator are read out.

ここで、認識モデルの前景マスクは、認識モデルを学習する際に利用した本カテゴリの正規化画像の平均画像を利用して物体領域を二値化した正規化画像である。したがって、前景マスク記憶部1052に記憶されている前景マスクの数は認識モデルのカテゴリ数と同じである。   Here, the foreground mask of the recognition model is a normalized image obtained by binarizing the object region using the average image of the normalized images of this category used when learning the recognition model. Therefore, the number of foreground masks stored in the foreground mask storage unit 1052 is the same as the number of categories in the recognition model.

次に、ステップS309において、割合計算部1053は、まず、物体の検出領域を認識モデルのサイズに正規化する。そして、図6に示すように、正規化した検出領域における前景領域と、前景マスクの背景領域とをAND演算して、前景マスク以外の前景領域(画素数)を求める。そして、正規化した検出領域との比率を計算し、割合を求める。   Next, in step S309, the ratio calculation unit 1053 first normalizes the object detection area to the size of the recognition model. Then, as shown in FIG. 6, the foreground area in the normalized detection area and the background area of the foreground mask are ANDed to obtain the foreground area (number of pixels) other than the foreground mask. Then, the ratio with the normalized detection area is calculated to obtain the ratio.

次に、ステップS310において、処理制御部199は、前景マスク以外の前景領域の正規化した検出領域に占める割合が所定の閾値を超えているか否かを判断する。この判断の結果、当該割合が閾値を超えていない場合は追尾する物体が他の物体と交差していないと判断し、ステップS311に進む。一方、当該割合が閾値を超えている場合は追尾する物体が他の物体と交差していると判断するため、ステップS314に進み、次の軌跡の処理を行う。   Next, in step S310, the processing control unit 199 determines whether or not the ratio of the foreground area other than the foreground mask in the normalized detection area exceeds a predetermined threshold value. As a result of this determination, if the ratio does not exceed the threshold, it is determined that the object to be tracked does not intersect with another object, and the process proceeds to step S311. On the other hand, if the ratio exceeds the threshold value, it is determined that the object to be tracked intersects with another object, and thus the process proceeds to step S314 to process the next trajectory.

ステップS311においては、テンプレート更新部106は、検出領域の画像データに基づき、追尾用物体の色や、輪郭や、テクスチャ等の特徴量をテンプレートとして作成し、テンプレート記憶部109に記憶する。なお、既にテンプレートが作成されている場合は既存のテンプレートと置き換えて更新する。   In step S <b> 311, the template update unit 106 creates a feature amount such as the color, contour, and texture of the tracking object as a template based on the image data of the detection area, and stores the template in the template storage unit 109. If a template has already been created, it is updated by replacing the existing template.

ここで、物体の特徴量(テンプレート)としては、例えば物体のRGBヒストグラムが挙げられる。この場合は、物体の画像領域における各画素のRGB値を所定ビン数に量子化し、RGBの各量子化値を連結したindexに投票し、RGBヒストグラムを作成する。例えば、24ビットの画像において、各画素のRGBのそれぞれの値は8ビットであり、RGB各値を3ビット(すなわち8ビン)に量子化して連結すると、9ビットのindexになる。そして、物体の画像領域の各画素が9ビットのindexに投票し、RGBヒストグラムを生成する。   Here, examples of the feature amount (template) of the object include an RGB histogram of the object. In this case, the RGB value of each pixel in the image area of the object is quantized to a predetermined number of bins, and voted for the index that connects the RGB quantized values to create an RGB histogram. For example, in a 24-bit image, each RGB value of each pixel is 8 bits, and when each RGB value is quantized into 3 bits (ie, 8 bins) and concatenated, a 9-bit index is obtained. Then, each pixel in the image area of the object votes for a 9-bit index, and an RGB histogram is generated.

また、物体の特徴量の他の例として、非特許文献4に記載のSIFT(Scale-Invariant Feature Transform)特徴量が挙げられる。SIFT特徴量は、DoG(Difference-of-Gaussian)処理により抽出したキーポイントを中心とし、所定サイズの領域に勾配のヒストグラムをスケールと回転不変のベクトルに変換して得られた特徴量である。   Another example of the feature amount of the object is a SIFT (Scale-Invariant Feature Transform) feature amount described in Non-Patent Document 4. The SIFT feature value is a feature value obtained by converting a gradient histogram into a scale and rotation-invariant vector with a key size extracted by DoG (Difference-of-Gaussian) processing as a center and a region of a predetermined size.

一方、ステップS306の判断の結果、探索領域において物体を検出できなかった場合は、ステップS312に進む。そして、ステップS312において、テンプレート照合部107は、前フレームもしくはそれ以前に生成または更新された、処理対象の軌跡に係る物体のテンプレートをテンプレート記憶部109から読み出す。   On the other hand, if the result of determination in step S306 is that an object has not been detected in the search area, processing proceeds to step S312. In step S312, the template matching unit 107 reads from the template storage unit 109 the template of the object related to the trajectory to be processed, generated or updated before or in the previous frame.

次に、ステップS313において、テンプレート照合部107は、読み出した物体のテンプレートを用いて探索領域における画像領域の照合を行い、物体と最も類似した領域の位置及びサイズを求める。例えば、テンプレートが物体のRGBヒストグラムの場合、前フレームと現在のフレームとで画素数の変化が大きい色の画素位置に大きい重みを付与して平均位置を求める。そして、照合位置を移動するmean−shift追跡方法を利用することにより物体の軌跡を特定する。なお、物体と最も類似した領域がテンプレートと大きく異なるような場合(差異が所定値よりも大きい場合)には、追尾ができないものと判断する。   Next, in step S313, the template collation unit 107 collates the image area in the search area using the read object template, and obtains the position and size of the area most similar to the object. For example, when the template is an RGB histogram of an object, an average position is obtained by assigning a large weight to pixel positions of colors having a large change in the number of pixels between the previous frame and the current frame. And the locus | trajectory of an object is specified by utilizing the mean-shift tracking method which moves a collation position. In addition, when the area most similar to the object is significantly different from the template (when the difference is larger than a predetermined value), it is determined that tracking is not possible.

ステップS314においては、処理制御部199は、全ての軌跡についてステップS303〜S313までの処理を繰り返したか否かを判断する。この判断の結果、まだ処理を行っていない軌跡がある場合は次の軌跡について処理を行うように制御する。一方、全ての軌跡について処理を行った場合は、ステップS315に進む。   In step S314, the process control unit 199 determines whether the processes from steps S303 to S313 have been repeated for all the trajectories. As a result of this determination, if there is a locus that has not yet been processed, control is performed so that the next locus is processed. On the other hand, if processing has been performed for all the trajectories, the process proceeds to step S315.

ステップS315においては、軌跡結合部104は、探索領域において物体を検出できた場合、またはステップS313の照合処理によって追尾できた場合に、検出または追尾結果を軌跡に追加して、軌跡の状態を更新する。また、物体を検出できず追尾もできなかった場合は、軌跡の状態を未対応に変更する。そして、物体の画像領域の位置及びサイズの情報を画像領域情報として外部記憶装置206に記憶する。また、グローバル検出器で新たに物体を検出した場合には、新たな軌跡を生成する。このとき、新たに検出された物体が、軌跡の状態が未対応に変更された物体であるか否かをテンプレートに基づいて判断することができる。そして、同一の物体である場合には、物体が完全に遮蔽されてその状態が解除されたと判断できる。このように軌跡結合部104は追尾結果更新手段として機能する。   In step S315, the trajectory combining unit 104 updates the trajectory state by adding a detection or tracking result to the trajectory when an object can be detected in the search region or when tracking can be performed by the collation processing in step S313. To do. If the object cannot be detected and tracking cannot be performed, the state of the trajectory is changed to unsupported. Information on the position and size of the image area of the object is stored in the external storage device 206 as image area information. When a new object is detected by the global detector, a new locus is generated. At this time, it can be determined based on the template whether or not the newly detected object is an object whose trajectory has been changed to an unsupported state. When the objects are the same, it can be determined that the object is completely shielded and the state is released. In this way, the trajectory combining unit 104 functions as a tracking result update unit.

次に、ステップS316において、処理制御部199は、ステップS302〜S315までの処理を全てのフレームについて行ったか否かを判断する。この判断の結果、次のフレームが存在する場合は次のフレームについて処理を行い、次のフレームが存在しない場合は処理を終了する。   Next, in step S316, the process control unit 199 determines whether the processes from steps S302 to S315 have been performed for all frames. If the result of this determination is that there is a next frame, processing is performed for the next frame. If there is no next frame, the processing is terminated.

以上のように本実施形態によれば、物体の認識モデルを用いて識別を行い、物体を追尾する。物体識別部103により物体を検出できないときは、物体識別部103により検出された過去のフレームにおける画像領域に基づいて作成したテンプレートを用いて照合を行って物体を追尾することにより、追尾する物体の誤追尾を抑制することができる。このテンプレートは交差する前に物体識別部103により識別された物体の見えにもとづく特徴量であり、交差前の特徴量に他の物体の情報が混入しにくいため、照合精度を高めることができる。また、検出領域において前景領域を抽出し、物体の検出に利用した認識モデルに対応した前景マスクに基づいて交差を検知するため、物体同士の交差を精度良く検知することができる。   As described above, according to the present embodiment, identification is performed using an object recognition model, and the object is tracked. When the object cannot be detected by the object identifying unit 103, the object is tracked by performing matching using a template created based on the image area in the past frame detected by the object identifying unit 103, and tracking the object. False tracking can be suppressed. This template is a feature amount based on the appearance of the object identified by the object identifying unit 103 before intersecting, and information on other objects is difficult to be mixed into the feature amount before the intersection, so that the matching accuracy can be improved. Further, since the foreground area is extracted from the detection area and the intersection is detected based on the foreground mask corresponding to the recognition model used for detecting the object, the intersection between the objects can be detected with high accuracy.

なお、本実施形態においては、ステップS307で物体の検出領域内で前景領域を抽出したが、ステップS301とステップS302との間の処理として、フレーム画像全体について前景領域を抽出するようにしてもよい。この場合、ステップS307において、検出領域におけるフレーム画像の前景領域の情報を読み出すようにする。   In this embodiment, the foreground area is extracted from the object detection area in step S307. However, as a process between step S301 and step S302, the foreground area may be extracted for the entire frame image. . In this case, in step S307, information on the foreground area of the frame image in the detection area is read out.

また、本実施形態においては、ステップS309で前景マスク以外の前景領域の正規化した検出領域に占める割合で交差を判断したが、他の実装も考えられる。例えば、前景マスク以外の前景領域と前景マスクの領域との比率で交差を判断してもよい。また、前景マスク内における前景領域の画素数と正規化した検出領域内の前景領域の画素数との割合で交差を判断してもよい。さらに他の割合の計算方法が考えられるが、本質的に認識モデルの前景マスクと検出領域内の前景領域とを用いて交差を判断すればよい。   In the present embodiment, the intersection is determined in step S309 based on the ratio of the foreground area other than the foreground mask to the normalized detection area, but other implementations are also conceivable. For example, the intersection may be determined based on the ratio of the foreground area other than the foreground mask and the area of the foreground mask. Alternatively, the intersection may be determined based on the ratio between the number of pixels in the foreground area in the foreground mask and the number of pixels in the foreground area in the normalized detection area. Although other percentage calculation methods are conceivable, the intersection may be determined essentially using the foreground mask of the recognition model and the foreground region in the detection region.

また、本実施形態においては、ステップS308で正規化局所領域においてカスケード型識別器を通過した認識モデルのカテゴリが複数存在する場合に、カスケード型識別器を通過した最も多い認識モデルの前景マスクを読み出した。一方、カスケード型識別器を通過した全部の認識モデルの前景マスクを読み出すようにしてもよい。この場合、ステップS309で、通過した認識モデル数と総認識モデル数との比を重みとして前景マスク内における前景領域の画素数を数え、正規化した検出領域内の前景領域の総画素数から引いて、前景マスク外の前景領域の画素数を求めてもよい。   In this embodiment, when there are a plurality of recognition model categories that have passed through the cascade classifier in the normalized local region in step S308, the most foreground masks of the recognition models that have passed through the cascade classifier are read out. It was. On the other hand, foreground masks of all recognition models that have passed through the cascade classifier may be read out. In this case, in step S309, the number of pixels in the foreground area in the foreground mask is counted using the ratio between the number of recognition models passed and the total number of recognition models as a weight, and is subtracted from the total number of pixels in the foreground area in the normalized detection area. Thus, the number of pixels in the foreground area outside the foreground mask may be obtained.

また、本実施形態においては、ステップS305で正規化局所領域の統合処理を行ったが、本処理をステップS310またはS311の直後に行ってもよい。この場合、ステップS304において、物体を検出したそれぞれの正規化局所領域をそのまま物体の検出領域とする。そして、ステップS309においては、前景マスク外の前景領域の正規化局所領域に占める割合を計算してもよい。   In the present embodiment, the normalization local region integration process is performed in step S305. However, this process may be performed immediately after step S310 or S311. In this case, in step S304, each normalized local area where the object is detected is directly used as the object detection area. In step S309, the ratio of the foreground area outside the foreground mask to the normalized local area may be calculated.

(第2の実施形態)
第1の実施形態においては、探索領域において物体が検出されなかった場合に、テンプレートを用いて画像領域の照合処理を行い、テンプレートは更新しないようにした。これに対して本実施形態では、探索領域において物体が検出されなかった場合も、交差の判断結果によってはテンプレートを更新する。なお、本実施形態に係る物体追尾装置の構成は、第1の実施形態と同様であるため、説明は省略する。
(Second Embodiment)
In the first embodiment, when no object is detected in the search area, the template is used to perform image area matching processing, and the template is not updated. On the other hand, in this embodiment, even when no object is detected in the search region, the template is updated depending on the determination result of the intersection. Note that the configuration of the object tracking device according to the present embodiment is the same as that of the first embodiment, and a description thereof will be omitted.

図7は、本実施形態における物体を追尾する処理手順の一例を示すフローチャートである。なお、図3と同じ処理については同一の符号を付しており、これらの説明は省略する。
ステップS701においては、物体の検出処理に用いた認識モデルの番号の情報を前景マスク記憶部1052に記憶する。認識モデルが複数利用した場合には、認識モデルの番号と利用した回数との情報を記憶する。
FIG. 7 is a flowchart illustrating an example of a processing procedure for tracking an object in the present embodiment. Note that the same processes as those in FIG. 3 are denoted by the same reference numerals, and description thereof is omitted.
In step S701, the foreground mask storage unit 1052 stores information on the recognition model number used in the object detection process. When a plurality of recognition models are used, information on the recognition model number and the number of times of use is stored.

ステップS702においては、物体の検出領域の代わりにステップS313の照合処理で検出した領域を用いる以外は、ステップS307と同様の処理を行う。そして、ステップS703においては、割合計算部1053は、ステップS701で記憶した認識モデルの番号に従い、その前景マスクを前景マスク記憶部1052から読み出す。ステップS704においては、割合計算部1053は、ステップS309と同様に、前景マスク外の前景領域の割合を算出する。ステップS705及びS706は、それぞれステップS310及びS311と同様である。   In step S702, the same process as step S307 is performed except that the area detected in the collation process in step S313 is used instead of the object detection area. In step S703, the ratio calculation unit 1053 reads the foreground mask from the foreground mask storage unit 1052 in accordance with the recognition model number stored in step S701. In step S704, the ratio calculation unit 1053 calculates the ratio of the foreground area outside the foreground mask as in step S309. Steps S705 and S706 are the same as steps S310 and S311, respectively.

以上のように本実施形態によれば、物体識別部103により物体を検出できなかったが照合処理によって物体を追尾できたような場合であっても交差を検知することができる。また、交差を検知しなかった場合にはテンプレートを更新するため、より直近の物体の情報を反映させることができる。   As described above, according to the present embodiment, it is possible to detect an intersection even when an object cannot be detected by the object identification unit 103 but can be tracked by a matching process. In addition, since the template is updated when no intersection is detected, information on the latest object can be reflected.

(第3の実施形態)
第1の実施形態においては、各ピラミッドレイヤの検出結果を統合した後に物体を検出したか否かを判断した。これに対して本実施形態では、各検出結果を統合する前にこれらの尤度がすべて閾値未満である場合は、テンプレートとの類似度に基づいて統合する。なお、本実施形態に係る物体追尾装置の構成は、第1の実施形態と同様であるため、説明は省略する。
(Third embodiment)
In the first embodiment, it is determined whether or not an object is detected after integrating the detection results of the pyramid layers. On the other hand, in the present embodiment, when the likelihoods are all less than the threshold before integrating the detection results, the detection results are integrated based on the similarity with the template. Note that the configuration of the object tracking device according to the present embodiment is the same as that of the first embodiment, and a description thereof will be omitted.

図8は、本実施形態における物体を追尾する処理手順の一例を示すフローチャートである。なお、図3と同じ処理については同一の符号を付しており、これらの説明は省略する。
ステップS801においては、処理制御部199は、探索領域における各ピラミッドレイヤの検出結果の尤度を算出し、これらの検出結果の尤度がすべて所定の閾値より小さいかどうかを判断する。この判断の結果、尤度が閾値以上の検出結果が存在する場合は、ステップS802に進み、すべて閾値よりも小さい場合はステップS312に進む。
FIG. 8 is a flowchart illustrating an example of a processing procedure for tracking an object in the present embodiment. Note that the same processes as those in FIG. 3 are denoted by the same reference numerals, and description thereof is omitted.
In step S801, the processing control unit 199 calculates the likelihood of detection results of each pyramid layer in the search area, and determines whether the likelihoods of these detection results are all smaller than a predetermined threshold. As a result of this determination, if there is a detection result having a likelihood equal to or greater than the threshold, the process proceeds to step S802, and if all are smaller than the threshold, the process proceeds to step S312.

ステップS802においては、物体識別部103は、尤度が閾値以上である検出結果を物体毎に分離し、同じ物体の複数の正規化局所領域の位置及びサイズについて原画像における平均値を求め、物体の位置及びサイズを物体の検出領域として検出する。   In step S802, the object identification unit 103 separates detection results having a likelihood equal to or greater than a threshold for each object, obtains an average value in the original image for the positions and sizes of a plurality of normalized local regions of the same object, Is detected as an object detection area.

一方、ステップS312においては、テンプレート照合部107は、第1の実施形態と同様に追尾用テンプレートを読み出す。ステップS803において、処理制御部199は、全ての検出結果について、ステップS804の処理を繰り返し行うように制御する。   On the other hand, in step S312, the template matching unit 107 reads the tracking template as in the first embodiment. In step S803, the process control unit 199 performs control so that the process of step S804 is repeatedly performed for all detection results.

ステップS804において、テンプレート照合部107は、ステップS312において読み出したテンプレートと検出結果との類似度を計算する。例えば、テンプレートがRGBヒストグラムである場合には、類似度はヒストグラムインタセクションとすることができる。また、テンプレートがSIFT特徴量である場合には、類似度はマッチングしたSIFT特徴量数と全部のSIFT特徴量数との比率にすることができる。   In step S804, the template matching unit 107 calculates the similarity between the template read in step S312 and the detection result. For example, if the template is an RGB histogram, the similarity can be a histogram intersection. When the template is a SIFT feature quantity, the similarity can be a ratio between the number of matched SIFT feature quantities and the total number of SIFT feature quantities.

ステップS805においては、処理制御部199は、全ての検出結果について、ステップS804の処理を行ったか否かを判断する。この判断の結果、処理を行っていない検出結果が存在する場合は次の検出結果についてステップS804の処理を行う。一方、全ての検出結果について処理を行った場合は、次のステップS806に進む。   In step S805, the process control unit 199 determines whether or not the process of step S804 has been performed for all detection results. If there is a detection result that has not been processed as a result of this determination, the process of step S804 is performed for the next detection result. On the other hand, if all the detection results have been processed, the process proceeds to the next step S806.

ステップS806においては、テンプレート照合部107は、ステップS314で計算した各検出結果の類似度を閾値と比較し、類似度が閾値以上(所定値以上)の検出結果を追尾結果として統合する。   In step S806, the template matching unit 107 compares the similarity of each detection result calculated in step S314 with a threshold value, and integrates the detection results whose similarity is equal to or higher than the threshold value (a predetermined value or higher) as a tracking result.

以上のように本実施形態によれば、第1の実施形態と同様に、照合制度を高め、追尾する物体の誤追尾を抑制することができる。また、物体同士の交差を精度良く検知することができる。   As described above, according to the present embodiment, as in the first embodiment, it is possible to improve the matching system and suppress erroneous tracking of an object to be tracked. In addition, it is possible to accurately detect the intersection between objects.

なお、本実施形態においては、ステップS802の統合処理は交差検知処理の前に行ったが、ステップS310またはS311の直後に行ってもよい。また、第2の実施形態と同様に、ステップS308の判断の結果、各検出結果の尤度がすべて閾値より小さい場合であっても交差検知を行い、追尾用テンプレートを更新してもよい。   In the present embodiment, the integration process in step S802 is performed before the intersection detection process, but may be performed immediately after step S310 or S311. Similarly to the second embodiment, as a result of the determination in step S308, even when the likelihood of each detection result is all smaller than the threshold, cross detection may be performed and the tracking template may be updated.

(第4の実施形態)
第1〜第3の実施形態においては、背景差分により抽出した検出領域内の前景領域と、各認識モデルの前景マスクとを利用して、物体の交差を検知するようにした。これに対して本実施形態においては、物体識別部103が検出した検出領域、またはテンプレート照合部107で照合した物体の画像領域を用いて、各軌跡の物体の画像領域の重複する割合により交差を判断する。
(Fourth embodiment)
In the first to third embodiments, the intersection of objects is detected using the foreground area in the detection area extracted by the background difference and the foreground mask of each recognition model. On the other hand, in the present embodiment, the detection region detected by the object identification unit 103 or the image region of the object collated by the template collation unit 107 is used to intersect each other by the overlapping ratio of the image regions of the objects of each locus. to decide.

図9は、本実施形態に係る物体追尾装置900の機能構成例を示すブロック図である。なお、本実施形態に係る物体追尾装置のハードウェア構成は、第1の実施形態と同様であるため、説明は省略する。
図9に示すように、図1に示した構成と比べて、交差検知部105の代わりに軌跡交差検知部905としている。なお、他の構成については図1と同じ符号を付しており、これらの構成については説明を省略する。
FIG. 9 is a block diagram illustrating a functional configuration example of the object tracking apparatus 900 according to the present embodiment. Note that the hardware configuration of the object tracking device according to the present embodiment is the same as that of the first embodiment, and a description thereof will be omitted.
As shown in FIG. 9, compared to the configuration shown in FIG. 1, a trajectory intersection detection unit 905 is used instead of the intersection detection unit 105. In addition, about the other structure, the code | symbol same as FIG. 1 is attached | subjected and description is abbreviate | omitted about these structures.

図10は、本実施形態における物体を追尾する処理手順の一例を示すフローチャートである。なお、図3と同じ処理については同一の符号を付しており、これらの説明は省略する。
まず、ステップS1001において、軌跡交差検知部905は、軌跡結合部104によって更新された前フレームまでの全ての軌跡の物体の画像領域情報を外部記憶装置206から読み出す。
FIG. 10 is a flowchart illustrating an example of a processing procedure for tracking an object in the present embodiment. Note that the same processes as those in FIG. 3 are denoted by the same reference numerals, and description thereof is omitted.
First, in step S <b> 1001, the trajectory intersection detection unit 905 reads from the external storage device 206 image area information of all trajectory objects up to the previous frame updated by the trajectory combination unit 104.

次に、ステップS1002において、軌跡交差検知部905は、処理対象の軌跡の物体の画像領域と他の軌跡の物体の画像領域との重複領域を他の全ての軌跡に対して求める。そして、他の全ての軌跡について、前記求めた重複領域の、処理対象の軌跡の物体の画像領域における割合を計算する。   Next, in step S1002, the trajectory intersection detection unit 905 obtains an overlapping area between the image area of the object of the trajectory to be processed and the image area of the object of the other trajectory for all other trajectories. Then, for all the other trajectories, the ratio of the obtained overlap area in the image area of the object of the trajectory to be processed is calculated.

次に、ステップS1003において、軌跡交差検知部905は、他の全ての軌跡に対して計算した、前記重複領域の、処理対象の軌跡の物体の画像領域における割合がすべて閾値未満であるどうかを判断する。この判断の結果、すべて閾値未満である場合は、軌跡の交差がないとみなし、ステップS311に進む。一方、閾値以上である割合が少なくとも1つ存在する場合は、テンプレートを更新せずに、ステップS314に進む。   Next, in step S1003, the trajectory crossing detection unit 905 determines whether all the ratios of the overlapping region calculated in all other trajectories in the image region of the object to be processed are less than the threshold value. To do. As a result of this determination, if all of them are less than the threshold value, it is considered that there is no trajectory intersection, and the process proceeds to step S311. On the other hand, if there is at least one ratio that is equal to or greater than the threshold, the process proceeds to step S314 without updating the template.

以上のように本実施形態によれば、第1の実施形態と同様に、照合制度を高め、追尾する物体の誤追尾を抑制することができる。また、物体同士の交差を精度良く検知することができる。   As described above, according to the present embodiment, as in the first embodiment, it is possible to improve the matching system and suppress erroneous tracking of an object to be tracked. In addition, it is possible to accurately detect the intersection between objects.

なお、本実施形態においては、テンプレートの更新処理は、第1の実施形態と同様に探索領域内で認識モデルにより識別した物体領域がある場合のみ行った。一方、第2の実施形態のように、テンプレートの照合処理で求めた物体領域を用いてステップS1001〜S1003と同様の処理を行い、軌跡が交差しない時にもテンプレートを更新してもよい。また、本実施形態において、ステップS304で識別した各正規化局所領域の統合処理をS305で行うが、第3の実施形態のように、テンプレート更新処理または、テンプレートの照合処理の後に行ってもよい。   In the present embodiment, the template update process is performed only when there is an object region identified by the recognition model in the search region, as in the first embodiment. On the other hand, as in the second embodiment, the same process as in steps S1001 to S1003 may be performed using the object region obtained by the template matching process, and the template may be updated even when the trajectories do not intersect. In the present embodiment, the integration processing of each normalized local region identified in step S304 is performed in S305. However, as in the third embodiment, it may be performed after the template update processing or the template matching processing. .

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

102 探索領域設定部
103 物体識別部
104 軌跡結合部
105 交差検知部
106 テンプレート更新部
107 テンプレート照合部
199 処理制御部
DESCRIPTION OF SYMBOLS 102 Search area setting part 103 Object identification part 104 Trajectory coupling part 105 Crossing detection part 106 Template update part 107 Template collation part 199 Process control part

Claims (10)

動画の注目するフレームにおける物体の探索領域を過去のフレームにおける追尾結果に基づいて設定する設定手段と、
前記設定手段によって設定された探索領域において前記物体の認識モデルを用いて前記物体を検出する検出手段と、
前記検出手段によって検出された物体の検出領域から前景領域を抽出し、前記抽出した前景領域、及び前記認識モデルに対応するマスクを用いて前記物体の交差を検知する検知手段と、
前記検知手段によって前記物体の交差が検知されなかった場合に、前記検出手段によって検出された物体の検出領域に基づいて、前記物体の特徴量を示すテンプレートを更新するテンプレート更新手段と、
前記検出手段によって前記物体が検出されなかった場合に、前記テンプレート更新手段によって前記過去のフレームにおいて更新されたテンプレートと照合して前記設定手段によって設定された探索領域内から前記物体の画像領域を抽出する照合手段と、
前記検出手段によって検出された物体の検出領域、または前記照合手段によって抽出された画像領域を追尾結果として更新する追尾結果更新手段と、
を備えることを特徴とする物体追尾装置。
Setting means for setting a search area of an object in a frame of interest of a moving image based on a tracking result in a past frame;
Detecting means for detecting the object using a recognition model of the object in the search region set by the setting means;
Detecting means for extracting a foreground area from a detection area of the object detected by the detection means, and detecting an intersection of the objects using a mask corresponding to the extracted foreground area and the recognition model;
A template updating unit for updating a template indicating a feature amount of the object based on a detection area of the object detected by the detection unit when an intersection of the objects is not detected by the detection unit;
When the object is not detected by the detecting means, the image update area is extracted from the search area set by the setting means by collating with the template updated in the past frame by the template updating means. Matching means to
Tracking result update means for updating the detection area of the object detected by the detection means or the image area extracted by the collation means as a tracking result;
An object tracking device comprising:
前記検知手段によって前記物体の交差を検知した場合に、前記テンプレート更新手段は、前記物体のテンプレートを更新しないようにすることを特徴とする請求項1に記載の物体追尾装置。   The object tracking device according to claim 1, wherein when the detection unit detects the intersection of the objects, the template update unit does not update the template of the object. 前記検知手段は、前記前景領域のうち、前記マスクと重ならない領域の割合に基づいて前記物体の交差を検知することを特徴とする請求項1又は2に記載の物体追尾装置。   The object tracking device according to claim 1, wherein the detection unit detects an intersection of the objects based on a ratio of an area that does not overlap the mask in the foreground area. 前記照合手段により前記物体の画像領域が抽出された場合に、前記検知手段は、前記物体の画像領域から前景領域を抽出し、前記抽出した前景領域、及び前記認識モデルに対応するマスクを用いて前記物体の交差を検知し、
前記検知手段によって前記物体の交差が検知されない場合に、前記テンプレート更新手段は、前記検出手段によって検出された物体の画像領域に基づいて、前記物体のテンプレートを更新することを特徴とする請求項1〜3の何れか1項に記載の物体追尾装置。
When the image area of the object is extracted by the matching unit, the detection unit extracts a foreground area from the image area of the object, and uses the extracted foreground area and a mask corresponding to the recognition model. Detecting the intersection of the objects,
2. The template updating unit updates the template of the object based on an image area of the object detected by the detecting unit when the detecting unit does not detect the intersection of the objects. The object tracking device according to any one of?
前記検出手段は、前記探索領域を含む画像をそれぞれ異なる比率で縮小した複数のピラミッド画像を用いて前記複数のピラミッド画像それぞれの検出結果を統合して前記物体を検出することを特徴とする請求項1〜4の何れか1項に記載の物体追尾装置。   The detection means detects the object by integrating detection results of the plurality of pyramid images using a plurality of pyramid images obtained by reducing the images including the search region at different ratios. The object tracking device according to any one of 1 to 4. 前記検出手段は、前記探索領域を含む複数のピラミッド画像を用いて前記複数のピラミッド画像それぞれにおいて前記物体を検出し、
前記照合手段は、前記テンプレート更新手段によって前記過去のフレームにおいて更新されたテンプレートと、前記複数のピラミッド画像のそれぞれにおける検出結果との類似度を算出し、前記類似度が所定値以上であるピラミッド画像の検出結果を統合して前記物体の画像領域とすることを特徴とする請求項1〜4の何れか1項に記載の物体追尾装置。
The detection means detects the object in each of the plurality of pyramid images using a plurality of pyramid images including the search area,
The collating unit calculates a similarity between the template updated in the past frame by the template updating unit and a detection result in each of the plurality of pyramid images, and the pyramid image whose similarity is a predetermined value or more. The object tracking device according to claim 1, wherein the detection results are integrated into an image area of the object.
前記検知手段は、前記検出手段が複数の認識モデルを用いた場合に、前記物体の検出に最も多く利用された認識モデルのマスクを用いることを特徴とする請求項1〜6の何れか1項に記載の物体追尾装置。   The said detection means uses the mask of the recognition model most utilized for the detection of the said object, when the said detection means uses several recognition models, The any one of Claims 1-6 characterized by the above-mentioned. The object tracking device described in 1. 前記検知手段は、前記検出手段が複数の認識モデルを用いた場合に、前記複数の認識モデルのマスクを用いることを特徴とする請求項1〜6の何れか1項に記載の物体追尾装置。   The object tracking device according to claim 1, wherein the detection unit uses a mask of the plurality of recognition models when the detection unit uses a plurality of recognition models. 動画の注目するフレームにおける物体の探索領域を過去のフレームにおける追尾結果に基づいて設定する設定工程と、
前記設定工程において設定された探索領域において前記物体の認識モデルを用いて前記物体を検出する検出工程と、
前記検出工程において検出された物体の検出領域から前景領域を抽出し、前記抽出した前景領域、及び前記認識モデルに対応するマスクを用いて前記物体の交差を検知する検知工程と、
前記検知工程において前記物体の交差が検知されなかった場合に、前記検出工程において検出された物体の検出領域に基づいて、前記物体の特徴量を示すテンプレートを更新するテンプレート更新工程と、
前記検出工程において前記物体が検出されなかった場合に、前記テンプレート更新工程において前記過去のフレームにおいて更新されたテンプレートと照合して前記設定工程において設定された探索領域内から前記物体の画像領域を抽出する照合工程と、
前記検出工程において検出された物体の検出領域、または前記照合工程において抽出された画像領域を追尾結果として更新する追尾結果更新工程と、
を備えることを特徴とする物体追尾方法。
A setting step of setting a search area of an object in a frame of interest of a moving image based on a tracking result in a past frame;
A detection step of detecting the object using a recognition model of the object in the search region set in the setting step;
A detection step of extracting a foreground region from a detection region of the object detected in the detection step, and detecting an intersection of the objects using the extracted foreground region and a mask corresponding to the recognition model;
A template update step of updating a template indicating the feature amount of the object based on the detection area of the object detected in the detection step when an intersection of the objects is not detected in the detection step;
When the object is not detected in the detection step, the image region of the object is extracted from the search region set in the setting step by collating with the template updated in the past frame in the template update step. A matching process to
A tracking result update step of updating the detection region of the object detected in the detection step or the image region extracted in the collation step as a tracking result;
An object tracking method comprising:
動画の注目するフレームにおける物体の探索領域を過去のフレームにおける追尾結果に基づいて設定する設定工程と、
前記設定工程において設定された探索領域において前記物体の認識モデルを用いて前記物体を検出する検出工程と、
前記検出工程において検出された物体の検出領域から前景領域を抽出し、前記抽出した前景領域、及び前記認識モデルに対応するマスクを用いて前記物体の交差を検知する検知工程と、
前記検知工程において前記物体の交差が検知されなかった場合に、前記検出工程において検出された物体の検出領域に基づいて、前記物体の特徴量を示すテンプレートを更新するテンプレート更新工程と、
前記検出工程において前記物体が検出されなかった場合に、前記テンプレート更新工程において前記過去のフレームにおいて更新されたテンプレートと照合して前記設定工程において設定された探索領域内から前記物体の画像領域を抽出する照合工程と、
前記検出工程において検出された物体の検出領域、または前記照合工程において抽出された画像領域を追尾結果として更新する追尾結果更新工程と、
をコンピュータに実行させることを特徴とするプログラム。
A setting step of setting a search area of an object in a frame of interest of a moving image based on a tracking result in a past frame;
A detection step of detecting the object using a recognition model of the object in the search region set in the setting step;
A detection step of extracting a foreground region from a detection region of the object detected in the detection step, and detecting an intersection of the objects using the extracted foreground region and a mask corresponding to the recognition model;
A template update step of updating a template indicating the feature amount of the object based on the detection area of the object detected in the detection step when an intersection of the objects is not detected in the detection step;
When the object is not detected in the detection step, the image region of the object is extracted from the search region set in the setting step by collating with the template updated in the past frame in the template update step. A matching process to
A tracking result update step of updating the detection region of the object detected in the detection step or the image region extracted in the collation step as a tracking result;
A program that causes a computer to execute.
JP2015124205A 2015-06-19 2015-06-19 Object tracking device, object tracking method and program Active JP6532317B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015124205A JP6532317B2 (en) 2015-06-19 2015-06-19 Object tracking device, object tracking method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015124205A JP6532317B2 (en) 2015-06-19 2015-06-19 Object tracking device, object tracking method and program

Publications (3)

Publication Number Publication Date
JP2017010224A true JP2017010224A (en) 2017-01-12
JP2017010224A5 JP2017010224A5 (en) 2018-07-26
JP6532317B2 JP6532317B2 (en) 2019-06-19

Family

ID=57762465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015124205A Active JP6532317B2 (en) 2015-06-19 2015-06-19 Object tracking device, object tracking method and program

Country Status (1)

Country Link
JP (1) JP6532317B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109785358A (en) * 2018-11-23 2019-05-21 山东航天电子技术研究所 It is a kind of that Tracking Method of IR Small Target is blocked based on circulation the anti-of affirmation mechanism
WO2019188054A1 (en) * 2018-03-29 2019-10-03 Nec Corporation Method, system and computer readable medium for crowd level estimation
JP2019194857A (en) * 2018-05-04 2019-11-07 キヤノン株式会社 Object tracking method and device
CN111354012A (en) * 2020-02-18 2020-06-30 杭州电子科技大学 Tracking method before complex scene moving small target detection based on subspace projection
WO2020175818A1 (en) * 2019-02-28 2020-09-03 네이버 주식회사 Method and system for object tracking using on-line training
JP2021033426A (en) * 2019-08-19 2021-03-01 東芝情報システム株式会社 Image detection device, image detection method and image detection program
WO2022019076A1 (en) * 2020-07-20 2022-01-27 キヤノン株式会社 Information processing device, information processing method, and program
WO2022259690A1 (en) * 2021-06-11 2022-12-15 パナソニックIpマネジメント株式会社 Task analysis device and method
CN115564803A (en) * 2022-12-06 2023-01-03 腾讯科技(深圳)有限公司 Animation processing method, device, equipment, storage medium and product

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010039580A (en) * 2008-07-31 2010-02-18 Secom Co Ltd Traveling object tracking device
JP2010193406A (en) * 2009-02-20 2010-09-02 Canon Inc Image input apparatus, subject detecting method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010039580A (en) * 2008-07-31 2010-02-18 Secom Co Ltd Traveling object tracking device
JP2010193406A (en) * 2009-02-20 2010-09-02 Canon Inc Image input apparatus, subject detecting method, and program

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019188054A1 (en) * 2018-03-29 2019-10-03 Nec Corporation Method, system and computer readable medium for crowd level estimation
US11893798B2 (en) 2018-03-29 2024-02-06 Nec Corporation Method, system and computer readable medium of deriving crowd information
US11615626B2 (en) 2018-03-29 2023-03-28 Nec Corporation Method, system and computer readable medium for estimating crowd level using image of crowd
US11270108B2 (en) 2018-05-04 2022-03-08 Canon Kabushiki Kaisha Object tracking method and apparatus
JP2019194857A (en) * 2018-05-04 2019-11-07 キヤノン株式会社 Object tracking method and device
CN110443833A (en) * 2018-05-04 2019-11-12 佳能株式会社 Method for tracing object and equipment
CN110443833B (en) * 2018-05-04 2023-09-26 佳能株式会社 Object tracking method and device
CN109785358A (en) * 2018-11-23 2019-05-21 山东航天电子技术研究所 It is a kind of that Tracking Method of IR Small Target is blocked based on circulation the anti-of affirmation mechanism
CN109785358B (en) * 2018-11-23 2023-06-16 山东航天电子技术研究所 Anti-shielding infrared small target tracking method based on cyclic confirmation mechanism
WO2020175818A1 (en) * 2019-02-28 2020-09-03 네이버 주식회사 Method and system for object tracking using on-line training
JP2022521540A (en) * 2019-02-28 2022-04-08 ネイバー コーポレーション Methods and systems for object tracking using online learning
JP7192143B2 (en) 2019-02-28 2022-12-19 ネイバー コーポレーション Method and system for object tracking using online learning
KR102198920B1 (en) * 2019-02-28 2021-01-06 네이버 주식회사 Method and system for object tracking using online learning
KR20200105157A (en) * 2019-02-28 2020-09-07 네이버 주식회사 Method and system for object tracking using online learning
JP2021033426A (en) * 2019-08-19 2021-03-01 東芝情報システム株式会社 Image detection device, image detection method and image detection program
CN111354012B (en) * 2020-02-18 2023-03-28 杭州电子科技大学 Tracking method before complex scene moving small target detection based on subspace projection
CN111354012A (en) * 2020-02-18 2020-06-30 杭州电子科技大学 Tracking method before complex scene moving small target detection based on subspace projection
WO2022019076A1 (en) * 2020-07-20 2022-01-27 キヤノン株式会社 Information processing device, information processing method, and program
WO2022259690A1 (en) * 2021-06-11 2022-12-15 パナソニックIpマネジメント株式会社 Task analysis device and method
CN115564803A (en) * 2022-12-06 2023-01-03 腾讯科技(深圳)有限公司 Animation processing method, device, equipment, storage medium and product
CN115564803B (en) * 2022-12-06 2023-03-14 腾讯科技(深圳)有限公司 Animation processing method, device, equipment, storage medium and product

Also Published As

Publication number Publication date
JP6532317B2 (en) 2019-06-19

Similar Documents

Publication Publication Date Title
JP6532317B2 (en) Object tracking device, object tracking method and program
EP3092619B1 (en) Information processing apparatus and information processing method
Lin et al. Abandoned object detection via temporal consistency modeling and back-tracing verification for visual surveillance
US7916944B2 (en) System and method for feature level foreground segmentation
Pless et al. Evaluation of local models of dynamic backgrounds
Memon et al. A video based vehicle detection, counting and classification system
US8948450B2 (en) Method and system for automatic object detection and subsequent object tracking in accordance with the object shape
CN110298297B (en) Flame identification method and device
JP6482195B2 (en) Image recognition apparatus, image recognition method, and program
KR101449744B1 (en) Face detection device and method using region-based feature
Noriega et al. Real Time Illumination Invariant Background Subtraction Using Local Kernel Histograms.
Gautam et al. Computer vision based asset surveillance for smart buildings
Khanam et al. Baggage recognition in occluded environment using boosting technique
Soundrapandiyan et al. Robust pedestrian detection in infrared images using rotation and scale invariant-based structure element descriptor
Avola et al. A new descriptor for keypoint-based background modeling
Kang et al. Real-time pedestrian detection using support vector machines
Meenatchi et al. Multiple object tracking and segmentation in video sequences
Yildirim et al. Gender classification based on binary haar cascade
Kim et al. Background modeling using adaptive properties of hybrid features
Duan et al. Detection of hand-raising gestures based on body silhouette analysis
Li et al. Scene-independent feature-and classifier-based vehicle headlight and shadow removal in video sequences
Kerdvibulvech Hybrid model of human hand motion for cybernetics application
Pava et al. Object Detection and Motion Analysis in a Low Resolution 3-D Model
JP2016207106A (en) Method and device for reducing incorrect detection in object detection
Voleti et al. Simple real-time pattern recognition for industrial automation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180614

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190521

R151 Written notification of patent or utility model registration

Ref document number: 6532317

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151