JP2016197345A - Image analyzer, image analysis method and program - Google Patents
Image analyzer, image analysis method and program Download PDFInfo
- Publication number
- JP2016197345A JP2016197345A JP2015077145A JP2015077145A JP2016197345A JP 2016197345 A JP2016197345 A JP 2016197345A JP 2015077145 A JP2015077145 A JP 2015077145A JP 2015077145 A JP2015077145 A JP 2015077145A JP 2016197345 A JP2016197345 A JP 2016197345A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image
- unit
- integration
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は被写体の特徴情報を用いた画像解析方法に関する。 The present invention relates to an image analysis method using feature information of a subject.
ネットワークに接続されたカメラによる撮像画像を解析するための画像解析技術として、例えば顔認識技術が知られている。また、顔認識技術を用いて構築された人物検索装置は、特定人物や迷子が映り込んでいる映像の絞り込みに使われている。 As an image analysis technique for analyzing an image captured by a camera connected to a network, for example, a face recognition technique is known. In addition, a person search apparatus constructed using face recognition technology is used for narrowing down images in which a specific person or a lost child is reflected.
人物検索装置では、検索対象となる人物の顔や、服装から得られる特徴情報(特徴量)が事前に取得・解析され、検索しやすい形式で記録される。応答速度、検索精度などの仕様を満足するため、人物検索装置では検索対象となる人物の上限数が決められている。カメラから取得された画像の各フレームや、検出された各結果に対して抽出された特徴量がそのまま人物検索装置へ登録されると、類似した情報が多数記録され、人物検索装置の能力が圧迫されてしまう。結果として、検索可能な人物数の減少、検索時間の長期化が引き起こされ、システムパフォーマンスの低下につながる。 In the person search device, the face of the person to be searched and the feature information (feature amount) obtained from the clothes are acquired and analyzed in advance and recorded in a format that is easy to search. In order to satisfy specifications such as response speed and search accuracy, an upper limit number of persons to be searched is determined in the person search apparatus. If each frame of the image acquired from the camera and the feature quantity extracted for each detected result are registered in the person search device as they are, a lot of similar information is recorded and the ability of the person search device is compressed. Will be. As a result, the number of searchable people is reduced and the search time is prolonged, which leads to a decrease in system performance.
人物検索装置では、検索対象となる人物の顔や、服装から得られる特徴情報(特徴量)が事前に取得・解析され、検索しやすい形式で記録される。応答速度、検索精度などの仕様を満足するため、人物検索装置では検索対象となる人物の上限数が決められている。カメラから取得された画像の各フレームや、検出された各結果に対して抽出された特徴量がそのまま人物検索装置へ登録されると、類似した情報が多数記録され、人物検索装置の能力が圧迫されてしまう。結果として、検索可能な人物数の減少、検索時間の長期化が引き起こされ、システムパフォーマンスの低下につながる。 In the person search device, the face of the person to be searched and the feature information (feature amount) obtained from the clothes are acquired and analyzed in advance and recorded in a format that is easy to search. In order to satisfy specifications such as response speed and search accuracy, an upper limit number of persons to be searched is determined in the person search apparatus. If each frame of the image acquired from the camera and the feature quantity extracted for each detected result are registered in the person search device as they are, a lot of similar information is recorded and the ability of the person search device is compressed. Will be. As a result, the number of searchable people is reduced and the search time is prolonged, which leads to a decrease in system performance.
この課題に対して、特許文献1には、人物の見え方が最適な候補画像を選択する第1のサーバと、画像検索用キーを生成する第2のサーバを用意したシステムが記載されている。また特許文献1には、第1のサーバにより選択された画像が第1のサーバから第2のサーバへ伝送され、第2のサーバで処理されることが記載されている。また、特許文献2では、検出した複数の動体を、大きさを元に人や車といった種別へ分類し、種別ごとに記憶部に格納する方法が開示されている。いずれの方法も何らかの手段で同一の人物であることを判定し、抽出した特徴量をまとめて人物検索装置へ送ることにより、登録処理・検索処理の効率化を図っている。 To deal with this problem, Patent Document 1 describes a system in which a first server that selects a candidate image with the best appearance of a person and a second server that generates an image search key are described. . Patent Document 1 describes that an image selected by a first server is transmitted from the first server to the second server and processed by the second server. Patent Document 2 discloses a method in which a plurality of detected moving objects are classified into types such as a person and a vehicle based on the size, and stored in a storage unit for each type. In any of the methods, it is determined that the person is the same person by some means, and the extracted feature values are collectively sent to the person search device, thereby improving the efficiency of the registration process and the search process.
しかしながら、特許文献1や特許文献2の方法を用いて追尾処理を行った場合、追尾処理の精度が低下してしまうケースが考えられる。追尾処理とは、複数のフレームで検出された人物の同定を行う処理である。すなわち、特許文献1や特許文献2ではそれぞれ、連続する2フレームの差分、検出した動体サイズといった非常に簡単な情報を用いて、フレーム間をまたいだ人物の同定を行っている。一方、追尾処理は追尾中の人物の交差や混雑の環境を苦手とする。このような環境では、追尾が途切れたり、追尾対象と他の人物が入れ替わったりすることがある。そのため、特許文献1及び2の方法で追尾処理を行うと、追尾処理の精度が低下する恐れがある。また、このような環境で抽出した追尾対象の特徴量が人物検索装置へ記録されると、人物検索システムとしての精度低下につながる可能性がある。 However, when the tracking process is performed using the methods of Patent Document 1 and Patent Document 2, there may be a case where the accuracy of the tracking process decreases. The tracking process is a process for identifying a person detected in a plurality of frames. In other words, Patent Document 1 and Patent Document 2 each identify a person across frames using very simple information such as a difference between two consecutive frames and a detected moving object size. On the other hand, the tracking process is not good at the intersection or crowded environment of the person being tracked. In such an environment, tracking may be interrupted, or the tracking target may be switched with another person. Therefore, when the tracking process is performed by the methods of Patent Documents 1 and 2, the accuracy of the tracking process may be reduced. Further, if the tracking target feature amount extracted in such an environment is recorded in the person search device, there is a possibility that the accuracy of the person search system may be reduced.
本発明は上記課題に鑑みてなされたものであり、追尾処理の精度を向上させることを目的とする。 The present invention has been made in view of the above problems, and an object thereof is to improve the accuracy of tracking processing.
上記目的を達成するための一手段として、本発明の画像解析装置は以下の構成を有する。すなわち、動画を構成する複数の画像を取得する取得手段と、前記取得手段により取得された画像から検出された被写体の特徴量と位置とのうち、少なくとも何れかを用いて他の画像の被写体と対応付ける第1の統合手段と、前記第1の統合手段により対応付けされた被写体の特徴量を更新する更新手段と、前記取得手段により取得された画像から検出された被写体が他の被写体と交錯しているか否かを判定する交錯判定手段とを有し、前記更新手段は、前記取得手段により取得された画像から検出された被写体のうち、前記交錯判定手段により交錯していると判定された被写体の特徴量を更新しないことを特徴とする。 As a means for achieving the above object, the image analysis apparatus of the present invention has the following configuration. That is, an acquisition unit that acquires a plurality of images constituting a moving image, and a subject of another image using at least one of the feature amount and position of the subject detected from the image acquired by the acquisition unit A first integrating means for associating, an updating means for updating the feature quantity of the subject associated by the first integrating means, and a subject detected from the image acquired by the acquiring means intersect with another subject. A crossing judging means for judging whether or not the subject has been detected by the crossing judging means among the subjects detected from the image obtained by the obtaining means. The feature amount is not updated.
本発明によれば、追尾処理の精度を向上させることが可能となる。 According to the present invention, the accuracy of the tracking process can be improved.
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。 Hereinafter, the present invention will be described in detail based on preferred embodiments with reference to the accompanying drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.
[第1の実施形態]
図1は、第1の実施形態における人物検索システム(画像解析システム)のネットワーク接続構成を示す図である。第1の実施形態における人物検索システムの構成要素として、ネットワークカメラ(以下、カメラ)100、ネットワークストレージ装置(以下、ストレージ装置)200、画像解析装置300、人物検索装置400、画像表示装置500が、ネットワーク回線であるLAN600によって接続されている。カメラ100は撮像装置であり、符号化された画像データをLAN600経由で配信する機能を有する。ストレージ装置200は、カメラ100から配信される画像データを、LAN600を介して受信して記録する。
[First Embodiment]
FIG. 1 is a diagram illustrating a network connection configuration of a person search system (image analysis system) according to the first embodiment. As components of the person search system in the first embodiment, a network camera (hereinafter referred to as camera) 100, a network storage apparatus (hereinafter referred to as storage apparatus) 200, an
画像解析装置300は、カメラ100又はストレージ装置200に記録された画像(動画)データをLAN600経由で読み込み、後述する人物検索システムの登録情報を生成する。人物検索装置400は、検索対象となる人物の特徴量を取得し、それらを記録する。また、人物検索装置400は、ユーザからの検索指示に基づいて人物検索処理を実行する。画像表示装置500は、カメラ100から配信される画像データ、およびストレージ装置200に記録された画像データの再生・表示を行う。また、画像表示装置500は、検索用のユーザインタフェースを表示し、ユーザ指示に基づいて検索対象や人物属性情報を人物検索装置400へ送信する。
The
図2は、本実施形態における人物検索システムの機能ブロックの一例を示す図である。カメラ100は画像取得部101、符号化部102、および通信部103から構成される。画像取得部により取得され画像処理が施された画像データは、符号化部102によりLAN600で通信できる形式へと変換される。変換された画像データは、通信部103を通じてストレージ装置200、画像解析装置300および画像表示装置500へと配信される。ストレージ装置200は、LAN600から通信部201を介して配信画像を受信し、記録部202に記録する。
FIG. 2 is a diagram illustrating an example of functional blocks of the person search system in the present embodiment. The
画像解析装置300は、LAN600から通信部301を介して、カメラ100、およびストレージ装置200に記録された画像を読み込む。画像解析装置300は、人物検出部302、第1の統合部303、第1の判定部304、第2の統合部305にてフレームをまたいだ人物の同定を行う。次に、画像解析装置300は、第2の判定部306と特徴量抽出部307にて特徴量の抽出・更新を行う。次に、画像解析装置300は、登録判定部3081および登録特徴量送信部3082から構成される人物登録部308にて登録する人物特徴量を人物検索装置400へ送る。
The
人物検索装置400は、LAN600から通信部401を介して登録人物情報、および人物検索要求を受け取り記録部402、および検索部403でそれぞれ処理を実行する。最後に画像表示装置500はLAN600から通信部501を介して配信画像、および人物検索結果を受け取り、表示部502において画面に表示する。
The
図3は、本実施形態における人物検索システムの各構成要素のハードウェア構成の一例を示す図である。CPU31は、各構成要素の動作を制御する。ROM32は、制御命令つまりプログラムを格納する。RAM33は、プログラムを実行する際のワークメモリやデータの一時保存などに利用される。通信部34は、外部の装置と通信するための制御を行う。表示部35は、各種表示を行う。ユーザI/F(インタフェース)36は、利用者の操作を受け付ける。人物検索システムの各構成要素100〜500による処理は、CPU31がROM32に格納されたプログラムを実行することにより行われてもよく、また、専用のハードウェアにより行われてもよい。
FIG. 3 is a diagram illustrating an example of a hardware configuration of each component of the person search system according to the present embodiment. The
次に、本実施形態における人物検索システムの処理について詳細を説明する。まず、カメラ100が行う処理について説明する。画像取得部101は、CMOSなどの撮像素子から取得したデジタル電気信号に対して、所定の画素補間や色変換処理を行ない、RGBやYUVなどのデジタル画像を現像する。また、画像取得部101は、現像を施した後のデジタル画像に対してホワイトバランス、シャープネス、コントラスト、色変換などの画像補正処理を行い、画像データを生成する。画像取得部101により生成された画像データは、符号化部102へ渡される。符号化部102は、ネットワークを介して画像を配信するためにJPEGやMotion JPEG、H.264といった圧縮フォーマットで画像データの符号化を施す。符号化部102で符号化された画像データは、通信部103を通してLAN600を介し、ストレージ装置200、画像解析装置300、および画像表示装置500へ渡される。
Next, details of the processing of the person search system in the present embodiment will be described. First, processing performed by the
ストレージ装置200では、通信部201が画像データを受信し、記録部202は受信された画像データをストレージに記録する。記録部202は、配信時の画像ファイルフォーマットそのままでストレージに記録してもよく、また、読み書きのアクセス性能向上のため複数ファイル、または複数ディスクに分割してストレージに記録してもよい。また、ストレージ装置200は、画像解析装置300、および画像表示装置500からの要求に応じて、過去映像の画像解析・表示のために、記録済みの画像データを通信部201経由で配信する処理も行う。
In the
画像解析装置300は、カメラ100およびストレージ装置200から受け取ったデータに対して統合処理を行い、人物検索装置400へ送信する人物特徴量の抽出を行う。図4に画像解析処理のフローを示す。なお、本実施形態ではカメラ100、ストレージ装置200、画像解析装置300、人物検索装置400、及び画像表示装置500が、それぞれ別の装置である場合の例を説明しているが、この例に限らない。例えば、カメラ100と画像解析装置300が一体の装置であっても良いし、カメラ100トストレージ装置200が一体の装置であっても良いし、画像解析装置300と人物検索装置400が一体の装置であっても良い。
The
まずステップS4001にて、通信部301は、カメラ100と必要に応じてストレージ装置200から画像データを読み込む。次にステップS4002で、人物検出部302と第1の統合部303により、第1の統合処理が行われる。第1の統合処理では、連続する画像フレーム間に登場する人物、すなわち追尾対象の同定が行われる。第1の統合処理のために、まず、人物検出部302は、追尾技術を用いてSIFT特徴量等の特徴量を検出する。第1の統合部303は、人物検出部302により検出された特徴量を用いて、連続する画像フレーム間で同一の追尾対象の同定を行い、同定した追尾対象に対してユニークなIDを付与する。すなわち、第1の統合部303は、連続する画像フレーム間で同一の追尾対象を対応付ける。
First, in step S4001, the
次にステップS4003では、第1の判定部304は、第1の統合部303によりIDが付与された検出対象を参照し、新規の追尾対象が発生したか否かを確認する。第1の統合部303により、全ての追尾対象にはユニークなIDが付与されているため、判定部は、前フレームの画像を処理した際のIDを記録しておくことにより、新規の追尾対象が発生したか否かを判定できる。新規の追尾対象が発生した場合(ステップS4003でNO)、第2の統合部305は、ステップS4004で第2の統合処理を行う。なお、第2の統合処理を省略し、処理はステップS3003の後ステップS3005へ進んでもよい。
In step S4003, the
第2の統合部305は、新規に発生した追尾対象が、過去に検出された追尾対象のいずれかと一致するかを判定する。具体的には、第2の統合部305は、顔認識技術を用いて、新規に発生した追尾対象のスコア値を算出し、該スコア値に基づいて、新規に発生した追尾対象が、過去に検出された追尾対象のいずれかと一致するか否かを判定する。新規に発生した追尾対象が過去に検出された追尾対象のいずれかと一致すると判定された場合、第2の統合部305は、該2つの追尾対象は同一であるとしてユニークなIDを付与する。すなわち、第2の統合部305は、現画像フレームと過去の画像フレーム間で同一の追尾対象を対応付ける。例えば、第2の統合部305は、過去に検出された追尾対象のIDを新規に発生した追尾対象に付与する。一方、新規に発生した追尾対象が過去に検出された追尾対象のいずれかと一致しないと判定された場合、新規に発生した追尾対象は第1の統合部303により付与されたIDを有した状態となる。
The
次に、ステップS4005では、第2の判定部306は、検出された追尾対象が交錯しているか否かを判定する。一般的な追尾処理では、追尾対象が何等かの物体に一時隠れることに対応するため、同一対象であるかが多少疑わしい状況であっても、一時隠れる前と後の対象を統合されている。したがって、これにより、人物の交差、および混雑環境下では、人物情報が混在してしまう可能性がある。そこで本実施形態における第2の判定部306は、追尾対象の位置情報を検出し、該位置情報を用いることで交錯しているか否かを判定する。交錯しているか否かを判定するための条件としては、他の追尾対象との距離、および他の追尾対象がいくつ存在するかといったことが考えられる。
Next, in step S4005, the
図5は、交錯領域の考え方を示したものである。追尾対象の位置情報としては顔領域や人物枠の矩形情報が取得できる。第2の判定部306は、例えば矩形中心の座標をそれぞれ計算し、他の座標とのユークリッド距離を求めることで、追尾対象間の距離を求める。また、第2の判定部306は、他の追尾対象がいくつ存在するかを、所定の閾値1以上に距離が近い検出枠の数を数えることで計算することができる。第2の判定部306は、この値を所定の閾値2と比較することで交錯領域か否かを追尾対象枠毎に判断することができる。交錯判定の結果、交錯状態にあると判定された場合(ステップS3005でYES)、ステップS3006で第1の統合処理を中断する(ステップS4006)。すなわち、交錯状態にあると判定された場合、後に特徴量が抽出されても、その抽出量を用いて更新処理は行われない。この処理は、例えば、第1の統合部303により検出された追尾結果が、以降の処理に渡されないことで実現できる。これにより、交差状態にあると判定された追尾対象は、ステップS4007以降の処理対象とはならず、特徴量の更新は行われない。
FIG. 5 shows the concept of the crossing area. As the tracking target position information, rectangular information of the face area and the person frame can be acquired. For example, the
ステップS4007では、特徴量抽出部307は、追尾対象毎に人物特徴量を抽出し、更新する。図6は、抽出される人物特徴量の例を示している。顔器官位置とその周囲の色の勾配情報を表すSIFT、LBP、HOGなどの低レベル特徴量の他に年齢、性別、眼鏡、ひげ、髪色、服色といった高レベルの特徴量もある。1フレームにおける抽出結果だけでは認識処理の結果が安定せず、振れることがあるため、複数フレームにわたって結果を総合的に判断すると、より高い精度の解析結果が取得できる。例えば、過去フレームを含めて多数決処理を行い、最も多く検出された結果を採用することで実現できる。顔器官の位置や年齢、色情報といったバリエーションがるものでは平均値を求めることで同様に安定した解析結果を得ることができる。
In step S4007, the feature
ステップS4008では、登録判定部3081は、追尾対象の人物の特徴量を登録可能かを判定する。登録判定部3081は、例えば、第1の統合処理の結果として得られる追尾開始からの経過秒数、交錯判定結果として得られる直前に交錯条件下に入っていないか、第2の統合処理の結果として得られる交錯条件下に入ってから一定の時間が経過していないかといった情報に基づいて登録可能か否かを判定することができる。また、登録判定部3081は、人物特徴量取得結果を参照し、抽出・更新した人物属性がどの程度の期間変化がないかを参照することにより、十分な数の特徴量が取得できたかを判断し、登録可能かどうかの判定基準とすることができる。
In step S4008, the
追尾対象の人物の特徴量を登録可能と判定された場合(ステップS4008のでYES)、最後にステップS4009では、登録特徴量送信部3082は、登録対象となった人物特徴量を人物検索装置400へ伝送して処理を完了する。
If it is determined that the feature quantity of the tracking target person can be registered (YES in step S4008), finally, in step S4009, the registered feature
人物検索装置400は、通信部401を介して画像解析装置300から送られる人物情報の登録処理、および画像表示装置500から送られる人物情報の検索処理を行う。渡された人物情報は、後で検索しやすい形式で記録部402にて蓄積される。具体的には、人物検索装置400は、検索応答時間ができるだけ短くなるように、登録情報として渡される特徴量に基づいてクラスタリング処理を事前に施したり、検索インデックスや検索対象のデータをメモリ上にあらかじめ置いたりしく。
The
最後に、画像表示装置500は、通信部501を介して読み込んだ配信画像データ、人物検索結果、および検索用のユーザインタフェースを、表示部502で表示する。人物検索結果は、人物検索装置400から返される情報を元に、時系列順、類似度順、地図上へ重畳表示などの工夫を施されてユーザにとって分かりやすい形式で表示される。また、画像表示装置500は、検索用のユーザインタフェースを介して、ユーザ操作により検索対象や人物属性情報を取得し、取得した検索対象や人物属性情報を、人物検索装置400への問い合わせ時に使用する。
Finally, the
このように、本実施形態によれば、追尾が途切れたり、追尾対象と他の人物が入れ替わるような、混雑した環境において抽出された追尾対象の特徴量は更新されず、人物検索システムとしての精度低下を防ぐことが可能となる。言い換えれば、交錯時か否かによって人物特徴量の統合方法を切り替えることで、人物検索装置に登録される特徴量の効率化を図り、人物検索システムの性能向上、応答時間の短縮、および検索精度の向上が実現される。なお、本実施形態では追尾対象は人物であるとして説明をしたが、人物以外の被写体であっても構わない。 As described above, according to the present embodiment, the tracking target feature quantity extracted in a crowded environment where tracking is interrupted or the tracking target is replaced with another person is not updated, and accuracy as a person search system is not updated. It is possible to prevent the decrease. In other words, by switching the person feature amount integration method depending on whether or not it is at the time of crossing, the efficiency of the feature amount registered in the person search device is improved, the performance of the person search system is improved, the response time is shortened, and the search accuracy Improvement is realized. In the present embodiment, the tracking target has been described as a person, but a subject other than a person may be used.
[その他の実施形態]
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施形態をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
[Other Embodiments]
Although the embodiment has been described in detail above, the present invention can take an embodiment as a system, apparatus, method, program, recording medium (storage medium), or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of a single device. good.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100 ネットワークカメラ、101 画像取得部、102 符号化部、103 通信部、200 ネットワークストレージ装置、201 通信部、202 記録部、300 画像解析装置、301 通信部、302 人物検出部、303 第1の統合部、304 第1の判定部、305 第2の統合部、306 第2の判定部、307 特徴量取得部、308 人物登録部、3081 登録判定部、3082 登録特徴量送信部、400 人物検索バ装置、401 通信部、402 記録部、403 検索部、500 画像表示装置、501 通信部、502 表示部、600 LAN
100 network camera, 101 image acquisition unit, 102 encoding unit, 103 communication unit, 200 network storage device, 201 communication unit, 202 recording unit, 300 image analysis device, 301 communication unit, 302 human detection unit, 303 first integration , 304 first determination unit, 305 second integration unit, 306 second determination unit, 307 feature amount acquisition unit, 308 person registration unit, 3081 registration determination unit, 3082 registered feature amount transmission unit, 400 person
Claims (9)
前記取得手段により取得された画像から検出された被写体の特徴量と位置とのうち、少なくとも何れかを用いて他の画像の被写体と対応付ける第1の統合手段と、
前記第1の統合手段により対応付けされた被写体の特徴量を更新する更新手段と、
前記取得手段により取得された画像から検出された被写体が他の被写体と交錯しているか否かを判定する交錯判定手段とを有し、
前記更新手段は、前記取得手段により取得された画像から検出された被写体のうち、前記交錯判定手段により交錯していると判定された被写体の特徴量を更新しないことを特徴とする画像解析装置。 Acquisition means for acquiring a plurality of images constituting the video;
First integration means for associating with a subject of another image using at least one of the feature amount and position of the subject detected from the image acquired by the acquisition means;
Updating means for updating the feature quantity of the subject associated by the first integration means;
Crossing determination means for determining whether or not the subject detected from the image acquired by the acquisition means crosses with another subject,
The update means does not update the feature quantity of the subject determined to be interlaced by the crossing determination means among the subjects detected from the image acquired by the acquisition means.
前記更新手段は、さらに、前記第2の統合手段により対応付けされた被写体の特徴量を更新することを特徴とする請求項1または2に記載の画像解析装置。 A second integration unit that associates a subject that has not been associated with the first integration unit with the same subject that has been detected in the past based on a feature amount of the subject;
The image analysis apparatus according to claim 1, wherein the update unit further updates the feature amount of the subject associated by the second integration unit.
前記取得工程において取得された画像から検出された被写体の特徴量と位置とのうち、少なくとも何れかを用いて他の画像の被写体と対応付ける第1の統合工程と、
前記第1の統合工程において対応付けされた被写体の特徴量を更新する更新工程と、
前記取得工程において取得された画像から検出された被写体が他の被写体と交錯しているか否かを判定する交錯判定工程とを有し、
前記更新工程では、前記取得工程において取得された画像から検出された被写体のうち、前記交錯判定工程においてにより交錯していると判定された被写体の特徴量を更新しないことを特徴とする画像解析方法。 An acquisition step of acquiring a plurality of images constituting the video;
A first integration step of associating with a subject of another image using at least one of the feature amount and the position of the subject detected from the image acquired in the acquisition step;
An update step of updating the feature amount of the subject associated in the first integration step;
A crossing determination step of determining whether or not the subject detected from the image acquired in the acquisition step is crossing with another subject,
In the update step, the feature amount of the subject determined to be interlaced in the crossing determination step among the subjects detected from the image acquired in the acquisition step is not updated. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015077145A JP2016197345A (en) | 2015-04-03 | 2015-04-03 | Image analyzer, image analysis method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015077145A JP2016197345A (en) | 2015-04-03 | 2015-04-03 | Image analyzer, image analysis method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016197345A true JP2016197345A (en) | 2016-11-24 |
Family
ID=57358075
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015077145A Pending JP2016197345A (en) | 2015-04-03 | 2015-04-03 | Image analyzer, image analysis method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016197345A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113785327A (en) * | 2021-06-18 | 2021-12-10 | 商汤国际私人有限公司 | Image processing method, image processing device, edge calculation device and computer storage medium |
JP2022502781A (en) * | 2018-09-30 | 2022-01-11 | グレート ウォール モーター カンパニー リミテッド | Target tracking method and equipment |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009510541A (en) * | 2005-09-29 | 2009-03-12 | パナソニック株式会社 | Object tracking method and object tracking apparatus |
JP2011170711A (en) * | 2010-02-19 | 2011-09-01 | Toshiba Corp | Moving object tracking system and moving object tracking method |
JP2011192092A (en) * | 2010-03-15 | 2011-09-29 | Omron Corp | Object tracking apparatus, object tracking method, and control program |
-
2015
- 2015-04-03 JP JP2015077145A patent/JP2016197345A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009510541A (en) * | 2005-09-29 | 2009-03-12 | パナソニック株式会社 | Object tracking method and object tracking apparatus |
JP2011170711A (en) * | 2010-02-19 | 2011-09-01 | Toshiba Corp | Moving object tracking system and moving object tracking method |
JP2011192092A (en) * | 2010-03-15 | 2011-09-29 | Omron Corp | Object tracking apparatus, object tracking method, and control program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022502781A (en) * | 2018-09-30 | 2022-01-11 | グレート ウォール モーター カンパニー リミテッド | Target tracking method and equipment |
JP7221381B2 (en) | 2018-09-30 | 2023-02-13 | グレート ウォール モーター カンパニー リミテッド | Target tracking method and apparatus |
CN113785327A (en) * | 2021-06-18 | 2021-12-10 | 商汤国际私人有限公司 | Image processing method, image processing device, edge calculation device and computer storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2022252799B2 (en) | System and method for appearance search | |
JP7282851B2 (en) | Apparatus, method and program | |
JPWO2011046128A1 (en) | Person clothes feature extraction device, person search device, and processing method thereof | |
WO2016162963A1 (en) | Image search device, system, and method | |
US11704934B2 (en) | Information processing apparatus, information processing method, and program | |
JP6362085B2 (en) | Image recognition system, image recognition method and program | |
KR20140045897A (en) | Device and method for media stream recognition based on visual image matching | |
US8311271B2 (en) | Image processing apparatus and image processing method | |
WO2020018349A4 (en) | Systems and methods for generating targeted media content | |
KR20220098030A (en) | Method for constructing target motion trajectory, device and computer storage medium | |
US20190073813A1 (en) | Image processing apparatus, image providing apparatus,control methods thereof, and medium | |
US20230359699A1 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
JP2016197345A (en) | Image analyzer, image analysis method and program | |
JP2009289210A (en) | Device and method for recognizing important object and program thereof | |
JP2017073071A (en) | Identity determination program, identity determination device, and identity determination method | |
US20200242155A1 (en) | Search apparatus, search method, and non-transitory storage medium | |
JP2018137639A (en) | Moving image processing system, encoder and program, decoder and program | |
US20240096131A1 (en) | Video processing system, video processing method, and non-transitory computer-readable medium | |
US20210271859A1 (en) | Method and Apparatus for Facilitating Identification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190117 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190621 |