JP2020190850A - Image processing device, imaging device, imaging processing method and program - Google Patents
Image processing device, imaging device, imaging processing method and program Download PDFInfo
- Publication number
- JP2020190850A JP2020190850A JP2019094785A JP2019094785A JP2020190850A JP 2020190850 A JP2020190850 A JP 2020190850A JP 2019094785 A JP2019094785 A JP 2019094785A JP 2019094785 A JP2019094785 A JP 2019094785A JP 2020190850 A JP2020190850 A JP 2020190850A
- Authority
- JP
- Japan
- Prior art keywords
- image
- detected
- similarity
- image processing
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置、撮像装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing device, an imaging device, an image processing method and a program.
従来、カメラからの映像から人物の領域を検出し、検出した領域から顔等の特徴量を取得し、登録画像の特徴量との比較により映像中の人物が同一であるかどうかを照合し、照合結果により登録画像に対応する人物と同一の人物か判定する技術が知られている。
このような技術を監視カメラに応用した場合は、人物の進行方向や速度等の影響により、常に人物から安定した特徴を得るように撮像し続けることは難しい。
Conventionally, the area of a person is detected from the image from the camera, the feature amount such as a face is acquired from the detected area, and it is compared with the feature amount of the registered image to check whether the person in the image is the same. There is known a technique for determining whether the person is the same as the person corresponding to the registered image based on the collation result.
When such a technique is applied to a surveillance camera, it is difficult to continue taking images so as to always obtain stable features from the person due to the influence of the traveling direction and speed of the person.
特許文献1には、特徴量を安定的に取得できる領域か否かを判断し、精度向上を支援する技術が開示されている。
しかしながら、特許文献1に開示された技術では、特徴量が安定的に取得できる領域に関する記載はあるが、人物を判定する照合の安定に関しての記載はない。すなわち、本人拒否率(本人として認識しない確率)、他人受入率(他人を本人として間違える確率)を安定的に下げる処理が含まれていないため、照合精度が下がる可能性がある。
However, in the technique disclosed in
また、監視用途の場合は、その場から人が遠く離れてしまう前に、照合結果の通知をする必要がある。照合の回数が多くなると処理時間が増加し、処理負荷が増加する。 In the case of monitoring use, it is necessary to notify the collation result before the person is far away from the place. As the number of collations increases, the processing time increases and the processing load increases.
本発明は上述の課題に鑑みて成されたものであり、画像中のオブジェクトの照合処理の精度を維持しつつ処理負荷を低減させることを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to reduce a processing load while maintaining the accuracy of collation processing of objects in an image.
上記の課題を解決するため、本発明に係る画像処理装置のある態様によれば、撮像画像中に含まれるオブジェクトを検出する検出手段と、前記検出されたオブジェクトと所定の登録オブジェクトとの類似度を算出する算出手段と、前記算出手段により算出された前記類似度に基づいて、前記検出されたオブジェクトが、前記所定の登録オブジェクトであるか否かを判定する判定手段と、前記撮像画像中の第1の領域において前記検出手段により検出されたオブジェクトに対して前記算出手段により算出した前記類似度に応じて、前記第1の領域に含まれる第2の領域を決定する決定手段と、前記第2の領域において前記検出手段により検出されたオブジェクトに対して、前記所定の登録オブジェクトであるか否かの判定を行うように、前記判定手段を制御する制御手段と、を備える画像処理装置が提供される。
In order to solve the above problems, according to an aspect of the image processing apparatus according to the present invention, the detection means for detecting an object contained in a captured image and the degree of similarity between the detected object and a predetermined registered object. A calculation means for calculating the above, a determination means for determining whether or not the detected object is the predetermined registered object based on the similarity calculated by the calculation means, and the captured image. A determination means for determining a second region included in the first region according to the similarity calculated by the calculation means for an object detected by the detection means in the first region, and the first region. Provided is an image processing device including a control means for controlling the determination means so as to determine whether or not the object detected by the detection means in the
本発明によれば、画像中のオブジェクトの照合処理の精度を維持しつつ処理負荷を低減させることができる。 According to the present invention, it is possible to reduce the processing load while maintaining the accuracy of the collation processing of the objects in the image.
以下、添付図面を参照して、本発明を実施するための実施形態について詳細に説明する。なお、以下に説明する各実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施形態に必ずしも限定されるものではない。また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の処理については、同じ符号を付して説明する。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. It should be noted that each embodiment described below is an example as a means for realizing the present invention, and should be appropriately modified or changed depending on the configuration of the device to which the present invention is applied and various conditions. Is not necessarily limited to the embodiment of. Moreover, not all combinations of features described in the present embodiment are essential for the means of solving the present invention. The same processing will be described with the same reference numerals.
(実施形態1)
図1は、実施形態1の画像処理システムの構成例を示している。
この画像処理システムは、画像処理を行う画像処理装置1と、撮像処理を行う撮像装置2と、ディスプレイ4を備えている。画像処理装置1と撮像装置2は、ネットワーク3を介して接続されている。ネットワーク3は、例えばEthernet(登録商標)等の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から構成されている。なお、ネットワーク3は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)等により構成されてもよい。
(Embodiment 1)
FIG. 1 shows a configuration example of the image processing system of the first embodiment.
This image processing system includes an
画像処理装置1は、撮像装置2が撮像した画像データに予め登録されている人物等の所定のオブジェクトと同一のオブジェクトが映っているか否かを判定する認証処理を行うための画像処理を実行する装置である。なお、画像処理装置1は、例えば、後述する画像処理の機能を実現するためのプログラムがインストールされたパーソナルコンピュータ等によって実現される。撮像装置2は、当該撮像装置2の撮像範囲内の被写体を撮像する装置である。撮像装置2は、例えば所定の時間間隔毎に、撮像した映像に基づく画像データと、撮像装置2を識別する識別情報(装置ID)と、当該画像を撮像した時刻に関する情報(フレームID)と、を関連付けて、ネットワーク3を介して、画像処理装置1へ送信する。
The
ディスプレイ4は、LCD(Liquid Crystal Display)等により構成されている。また、ディスプレイ4は、HDMI(登録商標)(High Definition Multimedia Interface)等の通信規格に準拠したディスプレイケーブルを介して画像処理装置1と接続されている。また、ディスプレイ4は、表示手段として機能し、撮像装置2が撮像した画像や、後述する画像処理に係る設定画面等を表示する。なお、ディスプレイ4、画像処理装置1は、単一の筐体に設けられてもよい。
The
(画像処理装置1の構成)
図2は、画像処理装置1の機能の例を示すブロック図である。
図3は、画像処理装置1のハードウェア構成例を示すブロック図である。
画像処理装置1は、CPU(Central Processing Unit)31と、RAM(Random Access Memory)32と、ROM(Read Only Memory)33とを備えている。また、画像処理装置1は、プログラム、データ等を格納するハードディスク装置(HDD)34と、通信等の外部との入出力を行うインタフェース(I/F)35とを備えている。RAM32は、プログラムやデータを一時記憶する。ROM33は、変更を必要としないプログラムやパラメタを格納する。CPU31は、画像処理装置1全体を制御する。CPU31は、メインメモリであるRAM32をワークメモリとして、ROM33やHDD34等の記憶媒体に格納された各種プログラムを実行する。なお、図2に示す各機能は、例えば画像処理装置1のROM33に格納されたコンピュータプログラムを画像処理装置1のCPU31が実行することにより実現される。
(Configuration of image processing device 1)
FIG. 2 is a block diagram showing an example of the function of the
FIG. 3 is a block diagram showing a hardware configuration example of the
The
図2に示すように、画像処理装置1は、ネットワーク3を介して撮像装置2と通信を行う通信部11と、画像処理装置1全体の処理についての設定を行う設定部12と、画像等を表示する表示部13と、画像中のオブジェクトを検出する検出部14とを備えている。なお、以下、オブジェクトとして人物を検出する例について説明する。また、画像処理装置1は、検出部14が検出した人物の顔を含む画像から特徴量を算出す特徴量抽出部15と、特徴量抽出部が抽出した顔画像と記憶部20の登録画像の特徴量を照合し、同一の人物との類似度を表す照合スコアを算出する照合部16とを備えている。また、画像処理装置1は、検出部14によって得られた顔位置情報と照合部16によって得られた照合スコアからメタデータを生成するメタデータ生成部17と、メタデータ24と照合スコアに基づいて最適領域を算出する最適領域算出部18とを備えている。また、画像処理装置1は、ユーザの操作を入力する操作部19と、処理に必要なデータ等を格納する記憶部20とを備えている。
As shown in FIG. 2, the
通信部11は、図3のI/F35によって構成されており、ネットワーク3を介して、撮像装置2と通信を行う。通信部11は、例えば撮像装置2が撮像した画像の画像データを受信したり、撮像装置2を制御するための制御コマンドを撮像装置2へ送信したりする。なお、制御コマンドは、例えば、撮像装置2に対して撮像指示を行うコマンド等を含む。記憶部20は、図3のRAM32やHDD34等によって構成されており、画像処理装置1による画像処理に関わる情報やデータを記憶する。操作部19は、キーボードやマウス等の入力装置(不図示)を介して、ユーザが行った操作に関する情報を入力する。
The
設定部12は、画像処理装置1による情報処理に関する設定を行う。設定部12は、例えば操作部19を介して入力したユーザの操作に基づき、ユーザによる操作によって指定された通過線(所定の領域の通過の判定に用いる線)等の設定を行う。表示部13は、撮像装置2が撮像した画像や、画像処理に関する設定を行う設定画面、画像処理の結果を示す情報等をディスプレイ4に表示させる。
The setting
検出部14は、画像中の人物を検出する検出処理を実行する。本実施形態における検出部14は、照合パターン(辞書)を使用して、パターンマッチング等を行うことにより画像に含まれる人物を検出する。検出処理の検出結果には、画像のどの位置に顔画像があるかを示す顔位置情報が含まれる。なお、検出部14に、検出された人物を追尾する機能(追尾機能)を設けてもよい。ここで、追尾機能とは、現在のフレームよりも1つ以上前のフレームの画像から検出部14が検出した人物と同じ人物が現在のフレームの画像に存在する場合、それぞれのフレームにおける人物同士を対応付ける機能を意味する。すなわち、追尾機能とは、時間的に近い複数のフレームの画像間で人物を追尾する機能を意味する。追尾機能を設ける場合、検出部14は、対応付けした同一の人物の各フレーム画像中の顔位置を、対応するフレーム画像を取得した時刻あるいは上述のフレームIDに対応付けて記録し、人物の移動の軌跡として記憶部20に記憶する。すなわち、検出部14は、複数のフレーム画像夫々について、同一の人物の顔位置を対応付けて記憶部20に記憶する。
The
特徴量抽出部15は、検出部14により検出された人物の顔を含む画像(顔画像)を抽出し、人物の特徴量を算出する。照合部16は、特徴量抽出部15が抽出した顔画像と、記憶部20が記憶する登録画像の特徴量を照合し、同一の人物であるかの類似度を表す照合スコアを算出する。照合部16は、算出された照合スコアが、所定の閾値以上の場合に、当該人物と登録画像の人物とが同一の人物であると判定する。なお、所定の閾値は、記憶部20に記憶される。また、所定の閾値は、撮像環境、登録画像、使用目的等に応じて適切に設定することが望ましい。
The feature
メタデータ生成部17は、検出部14によって得られた顔位置情報と、照合部16によって得られた照合スコアとから、撮像画像のメタデータを生成し、当該メタデータを記憶部20に記憶する。撮像装置が複数ある場合は、メタデータに撮像画像を撮像した撮像装置2の識別情報、すなわち装置IDに対応付けて記録する。
The
最適領域算出部18は、記憶部20に記憶されているメタデータ24中の顔位置情報と、照合部16による照合スコアに基づいて、最適領域を算出し、算出した最適領域を記憶部20に最適領域22として記憶する。ここで、最適領域とは、撮像装置2により得られた撮像画像に対応する撮像範囲内における、同一の人物を照合し易い領域である。このような最適領域内の顔画像に対して照合処理を行うことにより、処理負荷を低減することができる。また、同一の人物の照合スコアが高くなる領域は、最適領域として適切であり、同一の人物における照合スコアが低くなる領域は、最適領域として不適切である。この適切さを示す例として、図7に示すような、照合スコアに応じた最適化レベルを定義する。ここでは、照合スコアは、数値が高い場合に、同一の人物が同一であると判定される本人一致度が高くなる数値とする。
The optimum
最適領域の算出は、例えば図7に示すような最適化レベルを設定した場合、数値が高い最適化レベルA,Bを最適領域とする閾値とすることで、顔位置情報と照合スコアに基づいて、最適領域を算出することができる。なお、最適化レベルは、設定部12で設定し、記憶部20に最適化レベル23として記憶される。最適領域算出部18は、必要に応じて記憶部20より最適化レベル23を読み出して使用する。
The optimum area is calculated based on the face position information and the collation score by setting the optimization levels A and B, which have high numerical values, as the threshold value when the optimization level as shown in FIG. 7 is set. , The optimum area can be calculated. The optimization level is set by the setting
また、最適領域は、所定時間毎に、過去に算出された照合スコアと顔位置情報に基づいて最適領域算出部18が算出し、記憶部20に最適領域22として記憶する。なお、最適領域の算出は、時間帯毎に行ってもよいし、照明のON・OFF等を条件に行ってもよい。なお、最適領域を算出する処理については、後述する。
Further, the optimum area is calculated by the optimum
図4は、画像処理装置1による最適領域算出処理の例を示すフローチャートである。なお、図4に示す処理は、所定の時間間隔毎に撮像装置2から撮像画像の画像データが供給される毎に実行される。
まず、S1において、通信部11は、撮像装置2からの撮像画像の画像データをフレーム画像の単位で取得する。ここで、フレーム画像の例を図5(a)に示す。なお、各フレーム画像には、時間情報としてフレームIDが付与されているものとする。さらに、各フレーム画像には、対応する撮像装置2の装置IDが付与されているものとする。
FIG. 4 is a flowchart showing an example of the optimum area calculation process by the
First, in S1, the
次に、S2において、検出部14は、S1において通信部11が取得したフレーム画像中の人物を検出する検出処理を実行する。S2においてフレーム画像から人物が検出された場合、S3に進む。一方、フレーム画像から人物が検出されなかった場合は、画像処理装置1は、現在のフレーム画像に対する処理を終了し、次のフレーム画像の取得を待機する。撮像装置2から次のフレーム画像が供給されると、画像処理装置1は、再度S1から処理を実行し、通信部11が、次のフレーム画像を取得する。
Next, in S2, the
なお、フレーム画像から人物を検出する場合において、人物が正面向きである場合と横向きである場合とで使用する照合パターンを両方使うことで検出精度の向上が期待できる。例えば、正面(背面)向きの人体の画像と照合させるための照合パターンと、横向きの人物の画像と照合させるための照合パターンとを記憶部20に保持しておき、撮像装置2の設置状態やユーザの指定に基づいて両方の照合パターンを使うことができる。
When a person is detected from the frame image, the detection accuracy can be expected to be improved by using both the collation patterns used when the person is facing forward and when the person is facing sideways. For example, a collation pattern for collating with an image of a human body facing in front (rear) and a collation pattern for collating with an image of a person facing sideways are stored in the storage unit 20, and the installation state of the
また、照合パターンは、斜め方向からや上方向から等他の角度からのものを用意しておいてもよい。また、人物を検出する場合、必ずしも全身の特徴を示す照合パターン(辞書)を用意しておく必要はなく、上半身、下半身、頭部、顔、足等の人物の一部についての照合パターンを用意してもよい。なお、検出部14が人物を検出処理は、画像から人物を検出する機能を有していればよく、例えば既知の動体検出や肌色検出等の処理でもよく、パターンマッチング処理にのみ限定されるものではない。
Further, the collation pattern may be prepared from another angle such as from an oblique direction or from an upward direction. In addition, when detecting a person, it is not always necessary to prepare a collation pattern (dictionary) showing the characteristics of the whole body, and a collation pattern for a part of the person such as the upper body, lower body, head, face, and legs is prepared. You may. The process of detecting a person by the
次に、S3において、検出部14は、フレーム画像中の顔を検出する。具体的には、検出部14は、S2で検出された人物の顔部分の画像(顔画像)の検出処理を実行する。ここで、顔画像が検出された位置を示す例を図5(b)に示す。この例では、取得したフレーム画像に対し、顔画像が検出された位置を顔位置41として表示している。なお、検出された顔位置には、各々の顔位置を識別可能なIDが付与されているものとする。また、検出部14は、フレーム画像中に顔が検出された場合、S4に遷移する。一方、フレーム画像中に顔が検出されなかった場合は、画像処理装置1は、取得した現在のフレーム画像に対する処理を終了し、次のフレーム画像の取得を待機する。撮像装置2から次のフレーム画像が供給されると、画像処理装置1は、再度S1から処理を実行し、通信部11が、次のフレーム画像を取得する。
Next, in S3, the
S4において、特徴量抽出部15は、S3で検出された顔画像に対して、人物の顔の特徴を示す情報である特徴量を抽出する。なお、人物の特徴量としては、色・エッジ・テクスチャ、髪の色、顔の器官の形状、サングラスの有無、髭の有無等といった情報がある。
In S4, the feature
S5において、照合部16は、顔画像の照合処理を行う。具体的には、照合部16は、特徴量抽出部15より抽出された顔画像の特徴量と、記憶部20に記憶されている登録画像特徴量21とを比較し、当該人物と登録画像に対応する人物との類似度を示す照合スコアを算出する。なお、照合スコアが高いほど、類似度が高いことを示す。そして、照合部16は顔画像の特徴量と、登録画像の特徴量とを比較して算出した照合スコアが所定の閾値を超えた場合、顔画像の人物と登録画像の人物とが同一の人物であると判定する。すなわち、照合部16は、顔画像の特徴量と登録画像の特徴量とを比較した類似度が所定の閾値を超えた場合に、顔画像の人物と登録画像の人物とが同一の人物であると判定する。すなわち、照合部16は、検出されたオブジェクトである顔画像の人物が、所定のオブジェクトである登録画像の人物であるか否かの判定を行う。
In S5, the
次に、S6において、メタデータ生成部17は、検出部14により得られた顔位置の情報と、照合部16により得られた照合スコアに基づいて、メタデータ24を生成する。メタデータ生成部17は、生成したメタデータを記憶部20に記憶する。なお、画像処理装置1は、操作部19を介して、ユーザから終了指示を受けるまで、S1からS8までの処理を繰り返す。これにより、画像処理装置1は、撮像装置2から継続して受信する撮像画像の各フレーム画像のメタデータ24の生成を続け、記憶部20にメタデータ24を蓄積していく。図6は、蓄積されたメタデータ24の情報の例を示している。図6では、メタデータ24として、照合スコアが高い順に顔位置を対応付けて蓄積した例を示している。顔位置は、例えばフレーム画像中の座標を示すX、Yと、顔位置のサイズを示すW、Hとを含んでいる。ここで、Xはフレーム画像中の顔領域の基準位置(例えば左上)のX座標をフレーム画像の画素単位で示しており、Yは顔領域の基準位置のY座標を示している。また、Wは顔領域の幅をフレーム画像の画素単位で示しており、Hは顔領域の高さを示している。また、メタデータ24は、登録画像に対応する人物毎に蓄積しておき、特定の人物毎に後述のように最適領域を算出するようにしてもよい。あるいは、特定の人物に限定せずにメタデータ24を蓄積しておき、特定の人物に限らず同一の最適領域を算出するようにしてもよい。また、メタデータ24に、対応するフレーム画像を取得した時刻あるいは上述のフレームIDを対応付けて記憶しておいてもよい。
Next, in S6, the
次に、S7において、最適領域算出部18は、最適領域を算出する。
最適領域算出部18は、記憶部20に記憶されているメタデータ24より、顔位置毎の照合スコアに基づいて最適領域を算出する。人物(被写体)が各フレーム画像中で移動すると、移動に従って照合スコアが変化する。これは、登録画像とフレーム画像から得られた顔画像の類似度の変化を示している。この変化は、人物(被写体)の移動方向、移動速度、照明等の影響及び照合アルゴリズムによるものである。
Next, in S7, the optimum
The optimum
ここで、図8、図9を使用して照合スコアの変化について説明する。
図8(a)は、登録画像50の例を示している。図8(b)は、照合部16が同一の人物の追尾を行った場合の登録画像50と同一の人物の移動の軌跡55の例を示している。なお、軌跡55は、各フレーム画像で照合された同一の人物の顔位置により算出する。図8(b)では、顔位置51、52、53が顔画像の照合処理に使用した顔位置を示している。
Here, the change in the collation score will be described with reference to FIGS. 8 and 9.
FIG. 8A shows an example of the registered
図9は、図8(b)に示した軌跡55に対する照合スコアの変化の例を示している。
図9は、連続するフレーム画像毎の照合スコアを、フレーム画像のフレームIDに対応する照合スコアのグラフとして示している。同一の人物であっても、照合スコアは、フレーム画像毎に得られる顔位置により変化する。また、上述の照合スコアと顔位置の蓄積は、所定の閾値を示す境界値61より上の照合スコアに対応するものを対象とする。境界値61は、最適化レベルで決定する。例えば、図7の最適化レベルB以上としてもよい。
FIG. 9 shows an example of a change in the collation score with respect to the
FIG. 9 shows the collation score for each consecutive frame image as a graph of the collation score corresponding to the frame ID of the frame image. Even for the same person, the collation score changes depending on the face position obtained for each frame image. Further, the above-mentioned accumulation of the collation score and the face position is targeted for those corresponding to the collation score above the boundary value 61 indicating a predetermined threshold value. The boundary value 61 is determined by the optimization level. For example, the optimization level B or higher in FIG. 7 may be set.
次に、最適領域の算出について説明する。
最適領域算出部18は、上述のように蓄積された照合スコアと顔位置に基づいて最適領域を算出する。具体的には、最適領域は、照合スコアが境界値(所定の閾値)61を超えた顔位置の場所の回数(出現率)としてもよいし、照合スコアの平均値としてもよい。図10は、最適領域算出部18が算出した最適領域の例を示している。なお、図10では、網掛けが濃い部分が照合スコアが高い部分を示している。
Next, the calculation of the optimum region will be described.
The optimum
次に、S8において、最適領域算出部18は、S7で算出した最適領域を記憶部20に最適領域22として記憶する。なお、記憶部20に既に最適領域22が記憶されている場合には、記憶されている最適領域22を今回得られた最適領域22の値で上書きする。これにより、所定時間毎に最適領域が更新されることとなり、最適領域22は、時間的な環境変化に対応し、常に処理時点に近い最適領域を記憶しておくことができる。画像処理装置1は、上述のように、最適領域算出処理を定期的に繰り返すことにより、最適領域を更新する。なお、上述の説明では、所定時間毎に最適領域を更新する例を示したが、使用する時間帯等毎に最適領域を用意しておき、適宜切り替えるようにしてもよい。
Next, in S8, the optimum
図11は、最適領域を使用した顔画像の照合処理を示すフローチャートである。なお、以下、図4の処理と内容と同じ処理については同一の符号で示し、説明を省略する。
まず、S10において、照合部16は、記憶部20より最適領域22を取得する。
次に、S11において、通信部11が撮像装置2からのフレーム画像を取得すると、照合部16は、取得した最適領域とフレーム画像から、顔画像の照合処理の対象となるフレーム画像中の領域(最適領域)を特定する。図12は、顔画像の照合処理の対象となる最適領域を示している。続くS12において、検出部14は、S11で得られたフレーム画像に対して最適領域の範囲のみ人物検出処理を実行する。これにより、照合スコアが低い領域に対する人物検出処理の実行回数を削減することが可能となる。S12で人物を検出したならば、S3に進む。なお、S3からS5までの処理は図4と同等であるため省略する。S5の後に、S16に進む。
FIG. 11 is a flowchart showing a face image collation process using the optimum area. Hereinafter, the processing having the same content as that of FIG. 4 will be indicated by the same reference numerals, and the description thereof will be omitted.
First, in S10, the
Next, in S11, when the
次に、S16において、照合部16は、S5で求められた照合スコアに基づいて人物の判定を行う。具体的には、照合部16は、登録画像と顔画像の類似度を示す照合スコアに基づいて登録画像に対応する人物と同一であるか否かを判定する。ここで、同一であるか否かの判定結果に応じて、照合スコアと顔位置の情報を記憶部20にメタデータ24として記憶し、最適領域算出部18が、最適領域の算出を行って、最適領域を更新するようにしてもよい。すなわち、図11の照合処理と図4の最適領域算出処理を認証処理の一連の流れの中で実行するようにしてもよい。また、最適領域内のフレーム画像に対してS12(顔検出)からS16(判定)までの処理を実行するようにしてもよい。これにより、処理負荷をさらに低減させることができる。
Next, in S16, the
続くS17において、画像処理装置1は、操作部19を介してユーザから終了指示が入力されたか否かを判定する。終了指示が入力されていない場合は、現在のフレーム画像に対する処理を終了し、S10に戻って、撮像装置2から次のフレーム画像が供給されるのを待機する。撮像装置2から次のフレーム画像が供給されると、画像処理装置1は、S10以降の処理を繰り返す。一方、S17において、終了指示が入力されている場合には、画像処理装置1は、図11の顔画像の照合処理を終了する。
In the following S17, the
以上説明したように、本実施形態の画像処理装置では、照合スコアに基づいて求めた最適領域に応じて、登録画像と照合を行うフレーム画像中の領域を選択することにより、照合回数を制限する。すなわち、本実施形態では、まず、照合スコアに基づいて、フレーム画像で規定される領域(第1の領域)に含まれる領域(最適領域)を決定する。そして、第1の領域よりもサイズ(面積)が小さい最適領域を、照合を行う対象領域(第2の領域)とすることにより、フレーム画像全体を対象とする場合と比べて照合回数を制限することができる。これにより、本実施形態では、画像中のオブジェクトの照合処理の精度を維持しつつ処理負荷を低減させることができる。また、本実施形態では、照合スコアや照合させる最適領域の設定を自動化できるため、画像処理システムの設置負荷を軽減させることができる。 As described above, in the image processing apparatus of the present embodiment, the number of collations is limited by selecting an area in the frame image to be collated with the registered image according to the optimum area obtained based on the collation score. .. That is, in the present embodiment, first, a region (optimal region) included in the region (first region) defined by the frame image is determined based on the collation score. Then, by setting the optimum region whose size (area) is smaller than that of the first region as the target region (second region) for collation, the number of collations is limited as compared with the case where the entire frame image is targeted. be able to. Thereby, in the present embodiment, it is possible to reduce the processing load while maintaining the accuracy of the collation processing of the objects in the image. Further, in the present embodiment, since the setting of the collation score and the optimum area to be collated can be automated, the installation load of the image processing system can be reduced.
(実施形態2)
実施形態2では、店舗やテーマパーク等の施設に入場した人物の各々について、当該施設に滞留する時間である滞留時間を求める例について説明する。滞留時間の測定は、例えば入口用と出口用のカメラで撮像した2種類の画像から個々の人物の照合を取り、照合が取れた時刻の差分から滞留時間を求めることによって行う。なお、照合が取れた際に用いたフレーム画像の取得時刻の差分から滞在時間を求めるようにしてもよい。
(Embodiment 2)
In the second embodiment, an example of obtaining the residence time, which is the time to stay in the facility, will be described for each person who has entered the facility such as a store or a theme park. The residence time is measured, for example, by collating an individual person from two types of images captured by an entrance camera and an exit camera, and obtaining the residence time from the difference between the times when the collation was obtained. It should be noted that the staying time may be obtained from the difference in the acquisition time of the frame image used when the collation is obtained.
図13は、滞留時間を計測する画像処理システムにおける撮像装置の設置の例を示す図である。
入口用カメラ81は、入口ゲート82を通過する人物を撮像する。入場方向83は、入口を通過する方向を示す。同様に出口用カメラ86は、出口ゲート87を通過する人物を撮像する。退場方向88は、出口を通過する方向を示す。
FIG. 13 is a diagram showing an example of installation of an image pickup apparatus in an image processing system for measuring residence time.
The
図14は、本実施形態の画像処理システムの構成例を示すブロック図である。この画像処理システムは、上述の図1に示す画像処理システムの構成に加え、さらに1つの撮像装置5を備えている。ここでは、撮像装置2を入口用カメラ81とし、撮像装置5を出口用カメラ86とした例について説明する。また、本実施形態では、画像処理装置1は、上述の図2の構成に加えて、滞留時間を計測する計測部を備えている。
FIG. 14 is a block diagram showing a configuration example of the image processing system of the present embodiment. This image processing system includes one
図15(a)は、入口用カメラ81からのフレーム画像の例を示す図であり、図15(b)は、出口用カメラ86からのフレーム画像の例を示す図である。
画像処理装置1の特徴量抽出部15は、入口用カメラ81からのフレーム画像から検出された顔画像の特徴量と顔位置情報及びカメラ識別子(装置ID)を関連付けて、記憶部20にメタデータ24、登録画像特徴量21として保存する。一方、照合部16は、出口用カメラ86からのフレーム画像から検出された顔画像の特徴量と、入口用カメラ81からのフレーム画像から検出された顔画像に応じて登録された登録画像特徴量21との照合を実行し、照合スコアを算出する。照合部16は、算出した照合スコアと顔位置をメタデータ24として記憶する。図16は、複数のフレーム画像に応じて蓄積されたメタデータ24の情報の例を示している。なお、別途、照合部16は、入口用と出口用とで、顔画像の照合が取れた時刻を記憶部20に記憶しておく。なお、計測部は、記憶部20に記憶されている入口用と出口用で顔画像の照合が取れた時刻の差分から滞留時間を求める。
FIG. 15A is a diagram showing an example of a frame image from the
The feature
最適領域算出部18は、蓄積されたメタデータ24の照合スコアと顔位置に基づいて最適領域を算出する。図17は、算出された最適領域の例を示している。図17(a)は、入口用カメラ81からのフレーム画像に対する最適領域であり、図17(b)は、出口用カメラ86からのフレーム画像に対する最適領域である。滞留時間を計測するための顔画像の照合処理では、入口用カメラ81からのフレーム画像に対する最適領域から人物の顔画像を抽出し、出口用カメラ86からのフレーム画像に対する最適領域から抽出した顔画像を用いて照合処理を実行する。
The optimum
以上説明したように、本実施形態の画像処理装置では、滞留時間を計測するための複数の撮像装置を用いた場合において、画像中のオブジェクトの照合処理の精度を維持しつつ処理負荷を低減させることができる。 As described above, in the image processing apparatus of the present embodiment, when a plurality of imaging devices for measuring the residence time are used, the processing load is reduced while maintaining the accuracy of the collation processing of the objects in the image. be able to.
(実施形態3)
実施形態3は、実施形態2よりも処理負荷を軽減できる画像処理装置を説明する。実施形態3では、最適領域内で検出された顔に対して、照合の優先順位を使用した判定結果を用いることで、さらなる処理負荷の軽減を実現する。
図18は、本実施形態における処理を示す概念図である。図18には、検出部14が同一の人物の追尾を行った場合の同一の人物の軌跡95、異なるフレームのフレーム画像において最適領域で検出された顔画像91、顔画像92、顔画像93の例が示されている。
(Embodiment 3)
The third embodiment describes an image processing apparatus capable of reducing the processing load as compared with the second embodiment. In the third embodiment, the processing load is further reduced by using the determination result using the collation priority for the face detected in the optimum region.
FIG. 18 is a conceptual diagram showing the processing in the present embodiment. FIG. 18 shows the
ここで、照合部16は、最適領域で検出された顔画像91、顔画像92、顔画像93を、さらに照合スコアが高い領域順で並び替える。例えば、並び順が顔画像92、顔画像93、顔画像91となったとする。
Here, the
上述のように、顔画像の照合処理では、顔検出によって得られた顔画像に対して、図11に示すような特徴量の抽出(S4)、顔画像の照合処理(S5)、判定(S16)が実行される。本実施形態では、この処理を照合スコアが高い領域順の顔画像に対して実行する。上述の例では、まず顔画像92に対し、S4、S5、S16の処理を実行する。判定(S16)により照合スコアが所定の閾値を超えた場合に、照合部16は、同一の人物であると判定する。同一の人物であると判定された場合は、以降の当該人物の照合処理は実行しない。すなわち、同一の人物の画像である顔画像93、顔画像91に対してはS4、S5、S16の処理を実行しない。これにより、本実施形態では、さらに処理負荷を低減させることができる。すなわち、本実施形態では、最適領域内の領域について照合スコアが高い順に優先的に照合処理を行うことにより、さらに照合処理の処理負荷を低減させることができる。
As described above, in the face image matching process, the feature amount extraction (S4), the face image matching process (S5), and the determination (S16) as shown in FIG. 11 are performed on the face image obtained by the face detection. ) Is executed. In the present embodiment, this process is executed for the face images in the order of regions with the highest collation scores. In the above example, first, the processes S4, S5, and S16 are executed on the
あるいは、本実施形態では、所定数の顔画像を照合し、最高の照合スコアで判定してもよい。例えば、所定数を2と設定した場合は、並び順に基づいて顔画像92、顔画像93に対して処理を実行する。例えば顔画像92の照合スコアが71、顔画像93の照合スコアが65であった場合、照合スコア71を判定結果として用いる。
Alternatively, in the present embodiment, a predetermined number of face images may be collated and determined with the highest collation score. For example, when the predetermined number is set to 2, the processing is executed for the
(実施形態4)
実施形態1〜3において、最適領域の修正を行ってもよい。最適領域の修正を行う場合を、実施形態4として以下に説明する。
例えば、撮像装置2から供給されるフレーム画像の画角がユーザによって変更された場合に、最適領域の情報をリセットする。最適領域の情報がリセットされた場合は、検出部14は、最適領域に範囲を絞った顔検出は行わず、フレーム画像の全領域、あるいは予め指定した領域に対して顔検出を行う。これにより、撮像装置2の画角が変更された場合にも照合処理の精度を維持することができる。なお、リセット後に照合部16によって得られる照合スコアとメタデータ生成部17による顔位置のメタデータ24が蓄積された場合に、再度最適領域を設定し照合処理を実行させてもよい。あるいは、以前の最適領域を記憶しておき、フレーム画像の画角が以前と同じ画角に戻ったときに、以前の最適領域に戻すようにしてもよい。
(Embodiment 4)
In the first to third embodiments, the optimum region may be modified. The case where the optimum region is modified will be described below as the fourth embodiment.
For example, when the angle of view of the frame image supplied from the
その他の最適領域の修正として、例えば最適領域の照合スコアの蓄積情報によって得られる照合スコアの平均がある一定値より下がった場合に、最適領域を修正する処理を実行する。具体的には、照合スコアの平均がある一定値より下がった場合に、例えば最適領域の範囲を広げることにより、照合スコアと顔位置のメタデータを蓄積する範囲を広げて最適領域を修正する。これにより、照合処理の精度を維持することができる。 As another correction of the optimum area, for example, when the average of the collation scores obtained by the accumulated information of the collation scores of the optimum area falls below a certain value, a process of correcting the optimum area is executed. Specifically, when the average of the collation score falls below a certain value, for example, by expanding the range of the optimum area, the range of accumulating the metadata of the collation score and the face position is expanded to correct the optimum area. As a result, the accuracy of the collation process can be maintained.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、検出する対象(オブジェクト)は人物であるとしたが、人物以外のオブジェクトを検出対象としてもよい。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and modifications can be made within the scope of the gist thereof. For example, although the object to be detected is a person, an object other than the person may be a detection target.
(その他の実施形態)
以上、各実施形態を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。
(Other embodiments)
Although each embodiment has been described in detail above, the present invention can take an embodiment as a system, an apparatus, a method, a program, a recording medium (storage medium), or the like. Specifically, it may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or it may be applied to a device composed of one device. Good.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。ASICはApplication Specific Integrated Circuitの略である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions. ASIC is an abbreviation for Application Specific Integrated Circuit.
1…画像処理装置、2…撮像装置、3…ネットワーク、4…ディスプレイ、11…通信部、12…設定部、13…表示部、14…検出部、15…特徴量抽出部、16…照合部、17…メタデータ生成部、18…最適領域算出部、19…操作部、20…記憶部 1 ... image processing device, 2 ... imaging device, 3 ... network, 4 ... display, 11 ... communication unit, 12 ... setting unit, 13 ... display unit, 14 ... detection unit, 15 ... feature amount extraction unit, 16 ... collation unit , 17 ... Metadata generation unit, 18 ... Optimal area calculation unit, 19 ... Operation unit, 20 ... Storage unit
Claims (14)
前記検出されたオブジェクトと所定の登録オブジェクトとの類似度を算出する算出手段と、
前記算出手段により算出された前記類似度に基づいて、前記検出されたオブジェクトが、前記所定の登録オブジェクトであるか否かを判定する判定手段と、
前記撮像画像中の第1の領域において前記検出手段により検出されたオブジェクトに対して前記算出手段により算出した前記類似度に応じて、前記第1の領域に含まれる第2の領域を決定する決定手段と、
前記第2の領域において前記検出手段により検出されたオブジェクトに対して、前記所定の登録オブジェクトであるか否かの判定を行うように、前記判定手段を制御する制御手段と、
を備えることを特徴とする画像処理装置。 A detection means that detects objects contained in the captured image,
A calculation means for calculating the similarity between the detected object and a predetermined registered object, and
A determination means for determining whether or not the detected object is the predetermined registered object based on the similarity calculated by the calculation means.
A determination to determine a second region included in the first region according to the similarity calculated by the calculation means with respect to an object detected by the detection means in the first region in the captured image. Means and
A control means that controls the determination means so as to determine whether or not the object detected by the detection means in the second region is the predetermined registered object.
An image processing device characterized by comprising.
前記検出手段により検出された前記オブジェクトの特徴量を求め、前記所定の登録オブジェクトの特徴量と比較することにより、前記類似度を算出する、
ことを特徴とする請求項1記載の画像処理装置。 The calculation means is
The similarity is calculated by obtaining the feature amount of the object detected by the detection means and comparing it with the feature amount of the predetermined registered object.
The image processing apparatus according to claim 1.
前記算出手段が算出した前記類似度が所定の閾値より高い場合に、前記検出手段により検出された前記オブジェクトが、前記登録オブジェクトであると判定する、
ことを特徴とする請求項1または請求項2に記載の画像処理装置。 The determination means
When the similarity calculated by the calculation means is higher than a predetermined threshold value, it is determined that the object detected by the detection means is the registered object.
The image processing apparatus according to claim 1 or 2.
前記検出手段が検出した前記オブジェクトの位置と、前記算出手段が算出した前記類似度を対応付けて蓄積し、前記蓄積した前記オブジェクトの位置と前記類似度に応じて前記第2の領域を決定する、
ことを特徴とする請求項1から請求項3のいずれか1項記載の画像処理装置。 The determination means is
The position of the object detected by the detection means and the similarity calculated by the calculation means are accumulated in association with each other, and the second region is determined according to the position of the accumulated object and the similarity. ,
The image processing apparatus according to any one of claims 1 to 3, wherein the image processing apparatus is characterized by the above.
第1の撮像範囲についての前記撮像画像中に含まれる前記オブジェクトを検出し、
第2の撮像範囲についての前記撮像画像中に含まれる前記オブジェクトを検出し、
前記算出手段は、
前記第1の撮像範囲についての前記検出された前記オブジェクトと前記登録オブジェクトとの前記類似度を算出し、
前記第2の撮像範囲についての前記検出された前記オブジェクトと前記第1の撮像範囲についての前記検出されたオブジェクトとの第2の類似度を算出し、
前記判定手段は、
前記類似度に応じて、前記第1の撮像範囲についての前記第2の領域を決定し、
前記第2の類似度に応じて、前記第2の撮像範囲についての前記第2の領域を決定する、
ことを特徴とする請求項1から請求項4のいずれか1項に記載の画像処理装置。 The detection means
Detecting the object included in the captured image for the first imaging range,
The object contained in the captured image for the second imaging range is detected, and the object is detected.
The calculation means is
The similarity between the detected object and the registered object for the first imaging range is calculated.
The second similarity between the detected object for the second imaging range and the detected object for the first imaging range was calculated.
The determination means
Depending on the similarity, the second region for the first imaging range is determined.
The second region for the second imaging range is determined according to the second similarity.
The image processing apparatus according to any one of claims 1 to 4, wherein the image processing apparatus is characterized by the above.
前記検出手段は、
前記撮像画像の複数のフレーム夫々について前記撮像画像中に含まれる前記オブジェクトを検出し、
前記算出手段は、
前記複数のフレームで検出された同一の前記オブジェクトの位置と当該フレームにおける前記類似度を対応付けて記憶し、
前記制御手段は、
前記オブジェクトの位置と対応付けて記憶した前記類似度に応じて、前記所定の登録オブジェクトであるか否かの判定を行うように、前記判定手段を制御する、
ことを特徴とする請求項1から請求項5のいずれか1項に記載の画像処理装置。 The captured image has a plurality of frames and has a plurality of frames.
The detection means
The object contained in the captured image is detected for each of the plurality of frames of the captured image, and the object is detected.
The calculation means is
The position of the same object detected in the plurality of frames and the similarity in the frame are stored in association with each other.
The control means
The determination means is controlled so as to determine whether or not the object is a predetermined registered object according to the similarity stored in association with the position of the object.
The image processing apparatus according to any one of claims 1 to 5, wherein the image processing apparatus is characterized in that.
前記オブジェクトの位置と対応付けて記憶した前記類似度が所定の閾値を超えた前記オブジェクトについては、以降の前記所定の登録オブジェクトであるか否かの判定を行わないように、前記判定手段を制御する、
ことを特徴とする請求項6記載の画像処理装置。 The control means
The determination means is controlled so that the object whose similarity stored in association with the position of the object exceeds a predetermined threshold value is not subsequently determined whether or not it is the predetermined registered object. To do
6. The image processing apparatus according to claim 6.
前記オブジェクトの位置と対応付けて記憶した前記類似度が高い順に前記所定の登録オブジェクトであるか否かの判定を行うように、前記判定手段を制御する、
ことを特徴とする請求項6記載の画像処理装置。 The control means
The determination means is controlled so as to determine whether or not the object is a predetermined registered object in descending order of similarity stored in association with the position of the object.
6. The image processing apparatus according to claim 6.
前記撮像画像の画角が変更されたときに、前記第2の領域をリセットする、
ことを特徴とする請求項1から請求項8のいずれか1項に記載の画像処理装置。 The determination means is
When the angle of view of the captured image is changed, the second region is reset.
The image processing apparatus according to any one of claims 1 to 8, wherein the image processing apparatus is characterized in that.
前記撮像画像の画角が前記リセットの前と同じ画角に戻ったときに、前記リセットの前の前記第2の領域に戻す、
ことを特徴とする請求項9記載の画像処理装置。 The determination means is
When the angle of view of the captured image returns to the same angle of view as before the reset, it returns to the second region before the reset.
9. The image processing apparatus according to claim 9.
前記類似度の平均が所定の閾値を下回ったときに、前記第2の領域を拡大する、
ことを特徴とする請求項1から請求項10のいずれか1項に記載の画像処理装置。 The determination means is
When the average of the similarity falls below a predetermined threshold, the second region is expanded.
The image processing apparatus according to any one of claims 1 to 10.
前記撮像手段の撮像画像中に含まれるオブジェクトを検出する検出手段と、
前記検出されたオブジェクトと所定の登録オブジェクトとの類似度を算出する算出手段と、
前記算出手段により算出された前記類似度に基づいて、前記検出されたオブジェクトが、前記所定の登録オブジェクトであるか否かを判定する判定手段と、
前記撮像画像中の第1の領域において前記検出手段により検出されたオブジェクトに対して前記算出手段により算出した前記類似度に応じて、前記第1の領域に含まれる第2の領域を決定する決定手段と、
前記第2の領域において前記検出手段により検出されたオブジェクトに対して、前記所定の登録オブジェクトであるか否かの判定を行うように、前記判定手段を制御する制御手段と、
を備えることを特徴とする撮像装置。 An imaging means that captures the subject and outputs the captured image,
A detection means for detecting an object included in an image captured by the image pickup means,
A calculation means for calculating the similarity between the detected object and a predetermined registered object, and
A determination means for determining whether or not the detected object is the predetermined registered object based on the similarity calculated by the calculation means.
A determination to determine a second region included in the first region according to the similarity calculated by the calculation means with respect to an object detected by the detection means in the first region in the captured image. Means and
A control means that controls the determination means so as to determine whether or not the object detected by the detection means in the second region is the predetermined registered object.
An imaging device characterized by comprising.
前記検出されたオブジェクトと所定の登録オブジェクトとの類似度を算出するステップと、
前記算出された類似度に基づいて、前記検出されたオブジェクトが、前記所定の登録オブジェクトであるか否かを判定するステップと、
前記撮像画像中の第1の領域において前記検出されたオブジェクトに対して前記算出された類似度に応じて、前記第1の領域に含まれる第2の領域を決定するステップと、
前記第2の領域において前記検出されたオブジェクトに対して、前記所定の登録オブジェクトであるか否かの判定を行うように制御するステップと、
を有することを特徴とする画像処理方法。 Steps to detect objects contained in the captured image,
The step of calculating the similarity between the detected object and the predetermined registered object, and
A step of determining whether or not the detected object is the predetermined registered object based on the calculated similarity.
A step of determining a second region included in the first region according to the calculated similarity to the detected object in the first region in the captured image.
A step of controlling the detected object in the second region so as to determine whether or not the detected object is the predetermined registered object.
An image processing method characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019094785A JP2020190850A (en) | 2019-05-20 | 2019-05-20 | Image processing device, imaging device, imaging processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019094785A JP2020190850A (en) | 2019-05-20 | 2019-05-20 | Image processing device, imaging device, imaging processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020190850A true JP2020190850A (en) | 2020-11-26 |
Family
ID=73455135
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019094785A Pending JP2020190850A (en) | 2019-05-20 | 2019-05-20 | Image processing device, imaging device, imaging processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020190850A (en) |
-
2019
- 2019-05-20 JP JP2019094785A patent/JP2020190850A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11450146B2 (en) | Gesture recognition method, apparatus, and device | |
CN109034013B (en) | Face image recognition method, device and storage medium | |
US11270108B2 (en) | Object tracking method and apparatus | |
US7995843B2 (en) | Monitoring device which monitors moving objects | |
JP4830650B2 (en) | Tracking device | |
JP6276519B2 (en) | Person counting device and human flow line analyzing device | |
JP5925068B2 (en) | Video processing apparatus, video processing method, and program | |
JP5923723B2 (en) | Person attribute estimation system, person attribute estimation apparatus, and person attribute estimation method | |
JP4884331B2 (en) | Moving object tracking device | |
EP2309454B1 (en) | Apparatus and method for detecting motion | |
WO2018078857A1 (en) | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium | |
JP7354767B2 (en) | Object tracking device and object tracking method | |
JP7446060B2 (en) | Information processing device, program and information processing method | |
JP2009265732A (en) | Image processor and method thereof | |
CN110472614B (en) | Identification method for motion sickness | |
JP2013215549A (en) | Image processing device, image processing program, and image processing method | |
JPWO2017064838A1 (en) | Face detection device, face detection system including the same, and face detection method | |
JP6283008B2 (en) | Tracking device | |
JP2007300185A (en) | Image monitoring apparatus | |
JP6336935B2 (en) | Moving object tracking device | |
JP6729510B2 (en) | Monitoring support system and control method thereof | |
JP6798609B2 (en) | Video analysis device, video analysis method and program | |
JP2020190850A (en) | Image processing device, imaging device, imaging processing method and program | |
JP7374632B2 (en) | Information processing device, information processing method and program | |
JP6451418B2 (en) | Gaze target determination device, gaze target determination method, and gaze target determination program |