JP2009245314A - Identification system of time-series data, and apparatus of giving personal meta information to moving image - Google Patents
Identification system of time-series data, and apparatus of giving personal meta information to moving image Download PDFInfo
- Publication number
- JP2009245314A JP2009245314A JP2008093028A JP2008093028A JP2009245314A JP 2009245314 A JP2009245314 A JP 2009245314A JP 2008093028 A JP2008093028 A JP 2008093028A JP 2008093028 A JP2008093028 A JP 2008093028A JP 2009245314 A JP2009245314 A JP 2009245314A
- Authority
- JP
- Japan
- Prior art keywords
- time
- series data
- face
- person
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
本発明は、時系列データの識別装置および動画像への人物メタ情報付与装置に関し、特に、入力された時系列データが登録された人物やその他のオブジェクトのいずれに属するかを識別する時系列データの識別装置およびそれを利用した動画像への人物メタ情報付与装置に関する。 The present invention relates to an apparatus for identifying time-series data and an apparatus for assigning person meta information to a moving image, and in particular, time-series data for identifying whether input time-series data belongs to a registered person or other object. The present invention relates to a discriminating apparatus and an apparatus for assigning person meta information to a moving image using the same.
動画像内に登場する人物などのオブジェクト検索を実現するため、オブジェクトに関するメタ情報をフレーム単位で動画像に付与することが要求される。このためには、画像や音声などの時系列データが、どの人物あるいはその他のどのオブジェクトに属するものであるかを識別する必要がある。 In order to search for an object such as a person appearing in a moving image, it is required to add meta information about the object to the moving image in units of frames. For this purpose, it is necessary to identify to which person or other object the time-series data such as images and sounds belong.
非特許文献1には、逐次確率比検定(SPRT:Sequential Probability Ratio Test)により、入力された時系列データが登録されたオブジェクトのいずれに属するかを識別する方法が提案されている。
Non-Patent
また、非特許文献2には、特に、SPRTを音声時系列信号に適用し、入力された音声時系列信号が登録された話者の中の誰に属するかを識別する方法が記載されている。 Non-Patent Document 2 particularly describes a method of applying SPRT to a speech time-series signal and identifying to whom the input speech time-series signal belongs among registered speakers. .
SPRTは、時間軸に沿って仮説検定を逐次的に実行していき、結論が得られた時点で検定を停止する逐次的決定過程(sequential decision process)であり、仮説検定理論における逐次確率比検定の考え方と決定理論の発想を導入したものである。 SPRT is a sequential decision process that executes hypothesis tests sequentially along the time axis and stops the test when a conclusion is reached. Sequential probability ratio test in hypothesis test theory And the idea of decision theory are introduced.
SPRTは、結論を出すべき時点を予め設定することなく、入力される時系列データの動向を逐次確認しつつ識別でき、少ない費用および労力で効率的に妥当な結論を得ることができるという特徴を有する。 SPRT is characterized by being able to identify the trend of input time-series data by sequentially confirming the trend without setting the time point at which a conclusion should be drawn, and efficiently obtaining a reasonable conclusion with less cost and effort. Have.
図5は、従来のSPRTの動作説明図である。オブジェクト1,2を規定する仮説H1、H2の対数尤度比(LLR:Logarithm of Likelihood Ratio)をそれぞれ、LLR(H1)、LLR(H2)とすると、まず、時刻t0でLLR(H1)、LLR(H2)をゼロにリセットし、時系列データが入力される時間軸に沿って仮説検定を逐次的に実行して行く。LLR(H1)、LLR(H2)が共に上限閾値Aを上回っていなければ、いずれの仮説も採択しない。
FIG. 5 is a diagram for explaining the operation of a conventional SPRT. Assuming that the logarithmic likelihood ratio (LLR) of the hypotheses H 1 and H 2 that define
時刻tN1で、LLR(H2)は上限閾値Aを上回っていないが、LLR(H1)が上限閾値Aを上回ったとすると、時刻tN1で仮説H1を採択する。これにより、時系列データはオブジェクト1に属すると識別される。その後、LLR(H1)、LLR(H2)をゼロにリセットして再び逐次的決定過程を繰り返す。
At time t N1, but LLR (H 2) is not greater than the upper threshold A, when the LLR (H 1) exceeds the upper threshold A, to adopt the hypothesis H 1 at time t N1. As a result, the time-series data is identified as belonging to the
次に、時刻tN2で、LLR(H1)は上限閾値Aを上回っていないが、LLR(H2)が上限閾値Aを上回ったとすると、時刻tN2で仮説H2を採択する。今度は、時系列データはオブジェクト2に属すると識別される。その後、LLR(H1)、LLR(H2)をゼロにリセットして逐次的決定過程を繰り返す。 Then, at time t N2, but LLR (H 1) is not greater than the upper threshold A, when the LLR (H 2) exceeds the upper threshold A, to adopt a hypothesis H 2 at time t N2. This time, the time series data is identified as belonging to object 2. Thereafter, LLR (H 1 ) and LLR (H 2 ) are reset to zero and the sequential determination process is repeated.
逆に、LLR(H1)またはLLR(H2)が下限閾値Bを下回った場合、仮説H1またはH2を棄却する。棄却した仮説のLLRは、他の仮説が採用される時刻までリセット状態のままとする。
しかしながら、非特許文献1,2に代表される従来のSPRTでは、複数の時系列データが同時に入力される場合について特段の配慮が払われていない。従来のSPRTを単に複数の時系列データが同時に入力される場合に適用すると、各時系列データの識別結果に不整合が生じるという課題がある。
However, in the conventional SPRT represented by
例えば、画像内に同時に存在する複数の顔画像の時系列データが同時に入力され、これらの時系列データに基づいて人物を識別する場合、従来のSPRTを単に適用すると、複数の時系列データを同一人物のものと誤って識別することがある。これは、時系列データに変動が付加されている場合に生じ、特に顔画像では姿勢、照明、表情など様々な変動が付加され易いことに起因している。 For example, when time-series data of a plurality of face images that exist simultaneously in an image are input at the same time and a person is identified based on these time-series data, if a conventional SPRT is simply applied, a plurality of time-series data are the same May be mistaken for a person. This occurs when fluctuations are added to the time-series data, and this is caused by the fact that various fluctuations such as posture, illumination, facial expression, etc. are easily added to the face image.
以下、従来のSPRTを単に複数の時系列データに適用した場合の問題を具体例をあげて説明する。図6は、TV番組映像の、あるシーンの時刻tにおける1フレームの画像の例を示している。この画像内には2つ顔画像が含まれており、一方の顔画像(a)は正面向きでシーン内では動きが殆どなく安定しており、他方の顔画像(b)はシーン内で比較的動きが激しく不安定であるとする。また、ここでは、TV番組に付随している出演者リストに上がっている3名の人物1,2,3の顔画像が予め登録されており、TV映像からフレーム単位で検出された顔画像(a),(b)が、登録されている3名の人物1,2,3のいずれのものであるかを識別する場合を想定する。
Hereinafter, the problem when the conventional SPRT is simply applied to a plurality of time-series data will be described with specific examples. FIG. 6 shows an example of an image of one frame of a TV program video at a time t of a certain scene. This image contains two face images, one face image (a) is front-facing and stable with little movement in the scene, and the other face image (b) is compared in the scene. Suppose that the target movement is intense and unstable. In addition, here, face images of three
図7は、従来のSPRTでの問題点についての説明図である。ここでは、3名(m=3)の登録人物が予定されているので、人物1,2,3をそれぞれ規定する仮説H1,H2,H3を用意し、入力される顔画像(a),(b)それぞれについて仮説H1,H2,H3のLLRをそれぞれ算出する。図7(A),(B)はそれぞれ、顔画像(a),(b)について算出された仮説H1,H2,H3のLLRの推移を示し、実線はLLR(H1)、破線はLLR(H2)、一点鎖線はLLR(H3)である。 FIG. 7 is an explanatory diagram of problems in the conventional SPRT. Here, since three registered persons (m = 3) are scheduled, hypotheses H 1 , H 2 , and H 3 that respectively define the persons 1 , 2 , and 3 are prepared, and face images (a ) and (b), LLRs of hypotheses H 1 , H 2 , and H 3 are calculated. FIGS. 7A and 7B show transitions of LLRs of hypotheses H 1 , H 2 , and H 3 calculated for the face images (a) and (b), respectively, and the solid line indicates LLR (H 1 ) and the broken line. Is LLR (H 2 ), and the alternate long and short dash line is LLR (H 3 ).
図7の時間軸に沿いLLRに基づいてSPRTを行うと、下記(1)〜(6)の順番に仮説の採択と棄却が決定付けられる。 When SPRT is performed based on the LLR along the time axis of FIG. 7, the adoption and rejection of hypotheses are decided in the following order (1) to (6).
(1)時刻t=t1で、顔画像(a)についてのLLR(H3)が下限閾値Bを下回った(LLR(H3)<B)ので、仮説H3を棄却する。時刻t=t1以降、顔画像(a)については仮説H1,H2の検定のみが引き続き行われる。 (1) At time t = t 1 , LLR (H 3 ) for the face image (a) falls below the lower threshold B (LLR (H 3 ) <B), so the hypothesis H 3 is rejected. Time t = t 1 and later, only the test of the hypothesis H 1, H 2 is the face image (a) is subsequently performed.
(2)時刻t=t2で、顔画像(b)についてのLLR(H3)が下限閾値Bを下回った(LLR(H3)<B)ので、仮説H3が棄却される。時刻t=t2以降、顔画像(a)について仮説H1,H2の検定のみが引き続き行われる。 (2) at time t = t 2, since the LLR for the face image (b) (H 3) is below the lower threshold B (LLR (H 3) < B), the hypothesis H 3 is rejected. After time t = t 2 , only the hypothesis H 1 and H 2 are continuously tested for the face image (a).
(3)時刻t=t3で、顔画像(a)についてのLLR(H1)が上限閾値Aを上回った(LLR(H1)>A)ので、仮説H1が選択される。これにより顔画像(a)は人物1のものと識別される。
(3) Since LLR (H 1 ) for the face image (a) exceeds the upper threshold A (LLR (H 1 )> A) at time t = t 3 , hypothesis H 1 is selected. As a result, the face image (a) is identified as that of the
(4)上記(3)で顔画像(a)が人物1のものと識別されたので、顔画像(a)についての他の全ての仮説が棄却される。この場合、顔画像(a)についての仮説H2が棄却される。
(4) Since face image (a) is identified as that of
(5)時刻t=t4で、顔画像(b)についてのLLR(H1)が上限閾値Aを上回った(LLR(H1)>A)ので、仮説H1が採択される。これにより顔画像(b)がオブジェクト1のものと識別される。
(5) time t = t 4, since the LLR (H 1) exceeds the upper threshold A for the face image (b) (LLR (H 1 )> A), the hypothesis H 1 is adopted. As a result, the face image (b) is identified as that of the
(6)上記(5)で顔画像(b)が人物1のものと識別されたので、顔画像(b)についての他の全ての仮説が棄却される。この場合、顔画像(b)についての仮説H2が棄却される。
(6) Since face image (b) is identified as that of
上記の例の場合、顔画像(a)は時刻t=t3で人物1のものと識別され、顔画像(b)も時刻t=t4で人物1のものと識別される。すなわち、顔画像(a),(b)とも同一人物のものと識別される。この場合、顔画像(b)は動きが激しく不安定であり、この影響を受けてLLRが閾値を超えるまでに長時間を要し、その上、識別に誤りが生じているものと考えられる。顔画像は、特に、姿勢や表情などの変動要因が多様であり、変動要素による確率比(LLR)に揺らぎが生じ易いので、識別結果に不整合が生じる可能性が高い。しかし、顔画像に限らず、変動要因をもつ時系列データを対象としたSPRTでは、同様に、識別結果に不整合が生じる可能性がある。
In the example above, the face image (a) is identified as the
このように識別結果に不整合が生じるのは、従来のSPRTではオブジェクト間の排他性を考慮しておらず、複数の時系列データを同一オブジェクトと識別することを許しているためである。 The inconsistencies in the identification results are caused by the fact that the conventional SPRT does not consider the exclusion between objects and allows a plurality of time-series data to be identified as the same object.
本発明の目的は、上記課題を解決し、入力される時系列データが登録された人物あるいはその他のオブジェクトのいずれに属するかを高精度に識別できる時系列データの識別装置を提供することにある。 An object of the present invention is to solve the above-mentioned problems and to provide a time-series data identification device capable of accurately identifying whether input time-series data belongs to a registered person or other object. .
また、本発明の他の目的は、その時系列データの識別装置を利用して動画像に人物に関するメタ情報を付与する人物メタ情報付与装置を提供することにある。 Another object of the present invention is to provide a person meta information adding apparatus that adds meta information about a person to a moving image using the time-series data identification apparatus.
上記目的を達成するため、本発明に係る時系列データの識別装置は、入力される複数の時系列データの各々が登録されたオブジェクトのいずれに属するかを個別に識別する複数の識別手段と、前記複数の識別手段のうちの1つ識別手段において、ある時系列データが登録されたあるオブジェクトに属すると識別された場合、他の識別手段において該オブジェクトを識別候補から除外する除外手段を備える点に特徴がある。 In order to achieve the above object, an apparatus for identifying time-series data according to the present invention includes a plurality of identification means for individually identifying which of a registered object each of a plurality of input time-series data includes, In one of the plurality of identification means, when the identification means is identified as belonging to a registered object, the other identification means includes an exclusion means for excluding the object from the identification candidates. There is a feature.
また、本発明に係る時系列データの識別装置は、前記識別手段が、時系列データがあるオブジェクトに属することを規定する仮説をオブジェクト別に立て、それぞれの仮説の確率的な確からしさと不確からしさの比を示す尤度比を求め、その大小に基づいて時系列データが登録されたオブジェクトのいずれに属するかを識別する点に特徴がある。 In the time-series data identification device according to the present invention, the identification unit sets hypotheses that define that the time-series data belongs to an object for each object, and the probabilistic probability and uncertainty of each hypothesis. It is characterized in that a likelihood ratio indicating a ratio is obtained, and which of the registered objects the time-series data belongs to is determined based on the magnitude.
また、本発明に係る時系列データの識別装置は、前記識別手段が、各オブジェクトの特徴量を予め蓄積する登録データベースと、前記登録データベースに蓄積されている各オブジェクトの特徴量と各時系列データの特徴量とを逐次比較し、比較スコアを算出する比較スコア算出手段と、前記比較スコア算出手段により算出された比較スコアを用いて尤度比を求めるLLR測定手段と、前記LLR測定手段により求められた尤度比を閾値と比較する比較手段を備える点に特徴がある。 In the time-series data identification device according to the present invention, the identification unit stores a feature database of each object in advance, a feature database of each object stored in the registration database, and each time-series data. The comparison score calculation means for sequentially comparing the feature quantities of the two and calculating the comparison score, the LLR measurement means for calculating the likelihood ratio using the comparison score calculated by the comparison score calculation means, and the LLR measurement means There is a feature in that a comparison means for comparing the likelihood ratio obtained with a threshold value is provided.
また、本発明に係る時系列データの識別装置は、前記除外手段が、各仮説が採択・棄却・検定中のいずれであるかの状態を示す状態保持バッファを備え、前記比較スコア算出手段は、検定中の状態にある仮説についてのみ比較スコアを算出する点に特徴がある。 In the time-series data identification device according to the present invention, the exclusion means includes a state holding buffer indicating whether each hypothesis is being adopted, rejected, or being tested, and the comparison score calculating means includes: It is characterized in that a comparison score is calculated only for a hypothesis that is in the state of being tested.
また、本発明に係る時系列データの識別装置は、前記識別手段が、あるオブジェクトについての尤度比が上限域値を上回った場合、時系列データは該オブジェクトに属すると識別し、その仮説の状態を採択に変更する点に特徴がある。 In the time-series data identification device according to the present invention, the identification unit identifies that the time-series data belongs to the object when the likelihood ratio of the object exceeds the upper limit value, and the hypothesis It is characterized in that the status is changed to adopted.
また、本発明に係る時系列データの識別装置は、前記識別手段が、あるオブジェクトについての尤度比が下限閾値を下回った場合、時系列データは該オブジェクトに属さないと識別し、その仮説の状態を棄却に変更する点に特徴がある。 In the time-series data identification device according to the present invention, the identification unit identifies that the time-series data does not belong to the object when the likelihood ratio for a certain object falls below a lower threshold, and the hypothesis It is characterized in that the state is changed to rejection.
また、本発明に係る時系列データの識別装置は、前時刻の対数尤度比を保持するLLR保持バッファを備え、前記尤度比は対数尤度比であり、前記識別手段は、前記LLR保持バッファに保持された前時刻の尤度比を用いて現時刻の尤度比を再帰的に求める点に特徴がある。 In addition, the time-series data identification device according to the present invention includes an LLR holding buffer that holds a log likelihood ratio of the previous time, the likelihood ratio is a log likelihood ratio, and the identification means holds the LLR holding It is characterized in that the likelihood ratio at the current time is obtained recursively using the likelihood ratio at the previous time held in the buffer.
また、本発明に係る時系列データの識別装置は、前記識別手段が、予め学習によりモデル化されたガウス密度関数を用いて尤度比を求める点に特徴がある。 The time-series data identification device according to the present invention is characterized in that the identification means obtains a likelihood ratio using a Gaussian density function modeled in advance by learning.
本発明に係る動画像への人物メタ情報付与装置は、時系列データを顔画像の動画像とし、オブジェクトを人物とし、上記のいずれかの時系列データの識別装置と、動画像をフレーム単位で順次に読み込み、同一人物の顔画像とその連続表示期間を対応付けた顔インデックスを構築する顔インデックス構築手段と、人物メタ情報付与手段を備え、前記時系列データの識別装置は、顔画像を識別してその人物識別情報を送出し、前記人物メタ情報付与手段は、前記人物識別情報と前記顔インデックスを人物メタ情報として動画像の対応する各フレームに付与する点に特徴がある。 The apparatus for assigning person meta information to a moving image according to the present invention uses time-series data as a moving image of a face image, an object as a person, and any of the above-described time-series data identification devices and a moving image as a frame unit. The time-series data identification device includes a face index construction unit that sequentially reads and constructs a face index that associates a face image of the same person with a continuous display period thereof, and a person meta information addition unit. The person identification information is sent out, and the person meta information adding means adds the person identification information and the face index as person meta information to each corresponding frame of the moving image.
また、本発明に係る動画像への人物メタ情報付与装置は、前記時系列データの識別装置が、動画像に付随している番組情報から出演者リストを抽出し、該出演者リストに登場する人物を規定する仮説だけに絞って動画像を識別する点に特徴がある Further, in the apparatus for assigning human meta information to a moving image according to the present invention, the time-series data identification device extracts a performer list from program information attached to the moving image and appears in the performer list. Characterized by identifying moving images by focusing only on hypotheses that define people
本発明に係る時系列データの識別装置では、時系列データ間の排他性を考慮し、複数の識別手段のうちの1つ識別手段において、ある時系列データが登録されたあるオブジェクトであると識別されたとき、他の識別手段において該オブジェクトを識別候補から除外するので、複数の時系列データを同一オブジェクトと識別することがなくなり、各々の時系列データを高精度に識別できる。 In the time-series data identification device according to the present invention, in consideration of exclusivity between time-series data, one of the plurality of identification means is identified as an object in which certain time-series data is registered. In this case, since the object is excluded from the identification candidates by other identification means, a plurality of time-series data is not identified as the same object, and each time-series data can be identified with high accuracy.
また、本発明に係る動画像への人物メタ情報付与装置では、顔画像に排他性を考慮した時系列データの識別手法を適用し、同一の顔画像とその連続表示期間を対応付けた顔インデックスを構築し、フレーム単位で人物メタ情報を付与するので、目視で確認することなく、動画像に人物名などのメタ情報を高精度に付与でき、また、このメタ情報をクエリとして所望の人物の登場シーンを正確に検索できる。 In addition, the apparatus for assigning human meta information to a moving image according to the present invention applies a time-series data identification method that considers exclusivity to a face image, and sets a face index that associates the same face image with its continuous display period. Since it builds and assigns person meta information in units of frames, it is possible to add meta information such as person names to moving images with high accuracy without visual confirmation, and the appearance of a desired person using this meta information as a query The scene can be searched accurately.
以下、図面を参照して本発明を説明する。まず、本発明に係る時系列データの識別装置について説明する。時系列データの識別装置は、複数の時系列データを入力とし、それらの各々が予め登録されたオブジェクトのいずれに属するかを識別し、その識別結果を出力するものである。 The present invention will be described below with reference to the drawings. First, a time-series data identification device according to the present invention will be described. The time-series data identification device receives a plurality of time-series data as input, identifies which of the objects each of them belongs in advance, and outputs the identification result.
図1は、本発明に係る時系列データの識別装置の一実施形態を示すブロック図である。本実施形態の時系列データの識別装置10は、比較スコア算出部11、登録データベース(DB)12、状態保持バッファ13、LLR測定部14、LLR保持バッファ15および閾値識別部16を備える。
FIG. 1 is a block diagram showing an embodiment of a time-series data identification device according to the present invention. The time-series
比較スコア算出部11には複数の時系列データが同時に入力される。複数の時系列データは、比較スコア算出部11、LLR測定部14および閾値識別部16で並列的に処理される。したがって、これらの各部は、入力される時系列データ分用意される。なお、これらの各部はハードウエアでもソフトウエアでも実現できる。
A plurality of time-series data is simultaneously input to the comparison
比較スコア算出部11は、時系列データを任意の時間間隔で読み込み、時系列データと登録DB12に予め登録されている各オブジェクトとの類似度を示す比較スコアを算出する。例えば、時系列データが顔画像(動画像)である場合、顔画像のフレームを1枚ずつ読み込み、比較スコアを算出する。
The comparison
比較スコアの算出では、時系列データとオブジェクトの特徴量を利用することができる。この場合、登録DB12には各オブジェクトの識別情報、各オブジェクトの特徴量と正例および負例のそれぞれに関するスコア分布の密度関数を予め登録しておく。登録DB12に予め登録するデータは、オブジェクトが既知の時系列データを用いて予め学習することにより取得できる。
In calculating the comparison score, the time-series data and the feature amount of the object can be used. In this case, in the
比較スコア算出部11は、入力される時系列データの特徴量を登録DB12に登録されている各オブジェクトの特徴量と比較することにより比較スコアを算出する。比較スコアは、入力される時系列データがオブジェクトに類似しているほど高い値を示す。以下では、入力される時系列データが動画像(顔画像)であるとして説明する。
The comparison
状態保持バッファ13は、SPRTでの各仮説が採択・棄却・検定中のいずれであるかを示す状態を保持している。比較スコア算出部11は、状態保持バッファ13に保持されている状態を参照し、検定中の状態にある仮説に関してのみ比較スコアを算出する。各仮説が採択・棄却・検定中のいずれであるかを示す状態は、後述するように、閾値識別部16での識別結果に従って状態保持バッファ13に保持される。
The
LLR測定部14は、比較スコア算出部11で算出された比較スコアを用いて現時刻におけるLLRを求める。
The
mクラスの仮説をHi(i=1〜m)とし、時刻t(t=t1,t2,・・・,tN,tN+1,・・・)のときのデータztについての仮説Hiの確率をPi(zt)とすると、時刻tNにおける仮説Hiの対数尤度LLR(Hi)は、式(1)で求めることができる。なお、確率Pi(zt)は、予め学習を行い、比較スコアに対してガウス密度関数となる値としてモデル化して設定しておく。 Hypothesis on data z t at time t (t = t 1 , t 2 ,..., t N , t N + 1 ,...), where m class hypothesis is H i (i = 1 to m) Assuming that the probability of H i is P i (z t ), the log likelihood LLR (H i ) of the hypothesis H i at time t N can be obtained by Equation (1). The probability P i (z t ) is learned in advance, and is set by modeling as a value that becomes a Gaussian density function with respect to the comparison score.
また、現時刻におけるLLRは、LLR保持バッファ15に蓄積されている前時刻でのLLRを用い、式(3)を用いて再帰的に求めることができる。式(3)において、LLR(Hi)は、現時刻t=tNにおける仮説Hiの対数尤度であり、LLR′(Hi)は、前時刻t=tN−1における仮説Hiの対数尤度である。式(2)の右辺第2および第3項は現時刻t=tNでのLLR追加分を表している。
Also, the LLR at the current time can be obtained recursively using equation (3) using the LLR at the previous time stored in the
閾値識別部16は、LLR測定部14で求められた現時刻におけるLLR(Hi)を2つの閾値AおよびB(A>B)と比較し、識別結果を出力する。すなわち、複数の時系列データそれぞれに対する仮説検定により得られたLLR(Hi)が上限閾値Aを上回った場合、仮説Hiを採択し、下限閾値Bを下回った場合、仮説Hiを棄却する。なお、LLR(Hi)が上限閾値Aと下限閾値Bの間にある場合には判定を下さない。閾値AおよびBは、RecallおよびPrecisionに代表される精度の観点で統計的に導出できる。
The
例えば、時系列データfを仮説iで検定しているとすると、LLR(Hi)が上限閾値Aを上回った場合、仮説iを採択し、時系列データfは、仮説iに規定された人物と識別する。同時に仮説iの状態を採択に変更する。 For example, if time series data f is tested with hypothesis i, if LLR (H i ) exceeds upper threshold A, hypothesis i is adopted, and time series data f is the person specified in hypothesis i. Identify. At the same time, change the state of hypothesis i to adopted.
また、LLR(Hi)が下限閾値Bを下回った場合、仮説iを棄却し、仮説iの状態を棄却に変更する。LLR(Hi)が上限閾値Aと下限閾値Bの間にある場合には何もしない。仮説iの状態は未確定のままである。 If LLR (H i ) falls below the lower threshold B, hypothesis i is rejected and the state of hypothesis i is changed to reject. If LLR (H i ) is between the upper threshold A and the lower threshold B, nothing is done. The state of hypothesis i remains uncertain.
LLR保持バッファ15は、LLR測定部14で求められたLLRを蓄積し、状態保持バッファ13は、閾値識別部16から送出される各仮説iの状態を保持する。
The
図2は、図1におけるSPRTの説明図である。ここでも、識別対象の時系列データが動画像であり、オブジェクトがTV番組に出演する人物1,2,3である場合を想定している。
FIG. 2 is an explanatory diagram of the SPRT in FIG. Again, it is assumed that the time-series data to be identified is a moving image and the objects are
図2(a),(b)はそれぞれ、入力される顔画像(a),(b)(図6)について得られた仮説H1,H2,H3のLLRの推移を示し、実線はLLR(H1)、破線はLLR(H2)、一点鎖線はLLR(H3)である。図2の時間軸に沿いLLRに基づいてSPRTを行うと、下記(1)〜(6)の順番に仮説の採択と棄却が決定付けられる。 2 (a) and 2 (b) show the LLR transitions of hypotheses H 1 , H 2 and H 3 obtained for the input facial images (a) and (b) (FIG. 6), respectively. LLR (H 1 ), the broken line is LLR (H 2 ), and the alternate long and short dash line is LLR (H 3 ). When SPRT is performed based on the LLR along the time axis in FIG. 2, the adoption and rejection of hypotheses are decided in the order of (1) to (6) below.
(1)時刻t=t1で、顔画像(a)についてのLLR(H3)が下限閾値Bを下回った(LLR(H3)<B)ので、仮説H3を棄却する。時刻t=t1以降、顔画像(a)については仮説H1,H2の検定のみが引き続き行われる。 (1) At time t = t 1 , LLR (H 3 ) for the face image (a) falls below the lower threshold B (LLR (H 3 ) <B), so the hypothesis H 3 is rejected. Time t = t 1 and later, only the test of the hypothesis H 1, H 2 is the face image (a) is subsequently performed.
(2)時刻t=t2で、顔画像(b)についてのLLR(H3)が下限閾値Bを下回った(LLR(H3)<B)ので、仮説H3を棄却する。時刻t=t2以降、顔画像(a)については仮説H1,H2の検定のみが引き続き行われる。時刻t=t2までは図7と全く同じである。 (2) at time t = t 2, since the LLR for the face image (b) (H 3) is below the lower threshold B (LLR (H 3) < B), to reject the hypothesis H 3. Time t = t 2 and later, only the test of the hypothesis H 1, H 2 is the face image (a) is subsequently performed. Until the time t = t 2 is exactly the same as that shown in FIG. 7.
(3)時刻t=t3で、顔画像(a)についてのLLR(H1)が上限閾値Aを上回った(LLR(H1)>A)ので、仮説H1を採択する。これにより顔画像(a)は人物1のものと識別される。
(3) Since LLR (H 1 ) for the face image (a) exceeds the upper threshold A (LLR (H 1 )> A) at time t = t 3 , hypothesis H 1 is adopted. As a result, the face image (a) is identified as that of the
(4)上記(3)で顔画像(a)は人物1のものと識別されたので、顔画像(a)についての他の全ての仮説を棄却する。この場合、顔画像(a)についての仮説H2が棄却される。
(4) Since face image (a) is identified as that of
(5)上記(3)で顔画像(a)に人物が識別され、同じフレーム内に同一人物が出現することはないので、顔画像(b)についての仮説H1を棄却する。時刻t=t3以降、顔画像(b)については仮説H2の検定のみが引き続き行われる。 (5) (3) identified a person in the face image (a), since the same person in the same frame does not appear, to reject the hypothesis H 1 of the face image (b). Time t = t 3 or later, only the test of the hypothesis H 2 is for the face image (b) is subsequently performed.
(6)時刻t=t5で、顔画像(b)についてのLLR(H2)が上限閾値Aを上回った(LLR(H2)>A)ので、仮説H2を採択する。これにより顔画像(b)は人物2のものと識別される。 (6) Since LLR (H 2 ) for the face image (b) exceeds the upper threshold A (LLR (H 2 )> A) at time t = t 5 , hypothesis H 2 is adopted. Thus, the face image (b) is identified as that of the person 2.
(7)上記上記(6)で顔画像(b)は人物2のものと識別されたので、顔画像(b)についての他の全ての仮説を棄却する。この場合、顔画像(b)について棄却される仮説はない。 (7) Since the face image (b) is identified as that of the person 2 in the above (6), all other hypotheses about the face image (b) are rejected. In this case, there is no hypothesis rejected for the face image (b).
以上のように、同一フレーム内に同一人物が出現することはないことを考慮し、ある時系列データをある人物のものと識別したときには、該人物を他の識別での識別候補から除外するので、他の時系列データをそれと同じ人物のものと識別することがない。 As described above, in consideration of the fact that the same person does not appear in the same frame, when identifying certain time-series data as that of a certain person, that person is excluded from identification candidates in other identifications. The other time series data is not distinguished from that of the same person.
次に、本発明に係る人物メタ情報付与装置について説明する。本発明に係る人物メタ情報付与装置は、入力される時系列データを動画像とし、オブジェクトを出演人物とし、上記の時系列データの識別装置を用いて、時系列データ(顔画像)がどの人物のものであるかを識別し、動画像へ人物メタ情報を付与するものである。 Next, a person meta information providing apparatus according to the present invention will be described. The person meta information providing apparatus according to the present invention uses input time-series data as a moving image, an object as a performer, and a person who has time-series data (face image) using the above-described time-series data identification apparatus. The person meta information is added to the moving image.
また、上記の時系列データの識別装置を用いて再帰的にLLRを求めるためには、入力する時系列データの各々を同一人物の顔画像とする必要がある。例えば、現在視聴中のTV番組で、図6に示すように2人の人物が登場している場合、時刻tNと次時刻tN+1の間の同一顔を判定して対応付け、各顔画像を2つの時系列データとして時系列データの識別装置に入力する必要がある。そこで、以下に説明する人物メタ情報付与装置は、時系列データの識別装置の前段に顔画像追跡部などを備えている。 In addition, in order to recursively obtain the LLR using the time-series data identification device described above, each of the input time-series data needs to be a face image of the same person. For example, a TV program currently being viewed, if two people have appeared as shown in FIG. 6, the time t N and mapping to determine the same face between the next time t N + 1, each face image Must be input to the time-series data identification device as two time-series data. Therefore, the person meta information providing apparatus described below includes a face image tracking unit and the like before the time-series data identification apparatus.
図3は、本発明に係る人物メタ情報付与装置の一実施形態を示すブロック図である。本実施形態の人物メタ情報付与装置は、顔画像を含む動画像を蓄積する動画像蓄積部31、顔画像追跡部32、代表顔決定部33、顔インデックス構築部34、出演者情報抽出部35、顔登録部36、顔DB37、顔識別部38および人物メタ情報付与部39を備える。
FIG. 3 is a block diagram showing an embodiment of the person meta information providing apparatus according to the present invention. The person meta information providing apparatus according to the present embodiment includes a moving
顔画像追跡部32、代表顔決定部33および顔インデックス構築部34による機能は、本発明者が先に提案した「動画像の顔インデックス作成装置およびその顔画像追跡方法」(特願2007-88738号)と同じであるので、その概要だけを説明する。
The functions of the face
顔画像追跡部32は、動画像蓄積部31から動画像をフレーム単位で順次に読み込み、複数フレームにわたって連続的に登場する同一人物の顔画像を追跡し、その連続表示期間を検出する。代表顔決定部33は、顔画像追跡部32で検出された連続表示期間ごとの代表顔を決定する。顔インデックス構築部34は、各顔画像の連続表示期間と該連続表示期間の代表顔を対応付けた顔インデックスを構築する。1フレームの画像内に複数の顔画像が含まれている場合、顔画像ごとに顔インデックスが構築されることになる。
The face
出演者情報抽出部35は、動画像蓄積部31に蓄積されている動画像中に出てくる出演者の名前などの出演者情報を抽出する。例えば、動画像蓄積部31に蓄積されている動画像がTV番組であり、それに付随してEPG(Electronic Program Guide)情報などの番組情報が蓄積されている場合、それから出演者リストを出演者情報として抽出する。
The performer
顔登録部36には、予め多くの人物について名前と顔画像とが対応付けられて登録されている。顔DB37は、図1の登録DBに相当するものであり、顔登録部36に登録されているデータの中から出演者情報抽出部35で抽出された出演者リストに上がっている人物についてのデータ(各人物の名前、各人物の顔画像の特徴量と正例および負例のそれぞれに関するスコア分布の密度関数)を抽出して登録する。
In the
顔識別部38には、顔画像追跡部32で画像内から追跡して検出された顔画像の時系列データが入力される。画像内に複数の顔画像が含まれている場合、各顔画像についての時系列データが生成され、複数の時系列データが同時に顔識別部38に入力される。
The
顔識別部38は、図1の比較スコア算出部11、状態保持バッファ13、LLR測定部14、LLR保持バッファ15および閾値識別部16に相当する部分であり、顔DB37に登録された人物についてのデータを読み込み、時系列データがどの人物のものであるかの仮説を逐次確率比検定し、人名などの人物識別情報を出力する。
The
人物メタ情報付与部39は、顔インデックス構築部34から出力される顔インデックス(連続表示期間・代表顔画像)および顔識別部38から出力される人物識別情報を人物メタ情報としてフレーム単位で記述し、動画像蓄積部31の対応する動画像に付与する。
The person meta
図4は、図3の顔画像追跡部32と顔識別部38を機能的表現したブロック図である。顔画像追跡部32は上記特願2007-88738号で提案したものと同じであり、顔識別部38は図1と同じであるので、その概要だけを説明する。
FIG. 4 is a block diagram functionally expressing the face
顔画像追跡部32は、フレーム画像取得部41、今回フレームバッファ42、前回フレームバッファ43、ショットチェンジ識別部44、顔検出部45、今回検出結果バッファ46、前回検出結果バッファ47、顔間距離算出部48、距離依存対応付部49、類似度依存対応付部50を備える。
The face
顔識別部38は、比較スコア算出部51、顔DB52、状態保持バッファ53、LLR測定部54、LLR保持バッファ55および閾値識別部56を備える。
The
フレーム画像取得部41は、動画像蓄積部31に蓄積されている動画像から1フレーム分の静止画像を任意の時刻間隔で読み込む。今回フレームバッファ42は、今回読み込まれた今回フレームの静止画像を蓄積し、前回フレームバッファ53は、前回読み込まれた前回フレームの静止画像を蓄積する。
The frame
ショットチェンジ識別部44は、今回フレームバッファ42と前回フレームバッファ53に蓄積されている静止画像同士を比較し、その類似度に基づいてショット間のカメラ編集点の有無を識別する。
The shot
顔検出部45は、今回フレームバッファ42に蓄積された今回フレームの静止画像から顔画像を検出し、検出された顔画像ごとにその表示範囲の位置座標、幅、高さなどの空間的な位置情報を求める。
The
今回検出結果バッファ46は、顔検出部45で求められた顔画像の位置情報を蓄積する。なお、顔検出部45で検出された直後の顔画像は、未確定の顔候補として取り扱い、次のフレームでも同じ表示位置で顔画像が検出されたときに確定顔として取り扱うこととする。また、前回検出結果バッファ47は、前回フレームで検出された顔候補および確定顔の表示範囲の位置座標、幅、高さなどの空間的な位置情報を蓄積する。
The
顔間距離算出部48は、顔検出部45で検出され、今回検出結果バッファ46に蓄積された今回フレームの各顔画像の表示位置と前回検出結果バッファ47に蓄積されている前回フレームの各顔画像の表示位置との距離(以下、顔間距離と称す)Δdを算出する。この距離Δdは、例えば、各顔画像の左上座標間の距離を求めることにより算出できる。
The face-to-face
距離依存対応付部49は、顔間距離算出部48で算出された顔間距離Δdが所定の閾値Δdrefを下回る顔画像(顔候補および確定顔)の組み合わせに対して、今回フレームで検出された顔候補の状態を今回検出結果バッファ46上で確定顔に更新する。同時に、前回フレームで検出された顔候補の状態を前回検出結果バッファ47上で確定顔に更新し、さらに各顔画像を顔画像シリーズとして相互に対応付ける。ここで、所定の閾値Δdrefは、前回フレームで検出された顔画像の大きさに比例した値に設定するのが好ましい。
The distance
類似度依存対応付部50は、前回検出結果バッファ47に蓄積されている前回フレームの確定顔の中で、今回フレームのいずれの顔画像とも対応付けされなかった確定顔をテンプレートとして今回フレームの画像内でテンプレートマッチングを行い、類似度が所定の閾値を超える領域の画像を新たな顔画像(確定顔)として今回検出結果バッファ46に追加し、さらに各顔画像を顔画像シリーズとして相互に対応付ける。
The similarity
テンプレートマッチングの適用領域は、テンプレートマッチングでの誤検出を低減し、かつ計算量を低減するために、今回フレームの画像全体ではなく、テンプレートとして使用する確定顔の顔前フレームにおける表示位置と対応した位置およびその近傍に限定するのが好ましい。 The template matching application area corresponds to the display position in the pre-face frame of the confirmed face used as a template instead of the entire image of the current frame in order to reduce false detection in template matching and reduce the amount of calculation. It is preferable to limit the position and its vicinity.
前回検出結果バッファ47上には確定された顔画像とその領域座標が保持され、これらは代表顔決定部33(図3)および顔特徴量作成部57に送出される。
The previously detected face image and its region coordinates are held in the previous
顔識別部38は、図1の構成と同じであり、確定された顔画像が登録された人物のいずれのものであるか仮説を逐次確率検定し、人物識別情報を出力する。ただし、ここでは、前回検出結果バッファ47と顔識別部38との間に顔特徴量作成部57を介在させている。
The
顔特徴量作成部57は、前回検出結果バッファ47から出力される確定顔画像それぞれの時系列データから顔識別に適した顔特徴量を作成し、それらを時系列データとして比較スコア算出部51に入力する。顔特徴量は、Eigen face法(固有顔法)、Fisher face法、その他の方法で作成できる。この顔特徴量は、姿勢や照明などの変動にロバストな特徴量とするのが好ましい。また、顔特徴量の作成に際し、顔中の両方の瞳などの器官を抽出し、それを基準にして位置と大きさの正規化を行うことも好ましい。
The face feature
以上のように、顔画像に基づいて人物を判定するSPRTでは、時系列系列データが登録されている人物のいずれのものであるかを、各人物を規定するそれぞれの仮説を用いて識別する。ここで、従来のSPRTでは複数の時系列データ間の排他性を考慮せずに識別を行うのに対し、本発明では複数の時系列データ間の排他性を考慮した識別を行うので、複数の時系列データを同一人物のものなどと誤識別することがない。したがって、複数の時系列データを高精度に識別でき、また、動画像にフレーム単位で登場人物のメタ情報を正確に付与することができる。 As described above, in SPRT for determining a person based on a face image, the person who has registered time-series data is identified using each hypothesis that defines each person. Here, in the conventional SPRT, the identification is performed without considering the exclusivity between the plurality of time series data, whereas in the present invention, the identification is performed in consideration of the exclusivity between the plurality of time series data. The data is not mistakenly identified as that of the same person. Therefore, a plurality of time-series data can be identified with high accuracy, and the meta information of the characters can be accurately given to the moving image in units of frames.
10・・・時系列データの識別装置、11,51・・・比較スコア算出部、12・・・登録データベース(DB)、13,53・・・状態保持バッファ、14,54・・・LLR測定部、15,55・・・LLR保持バッファ、16,56・・・閾値識別部、31・・・動画像蓄積部、32・・・顔画像追跡部、33・・・代表顔決定部、34・・・顔インデックス構築部、35・・・出演者情報抽出部、36・・・顔登録部、37,52・・・顔DB、38・・・顔識別部、39・・・人物メタ情報付与部、41・・・フレーム画像取得部、42・・・今回フレームバッファ、43・・・前回フレームバッファ、44・・・ショットチェンジ識別部、45・・・顔検出部、46・・・今回検出結果バッファ、47・・・前回検出結果バッファ、48・・・顔間距離算出部、49・・・距離依存対応付部、50・・・類似度依存対応付部 10 ... Time-series data identification device, 11, 51 ... Comparison score calculator, 12 ... Registration database (DB), 13, 53 ... State holding buffer, 14, 54 ... LLR measurement , 15, 55 ... LLR holding buffer, 16,56 ... threshold identification unit, 31 ... moving image storage unit, 32 ... face image tracking unit, 33 ... representative face determination unit, 34 ... Face index construction part, 35 ... Performer information extraction part, 36 ... Face registration part, 37,52 ... Face DB, 38 ... Face identification part, 39 ... Person meta information Giving unit, 41 ... Frame image acquisition unit, 42 ... Current frame buffer, 43 ... Previous frame buffer, 44 ... Shot change identification unit, 45 ... Face detection unit, 46 ... This time Detection result buffer, 47 ... Previous detection result buffer, 48 ... Face distance calculation section, 49 ... Distance dependence correspondence section, 50 ... Similarity dependence correspondence section
Claims (10)
入力される複数の時系列データの各々が登録されたオブジェクトのいずれに属するかを個別に識別する複数の識別手段と、
前記複数の識別手段のうちの1つ識別手段において、ある時系列データが登録されたあるオブジェクトに属すると識別された場合、他の識別手段において該オブジェクトを識別候補から除外する除外手段を備えること特徴とする時系列データの識別装置。 In the time-series data identification device for identifying which of the registered objects each of a plurality of input time-series data belongs,
A plurality of identification means for individually identifying which of the registered objects each of a plurality of input time-series data belongs;
When one of the plurality of identification means identifies that a certain time-series data belongs to a registered object, the other identification means includes an exclusion means for excluding the object from identification candidates. A characteristic time-series data identification device.
請求項1ないし8のいずれかの時系列データの識別装置と、
動画像をフレーム単位で順次に読み込み、同一人物の顔画像とその連続表示期間を対応付けた顔インデックスを構築する顔インデックス構築手段と、
人物メタ情報付与手段を備え、
前記時系列データの識別装置は、顔画像を識別してその人物識別情報を送出し、前記人物メタ情報付与手段は、前記人物識別情報と前記顔インデックスを人物メタ情報として動画像の対応する各フレームに付与することを特徴とする動画像への人物メタ情報付与装置。 Time series data is a moving image of a face image, an object is a person,
A time-series data identification device according to any one of claims 1 to 8,
Face index construction means for sequentially loading moving images in units of frames and constructing a face index in which face images of the same person and their continuous display periods are associated with each other;
Provided with person meta information giving means,
The time-series data identification device identifies a face image and sends out the person identification information, and the person meta information giving means uses the person identification information and the face index as person meta information to correspond to each of moving images. An apparatus for assigning person meta information to a moving image, characterized by being attached to a frame.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008093028A JP5061382B2 (en) | 2008-03-31 | 2008-03-31 | Time-series data identification device and person meta information addition device for moving images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008093028A JP5061382B2 (en) | 2008-03-31 | 2008-03-31 | Time-series data identification device and person meta information addition device for moving images |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009245314A true JP2009245314A (en) | 2009-10-22 |
JP5061382B2 JP5061382B2 (en) | 2012-10-31 |
Family
ID=41307100
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008093028A Expired - Fee Related JP5061382B2 (en) | 2008-03-31 | 2008-03-31 | Time-series data identification device and person meta information addition device for moving images |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5061382B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020194497A1 (en) | 2019-03-26 | 2020-10-01 | 日本電気株式会社 | Information processing device, personal identification device, information processing method, and storage medium |
JP2021047747A (en) * | 2019-09-19 | 2021-03-25 | キヤノンマーケティングジャパン株式会社 | Information processor, method for processing information, and program |
WO2021229662A1 (en) * | 2020-05-11 | 2021-11-18 | 日本電気株式会社 | Determination device, determination method, and recording medium |
WO2021229660A1 (en) * | 2020-05-11 | 2021-11-18 | 日本電気株式会社 | Determination device, learning method, and recording medium |
WO2021229661A1 (en) * | 2020-05-11 | 2021-11-18 | 日本電気株式会社 | Determination device, determination method, and recording medium |
WO2022054246A1 (en) * | 2020-09-11 | 2022-03-17 | 日本電気株式会社 | Information processing device, information processing method, and computer program |
WO2022144992A1 (en) * | 2020-12-28 | 2022-07-07 | 日本電気株式会社 | Information processing device, information processing method, and computer program |
WO2022259429A1 (en) | 2021-06-09 | 2022-12-15 | 日本電気株式会社 | Information processing device, information processing method, medical image identification device, and non-transitory computer-readable medium in which program is stored |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2022049704A1 (en) | 2020-09-03 | 2022-03-10 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004110448A (en) * | 2002-09-19 | 2004-04-08 | Nippon Hoso Kyokai <Nhk> | Image object identifying/tracking device, its method, and its program |
JP2005101906A (en) * | 2003-09-25 | 2005-04-14 | Fuji Photo Film Co Ltd | Moving image recording device, moving image recording method, and program |
JP2006343791A (en) * | 2005-06-07 | 2006-12-21 | Hitachi Ltd | Face image database preparation method |
-
2008
- 2008-03-31 JP JP2008093028A patent/JP5061382B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004110448A (en) * | 2002-09-19 | 2004-04-08 | Nippon Hoso Kyokai <Nhk> | Image object identifying/tracking device, its method, and its program |
JP2005101906A (en) * | 2003-09-25 | 2005-04-14 | Fuji Photo Film Co Ltd | Moving image recording device, moving image recording method, and program |
JP2006343791A (en) * | 2005-06-07 | 2006-12-21 | Hitachi Ltd | Face image database preparation method |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020194497A1 (en) | 2019-03-26 | 2020-10-01 | 日本電気株式会社 | Information processing device, personal identification device, information processing method, and storage medium |
JP2021047747A (en) * | 2019-09-19 | 2021-03-25 | キヤノンマーケティングジャパン株式会社 | Information processor, method for processing information, and program |
WO2021229662A1 (en) * | 2020-05-11 | 2021-11-18 | 日本電気株式会社 | Determination device, determination method, and recording medium |
WO2021229660A1 (en) * | 2020-05-11 | 2021-11-18 | 日本電気株式会社 | Determination device, learning method, and recording medium |
WO2021229661A1 (en) * | 2020-05-11 | 2021-11-18 | 日本電気株式会社 | Determination device, determination method, and recording medium |
JP7384282B2 (en) | 2020-05-11 | 2023-11-21 | 日本電気株式会社 | Judgment device, judgment method and program |
JP7424476B2 (en) | 2020-05-11 | 2024-01-30 | 日本電気株式会社 | Judgment device, judgment method and program |
WO2022054246A1 (en) * | 2020-09-11 | 2022-03-17 | 日本電気株式会社 | Information processing device, information processing method, and computer program |
JP7416273B2 (en) | 2020-09-11 | 2024-01-17 | 日本電気株式会社 | Information processing device, information processing method, and computer program |
WO2022144992A1 (en) * | 2020-12-28 | 2022-07-07 | 日本電気株式会社 | Information processing device, information processing method, and computer program |
WO2022259429A1 (en) | 2021-06-09 | 2022-12-15 | 日本電気株式会社 | Information processing device, information processing method, medical image identification device, and non-transitory computer-readable medium in which program is stored |
Also Published As
Publication number | Publication date |
---|---|
JP5061382B2 (en) | 2012-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5061382B2 (en) | Time-series data identification device and person meta information addition device for moving images | |
JP5272215B2 (en) | Face recognition method capable of suppressing influence of noise and environment | |
US8325981B2 (en) | Human tracking apparatus, human tracking method, and human tracking processing program | |
JP5355446B2 (en) | Moving object tracking system and moving object tracking method | |
CN112183334B (en) | Video depth relation analysis method based on multi-mode feature fusion | |
CN110363220B (en) | Behavior class detection method and device, electronic equipment and computer readable medium | |
US20230368351A1 (en) | Person verification device and method and non-transitory computer readable media | |
US11915519B2 (en) | Information processing system, method for managing object to be authenticated, and program | |
CN111401105B (en) | Video expression recognition method, device and equipment | |
CN111709296A (en) | Scene identification method and device, electronic equipment and readable storage medium | |
CN113313053A (en) | Image processing method, apparatus, device, medium, and program product | |
CN110175553B (en) | Method and device for establishing feature library based on gait recognition and face recognition | |
US10755074B2 (en) | Latent fingerprint pattern estimation | |
US8055062B2 (en) | Information processing apparatus, information processing method, and program | |
JP2019117556A (en) | Information processing apparatus, information processing method and program | |
GHAZAL et al. | Smart Meeting Attendance Checking Based on A multi-biometric Recognition System. | |
KR20200124887A (en) | Method and Apparatus for Creating Labeling Model with Data Programming | |
KR102342495B1 (en) | Method and Apparatus for Creating Labeling Model with Data Programming | |
CN114663796A (en) | Target person continuous tracking method, device and system | |
CN114299435A (en) | Scene clustering method and device in video and related equipment | |
JP4838272B2 (en) | VIDEO INDEXING DEVICE, VIDEO INDEXING METHOD, VIDEO INDEXING PROGRAM, AND ITS RECORDING MEDIUM | |
CN117152668B (en) | Intelligent logistics implementation method, device and equipment based on Internet of things | |
CN112613436B (en) | Examination cheating detection method and device | |
Nguyen et al. | PROCTORING ONLINE EXAM USING IOT TECHNOLOGY | |
Salokhe et al. | Criminal face recognition using video surveillance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100715 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120629 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120711 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120718 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150817 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |