JP6986187B2 - 人物識別方法、装置、電子デバイス、記憶媒体、及びプログラム - Google Patents
人物識別方法、装置、電子デバイス、記憶媒体、及びプログラム Download PDFInfo
- Publication number
- JP6986187B2 JP6986187B2 JP2020021940A JP2020021940A JP6986187B2 JP 6986187 B2 JP6986187 B2 JP 6986187B2 JP 2020021940 A JP2020021940 A JP 2020021940A JP 2020021940 A JP2020021940 A JP 2020021940A JP 6986187 B2 JP6986187 B2 JP 6986187B2
- Authority
- JP
- Japan
- Prior art keywords
- video frame
- person
- person identification
- label
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 46
- 230000001052 transient effect Effects 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 7
- 238000009411 base construction Methods 0.000 claims description 3
- 230000015654 memory Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 12
- 230000001815 facial effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 206010010305 Confusional state Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7837—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
- G06F16/784—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23418—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Library & Information Science (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Character Discrimination (AREA)
Description
ビデオストリーム中の現在のビデオフレームに対応する人物識別リクエストを受信することと、
現在のビデオフレームにおける人体的特徴を抽出することと、
現在のビデオフレームにおける人体的特徴と、知識ベースに保存されたビデオストリーム中の第1のビデオフレームにおける人体的特徴とをマッチングさせることと、
マッチングに成功した場合に、第1のビデオフレームにおける第1の人物ラベルを前記人物識別リクエストの識別結果とすることと、を含む。
本実施形態によれば、人物識別リクエストを送信する際に、ユーザは人物の正面顔が写るビデオフレームを捕捉する必要がなく、現在のビデオフレームにおける人体的特徴からビデオに写された人物の情報を調べることができ、便利な照会サービスを提供することができ、ユーザの好感度を高め、ユーザエクスペリエンスを良好にすることができる。
ビデオストリーム中の現在のビデオフレームに対応する人物識別リクエストを受信する前に、
ビデオストリーム中の、人物の顔がその画像に含まれている第2のビデオフレームに対して顔認識をし、第2のビデオフレームにおける第2の人物ラベルを得ることと、
第2のビデオフレームにおける人体的特徴と、人物の顔がその画像に含まれていない第1のビデオフレームにおける人体的特徴と、を抽出することと、
第2のビデオフレームにおける人体的特徴と第1のビデオフレームにおける人体的特徴とのマッチングが成功した場合に、第2の人物ラベルを第1のビデオフレームにおける第1の人物ラベルとすることと、
第1のビデオフレームおよびその第1の人物ラベルを知識ベースに保存することと、を含む。
本実施形態によれば、ビデオストリームを分析することにより知識ベースを改善し、人物識別の精度を高めることができる。
少なくとも1つの第1のビデオフレーム及び少なくとも1つの第2のビデオフレームを、ビデオストリームから切り出すこと、をさらに含む。
本実施形態によれば、顔特徴と人体的特徴とが対応的な関係をもつ、少なくとも1つの時間枠内の連続的なビデオフレームを予め切り出して、効率的な識別効果を生成することを確保できる。
現在のビデオフレームにおける画像は、前記ビデオストリームの再生側で、キャプチャー又は写真撮影により得られること、をさらに含む。
本実施形態によれば、ビデオストリームの再生側で人物識別リクエストを送信する際、人物識別リクエストには現在のビデオフレームにおける画像を含む必要があり、キャプチャーまたは写真撮影の手段により実際の画像データを取得することを確保できる。
ビデオストリーム中の現在のビデオフレームに対応する人物識別リクエストを受信する受信ユニットと、
現在のビデオフレームにおける人体的特徴を抽出する抽出ユニットと、
現在のビデオフレームにおける人体的特徴と、知識ベースに保存された前記ビデオストリーム中の第1のビデオフレームにおける人体的特徴とをマッチングさせるマッチングユニットと、
マッチングに成功した場合に、第1のビデオフレームにおける第1の人物ラベルを人物識別リクエストの識別結果とする識別ユニットと、を含む。
知識ベース構築ユニットは、
ビデオストリーム中の現在のビデオフレームに対応する人物識別リクエストを受信する前に、ビデオストリーム中の、人物の顔がその画像に含まれている第2のビデオフレームに対して顔認識をし、第2のビデオフレームにおける第2の人物ラベルを得る顔認識サブユニットと、
第2のビデオフレームにおける人体的特徴と、人物の顔がその画像に含まれていない第1のビデオフレームにおける人体的特徴と、を抽出する抽出サブユニットと、
第2のビデオフレームにおける人体的特徴と第1のビデオフレームにおける人体的特徴とのマッチングが成功した場合に、第2の人物ラベルを第1のビデオフレームにおける第1の人物ラベルとするラベルサブユニットと、
第1のビデオフレームおよびその第1の人物ラベルを知識ベースに保存する保存サブユニットと、
を含む。
切り出しサブユニットは、
ビデオストリーム中の第2のビデオフレームに対して顔認識をする前に、
少なくとも1つの第1のビデオフレーム及び少なくとも1つの第2のビデオフレームを、ビデオストリームから切り出す。
1つ又は複数のプロセッサと、
1つ又は複数のプロセッサに通信可能に接続される記憶装置とを含み、
記憶装置は、1つ又は複数のプロセッサにより実行可能なコマンドを記憶しており、
1つ又は複数のプロセッサが、1つ又は複数のコマンドを実行する場合、いずれか1つの人物識別方法を実行させる。
本願によれば、人物識別リクエストを送信する際に、ユーザは人物の正面顔が写るビデオフレームを捕捉する必要がなく、現在のビデオフレームにおける人体的特徴からビデオに写された人物の情報を調べることができ、便利な照会サービスを提供することができ、ユーザの好感度を高め、ユーザエクスペリエンスを良好にすることができる。また、本願によれば、ビデオストリームを分析することにより知識ベースを改善し、人物識別の精度を高めることができる。
S110において、ビデオストリーム中の現在のビデオフレームに対応する人物識別リクエストを受信する。
S120において、現在のビデオフレームにおける人体的特徴を抽出する。
S130において、現在のビデオフレームにおける人体的特徴と、知識ベースに保存されたビデオストリーム中の第1のビデオフレームにおける人体的特徴と、をマッチングさせる。
S140において、マッチングに成功した場合に、第1のビデオフレームにおける第1の人物ラベルを前記人物識別リクエストの識別結果とする。
本実施形態において、ユーザは、ビデオを見ている間、ビデオの中の人物情報を調べたい場合がある。例えば、ユーザは、現在のビデオフレームでこの役割を演じている俳優が誰なのかを調べたく、さらに、この俳優に関する情報を調べたくなることがある。この場合、ユーザは、ビデオを視聴する際に、携帯電話、タブレットコンピュータ、ノートパソコンなどのビデオの再生端を介して人物識別リクエストを発信してもよい。人物識別リクエストには、ビデオストリーム中の現在のビデオフレームの情報が含まれてもよい。例えば、人物識別リクエストには、ビデオストリーム中の現在のビデオフレームにおける画像が含まれてもよい。ユーザは、ビデオストリームの再生端を介して、人物識別リクエストをサーバに送信する。S110において、サーバは現在のビデオフレームの情報を含む人物識別リクエストを受信する。
S210において、ビデオストリーム中の、人物の顔がその画像に含まれている第2のビデオフレームに対して顔認識をし、第2のビデオフレームにおける第2の人物ラベルを得る。
S220において、第2のビデオフレームにおける人体的特徴と、人物の顔がその画像に含まれていない第1のビデオフレームにおける人体的特徴と、を抽出する。
S230において、第2のビデオフレームにおける人体的特徴と第1のビデオフレームにおける人体的特徴とのマッチングが成功した場合に、第2の人物ラベルを第1のビデオフレームにおける第1の人物ラベルとする。
S240において、第1のビデオフレームおよびその第1の人物ラベルを知識ベースに保存する。
前述したように、知識ベースには、第1のビデオフレームにおける人体的特徴およびその第1の人物ラベルをすでに保存しているので、ステップS130において、現在のビデオフレームにおける人体的特徴と、知識ベースに保存されたビデオストリーム中の第1のビデオフレームにおける人体的特徴とをマッチングさせる。マッチングに成功した場合、ユーザが現在再生中の、現在のビデオフレームにおける画像中の人物と、知識ベースに保存された第1のビデオフレームにおける人物とが同一の人物であることは示されている。ステップS140において、第1のビデオフレームにおける第1の人物ラベルを人物識別リクエストの識別結果とする。
この実施形態によれば、人物識別リクエストを送信する際に、ユーザは人物の正面顔が写るビデオフレームを捕捉する必要がなく、現在のビデオフレームにおける人体的特徴からビデオに写された人物の情報を調べることができ、便利な照会サービスを提供することができ、ユーザの好感度を高め、ユーザエクスペリエンスを向上させることができる。
少なくとも1つの第1のビデオフレーム及び少なくとも1つの第2のビデオフレームを、ビデオストリームから切り出すこと、をさらに含む。
この実施形態によれば、顔特徴と人体的特徴とが対応的な関係をもつ、少なくとも1つの時間枠内の連続的なビデオフレームを予め切り出して、効率的な識別効果を生成することを確保できる。
上記の例では、ユーザの意図を識別した後、ビデオ画像取得モジュールは、ユーザの意図に従ってビデオ再生端のキャプチャーまたは写真撮影を制御することができる。例えば、音声情報「この人は誰ですか?」から、ユーザがビデオ中のスターの情報を調べたいというユーザの意図を識別する。すると、現在のビデオフレームにおける画像をキャプチャーする。一実施形態では、人物識別方法は、現在のビデオフレームにおける画像が識別リクエストに含まれ、現在のビデオフレームにおける画像がビデオストリームの再生端でキャプチャーまたは写真撮影により取得される。ユーザの意図を識別した後、現在のビデオフレームにおける画像に対して、キャプチャーまたは写真撮影をトリガし、現在のビデオフレームにおける画像を持つ人物識別リクエストをサーバに送信する。
ビデオストリームの再生側で人物識別リクエストを送信する際、人物識別リクエストには現在のビデオフレームにおける画像を含む必要があり、キャプチャーまたは写真撮影の手段により実際の画像データを取得することを確保できる。
特徴抽出モジュールは、現在のビデオフレームにおける画像から、例えば、身長、体型、服飾、随時携帯するカバン、携帯電話、その他携帯する道具やツールなどの人体的特徴を抽出するために使用される。
知識ベースには、人体的特徴および、それに対応する人物ラベル、人物の関連情報が格納されている。しばらくの間、人物の服、造形(外形特徴)が変化しないので、人の顔情報がない場合には、人体的特徴に応じて人物認識が可能である。
人物本体識別モジュールの機能は、人物識別のためのモデルをトレーニングすることと、トレーニングされたモデルを用いて人物認識を行うこととを含む。まず顔より人物の情報を識別し、人物情報を人体的特徴と関連付けることで、顔がはっきりと映されていない場合や人物の背中の場合にも人物情報を識別することができる。具体的なトレーニングおよび使用のプロセスは以下の通りである。
b.人物識別技術により人体的特徴を抽出し、人体的特徴を顔の特徴と関連させ、または人体的特徴を顔・指紋と関連させる。人物を識別する時、人体的特徴と顔の特徴とを相互に補って識別率を高めることができる。例えば、顔情報がない場合は、人体的特徴だけから人物認識を行う。
サーバ端で人物識別が完了したら、人物識別結果および人物に関する情報をビデオストリームの再生端に送信する。ビデオストリームの再生端に結果を表示する。一例では、識別結果および人物に関する情報をサーバが返すと、識別結果および人物関連情報をアピールまたはプレゼンテンションするための結果表示モジュールをビデオストリームの再生端に内蔵することができる。
ビデオストリーム中の現在のビデオフレームに対応する人物識別リクエストを受信する受信ユニット100と、
現在のビデオフレームにおける人体的特徴を抽出する抽出ユニット200と、
現在のビデオフレームにおける人体的特徴と、知識ベースに保存された前記ビデオストリーム中の第1のビデオフレームにおける人体的特徴とをマッチングさせるマッチングユニット300と、
マッチングに成功した場合に、第1のビデオフレームにおける第1の人物ラベルを人物識別リクエストの識別結果とする識別ユニット400と、を含む100。
知識ベース構築ユニット500は、
ビデオストリーム中の現在のビデオフレームに対応する人物識別リクエストを受信する前に、ビデオストリーム中の、人物の顔がその画像に含まれている第2のビデオフレームに対して顔認識をし、第2のビデオフレームにおける第2の人物ラベルを得る顔認識サブユニット510と、
第2のビデオフレームにおける人体的特徴と、人物の顔がその画像に含まれていない第1のビデオフレームにおける人体的特徴と、を抽出する抽出サブユニット520と、
第2のビデオフレームにおける人体的特徴と第1のビデオフレームにおける人体的特徴とのマッチングが成功した場合に、第2の人物ラベルを第1のビデオフレームにおける第1の人物ラベルとするラベルサブユニット530と、
第1のビデオフレームおよびその第1の人物ラベルを知識ベースに保存する保存サブユニット540と、
を含む。
切り出しサブユニット505は、
ビデオストリーム中の第2のビデオフレームに対して顔認識をする前に、
少なくとも1つの第1のビデオフレーム及び少なくとも1つの第2のビデオフレームを、ビデオストリームから切り出す。
図7に示すように、本願の一実施形態の人物識別方法に係る電子デバイスのブロック図である。電子デバイスは、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ、および他の適切なコンピュータのような様々な形態のデジタルコンピュータを表すことができる。また、電子デバイスはパーソナルデジタル処理、携帯電話、スマートフォン、装着可能デバイス、およびその他の類似のコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すことができる。ここで示した構成要素、それらの接続と関係、およびそれらの機能は例示的なものに過ぎず、本願で説明されたものおよび/または要求される本願の実施を制限することは意図されない。
図7に示すように、当該電子デバイスは、1つ又は複数のプロセッサ701と、メモリ702と、高速インターフェースと低速インターフェースとを含む各構成要素を接続するためのインターフェースとを含む。各構成要素は、異なるバスを利用して互いに接続し、共通のマザーボードに取り付けられてもよいし、必要に応じて他の方法で取り付けられてもよい。プロセッサは、電子デバイス内で実行される命令を処理してもよく、また、外部入出力デバイス(例えば、インターフェースに接続された表示デバイス)にグラフィックユーザインターフェース(Graphical User Interface,GUI)を表示するための、メモリまたはメモリ上に記憶されたグラフィカル情報の命令を含む。他の実施形態では、必要に応じて、複数のプロセッサおよび/または複数のバスを複数のメモリおよび複数のメモリとともに使用することができる。同様に、複数の電子デバイスを接続してもよく、各デバイスは、部分的に必要な動作(例えば、サーバアレイ、ブレードサーバのセット、またはマルチプロセッサシステムとして)を提供する。図7においてプロセッサ701を例とする。
Claims (9)
- ビデオストリーム中の現在のビデオフレームに対応する人物識別リクエストを受信することと、
前記現在のビデオフレームにおける人体的特徴を抽出することと、
前記現在のビデオフレームにおける人体的特徴と、知識ベースに保存された前記ビデオストリーム中の第1のビデオフレームにおける人体的特徴とをマッチングさせることと、
マッチングに成功した場合に、前記第1のビデオフレームにおける第1の人物ラベルを前記人物識別リクエストの識別結果とすることと、を含み、
ビデオストリーム中の現在のビデオフレームに対応する人物識別リクエストを受信する前に、
前記ビデオストリーム中の、人物の顔がその画像に含まれている第2のビデオフレームに対して顔認識をし、前記第2のビデオフレームにおける第2の人物ラベルを得ることと、
前記第2のビデオフレームにおける人体的特徴と、人物の顔がその画像に含まれていない前記第1のビデオフレームにおける人体的特徴と、を抽出することと、
前記第2のビデオフレームにおける人体的特徴と前記第1のビデオフレームにおける人体的特徴とのマッチングが成功した場合に、前記第2の人物ラベルを前記第1のビデオフレームにおける第1の人物ラベルとすることと、
前記第1のビデオフレームおよびその第1の人物ラベルを前記知識ベースに保存することと、をさらに含む、
ことを特徴とする人物識別方法。 - 前記ビデオストリーム中の第2のビデオフレームに対して顔認識をする前に、
少なくとも1つの前記第1のビデオフレーム及び少なくとも1つの前記第2のビデオフレームを、前記ビデオストリームから切り出すこと、をさらに含む、
ことを特徴とする請求項1に記載の人物識別方法。 - 前記識別リクエストには、前記現在のビデオフレームにおける画像を含み、
前記現在のビデオフレームにおける画像は、前記ビデオストリームの再生側で、キャプチャー又は写真撮影により得られること、をさらに含む、
ことを特徴とする請求項1又は2に記載の人物識別方法。 - ビデオストリーム中の現在のビデオフレームに対応する人物識別リクエストを受信する受信ユニットと、
前記現在のビデオフレームにおける人体的特徴を抽出する抽出ユニットと、
前記現在のビデオフレームにおける人体的特徴と、知識ベースに保存された前記ビデオストリーム中の第1のビデオフレームにおける人体的特徴とをマッチングさせるマッチングユニットと、
マッチングに成功した場合に、前記第1のビデオフレームにおける第1の人物ラベルを前記人物識別リクエストの識別結果とする識別ユニットと、を含み、
知識ベース構築ユニットをさらに含み、
前記知識ベース構築ユニットは、
前記ビデオストリーム中の現在のビデオフレームに対応する人物識別リクエストを受信する前に、前記ビデオストリーム中の、人物の顔がその画像に含まれている第2のビデオフレームに対して顔認識をし、前記第2のビデオフレームにおける第2の人物ラベルを得る顔認識サブユニットと、
前記第2のビデオフレームにおける人体的特徴と、人物の顔がその画像に含まれていない前記第1のビデオフレームにおける人体的特徴と、を抽出する抽出サブユニットと、
前記第2のビデオフレームにおける人体的特徴と前記第1のビデオフレームにおける人体的特徴とのマッチングが成功した場合に、前記第2の人物ラベルを前記第1のビデオフレームにおける第1の人物ラベルとするラベルサブユニットと、
前記第1のビデオフレームおよびその第1の人物ラベルを知識ベースに保存する保存サブユニットと、を含む、
ことを特徴とする人物識別装置。 - 前記知識ベース構築ユニットは、切り出しサブユニット、をさらに含み、
前記切り出しサブユニットは、
前記ビデオストリーム中の第2のビデオフレームに対して顔認識をする前に、少なくとも1つの前記第1のビデオフレーム及び少なくとも1つの前記第2のビデオフレームを、前記ビデオストリームから切り出す、
ことを特徴とする請求項4に記載の人物識別装置。 - 前記識別リクエストには、前記現在のビデオフレームにおける画像を含み、
前記現在のビデオフレームにおける画像は、前記ビデオストリームの再生側で、キャプチャー又は写真撮影により得られる、
ことを特徴とする請求項4又は5に記載の人物識別装置。 - 1つ又は複数のプロセッサと、
前記1つ又は複数のプロセッサに通信可能に接続される記憶装置とを含み、
前記記憶装置には、前記1つ又は複数のプロセッサにより実行可能なコマンドを記憶しており、
前記1つ又は複数のプロセッサが、前記1つ又は複数のコマンドを実行する場合、請求項1〜3のいずれか1項に記載の人物識別方法を実行させる、
ことを特徴とする電子デバイス。 - 請求項1〜3のいずれか1項に記載の人物識別方法をコンピュータに実行させるためのコンピュータコマンドを記憶した非一過性のコンピュータ可読記憶媒体。
- コンピュータにおいて、プロセッサにより実行される場合、請求項1〜3のいずれか1項に記載の人物識別方法を実現することを特徴とするプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910760681.4A CN110458130B (zh) | 2019-08-16 | 2019-08-16 | 人物识别方法、装置、电子设备及存储介质 |
CN201910760681.4 | 2019-08-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021034003A JP2021034003A (ja) | 2021-03-01 |
JP6986187B2 true JP6986187B2 (ja) | 2021-12-22 |
Family
ID=68487296
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020021940A Active JP6986187B2 (ja) | 2019-08-16 | 2020-02-12 | 人物識別方法、装置、電子デバイス、記憶媒体、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210049354A1 (ja) |
JP (1) | JP6986187B2 (ja) |
CN (1) | CN110458130B (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110765955A (zh) * | 2019-10-25 | 2020-02-07 | 北京威晟艾德尔科技有限公司 | 一种视频文件中人物识别方法 |
CN111444822B (zh) * | 2020-03-24 | 2024-02-06 | 北京奇艺世纪科技有限公司 | 对象识别方法和装置、存储介质和电子装置 |
CN111641870B (zh) * | 2020-06-05 | 2022-04-22 | 北京爱奇艺科技有限公司 | 视频播放方法、装置、电子设备及计算机存储介质 |
CN111640179B (zh) * | 2020-06-26 | 2023-09-01 | 百度在线网络技术(北京)有限公司 | 宠物模型的显示方法、装置、设备以及存储介质 |
CN112015951B (zh) * | 2020-08-28 | 2023-08-01 | 北京百度网讯科技有限公司 | 视频监测方法、装置、电子设备以及计算机可读介质 |
CN112560772B (zh) * | 2020-12-25 | 2024-05-14 | 北京百度网讯科技有限公司 | 人脸的识别方法、装置、设备及存储介质 |
CN113222638A (zh) * | 2021-02-26 | 2021-08-06 | 深圳前海微众银行股份有限公司 | 门店访客信息的架构方法、装置、设备、介质及程序产品 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4675811B2 (ja) * | 2006-03-29 | 2011-04-27 | 株式会社東芝 | 位置検出装置、自律移動装置、位置検出方法および位置検出プログラム |
JP2010092287A (ja) * | 2008-10-08 | 2010-04-22 | Panasonic Corp | 映像管理装置、映像管理システムおよび映像管理方法 |
JP5427622B2 (ja) * | 2010-01-22 | 2014-02-26 | Necパーソナルコンピュータ株式会社 | 音声変更装置、音声変更方法、プログラム及び記録媒体 |
JP5783759B2 (ja) * | 2011-03-08 | 2015-09-24 | キヤノン株式会社 | 認証装置、認証方法、および認証プログラム、並びに記録媒体 |
US8917913B2 (en) * | 2011-09-22 | 2014-12-23 | International Business Machines Corporation | Searching with face recognition and social networking profiles |
CN103079092B (zh) * | 2013-02-01 | 2015-12-23 | 华为技术有限公司 | 在视频中获取人物信息的方法和装置 |
CN106384087A (zh) * | 2016-09-05 | 2017-02-08 | 大连理工大学 | 一种基于多层网络人体特征的身份识别方法 |
EP3418944B1 (en) * | 2017-05-23 | 2024-03-13 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and program |
CN107480236B (zh) * | 2017-08-08 | 2021-03-26 | 深圳创维数字技术有限公司 | 一种信息查询方法、装置、设备和介质 |
CN107730810A (zh) * | 2017-11-14 | 2018-02-23 | 郝思宇 | 一种基于图像的家庭室内监控方法、系统 |
CN109829418B (zh) * | 2019-01-28 | 2021-01-05 | 北京影谱科技股份有限公司 | 一种基于背影特征的打卡方法、装置和系统 |
CN109872407B (zh) * | 2019-01-28 | 2022-02-01 | 北京影谱科技股份有限公司 | 一种人脸识别方法、装置、设备及打卡方法、装置和系统 |
-
2019
- 2019-08-16 CN CN201910760681.4A patent/CN110458130B/zh active Active
-
2020
- 2020-02-12 JP JP2020021940A patent/JP6986187B2/ja active Active
- 2020-02-21 US US16/797,222 patent/US20210049354A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
CN110458130A (zh) | 2019-11-15 |
US20210049354A1 (en) | 2021-02-18 |
CN110458130B (zh) | 2022-12-06 |
JP2021034003A (ja) | 2021-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6986187B2 (ja) | 人物識別方法、装置、電子デバイス、記憶媒体、及びプログラム | |
US11120078B2 (en) | Method and device for video processing, electronic device, and storage medium | |
US10719293B2 (en) | Interactive control method and device for voice and video communications | |
CN113094550B (zh) | 视频检索方法、装置、设备和介质 | |
CN111259751A (zh) | 基于视频的人体行为识别方法、装置、设备及存储介质 | |
CN104866275B (zh) | 一种用于获取图像信息的方法和装置 | |
CN111968631B (zh) | 智能设备的交互方法、装置、设备及存储介质 | |
CN112507090B (zh) | 用于输出信息的方法、装置、设备和存储介质 | |
CN109274999A (zh) | 一种视频播放控制方法、装置、设备及介质 | |
JP7267379B2 (ja) | 画像処理方法、事前トレーニングモデルのトレーニング方法、装置及び電子機器 | |
CN111443801B (zh) | 人机交互方法、装置、设备及存储介质 | |
CN111259183B (zh) | 图像识图方法、装置、电子设备和介质 | |
CN112052784A (zh) | 物品的搜索方法、装置、设备及计算机可读存储介质 | |
CN111949820B (zh) | 视频关联兴趣点的处理方法、装置及电子设备 | |
CN114187392A (zh) | 虚拟偶像的生成方法、装置和电子设备 | |
CN113869063A (zh) | 数据推荐方法、装置、电子设备及存储介质 | |
CN113840177B (zh) | 直播互动方法、装置、存储介质与电子设备 | |
CN114092608B (zh) | 表情的处理方法及装置、计算机可读存储介质、电子设备 | |
CN112579868B (zh) | 多模态识图搜索方法、装置、设备以及存储介质 | |
CN115098729A (zh) | 视频处理方法、样本生成方法、模型训练方法及装置 | |
CN111352685B (zh) | 一种输入法键盘的展示方法、装置、设备及存储介质 | |
CN111783591B (zh) | 异常检测方法、装置、设备和存储介质 | |
CN113327311A (zh) | 基于虚拟角色的显示方法、装置、设备、存储介质 | |
CN113780045A (zh) | 用于训练距离预测模型的方法和装置 | |
CN111966432A (zh) | 验证码处理方法、装置、电子设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210406 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20210531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210630 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210921 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210928 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20211014 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6986187 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |