JP2021520015A - 画像処理方法、装置、端末機器、サーバおよびシステム - Google Patents
画像処理方法、装置、端末機器、サーバおよびシステム Download PDFInfo
- Publication number
- JP2021520015A JP2021520015A JP2021508057A JP2021508057A JP2021520015A JP 2021520015 A JP2021520015 A JP 2021520015A JP 2021508057 A JP2021508057 A JP 2021508057A JP 2021508057 A JP2021508057 A JP 2021508057A JP 2021520015 A JP2021520015 A JP 2021520015A
- Authority
- JP
- Japan
- Prior art keywords
- human body
- image
- face
- information
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 107
- 238000000034 method Methods 0.000 claims abstract description 105
- 230000004044 response Effects 0.000 claims abstract description 63
- 230000008569 process Effects 0.000 claims abstract description 15
- 238000012545 processing Methods 0.000 claims description 138
- 238000001514 detection method Methods 0.000 claims description 91
- 230000005540 biological transmission Effects 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 abstract description 14
- 230000001815 facial effect Effects 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/50—Maintenance of biometric data or enrolment thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/70—Multimodal biometrics, e.g. combining information from different biometric modalities
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
Description
いくつかの実施例において、第1顔とマッチングする人体が存在する(当該マッチングする人体を第1人体と称する)場合、クライアントは、当該第1人体の画像情報を含む第1人物識別要求メッセージをサーバに送信することができる。
いくつかの実施例において、第1顔とマッチングする人体が存在しないことに応答して、クライアントは、サーバに送信可能な第1人物識別要求メッセージが前記第1顔の画像情報を含む。このようにして、第1顔に対応する第1人物識別要求メッセージは、第1顔の画像情報、第1人体の画像情報、または第1人体の画像および第1顔の画像情報を含み得る。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
画像処理方法であって、
第1画像を処理して、前記第1画像内の第1顔を取得することと、
前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする人体が存在するかどうかを決定することと、
前記決定された結果に従って、第1人物識別要求メッセージをサーバに送信することとを含む、前記画像処理方法。
(項目2)
前記決定された結果に従って、第1人物識別要求メッセージをサーバに送信することは、
前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする第1人体が存在することに応答して、前記第1人体の画像情報を含む前記第1人物識別要求メッセージを前記サーバに送信することであって、前記第1人体の画像情報は、前記サーバが人物識別を実行するために使用されることを含む、
項目1に記載の画像処理方法。
(項目3)
前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする第1人体が存在することに応答して、前記第1人体の画質に従って、前記第1人物識別要求メッセージが前記第1人体の画像情報を含むかどうかを決定することをさらに含む、
項目2に記載の画像処理方法。
(項目4)
前記第1人体の画像情報を含む前記第1人物識別要求メッセージを前記サーバに送信することは、前記第1人体の画質が品質要件を満たすことに応答して、前記第1人体の画像情報を含む前記第1人物識別要求メッセージを前記サーバに送信することを含む、
項目2または3に記載の画像処理方法。
(項目5)
前記品質要件は、顔の鮮明度要件、顔の大きさ要件、顔の角度要件、顔検出の信頼度要件および人体検出の信頼度要件、顔の完全性要件のうちの少なくとも1つを含む、
項目4に記載の画像処理方法。
(項目6)
前記第1人体の画質が品質要件を満たさないことに応答して、前記第1顔の画像情報を含む前記第1人物識別要求メッセージを前記サーバに送信することであって、前記第1顔の画像情報は、前記サーバが人物識別を実行するために使用されることをさらに含む、
項目2ないし5のいずれか一項に記載の画像処理方法。
(項目7)
前記第1人体の画像情報は、前記第1人体の画像を含み、および/または、
前記第1人体の画像情報は、前記第1人体の画像の特徴情報を含み、前記第1人体の画像の特徴情報は、人体の特徴情報および顔の特徴情報のうちの少なくとも1つを含む、
項目2ないし6のいずれか一項に記載の画像処理方法。
(項目8)
前記第1人体の画像情報を含む前記第1人物識別要求メッセージを前記サーバに送信する前に、
前記第1顔の画像情報を前記第1人体の画像情報に置き換えて人物識別を実行することを決定することをさらに含む、
項目2ないし7のいずれか一項に記載の画像処理方法。
(項目9)
前記第1人物識別要求メッセージは、前記第1顔の識別子情報をさらに含む、
項目1ないし8のいずれか一項に記載の画像処理方法。
(項目10)
前記決定された結果に従って、前記第1人物識別要求メッセージを前記サーバに送信することは、前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする人体が存在しないことに応答して、前記第1顔の画像情報を含む前記第1人物識別要求メッセージを前記サーバに送信することであって、前記第1顔の画像情報は、前記サーバが人物識別を実行するために使用されることを含む、
項目1ないし9のいずれか一項に記載の画像処理方法。
(項目11)
前記第1画像の少なくとも1つの人体のうち、前記第1顔とマッチングする人体が存在するかどうかを決定することは、
前記第1画像に対応する少なくとも1つの顔および前記少なくとも1つの人体に従って、N個の候補ペアにおける各候補ペアのマッチング確率情報を決定することであって、前記候補ペアは、前記少なくとも1つの顔のうちの1つの顔および前記少なくとも1つの人体のうちの1つの人体を含み、前記少なくとも1つの顔は前記第1顔を含むことと、
前記N個の候補ペアにおける各候補ペアのマッチング確率情報に従って、前記少なくとも1つの顔と前記少なくとも1つの人体のターゲットマッチング結果を決定することと、
前記ターゲットマッチング結果に基づいて、前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする人体が存在するかどうかを決定することとを含む、
項目1ないし10のいずれか一項に記載の画像処理方法。
(項目12)
前記少なくとも1つの顔および前記少なくとも1つの人体に従って、N個の候補ペアにおける各候補ペアのマッチング確率情報を決定することは、
第1候補ペアに含まれる第2人体および前記第1候補ペアに含まれる第2顔に基づいて、目標対象の推定位置情報および実際の位置情報を決定することであって、前記N個の候補ペアは前記第1候補ペアを含み、前記目標対象は人体の一部であることと、
前記目標対象の推定位置情報および前記目標対象の実際の位置情報に基づいて、前記第1候補ペアのマッチング確率情報を決定することとを含む、
項目11に記載の画像処理方法。
(項目13)
前記目標対象は、耳および顔のうちの少なくとも1つを含む、
項目12に記載の画像処理方法。
(項目14)
前記N個の候補ペアにおける各候補ペアのマッチング確率情報に従って、前記少なくとも1つの顔と前記少なくとも1つの人体のターゲットマッチング結果を決定することは、
前記N個の候補ペアにおける各候補ペアのマッチング確率情報に従って、前記少なくとも1つの顔と前記少なくとも1つの人体の少なくとも1つの候補マッチング結果における各候補マッチング結果のマッチング確率情報を決定することであって、前記候補マッチング結果は、前記N個の候補ペアにおけるm(1≦m≦N)個の候補ペアを含み、前記m個の候補ペアにおける2つの候補ペアごとに含まれる顔および人体はそれぞれ異なることと、
前記少なくとも1つの候補マッチング結果における各候補マッチング結果のマッチング確率情報に基づいて、前記少なくとも1つの候補マッチング結果から、前記少なくとも1つの顔と前記少なくとも1つの人体のターゲットマッチング結果を決定することとを含む、
項目11ないし13のいずれか一項に記載の画像処理方法。
(項目15)
前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする人体が存在するかどうかを決定する前に、
前記第1画像に対して人体検出を実行して、前記第1画像に対応する少なくとも1つの人体を取得することをさらに含む、
項目1ないし14のいずれか一項に記載の画像処理方法。
(項目16)
前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする人体が存在するかどうかを決定する前に、
前記第1画像が属するビデオシーケンスの少なくとも一部の画像に対して人体追跡を実行して、前記ビデオシーケンスの人体追跡結果を取得することと、
前記第1画像のフレーム番号に基づいて、前記ビデオシーケンスの顔追跡結果から、前記第1画像の人体追跡情報を検索することとをさらに含む、
項目1ないし15のいずれか一項に記載の画像処理方法。
(項目17)
前記ビデオシーケンスの人体追跡結果で前記第1画像の人体追跡情報が見つからなかったことに応答して、前記第1画像に対して人体検出を実行して、前記第1画像に対応する少なくとも1つの人体を取得することをさらに含む、
項目16に記載の画像処理方法。
(項目18)
前記第1画像を処理して、前記第1画像内の第1顔を取得することは、
前記第1画像に対して顔追跡を実行して、前記第1画像内の第1顔を取得することを含む、
項目1ないし17のいずれか一項に記載の画像処理方法。
(項目19)
前記第1画像に対して人体追跡を実行して、前記第1画像内の第3人体を取得することと、
第2人物識別要求メッセージを前記サーバに送信することであって、前記第2人物識別要求メッセージは、前記第3人体の画像情報および前記第3人体の追跡識別子情報を含むこととをさらに含む、
項目1ないし18のいずれか一項に記載の画像処理方法。
(項目20)
前記第1画像を処理して、前記第1画像内の第1顔を取得する前に、
ビデオシーケンスに含まれる、連続するプリセットの数の画像から前記第1画像を選択することをさらに含む、
項目1ないし19のいずれか一項に記載の画像処理方法。
(項目21)
前記ビデオシーケンスに含まれる、連続するプリセットの数の画像から前記第1画像を選択することは、画像に含まれる顔の品質に基づいて、前記ビデオシーケンスに含まれる、連続するプリセットの数の画像から前記第1画像を選択することを含む、
項目20に記載の画像処理方法。
(項目22)
画像処理方法であって、
第1端末機器によって送信された人物識別要求メッセージを受信することであって、前記人物識別要求メッセージは第1人体の画像情報を含むことと、
前記第1人体の画像情報に基づいて、前記第1人体が属する人物の人物識別子情報を決定することとを含む、前記画像処理方法。
(項目23)
前記第1人体の画像情報は、前記第1人体の画像を含み、および/または、
前記第1人体の画像情報は、前記第1人体の画像の特徴情報を含み、前記第1人体の画像の特徴情報は、人体の特徴情報および顔の特徴情報のうちの少なくとも1つを含む、
項目22に記載の画像処理方法。
(項目24)
前記第1人体の画像情報に基づいて、前記第1人体が属する人物の人物識別子情報を決定することは、
前記第1人体の画像情報に基づいて、前記第1人体に含まれる第1顔の画像情報を取得することと、
前記第1顔の画像情報および顔テンプレートデータベースに基づいて、前記第1人体が属する人物の人物識別子情報を決定することであって、前記顔テンプレートデータベースは、少なくとも1つの顔テンプレートを記憶することとを含む、
項目22または23に記載の画像処理方法。
(項目25)
前記第1人体の画像情報に基づいて、前記第1人体に含まれる第1顔の画像情報を取得することは、
前記第1人体の画像から第1顔の画像を取得することを含む、
項目24に記載の画像処理方法。
(項目26)
前記第1顔の画像情報および顔テンプレートデータベースに基づいて、前記第1人体が属する人物の人物識別子情報を決定することは、
前記第1顔の画像に対して特徴抽出処理を実行して、前記第1顔の特徴情報を取得することと、
前記顔テンプレートデータベースに、前記第1顔の特徴情報とマッチングする顔テンプレートが存在するかどうかを決定することと、
前記決定された結果に基づいて、前記第1人体が属する人物の人物識別子情報を取得することとを含む、
項目24または25に記載の画像処理方法。
(項目27)
前記決定された結果に基づいて、前記第1人体が属する人物の人物識別子情報を取得することは、前記顔テンプレートデータベースに、前記第1顔の特徴情報とマッチングする顔テンプレートが存在することに応答して、前記マッチングする顔テンプレートに対応する人物識別子情報を前記第1人体が属する人物の人物識別子情報として決定することを含む、
項目26に記載の画像処理方法。
(項目28)
前記決定された結果に基づいて、前記第1人体が属する人物の人物識別子情報を取得することは、前記顔テンプレートデータベースに、前記第1顔の特徴情報とマッチングする顔テンプレートが存在しないことに応答して、新しく追加された人物識別子情報を前記第1人体が属する人物の人物識別子情報として決定することを含む、
項目26または27に記載の画像処理方法。
(項目29)
前記新しく追加された人物識別子情報および前記第1顔の情報を新しい顔テンプレートとして前記顔テンプレートデータベースに追加することをさらに含む、
項目28に記載の画像処理方法。
(項目30)
前記人物識別要求メッセージは、前記第1人体の第1顔の検出フレーム識別子情報または追跡識別子情報をさらに含む、
項目22ないし29のいずれか一項に記載の画像処理方法。
(項目31)
前記第1人体の画像情報に基づいて、前記第1人体が属する人物の人物識別子情報を決定することは、
前記第1人体の画像情報に基づいて、前記第1人体の人体識別子情報を決定することと、
前記第1人体の人体識別子情報に基づいて、前記第1人体が属する人物の人物識別子情報を決定することとを含む、
項目22ないし30のいずれか一項に記載の画像処理方法。
(項目32)
前記第1人体の画像情報に基づいて、前記第1人体の人体識別子情報を決定することは、
前記第1人体の画像に対して特徴抽出を実行して、前記第1人体の特徴情報を取得することと、
人体テンプレートデータベースに、前記第1人体の特徴情報とマッチングする人体テンプレートが存在するかどうかを決定することであって、前記人体テンプレートデータベースは、少なくとも1つの人体テンプレートを記憶することと、
前記決定された結果に基づいて、前記第1人体の人体識別子情報を取得することとを含む、
項目31に記載の画像処理方法。
(項目33)
前記決定された結果に基づいて、前記第1人体の人体識別子情報を取得することは、前記人体テンプレートデータベースに、前記第1人体の特徴情報とマッチングする人体テンプレートが存在することに応答して、前記マッチングする人体テンプレートに対応する人体識別子情報を前記第1人体の人体識別子情報として決定することを含む、
項目32に記載の画像処理方法。
(項目34)
前記決定された結果に基づいて、前記第1人体の人体識別子情報を取得することは、前記人体テンプレートデータベースに、前記第1人体の特徴情報とマッチングする人体テンプレートが存在しないことに応答して、追加される人体識別子情報を前記第1人体の人体識別子情報として決定することを含む、
項目32または33に記載の画像処理方法。
(項目35)
前記追加される人体識別子情報および前記第1人体の情報を新しい顔テンプレートとして前記人体テンプレートデータベースに追加することをさらに含む、
項目34に記載の画像処理方法。
(項目36)
前記第1人体の人体識別子情報および前記第1人体が属する人物の人物識別子情報と、前記第1人体が属する人物の人体識別子情報との間の関連関係を関連データベースに追加することをさらに含む、
項目35に記載の画像処理方法。
(項目37)
前記人物識別要求メッセージは、前記第1人体の追跡識別子情報または前記第1人体の検出フレーム識別子情報をさらに含む、
項目31ないし36のいずれか一項に記載の画像処理方法。
(項目38)
前記第1人体の人体識別子情報に基づいて、前記第1人体が属する人物の人物識別子情報を決定することは、
関連データベースに、前記第1人体の人体識別子とマッチングする関連関係が存在するかどうかを決定することであって、前記関連データベースは、人体識別子情報と人物識別子情報との間の少なくとも1つの関連関係を記憶するために使用されることと、
前記決定された結果に基づいて、前記第1人体が属する人物の人物識別子情報を取得することとを含む、
項目31ないし37のいずれか一項に記載の画像処理方法。
(項目39)
前記決定された結果に基づいて、前記第1人体が属する人物の人物識別子情報を取得することは、前記関連データベースに、前記第1人体の人体識別子とマッチングする関連関係が存在することに応答して、前記マッチングする関連関係における人物識別子情報を前記第1人体が属する人物の人物識別子情報として決定することを含む、
項目38に記載の画像処理方法。
(項目40)
前記決定された結果に基づいて、前記第1人体が属する人物の人物識別子情報を取得することは、前記関連データベースに、前記第1人体の人体識別子とマッチングする関連関係が存在しないことに応答して、新しく追加された人物識別子情報を前記第1体が属する人物の人物識別子情報として決定することを含む、
項目38に記載の画像処理方法。
(項目41)
前記第1人体が属する人物の人物識別子情報を第2端末機器に送信することをさらに含む、
項目31ないし40のいずれか一項に記載の画像処理方法。
(項目42)
前記人物識別要求メッセージは、前記第1端末機器がビデオシーケンスのうちの少なくとも1つの画像に対して顔追跡を実行することに基づいて取得される、
項目22ないし41のいずれか一項に記載の画像処理方法。
(項目43)
画像処理装置であって、
第1画像を処理して、前記第1画像内の第1顔を取得するように構成される取得モジュールと、
前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする人体が存在するかどうかを決定するように構成される第1決定モジュールと、
前記決定された結果に従って、第1人物識別要求メッセージをサーバに送信するように構成される送信モジュールとを備える、前記画像処理装置。
(項目44)
前記送信モジュールは、
前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする第1人体が存在することに応答して、前記第1人体の画像情報を含む前記第1人物識別要求メッセージを前記サーバに送信するように構成され、前記第1人体の画像情報は、前記サーバが人物識別を実行するために使用される、
項目43に記載の画像処理装置。
(項目45)
前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする第1人体が存在することに応答して、前記第1人体の画質に従って、前記第1人物識別要求メッセージが前記第1人体の画像情報を含むかどうかを決定するように構成される第2決定モジュールをさらに備える、
項目44に記載の画像処理装置。
(項目46)
前記送信モジュールは、前記第1人体の画質が品質要件を満たすことに応答して、前記第1人体の画像情報を含む前記第1人物識別要求メッセージを前記サーバに送信するように構成される、
項目44または45に記載の画像処理装置。
(項目47)
前記品質要件は、顔の鮮明度要件、顔の大きさ要件、顔の角度要件、顔検出の信頼度要件および人体検出の信頼度要件、顔の完全性要件のうちの少なくとも1つを含む、
項目46に記載の画像処理装置。
(項目48)
前記送信モジュールは、前記第1人体の画質が品質要件を満たさないことに応答して、前記第1顔の画像情報を含む前記第1人物識別要求メッセージを前記サーバに送信するように構成され、前記第1顔の画像情報は、前記サーバが人物識別を実行するために使用される、
項目44ないし47のいずれか一項に記載の画像処理装置。
(項目49)
前記第1人体の画像情報は、前記第1人体の画像を含み、および/または、
前記第1人体の画像情報は、前記第1人体の画像の特徴情報を含み、前記第1人体の画像の特徴情報は、人体の特徴情報および顔の特徴情報のうちの少なくとも1つを含む、
項目44ないし48のいずれか一項に記載の画像処理装置。
(項目50)
前記装置は、前記第1顔の画像情報を前記第1人体の画像情報に置き換えて人物識別を実行することを決定するように構成される第2決定モジュールをさらに備える、
項目44ないし49のいずれか一項に記載の画像処理装置。
(項目51)
前記第1人物識別要求メッセージは、前記第1顔の識別子情報をさらに含む、
項目43ないし50のいずれか一項に記載の画像処理装置。
(項目52)
前記送信モジュールは、前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする人体が存在しないことに応答して、前記第1顔の画像情報を含む前記第1人物識別要求メッセージを前記サーバに送信するように構成され、前記第1顔の画像情報は、前記サーバが人物識別を実行するために使用される、
項目43ないし50のいずれか一項に記載の画像処理装置。
(項目53)
前記第1決定モジュールは、
前記第1画像に対応する少なくとも1つの顔および前記少なくとも1つの人体に従って、N個の候補ペアにおける各候補ペアのマッチング確率情報を決定し、前記候補ペアは、前記少なくとも1つの顔のうちの1つの顔および前記少なくとも1つの人体のうちの1つの人体を含み、前記少なくとも1つの顔は前記第1顔を含み、
前記N個の候補ペアにおける各候補ペアのマッチング確率情報に従って、前記少なくとも1つの顔と前記少なくとも1つの人体のターゲットマッチング結果を決定し、
前記ターゲットマッチング結果に基づいて、前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする人体が存在するかどうかを決定するように構成される、
項目43ないし52のいずれか一項に記載の画像処理装置。
(項目54)
前記第1決定モジュールは、
第1候補ペアに含まれる第2人体および前記第1候補ペアに含まれる第2顔に基づいて、目標対象の推定位置情報および実際の位置情報を決定し、前記N個の候補ペアは前記第1候補ペアを含み、前記目標対象は人体の一部であり、
前記目標対象の推定位置情報および前記目標対象の実際の位置情報に基づいて、前記第1候補ペアのマッチング確率情報を決定するように構成される、
項目53に記載の画像処理装置。
(項目55)
前記目標対象は、耳および顔のうちの少なくとも1つを含む、
項目54に記載の画像処理装置。
(項目56)
前記第1決定モジュールは、
前記N個の候補ペアにおける各候補ペアのマッチング確率情報に従って、前記少なくとも1つの顔と前記少なくとも1つの人体の少なくとも1つの候補マッチング結果における各候補マッチング結果のマッチング確率情報を決定し、前記候補マッチング結果は、前記N個の候補ペアにおけるm(1≦m≦N)個の候補ペアを含み、前記m個の候補ペアにおける2つの候補ペアごとに含まれる顔および人体はそれぞれ異なり、
前記少なくとも1つの候補マッチング結果における各候補マッチング結果のマッチング確率情報に基づいて、前記少なくとも1つの候補マッチング結果から、前記少なくとも1つの顔と前記少なくとも1つの人体のターゲットマッチング結果を決定するように構成される、
項目53ないし55のいずれか一項に記載の画像処理装置。
(項目57)
前記第1画像に対して人体検出を実行して、前記第1画像に対応する少なくとも1つの人体を取得するように構成される人体検出モジュールをさらに備える、
項目43ないし56のいずれか一項に記載の画像処理装置。
(項目58)
前記第1画像が属するビデオシーケンスの少なくとも一部の画像に対して人体追跡を実行して、前記ビデオシーケンスの人体追跡結果を取得するように構成される人体追跡モジュールと、
前記第1画像のフレーム番号に基づいて、前記ビデオシーケンスの顔追跡結果から、前記第1画像の人体追跡情報を検索するように構成される追跡情報検索モジュールとをさらに備える、
項目43ないし57のいずれか一項に記載の画像処理装置。
(項目59)
前記ビデオシーケンスの人体追跡結果で前記第1画像の人体追跡情報が見つからなかったことに応答して、前記第1画像に対して人体検出を実行して、前記第1画像に対応する少なくとも1つの人体を取得するように構成される人体検出モジュールをさらに備える、
項目58に記載の画像処理装置。
(項目60)
前記取得モジュールは、前記第1画像に対して顔追跡を実行して、前記第1画像内の第1顔を取得するように構成される、
項目43ないし59のいずれか一項に記載の画像処理装置。
(項目61)
前記装置は、前記第1画像に対して人体追跡を実行して、前記第1画像内の第3人体を取得するように構成される追跡モジュールをさらに備え、前記送信モジュールは、さらに、第2人物識別要求メッセージを前記サーバに送信するように構成され、前記第2人物識別要求メッセージは、前記第3人体の画像情報および前記第3人体の追跡識別子情報を含む、
項目43ないし60のいずれか一項に記載の画像処理装置。
(項目62)
前記装置は、ビデオシーケンスに含まれる、連続するプリセットの数の画像から前記第1画像を選択するように構成される選択モジュールをさらに備える、
項目43ないし61のいずれか一項に記載の画像処理装置。
(項目63)
前記選択モジュールは、画像に含まれる顔の品質に基づいて、前記ビデオシーケンスに含まれる、連続するプリセットの数の画像から前記第1画像を選択するように構成される、
項目62に記載の画像処理装置。
(項目64)
画像処理装置であって、
第1端末機器によって送信された人物識別要求メッセージを受信するように構成される受信モジュールであって、前記人物識別要求メッセージは第1人体の画像情報を含む受信モジュールと、
前記第1人体の画像情報に基づいて、前記第1人体が属する人物の人物識別子情報を決定するように構成される決定モジュールとを備える、前記画像処理装置。
(項目65)
前記第1人体の画像情報は、前記第1人体の画像を含み、および/または、
前記第1人体の画像情報は、前記第1人体の画像の特徴情報を含み、前記第1人体の画像の特徴情報は、人体の特徴情報および顔の特徴情報のうちの少なくとも1つを含む、
項目64に記載の画像処理装置。
(項目66)
前記決定モジュールは、
前記第1人体の画像情報に基づいて、前記第1人体に含まれる第1顔の画像情報を取得するように構成される第1決定ユニットと、
前記第1顔の画像情報および顔テンプレートデータベースに基づいて、前記第1人体が属する人物の人物識別子情報を決定するように構成される第2決定ユニットであって、前記顔テンプレートデータベースは、少なくとも1つの顔テンプレートを記憶する第2決定ユニットとを備える、
項目64または65に記載の画像処理装置。
(項目67)
前記第1決定ユニットは、前記第1人体の画像から第1顔の画像を取得するように構成される、
項目66に記載の画像処理装置。
(項目68)
前記第2決定ユニットは、
前記第1顔の画像に対して特徴抽出処理を実行して、前記第1顔の特徴情報を取得し、
前記顔テンプレートデータベースに、前記第1顔の特徴情報とマッチングする顔テンプレートが存在するかどうかを決定し、
前記決定された結果に基づいて、前記第1人体が属する人物の人物識別子情報を取得するように構成される、
項目66または67に記載の画像処理装置。
(項目69)
前記第2決定ユニットは、前記顔テンプレートデータベースに、前記第1顔の特徴情報とマッチングする顔テンプレートが存在することに応答して、前記マッチングする顔テンプレートに対応する人物識別子情報を前記第1人体が属する人物の人物識別子情報として決定するように構成される、
項目68に記載の画像処理装置。
(項目70)
前記第2決定ユニットは、前記顔テンプレートデータベースに、前記第1顔の特徴情報とマッチングする顔テンプレートが存在しないことに応答して、新しく追加された人物識別子情報を前記第1人体が属する人物の人物識別子情報として決定するように構成される、
項目68または69に記載の画像処理装置。
(項目71)
前記新しく追加された人物識別子情報および前記第1顔の情報を新しい顔テンプレートとして前記顔テンプレートデータベースに追加するように構成される第1追加モジュールをさらに備える、
項目70に記載の画像処理装置。
(項目72)
前記人物識別要求メッセージは、前記第1人体の第1顔の検出フレーム識別子情報または追跡識別子情報をさらに含む、
項目64ないし71のいずれか一項に記載の画像処理装置。
(項目73)
前記決定モジュールは、
前記第1人体の画像情報に基づいて、前記第1人体の人体識別子情報を決定するように構成される第3決定ユニットと、
前記第1人体の人体識別子情報に基づいて、前記第1人体が属する人物の人物識別子情報を決定するように構成される第4決定ユニットとをさらに備える、
項目64ないし72のいずれか一項に記載の画像処理装置。
(項目74)
前記第3決定ユニットは、
前記第1人体の画像に対して特徴抽出を実行して、前記第1人体の特徴情報を取得し、
人体テンプレートデータベースに、前記第1人体の特徴情報とマッチングする人体テンプレートが存在するかどうかを決定し、前記人体テンプレートデータベースは、少なくとも1つの人体テンプレートを記憶し、
前記決定された結果に基づいて、前記第1人体の人体識別子情報を取得するように構成される、
項目73に記載の画像処理方法。
(項目75)
前記第3決定ユニットは、前記人体テンプレートデータベースに、前記第1人体の特徴情報とマッチングする人体テンプレートが存在することに応答して、前記マッチングする人体テンプレートに対応する人体識別子情報を前記第1人体の人体識別子情報として決定するように構成される、
項目74に記載の画像処理装置。
(項目76)
前記第3決定ユニットは、前記人体テンプレートデータベースに、前記第1人体の特徴情報とマッチングする人体テンプレートが存在しないことに応答して、新しく追加された人体識別子情報を前記第1人体の人体識別子情報として決定するように構成される、
項目74に記載の画像処理装置。
(項目77)
前記新しく追加された人体識別子情報および前記第1人体の情報を新しい顔テンプレートとして前記人体テンプレートデータベースに追加するように構成される第2追加モジュールをさらに備える、
項目76に記載の画像処理装置。
(項目78)
前記第1人体の人体識別子情報および前記第1人体が属する人物の人物識別子情報と、前記第1人体が属する人物の人体識別子情報との間の関連関係を関連データベースに追加するように構成される第2追加モジュールをさらに備える、
項目77に記載の画像処理装置。
(項目79)
前記人物識別要求メッセージは、前記第1人体の追跡識別子情報または前記第1人体の検出フレーム識別子情報をさらに含む、
項目73ないし78のいずれか一項に記載の画像処理装置。
(項目80)
前記第4決定ユニットは、
関連データベースに、前記第1人体の人体識別子とマッチングする関連関係が存在するかどうかを決定し、前記関連データベースは、人体識別子情報と人物識別子情報との間の少なくとも1つの関連関係を記憶するために使用され、
前記決定された結果に基づいて、前記第1人体が属する人物の人物識別子情報を取得するように構成される、
項目73ないし79のいずれか一項に記載の画像処理装置。
(項目81)
前記第4決定ユニットは、前記関連データベースに、前記第1人体の人体識別子とマッチングする関連関係が存在することに応答して、前記マッチングする関連関係における人物識別子情報を前記第1人体が属する人物の人物識別子情報として決定するように構成される、
項目80に記載の画像処理装置。
(項目82)
前記第4決定ユニットは、前記関連データベースに、前記第1人体の人体識別子とマッチングする関連関係が存在しないことに応答して、新しく追加された人物識別子情報を前記第1人体が属する人物の人物識別子情報として決定するように構成される、
項目80に記載の画像処理装置。
(項目83)
前記第1人体が属する人物の人物識別子情報を第2端末機器に送信するように構成される送信モジュールをさらに備える、
項目73ないし82のいずれか一項に記載の画像処理装置。
(項目84)
前記人物識別要求メッセージは、前記第1端末機器がビデオシーケンスのうちの少なくとも1つの画像に対して顔追跡を実行することに基づいて取得される、
項目73ないし83のいずれか一項に記載の画像処理装置。
(項目85)
端末機器であって、
プログラム命令を記憶するように構成されるメモリと、前記メモリ内のプログラム命令を呼び出して実行して、項目1ないし21のいずれか一項に記載の方法のステップを実行するように構成されるプロセッサとを備える、前記端末機器。
(項目86)
サーバであって、
プログラム命令を記憶するように構成されるメモリと、前記メモリ内のプログラム命令を呼び出して実行して、項目22ないし42のいずれか一項に記載の方法のステップを実行するように構成されるプロセッサとを備える、前記サーバ。
(項目87)
画像処理システムであって、
項目85に記載の端末機器および項目86に記載のサーバを含む、前記画像処理システム。
(項目88)
読み取り可能な記憶媒体であって、
コンピュータプログラムが記憶され、前記コンピュータプログラムは、項目1ないし21のいずれか一項に記載の方法または項目22ないし42のいずれか一項に記載の方法を実行するように構成される、前記読み取り可能な記憶媒体。
Claims (88)
- 画像処理方法であって、
第1画像を処理して、前記第1画像内の第1顔を取得することと、
前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする人体が存在するかどうかを決定することと、
前記決定された結果に従って、第1人物識別要求メッセージをサーバに送信することとを含む、前記画像処理方法。 - 前記決定された結果に従って、第1人物識別要求メッセージをサーバに送信することは、
前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする第1人体が存在することに応答して、前記第1人体の画像情報を含む前記第1人物識別要求メッセージを前記サーバに送信することであって、前記第1人体の画像情報は、前記サーバが人物識別を実行するために使用されることを含む、
請求項1に記載の画像処理方法。 - 前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする第1人体が存在することに応答して、前記第1人体の画質に従って、前記第1人物識別要求メッセージが前記第1人体の画像情報を含むかどうかを決定することをさらに含む、
請求項2に記載の画像処理方法。 - 前記第1人体の画像情報を含む前記第1人物識別要求メッセージを前記サーバに送信することは、前記第1人体の画質が品質要件を満たすことに応答して、前記第1人体の画像情報を含む前記第1人物識別要求メッセージを前記サーバに送信することを含む、
請求項2または3に記載の画像処理方法。 - 前記品質要件は、顔の鮮明度要件、顔の大きさ要件、顔の角度要件、顔検出の信頼度要件および人体検出の信頼度要件、顔の完全性要件のうちの少なくとも1つを含む、
請求項4に記載の画像処理方法。 - 前記第1人体の画質が品質要件を満たさないことに応答して、前記第1顔の画像情報を含む前記第1人物識別要求メッセージを前記サーバに送信することであって、前記第1顔の画像情報は、前記サーバが人物識別を実行するために使用されることをさらに含む、
請求項2ないし5のいずれか一項に記載の画像処理方法。 - 前記第1人体の画像情報は、前記第1人体の画像を含み、および/または、
前記第1人体の画像情報は、前記第1人体の画像の特徴情報を含み、前記第1人体の画像の特徴情報は、人体の特徴情報および顔の特徴情報のうちの少なくとも1つを含む、
請求項2ないし6のいずれか一項に記載の画像処理方法。 - 前記第1人体の画像情報を含む前記第1人物識別要求メッセージを前記サーバに送信する前に、
前記第1顔の画像情報を前記第1人体の画像情報に置き換えて人物識別を実行することを決定することをさらに含む、
請求項2ないし7のいずれか一項に記載の画像処理方法。 - 前記第1人物識別要求メッセージは、前記第1顔の識別子情報をさらに含む、
請求項1ないし8のいずれか一項に記載の画像処理方法。 - 前記決定された結果に従って、前記第1人物識別要求メッセージを前記サーバに送信することは、前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする人体が存在しないことに応答して、前記第1顔の画像情報を含む前記第1人物識別要求メッセージを前記サーバに送信することであって、前記第1顔の画像情報は、前記サーバが人物識別を実行するために使用されることを含む、
請求項1ないし9のいずれか一項に記載の画像処理方法。 - 前記第1画像の少なくとも1つの人体のうち、前記第1顔とマッチングする人体が存在するかどうかを決定することは、
前記第1画像に対応する少なくとも1つの顔および前記少なくとも1つの人体に従って、N個の候補ペアにおける各候補ペアのマッチング確率情報を決定することであって、前記候補ペアは、前記少なくとも1つの顔のうちの1つの顔および前記少なくとも1つの人体のうちの1つの人体を含み、前記少なくとも1つの顔は前記第1顔を含むことと、
前記N個の候補ペアにおける各候補ペアのマッチング確率情報に従って、前記少なくとも1つの顔と前記少なくとも1つの人体のターゲットマッチング結果を決定することと、
前記ターゲットマッチング結果に基づいて、前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする人体が存在するかどうかを決定することとを含む、
請求項1ないし10のいずれか一項に記載の画像処理方法。 - 前記少なくとも1つの顔および前記少なくとも1つの人体に従って、N個の候補ペアにおける各候補ペアのマッチング確率情報を決定することは、
第1候補ペアに含まれる第2人体および前記第1候補ペアに含まれる第2顔に基づいて、目標対象の推定位置情報および実際の位置情報を決定することであって、前記N個の候補ペアは前記第1候補ペアを含み、前記目標対象は人体の一部であることと、
前記目標対象の推定位置情報および前記目標対象の実際の位置情報に基づいて、前記第1候補ペアのマッチング確率情報を決定することとを含む、
請求項11に記載の画像処理方法。 - 前記目標対象は、耳および顔のうちの少なくとも1つを含む、
請求項12に記載の画像処理方法。 - 前記N個の候補ペアにおける各候補ペアのマッチング確率情報に従って、前記少なくとも1つの顔と前記少なくとも1つの人体のターゲットマッチング結果を決定することは、
前記N個の候補ペアにおける各候補ペアのマッチング確率情報に従って、前記少なくとも1つの顔と前記少なくとも1つの人体の少なくとも1つの候補マッチング結果における各候補マッチング結果のマッチング確率情報を決定することであって、前記候補マッチング結果は、前記N個の候補ペアにおけるm(1≦m≦N)個の候補ペアを含み、前記m個の候補ペアにおける2つの候補ペアごとに含まれる顔および人体はそれぞれ異なることと、
前記少なくとも1つの候補マッチング結果における各候補マッチング結果のマッチング確率情報に基づいて、前記少なくとも1つの候補マッチング結果から、前記少なくとも1つの顔と前記少なくとも1つの人体のターゲットマッチング結果を決定することとを含む、
請求項11ないし13のいずれか一項に記載の画像処理方法。 - 前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする人体が存在するかどうかを決定する前に、
前記第1画像に対して人体検出を実行して、前記第1画像に対応する少なくとも1つの人体を取得することをさらに含む、
請求項1ないし14のいずれか一項に記載の画像処理方法。 - 前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする人体が存在するかどうかを決定する前に、
前記第1画像が属するビデオシーケンスの少なくとも一部の画像に対して人体追跡を実行して、前記ビデオシーケンスの人体追跡結果を取得することと、
前記第1画像のフレーム番号に基づいて、前記ビデオシーケンスの顔追跡結果から、前記第1画像の人体追跡情報を検索することとをさらに含む、
請求項1ないし15のいずれか一項に記載の画像処理方法。 - 前記ビデオシーケンスの人体追跡結果で前記第1画像の人体追跡情報が見つからなかったことに応答して、前記第1画像に対して人体検出を実行して、前記第1画像に対応する少なくとも1つの人体を取得することをさらに含む、
請求項16に記載の画像処理方法。 - 前記第1画像を処理して、前記第1画像内の第1顔を取得することは、
前記第1画像に対して顔追跡を実行して、前記第1画像内の第1顔を取得することを含む、
請求項1ないし17のいずれか一項に記載の画像処理方法。 - 前記第1画像に対して人体追跡を実行して、前記第1画像内の第3人体を取得することと、
第2人物識別要求メッセージを前記サーバに送信することであって、前記第2人物識別要求メッセージは、前記第3人体の画像情報および前記第3人体の追跡識別子情報を含むこととをさらに含む、
請求項1ないし18のいずれか一項に記載の画像処理方法。 - 前記第1画像を処理して、前記第1画像内の第1顔を取得する前に、
ビデオシーケンスに含まれる、連続するプリセットの数の画像から前記第1画像を選択することをさらに含む、
請求項1ないし19のいずれか一項に記載の画像処理方法。 - 前記ビデオシーケンスに含まれる、連続するプリセットの数の画像から前記第1画像を選択することは、画像に含まれる顔の品質に基づいて、前記ビデオシーケンスに含まれる、連続するプリセットの数の画像から前記第1画像を選択することを含む、
請求項20に記載の画像処理方法。 - 画像処理方法であって、
第1端末機器によって送信された人物識別要求メッセージを受信することであって、前記人物識別要求メッセージは第1人体の画像情報を含むことと、
前記第1人体の画像情報に基づいて、前記第1人体が属する人物の人物識別子情報を決定することとを含む、前記画像処理方法。 - 前記第1人体の画像情報は、前記第1人体の画像を含み、および/または、
前記第1人体の画像情報は、前記第1人体の画像の特徴情報を含み、前記第1人体の画像の特徴情報は、人体の特徴情報および顔の特徴情報のうちの少なくとも1つを含む、
請求項22に記載の画像処理方法。 - 前記第1人体の画像情報に基づいて、前記第1人体が属する人物の人物識別子情報を決定することは、
前記第1人体の画像情報に基づいて、前記第1人体に含まれる第1顔の画像情報を取得することと、
前記第1顔の画像情報および顔テンプレートデータベースに基づいて、前記第1人体が属する人物の人物識別子情報を決定することであって、前記顔テンプレートデータベースは、少なくとも1つの顔テンプレートを記憶することとを含む、
請求項22または23に記載の画像処理方法。 - 前記第1人体の画像情報に基づいて、前記第1人体に含まれる第1顔の画像情報を取得することは、
前記第1人体の画像から第1顔の画像を取得することを含む、
請求項24に記載の画像処理方法。 - 前記第1顔の画像情報および顔テンプレートデータベースに基づいて、前記第1人体が属する人物の人物識別子情報を決定することは、
前記第1顔の画像に対して特徴抽出処理を実行して、前記第1顔の特徴情報を取得することと、
前記顔テンプレートデータベースに、前記第1顔の特徴情報とマッチングする顔テンプレートが存在するかどうかを決定することと、
前記決定された結果に基づいて、前記第1人体が属する人物の人物識別子情報を取得することとを含む、
請求項24または25に記載の画像処理方法。 - 前記決定された結果に基づいて、前記第1人体が属する人物の人物識別子情報を取得することは、前記顔テンプレートデータベースに、前記第1顔の特徴情報とマッチングする顔テンプレートが存在することに応答して、前記マッチングする顔テンプレートに対応する人物識別子情報を前記第1人体が属する人物の人物識別子情報として決定することを含む、
請求項26に記載の画像処理方法。 - 前記決定された結果に基づいて、前記第1人体が属する人物の人物識別子情報を取得することは、前記顔テンプレートデータベースに、前記第1顔の特徴情報とマッチングする顔テンプレートが存在しないことに応答して、新しく追加された人物識別子情報を前記第1人体が属する人物の人物識別子情報として決定することを含む、
請求項26または27に記載の画像処理方法。 - 前記新しく追加された人物識別子情報および前記第1顔の情報を新しい顔テンプレートとして前記顔テンプレートデータベースに追加することをさらに含む、
請求項28に記載の画像処理方法。 - 前記人物識別要求メッセージは、前記第1人体の第1顔の検出フレーム識別子情報または追跡識別子情報をさらに含む、
請求項22ないし29のいずれか一項に記載の画像処理方法。 - 前記第1人体の画像情報に基づいて、前記第1人体が属する人物の人物識別子情報を決定することは、
前記第1人体の画像情報に基づいて、前記第1人体の人体識別子情報を決定することと、
前記第1人体の人体識別子情報に基づいて、前記第1人体が属する人物の人物識別子情報を決定することとを含む、
請求項22ないし30のいずれか一項に記載の画像処理方法。 - 前記第1人体の画像情報に基づいて、前記第1人体の人体識別子情報を決定することは、
前記第1人体の画像に対して特徴抽出を実行して、前記第1人体の特徴情報を取得することと、
人体テンプレートデータベースに、前記第1人体の特徴情報とマッチングする人体テンプレートが存在するかどうかを決定することであって、前記人体テンプレートデータベースは、少なくとも1つの人体テンプレートを記憶することと、
前記決定された結果に基づいて、前記第1人体の人体識別子情報を取得することとを含む、
請求項31に記載の画像処理方法。 - 前記決定された結果に基づいて、前記第1人体の人体識別子情報を取得することは、前記人体テンプレートデータベースに、前記第1人体の特徴情報とマッチングする人体テンプレートが存在することに応答して、前記マッチングする人体テンプレートに対応する人体識別子情報を前記第1人体の人体識別子情報として決定することを含む、
請求項32に記載の画像処理方法。 - 前記決定された結果に基づいて、前記第1人体の人体識別子情報を取得することは、前記人体テンプレートデータベースに、前記第1人体の特徴情報とマッチングする人体テンプレートが存在しないことに応答して、追加される人体識別子情報を前記第1人体の人体識別子情報として決定することを含む、
請求項32または33に記載の画像処理方法。 - 前記追加される人体識別子情報および前記第1人体の情報を新しい顔テンプレートとして前記人体テンプレートデータベースに追加することをさらに含む、
請求項34に記載の画像処理方法。 - 前記第1人体の人体識別子情報および前記第1人体が属する人物の人物識別子情報と、前記第1人体が属する人物の人体識別子情報との間の関連関係を関連データベースに追加することをさらに含む、
請求項35に記載の画像処理方法。 - 前記人物識別要求メッセージは、前記第1人体の追跡識別子情報または前記第1人体の検出フレーム識別子情報をさらに含む、
請求項31ないし36のいずれか一項に記載の画像処理方法。 - 前記第1人体の人体識別子情報に基づいて、前記第1人体が属する人物の人物識別子情報を決定することは、
関連データベースに、前記第1人体の人体識別子とマッチングする関連関係が存在するかどうかを決定することであって、前記関連データベースは、人体識別子情報と人物識別子情報との間の少なくとも1つの関連関係を記憶するために使用されることと、
前記決定された結果に基づいて、前記第1人体が属する人物の人物識別子情報を取得することとを含む、
請求項31ないし37のいずれか一項に記載の画像処理方法。 - 前記決定された結果に基づいて、前記第1人体が属する人物の人物識別子情報を取得することは、前記関連データベースに、前記第1人体の人体識別子とマッチングする関連関係が存在することに応答して、前記マッチングする関連関係における人物識別子情報を前記第1人体が属する人物の人物識別子情報として決定することを含む、
請求項38に記載の画像処理方法。 - 前記決定された結果に基づいて、前記第1人体が属する人物の人物識別子情報を取得することは、前記関連データベースに、前記第1人体の人体識別子とマッチングする関連関係が存在しないことに応答して、新しく追加された人物識別子情報を前記第1体が属する人物の人物識別子情報として決定することを含む、
請求項38に記載の画像処理方法。 - 前記第1人体が属する人物の人物識別子情報を第2端末機器に送信することをさらに含む、
請求項31ないし40のいずれか一項に記載の画像処理方法。 - 前記人物識別要求メッセージは、前記第1端末機器がビデオシーケンスのうちの少なくとも1つの画像に対して顔追跡を実行することに基づいて取得される、
請求項22ないし41のいずれか一項に記載の画像処理方法。 - 画像処理装置であって、
第1画像を処理して、前記第1画像内の第1顔を取得するように構成される取得モジュールと、
前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする人体が存在するかどうかを決定するように構成される第1決定モジュールと、
前記決定された結果に従って、第1人物識別要求メッセージをサーバに送信するように構成される送信モジュールとを備える、前記画像処理装置。 - 前記送信モジュールは、
前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする第1人体が存在することに応答して、前記第1人体の画像情報を含む前記第1人物識別要求メッセージを前記サーバに送信するように構成され、前記第1人体の画像情報は、前記サーバが人物識別を実行するために使用される、
請求項43に記載の画像処理装置。 - 前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする第1人体が存在することに応答して、前記第1人体の画質に従って、前記第1人物識別要求メッセージが前記第1人体の画像情報を含むかどうかを決定するように構成される第2決定モジュールをさらに備える、
請求項44に記載の画像処理装置。 - 前記送信モジュールは、前記第1人体の画質が品質要件を満たすことに応答して、前記第1人体の画像情報を含む前記第1人物識別要求メッセージを前記サーバに送信するように構成される、
請求項44または45に記載の画像処理装置。 - 前記品質要件は、顔の鮮明度要件、顔の大きさ要件、顔の角度要件、顔検出の信頼度要件および人体検出の信頼度要件、顔の完全性要件のうちの少なくとも1つを含む、
請求項46に記載の画像処理装置。 - 前記送信モジュールは、前記第1人体の画質が品質要件を満たさないことに応答して、前記第1顔の画像情報を含む前記第1人物識別要求メッセージを前記サーバに送信するように構成され、前記第1顔の画像情報は、前記サーバが人物識別を実行するために使用される、
請求項44ないし47のいずれか一項に記載の画像処理装置。 - 前記第1人体の画像情報は、前記第1人体の画像を含み、および/または、
前記第1人体の画像情報は、前記第1人体の画像の特徴情報を含み、前記第1人体の画像の特徴情報は、人体の特徴情報および顔の特徴情報のうちの少なくとも1つを含む、
請求項44ないし48のいずれか一項に記載の画像処理装置。 - 前記装置は、前記第1顔の画像情報を前記第1人体の画像情報に置き換えて人物識別を実行することを決定するように構成される第2決定モジュールをさらに備える、
請求項44ないし49のいずれか一項に記載の画像処理装置。 - 前記第1人物識別要求メッセージは、前記第1顔の識別子情報をさらに含む、
請求項43ないし50のいずれか一項に記載の画像処理装置。 - 前記送信モジュールは、前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする人体が存在しないことに応答して、前記第1顔の画像情報を含む前記第1人物識別要求メッセージを前記サーバに送信するように構成され、前記第1顔の画像情報は、前記サーバが人物識別を実行するために使用される、
請求項43ないし50のいずれか一項に記載の画像処理装置。 - 前記第1決定モジュールは、
前記第1画像に対応する少なくとも1つの顔および前記少なくとも1つの人体に従って、N個の候補ペアにおける各候補ペアのマッチング確率情報を決定し、前記候補ペアは、前記少なくとも1つの顔のうちの1つの顔および前記少なくとも1つの人体のうちの1つの人体を含み、前記少なくとも1つの顔は前記第1顔を含み、
前記N個の候補ペアにおける各候補ペアのマッチング確率情報に従って、前記少なくとも1つの顔と前記少なくとも1つの人体のターゲットマッチング結果を決定し、
前記ターゲットマッチング結果に基づいて、前記第1画像に対応する少なくとも1つの人体のうち、前記第1顔とマッチングする人体が存在するかどうかを決定するように構成される、
請求項43ないし52のいずれか一項に記載の画像処理装置。 - 前記第1決定モジュールは、
第1候補ペアに含まれる第2人体および前記第1候補ペアに含まれる第2顔に基づいて、目標対象の推定位置情報および実際の位置情報を決定し、前記N個の候補ペアは前記第1候補ペアを含み、前記目標対象は人体の一部であり、
前記目標対象の推定位置情報および前記目標対象の実際の位置情報に基づいて、前記第1候補ペアのマッチング確率情報を決定するように構成される、
請求項53に記載の画像処理装置。 - 前記目標対象は、耳および顔のうちの少なくとも1つを含む、
請求項54に記載の画像処理装置。 - 前記第1決定モジュールは、
前記N個の候補ペアにおける各候補ペアのマッチング確率情報に従って、前記少なくとも1つの顔と前記少なくとも1つの人体の少なくとも1つの候補マッチング結果における各候補マッチング結果のマッチング確率情報を決定し、前記候補マッチング結果は、前記N個の候補ペアにおけるm(1≦m≦N)個の候補ペアを含み、前記m個の候補ペアにおける2つの候補ペアごとに含まれる顔および人体はそれぞれ異なり、
前記少なくとも1つの候補マッチング結果における各候補マッチング結果のマッチング確率情報に基づいて、前記少なくとも1つの候補マッチング結果から、前記少なくとも1つの顔と前記少なくとも1つの人体のターゲットマッチング結果を決定するように構成される、
請求項53ないし55のいずれか一項に記載の画像処理装置。 - 前記第1画像に対して人体検出を実行して、前記第1画像に対応する少なくとも1つの人体を取得するように構成される人体検出モジュールをさらに備える、
請求項43ないし56のいずれか一項に記載の画像処理装置。 - 前記第1画像が属するビデオシーケンスの少なくとも一部の画像に対して人体追跡を実行して、前記ビデオシーケンスの人体追跡結果を取得するように構成される人体追跡モジュールと、
前記第1画像のフレーム番号に基づいて、前記ビデオシーケンスの顔追跡結果から、前記第1画像の人体追跡情報を検索するように構成される追跡情報検索モジュールとをさらに備える、
請求項43ないし57のいずれか一項に記載の画像処理装置。 - 前記ビデオシーケンスの人体追跡結果で前記第1画像の人体追跡情報が見つからなかったことに応答して、前記第1画像に対して人体検出を実行して、前記第1画像に対応する少なくとも1つの人体を取得するように構成される人体検出モジュールをさらに備える、
請求項58に記載の画像処理装置。 - 前記取得モジュールは、前記第1画像に対して顔追跡を実行して、前記第1画像内の第1顔を取得するように構成される、
請求項43ないし59のいずれか一項に記載の画像処理装置。 - 前記装置は、前記第1画像に対して人体追跡を実行して、前記第1画像内の第3人体を取得するように構成される追跡モジュールをさらに備え、前記送信モジュールは、さらに、第2人物識別要求メッセージを前記サーバに送信するように構成され、前記第2人物識別要求メッセージは、前記第3人体の画像情報および前記第3人体の追跡識別子情報を含む、
請求項43ないし60のいずれか一項に記載の画像処理装置。 - 前記装置は、ビデオシーケンスに含まれる、連続するプリセットの数の画像から前記第1画像を選択するように構成される選択モジュールをさらに備える、
請求項43ないし61のいずれか一項に記載の画像処理装置。 - 前記選択モジュールは、画像に含まれる顔の品質に基づいて、前記ビデオシーケンスに含まれる、連続するプリセットの数の画像から前記第1画像を選択するように構成される、
請求項62に記載の画像処理装置。 - 画像処理装置であって、
第1端末機器によって送信された人物識別要求メッセージを受信するように構成される受信モジュールであって、前記人物識別要求メッセージは第1人体の画像情報を含む受信モジュールと、
前記第1人体の画像情報に基づいて、前記第1人体が属する人物の人物識別子情報を決定するように構成される決定モジュールとを備える、前記画像処理装置。 - 前記第1人体の画像情報は、前記第1人体の画像を含み、および/または、
前記第1人体の画像情報は、前記第1人体の画像の特徴情報を含み、前記第1人体の画像の特徴情報は、人体の特徴情報および顔の特徴情報のうちの少なくとも1つを含む、
請求項64に記載の画像処理装置。 - 前記決定モジュールは、
前記第1人体の画像情報に基づいて、前記第1人体に含まれる第1顔の画像情報を取得するように構成される第1決定ユニットと、
前記第1顔の画像情報および顔テンプレートデータベースに基づいて、前記第1人体が属する人物の人物識別子情報を決定するように構成される第2決定ユニットであって、前記顔テンプレートデータベースは、少なくとも1つの顔テンプレートを記憶する第2決定ユニットとを備える、
請求項64または65に記載の画像処理装置。 - 前記第1決定ユニットは、前記第1人体の画像から第1顔の画像を取得するように構成される、
請求項66に記載の画像処理装置。 - 前記第2決定ユニットは、
前記第1顔の画像に対して特徴抽出処理を実行して、前記第1顔の特徴情報を取得し、
前記顔テンプレートデータベースに、前記第1顔の特徴情報とマッチングする顔テンプレートが存在するかどうかを決定し、
前記決定された結果に基づいて、前記第1人体が属する人物の人物識別子情報を取得するように構成される、
請求項66または67に記載の画像処理装置。 - 前記第2決定ユニットは、前記顔テンプレートデータベースに、前記第1顔の特徴情報とマッチングする顔テンプレートが存在することに応答して、前記マッチングする顔テンプレートに対応する人物識別子情報を前記第1人体が属する人物の人物識別子情報として決定するように構成される、
請求項68に記載の画像処理装置。 - 前記第2決定ユニットは、前記顔テンプレートデータベースに、前記第1顔の特徴情報とマッチングする顔テンプレートが存在しないことに応答して、新しく追加された人物識別子情報を前記第1人体が属する人物の人物識別子情報として決定するように構成される、
請求項68または69に記載の画像処理装置。 - 前記新しく追加された人物識別子情報および前記第1顔の情報を新しい顔テンプレートとして前記顔テンプレートデータベースに追加するように構成される第1追加モジュールをさらに備える、
請求項70に記載の画像処理装置。 - 前記人物識別要求メッセージは、前記第1人体の第1顔の検出フレーム識別子情報または追跡識別子情報をさらに含む、
請求項64ないし71のいずれか一項に記載の画像処理装置。 - 前記決定モジュールは、
前記第1人体の画像情報に基づいて、前記第1人体の人体識別子情報を決定するように構成される第3決定ユニットと、
前記第1人体の人体識別子情報に基づいて、前記第1人体が属する人物の人物識別子情報を決定するように構成される第4決定ユニットとをさらに備える、
請求項64ないし72のいずれか一項に記載の画像処理装置。 - 前記第3決定ユニットは、
前記第1人体の画像に対して特徴抽出を実行して、前記第1人体の特徴情報を取得し、
人体テンプレートデータベースに、前記第1人体の特徴情報とマッチングする人体テンプレートが存在するかどうかを決定し、前記人体テンプレートデータベースは、少なくとも1つの人体テンプレートを記憶し、
前記決定された結果に基づいて、前記第1人体の人体識別子情報を取得するように構成される、
請求項73に記載の画像処理方法。 - 前記第3決定ユニットは、前記人体テンプレートデータベースに、前記第1人体の特徴情報とマッチングする人体テンプレートが存在することに応答して、前記マッチングする人体テンプレートに対応する人体識別子情報を前記第1人体の人体識別子情報として決定するように構成される、
請求項74に記載の画像処理装置。 - 前記第3決定ユニットは、前記人体テンプレートデータベースに、前記第1人体の特徴情報とマッチングする人体テンプレートが存在しないことに応答して、新しく追加された人体識別子情報を前記第1人体の人体識別子情報として決定するように構成される、
請求項74に記載の画像処理装置。 - 前記新しく追加された人体識別子情報および前記第1人体の情報を新しい顔テンプレートとして前記人体テンプレートデータベースに追加するように構成される第2追加モジュールをさらに備える、
請求項76に記載の画像処理装置。 - 前記第1人体の人体識別子情報および前記第1人体が属する人物の人物識別子情報と、前記第1人体が属する人物の人体識別子情報との間の関連関係を関連データベースに追加するように構成される第2追加モジュールをさらに備える、
請求項77に記載の画像処理装置。 - 前記人物識別要求メッセージは、前記第1人体の追跡識別子情報または前記第1人体の検出フレーム識別子情報をさらに含む、
請求項73ないし78のいずれか一項に記載の画像処理装置。 - 前記第4決定ユニットは、
関連データベースに、前記第1人体の人体識別子とマッチングする関連関係が存在するかどうかを決定し、前記関連データベースは、人体識別子情報と人物識別子情報との間の少なくとも1つの関連関係を記憶するために使用され、
前記決定された結果に基づいて、前記第1人体が属する人物の人物識別子情報を取得するように構成される、
請求項73ないし79のいずれか一項に記載の画像処理装置。 - 前記第4決定ユニットは、前記関連データベースに、前記第1人体の人体識別子とマッチングする関連関係が存在することに応答して、前記マッチングする関連関係における人物識別子情報を前記第1人体が属する人物の人物識別子情報として決定するように構成される、
請求項80に記載の画像処理装置。 - 前記第4決定ユニットは、前記関連データベースに、前記第1人体の人体識別子とマッチングする関連関係が存在しないことに応答して、新しく追加された人物識別子情報を前記第1人体が属する人物の人物識別子情報として決定するように構成される、
請求項80に記載の画像処理装置。 - 前記第1人体が属する人物の人物識別子情報を第2端末機器に送信するように構成される送信モジュールをさらに備える、
請求項73ないし82のいずれか一項に記載の画像処理装置。 - 前記人物識別要求メッセージは、前記第1端末機器がビデオシーケンスのうちの少なくとも1つの画像に対して顔追跡を実行することに基づいて取得される、
請求項73ないし83のいずれか一項に記載の画像処理装置。 - 端末機器であって、
プログラム命令を記憶するように構成されるメモリと、前記メモリ内のプログラム命令を呼び出して実行して、請求項1ないし21のいずれか一項に記載の方法のステップを実行するように構成されるプロセッサとを備える、前記端末機器。 - サーバであって、
プログラム命令を記憶するように構成されるメモリと、前記メモリ内のプログラム命令を呼び出して実行して、請求項22ないし42のいずれか一項に記載の方法のステップを実行するように構成されるプロセッサとを備える、前記サーバ。 - 画像処理システムであって、
請求項85に記載の端末機器および請求項86に記載のサーバを含む、前記画像処理システム。 - 読み取り可能な記憶媒体であって、
コンピュータプログラムが記憶され、前記コンピュータプログラムは、請求項1ないし21のいずれか一項に記載の方法または請求項22ないし42のいずれか一項に記載の方法を実行するように構成される、前記読み取り可能な記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811051583.5A CN110889314B (zh) | 2018-09-10 | 2018-09-10 | 图像处理方法、装置、电子设备、服务器及系统 |
CN201811051583.5 | 2018-09-10 | ||
PCT/CN2019/088432 WO2020052275A1 (zh) | 2018-09-10 | 2019-05-24 | 图像处理方法、装置、终端设备、服务器及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021520015A true JP2021520015A (ja) | 2021-08-12 |
Family
ID=69745170
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021508057A Pending JP2021520015A (ja) | 2018-09-10 | 2019-05-24 | 画像処理方法、装置、端末機器、サーバおよびシステム |
Country Status (7)
Country | Link |
---|---|
US (1) | US20210049390A1 (ja) |
JP (1) | JP2021520015A (ja) |
KR (1) | KR20200136034A (ja) |
CN (1) | CN110889314B (ja) |
PH (1) | PH12020551800A1 (ja) |
SG (1) | SG11202010672YA (ja) |
WO (1) | WO2020052275A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111967370B (zh) * | 2020-08-12 | 2021-12-07 | 广州小鹏自动驾驶科技有限公司 | 一种交通灯识别的方法和装置 |
CN113544701B (zh) * | 2020-12-29 | 2024-06-14 | 商汤国际私人有限公司 | 关联对象的检测方法及装置、电子设备及存储介质 |
CN112784760B (zh) * | 2021-01-25 | 2024-04-12 | 北京百度网讯科技有限公司 | 人体行为识别方法、装置、设备以及存储介质 |
CN113283305B (zh) * | 2021-04-29 | 2024-03-26 | 百度在线网络技术(北京)有限公司 | 人脸识别方法、装置、电子设备及计算机可读存储介质 |
CN114694184B (zh) * | 2022-05-27 | 2022-10-14 | 电子科技大学 | 一种基于多模板特征更新的行人重识别方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012127630A1 (ja) * | 2011-03-22 | 2012-09-27 | 富士通株式会社 | 生体認証システム、生体認証方法及び生体認証プログラム |
CN103210332A (zh) * | 2011-04-18 | 2013-07-17 | 松下电器产业株式会社 | 摄像装置、摄像装置的对焦控制方法及集成电路 |
JP2014120139A (ja) * | 2012-12-19 | 2014-06-30 | Canon Inc | 画像処理装置およびその制御方法、撮像装置、および表示装置 |
JP2014232453A (ja) * | 2013-05-29 | 2014-12-11 | 富士通株式会社 | 認証装置、認証方法および認証プログラム |
JP2015095164A (ja) * | 2013-11-13 | 2015-05-18 | オムロン株式会社 | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 |
JP2016051482A (ja) * | 2014-08-28 | 2016-04-11 | ケビン・アラン・チューシーKevin Alan Tussy | 認証システムにおいてユーザを登録および認証するための方法、顔認証システム、ならびに認証システムにおいてユーザを認証するための方法 |
CN106991395A (zh) * | 2017-03-31 | 2017-07-28 | 联想(北京)有限公司 | 信息处理方法、装置及电子设备 |
JP2018088049A (ja) * | 2016-11-28 | 2018-06-07 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008158679A (ja) * | 2006-12-21 | 2008-07-10 | Toshiba Corp | 人物認証システムおよび人物認証方法 |
JP5841030B2 (ja) * | 2012-09-18 | 2016-01-06 | ビッグローブ株式会社 | 辞書更新方法、辞書更新システム、及び辞書更新プログラム |
CN106412491A (zh) * | 2015-07-30 | 2017-02-15 | 中兴通讯股份有限公司 | 视频监控方法、装置及系统 |
CN105426833A (zh) * | 2015-11-13 | 2016-03-23 | 小米科技有限责任公司 | 用于游戏的图像识别方法及装置 |
CN108230252B (zh) * | 2017-01-24 | 2022-02-01 | 深圳市商汤科技有限公司 | 图像处理方法、装置以及电子设备 |
CN106845432B (zh) * | 2017-02-07 | 2019-09-17 | 深圳市深网视界科技有限公司 | 一种人脸与人体共同检测的方法和设备 |
CN107644204B (zh) * | 2017-09-12 | 2020-11-10 | 南京凌深信息科技有限公司 | 一种用于安防系统的人体识别与跟踪方法 |
CN107680188A (zh) * | 2017-09-30 | 2018-02-09 | 四川民工加网络科技有限公司 | 一种建筑工地基于图像识别的考勤登记方法及系统 |
CN108280399A (zh) * | 2017-12-27 | 2018-07-13 | 武汉普利商用机器有限公司 | 一种场景自适应人脸识别方法 |
-
2018
- 2018-09-10 CN CN201811051583.5A patent/CN110889314B/zh active Active
-
2019
- 2019-05-24 JP JP2021508057A patent/JP2021520015A/ja active Pending
- 2019-05-24 KR KR1020207031431A patent/KR20200136034A/ko not_active Application Discontinuation
- 2019-05-24 WO PCT/CN2019/088432 patent/WO2020052275A1/zh active Application Filing
- 2019-05-24 SG SG11202010672YA patent/SG11202010672YA/en unknown
-
2020
- 2020-10-26 US US17/080,211 patent/US20210049390A1/en not_active Abandoned
- 2020-10-28 PH PH12020551800A patent/PH12020551800A1/en unknown
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012127630A1 (ja) * | 2011-03-22 | 2012-09-27 | 富士通株式会社 | 生体認証システム、生体認証方法及び生体認証プログラム |
CN103210332A (zh) * | 2011-04-18 | 2013-07-17 | 松下电器产业株式会社 | 摄像装置、摄像装置的对焦控制方法及集成电路 |
JP2014120139A (ja) * | 2012-12-19 | 2014-06-30 | Canon Inc | 画像処理装置およびその制御方法、撮像装置、および表示装置 |
JP2014232453A (ja) * | 2013-05-29 | 2014-12-11 | 富士通株式会社 | 認証装置、認証方法および認証プログラム |
JP2015095164A (ja) * | 2013-11-13 | 2015-05-18 | オムロン株式会社 | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 |
JP2016051482A (ja) * | 2014-08-28 | 2016-04-11 | ケビン・アラン・チューシーKevin Alan Tussy | 認証システムにおいてユーザを登録および認証するための方法、顔認証システム、ならびに認証システムにおいてユーザを認証するための方法 |
JP2018088049A (ja) * | 2016-11-28 | 2018-06-07 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
CN106991395A (zh) * | 2017-03-31 | 2017-07-28 | 联想(北京)有限公司 | 信息处理方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
KR20200136034A (ko) | 2020-12-04 |
SG11202010672YA (en) | 2020-11-27 |
CN110889314A (zh) | 2020-03-17 |
WO2020052275A1 (zh) | 2020-03-19 |
PH12020551800A1 (en) | 2021-06-14 |
US20210049390A1 (en) | 2021-02-18 |
CN110889314B (zh) | 2022-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021520015A (ja) | 画像処理方法、装置、端末機器、サーバおよびシステム | |
CN105404860B (zh) | 用于管理走失人员信息的方法和设备 | |
WO2019218824A1 (zh) | 一种移动轨迹获取方法及其设备、存储介质、终端 | |
US11443551B2 (en) | Facial recognitions based on contextual information | |
CN110825765B (zh) | 一种人脸识别的方法和装置 | |
US20170300744A1 (en) | Method and apparatus for determining identity identifier of face in face image, and terminal | |
US8130285B2 (en) | Automated searching for probable matches in a video surveillance system | |
KR20200098875A (ko) | 3d 얼굴인식 시스템 및 방법 | |
WO2018116488A1 (ja) | 解析サーバ、監視システム、監視方法及びプログラム | |
US20130169853A1 (en) | Method and system for establishing autofocus based on priority | |
CN111353336B (zh) | 图像处理方法、装置及设备 | |
KR20220076398A (ko) | Ar장치를 위한 객체 인식 처리 장치 및 방법 | |
CN109902681B (zh) | 用户群体关系确定方法、装置、设备及存储介质 | |
CN110969644A (zh) | 人员轨迹追踪方法、装置及系统 | |
CN111241932A (zh) | 汽车展厅客流检测与分析系统、方法及存储介质 | |
CN110889315B (zh) | 图像处理方法、装置、电子设备及系统 | |
JP2021515321A (ja) | メディア処理方法、その関連装置及びコンピュータプログラム | |
CN111191506A (zh) | 人员流量统计方法、装置、计算机设备和存储介质 | |
CN111881740A (zh) | 人脸识别方法、装置、电子设备及介质 | |
CN103609098A (zh) | 使用基于面部辨认的识别系统在远程呈现系统中注册 | |
CN113313062A (zh) | 路径获取方法、装置、系统、电子设备及存储介质 | |
WO2022089220A1 (zh) | 图像数据处理方法、装置、设备、存储介质及产品 | |
CN115359542A (zh) | 基于人脸识别和行人重识别的人员身份确定方法及系统 | |
CN112333182B (zh) | 档案处理方法、装置、服务器及存储介质 | |
CN113642519A (zh) | 一种人脸识别系统和人脸识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201028 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220307 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220713 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230222 |