JP2022518469A - 情報処理方法および装置、記憶媒体 - Google Patents
情報処理方法および装置、記憶媒体 Download PDFInfo
- Publication number
- JP2022518469A JP2022518469A JP2021541619A JP2021541619A JP2022518469A JP 2022518469 A JP2022518469 A JP 2022518469A JP 2021541619 A JP2021541619 A JP 2021541619A JP 2021541619 A JP2021541619 A JP 2021541619A JP 2022518469 A JP2022518469 A JP 2022518469A
- Authority
- JP
- Japan
- Prior art keywords
- companion
- image
- database
- image data
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/535—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/587—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/768—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/30—Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
- G06V40/173—Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Library & Information Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Geometry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
Abstract
Description
第1入力情報を取得することであって、前記第1入力情報は、少なくともターゲットオブジェクトを含む画像を含む、ことと、
前記第1入力情報に基づいて、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたスナップ画像を取得することであって、前記ターゲット時点は、前記画像収集装置が前記ターゲットオブジェクトをスナップする時点である、ことと、
前記スナップ画像から前記ターゲットオブジェクトの同行者を決定することと、
集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することであって、前記集約プロファイルデータ内の同一人は、唯一のプロファイルに対応する、ことと、を含む。
集約プロファイルデータに基づいて、全ての同行者の関連情報を決定することを含み、
ここで、同行者の関連情報は、
未実名の同行者の場合、少なくともシステムの第1データベース内の前記同行者の各スナップ画像を含み、
実名の同行者の場合、少なくともシステムの第2データベース内の画像情報とテキスト情報を含む。
全ての同行者と前記ターゲットオブジェクトとの同行回数を決定することと、
前記同行回数に基づいて前記全ての同行者を並べ替えて、同行者シーケンスを取得することと、をさらに含む。
前記同行者シーケンスから第1同行者を決定することと、
前記ターゲットオブジェクトと前記第1同行者との全ての同行記録を決定することと、をさらに含み、
ここで、前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記第1同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む。
前記同行者シーケンスに基づいて、K(Kは正整数である)個の同行者を決定することと、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録を決定することと、をさらに含み、
ここで、前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記K個の同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む。
指定された画像収集装置によって収集された指定ビデオストリームを取得することと、
前記全ての同行記録から、前記指定ビデオストリーム内の前記ターゲットオブジェクトと前記K個の同行者の同行記録を検索することと、をさらに含む。
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録に基づいて、各画像収集装置の前記K個の同行者のスナップ回数を統計することをさらに含む。
第1データベース内の画像データに対してクラスタリング処理を実行して、クラスタリング処理結果を取得することであって、前記第1データベースは、画像収集装置によってスナップされたポートレート画像に基づいて形成される、ことと、
第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得することであって、前記第2データベースは、実名の画像情報に基づいて形成される、ことと、
前記クラスタリング処理結果と前記集約処理結果を関連分析して、集約プロファイルデータを取得することと、をさらに含む。
前記第1データベース内の画像データから顔画像データを抽出することと、
前記顔画像データを複数のクラスに分けることと、を含み、前記複数のクラスの各クラスは1つのクラス中心を有し、前記クラス中心はクラス中心特徴値を含む。
身分証明書番号が同じである画像データを1つの画像ライブラリに集約することと、
前記画像ライブラリと前記身分証明書番号に対応するテキスト情報との間の関連関係を確立して、集約処理結果を取得することと、を含み、前記集約処理結果の各身分証明書番号は、唯一のアーカイブデータに対応する。
前記第1データベース内の各クラス中心特徴値と前記第2データベース内の各参照クラス中心特徴値とを全量比較して、全量比較結果を取得することと、
前記全量比較結果に基づいて、類似度が最も高い且つ類似度がプリセットされた閾値より大きいターゲット参照クラス中心特徴値を決定することと、
前記第2データベースから、前記ターゲット参照クラス中心特徴値に対応するターゲットポートレートおよび前記ターゲットポートレートに対応する身分情報を検索することと、
前記ターゲットポートレートに対応する身分情報と前記第1データベース内のクラス中心特徴値に対応する画像との間の関連関係を確立することと、を含む。
前記第1データベースに画像データを追加する場合、新しく追加された画像データに対してクラスタリング処理を実行し、前記新しく追加された画像データ内の顔画像データを複数のクラスに分け、前記第1データベースから、前記複数のクラスと同じクラスがあるか否かを検索し、前記複数のクラスのうちの第1クラスと同じクラスがある場合、前記第1クラスの画像データを前記第1クラスの既存のプロファイルにマージし、前記複数のクラスのうちの第2クラスと同じクラスがない場合、前記第2クラスに基づいて新しいプロファイルを作成して、前記第1データベースに追加することをさらに含む。
前記第2データベースに画像データを追加する場合、前記第2データベースから、新しく追加された前記画像データと同じ身分証明書番号があるか否かを検索し、前記画像データのうちの第1画像データと同じ第1身分証明書番号がある場合、前記第1画像データを前記第1身分証明書番号に対応する既存のプロファイルにマージし、前記画像データのうちの第2画像データと同じ第2身分証明書番号がない場合、前記第2画像データの第2身分証明書番号に基づいて新しいプロファイルを作成して、前記第2データベースに追加することをさらに含む。
第1入力情報を取得するように構成される第1取得モジュールであって、前記第1入力情報は、少なくともターゲットオブジェクトを含む画像を含む、第1取得モジュールと、
前記第1入力情報に基づいて、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたスナップ画像を取得するように構成される第2取得モジュールであって、前記ターゲット時点は、前記画像収集装置が前記ターゲットオブジェクトをスナップする時点である、第2取得モジュールと、
前記スナップ画像から前記ターゲットオブジェクトの同行者を決定するように構成される決定モジュールと、
集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得するように構成される処理モジュールであって、前記集約プロファイルデータ内の同一人は、唯一のプロファイルに対応する、処理モジュールと、を備える。
集約プロファイルデータに基づいて、全ての同行者の関連情報を決定するように構成され、
ここで、同行者の関連情報は、
未実名の同行者の場合、少なくともシステムの第1データベース内の前記同行者の各スナップ画像を含む、
実名の同行者の場合、少なくともシステムの第2データベース内の画像情報とテキスト情報を含む。
全ての同行者と前記ターゲットオブジェクトとの同行回数を決定し、
前記同行回数に基づいて前記全ての同行者を並べ替えて、同行者シーケンスを取得するように構成される。
前記同行者シーケンスから第1同行者を決定し、
前記ターゲットオブジェクトと前記第1同行者との全ての同行記録を決定するように構成され、
ここで、前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記第1同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む。
前記同行者シーケンスに基づいて、K(Kは正整数である)個の同行者を決定し、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録を決定するように構成され、
ここで、前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記K個の同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む。
指定された画像収集装置によって収集された指定ビデオストリームを取得し、
前記全ての同行記録から、前記指定ビデオストリーム内の前記ターゲットオブジェクトと前記K個の同行者の同行記録を検索するように構成される。
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録に基づいて、各画像収集装置の前記K個の同行者のスナップ回数を統計するように構成される。
プロファイル作成モジュールを備え、前記プロファイル作成モジュールは、
第1データベース内の画像データに対してクラスタリング処理を実行して、クラスタリング処理結果を取得し、ここで、前記第1データベースは、画像収集装置によってスナップされたポートレート画像に基づいて形成され、
第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得し、ここで、前記第2データベースは、実名の画像情報に基づいて形成され、
前記クラスタリング処理結果と前記集約処理結果を関連分析して、集約プロファイルデータを取得するように構成される。
前記第1データベース内の画像データから顔画像データを抽出し、
前記顔画像データを複数のクラスに分けるように構成され、前記複数のクラスの各クラスは1つのクラス中心を有し、前記クラス中心はクラス中心特徴値を含む。
身分証明書番号が同じである画像データを1つの画像ライブラリに集約し、
前記画像ライブラリと前記身分証明書番号に対応するテキスト情報との間の関連関係を確立して、集約処理結果を取得するように構成され、前記集約処理結果の各身分証明書番号は、唯一のプロファイルデータに対応する。
前記第1データベース内の各クラス中心特徴値と前記第2データベース内の各参照クラス中心特徴値とを全量比較して、全量比較結果を取得し、
前記全量比較結果に基づいて、類似度が最も高い且つ類似度がプリセットされた閾値より大きいターゲット参照クラス中心特徴値を決定し、
前記第2データベースから、前記ターゲット参照クラス中心特徴値に対応するターゲットポートレートおよび前記ターゲットポートレートに対応する身分情報を検索し、
前記ターゲットポートレートに対応する身分情報と前記第1データベース内のクラス中心特徴値に対応する画像との間の関連関係を確立するように構成される。
前記第1データベースに画像データを追加する場合、新しく追加された画像データに対してクラスタリング処理を実行し、前記新しく追加された画像データ内の顔画像データを複数のクラスに分け、前記第1データベースから、前記複数のクラスと同じクラスがあるか否かを検索し、前記複数のクラスのうちの第1クラスと同じクラスがある場合、前記第1クラスの画像データを前記第1クラスの既存のプロファイルにマージし、前記複数のクラスのうちの第2クラスと同じクラスがない場合、前記第2クラスに基づいて新しいプロファイルを作成して、前記第1データベースに追加するように構成される。
前記第2データベースに画像データを追加する場合、前記第2データベースから、新しく追加された前記画像データと同じ身分証明書番号があるか否かを検索し、前記画像データのうちの第1画像データと同じ第1身分証明書番号がある場合、前記第1画像データを前記第1身分証明書番号に対応する既存のプロファイルにマージし、前記画像データのうちの第2画像データと同じ第2身分証明書番号がない場合、前記第2画像データの第2身分証明書番号に基づいて新しいプロファイルを作成して、前記第2データベースに追加するように構成される。
時間情報、空間情報、および画像収集装置の識別情報のうちの少なくとも1つを含む。
前記第1入力情報に基づいて、1つまたは複数の画像収集装置を決定することと、
前記1つまたは複数の画像収集装置によって収集された画像またはビデオを取得することと、
前記画像またはビデオから、前記ターゲットオブジェクトを含むターゲット画像を決定することと、
前記ターゲット画像を基準とし、前記画像またはビデオから、ターゲット時点の前後N秒間に、前記ターゲット画像を収集した画像収集装置によってスナップされた画像を検索することと、を含む。
スナップ画像に現れる、ターゲットオブジェクト以外の人物を決定することと、
前記ターゲットオブジェクト以外の人物を、ターゲットオブジェクトの同行者として決定することと、を含む。
集約プロファイルデータに基づいて、全ての同行者の関連情報を決定することを含み、
ここで、同行者の関連情報は、
未実名の同行者の場合、少なくとも第1データベース内の前記同行者の各スナップ画像を含み、
実名の同行者の場合、少なくとも第2データベース内の画像情報とテキスト情報を含む。
全ての同行者と前記ターゲットオブジェクトとの同行回数を決定することと、
前記同行回数に基づいて前記全ての同行者を並べ替えて、同行者シーケンスを取得することと、をさらに含む。
前記同行者シーケンスから第1同行者を決定することと、
前記ターゲットオブジェクトと前記第1同行者との全ての同行記録を決定することと、をさらに含み、
ここで、前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記第1同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む。
前記同行者シーケンスに基づいて、K(Kは正整数である)個の同行者を決定することと、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録を決定することと、をさらに含み、
ここで、前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記K個の同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む。
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録に基づいて、各画像収集装置の前記K個の同行者のスナップ回数を統計することをさらに含む。
指定された画像収集装置によって収集された指定ビデオストリームを取得することと、
前記全ての同行記録から、前記指定ビデオストリーム内の前記ターゲットオブジェクトと前記K個の同行者の同行記録を検索することと、をさらに含む。
ステップ100(図1に図示せず)において、クラスタリング分析に基づいて集約プロファイルデータを確立する。
第1データベース内の画像データに対してクラスタリング処理を実行して、クラスタリング処理結果を取得することであって、前記第1データベースは、画像収集装置によってスナップされたポートレート画像に基づいて形成される、ことと、
第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得することであって、前記第2データベースは、実名の画像情報に基づいて形成される、ことと、
前記クラスタリング処理結果と前記集約処理結果を関連分析して、集約プロファイルデータを取得することと、を含む。
前記第1データベース内の画像データから顔画像データを抽出することと、
前記顔画像データを複数のクラスに分けることと、を含み、前記複数のクラスの各クラスは1つのクラス中心を有し、前記クラス中心はクラス中心特徴値を含む。
身分証明書番号が同じである画像データを1つの画像ライブラリに集約することと、
前記画像ライブラリと前記身分証明書番号に対応するテキスト情報との間の関連関係を確立して、集約処理結果を取得することと、を含み、前記集約処理結果の各身分証明書番号は、唯一のプロファイルデータに対応する。
第1データベース内の各クラス中心特徴値と第2データベース内の各参照クラス中心特徴値とを全量比較して、全量比較結果を取得することと、
前記全量比較結果に基づいて、類似度が最も高い且つ類似度がプリセットされた閾値より大きいターゲット参照クラス中心特徴値を決定することと、
前記第2データベースから、前記ターゲット参照クラス中心特徴値に対応するターゲットポートレートおよび前記ターゲットポートレートに対応する身分情報を検索することと、
前記ターゲットポートレートに対応する身分情報と前記第1データベース内のクラス中心特徴値に対応する画像との間の関連関係を確立することと、を含む。
前記第1データベースに画像データを追加する場合、新しく追加された画像データに対してクラスタリング処理を実行し、前記新しく追加された画像データ内の顔画像データを複数のクラスに分け、前記第1データベースから、前記複数のクラスと同じクラスがあるか否かを検索し、前記複数のクラスのうちの第1クラスと同じクラスがある場合、前記第1クラスの画像データを前記第1クラスの既存のプロファイルにマージし、前記複数のクラスのうちの第2クラスと同じクラスがない場合、前記第2クラスに基づいて新しいプロファイルを作成して、前記第1データベースに追加することをさらに含む。
前記第2データベースに画像データを追加する場合、前記第2データベースから、新しく追加された前記画像データと同じ身分証明書番号があるか否かを検索し、前記画像データのうちの第1画像データと同じ第1身分証明書番号がある場合、前記第1画像データを前記第1身分証明書番号に対応する既存のプロファイルにマージし、前記画像データのうちの第2画像データと同じ第2身分証明書番号がない場合、前記第2画像データの第2身分証明書番号に基づいて新しいプロファイルを作成して、前記第2データベースに追加することをさらに含む。
第1入力情報を取得するように構成される第1取得モジュール10であって、前記第1入力情報は、少なくともターゲットオブジェクトを含む画像を含む、第1取得モジュール10と、
前記第1入力情報に基づいて、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたスナップ画像を取得するように構成される第2取得モジュール20であって、前記ターゲット時点は、前記画像収集装置が前記ターゲットオブジェクトをスナップする時点である、第2取得モジュール20と、
前記スナップ画像から前記ターゲットオブジェクトの同行者を決定するように構成される決定モジュール30と、
集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得するように構成される処理モジュール40であって、前記集約プロファイルデータ内の同一人は、唯一のプロファイルに対応する、処理モジュール40と、を備える。
集約プロファイルデータに基づいて、全ての同行者の関連情報を決定するように構成され、
ここで、同行者の関連情報は、
未実名の同行者の場合、少なくともシステムの第1データベース内の前記同行者の各スナップ画像を含み、
実名の同行者の場合、少なくともシステムの第2データベース内の画像情報とテキスト情報を含む。
全ての同行者と前記ターゲットオブジェクトとの同行回数を決定し、
前記同行回数に基づいて前記全ての同行者を並べ替えて、同行者シーケンスを取得するように構成される。
前記同行者シーケンスから第1同行者を決定し、
前記ターゲットオブジェクトと前記第1同行者との全ての同行記録を決定するように構成され、
ここで、前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記第1同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む。
前記同行者シーケンスに基づいて、K(Kは正整数である)個の同行者を決定し、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録を決定するように構成され、
ここで、前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記K個の同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む。
指定された画像収集装置によって収集された指定ビデオストリームを取得し、
前記全ての同行記録から、前記指定ビデオストリーム内の前記ターゲットオブジェクトと前記K個の同行者の同行記録を検索するように構成される。
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録に基づいて、各画像収集装置の前記K個の同行者のスナップ回数を統計するように構成される。
プロファイル作成モジュール50を備え、前記プロファイル作成モジュール50は、
第1データベース内の画像データに対してクラスタリング処理を実行して、クラスタリング処理結果を取得し、ここで、前記第1データベースは、画像収集装置によってスナップされたポートレート画像に基づいて形成され、
第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得し、ここで、前記第2データベースは、実名の画像情報に基づいて形成され、
前記クラスタリング処理結果と前記集約処理結果を関連分析して、集約プロファイルデータを取得するように構成される。
前記第1データベース内の画像データから顔画像データを抽出し、
前記顔画像データを複数のクラスに分けるように構成され、前記複数のクラスの各クラスは1つのクラス中心を有し、前記クラス中心はクラス中心特徴値を含む。
身分証明書番号が同じである画像データを1つの画像ライブラリに集約し、
前記画像ライブラリと前記身分証明書番号に対応するテキスト情報との間の関連関係を確立して、集約処理結果を取得するように構成され、前記集約処理結果の各身分証明書番号は、唯一のプロファイルデータに対応する。
第1データベース内の各クラス中心特徴値と第2データベース内の各参照クラス中心特徴値とを全量比較して、全量比較結果を取得し、
前記全量比較結果に基づいて、類似度が最も高い且つ類似度がプリセットされた閾値より大きいターゲット参照クラス中心特徴値を決定し、
前記第2データベースから、前記ターゲット参照クラス中心特徴値に対応するターゲットポートレートおよび前記ターゲットポートレートに対応する身分情報を検索し、
前記ターゲットポートレートに対応する身分情報と前記第1データベース内のクラス中心特徴値に対応する画像との間の関連関係を確立するように構成される。
前記第1データベースに画像データを追加する場合、新しく追加された画像データに対してクラスタリング処理を実行し、前記新しく追加された画像データ内の顔画像データを複数のクラスに分け、前記第1データベースから、前記複数のクラスと同じクラスがあるか否かを検索し、前記複数のクラスのうちの第1クラスと同じクラスがある場合、前記第1クラスの画像データを前記第1クラスの既存のプロファイルにマージし、前記複数のクラスのうちの第2クラスと同じクラスがない場合、前記第2クラスに基づいて新しいプロファイルを作成して、前記第1データベースに追加するように構成される。
前記第2データベースに画像データを追加する場合、前記第2データベースから、新しく追加された前記画像データと同じ身分証明書番号があるか否かを検索し、前記画像データのうちの第1画像データと同じ第1身分証明書番号がある場合、前記第1画像データを前記第1身分証明書番号に対応する既存のプロファイルにマージし、前記画像データのうちの第2画像データと同じ第2身分証明書番号がない場合、前記第2画像データの第2身分証明書番号に基づいて新しいプロファイルを作成して、前記第2データベースに追加するように構成される。
第1入力情報を取得することであって、前記第1入力情報は、少なくともターゲットオブジェクトを含む画像を含む、ことと、
前記第1入力情報に基づいて、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたスナップ画像を取得することであって、前記ターゲット時点は、前記画像収集装置が前記ターゲットオブジェクトをスナップする時点である、ことと、
前記スナップ画像から前記ターゲットオブジェクトの同行者を決定することと、
集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することであって、前記集約プロファイルデータ内の同一人は、唯一のプロファイルに対応する、ことと、を実現する。
集約プロファイルデータに基づいて、全ての同行者の関連情報を決定することを実現し、
ここで、同行者の関連情報は、
未実名の同行者の場合、少なくともシステムの第1データベース内の前記同行者の各スナップ画像を含み、
実名の同行者の場合、少なくともシステムの第2データベース内の画像情報とテキスト情報を含む。
全ての同行者と前記ターゲットオブジェクトとの同行回数を決定することと、
前記同行回数に基づいて前記全ての同行者を並べ替えて、同行者シーケンスを取得することと、を実現する。
前記同行者シーケンスから第1同行者を決定することと、
前記ターゲットオブジェクトと前記第1同行者との全ての同行記録を決定することと、を実現し、
ここで、前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記第1同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む。
前記同行者シーケンスに基づいて、K(Kは正整数である)個の同行者を決定することと、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録を決定することと、を実現し、
ここで、前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記K個の同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む。
指定された画像収集装置によって収集された指定ビデオストリームを取得することと、
前記全ての同行記録から、前記指定ビデオストリーム内の前記ターゲットオブジェクトと前記K個の同行者の同行記録を検索することと、を実現する。
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録に基づいて、各画像収集装置の前記K個の同行者のスナップ回数を統計することを実現する。
第1データベース内の画像データに対してクラスタリング処理を実行して、クラスタリング処理結果を取得することであって、ここで、前記第1データベースは、画像収集装置によってスナップされたポートレート画像に基づいて形成される、ことと、
第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得することであって、ここで、前記第2データベースは、実名の画像情報に基づいて形成される、ことと、
前記クラスタリング処理結果と前記集約処理結果を関連分析して、集約プロファイルデータを取得することと、を実現する。
前記第1データベース内の画像データから顔画像データを抽出することと、
前記顔画像データを複数のクラスに分けることと、を実現し、前記複数のクラスの各クラスは1つのクラス中心を有し、前記クラス中心はクラス中心特徴値を含む。
身分証明書番号が同じである画像データを1つの画像ライブラリに集約することと、
前記画像ライブラリと前記身分証明書番号に対応するテキスト情報との間の関連関係を確立して、集約処理結果を取得することと、を実現し、前記集約処理結果の各身分証明書番号は、唯一のプロファイルデータに対応する。
第1データベース内の各クラス中心特徴値と第2データベース内の各参照クラス中心特徴値とを全量比較して、全量比較結果を取得することと、
前記全量比較結果に基づいて、類似度が最も高い且つ類似度がプリセットされた閾値より大きいターゲット参照クラス中心特徴値を決定することと、
前記第2データベースから、前記ターゲット参照クラス中心特徴値に対応するターゲットポートレートおよび前記ターゲットポートレートに対応する身分情報を検索することと、
前記ターゲットポートレートに対応する身分情報と前記第1データベース内のクラス中心特徴値に対応する画像との間の関連関係を確立することと、を実現する。
前記第1データベースに画像データを追加する場合、新しく追加された画像データに対してクラスタリング処理を実行し、前記新しく追加された画像データ内の顔画像データを複数のクラスに分け、前記第1データベースから、前記複数のクラスと同じクラスがあるか否かを検索し、前記複数のクラスのうちの第1クラスと同じクラスがある場合、前記第1クラスの画像データを前記第1クラスの既存のプロファイルにマージし、前記複数のクラスのうちの第2クラスと同じクラスがない場合、前記第2クラスに基づいて新しいプロファイルを作成して、前記第1データベースに追加することを実現する。
前記第2データベースに画像データを追加する場合、前記第2データベースから、新しく追加された前記画像データと同じ身分証明書番号があるか否かを検索し、前記画像データのうちの第1画像データと同じ第1身分証明書番号がある場合、前記第1画像データを前記第1身分証明書番号に対応する既存のプロファイルにマージし、前記画像データのうちの第2画像データと同じ第2身分証明書番号がない場合、前記第2画像データの第2身分証明書番号に基づいて新しいプロファイルを作成して、前記第2データベースに追加することを実現する。
例えば、本願は以下の項目を提供する。
(項目1)
情報処理方法であって、
第1入力情報を取得することであって、前記第1入力情報は、少なくともターゲットオブジェクトを含む画像を含む、ことと、
前記第1入力情報に基づいて、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたスナップ画像を取得することであって、前記ターゲット時点は、前記画像収集装置が前記ターゲットオブジェクトをスナップする時点である、ことと、
前記スナップ画像から前記ターゲットオブジェクトの同行者を決定することと、
集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することであって、前記集約プロファイルデータ内の同一人は、唯一のプロファイルに対応する、ことと、を含む、前記情報処理方法。
(項目2)
前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
集約プロファイルデータに基づいて、全ての同行者の関連情報を決定することを含み、
同行者の関連情報は、
未実名の同行者の場合、少なくともシステムの第1データベース内の前記同行者の各スナップ画像を含み、
実名の同行者の場合、少なくともシステムの第2データベース内の画像情報とテキスト情報を含む、
項目1に記載の情報処理方法。
(項目3)
前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
全ての同行者と前記ターゲットオブジェクトとの同行回数を決定することと、
前記同行回数に基づいて前記全ての同行者を並べ替えて、同行者シーケンスを取得することと、をさらに含む、
項目1に記載の情報処理方法。
(項目4)
前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
前記同行者シーケンスから第1同行者を決定することと、
前記ターゲットオブジェクトと前記第1同行者との全ての同行記録を決定することと、をさらに含み、
前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記第1同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む、
項目3に記載の情報処理方法。
(項目5)
前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
前記同行者シーケンスに基づいて、K(Kは正整数である)個の同行者を決定することと、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録を決定することと、をさらに含み、
前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記K個の同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む、
項目3に記載の情報処理方法。
(項目6)
前記情報処理方法は、
指定された画像収集装置によって収集された指定ビデオストリームを取得することと、
前記全ての同行記録から、前記指定ビデオストリーム内の前記ターゲットオブジェクトと前記K個の同行者の同行記録を検索することと、をさらに含む、
項目5に記載の情報処理方法。
(項目7)
前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録に基づいて、各画像収集装置の前記K個の同行者のスナップ回数を統計することをさらに含む、
項目5に記載の情報処理方法。
(項目8)
前記第1入力情報を取得する前に、前記情報処理方法は、
第1データベース内の画像データに対してクラスタリング処理を実行して、クラスタリング処理結果を取得することであって、前記第1データベースは、画像収集装置によってスナップされたポートレート画像に基づいて形成される、ことと、
第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得することであって、前記第2データベースは、実名の画像情報に基づいて形成される、ことと、
前記クラスタリング処理結果と前記集約処理結果を関連分析して、集約プロファイルデータを取得することと、をさらに含む、
項目1ないし7のいずれか一項に記載の情報処理方法。
(項目9)
前記第1データベース内の画像データに対してクラスタリング処理を実行することは、
前記第1データベース内の画像データから顔画像データを抽出することと、
前記顔画像データを複数のクラスに分けることと、を含み、前記複数のクラスの各クラスは1つのクラス中心を有し、前記クラス中心はクラス中心特徴値を含む、
項目8に記載の情報処理方法。
(項目10)
前記第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得することは、
身分証明書番号が同じである画像データを1つの画像ライブラリに集約することと、
前記画像ライブラリと前記身分証明書番号に対応するテキスト情報との間の関連関係を確立して、集約処理結果を取得することと、を含み、前記集約処理結果の各身分証明書番号は、唯一のプロファイルデータに対応する、
項目8に記載の情報処理方法。
(項目11)
前記クラスタリング処理結果と前記集約処理結果を関連分析することは、
第1データベース内の各クラス中心特徴値と第2データベース内の各参照クラス中心特徴値とを全量比較して、全量比較結果を取得することと、
前記全量比較結果に基づいて、類似度が最も高い且つ類似度がプリセットされた閾値より大きいターゲット参照クラス中心特徴値を決定することと、
前記第2データベースから、前記ターゲット参照クラス中心特徴値に対応するターゲットポートレートおよび前記ターゲットポートレートに対応する身分情報を検索することと、
前記ターゲットポートレートに対応する身分情報と、前記第1データベース内のクラス中心特徴値に対応する画像との間の関連関係を確立することと、を含む、
項目8に記載の情報処理方法。
(項目12)
前記情報処理方法は、
前記第1データベースに画像データを追加する場合、新しく追加された画像データに対してクラスタリング処理を実行し、前記新しく追加された画像データ内の顔画像データを複数のクラスに分け、前記第1データベースから、前記複数のクラスと同じクラスがあるか否かを検索し、前記複数のクラスのうちの第1クラスと同じクラスがある場合、前記第1クラスの画像データを前記第1クラスの既存のプロファイルにマージし、前記複数のクラスのうちの第2クラスと同じクラスがない場合、前記第2クラスに基づいて新しいプロファイルを作成して、前記第1データベースに追加することをさらに含む、
項目8に記載の情報処理方法。
(項目13)
前記情報処理方法は、
前記第2データベースに画像データを追加する場合、前記第2データベースから、新しく追加された前記画像データと同じ身分証明書番号があるか否かを検索し、前記画像データのうちの第1画像データと同じ第1身分証明書番号がある場合、前記第1画像データを前記第1身分証明書番号に対応する既存のプロファイルにマージし、前記画像データのうちの第2画像データと同じ第2身分証明書番号がない場合、前記第2画像データの第2身分証明書番号に基づいて新しいプロファイルを作成して、前記第2データベースに追加することをさらに含む、
項目8に記載の情報処理方法。
(項目14)
情報処理装置であって、
第1入力情報を取得するように構成される第1取得モジュールであって、前記第1入力情報は、少なくともターゲットオブジェクトを含む画像を含む、第1取得モジュールと、
前記第1入力情報に基づいて、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたスナップ画像を取得するように構成される第2取得モジュールであって、前記ターゲット時点は、前記画像収集装置が前記ターゲットオブジェクトをスナップする時点である、第2取得モジュールと、
前記スナップ画像から前記ターゲットオブジェクトの同行者を決定するように構成される決定モジュールと、
集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得するように構成される処理モジュールであって、前記集約プロファイルデータ内の同一人は、唯一のプロファイルに対応する、処理モジュールと、を備える、前記情報処理装置。
(項目15)
前記処理モジュールは、さらに、
集約プロファイルデータに基づいて、全ての同行者の関連情報を決定するように構成され、
同行者の関連情報は、
未実名の同行者の場合、少なくともシステムの第1データベース内の前記同行者の各スナップ画像を含み、
実名の同行者の場合、少なくともシステムの第2データベース内の画像情報とテキスト情報を含む、
項目14に記載の情報処理装置。
(項目16)
前記処理モジュールは、さらに、
全ての同行者と前記ターゲットオブジェクトとの同行回数を決定し、
前記同行回数に基づいて前記全ての同行者を並べ替えて、同行者シーケンスを取得するように構成される、
項目14に記載の情報処理装置。
(項目17)
前記処理モジュールは、さらに、
前記同行者シーケンスから第1同行者を決定し、
前記ターゲットオブジェクトと前記第1同行者との全ての同行記録を決定するように構成され、
前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記第1同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む、
項目16に記載の情報処理装置。
(項目18)
前記処理モジュールは、さらに、
前記同行者シーケンスに基づいて、K(Kは正整数である)個の同行者を決定し、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録を決定するように構成され、
前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記K個の同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む、
項目16に記載の情報処理装置。
(項目19)
前記処理モジュールは、さらに、
指定された画像収集装置によって収集された指定ビデオストリームを取得し、
前記全ての同行記録から、前記指定ビデオストリーム内の前記ターゲットオブジェクトと前記K個の同行者の同行記録を検索するように構成される、
項目18に記載の情報処理装置。
(項目20)
前記処理モジュールは、さらに、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録に基づいて、各画像収集装置の前記K個の同行者のスナップ回数を統計するように構成される、
項目18に記載の情報処理装置。
(項目21)
前記情報処理装置は、さらに、
プロファイル作成モジュールを備え、前記プロファイル作成モジュールは、
第1データベース内の画像データに対してクラスタリング処理を実行して、クラスタリング処理結果を取得し、前記第1データベースは、画像収集装置によってスナップされたポートレート画像に基づいて形成され、
第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得し、前記第2データベースは、実名の画像情報に基づいて形成され、
前記クラスタリング処理結果と前記集約処理結果を関連分析して、集約プロファイルデータを取得するように構成される、
項目14ないし20のいずれか一項に記載の情報処理装置。
(項目22)
前記プロファイル作成モジュールは、さらに、
前記第1データベース内の画像データから顔画像データを抽出し、
前記顔画像データを複数のクラスに分けるように構成され、前記複数のクラスの各クラスは1つのクラス中心を有し、前記クラス中心はクラス中心特徴値を含む、
項目21に記載の情報処理装置。
(項目23)
前記プロファイル作成モジュールは、さらに、
身分証明書番号が同じである画像データを1つの画像ライブラリに集約し、
前記画像ライブラリと前記身分証明書番号に対応するテキスト情報との間の関連関係を確立して、集約処理結果を取得するように構成され、前記集約処理結果の各身分証明書番号は、唯一のプロファイルデータに対応する、
項目21に記載の情報処理装置。
(項目24)
前記プロファイル作成モジュールは、さらに、
第1データベース内の各クラス中心特徴値と第2データベース内の各参照クラス中心特徴値とを全量比較して、全量比較結果を取得し、
全量比較結果に基づいて、類似度が最も高い且つ類似度がプリセットされた閾値より大きいターゲット参照クラス中心特徴値を決定し、
前記第2データベースから、前記ターゲット参照クラス中心特徴値に対応するターゲットポートレートおよび前記ターゲットポートレートに対応する身分情報を検索し、
前記ターゲットポートレートに対応する身分情報と前記第1データベース内のクラス中心特徴値に対応する画像との間の関連関係を確立するように構成される、
項目21に記載の情報処理装置。
(項目25)
前記プロファイル作成モジュールは、さらに、
前記第1データベースに画像データを追加する場合、新しく追加された画像データに対してクラスタリング処理を実行し、前記新しく追加された画像データ内の顔画像データを複数のクラスに分け、前記第1データベースから、前記複数のクラスと同じクラスがあるか否かを検索し、前記複数のクラスのうちの第1クラスと同じクラスがある場合、前記第1クラスの画像データを前記第1クラスの既存のプロファイルにマージし、前記複数のクラスのうちの第2クラスと同じクラスがない場合、前記第2クラスに基づいて新しいプロファイルを作成して、前記第1データベースに追加するように構成される、
項目21に記載の情報処理装置。
(項目26)
前記プロファイル作成モジュールは、さらに、
前記第2データベースに画像データを追加する場合、前記第2データベースから、新しく追加された前記画像データと同じ身分証明書番号があるか否かを検索し、前記画像データのうちの第1画像データと同じ第1身分証明書番号がある場合、前記第1画像データを前記第1身分証明書番号に対応する既存のプロファイルにマージし、前記画像データのうちの第2画像データと同じ第2身分証明書番号がない場合、前記第2画像データの第2身分証明書番号に基づいて新しいプロファイルを作成して、前記第2データベースに追加するように構成される、
項目21に記載の情報処理装置。
(項目27)
情報処理装置であって、メモリと、プロセッサと、メモリに記憶され且つプロセッサで実行可能なコンピュータプログラムとを備え、前記プロセッサが前記コンピュータプログラムを実行するときに、項目1ないし13のいずれか一項に記載の情報処理方法を実現するように構成される、前記情報処理装置。
(項目28)
プロセッサによって実行されるときに、前記プロセッサに、項目1ないし13のいずれか一項に記載の情報処理方法を実行させるためのコンピュータプログラムを記憶した、記憶媒体。
(項目29)
電子機器で実行されるときに、前記電子機器のプロセッサに、項目1ないし13のいずれか一項に記載の情報処理方法を実行させるためのコンピュータ可読コードを含む、コンピュータプログラム。
Claims (29)
- 情報処理方法であって、
第1入力情報を取得することであって、前記第1入力情報は、少なくともターゲットオブジェクトを含む画像を含む、ことと、
前記第1入力情報に基づいて、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたスナップ画像を取得することであって、前記ターゲット時点は、前記画像収集装置が前記ターゲットオブジェクトをスナップする時点である、ことと、
前記スナップ画像から前記ターゲットオブジェクトの同行者を決定することと、
集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することであって、前記集約プロファイルデータ内の同一人は、唯一のプロファイルに対応する、ことと、を含む、前記情報処理方法。 - 前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
集約プロファイルデータに基づいて、全ての同行者の関連情報を決定することを含み、
同行者の関連情報は、
未実名の同行者の場合、少なくともシステムの第1データベース内の前記同行者の各スナップ画像を含み、
実名の同行者の場合、少なくともシステムの第2データベース内の画像情報とテキスト情報を含む、
請求項1に記載の情報処理方法。 - 前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
全ての同行者と前記ターゲットオブジェクトとの同行回数を決定することと、
前記同行回数に基づいて前記全ての同行者を並べ替えて、同行者シーケンスを取得することと、をさらに含む、
請求項1に記載の情報処理方法。 - 前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
前記同行者シーケンスから第1同行者を決定することと、
前記ターゲットオブジェクトと前記第1同行者との全ての同行記録を決定することと、をさらに含み、
前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記第1同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む、
請求項3に記載の情報処理方法。 - 前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
前記同行者シーケンスに基づいて、K(Kは正整数である)個の同行者を決定することと、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録を決定することと、をさらに含み、
前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記K個の同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む、
請求項3に記載の情報処理方法。 - 前記情報処理方法は、
指定された画像収集装置によって収集された指定ビデオストリームを取得することと、
前記全ての同行記録から、前記指定ビデオストリーム内の前記ターゲットオブジェクトと前記K個の同行者の同行記録を検索することと、をさらに含む、
請求項5に記載の情報処理方法。 - 前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録に基づいて、各画像収集装置の前記K個の同行者のスナップ回数を統計することをさらに含む、
請求項5に記載の情報処理方法。 - 前記第1入力情報を取得する前に、前記情報処理方法は、
第1データベース内の画像データに対してクラスタリング処理を実行して、クラスタリング処理結果を取得することであって、前記第1データベースは、画像収集装置によってスナップされたポートレート画像に基づいて形成される、ことと、
第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得することであって、前記第2データベースは、実名の画像情報に基づいて形成される、ことと、
前記クラスタリング処理結果と前記集約処理結果を関連分析して、集約プロファイルデータを取得することと、をさらに含む、
請求項1ないし7のいずれか一項に記載の情報処理方法。 - 前記第1データベース内の画像データに対してクラスタリング処理を実行することは、
前記第1データベース内の画像データから顔画像データを抽出することと、
前記顔画像データを複数のクラスに分けることと、を含み、前記複数のクラスの各クラスは1つのクラス中心を有し、前記クラス中心はクラス中心特徴値を含む、
請求項8に記載の情報処理方法。 - 前記第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得することは、
身分証明書番号が同じである画像データを1つの画像ライブラリに集約することと、
前記画像ライブラリと前記身分証明書番号に対応するテキスト情報との間の関連関係を確立して、集約処理結果を取得することと、を含み、前記集約処理結果の各身分証明書番号は、唯一のプロファイルデータに対応する、
請求項8に記載の情報処理方法。 - 前記クラスタリング処理結果と前記集約処理結果を関連分析することは、
第1データベース内の各クラス中心特徴値と第2データベース内の各参照クラス中心特徴値とを全量比較して、全量比較結果を取得することと、
前記全量比較結果に基づいて、類似度が最も高い且つ類似度がプリセットされた閾値より大きいターゲット参照クラス中心特徴値を決定することと、
前記第2データベースから、前記ターゲット参照クラス中心特徴値に対応するターゲットポートレートおよび前記ターゲットポートレートに対応する身分情報を検索することと、
前記ターゲットポートレートに対応する身分情報と、前記第1データベース内のクラス中心特徴値に対応する画像との間の関連関係を確立することと、を含む、
請求項8に記載の情報処理方法。 - 前記情報処理方法は、
前記第1データベースに画像データを追加する場合、新しく追加された画像データに対してクラスタリング処理を実行し、前記新しく追加された画像データ内の顔画像データを複数のクラスに分け、前記第1データベースから、前記複数のクラスと同じクラスがあるか否かを検索し、前記複数のクラスのうちの第1クラスと同じクラスがある場合、前記第1クラスの画像データを前記第1クラスの既存のプロファイルにマージし、前記複数のクラスのうちの第2クラスと同じクラスがない場合、前記第2クラスに基づいて新しいプロファイルを作成して、前記第1データベースに追加することをさらに含む、
請求項8に記載の情報処理方法。 - 前記情報処理方法は、
前記第2データベースに画像データを追加する場合、前記第2データベースから、新しく追加された前記画像データと同じ身分証明書番号があるか否かを検索し、前記画像データのうちの第1画像データと同じ第1身分証明書番号がある場合、前記第1画像データを前記第1身分証明書番号に対応する既存のプロファイルにマージし、前記画像データのうちの第2画像データと同じ第2身分証明書番号がない場合、前記第2画像データの第2身分証明書番号に基づいて新しいプロファイルを作成して、前記第2データベースに追加することをさらに含む、
請求項8に記載の情報処理方法。 - 情報処理装置であって、
第1入力情報を取得するように構成される第1取得モジュールであって、前記第1入力情報は、少なくともターゲットオブジェクトを含む画像を含む、第1取得モジュールと、
前記第1入力情報に基づいて、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたスナップ画像を取得するように構成される第2取得モジュールであって、前記ターゲット時点は、前記画像収集装置が前記ターゲットオブジェクトをスナップする時点である、第2取得モジュールと、
前記スナップ画像から前記ターゲットオブジェクトの同行者を決定するように構成される決定モジュールと、
集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得するように構成される処理モジュールであって、前記集約プロファイルデータ内の同一人は、唯一のプロファイルに対応する、処理モジュールと、を備える、前記情報処理装置。 - 前記処理モジュールは、さらに、
集約プロファイルデータに基づいて、全ての同行者の関連情報を決定するように構成され、
同行者の関連情報は、
未実名の同行者の場合、少なくともシステムの第1データベース内の前記同行者の各スナップ画像を含み、
実名の同行者の場合、少なくともシステムの第2データベース内の画像情報とテキスト情報を含む、
請求項14に記載の情報処理装置。 - 前記処理モジュールは、さらに、
全ての同行者と前記ターゲットオブジェクトとの同行回数を決定し、
前記同行回数に基づいて前記全ての同行者を並べ替えて、同行者シーケンスを取得するように構成される、
請求項14に記載の情報処理装置。 - 前記処理モジュールは、さらに、
前記同行者シーケンスから第1同行者を決定し、
前記ターゲットオブジェクトと前記第1同行者との全ての同行記録を決定するように構成され、
前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記第1同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む、
請求項16に記載の情報処理装置。 - 前記処理モジュールは、さらに、
前記同行者シーケンスに基づいて、K(Kは正整数である)個の同行者を決定し、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録を決定するように構成され、
前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記K個の同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む、
請求項16に記載の情報処理装置。 - 前記処理モジュールは、さらに、
指定された画像収集装置によって収集された指定ビデオストリームを取得し、
前記全ての同行記録から、前記指定ビデオストリーム内の前記ターゲットオブジェクトと前記K個の同行者の同行記録を検索するように構成される、
請求項18に記載の情報処理装置。 - 前記処理モジュールは、さらに、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録に基づいて、各画像収集装置の前記K個の同行者のスナップ回数を統計するように構成される、
請求項18に記載の情報処理装置。 - 前記情報処理装置は、さらに、
プロファイル作成モジュールを備え、前記プロファイル作成モジュールは、
第1データベース内の画像データに対してクラスタリング処理を実行して、クラスタリング処理結果を取得し、前記第1データベースは、画像収集装置によってスナップされたポートレート画像に基づいて形成され、
第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得し、前記第2データベースは、実名の画像情報に基づいて形成され、
前記クラスタリング処理結果と前記集約処理結果を関連分析して、集約プロファイルデータを取得するように構成される、
請求項14ないし20のいずれか一項に記載の情報処理装置。 - 前記プロファイル作成モジュールは、さらに、
前記第1データベース内の画像データから顔画像データを抽出し、
前記顔画像データを複数のクラスに分けるように構成され、前記複数のクラスの各クラスは1つのクラス中心を有し、前記クラス中心はクラス中心特徴値を含む、
請求項21に記載の情報処理装置。 - 前記プロファイル作成モジュールは、さらに、
身分証明書番号が同じである画像データを1つの画像ライブラリに集約し、
前記画像ライブラリと前記身分証明書番号に対応するテキスト情報との間の関連関係を確立して、集約処理結果を取得するように構成され、前記集約処理結果の各身分証明書番号は、唯一のプロファイルデータに対応する、
請求項21に記載の情報処理装置。 - 前記プロファイル作成モジュールは、さらに、
第1データベース内の各クラス中心特徴値と第2データベース内の各参照クラス中心特徴値とを全量比較して、全量比較結果を取得し、
全量比較結果に基づいて、類似度が最も高い且つ類似度がプリセットされた閾値より大きいターゲット参照クラス中心特徴値を決定し、
前記第2データベースから、前記ターゲット参照クラス中心特徴値に対応するターゲットポートレートおよび前記ターゲットポートレートに対応する身分情報を検索し、
前記ターゲットポートレートに対応する身分情報と前記第1データベース内のクラス中心特徴値に対応する画像との間の関連関係を確立するように構成される、
請求項21に記載の情報処理装置。 - 前記プロファイル作成モジュールは、さらに、
前記第1データベースに画像データを追加する場合、新しく追加された画像データに対してクラスタリング処理を実行し、前記新しく追加された画像データ内の顔画像データを複数のクラスに分け、前記第1データベースから、前記複数のクラスと同じクラスがあるか否かを検索し、前記複数のクラスのうちの第1クラスと同じクラスがある場合、前記第1クラスの画像データを前記第1クラスの既存のプロファイルにマージし、前記複数のクラスのうちの第2クラスと同じクラスがない場合、前記第2クラスに基づいて新しいプロファイルを作成して、前記第1データベースに追加するように構成される、
請求項21に記載の情報処理装置。 - 前記プロファイル作成モジュールは、さらに、
前記第2データベースに画像データを追加する場合、前記第2データベースから、新しく追加された前記画像データと同じ身分証明書番号があるか否かを検索し、前記画像データのうちの第1画像データと同じ第1身分証明書番号がある場合、前記第1画像データを前記第1身分証明書番号に対応する既存のプロファイルにマージし、前記画像データのうちの第2画像データと同じ第2身分証明書番号がない場合、前記第2画像データの第2身分証明書番号に基づいて新しいプロファイルを作成して、前記第2データベースに追加するように構成される、
請求項21に記載の情報処理装置。 - 情報処理装置であって、メモリと、プロセッサと、メモリに記憶され且つプロセッサで実行可能なコンピュータプログラムとを備え、前記プロセッサが前記コンピュータプログラムを実行するときに、請求項1ないし13のいずれか一項に記載の情報処理方法を実現するように構成される、前記情報処理装置。
- プロセッサによって実行されるときに、前記プロセッサに、請求項1ないし13のいずれか一項に記載の情報処理方法を実行させるためのコンピュータプログラムを記憶した、記憶媒体。
- 電子機器で実行されるときに、前記電子機器のプロセッサに、請求項1ないし13のいずれか一項に記載の情報処理方法を実行させるためのコンピュータ可読コードを含む、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910580576.2A CN110348347A (zh) | 2019-06-28 | 2019-06-28 | 一种信息处理方法及装置、存储介质 |
CN201910580576.2 | 2019-06-28 | ||
PCT/CN2020/089562 WO2020259099A1 (zh) | 2019-06-28 | 2020-05-11 | 一种信息处理方法及装置、存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022518469A true JP2022518469A (ja) | 2022-03-15 |
Family
ID=68177322
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021541619A Pending JP2022518469A (ja) | 2019-06-28 | 2020-05-11 | 情報処理方法および装置、記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210357624A1 (ja) |
JP (1) | JP2022518469A (ja) |
CN (1) | CN110348347A (ja) |
SG (1) | SG11202108349UA (ja) |
TW (1) | TWI743835B (ja) |
WO (1) | WO2020259099A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110348347A (zh) * | 2019-06-28 | 2019-10-18 | 深圳市商汤科技有限公司 | 一种信息处理方法及装置、存储介质 |
CN111221991B (zh) * | 2019-11-06 | 2024-06-14 | 北京旷视科技有限公司 | 人员身份属性的确定方法、装置和电子设备 |
CN111061894A (zh) * | 2019-11-07 | 2020-04-24 | 深圳云天励飞技术有限公司 | 同行数据的处理方法、装置、电子设备及存储介质 |
CN111435435B (zh) * | 2019-12-10 | 2024-06-07 | 杭州海康威视数字技术股份有限公司 | 一种同伴识别方法、装置、服务器及系统 |
CN111104915B (zh) * | 2019-12-23 | 2023-05-16 | 云粒智慧科技有限公司 | 一种同行分析方法、装置、设备和介质 |
CN113127572B (zh) * | 2019-12-31 | 2023-03-03 | 深圳云天励飞技术有限公司 | 档案合并方法、装置、设备及计算机可读存储介质 |
CN111625686A (zh) * | 2020-05-20 | 2020-09-04 | 深圳市商汤科技有限公司 | 数据处理方法及装置、电子设备和存储介质 |
CN112015956B (zh) * | 2020-09-04 | 2024-07-30 | 杭州海康威视数字技术股份有限公司 | 移动对象的相似性确定方法、装置、设备和存储介质 |
CN114999017A (zh) * | 2022-06-06 | 2022-09-02 | 重庆酉辰戌智能科技有限公司 | 一种校园人脸识别赋能系统 |
CN118245622B (zh) * | 2024-05-23 | 2024-07-30 | 深圳前海中电慧安科技有限公司 | 案件数据分析方法、装置、电子设备和存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090122198A1 (en) * | 2007-11-08 | 2009-05-14 | Sony Ericsson Mobile Communications Ab | Automatic identifying |
JP2018011263A (ja) * | 2016-07-15 | 2018-01-18 | パナソニックIpマネジメント株式会社 | 監視システム、監視カメラ、及び管理装置 |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4433472B2 (ja) * | 2002-08-08 | 2010-03-17 | ナンヤン テクノロジカル ユニヴァーシティ | 分散型認証処理 |
US20070106551A1 (en) * | 2005-09-20 | 2007-05-10 | Mcgucken Elliot | 22nets: method, system, and apparatus for building content and talent marketplaces and archives based on a social network |
DE602006017578D1 (de) * | 2005-12-01 | 2010-11-25 | Honeywell Int Inc | Mit mehreren gesichtserkennungssystemen kompatible verteilte id-überprüfung auf abstand |
TWI336054B (en) * | 2006-02-15 | 2011-01-11 | Toshiba Kk | Person identification device and person identification method |
TW201223209A (en) * | 2010-11-30 | 2012-06-01 | Inventec Corp | Sending a digital image method and apparatus thereof |
CN103632132B (zh) * | 2012-12-11 | 2017-02-15 | 广西科技大学 | 一种基于肤色分割和模板匹配的人脸检测与识别方法 |
KR101415848B1 (ko) * | 2012-12-12 | 2014-07-09 | 휴앤에스(주) | 차량 및 보행자 검지를 이용한 스쿨존 방범장치 |
US11100334B2 (en) * | 2013-04-19 | 2021-08-24 | James Carey | Video identification and analytical recognition system |
CN203689590U (zh) * | 2013-10-09 | 2014-07-02 | 四川空港知觉科技有限公司 | 人员身份识别设备 |
US9788039B2 (en) * | 2014-06-23 | 2017-10-10 | Google Inc. | Camera system API for third-party integrations |
US9356968B1 (en) * | 2014-06-30 | 2016-05-31 | Emc Corporation | Managing authentication using common authentication framework circuitry |
CN104636732B (zh) * | 2015-02-12 | 2017-11-07 | 合肥工业大学 | 一种基于序列深信度网络的行人识别方法 |
WO2017000115A1 (zh) * | 2015-06-29 | 2017-01-05 | 北京旷视科技有限公司 | 行人再识别方法及设备 |
CN105208528B (zh) * | 2015-09-24 | 2018-05-22 | 山东合天智汇信息技术有限公司 | 一种用于识别同行人员的系统及方法 |
US10169684B1 (en) * | 2015-10-01 | 2019-01-01 | Intellivision Technologies Corp. | Methods and systems for recognizing objects based on one or more stored training images |
CN105354548B (zh) * | 2015-10-30 | 2018-10-26 | 武汉大学 | 一种基于ImageNet检索的监控视频行人重识别方法 |
CN105427221A (zh) * | 2015-12-09 | 2016-03-23 | 北京中科云集科技有限公司 | 一种基于云平台的警务管理方法 |
CN107016322B (zh) * | 2016-01-28 | 2020-01-14 | 浙江宇视科技有限公司 | 一种尾随人员分析的方法及装置 |
CN107066945B (zh) * | 2017-03-10 | 2019-06-18 | 清华大学 | 一种大流量通关快速身份核验方法和系统 |
CN107153824A (zh) * | 2017-05-22 | 2017-09-12 | 中国人民解放军国防科学技术大学 | 基于图聚类的跨视频行人重识别方法 |
CN107480246B (zh) * | 2017-08-10 | 2021-03-12 | 北京中航安通科技有限公司 | 一种关联人员的识别方法及装置 |
CN108229335A (zh) * | 2017-12-12 | 2018-06-29 | 深圳市商汤科技有限公司 | 关联人脸识别方法和装置、电子设备、存储介质、程序 |
CN208156681U (zh) * | 2018-01-20 | 2018-11-27 | 南京铁道职业技术学院 | 一种视频监控图像识别系统 |
CN109117714B (zh) * | 2018-06-27 | 2021-02-26 | 北京旷视科技有限公司 | 一种同行人员识别方法、装置、系统及计算机存储介质 |
CN109241378A (zh) * | 2018-08-29 | 2019-01-18 | 北京旷视科技有限公司 | 档案建立方法、装置、设备及存储介质 |
CN208861294U (zh) * | 2018-09-28 | 2019-05-14 | 广州翠花信息科技有限公司 | 一种采用签到机制的人脸识别系统 |
CN109461106A (zh) * | 2018-10-11 | 2019-03-12 | 浙江公共安全技术研究院有限公司 | 一种多维信息感知处理方法 |
CN109635149B (zh) * | 2018-12-17 | 2021-03-23 | 北京旷视科技有限公司 | 人物搜索方法、装置及电子设备 |
CN109784217A (zh) * | 2018-12-28 | 2019-05-21 | 上海依图网络科技有限公司 | 一种监控方法及装置 |
CN109800669A (zh) * | 2018-12-28 | 2019-05-24 | 上海依图网络科技有限公司 | 一种归档方法及装置 |
CN109740004B (zh) * | 2018-12-28 | 2023-07-11 | 上海依图网络科技有限公司 | 一种归档方法及装置 |
CN109739850B (zh) * | 2019-01-11 | 2022-10-11 | 安徽爱吉泰克科技有限公司 | 一种档案大数据智能分析清洗挖掘系统 |
JP6534499B1 (ja) * | 2019-03-20 | 2019-06-26 | アースアイズ株式会社 | 監視装置、監視システム、及び、監視方法 |
CN110348347A (zh) * | 2019-06-28 | 2019-10-18 | 深圳市商汤科技有限公司 | 一种信息处理方法及装置、存储介质 |
-
2019
- 2019-06-28 CN CN201910580576.2A patent/CN110348347A/zh active Pending
-
2020
- 2020-05-11 WO PCT/CN2020/089562 patent/WO2020259099A1/zh active Application Filing
- 2020-05-11 JP JP2021541619A patent/JP2022518469A/ja active Pending
- 2020-05-11 SG SG11202108349UA patent/SG11202108349UA/en unknown
- 2020-06-15 TW TW109120078A patent/TWI743835B/zh active
-
2021
- 2021-07-28 US US17/386,740 patent/US20210357624A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090122198A1 (en) * | 2007-11-08 | 2009-05-14 | Sony Ericsson Mobile Communications Ab | Automatic identifying |
JP2018011263A (ja) * | 2016-07-15 | 2018-01-18 | パナソニックIpマネジメント株式会社 | 監視システム、監視カメラ、及び管理装置 |
Also Published As
Publication number | Publication date |
---|---|
US20210357624A1 (en) | 2021-11-18 |
TWI743835B (zh) | 2021-10-21 |
TW202101444A (zh) | 2021-01-01 |
CN110348347A (zh) | 2019-10-18 |
WO2020259099A1 (zh) | 2020-12-30 |
SG11202108349UA (en) | 2021-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022518469A (ja) | 情報処理方法および装置、記憶媒体 | |
WO2020259100A1 (zh) | 一种信息处理方法及装置、存储介质 | |
CN109117714B (zh) | 一种同行人员识别方法、装置、系统及计算机存储介质 | |
CN109783685B (zh) | 一种查询方法及装置 | |
WO2021063011A1 (zh) | 行为分析方法、装置、电子设备、存储介质和计算机程序 | |
CN109740004B (zh) | 一种归档方法及装置 | |
CN109635146B (zh) | 一种基于图像特征的目标查询方法及系统 | |
CN111078922A (zh) | 一种信息处理方法及装置、存储介质 | |
CN112016623B (zh) | 一种人脸聚类方法、装置、设备及存储介质 | |
CN110750670B (zh) | 陌生人监控方法、装置、系统和存储介质 | |
CN112818149A (zh) | 一种基于时空轨迹数据的人脸聚类方法、装置及存储介质 | |
CN109815829A (zh) | 一种确定路人轨迹的方法及装置 | |
CN111209776A (zh) | 同行人识别方法、装置、处理服务器、存储介质及系统 | |
CN108563651B (zh) | 一种多视频的目标搜索方法、装置及设备 | |
CN109784220B (zh) | 一种确定路人轨迹的方法及装置 | |
CN111221991B (zh) | 人员身份属性的确定方法、装置和电子设备 | |
CN109800664B (zh) | 一种确定路人轨迹的方法及装置 | |
CN109426785A (zh) | 一种人体目标身份识别方法及装置 | |
WO2023024670A1 (zh) | 设备聚类方法、装置、计算机设备及存储介质 | |
CN109857891A (zh) | 一种查询方法及装置 | |
US20210319226A1 (en) | Face clustering in video streams | |
CN111277788A (zh) | 一种基于mac地址的监控方法和监控系统 | |
CN110543584A (zh) | 一种建立人脸索引的方法、装置、处理服务器及存储介质 | |
CN114048344A (zh) | 一种相似人脸搜索方法、装置、设备和可读存储介质 | |
CN111694979A (zh) | 一种基于图像的档案管理方法、系统、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210719 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210719 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220818 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220905 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230329 |