JP2022518469A - 情報処理方法および装置、記憶媒体 - Google Patents

情報処理方法および装置、記憶媒体 Download PDF

Info

Publication number
JP2022518469A
JP2022518469A JP2021541619A JP2021541619A JP2022518469A JP 2022518469 A JP2022518469 A JP 2022518469A JP 2021541619 A JP2021541619 A JP 2021541619A JP 2021541619 A JP2021541619 A JP 2021541619A JP 2022518469 A JP2022518469 A JP 2022518469A
Authority
JP
Japan
Prior art keywords
companion
image
database
image data
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021541619A
Other languages
English (en)
Inventor
▲閻▼旭▲陽▼
干▲剛▼
▲張▼恩▲龍▼
李冠▲亮▼
▲曾▼▲い▼人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Sensetime Technology Co Ltd
Original Assignee
Shenzhen Sensetime Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Sensetime Technology Co Ltd filed Critical Shenzhen Sensetime Technology Co Ltd
Publication of JP2022518469A publication Critical patent/JP2022518469A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/535Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/768Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Library & Information Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Geometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

本願実施例は、情報処理方法、装置および記憶媒体を開示し、前記情報処理方法は、第1入力情報を取得することであって、前記第1入力情報は、少なくともターゲットオブジェクトを含む画像を含む、ことと、前記第1入力情報に基づいて、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたスナップ画像を取得することであって、前記ターゲット時点は、前記画像収集装置が前記ターゲットオブジェクトをスナップする時点である、ことと、前記スナップ画像から前記ターゲットオブジェクトの同行者を決定することと、集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することであって、前記集約プロファイルデータ内の同一人は、唯一のプロファイルに対応する、ことと、を含む。

Description

本願は、2019年6月28日に中国特許局に提出された、出願番号がCN201910580576.2である中国特許出願に基づいて提出されるものであり、当該中国特許出願の優先権を主張し、当該中国特許出願の全ての内容が参照によって本願に組み込まれる。
本願は、コンピュータ分野における情報処理技術に関し、具体的には、情報処理方法および装置、記憶媒体に関する。
公安部が日常的に事件を調査する場合、ターゲット容疑者の顔写真および事件を解決するのに役立つ他の関連情報を持っていない可能性が高く、この場合、この容疑者の人物プロファイル分析を実行することは困難である。しかし、時には、犯罪者は組織の形で犯罪活動を実行する。つまり、時には、ターゲット容疑者は共犯者を連れている。容疑者の手がかりがブロックされている場合、または犯罪組織を見つける必要がある場合、容疑者の同行者を見つけることで、事件を解決するための効果的な手がかりを得ることができる。したがって、容疑者の同行者を決定する方法は、解決すべき技術的課題である。
本願実施例は、ターゲットオブジェクトの同行者を迅速に識別できる情報処理方法および装置、記憶媒体を提供する。
第1態様によれば、本願実施例は情報処理方法を提供し、前記方法は、
第1入力情報を取得することであって、前記第1入力情報は、少なくともターゲットオブジェクトを含む画像を含む、ことと、
前記第1入力情報に基づいて、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたスナップ画像を取得することであって、前記ターゲット時点は、前記画像収集装置が前記ターゲットオブジェクトをスナップする時点である、ことと、
前記スナップ画像から前記ターゲットオブジェクトの同行者を決定することと、
集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することであって、前記集約プロファイルデータ内の同一人は、唯一のプロファイルに対応する、ことと、を含む。
可能な実施形態において、前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
集約プロファイルデータに基づいて、全ての同行者の関連情報を決定することを含み、
ここで、同行者の関連情報は、
未実名の同行者の場合、少なくともシステムの第1データベース内の前記同行者の各スナップ画像を含み、
実名の同行者の場合、少なくともシステムの第2データベース内の画像情報とテキスト情報を含む。
可能な実施形態において、前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
全ての同行者と前記ターゲットオブジェクトとの同行回数を決定することと、
前記同行回数に基づいて前記全ての同行者を並べ替えて、同行者シーケンスを取得することと、をさらに含む。
可能な実施形態において、前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
前記同行者シーケンスから第1同行者を決定することと、
前記ターゲットオブジェクトと前記第1同行者との全ての同行記録を決定することと、をさらに含み、
ここで、前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記第1同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む。
可能な実施形態において、前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
前記同行者シーケンスに基づいて、K(Kは正整数である)個の同行者を決定することと、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録を決定することと、をさらに含み、
ここで、前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記K個の同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む。
可能な実施形態において、前記情報処理方法は、
指定された画像収集装置によって収集された指定ビデオストリームを取得することと、
前記全ての同行記録から、前記指定ビデオストリーム内の前記ターゲットオブジェクトと前記K個の同行者の同行記録を検索することと、をさらに含む。
可能な実施形態において、前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録に基づいて、各画像収集装置の前記K個の同行者のスナップ回数を統計することをさらに含む。
可能な実施形態において、前記第1入力情報を取得する前に、前記情報処理方法は、
第1データベース内の画像データに対してクラスタリング処理を実行して、クラスタリング処理結果を取得することであって、前記第1データベースは、画像収集装置によってスナップされたポートレート画像に基づいて形成される、ことと、
第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得することであって、前記第2データベースは、実名の画像情報に基づいて形成される、ことと、
前記クラスタリング処理結果と前記集約処理結果を関連分析して、集約プロファイルデータを取得することと、をさらに含む。
可能な実施形態において、前記第1データベース内の画像データに対してクラスタリング処理を実行することは、
前記第1データベース内の画像データから顔画像データを抽出することと、
前記顔画像データを複数のクラスに分けることと、を含み、前記複数のクラスの各クラスは1つのクラス中心を有し、前記クラス中心はクラス中心特徴値を含む。
可能な実施形態において、前記第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得することは、
身分証明書番号が同じである画像データを1つの画像ライブラリに集約することと、
前記画像ライブラリと前記身分証明書番号に対応するテキスト情報との間の関連関係を確立して、集約処理結果を取得することと、を含み、前記集約処理結果の各身分証明書番号は、唯一のアーカイブデータに対応する。
可能な実施形態において、前記クラスタリング処理結果と前記集約処理結果を関連分析することは、
前記第1データベース内の各クラス中心特徴値と前記第2データベース内の各参照クラス中心特徴値とを全量比較して、全量比較結果を取得することと、
前記全量比較結果に基づいて、類似度が最も高い且つ類似度がプリセットされた閾値より大きいターゲット参照クラス中心特徴値を決定することと、
前記第2データベースから、前記ターゲット参照クラス中心特徴値に対応するターゲットポートレートおよび前記ターゲットポートレートに対応する身分情報を検索することと、
前記ターゲットポートレートに対応する身分情報と前記第1データベース内のクラス中心特徴値に対応する画像との間の関連関係を確立することと、を含む。
可能な実施形態において、前記情報処理方法は、
前記第1データベースに画像データを追加する場合、新しく追加された画像データに対してクラスタリング処理を実行し、前記新しく追加された画像データ内の顔画像データを複数のクラスに分け、前記第1データベースから、前記複数のクラスと同じクラスがあるか否かを検索し、前記複数のクラスのうちの第1クラスと同じクラスがある場合、前記第1クラスの画像データを前記第1クラスの既存のプロファイルにマージし、前記複数のクラスのうちの第2クラスと同じクラスがない場合、前記第2クラスに基づいて新しいプロファイルを作成して、前記第1データベースに追加することをさらに含む。
可能な実施形態において、前記情報処理方法は、
前記第2データベースに画像データを追加する場合、前記第2データベースから、新しく追加された前記画像データと同じ身分証明書番号があるか否かを検索し、前記画像データのうちの第1画像データと同じ第1身分証明書番号がある場合、前記第1画像データを前記第1身分証明書番号に対応する既存のプロファイルにマージし、前記画像データのうちの第2画像データと同じ第2身分証明書番号がない場合、前記第2画像データの第2身分証明書番号に基づいて新しいプロファイルを作成して、前記第2データベースに追加することをさらに含む。
第2態様によれば、本願実施例は情報処理装置を提供し、前記装置は、
第1入力情報を取得するように構成される第1取得モジュールであって、前記第1入力情報は、少なくともターゲットオブジェクトを含む画像を含む、第1取得モジュールと、
前記第1入力情報に基づいて、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたスナップ画像を取得するように構成される第2取得モジュールであって、前記ターゲット時点は、前記画像収集装置が前記ターゲットオブジェクトをスナップする時点である、第2取得モジュールと、
前記スナップ画像から前記ターゲットオブジェクトの同行者を決定するように構成される決定モジュールと、
集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得するように構成される処理モジュールであって、前記集約プロファイルデータ内の同一人は、唯一のプロファイルに対応する、処理モジュールと、を備える。
可能な実施形態において、前記処理モジュールは、さらに、
集約プロファイルデータに基づいて、全ての同行者の関連情報を決定するように構成され、
ここで、同行者の関連情報は、
未実名の同行者の場合、少なくともシステムの第1データベース内の前記同行者の各スナップ画像を含む、
実名の同行者の場合、少なくともシステムの第2データベース内の画像情報とテキスト情報を含む。
可能な実施形態において、前記処理モジュールは、さらに、
全ての同行者と前記ターゲットオブジェクトとの同行回数を決定し、
前記同行回数に基づいて前記全ての同行者を並べ替えて、同行者シーケンスを取得するように構成される。
可能な実施形態において、前記処理モジュールは、さらに、
前記同行者シーケンスから第1同行者を決定し、
前記ターゲットオブジェクトと前記第1同行者との全ての同行記録を決定するように構成され、
ここで、前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記第1同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む。
可能な実施形態において、前記処理モジュールは、さらに、
前記同行者シーケンスに基づいて、K(Kは正整数である)個の同行者を決定し、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録を決定するように構成され、
ここで、前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記K個の同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む。
可能な実施形態において、前記処理モジュールは、さらに、
指定された画像収集装置によって収集された指定ビデオストリームを取得し、
前記全ての同行記録から、前記指定ビデオストリーム内の前記ターゲットオブジェクトと前記K個の同行者の同行記録を検索するように構成される。
可能な実施形態において、前記処理モジュール、さらに、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録に基づいて、各画像収集装置の前記K個の同行者のスナップ回数を統計するように構成される。
可能な実施形態において、前記情報処理装置は、さらに、
プロファイル作成モジュールを備え、前記プロファイル作成モジュールは、
第1データベース内の画像データに対してクラスタリング処理を実行して、クラスタリング処理結果を取得し、ここで、前記第1データベースは、画像収集装置によってスナップされたポートレート画像に基づいて形成され、
第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得し、ここで、前記第2データベースは、実名の画像情報に基づいて形成され、
前記クラスタリング処理結果と前記集約処理結果を関連分析して、集約プロファイルデータを取得するように構成される。
可能な実施形態において、前記プロファイル作成モジュールは、さらに、
前記第1データベース内の画像データから顔画像データを抽出し、
前記顔画像データを複数のクラスに分けるように構成され、前記複数のクラスの各クラスは1つのクラス中心を有し、前記クラス中心はクラス中心特徴値を含む。
可能な実施形態において、前記プロファイル作成モジュールは、さらに、
身分証明書番号が同じである画像データを1つの画像ライブラリに集約し、
前記画像ライブラリと前記身分証明書番号に対応するテキスト情報との間の関連関係を確立して、集約処理結果を取得するように構成され、前記集約処理結果の各身分証明書番号は、唯一のプロファイルデータに対応する。
可能な実施形態において、前記プロファイル作成モジュールは、さらに、
前記第1データベース内の各クラス中心特徴値と前記第2データベース内の各参照クラス中心特徴値とを全量比較して、全量比較結果を取得し、
前記全量比較結果に基づいて、類似度が最も高い且つ類似度がプリセットされた閾値より大きいターゲット参照クラス中心特徴値を決定し、
前記第2データベースから、前記ターゲット参照クラス中心特徴値に対応するターゲットポートレートおよび前記ターゲットポートレートに対応する身分情報を検索し、
前記ターゲットポートレートに対応する身分情報と前記第1データベース内のクラス中心特徴値に対応する画像との間の関連関係を確立するように構成される。
可能な実施形態において、前記プロファイル作成モジュールは、さらに、
前記第1データベースに画像データを追加する場合、新しく追加された画像データに対してクラスタリング処理を実行し、前記新しく追加された画像データ内の顔画像データを複数のクラスに分け、前記第1データベースから、前記複数のクラスと同じクラスがあるか否かを検索し、前記複数のクラスのうちの第1クラスと同じクラスがある場合、前記第1クラスの画像データを前記第1クラスの既存のプロファイルにマージし、前記複数のクラスのうちの第2クラスと同じクラスがない場合、前記第2クラスに基づいて新しいプロファイルを作成して、前記第1データベースに追加するように構成される。
可能な実施形態において、前記プロファイル作成モジュールは、さらに、
前記第2データベースに画像データを追加する場合、前記第2データベースから、新しく追加された前記画像データと同じ身分証明書番号があるか否かを検索し、前記画像データのうちの第1画像データと同じ第1身分証明書番号がある場合、前記第1画像データを前記第1身分証明書番号に対応する既存のプロファイルにマージし、前記画像データのうちの第2画像データと同じ第2身分証明書番号がない場合、前記第2画像データの第2身分証明書番号に基づいて新しいプロファイルを作成して、前記第2データベースに追加するように構成される。
第3態様によれば、本願実施例は情報処理装置を提供し、前記装置は、メモリと、プロセッサと、メモリに記憶され且つプロセッサで実行可能なコンピュータプログラムを備え、前記プロセッサが前記コンピュータプログラムを実行するときに、本願実施例に記載の情報処理方法のステップを実現する。
第4態様によれば、本願実施例は、コンピュータプログラムが記憶された記憶媒体を提供し、前記コンピュータプログラムがプロセッサによって実行されるときに、前記プロセッサに、本願実施例に記載の情報処理方法のステップを実行させる。
第5態様によれば、本願実施例は、コンピュータ可読コードを含むコンピュータプログラムを提供し、前記コンピュータ可読コードが電子機器で実行されるときに、前記電子機器のプロセッサに、本願実施例に記載の情報処理方法を実現させる。
本願実施例による技術的解決策によれば、第1入力情報を取得し、ここで、前記第1入力情報は、少なくともターゲットオブジェクトを含む画像を含み、前記第1入力情報に基づいて、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたスナップ画像を取得し、前記ターゲット時点は、前記画像収集装置が前記ターゲットオブジェクトをスナップする時点であり、前記スナップ画像から前記ターゲットオブジェクトの同行者を決定し、集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得し、前記集約プロファイルデータ内の同一人は、唯一のプロファイルに対応する。このように、複数のスナップ画像を自動的に分析することで、ターゲットオブジェクトの同行者をすばやく識別することができ、集約プロファイルデータは、一人一ファイルに基づいて確立されるため、同行者の関連情報をすばやく決定するのに役立つ。
以上の一般的な説明および以下の詳細な説明は、説明のための例示的なものに過ぎず、本発明を限定するものではないことを理解されたい。
本願実施例による情報処理方法の実現フローチャートである。 本願実施例による同行回数の検索結果の概略図である。 本願実施例によるターゲットオブジェクトと単一の同行者の同行記録の検索結果の概略図である。 本願実施例による同行者出現場所の検索結果の概略図である。 本願実施例による単一のビデオソースの分析結果の概略図である。 本願実施例による顔クラスタリングのアルゴリズムの原理の概略図である。 本願実施例による顔クラスタリングの実現フローチャートである。 本願実施例による顔クラスタリングの結果の概略図である。 本願実施例によるプロファイル作成プロセスの概略図である。 本願実施例による情報処理装置の構成を示す概略構造図である。
ここでの図面は、本明細書に組み込まれ、本明細書の一部を構成し、これらの図面は、本開示に準拠する実施例を示し、本明細書とともに本開示の技術的解決策を説明するために使用される。
図面を参照して、以下の詳細な説明に従って、本出願をより明確に理解することができる。
以下、図面を参照しながら、本発明の好適な実施例、特徴、および態様について詳細に説明する。図面において、同一の参照符号は、同じまたは類似の機能を有する要素を表す。実施例の様々な態様が図面に示されているが、特に明記しない限り、図面は必ずしも縮尺どおりに描かれている必要はない。
本明細書において、「例示的」という用語は、「例、実施例、または説明として使用される」こと意味する。本明細書において、「例示的」として説明される任意の実施例は、他の実施例よりも優れていると解釈されるべきではない。
本明細書において、「および/または」という用語は、単に関連するオブジェクトを説明する関連関係であり、3つの関係が存在できることを示し、例えば、aおよび/またはbは、aのみが存在し、aおよびbが存在し、bのみが存在するという3つの状況を示すことができる。さらに、本明細書において、「少なくとも1つ」という用語は、複数のうちの任意の1つまたは複数のうちの少なくとも2つの任意の組み合わせを意味し、例えば、a、b、cのうちの少なくとも1つを含むことは、a、bおよびcからなるセットから選択される任意の1つまたは複数の要素を含むことを意味することができる。
さらに、本発明の実施例をより効果的に説明するために、以下の具体的な実施形態において多くの具体的な詳細が与えられる。当業者なら自明であるが、本発明の実施例は、いくつかの特定の詳細なしに実施することもできる。いくつかの例では、本発明の実施例の趣旨を強調するために、当業者に周知の方法、手段、要素、および回路については詳細な説明を省略する。
本発明で言及される上記の各方法の実施例は、原理と論理に違反しない限り、相互に組み合わせて、組み合わされた実施例を形成できることが理解でき、紙数に限りがあるので、本発明の実施例では詳細な説明を省略する。
以下、添付の図面及び具体的な実施例を参照して、本願の技術的解決策をさらに詳細に説明する。
図1に示されるように、本願実施例による情報処理方法は主に、以下のステップを含む。
ステップ101において、第1入力情報を取得し、ここで、前記第1入力情報は、少なくともターゲットオブジェクトの画像を含む。
可能な実施形態において、前記第1入力情報は、さらに、
時間情報、空間情報、および画像収集装置の識別情報のうちの少なくとも1つを含む。
説明すべきものとして、各画像収集装置は全て、前記画像収集装置を表す唯一の識別子を有する。
ここで、前記空間情報は、少なくとも地理位置情報を含む。
ここで、前記画像収集装置は、画像収集機能を備え、例えば、前記画像収集装置は、カメラまたはスナップ装置であり得る。
例示的に、前記第1入力情報は、端末側で警官などの公務員によって入力されることができ、前記端末は、システムデータベースに接続でき、前記システムデータベースには、クラスタリング分析に基づいて確立された集約プロファイルデータが記憶されている。
ここで、前記ターゲットオブジェクトの画像は、ビデオカメラやカメラなどの画像収集装置によって収集されてもよく、スキャナによる走査によって得られてもよく、コミュニケータによって受け取られてもよい。本願実施例は、ターゲットオブジェクトの画像の取得方式を限定しない。
ステップ102において、前記第1入力情報に基づいて、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたスナップ画像を取得し、前記ターゲット時点は、前記画像収集装置が前記ターゲットオブジェクトをスナップする時点である。
ここで、前記Nは正数である。
可能な実施形態において、前記第1入力情報に基づいて、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたスナップ画像を取得することは、
前記第1入力情報に基づいて、1つまたは複数の画像収集装置を決定することと、
前記1つまたは複数の画像収集装置によって収集された画像またはビデオを取得することと、
前記画像またはビデオから、前記ターゲットオブジェクトを含むターゲット画像を決定することと、
前記ターゲット画像を基準とし、前記画像またはビデオから、ターゲット時点の前後N秒間に、前記ターゲット画像を収集した画像収集装置によってスナップされた画像を検索することと、を含む。
具体的には、空間情報に従って、1つまたは複数の画像収集装置を決定する。
例えば、空間情報が都市AのセルBを表す場合、セルBの全てのカメラを、チェックされる画像収集装置として決定する。
例えば、セルBには合計10台のカメラがあり、カメラ1、3、9が、ターゲットオブジェクトXをスナップし、カメラ1がターゲットオブジェクトXを含む画像1をスナップした場合、当該画像1を基準とし、画像1がスナップされた時点の前後N秒以内に当該カメラ1によって収集された画像は全て、ターゲットオブジェクトXの同行者を含む可能性のあるスナップ画像と見なされ、スナップライブラリ1として記録される。同様に、カメラ3がターゲットオブジェクトXを含む画像3をスナップした場合、当該画像3を基準とし、画像3がスナップされた時点の前後N秒以内にカメラ3によって収集された画像は全て、ターゲットオブジェクトXの同行者を含む可能性のあるスナップ画像と見なされ、スナップライブラリ3として記録される。同様に、カメラ9がターゲットオブジェクトXを含む画像9をスナップした場合、当該画像9を基準とし、画像9がスナップされた時点の前後N秒以内に当該カメラ9によって収集された画像も全て、ターゲットオブジェクトXの同行者を含む可能性のあるスナップ画像と見なされ、スナップライブラリ9として記録される。この場合、ターゲットオブジェクトXの同行者を含む可能性のあるスナップ画像は、スナップライブラリ1、スナップライブラリ3およびスナップライブラリ9で構成され、ステップ103では、この3つのスナップライブラリ内の画像を分析する必要がある。
ステップ103において、前記スナップ画像から前記ターゲットオブジェクトの同行者を決定する。
可能な実施形態において、前記スナップ画像から前記ターゲットオブジェクトの同行者を決定することは、
スナップ画像に現れる、ターゲットオブジェクト以外の人物を決定することと、
前記ターゲットオブジェクト以外の人物を、ターゲットオブジェクトの同行者として決定することと、を含む。
つまり、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたM枚のスナップ画像を検索し、このM枚の画像に現れる、ターゲットオブジェクト以外の人物を、ターゲットオブジェクトの同行者として決定する。
ステップ104において、集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得し、前記集約プロファイルデータ内の同一人は、唯一のプロファイルに対応する。
本願実施例では、前記集約プロファイルデータは、クラスタリング分析に基づいて確立されたシステムプロファイルデータである。前記集約プロファイルデータは、システムデータベースに記憶され、前記システムデータベースは、少なくとも、第1データベースと第2データベースに分割され、ここで、前記第1データベースは、画像収集装置によってスナップされたポートレート画像に基づいて形成され、前記第2データベースは、実名の画像情報に基づいて形成される。
理解を容易にするために、前記第1データベースをスナップポートレートライブラリと呼ぶことができ、それは画像収集装置によってスナップされたポートレート画像に従って形成され、第2データベースを静的ポートレートライブラリと呼ぶことができ、それは身分証明書などの実名で認証された市民情報に従って形成される。
いくつかの可能な実施形態では、前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
集約プロファイルデータに基づいて、全ての同行者の関連情報を決定することを含み、
ここで、同行者の関連情報は、
未実名の同行者の場合、少なくとも第1データベース内の前記同行者の各スナップ画像を含み、
実名の同行者の場合、少なくとも第2データベース内の画像情報とテキスト情報を含む。
このように、集約プロファイルデータに基づいてスナップ画像を統計分析することにより、ターゲットオブジェクトの同行者の関連情報をすばやく取得でき、このようにして、容疑者の仲間を見つけて、実名関係ネットワークを確立するのに役立ち、調査が大幅に容易になる。
一具体的な例では、端末側は入力情報を取得し、前記入力情報は容疑者Q、期間(秒まで正確に設定できる)、カメラ識別子、前後t秒を含み、端末側は、当該入力情報に基づいて、容疑者Qの同行者を含む可能性のある全てのスナップ画像を検索し、当該端末に接続されたシステムデータベースに基づいてスナップ画像を集約し、同じプロファイルに属するスナップ画像を集約する。出力命令を受信した場合、端末は、容疑者Qの全ての同行者の関連情報を出力し、ここで、同行者の関連情報は、具体的には実名の同行者と未実名の同行者に分けられる。具体的には、実名の同行者の関連情報は、ライブラリ内の画像および身分証明書番号、名前、住所、民族などのテキスト情報を含み、未実名の同行者に関する情報は、スナップの小さい画像を含む。ここで、前記スナップの小さい画像は、スナップ画像を基準とした相対的なものであり、スナップ画像の一部である。
いくつかの可能な実施形態では、前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
全ての同行者と前記ターゲットオブジェクトとの同行回数を決定することと、
前記同行回数に基づいて前記全ての同行者を並べ替えて、同行者シーケンスを取得することと、をさらに含む。
依然として上記の具体的な例を例にとると、同行回数の出力命令を受信した場合、端末は、容疑者Qの全ての同行者の同行回数を出力し、同行回数の降順または昇順に並べ替える。
図2は、本願実施例による同行回数の検索結果の概略図であり、図2にしめされるように、検索結果インターフェースにおいて、左側には、同行者のアバタ、当該同行者に関連する過去30日間のスナップ回数の曲線図、最大スナップ期間のヒストグラ、および当該同行者をスナップしたカメラの位置が表示され、右側には、異なる地域における同行者の同行回数が表示される。このように、同行者の同行回数などの情報が非常に明確に表示されるため、容疑者の仲間を見つけて、同行者の関係ネットワークを確立するのに役立ち、調査が大幅に容易になる。
説明すべきものとして、インターフェースに表示される内容やレイアウトなどの情報は、ユーザニーズまたは設計ニーズに従って設定または調整できることが理解できる。
いくつかの可能な実施形態では、前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
前記同行者シーケンスから第1同行者を決定することと、
前記ターゲットオブジェクトと前記第1同行者との全ての同行記録を決定することと、をさらに含み、
ここで、前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記第1同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む。
ここで、前記第1同行者は、全ての同行者のいずれかである。
このように、同行回数を取得した上で、ターゲットオブジェクトと単一の同行者の詳細な同行記録を照会できる。
一具体的な例では、端末側は、容疑者Qの全ての同行者の同行回数および同行者の関連情報を決定した場合、入力情報を受信し、前記入力情報は、同行者G(同行者Gは全ての同行者のうちの一人である)を含み、端末は、容疑者Qと同行者Gの全ての同行記録を検索する。出力命令を受信した場合、端末は、容疑者Qと容疑者Gが毎回同行した関連情報を出力し、前記関連情報は、容疑者Qと容疑者Gのスナップの小さい画像および大きい画像、スナップ時間、カメラ情報を含み、スナップの時間順または逆時間順に応じて、結果を並べ替えることをサポートする。ここで、前記スナップの小さい画像は、スナップ画像を基準としたものであり、スナップ画像の一部であり、スナップの大きい画像は、スナップの小さい画像を基準した相対的なものであり、スナップの画像全体である。
つまり、端末は、ターゲットオブジェクトプロファイルID+1つの同行者プロファイルID+時間範囲+カメラIDという条件で、ページングソートのデータ検索方式をサポートする。
図3は、本願実施例によるターゲットオブジェクトと単一の同行者の同行記録の検索結果の概略図であり、図3に示されるように、図2の検索結果概略図の上で、左側には、ターゲットオブジェクトと同行者のスナップ画像、当該ターゲットオブジェクトと同行者をスナップしたカメラが属する領域およびカメラ情報が表示され、右側には、当該ターゲットオブジェクトと同行者が同行するビデオが表示される。このように、単一の同行者の同行記録情報が非常に明確に表示されるため、容疑者の仲間を見つけて、同行者の関係ネットワークを確立するのに役立ち、調査が大幅に容易になる。
説明すべきものとして、インターフェースに表示される内容やレイアウトなどの情報は、ユーザニーズまたは設計ニーズに従って設定または調整できることが理解できる。
いくつかの可能な実施形態では、前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
前記同行者シーケンスに基づいて、K(Kは正整数である)個の同行者を決定することと、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録を決定することと、をさらに含み、
ここで、前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記K個の同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む。
ここで、前記K個の同行者は、同行者シーケンスの上位K個の同行者である。
このように、同行回数を取得した上で、k個の同行者の同行記録を統計できる。
いくつかの可能な実施形態では、前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録に基づいて、各画像収集装置の前記K個の同行者のスナップ回数を統計することをさらに含む。
このように、同行記録を取得した上で、K個の同行者のスナップ回数を統計できる。
一具体的な例では、端末側は、容疑者Qの全ての同行者の同行回数および同行者の関連情報を決定した場合、入力情報を受信し、前記入力情報は、TOP K(同行回数が最も多い上位K個の同行者を取得し、Kは無制限である)を含み、端末は、各カメラでの容疑者QのTOP K同行者のスナップ回数を統計する。出力命令を受信した場合、端末は、各カメラでの容疑者Qの同行者のスナップ回数を出力する。
つまり、端末は、複数の同行者プロファイルID+時間範囲+複数のカメラIDという条件で、カメラのスナップ回数を統計するデータ検索方式をサポートする。
図4は、本願実施例による同行出現場所の検索結果の概略図であり、図4に示されるように、図2の検索結果の概略図の上で、左側には、同行者のアバタ、当該同行者に関連する過去30日間のスナップ回数の曲線図、最大スナップ期間のヒストグラ、および当該同行者をスナップしたカメラか属する領域が表示され、右側には、地図にマークされた各カメラでのスナップ回数が表示される。このように、各カメラでの同行者のスナップ回数が非常に明確に表示されるため、容疑者の仲間を見つけて、捜査ネットワークを決定するのに役立ち、調査が大幅に容易になる。
説明すべきものとして、インターフェースに表示される内容やレイアウトなどの情報は、ユーザニーズまたは設計ニーズに従って設定または調整できることが理解できる。
いくつかの可能な実施形態では、前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
指定された画像収集装置によって収集された指定ビデオストリームを取得することと、
前記全ての同行記録から、前記指定ビデオストリーム内の前記ターゲットオブジェクトと前記K個の同行者の同行記録を検索することと、をさらに含む。
このようにして、指定ビデオソースに現れるTOP Kの同行者の同行記録を選別できる。
一具体的な例では、端末側は、容疑者Qの全ての同行者の同行回数および同行者の関連情報を決定した場合、入力情報を受信し、当該入力情報は、TOP K(同行回数が最も多い上位K個の同行者を取得し、Kは無制限である)およびビデオソースを含み、端末は、指定ビデオソースでの容疑者QのTOP K同行者の出現場所を統計する。出力命令を受信した場合、端末は、指定ビデオソースで現れた、容疑者QとTOP K同行者の各ペアの同行関連情報を出力し、前記関連情報は、容疑者Qと容疑者Gのスナップ小さい画像、大きい画像、スナップ時間、カメラ情報を含み、スナップの時間順または逆時間順に応じて、結果を並べ替えることをサポートする。
つまり、端末は、ターゲットオブジェクトプロファイルID+複数の同行者プロファイルID+時間範囲+複数のカメラIDという条件で、ページングソートのデータ検索方式をサポートする。
図5は、本願実施例による単一のビデオソースの分析結果の概略図であり、図5に示されるように、図2の検索結果の概略図の上で、左側には、指定ビデオソース、前記指定ビデオソースに対応するカメラ情報、ターゲットオブジェクトと同行者のアバタ、および同行時間が表示され、右側には、地図にマークされた前記指定ビデオソースに対応するカメラの位置が表示される。このように、単一の指定ビデオソースに対して同行者分析を実行することにより、容疑者の仲間を見つけて、捜査ネットワークを決定するのに役立ち、調査が大幅に容易になる。
説明すべきものとして、インターフェースに表示される内容やレイアウトなどの情報は、ユーザニーズまたは設計ニーズに従って設定または調整できることが理解できる。
本願実施例による技術的解決策は、スナップ画像を介してターゲットオブジェクトの同行者を決定することにより、同行者を迅速に識別でき、システム内の集約プロファイルデータに基づいて同行者に対して集約分析を実行することにより、同行者の関連情報を迅速に決定できる、同行者の識別精度を向上させるのに役立つ。
本願で説明された技術的解決策は、スマートビデオ分析やセキュリティ監視などの分野に適用できる。例えば、住居侵入窃盗、テロ防止監視、医療紛争、麻薬の取り締まり、国家安全保障、コミュニティコントロールなどの案件の検査に用いることができる。例えば、案件が発生した後、警察は容疑者Fのポートレート写真を持っており、容疑者Fの写真を同行者分析項目にアップロードし、案件が発生した期間、案件現場周辺のビデオソースを設定して、容疑者FとY回以上同行した人物のプロファイルを見つけて、共犯者の軌跡を見つけ、共犯者の位置を確認できる。共犯者の写真を見つけた後、上記のステップを繰り返して、より多くの可能な共犯者の写真を見つけることができる。このように、警察は手がかりをつなげやすく、事件解決の効率を向上できる。
上述した技術的解決策において、ステップ101の前に、選択可能に、前記情報処理方法は、
ステップ100(図1に図示せず)において、クラスタリング分析に基づいて集約プロファイルデータを確立する。
いくつかの可能な実施形態では、クラスタリング分析に基づいて集約プロファイルデータを確立することは、
第1データベース内の画像データに対してクラスタリング処理を実行して、クラスタリング処理結果を取得することであって、前記第1データベースは、画像収集装置によってスナップされたポートレート画像に基づいて形成される、ことと、
第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得することであって、前記第2データベースは、実名の画像情報に基づいて形成される、ことと、
前記クラスタリング処理結果と前記集約処理結果を関連分析して、集約プロファイルデータを取得することと、を含む。
このようにして、システム内の人の全てのプロファイル情報を取得できる。
いくつかの可能な実施形態では、第1データベース内の画像データに対してクラスタリング処理を実行することは、
前記第1データベース内の画像データから顔画像データを抽出することと、
前記顔画像データを複数のクラスに分けることと、を含み、前記複数のクラスの各クラスは1つのクラス中心を有し、前記クラス中心はクラス中心特徴値を含む。
このように、多くのポートレートスナップ画像で顔クラスタリングを実行する方法を提供し、即ち、顔の集合を類似する顔で構成される複数のクラスに分け、クラスタリングによって生成されたクラスは、データオブジェクトの集合であり、これらのオブジェクトは、同一のクラスのオブジェクトに類似しており、他のクラスのオブジェクトとは異なる。
具体的には、既存のクラスタリングアルゴリズムを使用して、顔画像データを複数のクラスに分けることができる。
図6は、本願実施例による顔クラスタリングのアルゴリズムの原理の概略図であり、図6に示されるように、顔クラスタリングのアルゴリズムの原理は、主に以下の3つのステップを含む。
1番目のステップ:新しく入力した特徴とベースライブラリのクラス中心に対して最近傍検索を実行して、FAISSインデックスを使用して、前記新しく入力した特徴が既存のベースライブラリに属するか否か、即ち、前記新しく入力した特徴に対応するクラスがあるか否かを決定する。
ここで、前記FAISSは、Facebook AI Similarity Searchの略称であり、オープンソース類似度検索ライブラリと呼ばれる。
2番目のステップ:クラスのある特徴の処理において、前記クラスのある特徴と既存のクラスとをクラスタリングし、ベースライブラリのクラス中心を更新する。
3番目のステップ:クラスのない特徴の処理において、前記クラスのない特徴をクラスタリングして、クラスを決定し、新しいクラスタリング中心をベースライブラリのクラス中心に追加する。
図7は、本願実施例による顔クラスタリングの実現フローチャートであり、図7に示されるように、先ずスナップライブラリを決定し、次にスナップライブラリ内の各画像の1つの特徴を決定し、特徴距離が近い(類似度が高い)特徴を1つのクラスに集約し、集約結果に基づいてスナップライブラリ内の画像を分類する。
図8は、本願実施例による顔クラスタリングの結果の概略図であり、図8に示されるように、左図の各図形は、1つの特徴を表示するか、またはスナップされた1つの写真を表示し、類似した形状は、類似度が高いことを表し、右図は、クラスタリング処理後の図であり、類似度に応じて自動的にクラスタリングし、1つのクラスは一人を表す。
いくつかの可能な実施形態では、第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得することは、
身分証明書番号が同じである画像データを1つの画像ライブラリに集約することと、
前記画像ライブラリと前記身分証明書番号に対応するテキスト情報との間の関連関係を確立して、集約処理結果を取得することと、を含み、前記集約処理結果の各身分証明書番号は、唯一のプロファイルデータに対応する。
つまり、第2データベースでは、身分証明書番号が同じである画像データを1つのプロファイルに集約する。
いくつかの可能な実施形態では、前記クラスタリング処理結果と前記集約処理結果を関連分析することは、
第1データベース内の各クラス中心特徴値と第2データベース内の各参照クラス中心特徴値とを全量比較して、全量比較結果を取得することと、
前記全量比較結果に基づいて、類似度が最も高い且つ類似度がプリセットされた閾値より大きいターゲット参照クラス中心特徴値を決定することと、
前記第2データベースから、前記ターゲット参照クラス中心特徴値に対応するターゲットポートレートおよび前記ターゲットポートレートに対応する身分情報を検索することと、
前記ターゲットポートレートに対応する身分情報と前記第1データベース内のクラス中心特徴値に対応する画像との間の関連関係を確立することと、を含む。
このようにして、類似度が最も高い画像に対応する身分情報をこのスナップライブラリのクラスに付与し、このクラスのスナップポートレートが実名になるようにする。
上記の解決策において、例示的に、前記情報処理方法は、
前記第1データベースに画像データを追加する場合、新しく追加された画像データに対してクラスタリング処理を実行し、前記新しく追加された画像データ内の顔画像データを複数のクラスに分け、前記第1データベースから、前記複数のクラスと同じクラスがあるか否かを検索し、前記複数のクラスのうちの第1クラスと同じクラスがある場合、前記第1クラスの画像データを前記第1クラスの既存のプロファイルにマージし、前記複数のクラスのうちの第2クラスと同じクラスがない場合、前記第2クラスに基づいて新しいプロファイルを作成して、前記第1データベースに追加することをさらに含む。
ここで、前記第1クラスの既存のプロファイルは、前記第1データベースに既存の第1クラスのプロファイルであり、前記第1データベースにおいて、各クラスに対応する唯一のプロファイルがある。
このように、データベースに新たな増分が発生する場合、システム内のプロファイルデータを適時に更新または補充することができる。
上記の解決策において、例示的に、前記情報処理方法は、
前記第2データベースに画像データを追加する場合、前記第2データベースから、新しく追加された前記画像データと同じ身分証明書番号があるか否かを検索し、前記画像データのうちの第1画像データと同じ第1身分証明書番号がある場合、前記第1画像データを前記第1身分証明書番号に対応する既存のプロファイルにマージし、前記画像データのうちの第2画像データと同じ第2身分証明書番号がない場合、前記第2画像データの第2身分証明書番号に基づいて新しいプロファイルを作成して、前記第2データベースに追加することをさらに含む。
ここで、前記第1身分証明書番号に対応する既存のプロファイルは、前記第2データベースに既存の第1身分証明書番号のプロファイルであり、前記第2データベースにおいて、各身分証明書番号に対応する唯一のプロファイルがある。
このように、データベースに新たな増分が発生する場合、システム内のプロファイルデータを適時に更新または補充することができる。
図9は、本願実施例によるプロファイル作成プロセスの概略図であり、図9に示されるように、当該プロセスは、主に、ライブラリへの保存、分類、関連付け、一人一ファイル、未実名プロファイルの5つの部分に分けられる。ポートレートライブラリの場合、ポートレートをライブラリにバッチ保存し、同じ身分証明書番号のポートレートを1つのプロファイルに集約する。スナップライブラリの場合、スナップ画像をライブラリにバッチ保存するか、またはビデオストリームに接続し、1時間または1日に1回クラスタリングするなど、定期的にクラスタリングをトリガし、時間は設定可能であり、初回は全量クラスタリングであり、以降は増分クラスタリングであり、既存のクラスと集約し、類似したクラスがない場合、自動的に新しいクラスに集約できる。新しく追加されたポートレートの場合、それらをライブラリにバッチ保存するか、またはライブラリに一枚ずつ保存し、ポートレートライブラリの既存のプロファイルに、新しく追加されたポートレートと同じ身分証明書番号があるか否かを検索し、ある場合、新しく追加されたポートレートを同じ身分証明書番号のプロファイルに集約し、新しく追加されたポートレートと同じ身分証明書番号がない場合、新しく追加されたポートレートのために新しいプロファイルを作成する。追加されたスナップの場合、それらをライブラリにバッチ保存するか、またはライブラリに一枚ずつ保存し、またはビデオストリームに接続し、定期的にクラスタリングをトリガし、スナップライブラリの既存のプロファイルに、新しく追加されたスナップと同じクラスがあるか否かを検索し、ある場合、新しく追加されたスナップを同じクラスのプロファイルに集約し、新しく追加されたスナップと同じクラスがない場合、新しく追加されたスナップのために新しいプロファイルを作成し、新しいクラスのクラス中心とポートレートライブラリとをライブラリヒットする。スナップライブラリとポートレートライブラリをライブラリヒットし、具体的には、スナップライブラリをクラスタリングした後に複数のクラス(人)に分け、各クラスは1つのクラス中心を有し、前記クラス中心は、1つのクラス中心特徴値に対応し、次に、各クラス中心特徴値とポートレートライブラリを全量1:n比較し、類似度が最も高い(TOP1)且つ類似度がプリセットされた閾値より大きいポートレートを取得し、当該TOP1のポートレートに対応する身分情報をこのスナップライブラリのクラスに付与し、このクラスのスナップポートレートが実名になるよぅにする。
明らかに、市民身分付きのポートレートライブラリ(静的ライブラリ)を基準ライブラリとして使用し、スナップ装置によってスナップされた、時空間情報付きの顔スナップ画像と組み合わせてクラスタリングし、2つずつの類似度を判断基準とし、顔認識システムにおける疑似同一人の情報を関連付けることにより、一人が唯一の総合プロファイルを有するようにする。プロファイルから、潜在的な容疑者の属性特徴、行為特徴など取得できる。
このように、全てのクラスタリングされた(実名、未実名を含む)プロファイルから条件付きの絞り込みを実行して、指定された時間範囲の指定されたビデオソースの同一人のスナップの枚数が特定の閾値を超える特定の人のプロファイル情報を見つける。そのプロファイル情報を取得した後、ユーザは、容疑者のポートレート情報に従って、特定の地域の特定の期間において、当該容疑者と前後t秒間に同行する人をすばやく見つけ、条件を満たす同行者のスナップ画像を集約することができ、または、同行者の同行回数を取得する上で、容疑者Qと単一の同行者Gの詳細な同行記録を検索することで、特定の容疑者の同行記録および同行者関係ネットワークを決定できる。
大量のデータシナリオでは効率的な自動分類を実現することが難しいという問題がある従来技術と比較して、本願は、大量のスナップ画像を自動的に分類することができ、ビデオ監視でスナップされた大量の容疑者のスナップ画像を、警察署に既存の人物データベース内の情報に効率的且つ自動に関連付けることができる。本出願に記載の技術的解決策は、入力された指定条件に従って、ターゲットオブジェクトの全ての同行者のスナップ画像を検索し、さらに、同行者のスナップ画像を集約(同じプロファイルに属するスナップを集約する)することにより、ターゲットオブジェクトのプロファイルに基づいて同行者分析を実行して、同行者関係ネットワークをさらに明確にすることができ、全ての同行者のスナップ情報を効率的に利用することができる。
本願実施例は、さらに、情報処理装置を提供し、図10に示されるように、前記装置は、
第1入力情報を取得するように構成される第1取得モジュール10であって、前記第1入力情報は、少なくともターゲットオブジェクトを含む画像を含む、第1取得モジュール10と、
前記第1入力情報に基づいて、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたスナップ画像を取得するように構成される第2取得モジュール20であって、前記ターゲット時点は、前記画像収集装置が前記ターゲットオブジェクトをスナップする時点である、第2取得モジュール20と、
前記スナップ画像から前記ターゲットオブジェクトの同行者を決定するように構成される決定モジュール30と、
集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得するように構成される処理モジュール40であって、前記集約プロファイルデータ内の同一人は、唯一のプロファイルに対応する、処理モジュール40と、を備える。
一実施形態では、前記処理モジュール40は、さらに、
集約プロファイルデータに基づいて、全ての同行者の関連情報を決定するように構成され、
ここで、同行者の関連情報は、
未実名の同行者の場合、少なくともシステムの第1データベース内の前記同行者の各スナップ画像を含み、
実名の同行者の場合、少なくともシステムの第2データベース内の画像情報とテキスト情報を含む。
一実施形態では、前記処理モジュール40は、さらに、
全ての同行者と前記ターゲットオブジェクトとの同行回数を決定し、
前記同行回数に基づいて前記全ての同行者を並べ替えて、同行者シーケンスを取得するように構成される。
一実施形態では、前記処理モジュール40は、さらに、
前記同行者シーケンスから第1同行者を決定し、
前記ターゲットオブジェクトと前記第1同行者との全ての同行記録を決定するように構成され、
ここで、前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記第1同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む。
一実施形態では、前記処理モジュール40は、さらに、
前記同行者シーケンスに基づいて、K(Kは正整数である)個の同行者を決定し、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録を決定するように構成され、
ここで、前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記K個の同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む。
一実施形態では、前記処理モジュール40は、さらに、
指定された画像収集装置によって収集された指定ビデオストリームを取得し、
前記全ての同行記録から、前記指定ビデオストリーム内の前記ターゲットオブジェクトと前記K個の同行者の同行記録を検索するように構成される。
一実施形態では、前記処理モジュール40は、さらに、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録に基づいて、各画像収集装置の前記K個の同行者のスナップ回数を統計するように構成される。
上記の解決策では、例示的に、前記情報処理装置は、さらに、
プロファイル作成モジュール50を備え、前記プロファイル作成モジュール50は、
第1データベース内の画像データに対してクラスタリング処理を実行して、クラスタリング処理結果を取得し、ここで、前記第1データベースは、画像収集装置によってスナップされたポートレート画像に基づいて形成され、
第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得し、ここで、前記第2データベースは、実名の画像情報に基づいて形成され、
前記クラスタリング処理結果と前記集約処理結果を関連分析して、集約プロファイルデータを取得するように構成される。
一実施形態では、前記プロファイル作成モジュール50は、さらに、
前記第1データベース内の画像データから顔画像データを抽出し、
前記顔画像データを複数のクラスに分けるように構成され、前記複数のクラスの各クラスは1つのクラス中心を有し、前記クラス中心はクラス中心特徴値を含む。
一実施形態では、前記プロファイル作成モジュール50は、さらに、
身分証明書番号が同じである画像データを1つの画像ライブラリに集約し、
前記画像ライブラリと前記身分証明書番号に対応するテキスト情報との間の関連関係を確立して、集約処理結果を取得するように構成され、前記集約処理結果の各身分証明書番号は、唯一のプロファイルデータに対応する。
一実施形態では、前記プロファイル作成モジュール50は、さらに、
第1データベース内の各クラス中心特徴値と第2データベース内の各参照クラス中心特徴値とを全量比較して、全量比較結果を取得し、
前記全量比較結果に基づいて、類似度が最も高い且つ類似度がプリセットされた閾値より大きいターゲット参照クラス中心特徴値を決定し、
前記第2データベースから、前記ターゲット参照クラス中心特徴値に対応するターゲットポートレートおよび前記ターゲットポートレートに対応する身分情報を検索し、
前記ターゲットポートレートに対応する身分情報と前記第1データベース内のクラス中心特徴値に対応する画像との間の関連関係を確立するように構成される。
一実施形態では、前記プロファイル作成モジュール50は、さらに、
前記第1データベースに画像データを追加する場合、新しく追加された画像データに対してクラスタリング処理を実行し、前記新しく追加された画像データ内の顔画像データを複数のクラスに分け、前記第1データベースから、前記複数のクラスと同じクラスがあるか否かを検索し、前記複数のクラスのうちの第1クラスと同じクラスがある場合、前記第1クラスの画像データを前記第1クラスの既存のプロファイルにマージし、前記複数のクラスのうちの第2クラスと同じクラスがない場合、前記第2クラスに基づいて新しいプロファイルを作成して、前記第1データベースに追加するように構成される。
一実施形態では、前記プロファイル作成モジュール50は、さらに、
前記第2データベースに画像データを追加する場合、前記第2データベースから、新しく追加された前記画像データと同じ身分証明書番号があるか否かを検索し、前記画像データのうちの第1画像データと同じ第1身分証明書番号がある場合、前記第1画像データを前記第1身分証明書番号に対応する既存のプロファイルにマージし、前記画像データのうちの第2画像データと同じ第2身分証明書番号がない場合、前記第2画像データの第2身分証明書番号に基づいて新しいプロファイルを作成して、前記第2データベースに追加するように構成される。
当業者なら自明であるが、いくつかの可能な実施例では、図10に示される情報処理装置の各処理モジュールによって実現される機能は、前述した情報処理方法に関する説明を参照することによって理解できる。
当業者なら自明であるが、いくつかの可能な実施例では、図10に示される情報処理装置の各処理ユニットの機能は、プロセッサで実行されるプログラムにより実現されてもよいし、特定の論理回路により実現されてもよい。
実際の応用では、上述した第1取得モジュール10、第2取得モジュール20、決定モジュール30、処理モジュール40、およびプロファイル作成モジュール50の具体的な構造はすべて、プロセッサに対応することができる。前記プロセッサの具体的な構造は、中央処理装置(CPU:Central Processing Unit)、マイクロプロセッサ(MCU:Micro Controller Unit)、デジタル信号プロセッサ(DSP:Digital Signal Processing)、またはプログラマブルロジックデバイス(PLC:Programmable Logic Controller)などの処理機能を備えた電子要素または電子要素の集合である。ここで、コンピュータプログラムは実行可能なコードを含み、前記コンピュータプログラムは記憶媒体に記憶され、前記プロセッサは、バスなどの通信インターフェースを介して前記記憶媒体に接続でき、具体的な各ユニットの対応する機能を実行する場合、前記記憶媒体から前記実行可能なコードを呼び出して実行する。前記実行可能なコードを記憶するための前記記憶媒体は、好ましくは、非一時的な記憶媒体である。
前記第1取得モジュール10、第2取得モジュール20、決定モジュール30、処理モジュール40、およびプロファイル作成モジュール50は、集積されて同一のプロセッサに対応するか、またはそれぞれ異なるプロセッサに対応することができる。集積されて同一のプロセッサに対応する場合、前記プロセッサは、時分割で前記第1取得モジュール10、第2取得モジュール20、決定モジュール30、処理モジュール40、およびプロファイル作成モジュール50に対応する機能を処理することができる。
本願実施例による情報処理装置は、集約プロファイルデータに基づいてスナップ画像に対して集約分析を実行する方式で、同行者および同行者の関連情報を決定し、これは、同行者の識別精度を向上させるのに役立つ。
本願実施例は、さらに、情報処理装置を開示し、前記装置は、メモリと、プロセッサと、メモリに記憶され且つプロセッサで実行可能なコンピュータプログラムとを備え、前記プロセッサが前記プログラムを実行するときに、前述した任意の技術的解決策による情報処理方法を実現する。
本願実施例では、前記プロセッサが前記プログラム実行するときに、
第1入力情報を取得することであって、前記第1入力情報は、少なくともターゲットオブジェクトを含む画像を含む、ことと、
前記第1入力情報に基づいて、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたスナップ画像を取得することであって、前記ターゲット時点は、前記画像収集装置が前記ターゲットオブジェクトをスナップする時点である、ことと、
前記スナップ画像から前記ターゲットオブジェクトの同行者を決定することと、
集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することであって、前記集約プロファイルデータ内の同一人は、唯一のプロファイルに対応する、ことと、を実現する。
一実施形態では、前記プロセッサが前記プログラム実行するときに、
集約プロファイルデータに基づいて、全ての同行者の関連情報を決定することを実現し、
ここで、同行者の関連情報は、
未実名の同行者の場合、少なくともシステムの第1データベース内の前記同行者の各スナップ画像を含み、
実名の同行者の場合、少なくともシステムの第2データベース内の画像情報とテキスト情報を含む。
一実施形態では、前記プロセッサが前記プログラム実行するときに、
全ての同行者と前記ターゲットオブジェクトとの同行回数を決定することと、
前記同行回数に基づいて前記全ての同行者を並べ替えて、同行者シーケンスを取得することと、を実現する。
一実施形態では、前記プロセッサが前記プログラム実行するときに、
前記同行者シーケンスから第1同行者を決定することと、
前記ターゲットオブジェクトと前記第1同行者との全ての同行記録を決定することと、を実現し、
ここで、前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記第1同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む。
一実施形態では、前記プロセッサが前記プログラム実行するときに、
前記同行者シーケンスに基づいて、K(Kは正整数である)個の同行者を決定することと、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録を決定することと、を実現し、
ここで、前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記K個の同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む。
一実施形態では、前記プロセッサが前記プログラム実行するときに、
指定された画像収集装置によって収集された指定ビデオストリームを取得することと、
前記全ての同行記録から、前記指定ビデオストリーム内の前記ターゲットオブジェクトと前記K個の同行者の同行記録を検索することと、を実現する。
一実施形態では、前記プロセッサが前記プログラム実行するときに、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録に基づいて、各画像収集装置の前記K個の同行者のスナップ回数を統計することを実現する。
一実施形態では、前記プロセッサが前記プログラム実行するときに、
第1データベース内の画像データに対してクラスタリング処理を実行して、クラスタリング処理結果を取得することであって、ここで、前記第1データベースは、画像収集装置によってスナップされたポートレート画像に基づいて形成される、ことと、
第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得することであって、ここで、前記第2データベースは、実名の画像情報に基づいて形成される、ことと、
前記クラスタリング処理結果と前記集約処理結果を関連分析して、集約プロファイルデータを取得することと、を実現する。
一実施形態では、前記プロセッサが前記プログラム実行するときに、
前記第1データベース内の画像データから顔画像データを抽出することと、
前記顔画像データを複数のクラスに分けることと、を実現し、前記複数のクラスの各クラスは1つのクラス中心を有し、前記クラス中心はクラス中心特徴値を含む。
一実施形態では、前記プロセッサが前記プログラム実行するときに、
身分証明書番号が同じである画像データを1つの画像ライブラリに集約することと、
前記画像ライブラリと前記身分証明書番号に対応するテキスト情報との間の関連関係を確立して、集約処理結果を取得することと、を実現し、前記集約処理結果の各身分証明書番号は、唯一のプロファイルデータに対応する。
一実施形態では、前記プロセッサが前記プログラム実行するときに、
第1データベース内の各クラス中心特徴値と第2データベース内の各参照クラス中心特徴値とを全量比較して、全量比較結果を取得することと、
前記全量比較結果に基づいて、類似度が最も高い且つ類似度がプリセットされた閾値より大きいターゲット参照クラス中心特徴値を決定することと、
前記第2データベースから、前記ターゲット参照クラス中心特徴値に対応するターゲットポートレートおよび前記ターゲットポートレートに対応する身分情報を検索することと、
前記ターゲットポートレートに対応する身分情報と前記第1データベース内のクラス中心特徴値に対応する画像との間の関連関係を確立することと、を実現する。
一実施形態では、前記プロセッサが前記プログラム実行するときに、
前記第1データベースに画像データを追加する場合、新しく追加された画像データに対してクラスタリング処理を実行し、前記新しく追加された画像データ内の顔画像データを複数のクラスに分け、前記第1データベースから、前記複数のクラスと同じクラスがあるか否かを検索し、前記複数のクラスのうちの第1クラスと同じクラスがある場合、前記第1クラスの画像データを前記第1クラスの既存のプロファイルにマージし、前記複数のクラスのうちの第2クラスと同じクラスがない場合、前記第2クラスに基づいて新しいプロファイルを作成して、前記第1データベースに追加することを実現する。
一実施形態では、前記プロセッサが前記プログラム実行するときに、
前記第2データベースに画像データを追加する場合、前記第2データベースから、新しく追加された前記画像データと同じ身分証明書番号があるか否かを検索し、前記画像データのうちの第1画像データと同じ第1身分証明書番号がある場合、前記第1画像データを前記第1身分証明書番号に対応する既存のプロファイルにマージし、前記画像データのうちの第2画像データと同じ第2身分証明書番号がない場合、前記第2画像データの第2身分証明書番号に基づいて新しいプロファイルを作成して、前記第2データベースに追加することを実現する。
本願実施例による情報処理装置は、集約プロファイルデータに基づいてスナップ画像に対して集約分析を実行する方式で、同行者および同行者の関連情報を決定し、これは、同行者の識別精度を向上させるのに役立つ。
本願実施例は、さらに、コンピュータ実行可能な命令が記憶されたコンピュータ記憶媒体を提供し、前記コンピュータ実行可能な命令は、前述した各実施例に記載の情報処理方法を実行するために使用される。つまり、前記コンピュータ実行可能な命令がプロセッサによって実行されると、上記のいずれかの技術的解決策による情報処理方法を実現することができる。
当業者なら自明であるが、本実施例のコンピュータ記憶媒体における各プログラムの機能は、前述した各実施例に記載の情報処理方法に関する説明を参照して理解することができる。前記コンピュータ記憶媒体は、揮発性コンピュータ可読記憶媒体または不揮発性コンピュータ可読記憶媒体であってもよい。
本発明の実施例は、さらに、コンピュータ可読コードを含むコンピュータプログラム製品を提供し、コンピュータ可読コードが機器で実行される時に、前記機器内のプロセッサは、上記の実施例のいずれか1つによる情報処理方法を実現するための命令を実行する。
前記コンピュータプログラム製品は、具体的に、ハードウェア、ソフトウェアまたはそれらの組み合わせの方式によって実現することができる。一代替実施例では、前記コンピュータプログラム製品は、具体的には、コンピュータ記憶媒体として実現され、別の代替実施例では、コンピュータプログラム製品は、具体的には、例えばソフトウェア開発キット(Software Development Kit:SDK)などのソフトウェア製品として実現される。
当業者なら自明であるが、本実施例のコンピュータ記憶媒体における各プログラムの機能は、前述した各実施例に記載の情報処理方法に関する説明を参照して理解することができる。
本願で説明された技術的解決策によれば、ビデオ監視における同一人のスナップ画像を既存の静的な人物データベースと自動的に組み合わせることにより、警察は手がかりをつなげやすく、事件解決の効率を向上させることができる。例えば、組織犯罪を解決する場合、同行者に従って他の犯罪容疑者を見つけ、容疑者の同行者を分析することにより、容疑者の社会的関係を知ることができ、当該容疑者の身元と行方を調査することができる。
また、本明細書に挙げた各代替実施例は、例示的なものに過ぎず、当業者が本願の実施例の技術的解決手段をよりよく理解するのを助けるために用いられ、本願の実施例を限定するものと解釈すべきではなく、当業者が本明細書に記載された各代替実施例に基づいて行う様々な変更及び置換も、本願の実施例の一部として解釈すべきであることを理解されたい。
さらに、本明細書における各実施例の技術的解決策の説明は、各実施例の相違点を強調することに着目しており、その同一点または類似点は相互に参照することができ、簡潔にするために、ここでは繰り返して説明しない。
本出願で提供するいくつかの実施例において、開示された機器および方法は、他の方式で実現されてもよいことを理解されたい。以上に説明した機器の実施例は単なる例示的なものであり、例えば、前記ユニットの分割は、論理的な機能の分割に過ぎない。実際の実現では、別の分割方法が存在でき、例えば、複数のユニットまたはコンポーネントを組み合わせるか別のシステムに統合することができ、または一部の特徴を無視するか実行しないことができる。さらに、図示または説明された各構成要素間の相互結合または直接結合または通信接続は、いくつかのインターフェース、機器またはユニットを介した間接な結合または通信接続であり得、電気的、機械的または他の形態であり得る。
前記分離部材として説明されたユニットは、物理的に分離されてもされていなくてもよく、ユニットとして表示された部材は、物理的なユニットであってもなくてもよい。つまり、前記ユニットは、1箇所に配置されてもよいし、複数のネットワークユニットに分散されてもよく、実際の必要に応じて、そのうちの一部またはすべてのユニットを選択して、本実施例の技術案の目的を実現することができる。
また、本発明の各実施例における各機能ユニットは、すべて1つの第2処理ユニットに統合されてもよく、各ユニットが個別に1つのユニットとして使用されてもよく、2つ以上のユニットが1つのユニットに統合されてもよい。前記統合されたユニットは、ハードウェアの形で、またはハードウェアとソフトウェア機能ユニットの組み合わせの形で具現することができる。
当業者なら自明であるか、上記方法の実施例を実現する全部または一部のステップは、プログラム命令に関連するハードウェアによって完了することができ、前記プログラムは、コンピュータ可読記憶媒体に記憶することができ、前記プログラムが実行されるとき、上記方法の実施例のステップを実行し、前記記憶媒体は、リムーバブルストレージ、読み取り専用メモリ(ROM:Read-Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気メモリまたは光ディスクなどのプログラムコードを記憶することができる様々な媒体を含む。
あるいは、本出願の上記の統合されたユニットは、ソフトウェア機能モジュールの形で実現され且つ独立した製品として販売または使用される場合、コンピュータ可読記憶媒体に記憶されてもよい。このような理解に基づいて、本発明の実施例の技術的解決策の本質的な部分、即ち先行技術に貢献のある部分は、ソフトウェア製品の形で具現されることができ、前記コンピュータソフトウェア製品は、1つの記憶媒体に記憶され、一台のコンピュータ機器(パーソナルコンピュータ、サーバ、またはネットワーク機器などであリ得る)に本発明の各実施例に記載の方法の全部または一部を実行させるためのいくつかの命令を含む。前述した記憶媒体は、リムーバブルストレージ、ROM、RAM、磁気メモリまたは光ディスクなどのプログラムコードを記憶することができる様々な媒体を含む。
上記の内容は、本願の具体的な実施形態に過ぎず、本願の保護範囲はこれに限定されない。当業者は、本願で開示された技術的範囲内で容易に想到し得る変更または置換は、すべて本願の保護範囲内に含まれるべきである。したがって、本出願の保護範囲は、特許請求の保護範囲を基準とするべきである。
本願実施例による技術的解決策によれば、第1入力情報を取得し、ここで、前記第1入力情報は、少なくともターゲットオブジェクトを含む画像を含み、前記第1入力情報に基づいて、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたスナップ画像を取得し、前記ターゲット時点は、前記画像収集装置が前記ターゲットオブジェクトをスナップする時点であり、前記スナップ画像から前記ターゲットオブジェクトの同行者を決定し、集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得し、前記集約プロファイルデータ内の同一人は、唯一のプロファイルに対応する。このように、複数のスナップ画像を自動的に分析することで、ターゲットオブジェクトの同行者をすばやく識別することができ、集約プロファイルデータは、一人一ファイルに基づいて確立されるため、同行者の関連情報をすばやく決定するのに役立つ。
第5態様によれば、本願実施例は、コンピュータ可読コードを含むコンピュータプログラムを提供し、前記コンピュータ可読コードが電子機器で実行されるときに、前記電子機器のプロセッサに、本願実施例に記載の情報処理方法を実現させる。
例えば、本願は以下の項目を提供する。
(項目1)
情報処理方法であって、
第1入力情報を取得することであって、前記第1入力情報は、少なくともターゲットオブジェクトを含む画像を含む、ことと、
前記第1入力情報に基づいて、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたスナップ画像を取得することであって、前記ターゲット時点は、前記画像収集装置が前記ターゲットオブジェクトをスナップする時点である、ことと、
前記スナップ画像から前記ターゲットオブジェクトの同行者を決定することと、
集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することであって、前記集約プロファイルデータ内の同一人は、唯一のプロファイルに対応する、ことと、を含む、前記情報処理方法。
(項目2)
前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
集約プロファイルデータに基づいて、全ての同行者の関連情報を決定することを含み、
同行者の関連情報は、
未実名の同行者の場合、少なくともシステムの第1データベース内の前記同行者の各スナップ画像を含み、
実名の同行者の場合、少なくともシステムの第2データベース内の画像情報とテキスト情報を含む、
項目1に記載の情報処理方法。
(項目3)
前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
全ての同行者と前記ターゲットオブジェクトとの同行回数を決定することと、
前記同行回数に基づいて前記全ての同行者を並べ替えて、同行者シーケンスを取得することと、をさらに含む、
項目1に記載の情報処理方法。
(項目4)
前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
前記同行者シーケンスから第1同行者を決定することと、
前記ターゲットオブジェクトと前記第1同行者との全ての同行記録を決定することと、をさらに含み、
前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記第1同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む、
項目3に記載の情報処理方法。
(項目5)
前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
前記同行者シーケンスに基づいて、K(Kは正整数である)個の同行者を決定することと、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録を決定することと、をさらに含み、
前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記K個の同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む、
項目3に記載の情報処理方法。
(項目6)
前記情報処理方法は、
指定された画像収集装置によって収集された指定ビデオストリームを取得することと、
前記全ての同行記録から、前記指定ビデオストリーム内の前記ターゲットオブジェクトと前記K個の同行者の同行記録を検索することと、をさらに含む、
項目5に記載の情報処理方法。
(項目7)
前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録に基づいて、各画像収集装置の前記K個の同行者のスナップ回数を統計することをさらに含む、
項目5に記載の情報処理方法。
(項目8)
前記第1入力情報を取得する前に、前記情報処理方法は、
第1データベース内の画像データに対してクラスタリング処理を実行して、クラスタリング処理結果を取得することであって、前記第1データベースは、画像収集装置によってスナップされたポートレート画像に基づいて形成される、ことと、
第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得することであって、前記第2データベースは、実名の画像情報に基づいて形成される、ことと、
前記クラスタリング処理結果と前記集約処理結果を関連分析して、集約プロファイルデータを取得することと、をさらに含む、
項目1ないし7のいずれか一項に記載の情報処理方法。
(項目9)
前記第1データベース内の画像データに対してクラスタリング処理を実行することは、
前記第1データベース内の画像データから顔画像データを抽出することと、
前記顔画像データを複数のクラスに分けることと、を含み、前記複数のクラスの各クラスは1つのクラス中心を有し、前記クラス中心はクラス中心特徴値を含む、
項目8に記載の情報処理方法。
(項目10)
前記第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得することは、
身分証明書番号が同じである画像データを1つの画像ライブラリに集約することと、
前記画像ライブラリと前記身分証明書番号に対応するテキスト情報との間の関連関係を確立して、集約処理結果を取得することと、を含み、前記集約処理結果の各身分証明書番号は、唯一のプロファイルデータに対応する、
項目8に記載の情報処理方法。
(項目11)
前記クラスタリング処理結果と前記集約処理結果を関連分析することは、
第1データベース内の各クラス中心特徴値と第2データベース内の各参照クラス中心特徴値とを全量比較して、全量比較結果を取得することと、
前記全量比較結果に基づいて、類似度が最も高い且つ類似度がプリセットされた閾値より大きいターゲット参照クラス中心特徴値を決定することと、
前記第2データベースから、前記ターゲット参照クラス中心特徴値に対応するターゲットポートレートおよび前記ターゲットポートレートに対応する身分情報を検索することと、
前記ターゲットポートレートに対応する身分情報と、前記第1データベース内のクラス中心特徴値に対応する画像との間の関連関係を確立することと、を含む、
項目8に記載の情報処理方法。
(項目12)
前記情報処理方法は、
前記第1データベースに画像データを追加する場合、新しく追加された画像データに対してクラスタリング処理を実行し、前記新しく追加された画像データ内の顔画像データを複数のクラスに分け、前記第1データベースから、前記複数のクラスと同じクラスがあるか否かを検索し、前記複数のクラスのうちの第1クラスと同じクラスがある場合、前記第1クラスの画像データを前記第1クラスの既存のプロファイルにマージし、前記複数のクラスのうちの第2クラスと同じクラスがない場合、前記第2クラスに基づいて新しいプロファイルを作成して、前記第1データベースに追加することをさらに含む、
項目8に記載の情報処理方法。
(項目13)
前記情報処理方法は、
前記第2データベースに画像データを追加する場合、前記第2データベースから、新しく追加された前記画像データと同じ身分証明書番号があるか否かを検索し、前記画像データのうちの第1画像データと同じ第1身分証明書番号がある場合、前記第1画像データを前記第1身分証明書番号に対応する既存のプロファイルにマージし、前記画像データのうちの第2画像データと同じ第2身分証明書番号がない場合、前記第2画像データの第2身分証明書番号に基づいて新しいプロファイルを作成して、前記第2データベースに追加することをさらに含む、
項目8に記載の情報処理方法。
(項目14)
情報処理装置であって、
第1入力情報を取得するように構成される第1取得モジュールであって、前記第1入力情報は、少なくともターゲットオブジェクトを含む画像を含む、第1取得モジュールと、
前記第1入力情報に基づいて、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたスナップ画像を取得するように構成される第2取得モジュールであって、前記ターゲット時点は、前記画像収集装置が前記ターゲットオブジェクトをスナップする時点である、第2取得モジュールと、
前記スナップ画像から前記ターゲットオブジェクトの同行者を決定するように構成される決定モジュールと、
集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得するように構成される処理モジュールであって、前記集約プロファイルデータ内の同一人は、唯一のプロファイルに対応する、処理モジュールと、を備える、前記情報処理装置。
(項目15)
前記処理モジュールは、さらに、
集約プロファイルデータに基づいて、全ての同行者の関連情報を決定するように構成され、
同行者の関連情報は、
未実名の同行者の場合、少なくともシステムの第1データベース内の前記同行者の各スナップ画像を含み、
実名の同行者の場合、少なくともシステムの第2データベース内の画像情報とテキスト情報を含む、
項目14に記載の情報処理装置。
(項目16)
前記処理モジュールは、さらに、
全ての同行者と前記ターゲットオブジェクトとの同行回数を決定し、
前記同行回数に基づいて前記全ての同行者を並べ替えて、同行者シーケンスを取得するように構成される、
項目14に記載の情報処理装置。
(項目17)
前記処理モジュールは、さらに、
前記同行者シーケンスから第1同行者を決定し、
前記ターゲットオブジェクトと前記第1同行者との全ての同行記録を決定するように構成され、
前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記第1同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む、
項目16に記載の情報処理装置。
(項目18)
前記処理モジュールは、さらに、
前記同行者シーケンスに基づいて、K(Kは正整数である)個の同行者を決定し、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録を決定するように構成され、
前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記K個の同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む、
項目16に記載の情報処理装置。
(項目19)
前記処理モジュールは、さらに、
指定された画像収集装置によって収集された指定ビデオストリームを取得し、
前記全ての同行記録から、前記指定ビデオストリーム内の前記ターゲットオブジェクトと前記K個の同行者の同行記録を検索するように構成される、
項目18に記載の情報処理装置。
(項目20)
前記処理モジュールは、さらに、
前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録に基づいて、各画像収集装置の前記K個の同行者のスナップ回数を統計するように構成される、
項目18に記載の情報処理装置。
(項目21)
前記情報処理装置は、さらに、
プロファイル作成モジュールを備え、前記プロファイル作成モジュールは、
第1データベース内の画像データに対してクラスタリング処理を実行して、クラスタリング処理結果を取得し、前記第1データベースは、画像収集装置によってスナップされたポートレート画像に基づいて形成され、
第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得し、前記第2データベースは、実名の画像情報に基づいて形成され、
前記クラスタリング処理結果と前記集約処理結果を関連分析して、集約プロファイルデータを取得するように構成される、
項目14ないし20のいずれか一項に記載の情報処理装置。
(項目22)
前記プロファイル作成モジュールは、さらに、
前記第1データベース内の画像データから顔画像データを抽出し、
前記顔画像データを複数のクラスに分けるように構成され、前記複数のクラスの各クラスは1つのクラス中心を有し、前記クラス中心はクラス中心特徴値を含む、
項目21に記載の情報処理装置。
(項目23)
前記プロファイル作成モジュールは、さらに、
身分証明書番号が同じである画像データを1つの画像ライブラリに集約し、
前記画像ライブラリと前記身分証明書番号に対応するテキスト情報との間の関連関係を確立して、集約処理結果を取得するように構成され、前記集約処理結果の各身分証明書番号は、唯一のプロファイルデータに対応する、
項目21に記載の情報処理装置。
(項目24)
前記プロファイル作成モジュールは、さらに、
第1データベース内の各クラス中心特徴値と第2データベース内の各参照クラス中心特徴値とを全量比較して、全量比較結果を取得し、
全量比較結果に基づいて、類似度が最も高い且つ類似度がプリセットされた閾値より大きいターゲット参照クラス中心特徴値を決定し、
前記第2データベースから、前記ターゲット参照クラス中心特徴値に対応するターゲットポートレートおよび前記ターゲットポートレートに対応する身分情報を検索し、
前記ターゲットポートレートに対応する身分情報と前記第1データベース内のクラス中心特徴値に対応する画像との間の関連関係を確立するように構成される、
項目21に記載の情報処理装置。
(項目25)
前記プロファイル作成モジュールは、さらに、
前記第1データベースに画像データを追加する場合、新しく追加された画像データに対してクラスタリング処理を実行し、前記新しく追加された画像データ内の顔画像データを複数のクラスに分け、前記第1データベースから、前記複数のクラスと同じクラスがあるか否かを検索し、前記複数のクラスのうちの第1クラスと同じクラスがある場合、前記第1クラスの画像データを前記第1クラスの既存のプロファイルにマージし、前記複数のクラスのうちの第2クラスと同じクラスがない場合、前記第2クラスに基づいて新しいプロファイルを作成して、前記第1データベースに追加するように構成される、
項目21に記載の情報処理装置。
(項目26)
前記プロファイル作成モジュールは、さらに、
前記第2データベースに画像データを追加する場合、前記第2データベースから、新しく追加された前記画像データと同じ身分証明書番号があるか否かを検索し、前記画像データのうちの第1画像データと同じ第1身分証明書番号がある場合、前記第1画像データを前記第1身分証明書番号に対応する既存のプロファイルにマージし、前記画像データのうちの第2画像データと同じ第2身分証明書番号がない場合、前記第2画像データの第2身分証明書番号に基づいて新しいプロファイルを作成して、前記第2データベースに追加するように構成される、
項目21に記載の情報処理装置。
(項目27)
情報処理装置であって、メモリと、プロセッサと、メモリに記憶され且つプロセッサで実行可能なコンピュータプログラムとを備え、前記プロセッサが前記コンピュータプログラムを実行するときに、項目1ないし13のいずれか一項に記載の情報処理方法を実現するように構成される、前記情報処理装置。
(項目28)
プロセッサによって実行されるときに、前記プロセッサに、項目1ないし13のいずれか一項に記載の情報処理方法を実行させるためのコンピュータプログラムを記憶した、記憶媒体。
(項目29)
電子機器で実行されるときに、前記電子機器のプロセッサに、項目1ないし13のいずれか一項に記載の情報処理方法を実行させるためのコンピュータ可読コードを含む、コンピュータプログラム。

Claims (29)

  1. 情報処理方法であって、
    第1入力情報を取得することであって、前記第1入力情報は、少なくともターゲットオブジェクトを含む画像を含む、ことと、
    前記第1入力情報に基づいて、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたスナップ画像を取得することであって、前記ターゲット時点は、前記画像収集装置が前記ターゲットオブジェクトをスナップする時点である、ことと、
    前記スナップ画像から前記ターゲットオブジェクトの同行者を決定することと、
    集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することであって、前記集約プロファイルデータ内の同一人は、唯一のプロファイルに対応する、ことと、を含む、前記情報処理方法。
  2. 前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
    集約プロファイルデータに基づいて、全ての同行者の関連情報を決定することを含み、
    同行者の関連情報は、
    未実名の同行者の場合、少なくともシステムの第1データベース内の前記同行者の各スナップ画像を含み、
    実名の同行者の場合、少なくともシステムの第2データベース内の画像情報とテキスト情報を含む、
    請求項1に記載の情報処理方法。
  3. 前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
    全ての同行者と前記ターゲットオブジェクトとの同行回数を決定することと、
    前記同行回数に基づいて前記全ての同行者を並べ替えて、同行者シーケンスを取得することと、をさらに含む、
    請求項1に記載の情報処理方法。
  4. 前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
    前記同行者シーケンスから第1同行者を決定することと、
    前記ターゲットオブジェクトと前記第1同行者との全ての同行記録を決定することと、をさらに含み、
    前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記第1同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む、
    請求項3に記載の情報処理方法。
  5. 前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
    前記同行者シーケンスに基づいて、K(Kは正整数である)個の同行者を決定することと、
    前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録を決定することと、をさらに含み、
    前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記K個の同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む、
    請求項3に記載の情報処理方法。
  6. 前記情報処理方法は、
    指定された画像収集装置によって収集された指定ビデオストリームを取得することと、
    前記全ての同行記録から、前記指定ビデオストリーム内の前記ターゲットオブジェクトと前記K個の同行者の同行記録を検索することと、をさらに含む、
    請求項5に記載の情報処理方法。
  7. 前記集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得することは、
    前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録に基づいて、各画像収集装置の前記K個の同行者のスナップ回数を統計することをさらに含む、
    請求項5に記載の情報処理方法。
  8. 前記第1入力情報を取得する前に、前記情報処理方法は、
    第1データベース内の画像データに対してクラスタリング処理を実行して、クラスタリング処理結果を取得することであって、前記第1データベースは、画像収集装置によってスナップされたポートレート画像に基づいて形成される、ことと、
    第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得することであって、前記第2データベースは、実名の画像情報に基づいて形成される、ことと、
    前記クラスタリング処理結果と前記集約処理結果を関連分析して、集約プロファイルデータを取得することと、をさらに含む、
    請求項1ないし7のいずれか一項に記載の情報処理方法。
  9. 前記第1データベース内の画像データに対してクラスタリング処理を実行することは、
    前記第1データベース内の画像データから顔画像データを抽出することと、
    前記顔画像データを複数のクラスに分けることと、を含み、前記複数のクラスの各クラスは1つのクラス中心を有し、前記クラス中心はクラス中心特徴値を含む、
    請求項8に記載の情報処理方法。
  10. 前記第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得することは、
    身分証明書番号が同じである画像データを1つの画像ライブラリに集約することと、
    前記画像ライブラリと前記身分証明書番号に対応するテキスト情報との間の関連関係を確立して、集約処理結果を取得することと、を含み、前記集約処理結果の各身分証明書番号は、唯一のプロファイルデータに対応する、
    請求項8に記載の情報処理方法。
  11. 前記クラスタリング処理結果と前記集約処理結果を関連分析することは、
    第1データベース内の各クラス中心特徴値と第2データベース内の各参照クラス中心特徴値とを全量比較して、全量比較結果を取得することと、
    前記全量比較結果に基づいて、類似度が最も高い且つ類似度がプリセットされた閾値より大きいターゲット参照クラス中心特徴値を決定することと、
    前記第2データベースから、前記ターゲット参照クラス中心特徴値に対応するターゲットポートレートおよび前記ターゲットポートレートに対応する身分情報を検索することと、
    前記ターゲットポートレートに対応する身分情報と、前記第1データベース内のクラス中心特徴値に対応する画像との間の関連関係を確立することと、を含む、
    請求項8に記載の情報処理方法。
  12. 前記情報処理方法は、
    前記第1データベースに画像データを追加する場合、新しく追加された画像データに対してクラスタリング処理を実行し、前記新しく追加された画像データ内の顔画像データを複数のクラスに分け、前記第1データベースから、前記複数のクラスと同じクラスがあるか否かを検索し、前記複数のクラスのうちの第1クラスと同じクラスがある場合、前記第1クラスの画像データを前記第1クラスの既存のプロファイルにマージし、前記複数のクラスのうちの第2クラスと同じクラスがない場合、前記第2クラスに基づいて新しいプロファイルを作成して、前記第1データベースに追加することをさらに含む、
    請求項8に記載の情報処理方法。
  13. 前記情報処理方法は、
    前記第2データベースに画像データを追加する場合、前記第2データベースから、新しく追加された前記画像データと同じ身分証明書番号があるか否かを検索し、前記画像データのうちの第1画像データと同じ第1身分証明書番号がある場合、前記第1画像データを前記第1身分証明書番号に対応する既存のプロファイルにマージし、前記画像データのうちの第2画像データと同じ第2身分証明書番号がない場合、前記第2画像データの第2身分証明書番号に基づいて新しいプロファイルを作成して、前記第2データベースに追加することをさらに含む、
    請求項8に記載の情報処理方法。
  14. 情報処理装置であって、
    第1入力情報を取得するように構成される第1取得モジュールであって、前記第1入力情報は、少なくともターゲットオブジェクトを含む画像を含む、第1取得モジュールと、
    前記第1入力情報に基づいて、画像収集装置がターゲット時点の前後N秒間に前記ターゲットオブジェクトをスナップしたスナップ画像を取得するように構成される第2取得モジュールであって、前記ターゲット時点は、前記画像収集装置が前記ターゲットオブジェクトをスナップする時点である、第2取得モジュールと、
    前記スナップ画像から前記ターゲットオブジェクトの同行者を決定するように構成される決定モジュールと、
    集約プロファイルデータに基づいて前記同行者を分析して、同行者識別結果を取得するように構成される処理モジュールであって、前記集約プロファイルデータ内の同一人は、唯一のプロファイルに対応する、処理モジュールと、を備える、前記情報処理装置。
  15. 前記処理モジュールは、さらに、
    集約プロファイルデータに基づいて、全ての同行者の関連情報を決定するように構成され、
    同行者の関連情報は、
    未実名の同行者の場合、少なくともシステムの第1データベース内の前記同行者の各スナップ画像を含み、
    実名の同行者の場合、少なくともシステムの第2データベース内の画像情報とテキスト情報を含む、
    請求項14に記載の情報処理装置。
  16. 前記処理モジュールは、さらに、
    全ての同行者と前記ターゲットオブジェクトとの同行回数を決定し、
    前記同行回数に基づいて前記全ての同行者を並べ替えて、同行者シーケンスを取得するように構成される、
    請求項14に記載の情報処理装置。
  17. 前記処理モジュールは、さらに、
    前記同行者シーケンスから第1同行者を決定し、
    前記ターゲットオブジェクトと前記第1同行者との全ての同行記録を決定するように構成され、
    前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記第1同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む、
    請求項16に記載の情報処理装置。
  18. 前記処理モジュールは、さらに、
    前記同行者シーケンスに基づいて、K(Kは正整数である)個の同行者を決定し、
    前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録を決定するように構成され、
    前記同行記録は、少なくとも、前記ターゲットオブジェクトと前記K個の同行者のスナップ画像、スナップ時間、画像収集装置の識別情報を含む、
    請求項16に記載の情報処理装置。
  19. 前記処理モジュールは、さらに、
    指定された画像収集装置によって収集された指定ビデオストリームを取得し、
    前記全ての同行記録から、前記指定ビデオストリーム内の前記ターゲットオブジェクトと前記K個の同行者の同行記録を検索するように構成される、
    請求項18に記載の情報処理装置。
  20. 前記処理モジュールは、さらに、
    前記ターゲットオブジェクトと前記K個の同行者の全ての同行記録に基づいて、各画像収集装置の前記K個の同行者のスナップ回数を統計するように構成される、
    請求項18に記載の情報処理装置。
  21. 前記情報処理装置は、さらに、
    プロファイル作成モジュールを備え、前記プロファイル作成モジュールは、
    第1データベース内の画像データに対してクラスタリング処理を実行して、クラスタリング処理結果を取得し、前記第1データベースは、画像収集装置によってスナップされたポートレート画像に基づいて形成され、
    第2データベース内の画像データに対して集約処理を実行して、集約処理結果を取得し、前記第2データベースは、実名の画像情報に基づいて形成され、
    前記クラスタリング処理結果と前記集約処理結果を関連分析して、集約プロファイルデータを取得するように構成される、
    請求項14ないし20のいずれか一項に記載の情報処理装置。
  22. 前記プロファイル作成モジュールは、さらに、
    前記第1データベース内の画像データから顔画像データを抽出し、
    前記顔画像データを複数のクラスに分けるように構成され、前記複数のクラスの各クラスは1つのクラス中心を有し、前記クラス中心はクラス中心特徴値を含む、
    請求項21に記載の情報処理装置。
  23. 前記プロファイル作成モジュールは、さらに、
    身分証明書番号が同じである画像データを1つの画像ライブラリに集約し、
    前記画像ライブラリと前記身分証明書番号に対応するテキスト情報との間の関連関係を確立して、集約処理結果を取得するように構成され、前記集約処理結果の各身分証明書番号は、唯一のプロファイルデータに対応する、
    請求項21に記載の情報処理装置。
  24. 前記プロファイル作成モジュールは、さらに、
    第1データベース内の各クラス中心特徴値と第2データベース内の各参照クラス中心特徴値とを全量比較して、全量比較結果を取得し、
    全量比較結果に基づいて、類似度が最も高い且つ類似度がプリセットされた閾値より大きいターゲット参照クラス中心特徴値を決定し、
    前記第2データベースから、前記ターゲット参照クラス中心特徴値に対応するターゲットポートレートおよび前記ターゲットポートレートに対応する身分情報を検索し、
    前記ターゲットポートレートに対応する身分情報と前記第1データベース内のクラス中心特徴値に対応する画像との間の関連関係を確立するように構成される、
    請求項21に記載の情報処理装置。
  25. 前記プロファイル作成モジュールは、さらに、
    前記第1データベースに画像データを追加する場合、新しく追加された画像データに対してクラスタリング処理を実行し、前記新しく追加された画像データ内の顔画像データを複数のクラスに分け、前記第1データベースから、前記複数のクラスと同じクラスがあるか否かを検索し、前記複数のクラスのうちの第1クラスと同じクラスがある場合、前記第1クラスの画像データを前記第1クラスの既存のプロファイルにマージし、前記複数のクラスのうちの第2クラスと同じクラスがない場合、前記第2クラスに基づいて新しいプロファイルを作成して、前記第1データベースに追加するように構成される、
    請求項21に記載の情報処理装置。
  26. 前記プロファイル作成モジュールは、さらに、
    前記第2データベースに画像データを追加する場合、前記第2データベースから、新しく追加された前記画像データと同じ身分証明書番号があるか否かを検索し、前記画像データのうちの第1画像データと同じ第1身分証明書番号がある場合、前記第1画像データを前記第1身分証明書番号に対応する既存のプロファイルにマージし、前記画像データのうちの第2画像データと同じ第2身分証明書番号がない場合、前記第2画像データの第2身分証明書番号に基づいて新しいプロファイルを作成して、前記第2データベースに追加するように構成される、
    請求項21に記載の情報処理装置。
  27. 情報処理装置であって、メモリと、プロセッサと、メモリに記憶され且つプロセッサで実行可能なコンピュータプログラムとを備え、前記プロセッサが前記コンピュータプログラムを実行するときに、請求項1ないし13のいずれか一項に記載の情報処理方法を実現するように構成される、前記情報処理装置。
  28. プロセッサによって実行されるときに、前記プロセッサに、請求項1ないし13のいずれか一項に記載の情報処理方法を実行させるためのコンピュータプログラムを記憶した、記憶媒体。
  29. 電子機器で実行されるときに、前記電子機器のプロセッサに、請求項1ないし13のいずれか一項に記載の情報処理方法を実行させるためのコンピュータ可読コードを含む、コンピュータプログラム。
JP2021541619A 2019-06-28 2020-05-11 情報処理方法および装置、記憶媒体 Pending JP2022518469A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910580576.2A CN110348347A (zh) 2019-06-28 2019-06-28 一种信息处理方法及装置、存储介质
CN201910580576.2 2019-06-28
PCT/CN2020/089562 WO2020259099A1 (zh) 2019-06-28 2020-05-11 一种信息处理方法及装置、存储介质

Publications (1)

Publication Number Publication Date
JP2022518469A true JP2022518469A (ja) 2022-03-15

Family

ID=68177322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021541619A Pending JP2022518469A (ja) 2019-06-28 2020-05-11 情報処理方法および装置、記憶媒体

Country Status (6)

Country Link
US (1) US20210357624A1 (ja)
JP (1) JP2022518469A (ja)
CN (1) CN110348347A (ja)
SG (1) SG11202108349UA (ja)
TW (1) TWI743835B (ja)
WO (1) WO2020259099A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110348347A (zh) * 2019-06-28 2019-10-18 深圳市商汤科技有限公司 一种信息处理方法及装置、存储介质
CN111221991B (zh) * 2019-11-06 2024-06-14 北京旷视科技有限公司 人员身份属性的确定方法、装置和电子设备
CN111061894A (zh) * 2019-11-07 2020-04-24 深圳云天励飞技术有限公司 同行数据的处理方法、装置、电子设备及存储介质
CN111435435B (zh) * 2019-12-10 2024-06-07 杭州海康威视数字技术股份有限公司 一种同伴识别方法、装置、服务器及系统
CN111104915B (zh) * 2019-12-23 2023-05-16 云粒智慧科技有限公司 一种同行分析方法、装置、设备和介质
CN113127572B (zh) * 2019-12-31 2023-03-03 深圳云天励飞技术有限公司 档案合并方法、装置、设备及计算机可读存储介质
CN111625686A (zh) * 2020-05-20 2020-09-04 深圳市商汤科技有限公司 数据处理方法及装置、电子设备和存储介质
CN112015956B (zh) * 2020-09-04 2024-07-30 杭州海康威视数字技术股份有限公司 移动对象的相似性确定方法、装置、设备和存储介质
CN114999017A (zh) * 2022-06-06 2022-09-02 重庆酉辰戌智能科技有限公司 一种校园人脸识别赋能系统
CN118245622B (zh) * 2024-05-23 2024-07-30 深圳前海中电慧安科技有限公司 案件数据分析方法、装置、电子设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090122198A1 (en) * 2007-11-08 2009-05-14 Sony Ericsson Mobile Communications Ab Automatic identifying
JP2018011263A (ja) * 2016-07-15 2018-01-18 パナソニックIpマネジメント株式会社 監視システム、監視カメラ、及び管理装置

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4433472B2 (ja) * 2002-08-08 2010-03-17 ナンヤン テクノロジカル ユニヴァーシティ 分散型認証処理
US20070106551A1 (en) * 2005-09-20 2007-05-10 Mcgucken Elliot 22nets: method, system, and apparatus for building content and talent marketplaces and archives based on a social network
DE602006017578D1 (de) * 2005-12-01 2010-11-25 Honeywell Int Inc Mit mehreren gesichtserkennungssystemen kompatible verteilte id-überprüfung auf abstand
TWI336054B (en) * 2006-02-15 2011-01-11 Toshiba Kk Person identification device and person identification method
TW201223209A (en) * 2010-11-30 2012-06-01 Inventec Corp Sending a digital image method and apparatus thereof
CN103632132B (zh) * 2012-12-11 2017-02-15 广西科技大学 一种基于肤色分割和模板匹配的人脸检测与识别方法
KR101415848B1 (ko) * 2012-12-12 2014-07-09 휴앤에스(주) 차량 및 보행자 검지를 이용한 스쿨존 방범장치
US11100334B2 (en) * 2013-04-19 2021-08-24 James Carey Video identification and analytical recognition system
CN203689590U (zh) * 2013-10-09 2014-07-02 四川空港知觉科技有限公司 人员身份识别设备
US9788039B2 (en) * 2014-06-23 2017-10-10 Google Inc. Camera system API for third-party integrations
US9356968B1 (en) * 2014-06-30 2016-05-31 Emc Corporation Managing authentication using common authentication framework circuitry
CN104636732B (zh) * 2015-02-12 2017-11-07 合肥工业大学 一种基于序列深信度网络的行人识别方法
WO2017000115A1 (zh) * 2015-06-29 2017-01-05 北京旷视科技有限公司 行人再识别方法及设备
CN105208528B (zh) * 2015-09-24 2018-05-22 山东合天智汇信息技术有限公司 一种用于识别同行人员的系统及方法
US10169684B1 (en) * 2015-10-01 2019-01-01 Intellivision Technologies Corp. Methods and systems for recognizing objects based on one or more stored training images
CN105354548B (zh) * 2015-10-30 2018-10-26 武汉大学 一种基于ImageNet检索的监控视频行人重识别方法
CN105427221A (zh) * 2015-12-09 2016-03-23 北京中科云集科技有限公司 一种基于云平台的警务管理方法
CN107016322B (zh) * 2016-01-28 2020-01-14 浙江宇视科技有限公司 一种尾随人员分析的方法及装置
CN107066945B (zh) * 2017-03-10 2019-06-18 清华大学 一种大流量通关快速身份核验方法和系统
CN107153824A (zh) * 2017-05-22 2017-09-12 中国人民解放军国防科学技术大学 基于图聚类的跨视频行人重识别方法
CN107480246B (zh) * 2017-08-10 2021-03-12 北京中航安通科技有限公司 一种关联人员的识别方法及装置
CN108229335A (zh) * 2017-12-12 2018-06-29 深圳市商汤科技有限公司 关联人脸识别方法和装置、电子设备、存储介质、程序
CN208156681U (zh) * 2018-01-20 2018-11-27 南京铁道职业技术学院 一种视频监控图像识别系统
CN109117714B (zh) * 2018-06-27 2021-02-26 北京旷视科技有限公司 一种同行人员识别方法、装置、系统及计算机存储介质
CN109241378A (zh) * 2018-08-29 2019-01-18 北京旷视科技有限公司 档案建立方法、装置、设备及存储介质
CN208861294U (zh) * 2018-09-28 2019-05-14 广州翠花信息科技有限公司 一种采用签到机制的人脸识别系统
CN109461106A (zh) * 2018-10-11 2019-03-12 浙江公共安全技术研究院有限公司 一种多维信息感知处理方法
CN109635149B (zh) * 2018-12-17 2021-03-23 北京旷视科技有限公司 人物搜索方法、装置及电子设备
CN109784217A (zh) * 2018-12-28 2019-05-21 上海依图网络科技有限公司 一种监控方法及装置
CN109800669A (zh) * 2018-12-28 2019-05-24 上海依图网络科技有限公司 一种归档方法及装置
CN109740004B (zh) * 2018-12-28 2023-07-11 上海依图网络科技有限公司 一种归档方法及装置
CN109739850B (zh) * 2019-01-11 2022-10-11 安徽爱吉泰克科技有限公司 一种档案大数据智能分析清洗挖掘系统
JP6534499B1 (ja) * 2019-03-20 2019-06-26 アースアイズ株式会社 監視装置、監視システム、及び、監視方法
CN110348347A (zh) * 2019-06-28 2019-10-18 深圳市商汤科技有限公司 一种信息处理方法及装置、存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090122198A1 (en) * 2007-11-08 2009-05-14 Sony Ericsson Mobile Communications Ab Automatic identifying
JP2018011263A (ja) * 2016-07-15 2018-01-18 パナソニックIpマネジメント株式会社 監視システム、監視カメラ、及び管理装置

Also Published As

Publication number Publication date
US20210357624A1 (en) 2021-11-18
TWI743835B (zh) 2021-10-21
TW202101444A (zh) 2021-01-01
CN110348347A (zh) 2019-10-18
WO2020259099A1 (zh) 2020-12-30
SG11202108349UA (en) 2021-08-30

Similar Documents

Publication Publication Date Title
JP2022518469A (ja) 情報処理方法および装置、記憶媒体
WO2020259100A1 (zh) 一种信息处理方法及装置、存储介质
CN109117714B (zh) 一种同行人员识别方法、装置、系统及计算机存储介质
CN109783685B (zh) 一种查询方法及装置
WO2021063011A1 (zh) 行为分析方法、装置、电子设备、存储介质和计算机程序
CN109740004B (zh) 一种归档方法及装置
CN109635146B (zh) 一种基于图像特征的目标查询方法及系统
CN111078922A (zh) 一种信息处理方法及装置、存储介质
CN112016623B (zh) 一种人脸聚类方法、装置、设备及存储介质
CN110750670B (zh) 陌生人监控方法、装置、系统和存储介质
CN112818149A (zh) 一种基于时空轨迹数据的人脸聚类方法、装置及存储介质
CN109815829A (zh) 一种确定路人轨迹的方法及装置
CN111209776A (zh) 同行人识别方法、装置、处理服务器、存储介质及系统
CN108563651B (zh) 一种多视频的目标搜索方法、装置及设备
CN109784220B (zh) 一种确定路人轨迹的方法及装置
CN111221991B (zh) 人员身份属性的确定方法、装置和电子设备
CN109800664B (zh) 一种确定路人轨迹的方法及装置
CN109426785A (zh) 一种人体目标身份识别方法及装置
WO2023024670A1 (zh) 设备聚类方法、装置、计算机设备及存储介质
CN109857891A (zh) 一种查询方法及装置
US20210319226A1 (en) Face clustering in video streams
CN111277788A (zh) 一种基于mac地址的监控方法和监控系统
CN110543584A (zh) 一种建立人脸索引的方法、装置、处理服务器及存储介质
CN114048344A (zh) 一种相似人脸搜索方法、装置、设备和可读存储介质
CN111694979A (zh) 一种基于图像的档案管理方法、系统、设备和介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210719

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220905

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230329