JP6853379B2 - 対象人物の検索方法および装置、機器、プログラム製品ならびに媒体 - Google Patents

対象人物の検索方法および装置、機器、プログラム製品ならびに媒体 Download PDF

Info

Publication number
JP6853379B2
JP6853379B2 JP2019553914A JP2019553914A JP6853379B2 JP 6853379 B2 JP6853379 B2 JP 6853379B2 JP 2019553914 A JP2019553914 A JP 2019553914A JP 2019553914 A JP2019553914 A JP 2019553914A JP 6853379 B2 JP6853379 B2 JP 6853379B2
Authority
JP
Japan
Prior art keywords
image
pedestrian
face
target person
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019553914A
Other languages
English (en)
Other versions
JP2020515983A (ja
Inventor
マオチン ティエン
マオチン ティエン
シュアイ イー
シュアイ イー
ジュンジエ イエン
ジュンジエ イエン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Sensetime Technology Co Ltd
Original Assignee
Shenzhen Sensetime Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Sensetime Technology Co Ltd filed Critical Shenzhen Sensetime Technology Co Ltd
Publication of JP2020515983A publication Critical patent/JP2020515983A/ja
Application granted granted Critical
Publication of JP6853379B2 publication Critical patent/JP6853379B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Description

本願は2017年11月28日に中国特許局に提出された、出願番号CN201711219178.5、発明名称「対象人物の検索方法、装置および電子機器」の中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
本願はコンピュータビジョンの技術分野に関し、特に対象人物の検索方法および装置、電子機器、コンピュータプログラム製品ならびに記憶媒体に関する。
現在、対象人物に対する検索の解決手段は、通常、予め作成された画像ライブラリにおいて検索して対象人物の画像と同じであるまたは類似する人物画像を得て、検索して得られた人物画像を対象人物の検索結果とする。どのように高いリコール率および高い正確率を同時に確保するかは当分野において研究が盛んになっている。
本願の実施例は対象人物検索の技術的解決手段を提供する。
本願の実施例の一態様によれば、対象人物の画像を取得することと、前記対象人物の画像により、複数の顔画像テンプレートを含む顔画像ライブラリを検索し、前記対象人物の画像とマッチする第一顔画像テンプレートを得ることと、前記第一顔画像テンプレート、および複数の歩行者画像テンプレートを含む歩行者画像ライブラリに基づき、前記対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得ることと、を含む対象人物の検索方法が提供される。
任意選択的に、前記対象人物の画像により、顔画像ライブラリを検索し、前記対象人物の画像とマッチする第一顔画像テンプレートを得ることは、前記対象人物の画像の第一顔特徴データを取得することと、前記第一顔特徴データに基づき、前記顔画像ライブラリに記憶された複数の顔画像テンプレートから前記第一顔画像テンプレートを決定することと、を含む。
任意選択的に、前記第一顔特徴データに基づき、前記顔画像ライブラリに記憶された複数の顔画像テンプレートから前記第一顔画像テンプレートを決定することは、前記第一顔特徴データと前記複数の顔画像テンプレートに対応する複数の第二顔特徴データのうちの各々との距離に基づき、前記複数の顔画像テンプレートから前記第一顔画像テンプレートを決定することを含む。
任意選択的に、前記第一顔特徴データと前記複数の顔画像テンプレートに対応する複数の第二顔特徴データのうちの各々との距離に基づき、前記複数の顔画像テンプレートから前記第一顔画像テンプレートを決定することは、
前記複数の第二顔特徴データのうち前記第一顔特徴データとの距離が最も小さい第二顔特徴データに対応する少なくとも一つの顔画像テンプレートを前記第一顔画像テンプレートとして決定すること、または
前記複数の第二顔特徴データのうち前記第一顔特徴データとの距離が第一閾値以下である第二顔特徴データに対応する少なくとも一つの顔画像テンプレートを前記第一顔画像テンプレートとして決定することを含む。
任意選択的に、前記複数の顔画像テンプレートのうちの少なくとも二つは同一人物に対応する顔軌跡を形成し、前記少なくとも二つの顔画像テンプレートに対応する第二顔特徴データは前記少なくとも二つの顔画像テンプレートが形成する顔軌跡の平均特徴データである。
任意選択的に、前記第一顔画像テンプレートおよび歩行者画像ライブラリに基づき、前記対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得ることは、前記第一顔画像テンプレートに対応する第一歩行者画像を取得することと、前記第一歩行者画像により前記歩行者画像ライブラリを検索し、前記対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得ることと、を含む。
任意選択的に、前記第一歩行者画像により前記歩行者画像ライブラリを検索し、前記対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得ることは、前記第一歩行者画像の第一歩行者特徴データを決定することと、前記第一歩行者特徴データに基づき、前記歩行者画像ライブラリに記憶された複数の歩行者画像テンプレートから前記第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートを決定し、前記第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートを前記対象歩行者画像テンプレートとして決定することと、を含む。
任意選択的に、前記第一歩行者特徴データに基づき、前記歩行者画像ライブラリに記憶された複数の歩行者画像テンプレートから前記第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートを決定することは、前記第一歩行者特徴データと前記複数の歩行者画像テンプレートに対応する複数の第二歩行者特徴データのうちの各々との距離に基づき、前記複数の歩行者画像テンプレートから前記第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートを決定することを含む。
任意選択的に、前記第一歩行者特徴データと前記複数の歩行者画像テンプレートに対応する複数の第二歩行者特徴データのうちの各々との距離に基づき、前記複数の歩行者画像テンプレートから前記第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートを決定することは、前記複数の第二歩行者特徴データのうち前記第一歩行者特徴データとの距離が最も小さい第二歩行者特徴データに対応する少なくとも一つの歩行者画像テンプレートを前記第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートとして決定すること、または前記複数の第二歩行者特徴データのうち前記第一歩行者特徴データとの距離が第二閾値以下である第二歩行者特徴データに対応する少なくとも一つの歩行者画像テンプレートを前記第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートとして決定することを含む。
任意選択的に、前記複数の歩行者画像テンプレートのうちの少なくとも二つは同一人物に対応する歩行者軌跡を形成し、前記少なくとも二つの歩行者画像テンプレートに対応する第二歩行者特徴データは前記少なくとも二つの歩行者画像テンプレートが形成する歩行者軌跡の平均特徴データである。
任意選択的に、前記第一顔画像テンプレートは第一顔画像に対応し、前記第一顔画像テンプレートに対応する第一歩行者画像を取得することは、前記第一顔画像が属する第一映像、および前記第一顔画像のフレーム番号情報や画像位置情報を決定することと、前記第一顔画像のフレーム番号情報や画像位置情報に基づき、前記第一映像において前記第一顔画像テンプレートに対応する第一歩行者画像を取得することと、を含む。
任意選択的に、前記第一顔画像のフレーム番号情報や画像位置情報に基づき、前記第一映像において前記第一顔画像テンプレートに対応する第一歩行者画像を取得することは、前記第一映像にフレーム番号が前記第一顔画像のフレーム番号情報に対応しかつ前記第一顔画像を含む歩行者画像が存在する場合、前記第一顔画像を含む前記歩行者画像を前記第一顔画像テンプレートに対応する第一歩行者画像として決定することを含む。
任意選択的に、前記方法はさらに、前記第一映像にフレーム番号が前記第一顔画像のフレーム番号情報に対応しかつ前記第一顔画像を含む歩行者画像が存在しない場合、前記第一顔画像を第一映像画像において予め設定された比率に従って拡大し、前記第一顔画像テンプレートに対応する第一歩行者画像を得ることを含み、ここで、前記第一映像画像の前記第一映像におけるフレーム番号は前記第一顔画像のフレーム番号情報に対応する。
任意選択的に、前記第一顔画像テンプレートおよび歩行者画像ライブラリに基づき、前記対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得ることの後に、前記方法はさらに、前記少なくとも一つの対象歩行者画像テンプレートをスクリーニングし、前記対象人物の検索結果を得ることを含む。
任意選択的に、前記少なくとも一つの対象歩行者画像テンプレートをスクリーニングし、前記対象人物の検索結果を得ることは、前記少なくとも一つの対象歩行者画像テンプレートのうちの各々の特徴データに基づき、前記少なくとも一つの対象歩行者画像テンプレートを少なくとも1グループの歩行者画像テンプレートに分けることと、前記少なくとも1グループの歩行者画像テンプレートのうちの各々に含まれる歩行者画像の特徴データに基づき、前記各グループの歩行者画像テンプレートのスクリーニング統計データを決定することと、前記少なくとも1グループの歩行者画像テンプレートのうちの各々のスクリーニング統計データに基づき、前記少なくとも1グループの歩行者画像テンプレートのうちの1グループ以上に対応する歩行者画像を前記対象人物の検索結果として決定することと、を含む。
任意選択的に、前記対象人物の画像により、顔画像ライブラリを検索し、前記対象人物の画像とマッチする第一顔画像テンプレートを得る前に、前記方法はさらに、少なくとも一つの映像のうちの各々に含まれる映像画像の顔検出処理を行い、複数の顔画像を得ることと、前記複数の顔画像のうちの各々、および/または、それぞれが前記顔画像の特徴データ、前記顔画像が属する映像情報、前記顔画像のフレーム番号情報、前記顔画像の映像画像における位置情報のうちの少なくとも一つを含む前記各顔画像の情報を顔画像テンプレートとして前記顔画像ライブラリに記憶することと、を含む。
任意選択的に、前記方法はさらに、前記複数の顔画像の顔追跡処理を行い、それぞれが前記複数の顔画像のうちの少なくとも二つを含む少なくとも一つの顔軌跡を得ることと、前記少なくとも一つの顔軌跡のうちの各々に含まれる少なくとも二つの顔画像に基づき、前記各顔軌跡の平均特徴データを決定することと、前記少なくとも一つの顔軌跡のうちの各々の平均特徴データを前記顔画像ライブラリに記憶することと、を含む。
任意選択的に、前記第一顔画像テンプレートおよび歩行者画像ライブラリに基づき、前記対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得ることの前に、前記方法はさらに、少なくとも一つの映像のうちの各々に含まれる映像画像の歩行者検出処理を行い、複数の歩行者画像を得ることと、前記複数の歩行者画像のうちの各々、および/または、それぞれが前記歩行者画像の特徴データ、前記歩行者画像が属する映像情報、前記歩行者画像のフレーム番号情報、前記歩行者画像の映像画像における位置情報のうちの少なくとも一つを含む前記各歩行者画像の情報を歩行者画像テンプレートとして前記歩行者画像ライブラリに記憶することと、を含む。
任意選択的に、前記方法はさらに、前記複数の歩行者画像の歩行者追跡処理を行い、それぞれが前記複数の歩行者画像のうちの少なくとも二つを含む少なくとも一つの歩行者軌跡を得ることと、前記少なくとも一つの歩行者軌跡のうちの各々に含まれる少なくとも二つの歩行者画像に基づき、前記各歩行者軌跡の平均特徴データを決定することと、前記少なくとも一つの歩行者軌跡のうちの各々の平均特徴データを前記歩行者画像ライブラリに記憶することと、を含む。
本願の実施例の別の一態様によれば、対象人物の画像を取得するための取得モジュールと、前記取得モジュールが取得した前記対象人物の画像により、複数の顔画像テンプレートを含む顔画像ライブラリを検索し、前記対象人物の画像とマッチする第一顔画像テンプレートを得るための顔検索モジュールと、前記顔検索モジュールが得た前記第一顔画像テンプレート、および複数の歩行者画像テンプレートを含む歩行者画像ライブラリに基づき、前記対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得るための歩行者検索モジュールと、を含む対象人物の検索装置が提供される。
任意選択的に、前記検索装置は上記任意の可能な実施形態における検索方法を実現するために用いられ、上記任意の検索方法におけるステップまたはプロセスを実現するためのモジュールを含む。
本願の実施例のさらに別の一態様によれば、少なくとも一つの実行可能命令を記憶するためのプロセッサおよびメモリを含み、前記実行可能命令によって前記プロセッサは上記任意の可能な実施形態における対象人物の検索方法を実行する電子機器が提供される。
本願の実施例のさらに別の一態様によれば、実行される時に上記任意の可能な実施形態における対象人物の検索方法を実現するコンピュータ読み取り可能な命令が記憶されているコンピュータ記憶媒体が提供される。
本願の実施例のさらに別の一態様によれば、コンピュータ読み取り可能コードを含むコンピュータプログラム製品であって、前記コンピュータ読み取り可能コードが機器において運用される時、前記機器内のプロセッサは上記任意の可能な実施形態における対象人物の検索方法を実現するための動作を実行するコンピュータプログラム製品が提供される。
本願の実施例が提供する対象人物の検索方法および装置、電子機器、コンピュータプログラム製品ならびに記憶媒体に基づき、顔検索と歩行者検索を結合した連携検索ポリシーを採用し、まず顔画像ライブラリに基づいて検索して対象人物の画像とマッチする第一顔画像テンプレートを得て、さらに歩行者画像ライブラリおよび第一顔画像テンプレートに基づいて対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを取得し、対象人物検索の正確率を向上させる。
以下に図面および実施例により、本願の技術的解決手段をさらに詳細に説明する。
明細書の一部となる図面は本願の実施例を説明するものであり、かつその説明と共に本願の原理を解釈するために用いられる。
図面と関連付けて、以下の詳細な説明によれば、本願をより明確に理解できる。
本願のいくつかの実施例に係る対象人物の検索方法のフローチャートである。 本願の別のいくつかの実施例に係る対象人物の検索方法のフローチャートである。 本願の別のいくつかの実施例に係る対象人物の検索方法の論理ブロック図である。 本願のいくつかの実施例に係る対象人物の検索装置の構成ブロック図である。 本願の別のいくつかの実施例に係る対象人物の検索装置の構成ブロック図である。 本願のいくつかの実施例に係る電子機器の構成模式図である。
ここで、図面を参照しながら本願の様々な例示的実施例を詳細に説明する。なお、特に断らない限り、これらの実施例において記述した部材およびステップの相対的配置、数式および数値は本願の範囲を限定するものではないことに注意すべきである。
同時に、説明の便宜上、図面に示した各部分の寸法は実際の比例関係に従って描いたものではないことを理解すべきである。
以下の少なくとも一つの例示的実施例に対する説明は実際に説明的なものに過ぎず、本願およびその適用または使用へのなんらの制限にもならない。
関連分野の当業者に既知の技術、方法および機器については、詳細に説明しないが、場合によって、前記技術、方法および機器は明細書の一部と見なすべきである。
なお、類似する符号および英文字は以下の図面において類似項目を表し、従って、ある一項が一つの図面において定義されれば、以降の図面においてそれをさらに説明する必要がないことに注意すべきである。
本願の実施例は端末機器、コンピュータシステム、サーバなどの電子機器に適用可能であり、それは他の様々な共通または専用計算システム環境または構成と共に動作可能である。端末機器、コンピュータシステム、サーバなどの電子機器との併用に適する公知の端末機器、計算システム、環境および/または構成の例は、パーソナルコンピュータシステム、サーバコンピュータシステム、シンクライアント、ファットクライアント、手持ちまたはラップトップデバイス、マイクロプロセッサに基づくシステム、セットトップボックス、プログラマブル消費者用電子機器、ネットワークパソコン、小型コンピュータシステム、大型コンピュータシステムおよび上記あらゆるシステムを含む分散型クラウドコンピューティング技術環境などを含むが、これらに限定されない。
端末機器、コンピュータシステム、サーバなどの電子機器はコンピュータシステムにより実行されるコンピュータシステム実行可能命令(例えばプログラムモジュール)の一般的なコンテキストにおいて説明できる。通常、プログラムモジュールは、決定のタスクを実行するかまたは決定の抽象データ型を実現するルーチン、プログラム、目標プログラム、コンポーネント、ロジック、データ構造などを含むことができる。コンピュータシステム/サーバは、タスクが通信ネットワークにわたって接続された遠隔処理機器により実行される分散型クラウドコンピューティング環境において実施できる。分散型クラウドコンピューティング環境において、プログラムモジュールは記憶機器を含むローカルまたは遠隔計算システムの記憶媒体に存在してもよい。
図1に示すように、それは本願のいくつかの実施例に係る対象人物の検索方法のフローチャートである。
S100において、対象人物の画像を取得する。
本願の実施例では、対象人物の画像は対象人物の少なくとも一部を含む画像、例えば対象人物の顔画像であってもよく、顔の静的画像または映像において顔を含む映像フレーム画像を含んでもよい。例えば、対象人物の画像は映像フレーム画像であってもよく、画像収集機器に由来する映像シーケンスにおける画像フレームであってもよく、単一のフレーム画像または画像であってもよく、また他の機器に由来してもよく、本願の実施例は対象人物の画像の属性、由来および取得アプローチなどの具体的な実施形態を限定しない。
任意選択的な一例では、該S100はメモリに記憶された対応する命令をプロセッサによって呼び出して実行してもよく、プロセッサにより運用される取得モジュール400によって実行してもよい。
S102において、対象人物の画像により、顔画像ライブラリを検索し、対象人物の画像とマッチする第一顔画像テンプレートを得る。
本願の実施例では、顔画像ライブラリは予め作成された、顔画像テンプレートを記憶するための画像ライブラリであってもよい。顔画像ライブラリには一つ以上の人物の顔画像テンプレートが含まれてもよく、各人物は一つ以上の顔画像テンプレートに対応してもよい。
任意選択的に、顔画像テンプレートは顔画像および/または顔画像の情報を含み、顔画像の情報は顔画像の特徴データを含んでもよく、顔画像の特徴データは例えば少なくとも一つの特徴ベクトル、少なくとも一つの特徴マップを含んでもよく、または他の形式などであってもよく、本願の実施例はこれを限定しない。または、顔画像の情報はさらに、顔画像が属する映像情報、顔画像のフレーム番号情報、顔画像の映像画像における位置情報、顔画像が属する顔軌跡の情報などを含んでもよく、本願の実施例はこれを限定しない。
任意選択的に、顔画像ライブラリに含まれる顔画像テンプレートは一つ以上の映像における映像画像の顔検出処理を行って得られてもよく、または、顔画像ライブラリに含まれる顔画像テンプレートは静的画像の顔検出処理を行って得られてもよく、本願の実施例は顔画像ライブラリに含まれる顔画像テンプレートの由来を限定しない。
任意選択的に、第一顔画像テンプレートの数は一つ以上としてもよく、つまり、対象人物の画像により顔画像ライブラリを検索し、対象人物の画像とマッチする少なくとも一つの第一顔画像テンプレートを得ることができる。
例えば、顔画像ライブラリLに複数の人物の顔画像テンプレートが記憶されており、各人物の顔画像テンプレートは一つ以上としてもよく、顔画像ライブラリLに基づいて対象人物の画像Pとマッチする第一顔画像テンプレートl1、l2およびl3を検索する。第一顔画像テンプレートl1、l2およびl3は対象人物の画像Pと同一人物に対応する顔画像テンプレートである。
任意選択的な一例では、該S102はメモリに記憶された対応する命令をプロセッサによって呼び出して実行してもよく、プロセッサにより運用される顔検索モジュール401によって実行してもよい。
S104において、第一顔画像テンプレートおよび歩行者画像ライブラリに基づき、対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得る。
本願の実施例では、歩行者画像ライブラリは予め作成された、歩行者画像テンプレートを記憶するための画像ライブラリであってもよい。歩行者画像ライブラリには一つ以上の人物の複数の歩行者画像テンプレートが含まれてもよく、各人物は一つ以上の歩行者画像テンプレートに対応してもよい。
任意選択的に、歩行者画像テンプレートは歩行者画像および/または歩行者画像の情報を含み、歩行者画像の情報は歩行者画像の特徴データを含んでもよく、歩行者画像の特徴データは例えば少なくとも一つの特徴ベクトル、少なくとも一つの特徴マップを含んでもよく、または他の形式などであってもよく、本願の実施例はこれを限定しない。または、歩行者画像の情報はさらに、歩行者画像が属する映像情報、歩行者画像のフレーム番号情報、歩行者画像の映像画像における位置情報、歩行者画像が属する歩行者軌跡の情報などを含んでもよく、本願の実施例はこれを限定しない。
任意選択的に、歩行者画像ライブラリに含まれる歩行者画像テンプレートは一つ以上の映像における映像画像の歩行者検出処理を行って得られてもよく、そのうち、歩行者画像ライブラリにおける歩行者画像テンプレートの映像の由来は顔画像ライブラリにおける顔画像テンプレートの映像の由来と完全に重複するか、部分的に重複するかまたは重複しないようにしてもよく、あるいは、歩行者画像ライブラリにおける歩行者画像テンプレートは静的画像の歩行者検出処理を行って得られてもよく、本願の実施例は歩行者画像ライブラリに含まれる歩行者画像テンプレートの由来を限定しない。
任意選択的に、各第一顔画像テンプレートおよび歩行者画像ライブラリに基づき、少なくとも一つの対象歩行者画像テンプレートを得ることができる。該対象歩行者画像テンプレートは歩行者画像ライブラリを検索することによって得ることができるが、本願の実施例はこれを限定しない。
例えば、歩行者画像ライブラリXには一つ以上の人物の歩行者画像テンプレートが記憶されてもよく、各人物の歩行者画像テンプレートは複数としてもよく、歩行者画像ライブラリXおよび第一顔画像テンプレートl1に基づいて対象人物の画像Pとマッチする歩行者画像テンプレートx1およびx2を取得することができ、歩行者画像ライブラリXおよび第一顔画像テンプレートl2に基づいて対象人物の画像Pとマッチする歩行者画像テンプレートx3を取得することができ、歩行者画像ライブラリXおよび第一顔画像テンプレートl3に基づいて対象人物の画像Pとマッチする歩行者画像テンプレートx4およびx5を取得することができる。このように、対象人物の画像とマッチする五つの対象歩行者画像テンプレートx1〜x5を得ることができる。
任意選択的な一例では、該S104はメモリに記憶された対応する命令をプロセッサによって呼び出して実行してもよく、プロセッサにより運用される歩行者検索モジュール402によって実行してもよい。
本願の実施例では、上記S102は顔検索プロセスと認められてもよく、S104は歩行者検索プロセスと認められてもよい。
通常、同一人物の顔は経時変化的ではなく、顔検索の適用可能なタイムスパンは非常に長く、数月ひいては数年にわたっても適用可能である。それに対して、歩行者検索は歩行者の服装、リュックサックなどの情報に焦点を集めるため、歩行者検索の適用可能なタイムスパンは数時間だけである場合が多く、長くても一日または二日だけである。しかも、顔画像ライブラリにおける顔画像テンプレートの数、および歩行者画像ライブラリにおける歩行者画像テンプレートの数が一定程度(例えば十万級または百万級)に達してから、顔検索の精度は歩行者検索の精度よりも大幅に高くなる。しかし、スマート映像監視の用途では、検索結果として対象人物の画像に対応する全ての検索結果が望まれている。顔検索によって取得可能なのは顔画像だけであるため(カメラに背を向けた対象者は顔が撮影される可能性が全くないことが考えられる)、顔検索のリコール率はスマート映像監視の用途において歩行者検索のリコール率よりも低い。そのうち、リコール率は再現率とも呼ばれ、所望の検索結果のうち検索された対象が存在する割合を評価するために用いられる。
本願の実施例が提供する方法は顔検索と歩行者検索を結合した連携検索ポリシーを採用し、まず顔画像ライブラリに基づいて検索して対象人物の画像とマッチする第一顔画像テンプレートを得て、さらに歩行者画像ライブラリおよび第一顔画像テンプレートに基づいて対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを取得し、顔検索のタイムスパンが長く、精度が高いという利点を有するのみならず、歩行者検索のリコール率が高いという利点をも有し、対象人物検索の正確率を向上させる。
図2に示すように、それは本願の別のいくつかの実施例に係る対象人物の検索方法のフローチャートである。
S200において、顔画像ライブラリおよび歩行者画像ライブラリを作成する。
本願の実施例では、顔画像ライブラリおよび歩行者画像ライブラリの作成プロセスは互いに独立し、互いに影響しないようにしてもよく、並行に実行するかまたは任意の前後順序に従って実行してもよく、本願の実施例はこれを限定しない。以下に顔画像ライブラリおよび歩行者画像ライブラリの作成プロセスをそれぞれ説明する。
(一)顔画像ライブラリの作成
1)顔検出処理
少なくとも一つの映像のうちの各々に含まれる映像画像の顔検出処理を行い、複数の顔画像を得て、複数の顔画像のうちの各々および/または各顔画像の情報を顔画像テンプレートとして顔画像ライブラリに記憶することができる。
いくつかの可能な実施形態では、顔画像の情報は顔画像の特徴データ、顔画像が属する映像情報、顔画像のフレーム番号情報、顔画像の映像画像における位置情報(即ち顔画像の画像位置情報)などのうちの少なくとも一つを含んでもよい。
顔画像のフレーム番号情報は顔画像が属する映像画像を示すことができ、または、顔画像が属する映像画像は他の情報によって示されてもよい。任意選択的に、顔画像の映像画像における位置情報は顔画像の映像画像における位置を示すことができ、例えば、顔画像の映像画像における位置情報は顔画像の境界ボックスの映像画像における位置情報を含む。別のいくつかの可能な実施形態では、顔画像の情報はさらに他の情報を含み、本願の実施例はこれを限定しない。
例えば、映像S1をフレーム毎に処理し、2フレームの映像画像Y1およびY2を得ることができる。続いて、映像画像Y1およびY2の顔検出処理をそれぞれ行い、映像画像Y1から顔画像y1、y2およびy3を得て、映像画像Y2から顔画像y4およびy5を得て、かつ各顔画像の情報を取得することができる。そのうち、例を挙げれば、顔画像y1の情報は、映像画像Y1の情報(例えば映像画像Y1の名称、フレーム番号、占有空間、時間の長さなど)、顔画像y1の映像画像Y1における位置情報などを含む。顔画像y2、y3、y4およびy5の情報は顔画像y1の情報に類似し、ここでは説明を省略する。最後に、顔画像y1、y2、y3、y4およびy5および/または各々の情報を顔画像テンプレートとして顔画像ライブラリLに記憶する。
2)顔追跡処理
上記顔検出処理によって得られた複数の映像フレーム画像における顔画像の顔追跡処理を行い、それぞれが複数の顔画像のうちの少なくとも二つを含む少なくとも一つの顔軌跡を得る。
顔軌跡に含まれる少なくとも二つの顔画像は同一人物に対応してもよい。
いくつかの可能な実施形態では、該複数の顔画像と該少なくとも一つの顔軌跡との対応関係を示すための情報を顔画像ライブラリに記憶する。例えば、顔画像に対応する顔画像テンプレートは顔画像が属する顔軌跡の識別情報を含み、さらに例えば、顔画像ライブラリは顔軌跡の識別情報および顔軌跡に含まれる少なくとも二つの顔画像に対応する顔画像テンプレートの識別情報などを含むが、本願の実施例はこれに限定されない。
いくつかの例では、該少なくとも一つの顔軌跡のうちの各々の情報を顔画像ライブラリに記憶する。
任意選択的に、顔軌跡の情報は顔軌跡に含まれる顔画像に対応する顔画像テンプレートの識別情報および/または顔軌跡に対応する特徴データなどを含んでもよい。
任意選択的に、少なくとも一つの顔軌跡のうちの各々に含まれる少なくとも二つの顔画像に基づき、各顔軌跡の平均特徴データを決定し、少なくとも一つの顔軌跡のうちの各々の平均特徴データを顔画像ライブラリに記憶する。そのうち、いくつかの実施形態では、顔軌跡に含まれる少なくとも二つの顔画像に対応する顔画像テンプレートの特徴データは該顔軌跡の平均特徴データであり、別のいくつかの実施形態では、顔軌跡に含まれる顔画像に対応する顔画像テンプレートの特徴データは顔画像に対する特徴抽出によって得られ、本願の実施例はこれを限定しない。
例えば、顔画像y1、y2、y3、y4およびy5の顔追跡処理を行い、顔画像y1、y3やy5を含む顔軌跡g1、および顔画像y2やy4を含むg2を得ることができる。顔画像y1、y3およびy5の特徴データをそれぞれ抽出し、顔画像y1、y3およびy5の特徴データの平均処理結果を顔軌跡g1の平均特徴データgt1とすることができ、ここで、該平均処理は算術平均、幾何平均または重み付け平均などとし、本願の実施例はこれを限定しない。また、顔画像y2およびy4の特徴データをそれぞれ抽出し、顔画像y2およびy4の特徴データの平均処理結果を顔軌跡g2の平均特徴データgt2とする。最後に、顔軌跡g1の平均特徴データgt1および顔軌跡g2の平均特徴データgt2を顔画像ライブラリLに記憶する。具体的には、顔軌跡g1の平均特徴データgt1を顔画像y1、y3およびy5に対応する顔画像テンプレートの特徴データとして顔画像ライブラリLに記憶し、顔軌跡g2の平均特徴データgt2を顔画像y2およびy4に対応する顔画像テンプレートの特徴データとして顔画像ライブラリLに記憶する。または、顔画像ライブラリLは顔画像y1、y3およびy5のうちの各々の特徴データおよび顔軌跡g1の平均特徴データgt1を記憶する。
なお、上記例では顔軌跡に含まれる複数の顔画像の特徴データの平均処理結果を顔軌跡の平均特徴データとし、本願の実施例では、顔軌跡の平均特徴データは顔軌跡に含まれる少なくとも二つの顔画像の特徴データに一つ以上の処理を施して得られてもよく、本願の実施例は処理の具体的な実施形態を限定しないことを理解すべきである。
いくつかの可能な実施形態では、顔画像が属する顔軌跡の情報を顔画像に対応する顔画像テンプレートの情報として顔画像ライブラリに記憶し、例えば、顔画像テンプレートの情報は顔画像が属する顔軌跡の識別情報および/または平均特徴データを含み、本願の実施例はこれを限定しない。
任意選択的に、顔画像ライブラリを作成するプロセスにおいて、ニューラルネットワークモデルなどを採用して顔検出処理および顔追跡処理を行うことができ、本願の実施例は顔検出処理および顔追跡処理に採用される技術的解決手段を限定しない。
(二)歩行者画像ライブラリの作成
1)歩行者検出処理
少なくとも一つの映像のうちの各々に含まれる映像画像の歩行者検出処理を行い、複数の歩行者画像を得て、複数の歩行者画像のうちの各々および/または各歩行者画像の情報を歩行者画像テンプレートとして歩行者画像ライブラリに記憶する。
いくつかの可能な実施形態では、歩行者画像の情報は、歩行者画像の特徴データ、歩行者画像が属する映像情報、歩行者画像のフレーム番号情報、歩行者画像の映像画像における位置情報などのうちの少なくとも一つを含んでもよい。
歩行者画像のフレーム番号情報は歩行者画像が属する映像画像を示すことができ、または、歩行者画像が属する映像画像は他の情報によって示されてもよい。任意選択的に、歩行者画像の映像画像における位置情報は歩行者画像の映像画像における位置を示すことができ、例えば、歩行者画像の映像画像における位置情報は歩行者画像の境界ボックスの映像画像における位置情報を含んでもよい。別のいくつかの可能な実施形態では、歩行者画像の情報は他の情報を含んでもよく、本願の実施例はこれを限定しない。
歩行者検出処理の実行プロセスは上記顔検出処理の実行プロセスを参照すればよく、ここでは説明を省略する。
2)歩行者追跡処理
上記歩行者検出処理によって得られた複数の映像フレーム画像における歩行者画像の歩行者追跡処理を行い、それぞれが複数の歩行者画像のうちの少なくとも二つを含む少なくとも一つの歩行者軌跡を得る。
歩行者軌跡に含まれる少なくとも二つの歩行者画像は同一人物に対応してもよい。
いくつかの可能な実施形態では、該複数の歩行者画像と該少なくとも一つの歩行者軌跡との対応関係を示すための情報を歩行者画像ライブラリに記憶することができる。例えば、歩行者画像に対応する歩行者画像テンプレートは歩行者画像が属する歩行者軌跡の識別情報を含み、さらに例えば、歩行者画像ライブラリは歩行者軌跡の識別情報および歩行者軌跡に含まれる少なくとも二つの歩行者画像に対応する歩行者画像テンプレートの識別情報などを含むが、本願の実施例はこれに限定されない。
いくつかの例では、該少なくとも一つの歩行者軌跡のうちの各々の情報を歩行者画像ライブラリに記憶することができる。
任意選択的に、歩行者軌跡の情報は歩行者軌跡に含まれる歩行者画像に対応する歩行者画像テンプレートの識別情報および/または歩行者軌跡に対応する特徴データなどを含んでもよい。
歩行者軌跡に対応する特徴データは歩行者軌跡に含まれる少なくとも二つの歩行者画像から抽出された特徴データに基づいて得られる。いくつかの実施形態では、歩行者軌跡に含まれる少なくとも二つの歩行者画像に基づき、歩行者軌跡の平均特徴データを決定し、歩行者軌跡の平均特徴データを歩行者画像ライブラリに記憶する。具体的には、歩行者軌跡に対応する特徴データは歩行者軌跡に含まれる少なくとも二つの歩行者画像から抽出された特徴データに基づいて平均処理、例えば算術平均、幾何平均、重み付け平均などを行って得られる。そのうち、いくつかの実施形態では、歩行者軌跡に含まれる少なくとも二つの歩行者画像に対応する歩行者画像テンプレートの特徴データは該歩行者軌跡の平均特徴データであり、別のいくつかの実施形態では、歩行者軌跡に含まれる歩行者画像に対応する歩行者画像テンプレートの特徴データは歩行者画像に対する特徴提取によって得られ、本願の実施例はこれを限定しない。
なお、上記例では歩行者軌跡に含まれる複数の歩行者画像の特徴データの平均処理結果を歩行者軌跡の平均特徴データとし、本願の実施例では、歩行者軌跡の平均特徴データは歩行者軌跡に含まれる少なくとも二つの歩行者画像の特徴データに一つ以上の処理を施して得られてもよく、本願の実施例は処理の具体的な実施形態を限定しないことを理解すべきである。
いくつかの可能な実施形態では、歩行者画像が属する歩行者軌跡の情報を歩行者画像に対応する歩行者画像テンプレートの情報として歩行者画像ライブラリに記憶することができ、例えば、歩行者画像テンプレートの情報は歩行者画像が属する歩行者軌跡の識別情報および/または平均特徴データを含み、本願の実施例はこれを限定しない。
任意選択的に、歩行者画像ライブラリを作成するプロセスにおいて、ニューラルネットワークモデルまたは他の機械学習アルゴリズムなどの手段を採用して歩行者検出処理および歩行者追跡処理を行うことができ、本願の実施例は歩行者検出処理および歩行者追跡処理に採用される技術的解決手段を限定しない。
歩行者追跡処理の実行プロセスは上記顔追跡処理の実行プロセスを参照すればよく、ここでは説明を省略する。
いくつかの可能な実施形態では、映像シーケンスにおける映像画像に対する顔/歩行者検出処理は、顔/歩行者検出アルゴリズムにより映像における画像をフレーム毎に解析し、各画像フレームに含まれる顔/歩行者を得るように、または、キーフレーム技術に基づき、映像シーケンスにおけるキーフレームのみを顔/歩行者検出処理を行い、非キーフレームに追跡技術を用いるようにしてもよいが、本願の実施例はこれを限定しない。
任意選択的な一例では、該S200はメモリに記憶された対応する命令をプロセッサによって呼び出して実行してもよく、プロセッサにより運用される顔検出モジュール504、顔追跡モジュール505、歩行者検出モジュール506および歩行者追跡モジュール507によって実行してもよい。
S202において、対象人物の画像を取得する。
任意選択的な一例では、該S202はメモリに記憶された対応する命令をプロセッサによって呼び出して実行してもよく、プロセッサにより運用される取得モジュール500によって実行してもよい。
S204において、対象人物の画像により、顔画像ライブラリを検索し、対象人物の画像とマッチする第一顔画像テンプレートを得る。
いくつかの可能な実施形態では、S204は以下のステップを含む。
S2040において、対象人物の画像の第一顔特徴データを取得する。
本願の実施例では、対象人物の画像の特徴データを第一顔特徴データと呼ぶ。任意選択的に、顔認識ニューラルネットワークに基づいて対象人物の画像の第一顔特徴データを抽出してもよく、または、機械学習アルゴリズムや他の手段により対象人物の画像の特徴データを取得してもよい。例えば、顔認識ニューラルネットワークに基づいて対象人物の画像の特徴を抽出し、第一顔特徴データを得て、第一顔特徴データは256次元または512次元のベクトルまたはマップ、または他の次元数のベクトル、行列、マップまたはテンソルであってもよく、次元数の値は顔認識ニューラルネットワークの実現に依存し、第一顔特徴データの各桁の数値は実数であってもよく、その値は−10から10の間としてもよく、第一顔特徴データを正規化処理する場合、各桁の値は−1から1の間としてもよいが、本願の実施例はこれに限定されない。
別のいくつかの任意選択的な例では、他の機器から第一顔特徴データを取得する。例えば、サーバは端末機器が送信する対象人物の画像の第一顔特徴データを受信するが、本開示の実施例はこれに限定されない。
S2041において、第一顔特徴データに基づき、顔画像ライブラリに記憶された複数の顔画像テンプレートから第一顔画像テンプレートを決定する。
任意選択的に、複数の第二顔特徴データのうち第一顔特徴データとの距離が予め設定された条件を満たす第二顔特徴データに対応する顔画像テンプレートを第一顔画像テンプレートとして決定する。いくつかの可能な実施形態では、第一顔特徴データと複数の顔画像テンプレートに対応する複数の第二顔特徴データのうちの各々との距離(例えばコサイン距離、ユークリッド距離など)に基づき、複数の顔画像テンプレートから第一顔画像テンプレートを決定するようにしてもよい。任意選択的な一例では、複数の第二顔特徴データのうち第一顔特徴データとの距離が最も小さい第二顔特徴データに対応する少なくとも一つの顔画像テンプレートを第一顔画像テンプレートとして決定してもよい。別の任意選択的な例では、複数の第二顔特徴データのうち第一顔特徴データとの距離が第一閾値以下である第二顔特徴データに対応する少なくとも一つの顔画像テンプレートを第一顔画像テンプレートとして決定してもよく、ここで、第一閾値は実際の必要に応じて設定でき、本願はその実施形態を限定しない。
ここで顔画像ライブラリにおける顔画像テンプレートの特徴データを第二顔特徴データと呼ぶ。任意選択的に、複数の顔画像テンプレートのうちの各々は対応する第二顔特徴データを有してもよく、そのうち、任意選択的に、顔画像テンプレートに対応する第二顔特徴データは顔画像テンプレートに対応する顔画像から抽出された特徴データから得られるか、または顔画像テンプレートに対応する人物または人物軌跡における一つ以上の顔画像から抽出された特徴データに基づいて得られ、本開示の実施例はこれを限定しない。該複数の顔画像テンプレートのうち異なる顔画像テンプレートに対応する第二顔特徴データは同じであってもなくてもよい。任意選択的に、該複数の顔画像テンプレートのうち同一人物軌跡に対応する少なくとも二つの顔画像テンプレートは同じ第二顔特徴データを有する。例えば、該少なくとも二つの顔画像テンプレートの第二顔特徴データは該少なくとも二つの顔画像テンプレートが属する顔軌跡の平均特徴データであってもよいが、本願の実施例はこれに限定されない。
例えば、顔画像テンプレートy1、y2、y3、y4およびy5のうち顔画像テンプレートy1、y3およびy5は顔軌跡g1に属し、顔画像テンプレートy2およびy4はいかなる顔軌跡にも属さない場合、顔画像テンプレートy1に対応する第二顔特徴データ、顔画像テンプレートy3に対応する第二顔特徴データ、および顔画像テンプレートy5に対応する第二顔特徴データはいずれも顔軌跡g1の平均特徴データgt1となり、顔画像テンプレートy2の第二顔特徴データは顔画像テンプレートy2の特徴データであってもよい。
任意選択的な一例では、該S204はメモリに記憶された対応する命令をプロセッサによって呼び出して実行してもよく、プロセッサにより運用される顔検索モジュール501によって実行してもよい。
S206において、第一顔画像テンプレートおよび歩行者画像ライブラリに基づき、対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得る。
任意選択的に、S206は以下のステップを含んでもよい。
S2060において、第一顔画像テンプレートに対応する第一歩行者画像を取得する。
本願の実施例では、第一顔画像テンプレートは第一顔画像に対応し、顔画像ライブラリから第一顔画像テンプレートの情報、例えば第一顔画像テンプレートに対応する第一顔画像の情報などを取得し、取得した情報に基づき、第一顔画像テンプレートに対応する第一歩行者画像を決定することができる。任意選択的に、第一顔画像の情報は第一顔画像が属する映像の情報および/または第一顔画像のフレーム番号情報を含んでもよく、またはさらに第一顔画像の画像位置情報を含んでも良い。いくつかの例では、第一顔画像が属する第一映像および第一顔画像のフレーム番号情報や画像位置情報を決定し、第一顔画像のフレーム番号情報や画像位置情報に基づき、第一映像において第一顔画像テンプレートに対応する第一歩行者画像を取得するようにしてもよい。
第一顔画像のフレーム番号情報は第一顔画像の第一映像において存在するフレームを示し、第一顔画像のフレーム番号情報に基づいて第一映像において第一顔画像を含む第一映像画像を取得することができ、ここで、第一映像画像が第一映像において属するフレームは該第一顔画像のフレーム番号情報に対応する。
第一顔画像の画像位置情報は第一顔画像の属する映像画像における位置、例えば、第一顔画像の境界ボックスの第一映像画像における座標情報を示すが、本願の実施例はこれに限定されない。
任意選択的に、第一歩行者画像を取得するプロセスにおいて、以下の二つの場合に従って実行することができる。
場合1:第一映像にフレーム番号が第一顔画像のフレーム番号情報に対応しかつ第一顔画像を含む歩行者画像が存在し、第一顔画像を含む歩行者画像を第一顔画像テンプレートに対応する第一歩行者画像として決定する。
例えば、第一顔画像l1は第一映像M1の10フレーム目の映像画像に存在し、第一映像M1の10フレーム目の映像画像に第一顔画像l1を完全に含む歩行者画像x1が存在する場合、歩行者画像x1を第一顔画像l1に対応する第一歩行者画像として決定する。
場合2:第一映像にフレーム番号が第一顔画像のフレーム番号情報に対応しかつ第一顔画像を含む歩行者画像が存在せず、第一顔画像を第一映像画像において予め設定された比率に従って拡大し、第一顔画像テンプレートに対応する第一歩行者画像を得て、ここで、第一映像画像の第一映像におけるフレーム番号は第一顔画像のフレーム番号情報に対応する。
例えば、第一顔画像l2は第一映像M2の13フレーム目の映像画像に存在し、第一映像M2の13フレーム目の映像画像に第一顔画像l2を完全に含む歩行者画像が存在しない場合、第一顔画像l2を第一映像画像即ち13フレーム目の映像画像において予め設定された比率(例えば4または8倍の比率など)に従って拡大し、拡大後の領域を第一顔画像l2に対応する第一歩行者画像として決定する。
S2061において、第一歩行者画像により歩行者画像ライブラリを検索し、対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得る。
本願の実施例におけるいくつかの実施形態では、第一歩行者画像の第一歩行者特徴データを決定し、第一歩行者特徴データに基づき、歩行者画像ライブラリに記憶された複数の歩行者画像テンプレートから第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートを決定する。
ここで、第一歩行者画像の特徴データを第一歩行者特徴データと呼ぶ。任意選択的に、歩行者画像ライブラリに記憶された複数の歩行者画像テンプレートから第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートを決定する時、第一歩行者特徴データと複数の歩行者画像テンプレートに対応する複数の第二歩行者特徴データのうちの各々との距離に基づき、複数の歩行者画像テンプレートから第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートを決定することができる。具体的には、複数の第二歩行者特徴データのうち第一歩行者特徴データとの距離が予め設定された条件を満たす第二歩行者特徴データに対応する歩行者画像テンプレートを第一歩行者画像とマッチする歩行者画像テンプレートとして決定する。任意選択的な一例では、複数の第二歩行者特徴データのうち第一歩行者特徴データとの距離が最も小さい第二歩行者特徴データに対応する少なくとも一つの歩行者画像テンプレートを第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートとして決定する。別の任意選択的な例では、複数の第二歩行者特徴データのうち第一歩行者特徴データとの距離が第二閾値以下である第二歩行者特徴データに対応する少なくとも一つの歩行者画像テンプレートを第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートとして決定し、ここで、第二閾値は実際の必要に応じて予め設定でき、本願はその具体的な実施形態を限定しない。
任意選択的に、複数の歩行者画像テンプレートのうちの各々は対応する第二歩行者特徴データを有し、そのうち、任意選択的に、歩行者画像テンプレートに対応する第二歩行者特徴データは歩行者画像テンプレートに対応する歩行者画像から抽出された特徴データから得られるか、または歩行者画像テンプレートに対応する人物または人物軌跡における一つ以上の歩行者画像から抽出された特徴データに基づいて得られ、本開示の実施例はこれを限定しない。該複数の歩行者画像テンプレートのうち異なる歩行者画像テンプレートに対応する第二歩行者特徴データは同じであってもなくてもよい。任意選択的に、該複数の歩行者画像テンプレートのうち同一人物軌跡に対応する少なくとも二つの歩行者画像テンプレートは同じ第二歩行者特徴データを有する。例えば、該少なくとも二つの歩行者画像テンプレートの第二歩行者特徴データは該少なくとも二つの歩行者画像テンプレートが属する歩行者軌跡の平均特徴データであってもよいが、本願の実施例はこれに限定されない。
いくつかの可能な実施形態では、第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートを対象人物の画像とマッチする対象歩行者画像テンプレートとして決定する。
別のいくつかの可能な実施形態では、S206はさらに、第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートをスクリーニングし、対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得ることを含む。
本願の実施例では、対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを対象人物の検索結果として決定する。または、まず対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを決定し、続いて対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートをスクリーニングし、対象人物の検索結果を得て、本願の実施例はこれを限定しない。
任意選択的な一例では、該S206はメモリに記憶された対応する命令をプロセッサによって呼び出して実行してもよく、プロセッサにより運用される歩行者検索モジュール502によって実行してもよい。
S208において、対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートをスクリーニングし、対象人物の検索結果を得る。
任意選択的に、S208は以下の二つの方式の少なくとも一つに従って実現する。
1)時間スクリーニング条件および映像スクリーニング条件の少なくとも一つに従って対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートをスクリーニングする。
いくつかの可能な実施形態では、スクリーニング条件を手動で設定してもよく、例えば、時間スクリーニング条件(例えばある日のある時間帯)、映像スクリーニング条件(例えば由来する監視機器)に従って対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートをスクリーニングする。
本願の実施例では、スクリーニング条件は時間スクリーニング条件および映像スクリーニング条件を含むが、これらに限定されず、さらに人物スクリーニング条件、例えば性別、年齢などを含んでもよく、本願の実施例はこれを限定しない。
2)対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートの特徴データをクラスタリングし、クラスタリング結果に基づいてスクリーニングする。
任意選択的に、対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートのうちの各々の特徴データに基づき、少なくとも一つの対象歩行者画像テンプレートを少なくとも1グループの歩行者画像テンプレートに分け、該少なくとも1グループの歩行者画像テンプレートのうちの各々に含まれる歩行者画像の特徴データに基づき、該各グループの歩行者画像テンプレートのスクリーニング統計データを決定し、そして該少なくとも1グループの歩行者画像テンプレートのうちの各々のスクリーニング統計データに基づき、該少なくとも1グループの歩行者画像テンプレートのうちの1グループ以上に対応する歩行者画像を対象人物の検索結果として決定する。
いくつかの可能な実施形態では、1グループの歩行者画像テンプレートのスクリーニング統計データは該グループの歩行者画像テンプレートに含まれる少なくとも一つの歩行者画像の特徴データの平均値または平均分散を含んでもよいが、本願の実施例はこれに限定されない。
いくつかの可能な実施形態では、各グループの歩行者画像テンプレートのスクリーニング統計データに基づき、少なくとも1グループの歩行者画像テンプレートを順に並び替え、最初または最後の1グループ以上の歩行者画像テンプレートを削除し、対象人物の検索結果を得るようにしてもよい。
いくつかの可能な実施形態では、k−meansクラスタリングアルゴリズムを採用して対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートの特徴データをクラスタリングし、kグループの特徴データを得て、各グループ内の特徴データについて、その対応する軌跡の数、特徴データの分散などのスクリーニング統計データを計算し、スクリーニング統計データに基づいてどのグループがノイズであるか(例えば分散が最も大きいグループはノイズグループである)を決定する。例えば、対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートは100個の歩行者軌跡であり、各歩行者軌跡は複数の歩行者画像を含むと仮定すると、k−meansクラスタリングアルゴリズムによって100個の歩行者軌跡の特徴データを10グループに分けることができ、任意選択的に、100個の歩行者軌跡の100個の特徴データの数回反復するk−meansクラスタリング演算を行い、10グループに分けることができ、ここで各グループに含まれる歩行者軌跡の数は同じであってもなくてもよく、第10のグループには歩行者軌跡が5個のみあり、かつその特徴データの分散が最も大きい場合、第10のグループ内の5個の歩行者軌跡がノイズであると決定し、結果から第10のグループ内の5個の歩行者軌跡に含まれる歩行者画像を除去することができ、残りの結果は検索結果となる。
任意選択的な一例では、該S208はメモリに記憶された対応する命令をプロセッサによって呼び出して実行してもよく、プロセッサにより運用されるスクリーニングモジュール503によって実行してもよい。
本願の実施例の上記説明に基づき、本願の実施例の対象人物の検索方法の論理ブロック図は図3に示すように、大量の映像(例えば監視映像)の映像構造化動作(主に顔/歩行者検出処理および顔/歩行者追跡処理を含む)を予め実行し、顔画像ライブラリおよび歩行者画像ライブラリを作成する。顔を含む対象人物の画像を検索する時、まず顔画像ライブラリに基づいて顔検索を行い、第一顔画像テンプレートを得て、さらに歩行者画像ライブラリに基づいて第一顔画像テンプレートの歩行者検索を行い、複数の歩行者画像テンプレートを得て、続いて複数の歩行者画像テンプレートをスクリーニングし、最終的に対象人物の検索結果を得る。
本願の実施例は顔検索と歩行者検索を結合した連携検索ポリシーを採用し、まず顔画像ライブラリに基づいて検索して対象人物の画像とマッチする第一顔画像テンプレートを得て、さらに歩行者画像ライブラリおよび第一顔画像テンプレートに基づいて対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを取得する。本願の実施例は顔検索のタイムスパンが長く、精度が高いという利点を有するのみならず、歩行者検索のリコール率が高いという利点をも有し、対象人物検索の正確率を向上させる。
本願の実施例が提供するいずれの対象人物の検索方法もデータ処理能力を有する任意の適当な機器によって実行することができ、前記機器は、端末機器およびサーバなどを含むが、これらに限定されない。または、本願の実施例が提供するいずれの対象人物の検索方法もプロセッサによって実行することができ、例えばプロセッサはメモリに記憶された対応する命令を呼び出すことで本願の実施例において言及したいずれかの対象人物の検索方法を実行することができる。以下は説明を省略する。
当業者であれば、上記方法の実施例を実現する全てまたは一部のステップはプログラムによって関連ハードウェアに命令を出して完了させることができることを理解すべきであり、前記プログラムは、ROM、RAM、磁気ディスクまたは光ディスクなどプログラムコードを記憶可能である様々な媒体を含むコンピュータ読み取り可能記憶媒体に記憶可能であり、該プログラムは実行時、上記方法の実施例のステップを実行する。
図4に示すように、それは本願のいくつかの実施例に係る対象人物の検索装置の構成ブロック図である。
本願の実施例が提供する対象人物の検索装置は、対象人物の画像を取得するための取得モジュール400と、取得モジュール400が取得した対象人物の画像により、複数の顔画像テンプレートを含む顔画像ライブラリを検索し、対象人物の画像とマッチする第一顔画像テンプレートを得るための顔検索モジュール401と、顔検索モジュール401が得た第一顔画像テンプレート、および複数の歩行者画像テンプレートを含む歩行者画像ライブラリに基づき、対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得るための歩行者検索モジュール402と、を含む。
本願の実施例の対象人物の検索装置は上記実施例における対応する対象人物の検索方法を実現するためのものであり、かつ対応する方法の実施例の有益な効果を有し、ここでは説明を省略する。
図5に示すように、それは本願の別のいくつかの実施例に係る対象人物の検索装置の構成ブロック図である。
本願の実施例が提供する対象人物の検索装置は、対象人物の画像を取得するための取得モジュール500と、取得モジュール500が取得した対象人物の画像により、複数の顔画像テンプレートを含む顔画像ライブラリを検索し、対象人物の画像とマッチする第一顔画像テンプレートを得るための顔検索モジュール501と、顔検索モジュール501が得た第一顔画像テンプレート、および複数の歩行者画像テンプレートを含む歩行者画像ライブラリに基づき、対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得るための歩行者検索モジュール502と、を含む。
任意選択的に、顔検索モジュール501は、対象人物の画像の第一顔特徴データを取得し、そして第一顔特徴データに基づき、顔画像ライブラリに記憶された複数の顔画像テンプレートから第一顔画像テンプレートを決定するために用いられる。
任意選択的に、顔検索モジュール501は、第一顔特徴データと複数の顔画像テンプレートに対応する複数の第二顔特徴データのうちの各々との距離に基づき、複数の顔画像テンプレートから第一顔画像テンプレートを決定するために用いられる。
任意選択的に、顔検索モジュール501は、複数の第二顔特徴データのうち第一顔特徴データとの距離が最も小さい第二顔特徴データに対応する少なくとも一つの顔画像テンプレートを第一顔画像テンプレートとして決定するために、または複数の第二顔特徴データのうち第一顔特徴データとの距離が第一閾値以下である第二顔特徴データに対応する少なくとも一つの顔画像テンプレートを第一顔画像テンプレートとして決定するために用いられる。
任意選択的に、複数の顔画像テンプレートのうちの少なくとも二つは同一人物に対応する顔軌跡を形成し、少なくとも二つの顔画像テンプレートに対応する第二顔特徴データは少なくとも二つの顔画像テンプレートが形成する顔軌跡の平均特徴データである。
任意選択的に、歩行者検索モジュール502は、第一顔画像テンプレートに対応する第一歩行者画像を取得し、そして第一歩行者画像により歩行者画像ライブラリを検索し、対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得るために用いられる。
任意選択的に、歩行者検索モジュール502は、第一歩行者画像の第一歩行者特徴データを決定し、そして第一歩行者特徴データに基づき、歩行者画像ライブラリに記憶された複数の歩行者画像テンプレートから第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートを決定し、第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートを対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートとして決定するために用いられる。
任意選択的に、歩行者検索モジュール502は、第一歩行者特徴データと複数の歩行者画像テンプレートに対応する複数の第二歩行者特徴データのうちの各々との距離に基づき、複数の歩行者画像テンプレートから第一歩行者画像とマッチする少なくとも一つの歩行者画像を決定するために用いられる。
任意選択的に、歩行者検索モジュール502は、複数の第二歩行者特徴データのうち第一歩行者特徴データとの距離が最も小さい第二歩行者特徴データに対応する少なくとも一つの歩行者画像テンプレートを第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートとして決定するために、または複数の第二歩行者特徴データのうち第一歩行者特徴データとの距離が第二閾値以下である第二歩行者特徴データに対応する少なくとも一つの歩行者画像テンプレートを第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートとして決定するために用いられる。
任意選択的に、複数の歩行者画像テンプレートのうちの少なくとも二つは同一人物に対応する歩行者軌跡を形成し、少なくとも二つの歩行者画像テンプレートに対応する第二歩行者特徴データは少なくとも二つの歩行者画像テンプレートが形成する歩行者軌跡の平均特徴データである。
任意選択的に、第一顔画像テンプレートは第一顔画像に対応し、歩行者検索モジュール502は、第一顔画像が属する第一映像および第一顔画像のフレーム番号情報や画像位置情報を決定し、そして第一顔画像のフレーム番号情報や画像位置情報に基づき、第一映像において第一顔画像テンプレートに対応する第一歩行者画像を取得するために用いられる。
任意選択的に、歩行者検索モジュール502は、第一映像にフレーム番号が第一顔画像のフレーム番号情報に対応しかつ第一顔画像を含む歩行者画像が存在する場合、第一顔画像を含む歩行者画像を第一顔画像テンプレートに対応する第一歩行者画像として決定するために用いられる。
任意選択的に、歩行者検索モジュール502は、第一映像にフレーム番号が第一顔画像のフレーム番号情報に対応しかつ第一顔画像を含む歩行者画像が存在しない場合、第一顔画像を第一映像画像において予め設定された比率に基づいて拡大し、第一顔画像テンプレートに対応する第一歩行者画像を得るために用いられ、ここで、第一映像画像の第一映像におけるフレーム番号は第一顔画像のフレーム番号情報に対応する。
任意選択的に、本願の実施例が提供する対象人物の検索装置はさらに、歩行者検索モジュール502が第一顔画像テンプレートおよび歩行者画像ライブラリに基づき、対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得た後に、対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートをスクリーニングし、対象人物の検索結果を得るためのスクリーニングモジュール503を含む。
任意選択的に、スクリーニングモジュール503は、少なくとも一つの対象歩行者画像テンプレートのうちの各々の特徴データに基づき、少なくとも一つの対象歩行者画像テンプレートを少なくとも1グループの歩行者画像テンプレートに分け、少なくとも1グループの歩行者画像テンプレートのうちの各々に含まれる歩行者画像の特徴データに基づき、各グループの歩行者画像テンプレートのスクリーニング統計データを決定し、そして少なくとも1グループの歩行者画像テンプレートのうちの各々のスクリーニング統計データに基づき、少なくとも1グループの歩行者画像テンプレートのうちの一つ以上に対応する歩行者画像を対象人物の検索結果として決定するために用いられる。
任意選択的に、本願の実施例が提供する対象人物の検索装置はさらに、顔検索モジュール501が対象人物の画像により、顔画像ライブラリを検索し、対象人物の画像とマッチする第一顔画像テンプレートを得る前に、少なくとも一つの映像のうちの各々に含まれる映像画像の顔検出処理を行い、複数の顔画像を得て、そして複数の顔画像のうちの各々、および/または、それぞれが顔画像の特徴データ、顔画像が属する映像情報、顔画像のフレーム番号情報、顔画像の映像画像における位置情報のうちの少なくとも一つを含む各顔画像の情報を顔画像テンプレートとして顔画像ライブラリに記憶するための顔検出モジュール504を含む。
任意選択的に、本願の実施例が提供する対象人物の検索装置はさらに、複数の顔画像の顔追跡処理を行い、それぞれが複数の顔画像のうちの少なくとも二つを含む少なくとも一つの顔軌跡を得て、少なくとも一つの顔軌跡のうちの各々に含まれる少なくとも二つの顔画像に基づき、各顔軌跡の平均特徴データを決定し、そして少なくとも一つの顔軌跡の各々の平均特徴データを顔画像ライブラリに記憶するための顔追跡モジュール505を含む。
任意選択的に、本願の実施例が提供する対象人物の検索装置はさらに、歩行者検索モジュール502が第一顔画像テンプレートおよび歩行者画像ライブラリに基づき、対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得る前に、少なくとも一つの映像のうちの各々に含まれる映像画像の歩行者検出処理を行い、複数の歩行者画像を得て、そして複数の歩行者画像のうちの各々、および/または、それぞれが歩行者画像の特徴データ、歩行者画像が属する映像情報、歩行者画像のフレーム番号情報、歩行者画像の映像画像における位置情報のうちの少なくとも一つを含む各歩行者画像の情報を歩行者画像ライブラリに記憶するための歩行者検出モジュール506を含む。
任意選択的に、本願の実施例が提供する対象人物の検索装置はさらに、複数の歩行者画像の歩行者追跡処理を行い、それぞれが複数の歩行者画像のうちの少なくとも二つを含む少なくとも一つの歩行者軌跡を得て、少なくとも一つの歩行者軌跡のうちの各々に含まれる少なくとも二つの歩行者画像に基づき、各歩行者軌跡の平均特徴データを決定し、そして少なくとも一つの歩行者軌跡のうちの各々の平均特徴データを歩行者画像ライブラリに記憶するための歩行者追跡モジュール507を含む。
本願の実施例の対象人物の検索装置は上記実施例における対応する対象人物の検索方法を実現するために用いられ、該検索装置内の各モジュールおよび/またはユニットは上記方法の実施例における各ステップを実行するために用いることができ、説明を簡潔にするために、ここでは詳細な説明を繰り返さない。
本願の実施例はさらに電子機器を提供し、例えば移動端末、パーソナルコンピュータ(PC)、タブレット、サーバなどであってもよい。以下に図6を参照すると、本願の実施例の対象人物の検索装置の実現に適する電子機器600の構成模式図が示される。図6に示すように、電子機器600はメモリおよびプロセッサを含んでもよい。任意選択的に、電子機器600は一つ以上のプロセッサ、通信要素などを含み、前記一つ以上のプロセッサは例えば、一つ以上の中央処理装置(CPU)601、および/または一つ以上の加速ユニット613などであり、加速ユニット613はGPU、FPGA、他のタイプの専用プロセッサなどを含むことができるが、これらに限定されず、プロセッサは読み取り専用メモリ(ROM)602に記憶されている実行可能命令または記憶部分608からランダムアクセスメモリ(RAM)603にロードされた実行可能命令に従って様々な適当の動作および処理を実行できる。通信要素は通信コンポ―ネット612および/または通信インタフェース609を含む。そのうち、通信コンポ―ネット612はネットワークカードを含むことができるが、これに限定されず、前記ネットワークカードはIB(Infiniband)ネットワークカードを含むことができるが、これに限定されず、通信インタフェース609はLANカード、モデムのネットワークインタフェースカードなどの通信インタフェースを含み、かつインターネットのようなネットワークによって通信処理を実行する。
プロセッサは読み取り専用メモリ602および/またはランダムアクセスメモリ603と通信して実行可能命令を実行し、通信バス604を介して通信コンポ―ネット612と接続し、通信コンポ―ネット612によって他の目標機器と通信し、それにより本願の実施例が提供するいずれか一項の対象人物の検索方法に対応の動作、例えば、対象人物の画像を取得することと、前記対象人物の画像により、複数の顔画像テンプレートを含む顔画像ライブラリを検索し、前記対象人物の画像とマッチする第一顔画像テンプレートを得ることと、前記第一顔画像テンプレート、および複数の歩行者画像テンプレートを含む歩行者画像ライブラリに基づき、前記対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得ることと、を完了することができる。
また、RAM603には、装置の動作に必要な種々のプログラムおよびデータを記憶することができる。CPU601または加速ユニット613、ROM602およびRAM603は通信バス604を介して互いに接続される。RAM603が存在する場合、ROM602は任意選択的なモジュールとなる。RAM603は実行可能命令を記憶するか、または動作時にROM602へ実行可能命令を書き込み、実行可能命令によってプロセッサは上記方法に対応する動作を実行する。入力/出力(I/O)インタフェース605も通信バス604に接続される。通信コンポ―ネット612は統合設置してもよく、また複数のサブモジュール(例えば複数のIBネットワークカード)を有するように設置してもよく、かつ通信バスリンクに存在する。
キーボード、マウスなどを含む入力部分606、陰極線管(CRT)、液晶ディスプレイ(LCD)などおよびスピーカーなどを含む出力部分607、ハードディスクなどを含む記憶部分608、およびLANカード、モデムのネットワークインタフェースカードなどを含む通信インタフェース609といった部品は、I/Oインタフェース605に接続される。ドライバ610も必要に応じてI/Oインタフェース605に接続される。取り外し可能な媒体611、例えば磁気ディスク、光ディスク、磁気光ディスク、半導体メモリなどは、必要に応じてドライバ610に取り付けられ、それによってそこから読み出されたコンピュータプログラムが必要に応じて記憶部分608にインストールされる。
説明すべきは、図6に示すアーキテクチャは任意選択的な一実施形態に過ぎず、具体的な実践では、実際の必要に応じて上記図6の部品数およびタイプを選択、減少、増加または交換することができ、異なる機能部品の設置上でも、分離設置または統合設置などの実施形態を採用でき、例えば加速ユニット613とCPU601は分離設置するかまたは加速ユニット613をCPU601に統合するようにしてもよく、通信要素は分離設置してもよく、またCPU601または加速ユニット613に統合してもよいなどである。これらの置換可能な実施形態はいずれも本願の保護範囲に属する。
本願の実施例の電子機器は上記実施例における対応する対象人物の検索方法を実現するために用いることができ、該電子機器内の各デバイスは上記方法の実施例における各ステップを実行するために用いることができ、例えば、上述した対象人物の検索方法は電子機器のプロセッサによってメモリに記憶された関連命令を呼び出して実行可能であり、説明を簡潔にするために、ここでは詳細な説明を繰り返さない。
本願の実施例によれば、フローチャートを参照しながら上述したプロセスはコンピュータプログラム製品として実現できる。例えば、本願の実施例はコンピュータプログラム製品を含み、それは機械可読媒体に有形に具現化された、フローチャートに示す方法を実行するためのプログラムコードを含むコンピュータプログラムを含み、プログラムコードは本願の実施例により提供される方法を実行するステップに対応する命令、例えば、対象人物の画像を取得することと、前記対象人物の画像により、複数の顔画像テンプレートを含む顔画像ライブラリを検索し、前記対象人物の画像とマッチする第一顔画像テンプレートを得ることと、前記第一顔画像テンプレート、および複数の歩行者画像テンプレートを含む歩行者画像ライブラリに基づき、前記対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得ることと、を含むことができる。このような実施例では、該コンピュータプログラムは通信要素によってネットワークからダウンロードおよびインストールでき、および/または取り外し可能な媒体611からインストールできる。該コンピュータプログラムはプロセッサに実行される時、本願の実施例の方法に開示された機能を実行する。
説明すべきは、本願の各実施例に記述した部分は着目している点が異なり、ある実施例において詳細に記述されていない部分は本願の他の実施例における記述および説明を参照すればよく、詳細な説明は繰り返さないということである。
本願の方法および装置、電子機器ならびに記憶媒体は様々な方式で実現し得る。例えば、ソフトウェア、ハードウェア、ファームウェアまたはソフトウェア、ハードウェア、ファームウェアの任意の組み合わせで本願の実施例の方法および装置、電子機器ならびに記憶媒体を実現できる。前記方法のステップに付けられる上記順序は説明するためのものに過ぎず、本願の実施例の方法のステップは、特に断らない限り、以上に具体的に記述した順序に限定されない。また、いくつかの実施例では、本願を記録媒体に記録されたプログラムとして実施してもよく、これらのプログラムは本願の実施例に係る方法を実現するための機械可読命令を含む。従って、本願は本願の実施例に係る方法を実行するためのプログラムを記憶する記録媒体をも包含する。
本願の実施例に対する記述は例示および説明のためのもので、漏れがないものまたは開示した形式に本発明を限定するものではなく、様々な修正および変更は当業者にとって自明である。選択および記述した実施例は、本願の原理および実際の適用をより効果的に説明し、かつ当業者に本願を理解させて決定の用途に適する様々な修正付きの様々な実施例を設計するためのものである。

Claims (20)

  1. 対象人物の画像を取得することと、
    対象人物の検索装置が前記対象人物の画像により、複数の人物の顔画像テンプレートを含む顔画像ライブラリを検索し、前記対象人物の画像とマッチする第一顔画像テンプレートを得ることであって、各人物は1つ以上の顔画像テンプレートに対応し、前記顔画像テンプレートは顔画像及び/又は顔画像の情報を含み、前記顔画像の情報は顔画像の特徴データを含む、ことと、
    前記対象人物の検索装置が前記第一顔画像テンプレート、および複数の人物の歩行者画像テンプレートを含む歩行者画像ライブラリに基づき、前記対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得ることであって、各人物は1つ以上の歩行者画像テンプレートに対応し、前記歩行者画像テンプレートは歩行者画像及び/又は歩行者画像の情報を含み、前記歩行者画像の情報は前記歩行者画像の特徴データを含む、ことと、を含み、
    前記対象人物の検索装置が前記第一顔画像テンプレートおよび歩行者画像ライブラリに基づき、前記対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得ることは、
    前記対象人物の検索装置が前記第一顔画像テンプレートに対応する第一歩行者画像を取得することと、
    前記対象人物の検索装置が前記第一歩行者画像により前記歩行者画像ライブラリを検索し、前記対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得ることと、を含むことを特徴とする対象人物の検索方法。
  2. 前記対象人物の検索装置が前記対象人物の画像により、顔画像ライブラリを検索し、前記対象人物の画像とマッチする第一顔画像テンプレートを得ることは、
    前記対象人物の検索装置が前記対象人物の画像の第一顔特徴データを取得することと、
    前記対象人物の検索装置が前記第一顔特徴データに基づき、前記顔画像ライブラリに記憶された複数の顔画像テンプレートから前記第一顔画像テンプレートを決定することと、を含むことを特徴とする請求項1に記載の方法。
  3. 前記対象人物の検索装置が前記第一顔特徴データに基づき、前記顔画像ライブラリに記憶された複数の顔画像テンプレートから前記第一顔画像テンプレートを決定することは、
    前記対象人物の検索装置が前記第一顔特徴データと前記複数の顔画像テンプレートに対応する複数の第二顔特徴データのうちの各々との距離に基づき、前記複数の顔画像テンプレートから前記第一顔画像テンプレートを決定することを含むことを特徴とする請求項2に記載の方法。
  4. 前記対象人物の検索装置が前記第一顔特徴データと前記複数の顔画像テンプレートに対応する複数の第二顔特徴データのうちの各々との距離に基づき、前記複数の顔画像テンプレートから前記第一顔画像テンプレートを決定することは、
    前記対象人物の検索装置が前記複数の第二顔特徴データのうち前記第一顔特徴データとの距離が最も小さい第二顔特徴データに対応する少なくとも一つの顔画像テンプレートを前記第一顔画像テンプレートとして決定すること、または
    前記対象人物の検索装置が前記複数の第二顔特徴データのうち前記第一顔特徴データとの距離が第一閾値以下である第二顔特徴データに対応する少なくとも一つの顔画像テンプレートを前記第一顔画像テンプレートとして決定することを含むことを特徴とする請求項3に記載の方法。
  5. 前記複数の顔画像テンプレートのうちの少なくとも二つは同一人物に対応する顔軌跡を形成し、前記少なくとも二つの顔画像テンプレートに対応する第二顔特徴データは前記少なくとも二つの顔画像テンプレートが形成する顔軌跡の平均特徴データであることを特徴とする請求項3または4に記載の方法。
  6. 前記対象人物の検索装置が前記第一歩行者画像により前記歩行者画像ライブラリを検索し、前記対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得ることは、
    前記対象人物の検索装置が前記第一歩行者画像の第一歩行者特徴データを決定することと、
    前記対象人物の検索装置が前記第一歩行者特徴データに基づき、前記歩行者画像ライブラリに記憶された複数の歩行者画像テンプレートから前記第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートを決定し、前記第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートを前記対象歩行者画像テンプレートとして決定することと、を含むことを特徴とする請求項に記載の方法。
  7. 前記対象人物の検索装置が前記第一歩行者特徴データに基づき、前記歩行者画像ライブラリに記憶された複数の歩行者画像テンプレートから前記第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートを決定することは、
    前記対象人物の検索装置が前記第一歩行者特徴データと前記複数の歩行者画像テンプレートに対応する複数の第二歩行者特徴データのうちの各々との距離に基づき、前記複数の歩行者画像テンプレートから前記第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートを決定することを含むことを特徴とする請求項に記載の方法。
  8. 前記対象人物の検索装置が前記第一歩行者特徴データと前記複数の歩行者画像テンプレートに対応する複数の第二歩行者特徴データのうちの各々との距離に基づき、前記複数の歩行者画像テンプレートから前記第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートを決定することは、
    前記対象人物の検索装置が前記複数の第二歩行者特徴データのうち前記第一歩行者特徴データとの距離が最も小さい第二歩行者特徴データに対応する少なくとも一つの歩行者画像テンプレートを前記第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートとして決定すること、または
    前記対象人物の検索装置が前記複数の第二歩行者特徴データのうち前記第一歩行者特徴データとの距離が第二閾値以下である第二歩行者特徴データに対応する少なくとも一つの歩行者画像テンプレートを前記第一歩行者画像とマッチする少なくとも一つの歩行者画像テンプレートとして決定することを含むことを特徴とする請求項に記載の方法。
  9. 前記対象人物の検索装置が前記複数の歩行者画像テンプレートのうちの少なくとも二つは同一人物に対応する歩行者軌跡を形成し、前記少なくとも二つの歩行者画像テンプレートに対応する第二歩行者特徴データは前記少なくとも二つの歩行者画像テンプレートが形成する歩行者軌跡の平均特徴データであることを特徴とする請求項7または8に記載の方法。
  10. 前記第一顔画像テンプレートは第一顔画像に対応し、
    前記対象人物の検索装置が前記第一顔画像テンプレートに対応する第一歩行者画像を取得することは、
    前記対象人物の検索装置が前記第一顔画像が属する第一映像、および前記第一顔画像のフレーム番号情報や画像位置情報を決定することと、
    前記対象人物の検索装置が前記第一顔画像のフレーム番号情報や画像位置情報に基づき、前記第一映像において前記第一顔画像テンプレートに対応する第一歩行者画像を取得することと、を含むことを特徴とする請求項1,−9のいずれか一項に記載の方法。
  11. 前記対象人物の検索装置が前記第一顔画像のフレーム番号情報や画像位置情報に基づき、前記第一映像において前記第一顔画像テンプレートに対応する第一歩行者画像を取得することは、
    前記対象人物の検索装置が前記第一映像にフレーム番号が前記第一顔画像のフレーム番号情報に対応しかつ前記第一顔画像を含む歩行者画像が存在する場合、前記第一顔画像を含む前記歩行者画像を前記第一顔画像テンプレートに対応する第一歩行者画像として決定すること、又は、
    前記対象人物の検索装置が前記第一映像にフレーム番号が前記第一顔画像のフレーム番号情報に対応しかつ前記第一顔画像を含む歩行者画像が存在しない場合、前記第一顔画像を第一映像画像において予め設定された比率に従って拡大し、前記第一顔画像テンプレートに対応する第一歩行者画像を得ることを含み、ここで、前記第一映像画像の前記第一映像におけるフレーム番号は前記第一顔画像のフレーム番号情報に対応することを特徴とする請求項10に記載の方法。
  12. 前記対象人物の検索装置が前記第一顔画像テンプレートおよび歩行者画像ライブラリに基づき、前記対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得た後に、前記方法は、さらに、
    前記対象人物の検索装置が前記少なくとも一つの対象歩行者画像テンプレートをスクリーニングし、前記対象人物の検索結果を得ることを含むことを特徴とする請求項1−11のいずれか一項に記載の方法。
  13. 前記対象人物の検索装置が前記少なくとも一つの対象歩行者画像テンプレートをスクリーニングし、前記対象人物の検索結果を得ることは、
    前記対象人物の検索装置が前記少なくとも一つの対象歩行者画像テンプレートのうちの各々の特徴データに基づき、前記少なくとも一つの対象歩行者画像テンプレートを少なくとも1グループの歩行者画像テンプレートに分けることと、
    前記対象人物の検索装置が前記少なくとも1グループの歩行者画像テンプレートのうちの各々に含まれる歩行者画像の特徴データに基づき、前記各グループの歩行者画像テンプレートのスクリーニング統計データを決定することと、
    前記対象人物の検索装置が前記少なくとも1グループの歩行者画像テンプレートのうちの各々のスクリーニング統計データに基づき、前記少なくとも1グループの歩行者画像テンプレートのうちの1グループ以上に対応する歩行者画像を前記対象人物の検索結果として決定することと、を含むことを特徴とする請求項12に記載の方法。
  14. 前記対象人物の検索装置が前記対象人物の画像により、顔画像ライブラリを検索し、前記対象人物の画像とマッチする第一顔画像テンプレートを得る前に、前記方法は、さらに、
    前記対象人物の検索装置が少なくとも一つの映像のうちの各々に含まれる映像画像の顔検出処理を行い、複数の顔画像を得ることと、
    前記対象人物の検索装置が前記複数の顔画像のうちの各々、および/または、それぞれが、前記顔画像が属する映像情報、前記顔画像のフレーム番号情報、前記顔画像の映像画像における位置情報のうちの少なくとも一つをさらに含む前記各顔画像の情報を顔画像テンプレートとして前記顔画像ライブラリに記憶することと、を含むことを特徴とする請求項1−13のいずれか一項に記載の方法。
  15. 前記方法は、さらに、
    前記対象人物の検索装置が前記複数の顔画像の顔追跡処理を行い、それぞれが前記複数の顔画像のうちの少なくとも二つを含む少なくとも一つの顔軌跡を得ることと、
    前記対象人物の検索装置が前記少なくとも一つの顔軌跡のうちの各々に含まれる少なくとも二つの顔画像に基づき、前記各顔軌跡の平均特徴データを決定することと、
    前記対象人物の検索装置が前記少なくとも一つの顔軌跡のうちの各々の平均特徴データを前記顔画像ライブラリに記憶することと、を含むことを特徴とする請求項14に記載の方法。
  16. 前記対象人物の検索装置が前記第一顔画像テンプレートおよび歩行者画像ライブラリに基づき、前記対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得る前に、前記方法は、さらに、
    前記対象人物の検索装置が少なくとも一つの映像のうちの各々に含まれる映像画像の歩行者検出処理を行い、複数の歩行者画像を得ることと、
    前記対象人物の検索装置が前記複数の歩行者画像のうちの各々、および/または、それぞれが、前記歩行者画像が属する映像情報、前記歩行者画像のフレーム番号情報、前記歩行者画像の映像画像における位置情報のうちの少なくとも一つをさらに含む前記各歩行者画像の情報を歩行者画像テンプレートとして前記歩行者画像ライブラリに記憶することと、を含むことを特徴とする請求項1−15のいずれか一項に記載の方法。
  17. 前記方法は、さらに、
    前記対象人物の検索装置が前記複数の歩行者画像の歩行者追跡処理を行い、それぞれが前記複数の歩行者画像のうちの少なくとも二つを含む少なくとも一つの歩行者軌跡を得ることと、
    前記対象人物の検索装置が前記少なくとも一つの歩行者軌跡のうちの各々に含まれる少なくとも二つの歩行者画像に基づき、前記各歩行者軌跡の平均特徴データを決定することと、
    前記対象人物の検索装置が前記少なくとも一つの歩行者軌跡のうちの各々の平均特徴データを前記歩行者画像ライブラリに記憶することと、を含むことを特徴とする請求項16に記載の方法。
  18. 対象人物の画像を取得するための取得モジュールと、
    前記取得モジュールが取得した前記対象人物の画像により、複数の人物の顔画像テンプレートを含む顔画像ライブラリを検索し、前記対象人物の画像とマッチする第一顔画像テンプレートを得るための顔検索モジュールであって、各人物は1つ以上の顔画像テンプレートに対応し、前記顔画像テンプレートは顔画像及び/又は顔画像の情報を含み、前記顔画像の情報は顔画像の特徴データを含む、顔検索モジュールと、
    前記顔検索モジュールが得た前記第一顔画像テンプレート、および複数の人物の歩行者画像テンプレートを含む歩行者画像ライブラリに基づき、前記対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得るための歩行者検索モジュールであって、各人物は1つ以上の歩行者画像テンプレートに対応し、前記歩行者画像テンプレートは歩行者画像及び/又は歩行者画像の情報を含み、前記歩行者画像の情報は前記歩行者画像の特徴データを含む、歩行者検索モジュールと、を含み、
    前記歩行者検索モジュールはさらに、
    前記対象人物の検索装置が前記第一顔画像テンプレートに対応する第一歩行者画像を取得し、前記対象人物の検索装置が前記第一歩行者画像により前記歩行者画像ライブラリを検索し、前記対象人物の画像とマッチする少なくとも一つの対象歩行者画像テンプレートを得るために用いられることを特徴とする対象人物の検索装置。
  19. 実行される時に請求項1−17のいずれか一項に記載の対象人物の検索方法を実現するコンピュータ読み取り可能な命令が記憶されていることを特徴とするコンピュータ読み取り可能な記憶媒体。
  20. コンピュータ請求項1−17のいずれか一項に記載の対象人物の検索方法を実行させるためのコンピュータプログラム。
JP2019553914A 2017-11-28 2018-10-29 対象人物の検索方法および装置、機器、プログラム製品ならびに媒体 Active JP6853379B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201711219178.5A CN108229314B (zh) 2017-11-28 2017-11-28 目标人物的搜索方法、装置和电子设备
CN201711219178.5 2017-11-28
PCT/CN2018/112420 WO2019105163A1 (zh) 2017-11-28 2018-10-29 目标人物的搜索方法和装置、设备、程序产品和介质

Publications (2)

Publication Number Publication Date
JP2020515983A JP2020515983A (ja) 2020-05-28
JP6853379B2 true JP6853379B2 (ja) 2021-03-31

Family

ID=62653021

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019553914A Active JP6853379B2 (ja) 2017-11-28 2018-10-29 対象人物の検索方法および装置、機器、プログラム製品ならびに媒体

Country Status (5)

Country Link
US (1) US10891465B2 (ja)
JP (1) JP6853379B2 (ja)
CN (2) CN108229314B (ja)
SG (1) SG11201909885QA (ja)
WO (1) WO2019105163A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107516105B (zh) * 2017-07-20 2020-06-16 阿里巴巴集团控股有限公司 图像处理方法及装置
CN108229314B (zh) 2017-11-28 2021-05-04 深圳市商汤科技有限公司 目标人物的搜索方法、装置和电子设备
CN108924491B (zh) * 2018-07-04 2020-08-25 深圳市商汤科技有限公司 视频流处理方法及装置、电子设备和存储介质
CN110851636B (zh) * 2018-07-24 2023-05-02 杭州海康威视数字技术股份有限公司 一种图像搜索系统、方法及装置
CN109359570A (zh) * 2018-09-30 2019-02-19 广东司法警官职业学院 一种视频人物鉴定的方法
CN110263830B (zh) * 2019-06-06 2021-06-08 北京旷视科技有限公司 图像处理方法、装置和系统及存储介质
CN110852269B (zh) * 2019-11-11 2022-05-20 青岛海信网络科技股份有限公司 一种基于特征聚类的跨镜头人像关联分析方法及装置
CN111159476B (zh) * 2019-12-11 2022-12-16 智慧眼科技股份有限公司 目标对象的搜索方法、装置、计算机设备及存储介质
CN111767783A (zh) * 2020-04-22 2020-10-13 杭州海康威视数字技术股份有限公司 行为检测、模型训练方法、装置、电子设备及存储介质
CN114092955A (zh) * 2020-07-29 2022-02-25 华为技术有限公司 数据库更新方法、设备以及存储介质
CN114554137A (zh) * 2020-11-24 2022-05-27 京东方科技集团股份有限公司 区域管控方法、装置、设备及存储介质
CN112597953B (zh) * 2020-12-28 2024-04-09 深圳市捷顺科技实业股份有限公司 检测视频中通道闸区域行人的方法、装置、设备及介质
CN112651369A (zh) * 2020-12-31 2021-04-13 南京视察者智能科技有限公司 一种监控场景下行人识别的方法及装置
EP4293611A1 (en) 2021-02-09 2023-12-20 Nippon Telegraph And Telephone Corporation Object detection device, method, and program
US11514719B1 (en) * 2021-05-18 2022-11-29 Fortinet, Inc. Systems and methods for hierarchical facial image clustering

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000030033A (ja) * 1998-07-09 2000-01-28 Matsushita Electric Ind Co Ltd 人物検出方法
WO2004029659A2 (en) * 2002-06-14 2004-04-08 Honda Giken Kogyo Kabushiki Kaisha Pedestrian detection and tracking with night vision
CN100478979C (zh) * 2002-11-26 2009-04-15 中国科学院计算技术研究所 利用身材信息辅助人脸信息的身份识别方法
JP4085959B2 (ja) * 2003-11-14 2008-05-14 コニカミノルタホールディングス株式会社 物体検出装置、物体検出方法、および記録媒体
JP2006236260A (ja) * 2005-02-28 2006-09-07 Toshiba Corp 顔認証装置、顔認証方法および入退場管理装置
JP4375570B2 (ja) * 2006-08-04 2009-12-02 日本電気株式会社 顔認識方法およびシステム
JP2008108243A (ja) * 2006-09-28 2008-05-08 Toshiba Corp 人物認識装置および人物認識方法
JP4263737B2 (ja) * 2006-11-09 2009-05-13 トヨタ自動車株式会社 歩行者検知装置
JP5398301B2 (ja) * 2009-03-02 2014-01-29 株式会社東芝 通行管理装置、及び通行管理方法
KR20100138155A (ko) * 2009-06-24 2010-12-31 (주)로봇에버 미아찾기 시스템 및 그 방법
JP5422330B2 (ja) * 2009-10-09 2014-02-19 クラリオン株式会社 歩行者検出システム
JP5401257B2 (ja) * 2009-10-23 2014-01-29 クラリオン株式会社 遠赤外線歩行者検知装置
TW201137765A (en) * 2010-04-29 2011-11-01 Hon Hai Prec Ind Co Ltd Image capturing device and method for obtaining clear images using the image capturing device
CN101996328B (zh) * 2010-10-14 2012-10-10 浙江农林大学 一种木材识别方法
CN102324022B (zh) * 2011-09-05 2013-03-20 辽宁工程技术大学 一种基于复合梯度向量的人脸识别方法
KR101503788B1 (ko) * 2013-12-27 2015-03-19 숭실대학교산학협력단 적분영상을 기반으로 하는 특징 정보 예측을 통한 보행자 검출 방법, 이를 수행하기 위한 기록 매체 및 단말기
CN105760832A (zh) * 2016-02-14 2016-07-13 武汉理工大学 基于Kinect传感器的逃犯识别方法
CN106874347B (zh) * 2016-12-26 2020-12-01 深圳市深网视界科技有限公司 一种匹配人体特征与mac地址的方法及系统
KR101798979B1 (ko) * 2017-01-17 2017-11-17 오동근 스마트 횡단보도 신호등 시스템
CN106991395B (zh) * 2017-03-31 2020-05-26 联想(北京)有限公司 信息处理方法、装置及电子设备
CN106980844A (zh) * 2017-04-06 2017-07-25 武汉神目信息技术有限公司 一种基于人脸识别系统的人物关系挖掘系统及方法
CN107341445A (zh) * 2017-06-07 2017-11-10 武汉大千信息技术有限公司 监控场景下行人目标的全景描述方法及系统
CN108229314B (zh) * 2017-11-28 2021-05-04 深圳市商汤科技有限公司 目标人物的搜索方法、装置和电子设备

Also Published As

Publication number Publication date
US10891465B2 (en) 2021-01-12
CN110431560A (zh) 2019-11-08
CN110431560B (zh) 2023-12-19
JP2020515983A (ja) 2020-05-28
US20190325197A1 (en) 2019-10-24
WO2019105163A1 (zh) 2019-06-06
CN108229314A (zh) 2018-06-29
CN108229314B (zh) 2021-05-04
SG11201909885QA (en) 2019-11-28

Similar Documents

Publication Publication Date Title
JP6853379B2 (ja) 対象人物の検索方法および装置、機器、プログラム製品ならびに媒体
US12087078B2 (en) Method for identifying an object within an image and mobile device for executing the method
WO2019033569A1 (zh) 眼球动作分析方法、装置及存储介质
US11837061B2 (en) Techniques to provide and process video data of automatic teller machine video streams to perform suspicious activity detection
JP2021508123A (ja) リモートセンシング画像認識方法、装置、記憶媒体及び電子機器
CN110765860A (zh) 摔倒判定方法、装置、计算机设备及存储介质
CN112053358B (zh) 图像中像素的实例类别确定方法、装置、设备及存储介质
CN112560796A (zh) 人体姿态实时检测方法、装置、计算机设备及存储介质
WO2019033567A1 (zh) 眼球动作捕捉方法、装置及存储介质
CN113766330A (zh) 基于视频生成推荐信息的方法和装置
KR20220076398A (ko) Ar장치를 위한 객체 인식 처리 장치 및 방법
CN111783665A (zh) 一种动作识别方法、装置、存储介质和电子设备
US20210311984A1 (en) Display control apparatus, display control method, and computer program product
CN113033458A (zh) 动作识别方法和装置
JP7133085B2 (ja) データベース更新方法及び装置、電子機器、並びにコンピュータ記憶媒体
CN111797862A (zh) 任务处理方法、装置、存储介质和电子设备
CN117037244A (zh) 人脸安全检测方法、装置、计算机设备和存储介质
CN112183299B (zh) 行人属性预测方法、装置、电子设备及存储介质
WO2017079972A1 (en) A method and a system for classifying objects in images
Zhang et al. Multi-surface analysis for human action recognition in video
Rungruangbaiyok et al. Probabilistic static foreground elimination for background subtraction
US11853350B2 (en) Method for updating query information for tracing target object from multi-camera and multi-camera system performing the same
WO2024005832A1 (en) Bystander and attached object removal
Rajkumar et al. IoT-Enabled Crowd Monitoring and Control to Avoid Covid Disease Spread Using Crowdnet and YOLO
Maheswari An effective foreground segmentation using adaptive region based background modelling

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190930

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210311

R150 Certificate of patent or registration of utility model

Ref document number: 6853379

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250