JP2022517914A - 顔と手を関連付けて検出する方法及び装置、電子機器、記憶媒体及びコンピュータプログラム - Google Patents

顔と手を関連付けて検出する方法及び装置、電子機器、記憶媒体及びコンピュータプログラム Download PDF

Info

Publication number
JP2022517914A
JP2022517914A JP2021538256A JP2021538256A JP2022517914A JP 2022517914 A JP2022517914 A JP 2022517914A JP 2021538256 A JP2021538256 A JP 2021538256A JP 2021538256 A JP2021538256 A JP 2021538256A JP 2022517914 A JP2022517914 A JP 2022517914A
Authority
JP
Japan
Prior art keywords
feature diagram
feature
image
diagram
scales
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021538256A
Other languages
English (en)
Other versions
JP7238141B2 (ja
Inventor
昆霖 楊
鯤 顔
軍 候
帥 伊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Publication of JP2022517914A publication Critical patent/JP2022517914A/ja
Application granted granted Critical
Publication of JP7238141B2 publication Critical patent/JP7238141B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

本開示は顔と手を関連付けて検出する方法及び装置、電子機器並びに記憶媒体に関し、前記方法は、人物オブジェクトの画像である第1の画像を取得することと、前記第1の画像に対して特徴抽出を行い、複数のスケールの第1の特徴図を得ることと、前記複数のスケールの第1の特徴図に対して特徴融合処理を行い、前記第1の特徴図とスケールが一々対応する、複数のスケールの第2の特徴図を得ることと、得られた前記複数のスケールの第2の特徴図に基づいて、前記第1の画像における同一の人物オブジェクトについての関連性のある顔位置と手位置を検出することと、を含む。本開示の実施例において簡単で容易に顔と手を関連付けて検出することができる。【選択図】図1

Description

本開示はコンピュータビジュアル技術の分野に関し、特に人の顔と手の位置を検出する方法及び装置、電子機器並びに記憶媒体に関する。
人体の顔、手を関連付けるとは、検出された顔と手を関連付け、この関連付けられた情報に基づいて手で行われたある操作をある具体的な人間に対応させることである。
人体において顔と手とが比較的遠く離れるため、位置情報により直接に関連付けることはできない。そのため、従来技術において、通常、キーポイント技術及び物体検出技術を用いて、対応する顔の枠と手の枠とを関連付けることになる。
本開示は画像処理において顔と手を検出する発明を提案する。
本開示の一側面では、顔と手を関連付けて検出する方法であって、人物オブジェクトの画像である第1の画像を取得することと、前記第1の画像に対して特徴抽出を行い、複数のスケールの第1の特徴図を得ることと、前記複数のスケールの第1の特徴図に対して特徴融合処理を行い、前記第1の特徴図とスケールが一々対応する、複数のスケールの第2の特徴図を取得することと、得られた前記複数のスケールの第2の特徴図に基づいて、前記第1の画像における同一の人物オブジェクトについての関連性のある顔位置と手位置を検出することと、を含む方法を提供する。上記構成により、本開示の実施例は画像における互いに関連性のある顔と手の位置を簡単で容易に得られるとともに、検出精度を高めることができる。
いくつかの可能な実施形態では、第1の画像を得ることは、少なくとも1つの人物オブジェクトを含む画像である前記第2の画像を得ることと、前記第2の画像に対して対象となる人体の検出を行い、前記第2の画像における前記少なくとも1つの人物オブジェクトのうちいずれかの人物オブジェクトの検出枠を得ることと、前記第2の画像において前記いずれかの人物オブジェクトの前記検出枠に対応する画像領域を、前記いずれかの人物オブジェクトの第1の画像として決定することと、を含む。上記構成により、本開示の実施例で得られた第1の画像において他の環境要素の影響が除去されたため、検出精度を更に高めることができる。
いくつかの可能な実施形態では、前記第1の画像に対して特徴抽出を行い、複数のスケールの第1の特徴図を得ることは、前記第1の画像を予め設定されたスケールの第3の画像に調整することと、前記第3の画像を残差ネットワークに入力して前記複数のスケールの第1の特徴図を得ることと、を含む。上記構成により、画像のスケールの統一を実現することができ、適用性を高めることができる。
いくつかの可能な実施形態では、前記複数のスケールの第1の特徴図に対して特徴融合処理を行い、複数のスケールの第2の特徴図を得ることは、前記複数のスケールの第1の特徴図を特徴ピラミッドネットワークに入力し、前記特徴ピラミッドネットワークにより前記特徴融合処理を行い、前記複数のスケールの第2の特徴図を得ることを含む。上記構成により、得られた複数のスケールの第2の特徴図の特徴精度を高めることができる。
いくつかの可能な実施形態では、スケールの大きい順に、前記複数の第1の特徴図を{C1,...,Cn}として表し、ただし、nは、第1の特徴図の数を表し、1より大きい整数であり、前記複数のスケールの第1の特徴図に対して特徴融合処理を行い、複数のスケールの第2の特徴図を得ることは、第1の畳み込みカーネルを用いて第1の特徴図Cnに対して畳み込み処理を行って前記第1の特徴図Cnに対応する第2の特徴図Fnを得ることであって、前記第1の特徴図Cnのスケールと前記第2の特徴図Fnのスケールとが同じであることと、前記第2の特徴図Fnに対して線形補間処理を行って前記第2の特徴図Fnに対応する第1の中間特徴図F′nを取得することであって、前記第1の中間特徴図F′nのスケールと第1の特徴図Cn-1のスケールとが同じであることと、第2の畳み込みカーネルを用いて前記第1の特徴図Cn以外の第1の特徴図Ciに対して畳み込み処理を行って前記第1の特徴図Ciに対応する第2の中間特徴図C′iを得ることであって、前記第2の中間特徴図C′iのスケールと第1の中間特徴図F′i+1のスケールとが同じであり、iは1以上、n未満の整数変数であることと、前記第2の中間特徴図C′i及び対応する前記第1の中間特徴図F′i+1を用いて前記第2の特徴図Fn以外の第2の特徴図Fiを得ることであって、前記第1の中間特徴図F′i+1が、対応する前記第2の特徴図Fi+1を線形補間して得られたものであることとを含む。上記構成により、スケールが異なる特徴情報を融合することができ、特徴精度を更に高めることができる。
いくつかの可能な実施形態では、前記第2の中間特徴図C′i及び対応する前記第1の中間特徴図F′i+1を用いて前記第2の特徴図Fn以外の第2の特徴図Fiを得ることは、前記第2の中間特徴図C′iと対応する前記第1の中間特徴図F′i+1とを加算処理し、前記第2の特徴図Fiを得ることを含む。上記構成により、2つの中間特徴の特徴情報を有効に融合することができる。
いくつかの可能な実施形態では、得られた前記複数のスケールの第2の特徴図に基づいて、前記第1の画像における同一の人物オブジェクトについての関連性のある顔位置と手位置を検出することは、前記複数のスケールの第2の特徴図のうちスケールが最大の第2の特徴図に対して畳み込み処理を行い、前記顔位置を示すマスクマップ及び前記手位置を示すマスクマップをそれぞれ得ることと、前記顔位置のマスクマップ及び前記手位置のマスクマップに基づいて前記第1の画像において関連性のある手と顔が位置する位置領域を決定することと、を含む。上記構成により、関連性のある顔と手の位置を容易に予測して表すことができる。
いくつかの可能な実施形態では、前記複数のスケールの第1の特徴図間のスケールの関係は、L(Ci-1)=2k1・L(Ci)且つW(Ci-1)=2k1・W(Ci)であり、ただし、Ciは各第1の特徴図を表し、L(Ci)は前記第1の特徴図Ciの長さを表し、W(Ci)は前記第1の特徴図Ciの幅を表し、k1は1以上の整数であり、iは変数であって、且つiの範囲は[2,n]であり、nは第1の特徴図の数を表す。
いくつかの可能な実施形態では、前記方法は、前記第1の画像に前記関連性のある手と顔を強調表示することと、前記第1の画像において検出された関連性のある顔位置と手位置に同じラベルを割り当てることとの少なくとも1つを含む。上記構成により、関連性のある顔と手が位置する画像領域を直観的に表すとともに、異なる人物オブジェクトの関連性検出結果を有効に区別することができる。
いくつかの可能な実施形態では、前記方法は、ニューラルネットワークにより実現され、前記ニューラルネットワークをトレーニングするステップは、人物オブジェクトを含む画像であって、関連性のある顔位置及び手位置の真のラベル情報を有するトレーニング画像を取得することと、前記トレーニング画像を前記ニューラルネットワークに入力し、前記ニューラルネットワークにより前記トレーニング画像における同一の人物オブジェクトについての関連性のある顔位置と手位置を予測することと、予測された関連性のある前記顔位置と手位置、及び前記ラベル情報に基づいてネットワーク損失を決定し、前記ネットワーク損失に基づいて、トレーニング要求を満たすまで前記ニューラルネットワークのネットワークパラメータを調整することと、を含む。上記構成により、ニューラルネットワークの最適化のトレーニングを実現することができ、ネットワークの検出精度を確保することができる。
本開示の第2の側面では、顔と手を関連付けて検出する装置であって、人物オブジェクトの画像である第1の画像を取得するための取得モジュールと、前記第1の画像に対して特徴抽出を行い、複数のスケールの第1の特徴図を得るための特徴抽出モジュールと、前記複数のスケールの第1の特徴図に対して特徴融合処理を行い、前記第1の特徴図とスケールが一々対応する、複数のスケールの第2の特徴図を得るための融合モジュールと、得られた前記複数のスケールの第2の特徴図に基づいて、前記第1の画像における同一の人物オブジェクトについての関連性のある顔位置と手位置を検出するための検出モジュールと、を含む装置を提供する。
いくつかの可能な実施形態では、前記取得モジュールは、少なくとも1つの人物オブジェクトを含む画像である第2の画像を取得するための取得ユニットと、前記第2の画像に対して対象となる人体の検出を行い、前記第2の画像における前記少なくとも1つの人物オブジェクトのうちいずれかの人物オブジェクトの検出枠を得るための対象検出ユニットと、前記第2の画像において前記いずれかの人物オブジェクトの前記検出枠に対応する画像領域を、前記いずれかの人物オブジェクトの第1の画像として決定するための決定ユニットと、を含む。
いくつかの可能な実施形態では、前記特徴抽出モジュールはさらに、前記第1の画像を予め設定されたスケールの第3の画像に調整することと、前記第3の画像を残差ネットワークに入力して前記複数のスケールの第1の特徴図を得ることと、に用いられる。
いくつかの可能な実施形態では、前記融合ユニットさらに、前記複数のスケールの第1の特徴図を特徴ピラミッドネットワークに入力し、前記特徴ピラミッドネットワークにより前記特徴融合処理を行い、前記複数のスケールの第2の特徴図を得ることに用いられる。
いくつかの可能な実施形態では、スケールの大きい順に、前記複数の第1の特徴図を{C1,...,Cn}として表し、ただし、nは、第1の特徴図の数を表し、1より大きい整数であり、前記融合モジュールはさらに、第1の畳み込みカーネルを用いて第1の特徴図Cnに対して畳み込み処理を行って前記第1の特徴図Cnに対応する第2の特徴図Fnを得ることであって、前記第1の特徴図Cnのスケールと前記第2の特徴図Fnのスケールとが同じであることと、前記第2の特徴図Fnに対して線形補間処理を行って前記第2の特徴図Fnに対応する第1の中間特徴図F′nを取得することであって、前記第1の中間特徴図F′nのスケールと第1の特徴図Cn-1のスケールとが同じであることと、第2の畳み込みカーネルを用いて前記第1の特徴図Cn以外の第1の特徴図Ciに対して畳み込み処理を行って前記第1の特徴図Ciに対応する第2の中間特徴図C′iを得ることであって、前記第2の中間特徴図C′iのスケールと第1の中間特徴図F′i+1のスケールとが同じであり、iは1以上、n未満の整数変数であることと、前記第2の中間特徴図C′i及び対応する前記第1の中間特徴図F′i+1を用いて前記第2の特徴図Fn以外の第2の特徴図Fiを得ることであって、前記第1の中間特徴図F′i+1が、対応する前記第2の特徴図Fi+1を線形補間して得られたものであることとに用いられる。
いくつかの可能な実施形態では、前記融合モジュールはさらに、前記第2の中間特徴図C′iと対応する前記第1の中間特徴図F′i+1とを加算処理し、前記第2の特徴図Fiを得ることに用いられる。
いくつかの可能な実施形態では、前記検出モジュールはさらに、前記複数のスケールの第2の特徴図のうちスケールが最大の第2の特徴図に対して畳み込み処理を行い、前記顔位置を示すマスクマップ及び前記手位置を示すマスクマップをそれぞれ得ることと、前記顔位置のマスクマップ及び前記手位置のマスクマップに基づいて前記第1の画像において関連性のある手と顔が位置する位置領域を決定することと、に用いられる。
いくつかの可能な実施形態では、前記複数のスケールの第1の特徴図間のスケールの関係は、L(Ci-1)=2k1・L(Ci)且つW(Ci-1)=2k1・W(Ci)であり、ただし、Ciは各第1の特徴図を表し、L(Ci)は前記第1の特徴図Ciの長さを表し、W(Ci)は前記第1の特徴図Ciの幅を表し、k1は1以上の整数であり、iは変数であって、且つiの範囲は[2,n]であり、nは第1の特徴図の数を表す。
いくつかの可能な実施形態では、前記装置はさらに、前記第1の画像に前記関連性のある手と顔を強調表示するための表示モジュールと、前記第1の画像において検出された関連性のある顔位置と手位置に同じラベルを割り当てるための割り当てモジュールとの少なくとも1つを含む。
いくつかの可能な実施形態では、前記装置は、前記特徴抽出モジュール、前記融合モジュール及び前記検出モジュールに適用されるニューラルネットワークを含み、前記装置はさらに、前記ニューラルネットワークをトレーニングするためのトレーニングモジュールを含み、前記ニューラルネットワークをトレーニングするステップは、人物オブジェクトを含む画像であって、関連性のある顔位置及び手位置の真のラベル情報を有するトレーニング画像を取得することと、前記トレーニング画像を前記ニューラルネットワークに入力し、前記ニューラルネットワークにより前記トレーニング画像における同一の人物オブジェクトについての関連性のある顔位置と手位置を予測することと、予測された関連性のある前記顔位置と手位置、及び前記ラベル情報に基づいてネットワーク損失を決定し、前記ネットワーク損失に基づいて、トレーニング要求を満たすまで前記ニューラルネットワークのネットワークパラメータを調整することと、を含む。
本開示の第3の側面では、プロセッサと、プロセッサにより実行可能な命令を記憶するためのメモリとを含み、前記プロセッサは、第1の側面のいずれかに記載の方法を実行するために、前記メモリに記憶された命令を呼び出すように構成される電子機器を提供する。
本開示の第4の側面では、コンピュータプログラム命令が記憶されているコンピュータ可読記憶媒体であって、前記コンピュータプログラム命令はプロセッサによって実行されると、第1の側面のいずれかに記載の方法を実現させるコンピュータ可読記憶媒体を提供する。
本開示の第5の側面では、コンピュータで読み取り可能なコードを含むコンピュータプログラムであって、前記コンピュータで読み取り可能なコードが電子機器において実行されると、前記電子機器のプロセッサに第1の側面のいずれかに記載の方法を実現するための命令を実行させるコンピュータプログラムを提供する。
本開示の実施例では、第2の画像から1つの人物オブジェクトが存在する領域に対応する第1の画像を決定し、第1の画像に対して特徴抽出処理を行って対応する特徴図を得、そして、特徴図に対してマルチスケールの特徴融合処理を行い、複数のスケールの第2の特徴図を得ることができる。第2の特徴図は第1の特徴図と比べてより精確な特徴情報を有し、第2の特徴図を処理することで第1の画像における関連性のある手と顔の位置を得ることができ、顔と手を検出する精度を高めることができる。また、本開示の実施例の発明は画像における関連性のある手と顔の位置を耳または腕のキーポイントを取得することなく直接に得ることができ、簡単で容易であり、且つ精度が高いという特徴がある。
以上の一般的な説明及び後述の詳細な説明は例示的・解釈的なものにすぎず、本開示を制限するものではないことが理解されたい。
本開示のその他の特徴及び側面は、以下に図面を参照しながら例示的な実施例を詳しく説明することにより、明瞭になるであろう。
ここで、本明細書の一部として組み込まれる図面は、本開示の実施例に適し、明細書と共に本開示の技術的解決手段の説明に用いられる。
本開示の実施例に係る顔と手を関連付けて検出する方法のフローチャートを示す。 本開示の実施例に係る顔と手を関連付けて検出する方法におけるステップS10のフローチャートを示す。 本開示の実施例に係る第2の画像の模式図を示す。 本開示の実施例に係る顔と手を関連付けて検出する方法におけるステップS20のフローチャートを示す。 本開示の実施例に係る顔と手を関連付けて検出する方法におけるステップS30のフローチャートを示す。 本開示の実施例に係る特徴抽出及び特徴融合の手順の模式図を示す。 本開示の実施例に係る顔と手を関連付けて検出する方法におけるステップS40のフローチャートを示す。 本開示の実施例に係るニューラルネットワークをトレーニングするフローチャートを示す。 本開示の実施例に係る顔と手を関連付けて検出する装置のブロック図を示す。 本開示の実施例に係る電子機器のブロック図を示す。 本開示の実施例に係る別の電子機器のブロック図を示す。
以下に、図面を参照しながら本開示の様々な例示的な実施例、特徴および方面を詳細に説明する。図面における同じ符号は同じまたは類似する機能の要素を示す。図面において実施例の様々な方面を示したが、特に断らない限り、比例に従って図面を描く必要がない。
ここでの用語「例示的」とは、「例、実施例として用いられることまたは説明的なもの」を意味する。ここで「例示的」に説明されるいかなる実施例は他の実施例より好ましいまたは優れるものであると理解すべきではない。
本明細書における用語「及び/又は」は、単に関連対象との関連関係を記述するものであり、3つの関係が存在可能であることを示し、例えば、A及び/又はBは、Aのみが存在し、AとBの両方が存在し、Bのみが存在するという3つの場合を示してもよい。また、本明細書における用語「少なくとも1つ」は複数のうちのいずれか1つ、又は複数のうちの少なくとも2つの任意の組み合わせを示し、例えば、A、B、Cのうちの少なくとも1つを含むことは、A、B及びCからなる集合から選択されたいずれか1つ又は複数の要素を含むことを示してもよい。
また、本開示をより効果的に説明するために、以下の具体的な実施形態において様々な具体的な詳細を示す。当業者であれば、本開示は何らかの具体的な詳細がなくても同様に実施できると理解すべきである。いくつかの実施例では、本開示の趣旨を強調するために、当業者が熟知している方法、手段、要素および回路について詳細な説明を行わない。
本開示の実施例は、顔と手を関連付けて検出する方法を提供し、この方法は任意の画像処理装置に適用されることができる。例えば、この方法は端末装置又はサーバーに適用されることができ、またはほかの処理装置に適用されることもできる。ここで、端末装置としては、ユーザ機器(User Equipment、UE)、モバイルデバイス、ユーザー端末、端末、携帯電話、コードレス電話、携帯情報端末(Personal Digital Assistant、PDA)、ハンドヘルドデバイス、コンピューティングデバイス、車載デバイス、ウェアラブルデバイス等が挙げられる。いくつかの可能な実施形態では、この顔と手を関連付けて検出する方法は、プロセッサがメモリに記憶されたコンピュータで読み取り可能な命令を呼び出すことにより実現される。
図1は本開示の実施例に係る顔と手を関連付けて検出する方法のフローチャートを示す。図1に示すように、前記顔と手を関連付けて検出する方法は下記の事項を含む。
S10:第1の画像を取得する。
いくつかの可能な実施形態では、第1の画像は人物オブジェクトの画像であってもよく、少なくとも1つの顔と少なくとも1つの手を含むことができる。本開示の実施例は当該第1の画像における人物オブジェクトの手と顔の関連性検出を実現可能であり、当該関連性とは、得られた顔と手とが同一の人物オブジェクトの顔と手であることを指す。
いくつかの可能な実施形態では、第1の画像を取得する方法は、携帯電話、カメラなどの画像取得機能を有する装置である画像取得装置により第1の画像を直接に取得することを含んでもよい。第1の画像を取得する方法は、他の機器から転送された第1の画像を受信するか、またはメモリから第1の画像を読み取ることを含んでもよい。または、第1の画像はビデオストリーミングに対してフレーム選択操作を行って得られた画像フレームであってもよく、本開示では特に限定しない。
別のいくつか可能な実施形態では、第1の画像は他の画像の画像領域の一部であってもよく、例えば、第1の画像は、受信した選択情報に基づいて他の画像から選択された画像領域であってもよく、または、人体を検出するような対象検出の方法により検出された画像領域であってもよく、本開示では特に限定しない。
S20:前記第1の画像に対して特徴抽出を行い、複数のスケールの第1の特徴図を得る。
いくつかの可能な実施形態では、本開示の実施例は、第1の画像に対して特徴抽出処理を行い、複数のスケールの第1の特徴図を得ることができる。例えば、本開示の実施例は第1の画像を特徴抽出ネットワークに入力し、複数のスケールの第1の特徴図を得ることができる。特徴抽出ネットワークは畳み込みニューラルネットワーク、例えば残差ネットワーク(Res-Net)であってもよい。当該残差ネットワークにより第1の画像の特徴抽出を行うことで少なくとも2つのスケールの第1の特徴図を得る。または、他の実施例において他のタイプの特徴抽出ネットワークを用いて当該複数のスケールの第1の特徴図を得ることも可能であり、本開示では特に限定しない。または、別のいくつか可能な実施形態では、第1の画像に対してアップサンプリングまたはダウンサンプリングを行う方法で複数のスケールの第1の特徴図を得ることも可能であり、例えば、異なるサンプリングレートにより該当の複数のスケールの第1の特徴図を得ることが可能である。
S30:前記複数のスケールの第1の特徴図に対して特徴融合処理を行い、前記第1の特徴図とスケールが一々対応する、複数のスケールの第2の特徴図を得る。
いくつかの可能な実施形態では、複数のスケールの第1の特徴図を得た場合、当該複数のスケールの第1の特徴図に対して特徴融合処理を行い、該当のスケールの第2の特徴図を得ることができる。特徴融合により、各第2の特徴図に含まれる特徴情報の精確度を高めることができ、顔と手の関連性検出の精度を更に高めることができる。
いくつかの可能な実施形態では、特徴ピラミッドネットワークにより当該複数のスケールの第1の特徴図の特徴融合処理を行うことができる。隣接するスケールの第1の特徴図の特徴情報に対して特徴融合を行い、小スケールの第1の特徴図の特徴情報から大スケールの第1の特徴図の特徴情報へ順次融合することで、全てのスケールの第1の特徴図の特徴情報を融合した第2の特徴図を最終的に得ることができる。
S40:得られた前記複数のスケールの第2の特徴図に基づいて、前記第1の画像における同一の人物オブジェクトについての関連性のある顔位置と手位置を検出する。
いくつかの可能な実施形態では、複数のスケールの第2の特徴図を得た後、当該複数のスケールの第2の特徴図に基づいて顔と手の関連性検出を実施することができる。各スケールの第2の特徴図のうち少なくとも1つの第2の特徴図に対して畳み込み処理を行い、第1の画像における関連性のある顔位置及び手位置を得ることができる。例えば、スケールが最大の第2の特徴図を畳み込み層に入力して畳み込み処理を行い、1つの顔位置の第1のマスクマップ、左手位置の第2のマスクマップ及び右手位置の第3のマスクマップを含み得る、顔位置及び手位置に関するマスクマップをそれぞれ得ることができる。得られた各マスクマップに応じて、第1の画像において関連性のある手位置と顔位置を決定することができる。
上記構成により、本開示の実施例は関連性のある手と顔を、耳または腕のキーポイントを取得することもガウス分布を満たすか否かを分析することもなく、第1の画像の特徴のマルチスケール抽出及び特徴融合により直接に得ることができるため、簡単で容易であり、且つ精度が高いという特徴がある。
以下、図面に合わせて本開示の実施例の手順を詳しく説明する。上記実施例に述べられたように、本開示の実施例で得られた第1の画像は人物オブジェクトの画像であってもよい。実際の応用において、得られた画像には複数の人物オブジェクトが含まれ得るが、同一の人物オブジェクトの顔と手の関連性検出の精度を向上させるために、本開示は、得られた画像から各人物オブジェクトの画像領域を得、そして、各画像領域に対してそれぞれ特徴抽出及び特徴融合を行い、各人物オブジェクトの顔と手の位置を最終的に得ることができる。図2は本開示の実施例に係る顔と手を関連付けて検出する方法におけるステップS10のフローチャートを示す。第1の画像を取得することは下記の事項を含む。
S101:少なくとも1つの人物オブジェクトを含む画像である第2の画像を取得する。
いくつかの可能な実施形態では、第1の画像は第2の画像に基づいて得られた画像であってもよい。第2の画像は少なくとも1つの人物オブジェクトの画像であってもよい。第2の画像を取得する方法は、携帯電話、カメラなどの画像取得機能を有する装置である画像取得装置により第2の画像を直接に取得することを含んでもよい。第2の画像を取得する方法は、他の機器から転送された第2の画像を受信することと、またはメモリから第2の画像を読み取ることと、を含んでもよい。または、第2の画像はビデオストリーミングに対してフレーム選択操作を行って得られた画像フレームであってもよく、本開示では特に限定しない。
図3は本開示の実施例に係る第2の画像の模式図を示す。5つの人物オブジェクトA、B、C、D及びEを含んでもよい。他の実施例において、第2の画像は1つの人物オブジェクトのみを含んでもよく、または他の数の人物オブジェクトを含んでもよく、本開示では特に限定しない。
S102:前記第2の画像に対して対象となる人体の検出を行い、前記第2の画像における前記少なくとも1つの人物オブジェクトのうちいずれかの人物オブジェクトの検出枠を得る。
いくつかの可能な実施形態では、第2の画像に基づいて第1の画像を得る際に、第2の画像における各人物オブジェクトについての人体領域の位置を検出し、当該人物オブジェクトに対応する第1の画像を得ることができる。第2の画像に複数の人物オブジェクトが含まれる時に、得られた第1の画像には1つの人物オブジェクトの人体領域が含まれてもよいが、他の人物オブジェクトの画像の少なくとも一部、例えば他のオブジェクトの顔または手の少なくとも一部も含んでもよい。本開示の実施例で第1の画像に対して後続処理を行って得られた第1の画像には1つの人物オブジェクトの手と顔がある。
上述したとおり、第2の画像には少なくとも1つの人物オブジェクトが含まれてもよく、本開示は当該第2の画像に対して対象検出を行い、第2の画像における人物オブジェクトの人体領域の検出を実現し、各人物オブジェクトの検出枠を得ることができる。
いくつかの可能な実施形態では、対象となる人体の検出を実施可能なニューラルネットワークにより第2の画像における人物オブジェクトに対応する検出枠を検出することができる。当該ニューラルネットワークは畳み込みニューラルネットワークであってもよく、トレーニングにより画像における各人物オブジェクト、及び該当の人物オブジェクトの位置領域(つまり検出枠)を精確に識別することができる畳み込みニューラルネットワークであってもよく、例えばR-CNNネットワークであってもよく、または対象検出を実施可能な他のニューラルネットワークであってもよく、本開示では特に限定しない。
図3に示すように、対象検出?理により、画像における人物オブジェクトの人体領域に対応する検出枠、例えば人物オブジェクトAの検出枠A1、及び人物オブジェクトDの検出枠D1を得た。上記説明は例示的なものに過ぎず、他の人物オブジェクトの検出枠を検出することもできる。
検出枠を得る際、画像における人物オブジェクトごとの検出枠を識別することもでき、品質要求を満たす検出枠を識別することもできる。例えば、図3において人物オブジェクトB、C及びDについて得られた検出枠の品質値が品質閾値未満であり、このとき、人物オブジェクトB、C及びDに対応する検出枠を品質要求を満たしていない検出枠として決定して削除処理を行うことができる。検出枠の品質値は、対象検出?理を行うときに、検出枠が得られると同時に得られた当該検出枠についての得点や信頼度であってもよい。当該得点または信頼度が品質閾値よりも大きい場合、検出枠が品質要求を満たしていると決定する。品質閾値は、設定された数値、例えば80%であってもよく、または1未満の他の数値であってもよく、本開示では特に限定しない。
S103:前記いずれかの人物オブジェクトの前記検出枠の前記第2の画像における画像領域を、前記いずれかの人物オブジェクトに対応する第1の画像として決定する。
第2の画像における各人物オブジェクトの検出枠を得た場合、第2の画像において検出枠に対応する画像領域を、当該検出枠に対応する人物オブジェクトの第1の画像として決定することができる。例えば、図3に示す実施例において、第2の画像における人物オブジェクトAの検出枠A1、及び人物オブジェクトDの検出枠D1を得ることができる。それに応じて、A1に対応する画像領域を人物オブジェクトAの第1の画像として決定し、検出枠D1に対応する画像領域を人物オブジェクトDの第1の画像として決定することができる。
上記構成により、本開示の実施例で得られた第1の画像において他の環境要素の影響が除去されたため、検出精度を更に高めることができる。また、上述のように第2の画像から1つの人物オブジェクトについての画像領域(第1の画像)を得ることに基づいて、得られた第1の画像は1つの人物オブジェクトについての画像ではあるものの、実際の応用では、第2の画像に含まれる各人物が互い近い可能性があるため、この時に得られた第1の画像には他の人物オブジェクトの少なくとも一部が含まれ得る。例えば、図3の検出枠D1は、人物オブジェクトDに加え、人物Cの顔の一部を含むことができる。本開示は後続の処理手順により第1の画像における同一の人物オブジェクトの顔と手の位置を得ることができる。
図4は本開示の実施例に係る顔と手を関連付けて検出する方法におけるステップS20のフローチャートを示す。前記第1の画像に対して特徴抽出を行い、複数のスケールの第1の特徴図を得ることは下記の事項を含む。
S201:前記第1の画像を予め設定された仕様の第3の画像に調整する。
いくつかの可能な実施形態では、得られた第1の画像のスケールが異なり得る。本開示の実施例は、得られた第1の画像を同一のスケール、即ち、予め設定されたスケールに調整することにより、同じスケールの画像に対して後続の特徴抽出処理を行うことができる。本開示の実施例における予め設定されたスケールは、ネットワークの設計及び配置に基いて決定することができる。例えば本開示の実施例における予め設定されたスケールは256*192(高さ*幅)であってもよいが、本開示では特に限定しない。
画像スケールを調整する方法は、アップサンプリング、ダウンサンプリング、画像補間のうち少なくとも1つを含んでもよく、本開示では特に限定しなく、他の方法により予め設定されたスケールの第3の画像を得ることもできる。
S202:前記第3の画像を残差ネットワークに入力して前記複数のスケールの第1の特徴図を得る。
予め設定されたスケールの第3の画像を得た場合、第3の画像に対して特徴抽出処理を行うことができる。例えば第3の画像を残差ネットワーク(例えばResnet50)に入力して画像の特徴抽出処理を行い、異なるスケールの第1の特徴図を得る。残差ネットワークの異なる畳み込み層により異なるスケールの第1の特徴図を出力することができる。
あるいは、他の実施形態では、例えばピラミッド特徴抽出ネットワークなどの他の特徴抽出ネットワークにより当該マルチスケールの第1の特徴図を得ることができる。または、アップサンプリングまたはダウンサンプリングの方法によりマルチスケールの第1の特徴図を得ることができる。例えば本開示の実施例のサンプリング周波数は1/8、1/16、1/32等であってもよいが、本開示の実施例は特に限定しない。
いくつかの可能な実施形態では、得られた各第1の特徴図同士の関係はL(Ci-1)=2k1・L(Ci)且つW(Ci-1)=2k1・W(Ci)であり、ただし、Ciは各第1の特徴図を表し、L(Ci)は第1の特徴図Ciの長さを表し、W(Ci)は第1の特徴図Ciの幅を表し、k1は1以上の整数であり、iは変数であり、且つiの範囲は[2,n]であり、nは第1の特徴図の数である。即ち、本開示の実施例における各第1の特徴図の長幅間の関係は全て2のk1乗倍である。
一例において、本開示で得られた第1の特徴図は、数が4つであってもよく、それぞれ第1の特徴図C1、C2、C3及びC4として表すことができる。第1の特徴図C1の長さ及び幅は第1の特徴図C2の長さ及び幅に対してそれぞれ2倍であってもよく、第1の特徴図C2の長さ及び幅は第1の特徴図C3の長さ及び幅に対してそれぞれ2倍であってもよく、及び、第1の特徴図C3の長さ及び幅は第1の特徴図C4の長さ及び幅に対してそれぞれ2倍であってもよい。本開示の実施例において上記C1とC2の間、C2とC3の間、及びC3とC4の間の長さの倍数及び幅の倍数はいずれも同じであり、即ちk1は1の値を取る。他の実施例において、k1は異なる値であってもよく、例えば、第1の特徴図C1の長さ及び幅は第1の特徴図C2の長さ及び幅に対してそれぞれ2倍であってもよく、第1の特徴図C2の長さ及び幅は第1の特徴図C3の長さ及び幅に対してそれぞれ4倍であってもよく、及び第1の特徴図C3の長さ及び幅は第1の特徴図C4の長さ及び幅に対してそれぞれ8倍であってもよい。本開示の実施例は特に限定しない。
第1の画像に対応する複数のスケールの第1の特徴図を得た場合、各第1の特徴図の特徴融合処理を更に行い、得られた第2の特徴図の特徴情報の精確度を高めることができる。
いくつかの可能な実施形態では、第1の特徴図に対して特徴融合処理を行うことは、ピラミッド特徴抽出ネットワーク(FPN)を用いて行うことができる。即ち、複数のスケールの第1の特徴図を特徴ピラミッドネットワークに入力し、前記特徴ピラミッドネットワークにより前記特徴融合処理を行い、第1の特徴図に対応する第2の特徴図を得ることができる。または、他の方式により特徴融合処理を行うことができ、例えば畳み込み処理及びアップサンプリング処理により複数のスケールの第2の特徴図を得ることができる。上記構成により、得られた複数のスケールの第2の特徴図の特徴精度を高めることができる。
図5は本開示の実施例に係る顔と手を関連付けて検出する方法におけるステップS30のフローチャートを示す。前記複数のスケールの第1の特徴図に対して特徴融合処理を行い、複数のスケールの第2の特徴図を得ることは下記の事項を含む。
S301:第1の畳み込みカーネルを用いて第1の特徴図Cnに対して畳み込み処理を行い、第1の特徴図Cnに対応する第2の特徴図Fnを取得し、第1の特徴図Cnのスケールと第2の特徴図Fnのスケールとは同じである。
いくつかの可能な実施形態では、本開示の実施例で得られた第1の特徴図は{C1,...,Cn}として表すことができる。即ち、n個の第1の特徴図があって、且つCnは長さ及び幅が最小の特徴図、即ちスケールが最小の第1の特徴図であってもよい。nの値が大きくなるほど、対応する第1の特徴図のスケールが小さくなる。例えば上記第1の特徴図C1、C2、C3及びC4はスケールが順次に小さくなる。
特徴融合処理を行う時に、まずスケールが最小の第1の特徴図Cnに対応する第2の特徴図Fnを得ることができる。例えば、第1の畳み込みカーネルにより第1の特徴図Cnに対して畳み込み処理を行い、第1の特徴図Cnに対応する第2の特徴図Fnを得ることができ、第1の特徴図Cnのスケールと第2の特徴図Fnのスケールとは同じである。同様に、第2の特徴図Fnも第2の特徴図のうちスケールが最小の特徴図である。第1の畳み込みカーネルによる畳み込み処理では第1の特徴図Cnの特徴情報に比べてより精確な第2の特徴図Fnを得ることができる。第1の畳み込みカーネルは3*3の畳み込みカーネルであってもよく、または、他のタイプの畳み込みカーネルであってもよい。
S302:前記第2の特徴図Fnに対して線形補間処理を行って第2の特徴図Fnに対応する第1の中間特徴図F′nを取得し、第1の中間特徴図F′nのスケールと第1の特徴図Cn-1のスケールとは同じである。
第2の特徴図Fnを得た後、当該第2の特徴図Fnを用いてそれに対応する第1の中間特徴図F′nを取得することができる。本開示の実施例は第2の特徴図Fnに対して線形補間処理を行うことで第2の特徴図Fnに対応する第1の中間特徴図F′nを得ることができる。第1の中間特徴図F′nのスケールと第1の特徴図Cn-1のスケールとは同じである。例えば、Cn-1のスケールがCnのスケールの2倍である場合、第1の中間特徴図F′nの長さは第2の特徴図Fnの長さの2倍であり、第1の中間特徴図F′nの幅は第2の特徴図Fnの幅の2倍である。
S303:第2の畳み込みカーネルを用いて第1の特徴図Cn以外の第1の特徴図Ciに対して畳み込み処理を行い、前記第1の特徴図Ciに対応する第2の中間特徴図C′iを取得し、前記第2の中間特徴図C′iのスケールと第1の中間特徴図F′i+1のスケールとは同じであり、iは1以上、n未満の整数変数である。
いくつかの可能な実施形態では、第1の特徴図Cn以外の各第1の特徴図C1...Cn-1に対応する第2の中間特徴図C′1...C′n-1を取得することができる。第2の畳み込みカーネルを用いて第1の特徴図C1...Cn-1に対してそれそれ畳み込み処理を行い、各第1の特徴図C1...Cn-1に一々対応する第2の中間特徴図C′1...C′n-1をそれぞれ取得する。第2の畳み込みカーネルは1*1の畳み込みカーネルであってもよく、本開示では特に限定しない。第2の畳み込みカーネルによる畳み込み処理により得られた各第2の中間特徴図のスケールは、対応する第1の特徴図のスケールとぞれぞれ同じである。本開示の実施例において、第1の特徴図C1...Cn-1の逆の順番で各第1の特徴図C1...Cn-1の第2の中間特徴図C′1...C′n-1を得ることができる。即ち、第1の特徴図C1に対応する第2の中間特徴図C′1を得るまで、第1の特徴図Cn-1に対応する第2の中間特徴図C′n-1を得て、その後第1の特徴図Cn-2に対応する第2の中間図C′n-2を得るような処理を繰り返すことができる。
S304:前記第2の中間特徴図C′i及び対応する第1の中間特徴図F′i+1を用いて前記第2の特徴図Fn以外の第2の特徴図Fiを得る。第1の中間特徴図F′i+1は、対応する第2の特徴図Fi+1を線形補間して得られたものである。
各第2の中間特徴図を得る際、または各第2の中間特徴図を得た後、それに応じて第1の中間特徴図F′n以外の他の第1の中間特徴図F′1...F′n-1を得ることができる。本開示の実施例において、第1の特徴図C1...Cn-1のうちの第1の特徴図Ciに対応する第2の特徴図Fi=C′i+F′i+1について、第2の中間特徴図C′iのスケール(長さ及び幅)がそれぞれ第1の中間特徴図F′i+1のスケール(長さ及び幅)に等しく、且つ第2の中間特徴図C′iの長さ及び幅と第1の特徴図Ci長さ及び幅とが同じであるため、得られた第2の特徴図Fiの長さ及び幅はそれぞれ第1の特徴図Ciの長さ及び幅であり、iは1以上、n未満の整数である。
具体的には、本開示の実施例は依然として逆の順番で処理することにより第2の特徴図Fn以外の各第2の特徴図Fiを取得することができる。即ち、本開示の実施例はまず、第1の中間特徴図F′n-1を取得することができる。第1の特徴図Cn-1に対応する第2の中間図C′n-1と第1の中間特徴図F′nとを加算処理して第2の特徴図Fn-1を得ることができ、第2の中間特徴図C′n-1の長さ及び幅はそれぞれ第1の中間特徴図F′nの長さ及び幅と同じであり、第2の特徴図Fn-1の長さ及び幅は第2の中間特徴図C′n-1及びF′nの長さ及び幅である。この時、第2の特徴図Fn-1の長さ及び幅はそれぞれ第2の特徴図Fnの長さ及び幅の2倍である(Cn-1のスケールはCnのスケールの2倍である)。更に、第2の特徴図Fn-1に対して線形補間処理を行って第1の中間特徴図F′n-1を得、F′n-1のスケールとCn-1のスケールとを同じにし、そして第1の特徴図Cn-2に対応する第2の中間図C′n-2と第1の中間特徴図F′n-1とを加算処理して第2の特徴図Fn-2を得ることができる。第2の中間特徴図C′n-2の長さ及び幅はそれぞれ第1の中間特徴図F′n-1の長さ及び幅と同じであり、第2の特徴図Fn-2の長さ及び幅は第2の中間特徴図C′n-2及びF′n-1の長さ及び幅である。例えば第2の特徴図Fn-2の長さ及び幅はそれぞれ第2の特徴図Fn-1の長さ及び幅の2倍である。そのようにして、第1の中間特徴図F′2を最終的に得ることができ、当該第1の中間特徴図F′2と第1の特徴図C′1の加算処理により第2の特徴図F1を得ることができ、F1の長さ及び幅はそれぞれC1の長さ及び幅と同じである。これにより、各第2の特徴図を得るとともに、L(Fi-1)=2k1・L(Fi)及びW(Fi-1)=2k1・W(Fi)を満たし、且つL(Fn)=L(Cn)、W(Fn)=W(Cn)となる。
例えば、上記4つの第1の特徴図C1、C2、C3及びC4を例として説明する。図6は本開示の実施例に係る特徴抽出及び特徴融合の手順の模式図を示す。残差ネットワークaにより特徴抽出処理を行い、残差ネットワークのうちの4つの畳み込み層を用いてスケールが異なる4つの第1の特徴図C1、C2、C3及びC4をそれぞれ出力し、その後、特徴抽出ネットワークbを用いて特徴融合処理を行い、マルチスケールの第2の特徴図を得ることができる。まず、C4を1つの3*3の第1の畳み込みカーネルを用いて計算して1つの新しい特徴図F4(第2の特徴図)を得ることができ、F4は長さ及び幅の大きさがC4と同じである。F4に対して双線形補間のアップサンプリング(upsample)操作を行い、長さ及び幅がいずれも2倍拡大された1つの特徴図である第1の中間特徴図F′4を得る。C3を1つの1*1の第2の畳み込みカーネルを用いて計算して1つの第2の中間特徴図C′3を得、C′3とF′4は大きさが同じであり、2つの中間特徴図を加算して新しい特徴図F3(第2の特徴図)を得、第2の特徴図F3の長さ及び幅をそれぞれ第2の特徴図F4の2倍とするとともに、第1の特徴図C3とはスケールが同じであるようにする。F3に対して双線形補間のアップサンプリング(upsample)操作を行い、長さ及び幅がいずれも2倍拡大された1つの特徴図である第1の中間特徴図F′3を得る。C2を1つの1*1の第2の畳み込みカーネルを用いて計算して1つの第2の中間特徴図C′2を得、C′2とF′3は大きさが同じであり、2つの中間特徴図を加算して新しい特徴図F2(第2の特徴図)を得、第2の特徴図F2の長さ及び幅をそれぞれ第2の特徴図F3の2倍とする。F2に対して双線形補間のアップサンプリング(upsample)操作を行い、長さ及び幅がいずれも2倍拡大された1つの特徴図である第1の中間特徴図F′2を得る。C1を1つの1*1の第2の畳み込みカーネルを介して計算して1つの第2の中間特徴図C′1を得、C′1とF′2は大きさが同じであり、2つの中間特徴図を加算して新しい特徴図F1(第2の特徴図)を得、第2の特徴図F1の長さ及び幅をそれぞれ第2の特徴図F2の2倍とする。FPNによる処理後、同じく、スケールが異なる4つの第2の特徴図を得、それぞれF1、F2、F3及びF4として記載する。しかも、F1とF2の間の長さ及び幅の倍数はC1とC2の間の長さ及び幅の倍数と同じであり、F2とF3の間の長さ及び幅の倍数はC2とC3の間の長さ及び幅の倍数と同じであり、F3とF4の間の長さ及び幅の倍数はC3とC4の間の長さ及び幅の倍数と同じある。
上記配置により、スケールが異なる特徴情報を融合することができ、特徴精度を更に高めることができる。上記方法により複数のスケールの第1の特徴図にそれぞれ対応する第2の特徴図を得ることができ、第1の特徴図の特徴情報に比べて、第2の特徴図の特徴情報は精確度が向上した。
第2の特徴図を得た場合、第2の特徴図に基づいて第1の画像における同一の人物オブジェクトについての顔と手の位置を得ることができる。図7は本開示の実施例に係る顔と手を関連付けて検出する方法におけるステップS40のフローチャートを示す。上記実施例に述べられているように、本開示の実施例において得られた前記複数のスケールの第2の特徴図に基づいて、前記第1の画像における同一の人物オブジェクトについての関連性のある顔位置と手位置を検出することは、下記の事項を含む。
S401:前記複数のスケールの第2の特徴図のうちスケールが最大の第2の特徴図に対して畳み込み処理を行い、前記顔位置を示すマスクマップ及び前記手位置を示すマスクマップをそれぞれ得る。
いくつかの可能な実施形態では、得られた複数のスケールの第2の特徴図のうち少なくとも1つの第2の特徴図を畳み込み層に入力し、当該少なくとも1つの第2の特徴図に対してさらなる特徴融合を行い、それに応じて第1の画像に対応する同一の人物オブジェクトの顔位置のマスクマップ及び手位置のマスクマップを生成する。本開示は、スケールが最大である第2の特徴図に各スケールの特徴図の特徴情報が融合されているので、第2の特徴図を当該畳み込み層に入力して手と顔の位置の関連性検出を行うことができる。得られたマスクマップにおける要素は1および0からなるものとして表すことができ、1は手または顔の位置領域を表す。例えば、本開示の実施例は同一の人物オブジェクトの顔位置の第1のマスクマップ、左手位置の第2のマスクマップ、及び右手位置の第3のマスクマップを得ることができ、各マスクマップにおける元素1の位置により、第1の画像における該当の関連性のある顔と手の位置を得ることができる。
いくつかの可能な実施形態では、左手と右手のうちの1つのみを検出可能な場合、検出されていない手に対応するマスクマップはすべてが0のマスクマップであってもよい。または、関連性のある顔と手を検出できない場合、出力されるマスクマップはすべてが0のマスクマップであってもよい。
いくつかの可能な実施形態では、得られたマスクマップは人物オブジェクトマーク及びタイプマークが対応して関連付けられることができる。人物オブジェクトマークは異なる人物オブジェクトを区別することに用いられ、異なる人物オブジェクトは異なる人物オブジェクトマークを有してもよい。タイプマークはマスクマップに対応する顔位置、左手位置または右手位置を示すことに用いられる。上記人物オブジェクトマーク及びタイプマークにより、マスクマップ毎に対応する人物オブジェクト、及びマスクマップに対応するのが顔であるか、または手(左手または右手)であるかを明確に決定することができる。
S402:前記顔位置のマスクマップ及び前記手位置のマスクマップに基づいて前記第1の画像において関連性のある手と顔が位置する位置領域を決定する。
関連性のある手と顔に対応するマスクマップを得た場合、第1の画像における関連性のある手と顔に対応する位置領域を更に得る。
本開示の実施例で得られた第1のマスクマップ及び第2のマスクマップのスケールが第1の画像のスケールと同じであってもよいので、マスクマップに基づいて決定された顔位置を第1の画像における該当の顔の画像領域にマッピングし、マスクマップに基づいて決定された手位置を第1の画像における手の画像領域にマッピングすることができ、これにより、関連性のある手と顔が位置する位置領域を得ることができる。
いくつかの可能な実施形態では、前記第1の画像における関連性のある顔と手の位置が検出された後、得られたマスクマップに基づいて、マッチングされた顔と手を第1の画像に強調表示することができる。例えば、関連性のある顔と手を提示するために、マスクマップを第1の画像における画像領域において検出枠で表す。図3に示すように、画像において人物オブジェクトDと関連付けられた顔検出枠D11及び手検出枠D12、D13を表示することができる。また、本開示の実施例は関連性のある顔と手に同じラベルを割り当てることで当該顔と手が同一の人物オブジェクトの顔と手であることをマーキングすることができる。
上記配置により、関連性のある顔と手の位置を容易に予測して表すことができる。
いくつかの可能な実施形態では、本開示の実施例で得られた関連性のある顔と手の位置は人物オブジェクトの姿勢の変化を特定することに用いられることができる。例えば、第1の画像はビデオストリーミングにおける画像フレームに基づいて得られたものであってもよく、本開示の実施例の方法により画像フレームにおける同一の人物オブジェクトについての顔位置の変化及び手位置の変化を検出することができ、更に、該当の画像フレームにおける顔位置に対する表情識別を行う、または手位置に基いてジェスチャー識別を行うことによって、表情の変化状況、またはジェスチャーの変化状況を得ることができる。
上記実施例に述べられているように、本開示の実施例に係る顔と手を関連付けて検出する方法はニューラルネットワーク、例えば畳み込みニューラルネットワークに適用されることができる。上記畳み込みニューラルネットワークは、例えば残差ネットワーク及びピラミッドネットワークから構築して構成され得る。本開示はニューラルネットワークをトレーニングして精度要求を満たすニューラルネットワークを得ることができる。図8は本開示の実施例に係るニューラルネットワークをトレーニングするフローチャートを示す。前記ニューラルネットワークをトレーニングすることは下記の事項を含む。
S501:人物オブジェクトを含む画像であって、関連性のある顔位置及び手位置の真のラベル情報を有するトレーニング画像を取得する。
いくつかの可能な実施形態では、トレーニング画像は1つの人物オブジェクトの画像であってもよく、また、トレーニング精度を高めるために、トレーニング画像には他の人物オブジェクトの顔または手の一部が含まれ得る。トレーニング画像の数は複数であり、本開示はトレーニング画像の数を限定しない。
いくつかの可能な実施形態では、ニューラルネットワークのトレーニングを監督するために、トレーニング画像には真のラベル情報が関連付けられることができる。トレーニング画像における同一の人物オブジェクトについての顔位置及び手位置(左手及び右手)を表すために、トレーニング画像毎には関連性のある顔位置及び手位置の真のラベル情報がある。ラベル情報はマーキング枠として表すことができ、または位置座標として表すこともでき、または関連性のある手と顔の位置の真のマスクマップとして表すこともでき、トレーニング画像における関連性のある顔位置及び手位置を特定できれば、本開示の実施例とすることができる。
S502:前記トレーニング画像を前記ニューラルネットワークに入力し、前記ニューラルネットワークにより前記トレーニング画像における同一の人物オブジェクトについての関連性のある顔位置と手位置を予測する。
いくつかの可能な実施形態では、トレーニング画像をニューラルネットワークに入力し、特徴抽出、特徴融合、及び関連性のある手と顔の位置の検出を行うことができる。
例えば、残差ネットワーク等の特徴抽出ネットワークによりトレーニング画像のマルチスケール特徴抽出を行い、複数のスケールの第1の予測特徴図を得ることができる。特徴抽出の手順の詳細は上記実施例の説明を参照することができ、説明はここでは繰り返されない。
複数のスケールの第1の特徴図を得た後、当該複数のスケールの第1の予測特徴図に対して特徴融合処理を行うことができる。例えばピラミッドネットワークFPNを用いて当該複数の第1の予測特徴図の特徴融合を行い、複数のスケールの第2の予測特徴図を得ることができる。特徴融合の具体的な手順の説明はここでは繰り返されなく、詳細は上記実施例の手順を参照することができる。
複数の第2の予測特徴図を得た場合、各第2の予測特徴図に基いて畳み込み処理を行い、各第2の予測特徴図に基いて予測された、関連性のある顔と手の位置の予測マスクマップを得ることができる。
S503:前記トレーニング画像について予測された関連性のある前記顔位置と前記手位置、及び前記ラベル情報に基づいてネットワーク損失を決定し、前記ネットワーク損失に基づいて、トレーニング要求を満たすまで前記ニューラルネットワークのネットワークパラメータを調整する。
本開示の実施例は、各スケールの第2の予測特徴図で予測して得られた顔の予測マスクマップ及び手の予測マスクマップと、顔と手に対応する真のマスクマップとの間の差異に基づいてネットワーク損失を得ることができ、ここで、対数損失関数によりネットワーク損失を決定することができる。例えば、本開示の実施例は、直接的に対数損失関数を用いて処理し、各スケールの第2の予測特徴図で得られた予測マスクマップとマーキングされた真のマスクマップとの間の損失を得、当該損失をネットワーク損失としてニューラルネットワークのパレメータを調整することができる。つまり、各スケールに対応する損失を全てネットワーク損失とし、ニューラルネットワークパレメータを個別に最適化することができる。
または、他の実施形態では、本開示の実施例は、対数損失関数により各スケールの第2の予測特徴図で得られた顔の予測マスクマップ、手の予測マスクマップと真のラベル情報に対応するマスクマップとの間のサブネットワーク損失を得、各スケールに対応して得られたサブネットワーク損失の加重和に基づいてネットワーク損失を決定することができる。つまり、ニューラルネットワークパレメータをまとめて最適化するために、各スケールに対応する損失の加重和に基づいてネットワーク損失を決定することができる。
また、本開示の実施例は各第2の予測特徴図の予測結果に基づいてネットワーク損失を得ることができるので、得られたニューラルネットワークは、いずれのスケールの第2の予測特徴図の予測結果の精度も比較的高く、ニューラルネットワーク全体の検出精度を高めることができる。
ネットワーク損失を得た場合、ネットワーク損失及び損失閾値の比較結果に基づいてニューラルネットワークのネットワークパラメータを調整する。例えば、ネットワーク損失が損失閾値よりも大きい場合、得られたネット損失が損失閾値よりも小さくなるまで、ニューラルネットワークのパラメータをフィードバックして調整し、例えば特徴抽出ネットワーク、ピラミット特徴ネットワーク及び得られたマスクマップの畳み込み層のパレメータを調整し、トレーニング画像を改めて処理する。また、ネットワーク損失が損失閾値よりも小さい場合、ニューラルネットワークがトレーニング要求を満たすと決定することができ、この時、トレーニングを終了することができる。上記配置により、ニューラルネットワークの最適化のトレーニングを実現し、ネットワークの検出精度を確保することができる。
以上より、本開示の実施例は、第2の画像から1つの人体?象が存在する領域に対応する第1の画像を決定し、第1の画像に対して特徴抽出処理を行って対応する特徴図を得、そして、特徴図に対してマルチスケールの特徴融合処理を行い、複数のスケールの第2の特徴図を得ることができる。第2の特徴図は第1の特徴図と比べてより精確な特徴情報を有し、第2の特徴図を処理することで第1の画像における関連性のある手と顔の位置を得ることができ、顔と手を検出する精度を高めることができる。また、本開示の実施例の発明は画像における関連性のある手と顔の位置を耳または腕のキーポイントを取得することなく直接に得ることができ、簡単で容易であり、且つ精度が高いという特徴がある。
当業者であれば、具体的な実施形態に係る上記の方法では、各ステップの記載順序は、実行順序を厳密に限定して実施の過程を限定するものではなく、各ステップの実行順序がその機能と可能な内部の論理によって決定されることが理解すべきである。
本開示で言及される上記各方法の実施例は、原理と論理に違反しない限り、相互に組み合わせて実施例を形成することができることが理解すべきである。紙数に限りがあるので、本開示では詳細な説明を省略する。
なお、本開示では、顔と手を関連付けて検出する装置、電子機器、コンピュータ可読記憶媒体、プログラムが提供される。これらはいずれも本開示に係る顔と手を関連付けて検出する方法のいずれか1つを実現するために利用できる。対応する技術的解決手段と説明は、方法の対応する記載を参照すればよく、詳細な説明を省略する。
図9は本開示の実施例に係る顔と手を関連付けて検出する装置のブロック図を示す。図9に示すように、前記顔と手を関連付けて検出する装置は、
人物オブジェクトの画像である第1の画像を取得するための取得モジュール10と、
前記第1の画像に対して特徴抽出を行い、複数のスケールの第1の特徴図を得るための特徴抽出モジュール20と、
前記複数のスケールの第1の特徴図に対して特徴融合処理を行い、前記第1の特徴図とスケールが一々対応する、複数のスケールの第2の特徴図を得るための融合モジュール30と、
得られた前記複数のスケールの第2の特徴図に基づいて、前記第1の画像における同一の人物オブジェクトについての関連性のある顔位置と手位置を検出するための検出モジュール40と、を含む。
いくつかの可能な実施形態では、前記取得モジュールは、
少なくとも1つの人物オブジェクトを含む画像である前記第2の画像を取得するための取得ユニットと、
前記第2の画像に対して対象となる人体の検出を行い、前記第2の画像における前記少なくとも1つの人物オブジェクトのうちいずれかの人物オブジェクトの検出枠を得るための対象検出ユニットと、
前記第2の画像において前記いずれかの人物オブジェクトの前記検出枠に対応する画像領域を、前記いずれかの人物オブジェクトの第1の画像として決定するための決定ユニットと、を含む。
いくつかの可能な実施形態では、前記特徴抽出モジュールはさらに、
少なくとも1つの人物オブジェクトを含む画像である前記第2の画像を取得することと、
前記第2の画像に対して対象となる人体の検出を行い、前記第2の画像における前記少なくとも1つの人物オブジェクトのうちいずれかの人物オブジェクトの検出枠を得ることと、
前記第2の画像において前記いずれかの人物オブジェクトの前記検出枠に対応する画像領域を、前記いずれかの人物オブジェクトの第1の画像として決定することと、に用いられる。
いくつかの可能な実施形態では、前記融合ユニットはさらに、前記複数のスケールの第1の特徴図を特徴ピラミッドネットワークに入力し、前記特徴ピラミッドネットワークにより前記特徴融合処理を行い、前記複数のスケールの第2の特徴図を得ることに用いられる。
いくつかの可能な実施形態では、スケールの大きい順に、前記複数の第1の特徴図を{C1,...,Cn}として表し、ただし、nは、第1の特徴図の数を表し、1より大きい整数である。
前記融合モジュールはさらに、第1の畳み込みカーネルを用いて第1の特徴図Cnに対して畳み込み処理を行って前記第1の特徴図Cnに対応する第2の特徴図Fnを得ることであって、前記第1の特徴図Cnのスケールと前記第2の特徴図Fnのスケールとが同じであることと、
前記第2の特徴図Fnに対して線形補間処理を行って前記第2の特徴図Fnに対応する第1の中間特徴図F′nを取得することであって、前記第1の中間特徴図F′nのスケールと第1の特徴図Cn-1のスケールとが同じであることと、
第2の畳み込みカーネルを用いて前記第1の特徴図Cn以外の第1の特徴図Ciに対して畳み込み処理を行って前記第1の特徴図Ciに対応する第2の中間特徴図C′iを得ることであって、前記第2の中間特徴図C′iのスケールと第1の中間特徴図F′i+1のスケールとが同じであり、iは1以上、n未満の整数変数であることと、
前記第2の中間特徴図C′i及び対応する前記第1の中間特徴図F′i+1を用いて前記第2の特徴図Fn以外の第2の特徴図Fiを得ることであって、前記第1の中間特徴図F′i+1が、対応する前記第2の特徴図Fi+1を線形補間して得られたものであることとに用いられる。
いくつかの可能な実施形態では、前記融合モジュールはさらに、前記第2の中間特徴図C′iと対応する前記第1の中間特徴図F′i+1とを加算処理し、前記第2の特徴図Fiを得ることに用いられる。
いくつかの可能な実施形態では、前記検出モジュールはさらに、前記複数のスケールの第2の特徴図のうちスケールが最大の第2の特徴図に対して畳み込み処理を行い、前記顔位置を示すマスクマップ及び前記手位置を示すマスクマップをそれぞれ得ることと、
前記顔位置のマスクマップ及び前記手位置のマスクマップに基づいて前記第1の画像において関連性のある手と顔が位置する位置領域を決定することと、に用いられる。
いくつかの可能な実施形態では、前記複数のスケールの第1の特徴図間のスケールの関係は、L(Ci-1)=2k1・L(Ci)且つW(Ci-1)=2k1・W(Ci)であり、ただし、Ciは各第1の特徴図を表し、L(Ci)は前記第1の特徴図Ciの長さを表し、W(Ci)は前記第1の特徴図Ciの幅を表し、k1は1以上の整数であり、iは変数であって、且つiの範囲は[2,n]であり、nは第1の特徴図の数を表す。
いくつかの可能な実施形態では、前記装置は、
前記第1の画像に前記関連性のある手と顔を強調表示するための表示モジュールと、
前記第1の画像において検出された関連性のある顔位置と手位置に同じラベルを割り当てるための割り当てモジュールとの少なくとも1つを含む。
いくつかの可能な実施形態では、前記装置は、前記特徴抽出モジュール、前記融合モジュール、及び前記検出モジュールに適用されるニューラルネットワークを含む。
前記装置は、前記ニューラルネットワークをトレーニングするためのトレーニングモジュールをさらに含み、前記ニューラルネットワークをトレーニングするステップは、
人物オブジェクトを含む画像であって、関連性のある顔位置及び手位置の真のラベル情報を有するトレーニング画像を取得することと、
前記トレーニング画像を前記ニューラルネットワークに入力し、前記ニューラルネットワークにより前記トレーニング画像における同一の人物オブジェクトについての関連性のある顔位置と手位置を予測することと、
予測された関連性のある前記顔位置と前記手位置、及び前記ラベル情報に基づいてネットワーク損失を決定し、前記ネットワーク損失に基づいて、トレーニング要求を満たすまで前記ニューラルネットワークのネットワークパラメータを調整することと、を含む。
いくつかの実施例では、本開示の実施例に係る装置が備える機能又はモジュールは、上述した方法の実施例に説明される方法を実行するために利用でき、その具体的な実現について、上述した方法の実施例の説明を参照すればよく、簡素化のために、ここで詳細な説明を省略する。
本開示の実施例では、コンピュータプログラム命令が記憶されているコンピュータ可読記憶媒体であって、前記コンピュータプログラム命令はプロセッサによって実行されると、上記の方法を実現させるコンピュータ可読記憶媒体がさらに提案される。コンピュータ可読記憶媒体は、不揮発性のコンピュータ可読記憶媒体であってもよい。
本開示の実施例では、プロセッサと、プロセッサにより実行可能な命令を記憶するメモリと、を含み、前記プロセッサは、上記の方法を実行するように構成される電子機器がさらに提案される。
電子機器は、端末、サーバ又は他の形態の機器として提供されてもよい。
図10は本開示の実施例に係る電子機器のブロック図を示す。例えば、電子機器800は携帯電話、コンピュータ、デジタル放送端末、メッセージ送受信機器、ゲームコンソール、タブレット型機器、医療機器、フィットネス機器、パーソナル・デジタル・アシスタント等の端末であってもよい。
図10を参照すると、電子機器800は、処理コンポーネント802、メモリ804、電源コンポーネント806、マルチメディアコンポーネント808、オーディオコンポーネント810、入力/出力(I/O)のインタフェース812、センサコンポーネント814、および通信コンポーネント816のうちの一つ以上を含んでもよい。
処理コンポーネント802は通常、電子機器800の全体的な動作、例えば表示、電話の呼び出し、データ通信、カメラ動作および記録動作に関連する動作を制御する。処理コンポーネント802は、上記方法の全てまたは一部のステップを実行するために、命令を実行する一つ以上のプロセッサ820を含んでもよい。また、処理コンポーネント802は、他のコンポーネントとのインタラクションのための一つ以上のモジュールを含んでもよい。例えば、処理コンポーネント802は、マルチメディアコンポーネント808とのインタラクションのために、マルチメディアモジュールを含んでもよい。
メモリ804は電子機器800での動作をサポートするための様々なタイプのデータを記憶するように構成される。これらのデータは、例として、電子機器800において操作するあらゆるアプリケーションプログラムまたは方法の命令、連絡先データ、電話帳データ、メッセージ、ピクチャー、ビデオなどを含む。メモリ804は、例えば静的ランダムアクセスメモリ(SRAM)、電気的消去可能プログラマブル読み取り専用メモリ(EEPROM)、消去可能なプログラマブル読み取り専用メモリ(EPROM)、プログラマブル読み取り専用メモリ(PROM)、読み取り専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気ディスクまたは光ディスクなどの様々なタイプの揮発性または不揮発性記憶装置またはそれらの組み合わせによって実現できる。
電源コンポーネント806は電子機器800の各コンポーネントに電力を供給する。電源コンポーネント806は電源管理システム、一つ以上の電源、および電子機器800のための電力生成、管理および配分に関連する他のコンポーネントを含んでもよい。
マルチメディアコンポーネント808は前記電子機器800とユーザとの間で出力インタフェースを提供するスクリーンを含む。いくつかの実施例では、スクリーンは液晶ディスプレイ(LCD)およびタッチパネル(TP)を含んでもよい。スクリーンがタッチパネルを含む場合、ユーザからの入力信号を受信するタッチスクリーンとして実現してもよい。タッチパネルは、タッチ、スライドおよびタッチパネルでのジェスチャーを検知するように、一つ以上のタッチセンサを含む。前記タッチセンサはタッチまたはスライド動きの境界を検知するのみならず、前記タッチまたはスライド操作に関連する持続時間および圧力を検出するようにしてもよい。いくつかの実施例では、マルチメディアコンポーネント808は前面カメラおよび/または背面カメラを含む。電子機器800が動作モード、例えば撮影モードまたは撮像モードになる場合、前面カメラおよび/または背面カメラは外部のマルチメディアデータを受信するようにしてもよい。各前面カメラおよび背面カメラは、固定された光学レンズ系、または焦点距離および光学ズーム能力を有するものであってもよい。
オーディオコンポーネント810はオーディオ信号を出力および/または入力するように構成される。例えば、オーディオコンポーネント810は、一つのマイク(MIC)を含み、マイク(MIC)は、電子機器800が動作モード、例えば呼び出しモード、記録モードおよび音声認識モードになる場合、外部のオーディオ信号を受信するように構成される。受信されたオーディオ信号はさらにメモリ804に記憶されるか、または通信コンポーネント816を介して送信されてもよい。いくつかの実施例では、オーディオコンポーネント810はさらに、オーディオ信号を出力するためのスピーカーを含む。
I/Oインタフェース812は処理コンポーネント802と周辺インタフェースモジュールとの間でインタフェースを提供し、上記周辺インタフェースモジュールはキーボード、クリックホイール、ボタンなどであってもよい。これらのボタンはホームボタン、音量ボタン、スタートボタンおよびロックボタンを含んでもよいが、これらに限定されない。
センサコンポーネント814は電子機器800の各方面の状態評価のために一つ以上のセンサを含む。例えば、センサコンポーネント814は電子機器800のオン/オフ状態、例えば電子機器800の表示装置およびキーパッドのようなコンポーネントの相対的位置決めを検出でき、センサコンポーネント814はさらに、電子機器800または電子機器800のあるコンポーネントの位置の変化、ユーザと電子機器800との接触の有無、電子機器800の方位または加減速および電子機器800の温度変化を検出できる。センサコンポーネント814は、いかなる物理的接触もない場合に近傍の物体の存在を検出するように構成される近接センサを含んでもよい。センサコンポーネント814はさらに、CMOSまたはCCDイメージセンサのような、イメージングアプリケーションにおいて使用するための光センサを含んでもよい。いくつかの実施例では、該センサコンポーネント814はさらに、加速度センサ、ジャイロセンサ、磁気センサ、圧力センサまたは温度センサを含んでもよい。
通信コンポーネント816は電子機器800と他の機器との有線または無線通信を実現するように構成される。電子機器800は通信規格に基づく無線ネットワーク、例えばWiFi、2Gまたは3G、またはそれらの組み合わせにアクセスできる。一例示的実施例では、通信コンポーネント816は放送チャネルを介して外部の放送管理システムからの放送信号または放送関連情報を受信する。一例示的実施例では、前記通信コンポーネント816はさらに、近距離通信を促進させるために、近距離無線通信(NFC)モジュールを含む。例えば、NFCモジュールは、無線周波数識別(RFID)技術、赤外線データ協会(IrDA)技術、超広帯域(UWB)技術、ブルートゥース(登録商標/BT)技術および他の技術によって実現できる。
例示的な実施例では、電子機器800は一つ以上の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタルシグナルプロセッサ(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサまたは他の電子要素によって実現され、上記方法を実行するために用いられることができる。
例示的な実施例では、さらに、不揮発性コンピュータ読み取り可能記憶媒体、例えばコンピュータプログラム命令を含むメモリ804が提供され、上記コンピュータプログラム命令は、電子機器800のプロセッサ820によって実行されと、上記方法を実行させることができる。
図11は、例示的な一実施例の電子機器1900のブロック図を示す。例えば、電子機器1900はサーバとして提供されてもよい。図11を参照すると、電子機器1900は、一つ以上のプロセッサを含む処理コンポーネント1922、および、処理コンポーネント1922によって実行可能な命令例えばアプリケーションプログラムを記憶するための、メモリ1932を代表とするメモリ資源を含む。メモリ1932に記憶されているアプリケーションプログラムは、それぞれが1つの命令群に対応する一つ以上のモジュールを含んでもよい。また、処理コンポーネント1922は命令を実行することによって上記方法を実行するように構成される。
電子機器1900はさらに、電子機器1900の電源管理を実行するように構成される電源コンポーネント1926、電子機器1900をネットワークに接続するように構成される有線または無線ネットワークインタフェース1950、および入出力(I/O)インタフェース1958を含んでもよい。電子機器1900はメモリ1932に記憶されているオペレーティングシステム、例えばWindows(登録商標) ServerTM、Mac OS XTM、UnixTM、LinuxTM、FreeBSDTMまたは類似するものに基づいて動作できる。
例示的な実施例では、さらに、不揮発性コンピュータ可読記憶媒体、例えばコンピュータプログラム命令を含むメモリ1932が提供され、上記コンピュータプログラム命令は、電子機器1900の処理コンポーネント1922によって実行されと、上記方法を実行させることができる。
本開示はシステム、方法および/またはコンピュータプログラム製品であってもよい。コンピュータプログラム製品は、プロセッサに本開示の各方面を実現させるためのコンピュータ可読プログラム命令が有しているコンピュータ可読記憶媒体を含んでもよい。
コンピュータ可読記憶媒体は、命令実行機器に使用される命令を保存および記憶可能な有形装置であってもよい。コンピュータ可読記憶媒体は例えば、電気記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置、または上記の任意の適当な組み合わせであってもよいが、これらに限定されない。コンピュータ可読記憶媒体のさらに具体的な例(非網羅的リスト)としては、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMまたはフラッシュメモリ)、静的ランダムアクセスメモリ(SRAM)、携帯型コンパクトディスク読み取り専用メモリ(CD-ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピーディスク、例えば命令が記憶されているせん孔カードまたはスロット内突起構造のような機械的符号化装置、および上記の任意の適当な組み合わせを含む。ここで使用されるコンピュータ可読記憶媒体は、瞬時信号自体、例えば無線電波または他の自由に伝播される電磁波、導波路または他の伝送媒体を経由して伝播される電磁波(例えば、光ファイバーケーブルを通過するパルス光)、または電線を経由して伝送される電気信号と解釈されるものではない。
ここで記述したコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体から各計算/処理機器にダウンロードされてもよいし、またはネットワーク、例えばインターネット、ローカルエリアネットワーク、広域ネットワークおよび/または無線ネットワークを介して外部のコンピュータまたは外部記憶装置にダウンロードされてもよい。ネットワークは銅伝送ケーブル、光ファイバー伝送、無線伝送、ルーター、ファイアウォール、交換機、ゲートウェイコンピュータおよび/またはエッジサーバを含んでもよい。各計算/処理機器内のネットワークアダプタカードまたはネットワークインタフェースはネットワークからコンピュータ可読プログラム命令を受信し、該コンピュータ可読プログラム命令を転送し、各計算/処理機器内のコンピュータ可読記憶媒体に記憶させる。
本開示の動作を実行するためのコンピュータプログラム命令はアセンブリ命令、命令セットアーキテクチャ(ISA)命令、機械語命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、C++などのオブジェクト指向プログラミング言語、および「C」言語または類似するプログラミング言語などの一般的な手続き型プログラミング言語を含める一つ以上のプログラミング言語の任意の組み合わせで書かれたソースコードまたは目標コードであってもよい。コンピュータ可読プログラム命令は、完全にユーザのコンピュータにおいて実行されてもよく、部分的にユーザのコンピュータにおいて実行されてもよく、スタンドアロンソフトウェアパッケージとして実行されてもよく、部分的にユーザのコンピュータにおいてかつ部分的にリモートコンピュータにおいて実行されてもよく、または完全にリモートコンピュータもしくはサーバにおいて実行されてもよい。リモートコンピュータに関与する場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を含む任意の種類のネットワークを経由してユーザのコンピュータに接続されてもよく、または、(例えばインターネットサービスプロバイダを利用してインターネットを経由して)外部コンピュータに接続されてもよい。いくつかの実施例では、コンピュータ可読プログラム命令の状態情報を利用して、例えばプログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)またはプログラマブル論理アレイ(PLA)などの電子回路をパーソナライズし、該電子回路によりコンピュータ可読プログラム命令を実行することにより、本開示の各方面を実現するようにしてもよい。
ここで本開示の実施例に係る方法、装置(システム)およびコンピュータプログラム製品のフローチャートおよび/またはブロック図を参照しながら本開示の各態様を説明したが、フローチャートおよび/またはブロック図の各ブロックおよびフローチャートおよび/またはブロック図の各ブロックの組み合わせは、いずれもコンピュータ可読プログラム命令によって実現できることを理解すべきである。
これらのコンピュータ可読プログラム命令は、汎用コンピュータ、専用コンピュータまたは他のプログラマブルデータ処理装置のプロセッサへ提供され、これらの命令がコンピュータまたは他のプログラマブルデータ処理装置のプロセッサによって実行されると、フローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作を実現ように、装置を製造してもよい。これらのコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体に記憶され、コンピュータ、プログラマブルデータ処理装置および/または他の機器を特定の方式で動作させるようにしてもよい。これにより、命令が記憶されているコンピュータ可読記憶媒体は、フローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作の各方面を実現する命令を有する製品を含む。
コンピュータ可読プログラム命令は、コンピュータ、他のプログラマブルデータ処理装置、または他の機器にロードされ、コンピュータ、他のプログラマブルデータ処理装置または他の機器に一連の動作ステップを実行させることにより、コンピュータにより実施なプロセスを生成するようにしてもよい。このようにして、コンピュータ、他のプログラマブルデータ処理装置、または他の機器において実行される命令により、フローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作を実現する。
図面のうちフローチャートおよびブロック図は、本開示の複数の実施例に係るシステム、方法およびコンピュータプログラム製品の実現可能なシステムアーキテクチャ、機能および動作を示す。この点では、フローチャートまたはブロック図における各ブロックは一つのモジュール、プログラムセグメントまたは命令の一部分を代表することができ、前記モジュール、プログラムセグメントまたは命令の一部分は指定された論理機能を実現するための一つ以上の実行可能命令を含む。いくつかの代替としての実現形態では、ブロックに表記される機能は、図面に付した順序と異なって実現してもよい。例えば、連続的な二つのブロックは実質的に並列に実行してもよく、また、係る機能によって、逆な順序で実行してもよい。なお、ブロック図および/またはフローチャートにおける各ブロック、およびブロック図および/またはフローチャートにおけるブロックの組み合わせは、指定される機能または動作を実行するハードウェアに基づく専用システムによって実現してもよいし、または専用ハードウェアとコンピュータ命令との組み合わせによって実現してもよいことにも注意すべきである。
以上、本開示の各実施例を記述したが、上記説明は例示的なものに過ぎず、網羅的なものではなく、かつ披露された各実施例に限定されるものでもない。当業者にとって、説明された各実施例の範囲および精神から逸脱することなく、様々な修正および変更が自明である。本明細書に選ばれた用語は、各実施例の原理、実際の適用または既存技術に対する改善を好適に解釈するか、または他の当業者に本文に披露された各実施例を理解させるためのものである。
本開示は、2019年9月18日に中国国家知識産権局に提出された、出願番号が第201910882139.6で、発明の名称が「顔と手を関連付けて検出する方法及び装置、電子機器並びに記憶媒体」である中国特許出願の優先権を主張し、その全ての内容は援用することによって本開示に組み込まれる。

Claims (21)

  1. 顔と手を関連付けて検出する方法であって、
    人物オブジェクトの画像である第1の画像を取得することと、
    前記第1の画像に対して特徴抽出を行い、複数のスケールの第1の特徴図を得ることと、
    前記複数のスケールの第1の特徴図に対して特徴融合処理を行い、前記第1の特徴図とスケールが一々対応する、複数のスケールの第2の特徴図を得ることと、
    得られた前記複数のスケールの第2の特徴図に基づいて、前記第1の画像における同一の人物オブジェクトについての関連性のある顔位置と手位置を検出することと、を含むことを特徴とする方法。
  2. 第1の画像を取得することは、
    少なくとも1つの人物オブジェクトを含む画像である第2の画像を取得することと、
    前記第2の画像に対して対象となる人体の検出を行い、前記第2の画像における前記少なくとも1つの人物オブジェクトのうちいずれかの人物オブジェクトの検出枠を得ることと、
    前記第2の画像において前記いずれかの人物オブジェクトの前記検出枠に対応する画像領域を、前記いずれかの人物オブジェクトの第1の画像として決定することと、を含むことを特徴とする請求項1に記載の方法。
  3. 前記第1の画像に対して特徴抽出を行い、複数のスケールの第1の特徴図を得ることは、
    前記第1の画像を予め設定されたスケールの第3の画像に調整することと、
    前記第3の画像を残差ネットワークに入力して前記複数のスケールの第1の特徴図を得ることと、を含むことを特徴とする請求項1または2に記載の方法。
  4. 前記複数のスケールの第1の特徴図に対して特徴融合処理を行い、複数のスケールの第2の特徴図を得ることは、
    前記複数のスケールの第1の特徴図を特徴ピラミッドネットワークに入力し、前記特徴ピラミッドネットワークにより前記特徴融合処理を行い、前記複数のスケールの第2の特徴図を得ることを含むことを特徴とする請求項1~3のいずれか1項に記載の方法。
  5. スケールの大きい順に、前記複数の第1の特徴図を{C1,...,Cn}として表し、ただし、nは、第1の特徴図の数を表し、1より大きい整数であり、
    前記複数のスケールの第1の特徴図に対して特徴融合処理を行い、複数のスケールの第2の特徴図を得ることは、
    第1の畳み込みカーネルを用いて第1の特徴図Cnに対して畳み込み処理を行って前記第1の特徴図Cnに対応する第2の特徴図Fnを得ることであって、前記第1の特徴図Cnのスケールと前記第2の特徴図Fnのスケールとが同じであることと、
    前記第2の特徴図Fnに対して線形補間処理を行って前記第2の特徴図Fnに対応する第1の中間特徴図F′nを取得することであって、前記第1の中間特徴図F′nのスケールと第1の特徴図Cn-1のスケールとが同じであることと、
    第2の畳み込みカーネルを用いて前記第1の特徴図Cn以外の第1の特徴図Ciに対して畳み込み処理を行って前記第1の特徴図Ciに対応する第2の中間特徴図C′iを得ることであって、前記第2の中間特徴図C′iのスケールと第1の中間特徴図F′i+1のスケールとが同じであり、iは1以上、n未満の整数変数であることと、
    前記第2の中間特徴図C′i及び対応する前記第1の中間特徴図F′i+1を用いて前記第2の特徴図Fn以外の第2の特徴図Fiを得ることであって、前記第1の中間特徴図F′i+1が、対応する前記第2の特徴図Fi+1を線形補間して得られたものであることとを含むことを特徴とする請求項1~4のいずれか1項に記載の方法。
  6. 前記第2の中間特徴図C′i及び対応する前記第1の中間特徴図F′i+1を用いて前記第2の特徴図Fn以外の第2の特徴図Fiを得ることは、
    前記第2の中間特徴図C′iと対応する前記第1の中間特徴図F′i+1とを加算処理し、前記第2の特徴図Fiを得ることを含むことを特徴とする請求項5に記載の方法。
  7. 得られた前記複数のスケールの第2の特徴図に基づいて、前記第1の画像における同一の人物オブジェクトについての関連性のある顔位置と手位置を検出することは、
    前記複数のスケールの第2の特徴図のうちスケールが最大の第2の特徴図に対して畳み込み処理を行い、前記顔位置を示すマスクマップ及び前記手位置を示すマスクマップをそれぞれ得ることと、
    前記顔位置のマスクマップ及び前記手位置のマスクマップに基づいて前記第1の画像において関連性のある手と顔が位置する位置領域を決定することとを含むことを特徴とする請求項1~6のいずれか1項に記載の方法。
  8. 前記第1の画像に前記関連性のある手と顔を強調表示することと、
    前記第1の画像において検出された関連性のある顔位置と手位置に同じラベルを割り当てることとの少なくとも1つを含むことを特徴とする請求項1~7のいずれか1項に記載の方法。
  9. ニューラルネットワークにより実現される方法であって、前記ニューラルネットワークをトレーニングするステップは、
    人物オブジェクトを含む画像であって、関連性のある顔位置及び手位置の真のラベル情報を有するトレーニング画像を取得することと、
    前記トレーニング画像を前記ニューラルネットワークに入力し、前記ニューラルネットワークにより前記トレーニング画像における同一の人物オブジェクトについての関連性のある顔位置と手位置を予測することと、
    予測された関連性のある前記顔位置と前記手位置、及び前記ラベル情報に基づいてネットワーク損失を決定し、前記ネットワーク損失に基づいて、トレーニング要求を満たすまで前記ニューラルネットワークのネットワークパラメータを調整することとを含むことを特徴とする請求項1~8のいずれか1項に記載の方法。
  10. 顔と手を関連付けて検出する装置であって、
    人物オブジェクトの画像である第1の画像を取得するための取得モジュールと、
    前記第1の画像に対して特徴抽出を行い、複数のスケールの第1の特徴図を得るための特徴抽出モジュールと、
    前記複数のスケールの第1の特徴図に対して特徴融合処理を行い、前記第1の特徴図とスケールが一々対応する、複数のスケールの第2の特徴図を得るための融合モジュールと、
    得られた前記複数のスケールの第2の特徴図に基づいて、前記第1の画像における同一の人物オブジェクトについての関連性のある顔位置と手位置を検出するための検出モジュールとを含むことを特徴とする装置。
  11. 前記取得モジュールは、
    少なくとも1つの人物オブジェクトを含む画像である第2の画像を取得するための取得ユニットと、
    前記第2の画像に対して対象となる人体の検出を行い、前記第2の画像における前記少なくとも1つの人物オブジェクトのうちいずれかの人物オブジェクトの検出枠を得るための対象検出ユニットと、
    前記第2の画像において前記いずれかの人物オブジェクトの前記検出枠に対応する画像領域を、前記いずれかの人物オブジェクトの第1の画像として決定するための決定ユニットとを含むことを特徴とする請求項10に記載の装置。
  12. 前記特徴抽出モジュールはさらに、
    前記第1の画像を予め設定されたスケールの第3の画像に調整することと、
    前記第3の画像を残差ネットワークに入力して前記複数のスケールの第1の特徴図を得ることとに用いられることを特徴とする請求項10または11に記載の装置。
  13. 前記融合モジュールはさらに、前記複数のスケールの第1の特徴図を特徴ピラミッドネットワークに入力し、前記特徴ピラミッドネットワークにより前記特徴融合処理を行い、前記複数のスケールの第2の特徴図を得ることに用いられることを特徴とする請求項10~12のいずれか1項に記載の装置。
  14. スケールの大きい順に、前記複数の第1の特徴図を{C1,...,Cn}として表し、ただし、nは、第1の特徴図の数を表し、1より大きい整数であり、
    前記融合モジュールはさらに、
    第1の畳み込みカーネルを用いて第1の特徴図Cnに対して畳み込み処理を行って前記第1の特徴図Cnに対応する第2の特徴図Fnを得ることであって、前記第1の特徴図Cnのスケールと前記第2の特徴図Fnのスケールとが同じであることと、
    前記第2の特徴図Fnに対して線形補間処理を行って前記第2の特徴図Fnに対応する第1の中間特徴図F′nを取得することであって、前記第1の中間特徴図F′nのスケールと第1の特徴図Cn-1のスケールとが同じであることと、
    第2の畳み込みカーネルを用いて前記第1の特徴図Cn以外の第1の特徴図Ciに対して畳み込み処理を行って前記第1の特徴図Ciに対応する第2の中間特徴図C′iを得ることであって、前記第2の中間特徴図C′iのスケールと第1の中間特徴図F′i+1のスケールとが同じであり、iは1以上、n未満の整数変数であることと、
    前記第2の中間特徴図C′i及び対応する前記第1の中間特徴図F′i+1を用いて前記第2の特徴図Fn以外の第2の特徴図Fiを得ることであって、前記第1の中間特徴図F′i+1が、対応する前記第2の特徴図Fi+1を線形補間して得られたものであることとに用いられることを特徴とする請求項10~13のいずれか1項に記載の装置。
  15. 前記融合モジュールはさらに、前記第2の中間特徴図C′iと対応する前記第1の中間特徴図F′i+1とを加算処理し、前記第2の特徴図Fiを得ることに用いられることを特徴とする請求項14に記載の装置。
  16. 前記検出モジュールはさらに、
    前記複数のスケールの第2の特徴図のうちスケールが最大の第2の特徴図に対して畳み込み処理を行い、前記顔位置を示すマスクマップ及び前記手位置を示すマスクマップをそれぞれ得ることと、
    前記顔位置のマスクマップ及び前記手位置のマスクマップに基づいて前記第1の画像において関連性のある手と顔が位置する位置領域を決定することとに用いられることを特徴とする請求項10~15のいずれか1項に記載の装置。
  17. 前記第1の画像に前記関連性のある手と顔を強調表示するための表示モジュールと、
    前記第1の画像において検出された関連性のある顔位置と手位置に同じラベルを割り当てるための割り当てモジュールとの少なくとも1つを含むことを特徴とする請求項10~16のいずれか1項に記載の装置。
  18. 前記特徴抽出モジュール、前記融合モジュール、および前記検出モジュールに適用されるニューラルネットワークを含み、
    前記ニューラルネットワークをトレーニングするためのトレーニングモジュールを更に含み、
    前記ニューラルネットワークをトレーニングするステップは、
    人物オブジェクトを含む画像であって、関連性のある顔位置及び手位置の真のラベル情報を有するトレーニング画像を取得することと、
    前記トレーニング画像を前記ニューラルネットワークに入力し、前記ニューラルネットワークにより前記トレーニング画像における同一の人物オブジェクトについての関連性のある顔位置と手位置を予測することと、
    予測された関連性のある前記顔位置と前記手位置、及び前記ラベル情報に基づいてネットワーク損失を決定し、前記ネットワーク損失に基づいて、トレーニング要求を満たすまで前記ニューラルネットワークのネットワークパラメータを調整することとを含む、ことを特徴とする請求項10~17のいずれか1項に記載の装置。
  19. プロセッサと、
    プロセッサにより実行可能な命令を記憶するためのメモリと、を含み、
    前記プロセッサは、請求項1~9のいずれか1項に記載の方法を実行するために、前記メモリに記憶された命令を呼び出すように構成されることを特徴とする電子機器。
  20. コンピュータプログラム命令が記憶されているコンピュータ可読記憶媒体であって、前記コンピュータプログラム命令はプロセッサによって実行されると、請求項1~9のいずれか1項に記載の方法を実現させることを特徴とするコンピュータ可読記憶媒体。
  21. コンピュータで読み取り可能なコードを含むコンピュータプログラムであって、前記コンピュータで読み取り可能なコードが電子機器において実行されると、前記電子機器のプロセッサに請求項1~9のいずれか1項に記載の方法を実現するための命令を実行させることを特徴とするコンピュータプログラム。
JP2021538256A 2019-09-18 2019-11-26 顔と手を関連付けて検出する方法及び装置、電子機器、記憶媒体及びコンピュータプログラム Active JP7238141B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910882139.6A CN110647834B (zh) 2019-09-18 2019-09-18 人脸和人手关联检测方法及装置、电子设备和存储介质
CN201910882139.6 2019-09-18
PCT/CN2019/120901 WO2021051650A1 (zh) 2019-09-18 2019-11-26 人脸和人手关联检测方法及装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
JP2022517914A true JP2022517914A (ja) 2022-03-11
JP7238141B2 JP7238141B2 (ja) 2023-03-13

Family

ID=69010775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021538256A Active JP7238141B2 (ja) 2019-09-18 2019-11-26 顔と手を関連付けて検出する方法及び装置、電子機器、記憶媒体及びコンピュータプログラム

Country Status (7)

Country Link
US (1) US20210326587A1 (ja)
JP (1) JP7238141B2 (ja)
KR (1) KR102632647B1 (ja)
CN (1) CN110647834B (ja)
SG (1) SG11202106831QA (ja)
TW (1) TWI781359B (ja)
WO (1) WO2021051650A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229455B (zh) * 2017-02-23 2020-10-16 北京市商汤科技开发有限公司 物体检测方法、神经网络的训练方法、装置和电子设备
WO2021146890A1 (en) * 2020-01-21 2021-07-29 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for object detection in image using detection model
CN111507408B (zh) * 2020-04-17 2022-11-04 深圳市商汤科技有限公司 图像处理方法及装置、电子设备和存储介质
CN111709415B (zh) * 2020-04-29 2023-10-27 北京迈格威科技有限公司 目标检测方法、装置、计算机设备和存储介质
CN111783621B (zh) * 2020-06-29 2024-01-23 北京百度网讯科技有限公司 人脸表情识别及模型训练的方法、装置、设备及存储介质
WO2022144601A1 (en) * 2020-12-29 2022-07-07 Sensetime International Pte. Ltd. Method and apparatus for detecting associated objects
JP2023511242A (ja) * 2020-12-31 2023-03-17 商▲湯▼国▲際▼私人有限公司 画像内関連対象検出方法、装置、デバイス、及び記録媒体
CN112528977B (zh) * 2021-02-10 2021-07-02 北京优幕科技有限责任公司 目标检测方法、装置、电子设备和存储介质
AU2021204583A1 (en) * 2021-03-17 2022-10-06 Sensetime International Pte. Ltd. Methods, apparatuses, devices and storage medium for predicting correlation between objects
CN113557546B (zh) * 2021-03-17 2024-04-09 商汤国际私人有限公司 图像中关联对象的检测方法、装置、设备和存储介质
WO2022195338A1 (en) * 2021-03-17 2022-09-22 Sensetime International Pte. Ltd. Methods, apparatuses, devices and storage media for detecting correlated objects involved in image
WO2022195336A1 (en) * 2021-03-17 2022-09-22 Sensetime International Pte. Ltd. Methods, apparatuses, devices and storage medium for predicting correlation between objects
CN113031464B (zh) * 2021-03-22 2022-11-22 北京市商汤科技开发有限公司 设备控制方法、装置、电子设备及存储介质
CN112766244B (zh) * 2021-04-07 2021-06-08 腾讯科技(深圳)有限公司 目标对象检测方法、装置、计算机设备和存储介质
KR20220170732A (ko) 2021-06-22 2022-12-30 센스타임 인터내셔널 피티이. 리미티드. 인체와 손의 관련 방법, 장치, 기기 및 저장 매체
WO2022096957A1 (en) * 2021-06-22 2022-05-12 Sensetime International Pte. Ltd. Body and hand association method and apparatus, device, and storage medium
CN113591567A (zh) * 2021-06-28 2021-11-02 北京百度网讯科技有限公司 目标检测方法、目标检测模型的训练方法及其装置
CN113591967B (zh) * 2021-07-27 2024-06-11 南京旭锐软件科技有限公司 一种图像处理方法、装置、设备及计算机存储介质
CN113642505B (zh) * 2021-08-25 2023-04-18 四川大学 一种基于特征金字塔的人脸表情识别方法及装置
CN113723322A (zh) * 2021-09-02 2021-11-30 南京理工大学 一种基于单阶段无锚点框架的行人检测方法及系统
CN116137914A (zh) 2021-09-16 2023-05-19 商汤国际私人有限公司 一种人脸和人手的关联度检测方法、装置、设备及存储介质
AU2021240188B1 (en) * 2021-09-16 2023-02-23 Sensetime International Pte. Ltd. Face-hand correlation degree detection method and apparatus, device and storage medium
CN113936256A (zh) * 2021-10-15 2022-01-14 北京百度网讯科技有限公司 一种图像目标检测方法、装置、设备以及存储介质
CN114005178B (zh) * 2021-10-29 2023-09-01 北京百度网讯科技有限公司 人物交互检测方法、神经网络及其训练方法、设备和介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108764164A (zh) * 2018-05-30 2018-11-06 华中科技大学 一种基于可变形卷积网络的人脸检测方法及系统
CN109508681A (zh) * 2018-11-20 2019-03-22 北京京东尚科信息技术有限公司 生成人体关键点检测模型的方法和装置
CN109614876A (zh) * 2018-11-16 2019-04-12 北京市商汤科技开发有限公司 关键点检测方法及装置、电子设备和存储介质
CN109711273A (zh) * 2018-12-04 2019-05-03 北京字节跳动网络技术有限公司 图像关键点提取方法、装置、可读存储介质及电子设备
US20190171870A1 (en) * 2017-12-03 2019-06-06 Facebook, Inc. Optimizations for Dynamic Object Instance Detection, Segmentation, and Structure Mapping

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012053606A (ja) * 2010-08-31 2012-03-15 Sony Corp 情報処理装置および方法、並びにプログラム
CN109145911A (zh) * 2017-11-15 2019-01-04 中国石油大学(华东) 一种街拍照片目标人物提取方法
CN111670457B (zh) * 2017-12-03 2023-12-01 元平台公司 动态对象实例检测、分割和结构映射的优化
CN108460362B (zh) * 2018-03-23 2021-11-30 成都品果科技有限公司 一种检测人体部位的系统及方法
CN109325450A (zh) * 2018-09-25 2019-02-12 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN109886066B (zh) * 2018-12-17 2023-05-09 南京理工大学 基于多尺度和多层特征融合的快速目标检测方法
CN109858402B (zh) * 2019-01-16 2021-08-31 腾讯科技(深圳)有限公司 一种图像检测方法、装置、终端以及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190171870A1 (en) * 2017-12-03 2019-06-06 Facebook, Inc. Optimizations for Dynamic Object Instance Detection, Segmentation, and Structure Mapping
CN108764164A (zh) * 2018-05-30 2018-11-06 华中科技大学 一种基于可变形卷积网络的人脸检测方法及系统
CN109614876A (zh) * 2018-11-16 2019-04-12 北京市商汤科技开发有限公司 关键点检测方法及装置、电子设备和存储介质
CN109508681A (zh) * 2018-11-20 2019-03-22 北京京东尚科信息技术有限公司 生成人体关键点检测模型的方法和装置
CN109711273A (zh) * 2018-12-04 2019-05-03 北京字节跳动网络技术有限公司 图像关键点提取方法、装置、可读存储介质及电子设备

Also Published As

Publication number Publication date
KR102632647B1 (ko) 2024-02-01
JP7238141B2 (ja) 2023-03-13
US20210326587A1 (en) 2021-10-21
WO2021051650A1 (zh) 2021-03-25
CN110647834A (zh) 2020-01-03
TW202113680A (zh) 2021-04-01
TWI781359B (zh) 2022-10-21
CN110647834B (zh) 2021-06-25
KR20210113612A (ko) 2021-09-16
SG11202106831QA (en) 2021-07-29

Similar Documents

Publication Publication Date Title
KR102632647B1 (ko) 얼굴과 손을 관련지어 검출하는 방법 및 장치, 전자기기 및 기억매체
JP7041284B2 (ja) 画像処理方法、画像処理装置、電子機器、記憶媒体及びコンピュータプログラム
JP6944051B2 (ja) キーポイント検出方法及び装置、電子機器並びに記憶媒体
JP7106679B2 (ja) 画像処理方法、画像処理装置、電子機器、記憶媒体及びコンピュータプログラム
JP7262659B2 (ja) 目標対象物マッチング方法及び装置、電子機器並びに記憶媒体
JP2021517649A (ja) 位置姿勢推定方法、装置、電子機器及び記憶媒体
KR20210102180A (ko) 이미지 처리 방법 및 장치, 전자 기기 및 기억 매체
KR20210047336A (ko) 이미지 처리 방법 및 장치, 전자 기기 및 기억 매체
JP2021516838A (ja) キーポイント検出方法、装置、電子機器及び記憶媒体
US20210279473A1 (en) Video processing method and apparatus, electronic device, and storage medium
US11455836B2 (en) Dynamic motion detection method and apparatus, and storage medium
JP2022523243A (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
CN110909815A (zh) 神经网络训练、图像处理方法、装置及电子设备
JP2022522551A (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
JP2022533065A (ja) 文字認識方法及び装置、電子機器並びに記憶媒体
JP2021517282A (ja) ネットワークモジュール、割り当て方法及び装置、電子機器並びに記憶媒体
CN111640114B (zh) 图像处理方法及装置
CN110929616B (zh) 一种人手识别方法、装置、电子设备和存储介质
JP2022515274A (ja) 検出器の配置方法、検出器の配置装置及び非一時的コンピュータ可読記憶媒体
KR20220047802A (ko) 이미지 재구성 방법 및 장치, 전자 기기 및 저장 매체
CN115512116B (zh) 图像分割模型优化方法、装置、电子设备及可读存储介质
KR20210040435A (ko) 제스처 인식 방법, 제스처 처리 방법 및 장치
JP2022533986A (ja) ターゲットオブジェクト表示方法及び装置、電子機器と記憶媒体
CN112749709A (zh) 图像处理方法及装置、电子设备和存储介质
CN112734015B (zh) 网络生成方法及装置、电子设备和存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210629

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A603 Late request for extension of time limit during examination

Free format text: JAPANESE INTERMEDIATE CODE: A603

Effective date: 20221118

A603 Late request for extension of time limit during examination

Free format text: JAPANESE INTERMEDIATE CODE: A603

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230301

R150 Certificate of patent or registration of utility model

Ref document number: 7238141

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150