JP7286010B2 - 人体属性の認識方法、装置、電子機器及びコンピュータプログラム - Google Patents

人体属性の認識方法、装置、電子機器及びコンピュータプログラム Download PDF

Info

Publication number
JP7286010B2
JP7286010B2 JP2022517445A JP2022517445A JP7286010B2 JP 7286010 B2 JP7286010 B2 JP 7286010B2 JP 2022517445 A JP2022517445 A JP 2022517445A JP 2022517445 A JP2022517445 A JP 2022517445A JP 7286010 B2 JP7286010 B2 JP 7286010B2
Authority
JP
Japan
Prior art keywords
human body
image
thermal image
attribute
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022517445A
Other languages
English (en)
Other versions
JP2022548915A (ja
Inventor
珂珂 ▲賀▼
▲ジン▼ ▲劉▼
彦昊 葛
▲チェン▼杰 汪
季▲リン▼ 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2022548915A publication Critical patent/JP2022548915A/ja
Application granted granted Critical
Publication of JP7286010B2 publication Critical patent/JP7286010B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Quality & Reliability (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)

Description

本願は、2019年12月11日付けで中国特許局に提出された、出願番号が201911268088.4であり、発明の名称が「人体属性の認識方法、装置、電子機器及び記憶媒体」である中国特許出願の優先権を主張するものであり、その内容の全てが引用により本願に組み込まれている。
本願は、コンピュータ技術分野に関し、具体的には、人体属性の認識方法、装置、電子機器及び記憶媒体に関する。
人体属性認識は、人の性別、年齢、衣類のタイプ及び色などに対する認識であり、危険な行動の早期警告、交通違法監視、産業セキュリティ、自動販売機、ショッピングモール及び駅などの公共の場所のターゲット人物をターゲットにするなどの分野に幅広く適用される。
現在の人体属性の認識技術において、まず、頭部、胴体及び手足などの複数の人体特徴を認識し、その後、各人体特徴に対応する人体属性を認識する。人体内の複数の属性を認識する必要がある場合、例えば、人体の頭部属性および人体の胴体属性を認識する場合、頭部と胴体との接続性のため、人体特徴認識を実行するとき、人体の頭部が、人体の胴体として誤って認識される可能性があり、それにより、後続の人体属性認識の結果が不正確になる。
本願実施例は、人体属性認識の精度を向上させることができる人体属性の認識方法、装置、電子機器及び記憶媒体を提供する。
本願実施例は、電子機器が実行する、人体属性の認識方法を提供し、前記方法は、
複数の検出領域を含む人体画像サンプルを取得するステップであって、前記検出領域には、人体属性の実の値がラベル付けされている、ステップと、
認識モデルを介して前記人体画像サンプルの熱画像及び検出対象となる領域の熱画像を生成して、人体画像サンプルに対応するグローバル熱画像及びローカル熱画像を取得する、ステップと、
前記グローバル熱画像及びローカル熱画像を融合し、融合された画像に対して人体属性認識を実行して、人体画像サンプルの人体属性の予測値を取得する、ステップと、
前記グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性の注目領域を決定する、ステップと、
前記注目領域、人体属性の実の値及び人体属性の予測値を利用して、前記認識モデルを補正する、ステップと、
補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行する、ステップと、を含む。
それに対応して、本願実施例は、人体属性の認識装置をさらに提供し、前記装置は、
複数の検出領域を含む人体画像サンプルを取得するスように構成される、取得モジュールであって、前記検出領域には、人体属性の実の値がラベル付けされている、取得モジュールと、
認識モデルを介して前記人体画像サンプルの熱画像及び検出対象となる領域の熱画像を生成して、人体画像サンプルに対応するグローバル熱画像及びローカル熱画像を取得するように構成される、生成モジュールと、
前記グローバル熱画像及びローカル熱画像を融合し、融合された画像に対して人体属性認識を実行して、人体画像サンプルの人体属性の予測値を取得するように構成される、融合モジュールと、
前記グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性の注目領域を決定するように構成される、決定モジュールと、
前記注目領域、人体属性の実の値及び人体属性の予測値を利用して、前記認識モデルを補正するように構成される、補正モジュールと、
補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行するように構成される、認識モジュールと、を備える。
本願実施例は、メモリ、プロセッサおよびメモリに記憶され且つプロセッサで実行可能なコンピュータプログラムを備える、電子機器をさらに提供し、ここで、前記プロセッサが前記プログラムを実行するとき、上記の人体属性の認識方法のステップを実現する。
本願実施例は、コンピュータプログラムが記憶された、コンピュータ可読記憶媒体をさらに提供し、ここで、前記コンピュータプログラムがプロセッサによって実行されるとき、上記の人体属性の認識方法のステップを実現する。
本願実施例の技術的解決策をより明確に説明するために、以下は、実施例の説明で使用される図面について簡単に紹介する。以下に説明される図面は、本願のいくつかの実施例に過ぎず、当業者にとっては、創造的な作業なしに、これらの図面に従って他の図面を得ることもできることは自明である。
本願実施例による人体属性の認識方法のシナリオの概略図である。 本願実施例による人体属性の認識方法の例示的なフローチャートである。 本願実施例による人体属性の認識方法の別の例示的なフローチャートである。 本願実施例による人体属性の認識方法におけるクラス活性化マップを生成する概略図である。 本願実施例による人体属性の認識方法におけるミラーリング処理後のクラス活性化マップを介してクラス活性化マップを調整する概略図である。 本願実施例による認識結果に対応するページの概略図である。 本願実施例による人体属性の認識装置の例示的な構造図である。 本願実施例による電子機器の例示的な構造図である。
以下、本願実施例における図面を参照して、本願実施例の技術的解決策を明確且つ完全に説明する。明らかに、以下で説明される実施例は、本願実施例の一部に過ぎず、全ての実施例ではない。本願実施例に基づいて、創造的な努力なしに当業者によって取得される他のすべての実施例は、本願の保護範囲に含まれるものとする。
本願実施例は、人体属性の認識方法、装置、電子機器及び記憶媒体を提供する。
ここで、当該人体属性の認識装置は、具体的には、端末又はサーバに統合されることができ、端末は、携帯電話、タブレット、パーソナルコンピュータ(PC:Personal Computer)又は監視機器を含み得、サーバは、1つの独立して実行するサーバ又は分布式サーバを含んでもよいし、複数のサーバによって組み合わされたサーバクラスタを含んでもよい。
例えば、図1Aを参照すると、当該人体属性の認識装置が監視機器に統合され、当該監視機器は、カメラを含み得る。まず、当該監視機器は、複数の人体画像サンプルを取得することができ、ここで、各検出領域には、人体属性の実の値がラベル付けされ、その後、当該監視機器は、認識モデルを介して人体画像サンプルの熱画像及び検出対象となる領域の熱画像を生成して、人体画像サンプルに対応するグローバル熱画像及びローカル熱画像を取得する。次に、グローバル熱画像及びローカル熱画像を融合し、融合された画像に対して人体属性認識を実行して、人体画像サンプルの人体属性の予測値を取得し、その次に、当該監視機器は、グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性の注目領域を決定することができる。最後に、当該監視機器は、注目領域、人体属性の実の値及び人体属性の予測値を利用して、前記認識モデルを補正することができ、犯罪容疑者が当該監視機器によって監視される領域に進入した場合、当該監視領域には歩行者もいる。犯罪容疑者が白いシャツ、黒いズボン及び赤い靴を履いていることを知っている場合、監視機器は、補正された認識モデルに基づいて、カメラによって撮影された画像に対して人体属性認識を実行し、それにより、人出から犯罪容疑者を認識することができる。
当該技術案は、注目領域、人体属性の実の値及び人体属性の予測値を利用して、認識モデルを補正し、補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行することである。つまり、人体属性認識を実行するとき、各タイプの人体属性の注目領域を考慮するため、各属性が注目すべき領域をよりよく注目できるようにし、それにより、人体属性認識の精度を向上させる。
以下、それぞれ詳細に説明する。以下の実施例の説明順序は、実施例の優先順位に対する制限ではないことに留意されたい。
図4に示された電子機器が実行する、人体属性の認識方法は、複数の検出領域を含む人体画像サンプルを取得するステップであって、検出領域には、人体属性の実の値がラベル付けされている、ステップと、認識モデルを介して人体画像サンプルの熱画像及び検出対象となる領域の熱画像を生成して、人体画像サンプルに対応するグローバル熱画像及びローカル熱画像を取得する、ステップと、グローバル熱画像及びローカル熱画像を融合し、融合された画像に対して人体属性認識を実行して、人体画像サンプルの人体属性の予測値を取得する、ステップと、グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性の注目領域を決定する、ステップと、注目領域、人体属性の実の値及び人体属性の予測値を利用して、前記認識モデルを補正する、ステップと、補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行する、ステップと、を含む。
図1Bを参照すると、図1Bは、本願実施例による人体属性の認識方法の例示的なフローチャートである。当該人体属性の認識方法は、図4に示された電子機器によって実行されることができ、具体的なプロセスは、以下の通りであり得る。
ステップ101において、複数の検出領域を含む人体画像サンプルを取得する。
当該人体画像サンプルは、サンプル人体の画像であり、且つ、各検出領域には、人体属性の実の値がラベル付けされており、当該人体画像サンプルは、ローカルに事前に保存されたものであってもよいし、ネットワークインターフェースをアクセスして得られたものであってもよいし、カメラによってリアルタイムで撮影されたものであってもよく、具体的には、実際の状況によって決定される。
ここで、サンプル人体に対応する特徴点に従って、人体画像サンプルに対して領域分割を実行することができ、即ち、いくつかの実施例において、「複数の検出領域を含む人体画像サンプルを取得する」ステップは、具体的には、以下のステップを含み得る。
(11)サンプル人体を含む人体画像サンプルを取得する。
(12)人体画像サンプルに対して人体特徴点認識を実行して、サンプル人体に対応する第2特徴点セットを取得する。
(13)第2特徴点セットに基づいて、サンプル人体に対して領域分割を実行して、サンプル人体に対応する複数の検出領域を取得する。
具体的には、人体画像サンプル内のサンプル人体のキー特徴点を検出することができ、例えば、14個のキー特徴点(即ち、第2特徴点)が検出され、その後、この14個のキー特徴点に基づいて、サンプル人体に対して領域分割を実行して、サンプル人体の頭部領域、サンプル人体の胴体領域及びサンプル人体の手足領域を取得し、即ち、3つの検出領域を取得する。
ステップ102において、認識モデルを介して、人体画像サンプルの熱画像及び検出対象となる領域の熱画像を生成して、人体画像サンプルに対応するグローバル熱画像及びローカル熱画像を取得する。
ここで、まず、熱画像の概念について紹介する。熱画像は、密度マップとして、通常、顕著な色の違いを有する方式を使用してデータ効果を表現し、ヒートマップの明るい色は、イベントの発生頻度が高いか物事の分布密度が高いことを表し、暗い色はその逆である。本願実施例において、グローバル熱画像は、人体画像サンプルにおけるサンプル人体の熱情報を表すために使用され、ローカル熱画像は、検出対象となる領域におけるサンプル人体の熱情報を表すために使用される。
ここで、認識モデル内の人体特徴認識サブネットワークを介して、人体画像サンプル及び検出対象となる領域に対して特徴抽出を実行して、人体画像サンプルに対応するグローバル熱画像及び検出対象となる領域に対応するローカル熱画像を取得することができる。
ここで、当該人体特徴認識サブネットワークは、畳み込み層と、全結合層と、を含み得る。
畳み込み層:主に、入力された画像(例えばトレーニングサンプル又は認識する必要のある画像)に対して特徴抽出を実行するように構成され、ここで、畳み込みカーネルのサイズ及び畳み込みカーネルの数は、実際の適用に応じて設定することができ、例えば、最初の畳み込み層から4番目の畳み込み層の畳み込みカーネルのサイズは、順次に、(7,7)、(5,5)、(3,3)、(3,3)であり得る。計算の複雑さを低下し、計算効率を向上させるために、本実施例において、この4層の畳み込み層の畳み込みカーネルのサイズはすべて(3,3)に設定することができ、活性化関数はすべて「線形整流関数(relu:Rectified Linear Unit)」を採用するが、padding(paddingは、属性定義要素フレームと要素コンテンツとの間の空間を指す)方式はすべて「same」に設定し、「same」パディング方式は、0でエッジをパディングすることとして簡単に理解することができ、左側(上部)に0を補充する数と、右側(下部)に0を補充する数は同じであるか1つ少ない。畳み込み層と畳み込み層との間は、直結する方式を介して接続され、それにより、ネットワークの収束速度を加速化することができ、計算量をさらに減らすために、さらに、2~4番目の畳み込み層のすべての層又は任意の1~2層でダウンサンプリング(pooling)動作を実行することができ、当該ダウンサンプリング動作は、畳み込みの動作とほとんど同じであるが、ダウンサンプリングの畳み込みカーネルは、対応する位置の最大値(max pooling)又は平均値(average pooling)などのみを取る。説明の便宜上、本願実施例において、すべて、2番目の畳み込み層及び3番目の畳み込み層でダウンサンプリング動作を実行し且つ当該ダウンサンプリング動作が具体的にmax poolingであることを例として説明する。
説明の便宜上、本願実施例において、活性化関数が配置されている層及びダウンサンプリング層(プーリング層とも称する)は両方とも畳み込み層に分類されることに留意されたい。当該構造は、畳み込み層、活性化関数が配置されている層、ダウンサンプリング層(即ち、プーリング層)及び全結合層を含むと見なすことができ、もちろん、さらに、データを入力するための入力層及びデータを出力するための出力層を含んでもよいが、ここでは詳細に説明しないことを理解されたい。
全結合層:学習された特徴をサンプルラベル空間にマッピングすることができ、すべての畳み込みニューラルネットワークでは主に「分類器」として作用し、全結合層の各ノードはすべて、前の層(畳み込み層のうちのダウンサンプリング層など)によって出力されたすべてのノードに接続される。ここで、全結合層の1つのノードは、全結合層内の1つのニューロンと称され、全結合層内のニューロンの数は、実際の適用のニーズに応じて設定することができる。例えば、当該人体属性認識モデルでは、全結合層のニューロンの数を、すべて512個に設定するか、すべて128個に設定することができる。畳み込み層と類似して、全結合層では、活性化関数を追加することにより非線形要因を追加することができ、例えば、活性化関数sigmoid(シグモイド関数)を追加することができる。
ステップ103において、グローバル熱画像及びローカル熱画像を融合し、融合された画像に対して人体属性認識を実行して、人体画像サンプルの人体属性の予測値を取得する。
まず、グローバル熱画像のサイズ及びローカル熱画像のサイズをプリセットサイズにそれぞれ圧縮することができ、その後、圧縮されたグローバル熱画像を圧縮されたローカル熱画像と繋ぎ合わせて、融合された画像を取得し、認識モデルに基づいて、融合された画像に対して人体属性認識を実行して、人体画像サンプルの人体属性の予測値を取得し、ここで、当該人体属性の予測値は、人体画像サンプル内の各画素点が人体に属する確率である。
ステップ104において、グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性の注目領域を決定する。
人体属性を認識する際の認識モデルの精度をさらに向上させるために、例えば、認識しようとする人体属性が黒髪属性である場合、認識モデルが注目すべき領域は人体の頭部領域であり、つまり、頭部領域は黒髪属性に対応する注目領域であり、さらに例えば、認識しようとする人体属性が白服属性及び青靴属性であると、認識モデルが注目すべき領域は人体の胴体領域及び人体の下肢領域であるため、グローバル熱画像及びローカル熱画像を介して、各タイプの人体属性の注目領域を決定することができる。いくつかの実施例において、「グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性の注目領域を決定する」ステップは、具体的に以下のステップを含み得る。
(21)グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性に対応するクラス活性化マップを生成する。
(22)クラス活性化マップを補正し、補正結果に基づいて、各タイプの人体属性の注目領域を決定する。
ここで、クラス活性化マップも熱画像の一種であるが、上記のグローバル熱画像及びローカル熱画像との区別は、クラス活性化マップは、あるタイプの特定領域を強調するための熱画像であり、具体的には、グローバル熱画像に対応するローカル熱画像の位置を取得し、当該位置情報に基づいて、当該ローカル熱画像がどの人体属性に関連するかを決定することができる。例えば、グローバル熱画像に対応するローカル熱画像Aの位置が頭部領域であると、当該ローカル熱画像Aは、髪属性、帽子属性及びイヤリング属性に関連するが、衣服属性、靴属性及び腕時計属性などの属性は、頭部領域から認識されないものであり、ローカル熱画像に対応する人体属性を決定した後、グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性に対応するクラス活性化マップを生成することができる。
いくつかの実施例において、さらに、グローバル熱画像に対してベクトル化処理を実行して、グローバル熱画像に対応する特徴ベクトルを取得し、その後、グローバル熱画像における各ローカル熱画像の分布に基づいて、各ローカル画像で注目している人体属性を決定し、各ローカル画像で注目している人体属性に従って、各ローカル画像に対応する重み行列を生成し、最後に、特徴ベクトルと各重み行列との乗積をそれぞれ計算して、各タイプの人体属性に対応するクラス活性化マップを取得することができる。即ち、「グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性に対応するクラス活性化マップを生成する」ステップは、具体的に、以下のステップを含み得る。
(31)グローバル熱画像に対してベクトル化処理を実行して、グローバル熱画像に対応する特徴ベクトルを取得する。
(32)グローバル熱画像における各ローカル熱画像の分布に基づいて、各ローカル画像で注目している人体属性を決定する。
(33)各ローカル画像で注目している人体属性に従って、各ローカル画像に対応する重み行列を生成する。
(34)特徴ベクトルと各重み行列との乗積をそれぞれ計算して、各タイプの人体属性に対応するクラス活性化マップを取得する。
例えば、一枚のトレーニング画像サンプルについて、認識モデル内の人体特徴サブネットワークを通じた後、Q*R*Eサイズのグローバル熱画像を出力することができ、ここで、Qは、チャネル数であり、Rは、熱画像の幅であり、Eは、熱画像の高さである。2048*8*24を出力すると仮定する場合、2048枚のグローバル熱画像があることに相当する。その後、すべてのグローバル熱画像に対してグローバルプーリング処理を実行した後、1つの2048次元の特徴ベクトルを取得し、その後、各ローカル画像で注目している人体属性に従って、各ローカル画像に対応する重み行列Wを生成し、最後に、特徴ベクトルと各重み行列Wとの乗積をそれぞれ計算して、各タイプの人体属性に対応するクラス活性化マップを取得し、例えば、あるタイプの人体属性について、当該人体属性に対応するクラス活性化マップは、以下の式で表すことができる。
Figure 0007286010000001
ここで、Iは、人体属性に対応するクラス活性化マップを表し、Wは、n番目のローカル熱画像に対応する重み行列を表し、Dは、i番目のグローバル熱画像を表す。
生成されたクラス活性化マップには、注目する領域範囲が大き過ぎて、注目をするはずがないいくつかの領域をカバーする可能性があることに留意されたい。例えば、黒髪属性が注目しようとする領域は、頭部領域であるが、生成されたクラス活性化マップには、注目した領域が、人体の胴体領域の一部をカバーしたため、クラス活性化マップを補正し、補正結果に基づいて、各タイプの人体属性の注目領域を決定する必要がある。
クラス活性化マップを補正する方法は様々であり得るが、本願において、グローバル熱画像及びローカル熱画像に対してそれぞれミラーリング処理を実行し、処理されたグローバル熱画像及び処理されたローカル熱画像に基づいて、各タイプの人体属性の注目領域を決定することができる。即ち、「クラス活性化マップを補正し、補正結果に基づいて各タイプの人体属性の注目領域を決定する」ステップは、具体的には、以下のステップを含み得る。
(41)グローバル熱画像及びローカル熱画像に対してそれぞれミラーリング処理を実行して、処理されたグローバル熱画像及び処理されたローカル熱画像を取得する。
(42)処理されたグローバル熱画像及び処理されたローカル熱画像に基づいて、各タイプの人体属性のミラーリング処理後のクラス活性化マップを生成する。
(43)クラス活性化マップ及びミラーリング処理後のクラス活性化マップに従って、各タイプの人体属性の注目領域を決定する。
同じ一枚の画像Pに対して、ミラーリング処理後の画像Pのクラス活性化マップは、画像Pのクラス活性化マップがミラーリング処理されて得られた結果と同じであるため、ミラーリング処理後のクラス活性化マップを介して、クラス活性化マップで注目する領域を調整して、各タイプの人体属性の注目領域を決定することができることに留意されたい。
例えば、クラス活性化マップの特徴点を介して、当該クラス活性化マップで注目する領域を決定し、及びミラーリング処理後のクラス活性化マップの特徴点を介して、当該ミラーリング処理後のクラス活性化マップで注目する領域を決定し、さらに、ミラーリング処理後のクラス活性化マップで注目する領域に従って、クラス活性化マップで注目する領域を調整して、各タイプの人体属性の注目領域を決定することができる。即ち、「クラス活性化マップ及びミラーリング処理後のクラス活性化マップに従って、各タイプの人体属性の注目領域を決定する」ステップは、具体的には以下のステップを含み得る。
(51)クラス活性化マップの特徴点及びミラーリング処理後のクラス活性化マップの特徴点をそれぞれ取得して、クラス活性化マップに対応する複数の第1特徴点及びミラーリング処理後のクラス活性化マップに対応する複数の第2特徴点を取得し、各第1特徴点は、1つの第2特徴点に対応する。
(52)第1特徴点の熱値を抽出して、第1特徴点に対応する第1熱値を取得し、第2特徴点の熱値を抽出して、第2特徴点に対応する第2熱値を取得する。
(53)第1熱値及び第2熱値に基づいて、各タイプの人体属性の注目領域を構築する。
ここで、第1熱値に従って、クラス活性化マップで注目する領域を決定することができ、例えば、ある第1熱値がプリセット閾値より大きい場合、当該第1熱値に対応する第1特徴点は、クラス活性化マップで注目する領域内に位置し、プリセット閾値より大きい当該第1熱値に対応する第1特徴点を第1基準点に決定し、その後、第1基準点に対応する人体属性の第1基準領域を構築する。同様に、第2熱値に従って、ミラーリング処理後のクラス活性化マップで注目する領域を決定する方法も同じであり、もちろん、ミラーリング処理後のクラス活性化マップは、処理されたグローバル熱画像及び処理されたローカル熱画像に基づいて得られたため、つまり、クラス活性化マップ内で各第2特徴点はすべて、それに対応する1つの第1特徴点がある。即ち、いくつかの実施例において、「第1熱値及び第2熱値に基づいて、各タイプの人体属性の注目領域を構築する」ステップは、具体的には以下のステップを含み得る。
(61)各第1熱値がプリセット条件を満たすか否かを検出する。
(62)複数の第1特徴点から、プリセット条件を満たす第1特徴点を選択して、第1基準点を取得する。
(63)第1基準点に対応する人体属性の第1基準領域を構築する。
(64)第1基準点に対応する第2特徴点を取得して、第2基準点を取得する。
(65)第2基準点に対応する人体属性の第2基準領域を構築する。
(66)第2基準領域に対してミラーリング処理を実行して、処理された第2基準領域を取得する。
(67)処理された第2基準領域を介して第1基準領域のサイズを調整して、人体属性の注目領域を取得する。
各タイプの人体属性の注目領域を決定した後、ステップ105を実行し、ステップ103及びステップ104の優先順位に対して限定しないことに留意されたい。
ステップ105において、注目領域、人体属性の実の値及び人体属性の予測値を利用して、認識モデルを補正する。
本願において、クラス活性化マップを補正する考えは、次の通りである:一枚の人体画像Cの特定の人体属性の場合、人体画像Cによって出力されたクラス活性化関数は、ミラーリング処理後の人体画像Cによって出力されたクラス活性化関数と等しく、即ち、CAM(C)=CAM(F(C))である。
ここで、CAM(C)は、人体画像Cのクラス活性化関数を表し、CAM(F(C))は、F関数を介して人体画像Cをミラーリング処理した後、ミラーリング処理後の人体画像Cのクラス活性化関数であり、つまり、注目領域の対応する損失関数Lcamは、以下の通りである。
Figure 0007286010000002
更に、人体属性の実の値及び人体属性の予測値に従って、認識モデルの損失関数を計算し、計算された損失関数及び注目領域の対応する損失関数に基づいて、認識モデルを補正する。即ち、いくつかの実施例において、「注目領域、人体属性の実の値及び人体属性の予測値を利用して、認識モデルを補正する」ステップは、具体的には以下のステップを含み得る。
(71)人体属性の実の値及び人体属性の予測値に基づいて、認識モデルの損失関数を計算して、第1損失関数を取得する。
(72)認識モデルを介して、注目領域に対応する損失関数を取得して、第2損失関数を取得する。
(73)第1損失関数を第2損失関数と重ね合わせて、認識モデルのターゲット損失関数を取得する。
(74)ターゲット損失関数を介して認識モデルを補正する。
例えば、具体的に、人体属性の実の値及び人体属性の予測値に基づいて、認識モデルの損失関数を計算して、第1損失関数を取得し、当該第1損失関数は、以下の式で表すことができる。
Figure 0007286010000003
ここで、Kは、注目領域の数を表し、Jは、人体属性のカテゴリを表し、ukjは、人体属性の実の値であり、k番目の注目領域がj番目の人体属性に属する実の確率を表すために使用され、Xkjは、人体属性の予測値であり、k番目の注目領域がj番目の人体属性に属する予測確率を表すために使用され、eは、自然定数であり、最終的なターゲット損失関数は、第1損失関数と第2損失関数との合計と等しく、即ち、L=Lcam+Lpredである。
ステップ106において、補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行する。
例えば、具体的に、補正された認識モデルを介して、認識対象となる画像に対して人体属性認識を実行して、当該認識対象となる画像内の認識対象となる人体の人体属性認識結果を取得し、例えば、認識対象となる人体の人体属性が、白いシャツ、青いズボン及び黒い靴などであることを認識することができる。具体的には、認識対象となる人体を含む認識対象となる画像に対して人体特徴点認識を実行して、認識対象となる人体に対応する14個の特徴点を取得し、その後、この14個の特徴点に基づいて、認識対象となる人体に対して領域分割を実行して、認識対象となる人体に対応する複数の検出対象となる領域を取得し、最後に、複数の検出対象となる領域に基づいて、補正された認識モデルを介して、認識対象となる画像に対して人体属性認識を実行することができる。即ち、いくつかの実施例において、「補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行する」ステップは、具体的には以下のステップを含み得る。
(81)認識対象となる人体を含む認識対象となる画像を取得する。
(82)認識対象となる画像に対して人体特徴点認識を実行して、認識対象となる人体に対応する第1特徴点セットを取得する。
(83)第1特徴点セットに基づいて、認識対象となる人体に対して領域分割を実行して、認識対象となる人体に対応する複数の検出対象となる領域を取得する。
(84)補正された認識モデルを介して、複数の検出対象となる領域に対してそれぞれ人体属性認識を実行する。
本願実施例は、複数の検出領域を含む人体画像サンプルを取得した後、検出領域には、人体属性の実の値がラベル付けされており、認識モデルを介して人体画像サンプルの熱画像及び検出対象となる領域の熱画像を生成して、人体画像サンプルに対応するグローバル熱画像及びローカル熱画像を取得し、その後、グローバル熱画像及びローカル熱画像を融合し、融合された画像に対して人体属性認識を実行して、人体画像サンプルの人体属性の予測値を取得し、次に、グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性の注目領域を決定し、その後、注目領域、人体属性の実の値及び人体属性の予測値を利用して、前記認識モデルを補正し、最後に、補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行する。当該技術案は、注目領域、人体属性の実の値及び人体属性の予測値を利用して、認識モデルを補正し、補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行することであるため、つまり、人体属性認識を実行するとき、各タイプの人体属性の注目領域を考慮するため、各属性が注目すべき領域をよりよく注目できるようにし、それにより、人体属性認識の精度を向上させる。
実施例に記載の人体属性の認識方法に従って、以下は、例を挙げてさらに詳細に説明する。
本実施例において、当該人体属性の認識装置が具体的に端末に統合されたことを例として説明する。
図2Aを参照すると、人体属性の認識方法は、図4に示された電子機器が実行し、具体的なプロセスは、以下の通りであり得る。
ステップ201において、端末が、複数の検出領域を含む人体画像サンプルを取得する。
ここで、当該人体画像サンプルは、サンプル人体の画像であり、且つ、当該検出領域には、人体属性の実の値がラベル付けされており、当該人体画像サンプルはローカルに事前に保存されたものであってもよいし、ネットワークインターフェースをアクセスして得られたものであってもよいし、カメラによってリアルタイムで撮影されたものであってもよく、具体的には、実際の状況によって決定される。
ステップ202において、端末が、認識モデルを介して、人体画像サンプルの熱画像及び検出対象となる領域の熱画像を生成して、人体画像サンプルに対応するグローバル熱画像及びローカル熱画像を取得する。
ここで、端末は、認識モデル内の人体特徴認識サブネットワークを介して、人体画像サンプル及び検出対象となる領域に対して特徴抽出を実行して、人体画像サンプルに対応するグローバル熱画像及び検出対象となる領域に対応するローカル熱画像を取得することができる。
ステップ203において、端末が、グローバル熱画像及びローカル熱画像を融合し、融合された画像に対して人体属性認識を実行して、人体画像サンプルの人体属性の予測値を取得する。
ここで、端末は、グローバル熱画像のサイズ及びローカル熱画像のサイズをプリセットサイズにそれぞれ圧縮することができ、その後、圧縮されたグローバル熱画像を圧縮されたローカル熱画像と繋ぎ合わせて、融合された画像を取得し、認識モデルに基づいて、融合された画像に対して人体属性認識を実行して、人体画像サンプルの人体属性の予測値を取得し、ここで、当該人体属性の予測値は、人体画像サンプル内の各画素点が人体に属する確率である。
ステップ204において、端末が、グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性の注目領域を決定する。
例えば、端末が認識しようとする人体属性が黒髪属性であると、認識モデルが注目すべき領域は人体の頭部領域であり、つまり、頭部領域は黒髪属性に対応する注目領域であり、さらに例えば、端末が認識しようとする人体属性が白服属性及び青靴属性であると、認識モデルが注目すべき領域は人体の胴体領域及び人体の下肢領域であるため、グローバル熱画像及びローカル熱画像を介して、各タイプの人体属性の注目領域を決定することができる。
ステップ205において、端末が、注目領域、人体属性の実の値及び人体属性の予測値を利用して、認識モデルを補正する。
例えば、端末は、人体属性の実の値及び人体属性の予測値に従って、認識モデルに対応する損失関数を計算して、第1損失関数を取得し、同時に、端末は、注目領域の対応する損失関数を取得して、第2損失関数を取得し、その後、端末は、第1損失関数を第2損失関数と重ね合わせて、認識モデルのターゲット損失関数を取得し、最後に、端末は、ターゲット損失関数を介して、認識モデルを補正する。
ステップ206において、端末が、補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行する。
例えば、具体的に、端末は、補正された認識モデルを介して、認識対象となる画像に対して人体属性認識を実行して、当該認識対象となる画像内の認識対象となる人体の人体属性認識結果を取得し、例えば、認識対象となる人体の人体属性が、白いシャツ、青いズボン及び黒い靴などであることを認識することができる。具体的には、認識対象となる人体を含む認識対象となる画像に対して人体特徴点認識を実行して、認識対象となる人体に対応する14個の特徴点を取得し、その後、この14個の特徴点に基づいて、認識対象となる人体に対して領域分割を実行して、認識対象となる人体に対応する複数の検出対象となる領域を取得し、最後に、複数の検出対象となる領域に基づいて、補正された認識モデルを介して、認識対象となる画像に対して人体属性認識を実行することができる。
本願実施例の端末は、複数の検出領域を含む人体画像サンプルを取得した後、検出領域には、人体属性の実の値がラベル付けされており、端末は、認識モデルを介して人体画像サンプルの熱画像及び検出対象となる領域の熱画像を生成して、人体画像サンプルに対応するグローバル熱画像及びローカル熱画像を取得し、その後、端末は、グローバル熱画像及びローカル熱画像を融合し、融合された画像に対して人体属性認識を実行して、人体画像サンプルの人体属性の予測値を取得し、次に、端末は、グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性の注目領域を決定し、その後、端末は、注目領域、人体属性の実の値及び人体属性の予測値を利用して、前記認識モデルを補正し、最後に、端末は、補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行する。本願の端末は、注目領域、人体属性の実の値及び人体属性の予測値を利用して、認識モデルを補正し、補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行することであるため、つまり、端末は、人体属性認識を実行するとき、各タイプの人体属性の注目領域を考慮して、各属性に、自分が注目すべき領域をよりよく注目できるようにし、それにより、人体属性認識の精度を向上させる。
本願実施例による人体属性の認識方法を理解し易くするために、監視シナリオを例として、当該シナリオは、監視機器及び監視機器に接続された端末を含み得、トレーニング段階では、端末は、監視機器によってアップロードされた複数の画像を受信し、複数の画像から、モデルのトレーニングのためのサンプル人体を含む人体画像サンプルを選択することができ、次に、端末は、人体画像サンプルに対して人体属性の実の値をラベル付けすることができ、さらに、端末は、人体画像サンプルに対して人体キーポイント検出を実行して、サンプル人体に対応する14個のキーポイントを取得し、この14個のキーポイントを利用してサンプル人体に対して領域分割を実行して、サンプル人体に対応する頭部領域、上半身領域及び下半身領域を取得することができ、端末は、当該人体画像サンプルを認識モデルに入力して、人体画像サンプルに対応するグローバル熱画像、及び分割して得られた領域に対応するローカル熱画像を取得し、その後、端末は、各ローカル画像で注目している人体属性に従って、各ローカル画像に対応する重み行列を生成し、特徴ベクトルと各重み行列との乗積をそれぞれ計算して、各タイプの人体属性に対応するクラス活性化マップを取得する。図2Bに示されたように、異なる人体属性が注目すべき領域は異なることを理解されたい。例えば、帽子スタイルを認識するために、注目すべき領域は注目領域Aであり、注目領域Bの人体属性及び注目領域Cの人体属性を認識する必要がなく、同時に、端末は、グローバル熱画像及びローカル熱画像を融合し、融合された画像に対して人体属性認識を実行して、人体画像サンプルの人体属性の予測値を取得することができ、次に、端末は、グローバル熱画像及びローカル熱画像に対してそれぞれミラーリング処理を実行して、処理されたグローバル熱画像及び処理されたローカル熱画像を取得し、処理されたグローバル熱画像及び処理されたローカル熱画像に基づいて、各タイプの人体属性に対応するミラーリング処理後のクラス活性化マップを生成し、その後、端末は、ミラーリング処理後のクラス活性化マップを介して、クラス活性化マップを調整して、調整結果を取得し、図2Cに示されたように、さらにその後、端末は調整結果、人体属性の実の値及び人体属性の予測値に基づいて、認識モデルを補正し、最後に、端末は、補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行し、図2Dに示されたように、端末のディスプレイスクリーンで認識結果に対応するページを表示することができる。
本願実施例の人体属性の認識方法をよりよく実施するために、本願実施例は、さらに、上記の方法に基づく人体属性の認識装置(認識装置と略称する)を提供する。ここでの用語の意味は、上記の人体属性の認識方法における意味と同じであり、実現に関する具体的な詳細は、方法実施例における説明を参照することができる。
図3を参照すると、図3は、本願実施例による人体属性の認識装置の例示的な構造図であり、ここで、当該認識装置は、取得モジュール301、生成モジュール302、融合モジュール303、決定モジュール304、補正モジュール305及び認識モジュール306を備えることができ、具体的には、以下の通りである。
取得モジュール301は、複数の検出領域を含む人体画像サンプルを取得するように構成される。
ここで、当該人体画像サンプルはサンプル人体の画像であり、且つ、当該検出領域には、人体属性の実の値がラベル付けされており、当該人体画像サンプルはローカルに事前に保存されたものであってもよいし、ネットワークインターフェースをアクセスして得られたものであってもよいし、カメラによってリアルタイムで撮影されたものであってもよく、具体的には、実際の状況によって決定される。
いくつかの実施例において、取得モジュール301は、具体的に、サンプル人体を含む人体画像サンプルを取得し、人体画像サンプルに対して人体特徴点認識を実行して、サンプル人体に対応する第2特徴点セットを取得し、第2特徴点セットに基づいて、サンプル人体に対して領域分割を実行して、サンプル人体に対応する複数の検出領域を取得するように構成される。
生成モジュール302は、認識モデルを介して前記人体画像サンプルの熱画像及び検出対象となる領域の熱画像を生成して、人体画像サンプルに対応するグローバル熱画像及びローカル熱画像を取得するように構成される。
ここで、生成モジュール302は、認識モデル内の人体特徴認識サブネットワークを介して、人体画像サンプル及び検出対象となる領域に対して特徴抽出を実行して、人体画像サンプルに対応するグローバル熱画像及び検出対象となる領域に対応するローカル熱画像を取得することができる。
融合モジュール303は、グローバル熱画像及びローカル熱画像を融合し、融合された画像に対して人体属性認識を実行して、人体画像サンプルの人体属性の予測値を取得するように構成される。
例えば、融合モジュール303は、グローバル熱画像のサイズ及びローカル熱画像のサイズをプリセットサイズにそれぞれ圧縮することができ、その後、圧縮されたグローバル熱画像を圧縮されたローカル熱画像と繋ぎ合わせて、融合された画像を取得し、認識モデルに基づいて、融合された画像に対して人体属性認識を実行して、人体画像サンプルの人体属性の予測値を取得し、ここで、当該人体属性の予測値は、人体画像サンプル内の各画素点が人体に属する確率である。
決定モジュール304は、グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性の注目領域を決定するように構成される。
いくつかの実施例において、決定モジュール304は、具体的に、
グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性に対応するクラス活性化マップを生成するように構成される、生成サブモジュールと、
クラス活性化マップを補正し、補正結果に基づいて各タイプの人体属性の注目領域を決定するように構成される、補正モジュールと、を備えることができる。
いくつかの実施例において、生成サブモジュールは、具体的に、
グローバル熱画像及びローカル熱画像に対してそれぞれミラーリング処理を実行して、処理されたグローバル熱画像及び処理されたローカル熱画像を取得するように構成される、処理ユニットと、
処理されたグローバル熱画像及び処理されたローカル熱画像に基づいて、各タイプの人体属性のミラーリング処理されたクラス活性化マップを生成するように構成される、生成ユニットと、
クラス活性化マップ及びミラーリング処理されたクラス活性化マップに従って、各タイプの人体属性の注目領域を決定するように構成される、決定ユニットと、を備えることができる。
いくつかの実施例において、決定ユニットは、具体的に、
クラス活性化マップの特徴点及びミラーリング処理されたクラス活性化マップの特徴点をそれぞれ取得して、クラス活性化マップに対応する複数の第1特徴点及びミラーリング処理されたクラス活性化マップに対応する複数の第2特徴点を取得するように構成される、取得サブユニットであって、各第1特徴点は、1つの第2特徴点に対応する、取得サブユニットと、
第1特徴点の熱値を抽出して、第1特徴点に対応する第1熱値を取得し、第2特徴点の熱値を抽出して、第2特徴点に対応する第2熱値を取得するように構成される、抽出サブユニットと、
前記第1熱値及び第2熱値に基づいて、各タイプの人体属性の注目領域を構築するように構成される、構築サブユニットと、を備えることができる。
いくつかの実施例において、構築サブユニットは、具体的に、各第1熱値がプリセット条件を満たすか否かを検出し、複数の第1特徴点からプリセット条件を満たす第1特徴点を選択して、第1基準点を取得し、第1基準点に対応する人体属性の第1基準領域を構築し、第1基準点に対応する第2特徴点を取得して、第2基準点を取得し、第2基準点に対応する人体属性の第2基準領域を構築し、第2基準領域に対してミラーリング処理を実行して、処理された第2基準領域を取得し、処理された第2基準領域を介して、第1基準領域に対してサイズ調整を実行して、人体属性の注目領域を取得するように構成されることができる。
いくつかの実施例において、生成サブモジュールは、具体的に、グローバル熱画像に対してベクトル化処理を実行して、グローバル熱画像に対応する特徴ベクトルを取得し、グローバル熱画像における各ローカル熱画像の分布に基づいて、各ローカル画像で注目している人体属性を決定し、各ローカル画像で注目している人体属性に従って、各ローカル画像に対応する重み行列を生成し、特徴ベクトルと各重み行列との乗積をそれぞれ計算して、各タイプの人体属性に対応するクラス活性化マップを取得するように構成されることができる。
補正モジュール305は、注目領域、人体属性の実の値及び人体属性の予測値を利用して、前記認識モデルを補正するように構成される。
いくつかの実施例において、補正モジュールは、具体的に、人体属性の実の値及び人体属性の予測値に基づいて認識モデルの損失関数を計算して、第1損失関数を取得し、認識モデルを介して、注目領域に対応する損失関数を取得して、第2損失関数を取得し、第1損失関数を第2損失関数と重ね合わせて、認識モデルのターゲット損失関数を取得し、ターゲット損失関数を介して認識モデルを補正するように構成されることができる。
認識モジュール306は、補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行するように構成される。
例えば、具体的には、認識モジュール306は、補正された認識モデルを介して、認識対象となる画像に対して人体属性認識を実行して、当該認識対象となる画像内の認識対象となる人体の人体属性認識結果を取得する。
いくつかの実施例において、認識モジュール306は、具体的に、認識対象となる人体を含む認識対象となる画像を取得し、認識対象となる画像に対して人体特徴点認識を実行して、認識対象となる人体に対応する第1特徴点セットを取得し、第1特徴点セットに基づいて、認識対象となる人体に対して領域分割を実行して、認識対象となる人体に対応する複数の検出対象となる領域を取得し、補正された認識モデルを介して、複数の検出対象となる領域に対してそれぞれ人体属性認識を実行するように構成されることができる。
本願実施例は、取得モジュール301が複数の検出領域を含む人体画像サンプルを取得した後、検出領域には、人体属性の実の値がラベル付けされており、生成モジュール302は、認識モデルを介して人体画像サンプルの熱画像及び検出対象となる領域の熱画像を生成して、人体画像サンプルに対応するグローバル熱画像及びローカル熱画像を取得し、その後、融合モジュール303は、グローバル熱画像及びローカル熱画像を融合し、融合された画像に対して人体属性認識を実行して、人体画像サンプルの人体属性の予測値を取得し、次に、決定モジュール304は、グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性の注目領域を決定し、その後、補正モジュール305は、注目領域、人体属性の実の値及び人体属性の予測値を利用して、前記認識モデルを補正し、最後に、認識モジュール306は、補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行する。当該技術案の補正モジュール305は、注目領域、人体属性の実の値及び人体属性の予測値を利用して、認識モデルを補正し、認識モジュール306が、補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行することであるため、つまり、人体属性認識を実行するとき、各タイプの人体属性の注目領域を考慮して、各属性に、自分が注目すべき領域をよりよく注目できるようにし、それにより、人体属性認識の精度を向上させる。
さらに、本願実施例は、電子機器を提供し、図4に示されたように、本願実施例に関する電子機器の例示的な構造図を示し、具体的には、
当該電子機器は、コアを処理する1つ又は1つ以上のプロセッサ401、1つ又は1つ以上のコンピュータ可読記憶媒体のメモリ402、電源403及び入力ユニット404などの部品を備えることができる。当業者なら自明であるが、図4で示された電子機器の構造は、電子機器への限定を構成するものではなく、図示されたものよりも多いまたは少ないコンポーネントを備えるか、または一部の部品を組み合わせるか、または異なるコンポーネント配置を有することができる。ここで、
プロセッサ401は、当該電子機器の制御センタであり、様々なインターフェース及び回線を使用して電子機器全体の各部分を接続し、メモリ402に記憶されたソフトウェアプログラム及び/又はモジュールを実行し、メモリ402内に記憶されたデータを呼び出すことにより、電子機器の各種機能及びデータ処理を実行し、それにより、電子機器の全体的な監視を実行する。プロセッサ401は、1つ又は複数の処理コアを備えることができ、プロセッサ401は、アプリケーションプロセッサとモデムプロセッサを統合することができ、ここで、アプリケーションプロセッサは、主に、オペレーティングシステム、ユーザインターフェース、及びアプリケーションなどを処理し、モデムプロセッサは、主に、無線通信を処理する。前記モデムプロセッサは、プロセッサ401に統合されない場合があることを理解されたい。
メモリ402は、ソフトウェアプログラムやモジュールを記憶するように構成でき、プロセッサ401は、メモリ402に記憶されたソフトウェアプログラムやモジュールを実行することによって、様々な機能アプリケーション及びデータ処理を実行する。メモリ402は、プログラム記憶領域及びデータ記憶領域を含み得、ここで、プログラム記憶領域は、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーション(例えば、音声再生機能、画像再生機能など)を記憶することができる。データ記憶領域は、電子機器の使用に基づいて作成されたデータなどを記憶することができる。更に、メモリ402は、高速ランダムアクセスメモリを含んでもよく、不揮発性メモリ(例えば、少なくとも1つのディスクメモリ、フラッシュメモリ、又は他の不揮発性固体メモリなど)を備えてもよい。それに対応して、メモリ402に対するプロセッサ401のアクセスを提供するために、メモリ402は、さらに、メモリコントローラを含み得る。
電子機器は、更に、各コンポーネントに電力を供給するための電源403を備え、電源403は、電力管理システムを介してプロセッサ401に論理的に接続でき、それにより、電力管理システムにより、充電、放電、及び消費電力管理などの機能を管理することを実現する。電源403は、更に、1つ又は1つ以上の直流又は交流電源、再充電システム、電源故障検出回路、電源コンバータ又はインバータ、電源状態指示器などの任意のコンポーネントを備えることができる。
当該電子機器は、さらに、入力ユニット404を備え、当該入力ユニット404は、入力されたデジタル又は文字情報を受信し、携帯電話のユーザ設定及び機能制御に関連するキーボード、マウス、ジョイスティック、光学又はトラックボール信号入力を受信するように構成されることができる。
未図示であるが、電子機器は、さらに、ディスプレイユニットなどを備えることができ、ここでは詳細に説明しない。具体的には、本実施例において、電子機器内のプロセッサ401は、以下の命令に従って、1つ又は1つ以上のアプリケーションプログラムのプロセスに対応する実行可能なファイルをメモリ402にロードし、プロセッサ401によって、メモリ402に記憶されたアプリケーションプログラムを実行して、様々な機能を実現する。
複数の検出領域を含む人体画像サンプルを取得し、検出領域には、人体属性の実の値がラベル付けされており、認識モデルを介して人体画像サンプルの熱画像及び検出対象となる領域の熱画像を生成して、人体画像サンプルに対応するグローバル熱画像及びローカル熱画像を取得し、グローバル熱画像及びローカル熱画像を融合し、融合された画像に対して人体属性認識を実行して、人体画像サンプルの人体属性の予測値を取得し、グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性の注目領域を決定し、注目領域、人体属性の実の値及び人体属性の予測値を利用して、前記認識モデルを補正し、補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行する。
以上の各動作の具体的な実施は、上記の実施例を参照でき、ここでは繰り返して説明しない。
本願実施例は、複数の検出領域を含む人体画像サンプルを取得した後、検出領域には、人体属性の実の値がラベル付けされており、認識モデルを介して人体画像サンプルの熱画像及び検出対象となる領域の熱画像を生成して、人体画像サンプルに対応するグローバル熱画像及びローカル熱画像を取得し、その後、グローバル熱画像及びローカル熱画像を融合し、融合された画像に対して人体属性認識を実行して、人体画像サンプルの人体属性の予測値を取得し、次に、グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性の注目領域を決定し、その後、注目領域、人体属性の実の値及び人体属性の予測値を利用して、認識モデルを補正し、最後に、補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行する。当該技術案は、注目領域、人体属性の実の値及び人体属性の予測値を利用して、認識モデルを補正し、補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行することであるため、つまり、人体属性認識を実行するとき、各タイプの人体属性の注目領域を考慮して、各属性に、自分が注目すべき領域をよりよく注目できるようにし、それにより、人体属性認識の精度を向上させる。
上記の実施例の様々な方法におけるステップの全部又は一部は、命令することにより完了することができ、又は制御に関連するハードウェアを命令することにより完了することができ、当該命令は、1つのコンピュータ可読記憶媒体に記憶され、プロセッサによってロードし実行されることができることを当業者なら理解できる。
本願の一態様によれば、コンピュータ命令を含む、コンピュータプログラム製品またはコンピュータプログラムを提供し、当該コンピュータ命令は、コンピュータ可読記憶媒体に記憶される。電子機器のプロセッサは、コンピュータ可読記憶媒体から当該コンピュータ命令を読み取り、プロセッサは当該コンピュータ命令を実行して、当該電子機器に上記の実施例による人体属性の認識方法を実行させる。
本願実施例は、さらに、複数の命令が記憶された、記憶媒体を提供し、本願実施例による任意の1つの人体属性の認識方法におけるステップを実行するために、当該命令はプロセッサによってロードされることができる。例えば、当該命令は、以下のステップを実行することができる。
複数の検出領域を含む人体画像サンプルを取得し、検出領域には、人体属性の実の値がラベル付けされており、認識モデルを介して人体画像サンプルの熱画像及び検出対象となる領域の熱画像を生成して、人体画像サンプルに対応するグローバル熱画像及びローカル熱画像を取得し、グローバル熱画像及びローカル熱画像を融合し、融合された画像に対して人体属性認識を実行して、人体画像サンプルの人体属性の予測値を取得し、グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性の注目領域を決定し、注目領域、人体属性の実の値及び人体属性の予測値を利用して、前記認識モデルを補正し、補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行する。
以上の各動作の具体的な実施は、上記の実施例を参照でき、ここでは繰り返して説明しない。
ここで、当該記憶媒体は、読み取り専用メモリ(ROM:Read Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気ディスク又は光ディスクなどを含み得る。
当該記憶媒体に記憶された命令は、本願実施例による任意の1つの人体属性の認識方法におけるステップを実行することができるため、本願実施例による任意の1つの人体属性の認識方法によって実現できる有益な効果を実現することができ、詳細は上記の実施例を参照でき、ここでは繰り返して説明しない。
本願実施例は、複数の検出領域を含む人体画像サンプルを取得した後、前記検出領域には、人体属性の実の値がラベル付けされており、認識モデルを介して前記人体画像サンプルの熱画像及び検出対象となる領域の熱画像を生成して、人体画像サンプルに対応するグローバル熱画像及びローカル熱画像を取得し、その後、前記グローバル熱画像及びローカル熱画像を融合し、融合された画像に対して人体属性認識を実行して、人体画像サンプルの人体属性の予測値を取得し、次に、前記グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性の注目領域を決定し、その後、前記注目領域、人体属性の実の値及び人体属性の予測値を利用して、前記認識モデルを補正し、最後に、補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行する。したがって、当該技術案は、人体属性認識の精度を効果的に向上させることができる。
以上は、本願実施例による人体属性の認識方法、端末、装置、電子機器及び記憶媒体を詳細に紹介しており、本明細書には、具体的な例を応用して本願の原理および実施形態を説明したが、上述した実施例の説明は、単に本願の方法およびその本旨の理解のためのものである。同時に、当業者に対して、本願の精神に従って、具体的な実施形態および適用範囲には全て変更される部分がある。まとめると、本明細書の内容は、本願の制限として解釈されるべきではない。
301 取得モジュール
302 生成モジュール
303 融合モジュール
304 決定モジュール
305 補正モジュール
306 認識モジュール
401 プロセッサ
402 メモリ
403 電源
404 入力ユニット

Claims (12)

  1. 電子機器が実行する、人体属性の認識方法であって、
    複数の検出領域を含む人体画像サンプルを取得するステップであって、前記検出領域には、人体属性の実の値がラベル付けされている、ステップと、
    認識モデルを介して前記人体画像サンプルの熱画像及び検出対象となる領域の熱画像を生成して、人体画像サンプルに対応するグローバル熱画像及びローカル熱画像を取得する、ステップと、
    前記グローバル熱画像及びローカル熱画像を融合し、融合された画像に対して人体属性認識を実行して、人体画像サンプルの人体属性の予測値を取得する、ステップと、
    前記グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性の注目領域を決定する、ステップと、
    前記注目領域、人体属性の実の値及び人体属性の予測値を利用して、前記認識モデルを補正する、ステップと、
    補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行する、ステップと、
    を含む、人体属性の認識方法。
  2. 前記グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性の注目領域を決定する、前記ステップは、
    前記グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性に対応するクラス活性化マップを生成する、ステップと、
    前記クラス活性化マップを補正し、補正結果に基づいて各タイプの人体属性の注目領域を決定する、ステップと、
    を含む、請求項1に記載の人体属性の認識方法。
  3. 前記クラス活性化マップを補正し、補正結果に基づいて各タイプの人体属性の注目領域を決定する、前記ステップは、
    前記グローバル熱画像及びローカル熱画像に対してそれぞれミラーリング処理を実行して、処理されたグローバル熱画像及び処理されたローカル熱画像を取得する、ステップと、
    処理されたグローバル熱画像及び処理されたローカル熱画像に基づいて、各タイプの人体属性のミラーリング処理後のクラス活性化マップを生成する、ステップと、
    前記クラス活性化マップ及びミラーリング処理後のクラス活性化マップに従って、各タイプの人体属性の注目領域を決定する、ステップと、
    を含む、請求項2に記載の人体属性の認識方法。
  4. 前記クラス活性化マップ及びミラーリング処理後のクラス活性化マップに従って、各タイプの人体属性の注目領域を決定する、前記ステップは、
    クラス活性化マップの特徴点及びミラーリング処理後のクラス活性化マップの特徴点をそれぞれ取得して、前記クラス活性化マップに対応する複数の第1特徴点及びミラーリング処理後のクラス活性化マップに対応する複数の第2特徴点を取得するステップであって、各第1特徴点は、1つの第2特徴点に対応する、ステップと、
    第1特徴点の熱値を抽出して、第1特徴点に対応する第1熱値を取得する、ステップと、
    第2特徴点の熱値を抽出して、第2特徴点に対応する第2熱値を取得する、ステップと、
    前記第1熱値及び第2熱値に基づいて、各タイプの人体属性の注目領域を構築する、ステップと、
    を含む、請求項3に記載の人体属性の認識方法。
  5. 前記第1熱値及び第2熱値に基づいて、各タイプの人体属性の注目領域を構築する、前記ステップは、
    各第1熱値がプリセット条件を満たすか否かを検出する、ステップと、
    複数の第1特徴点から、プリセット条件を満たす第1特徴点を選択して、第1基準点を取得する、ステップと、
    第1基準点に対応する人体属性の第1基準領域を構築する、ステップと、
    前記第1基準点に対応する第2特徴点を取得して、第2基準点を取得する、ステップと、
    第2基準点に対応する人体属性の第2基準領域を構築する、ステップと、
    前記第2基準領域に対してミラーリング処理を実行して、処理された第2基準領域を取得する、ステップと、
    処理された第2基準領域を介して第1基準領域のサイズを調整して、人体属性の注目領域を取得する、ステップと、
    を含む、請求項4に記載の人体属性の認識方法。
  6. 前記グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性に対応するクラス活性化マップを生成する、前記ステップは、
    前記グローバル熱画像に対してベクトル化処理を実行して、前記グローバル熱画像に対応する特徴ベクトルを取得する、ステップと、
    前記グローバル熱画像における各ローカル熱画像の分布に基づいて、各ローカル画像で注目している人体属性を決定する、ステップと、
    各ローカル画像で注目している人体属性に従って、各ローカル画像に対応する重み行列を生成する、ステップと、
    前記特徴ベクトルと各重み行列との乗積をそれぞれ計算して、各タイプの人体属性に対応するクラス活性化マップを取得する、ステップと、
    を含む、請求項2に記載の人体属性の認識方法。
  7. 前記注目領域、人体属性の実の値及び人体属性の予測値を利用して、前記認識モデルを補正する、前記ステップは、
    前記人体属性の実の値及び人体属性の予測値に基づいて、前記認識モデルの損失関数を計算して、第1損失関数を取得する、ステップと、
    前記認識モデルを介して、前記注目領域に対応する損失関数を取得して、第2損失関数を取得する、ステップと、
    前記第1損失関数を第2損失関数と重ね合わせて、前記認識モデルのターゲット損失関数を取得する、ステップと、
    前記ターゲット損失関数を介して前記認識モデルを補正する、ステップと、
    を含む、請求項1ないし6のいずれか一項に記載の人体属性の認識方法。
  8. 補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行する、前記ステップは、
    認識対象となる人体を含む認識対象となる画像を取得する、ステップと、
    前記認識対象となる画像に対して人体特徴点認識を実行して、前記認識対象となる人体に対応する第1特徴点セットを取得する、ステップと、
    前記第1特徴点セットに基づいて、前記認識対象となる人体に対して領域分割を実行して、前記認識対象となる人体に対応する複数の検出対象となる領域を取得する、ステップと、
    補正された認識モデルを介して、複数の検出対象となる領域に対してそれぞれ人体属性認識を実行する、ステップと、
    を含む、請求項1ないし6のいずれか一項に記載の人体属性の認識方法。
  9. 複数の検出領域を含む人体画像サンプルを取得する、前記ステップは、
    サンプル人体を含む人体画像サンプルを取得する、ステップと、
    前記人体画像サンプルに対して人体特徴点認識を実行して、前記サンプル人体に対応する第2特徴点セットを取得する、ステップと、
    前記第2特徴点セットに基づいて、前記サンプル人体に対して領域分割を実行して、前記サンプル人体に対応する複数の検出領域を取得する、ステップと、
    を含む、請求項1ないし6のいずれか一項に記載の人体属性の認識方法。
  10. 人体属性の認識装置であって、
    複数の検出領域を含む人体画像サンプルを取得するスように構成される、取得モジュールであって、前記検出領域には、人体属性の実の値がラベル付けされている、取得モジュールと、
    認識モデルを介して前記人体画像サンプルの熱画像及び検出対象となる領域の熱画像を生成して、人体画像サンプルに対応するグローバル熱画像及びローカル熱画像を取得するように構成される、生成モジュールと、
    前記グローバル熱画像及びローカル熱画像を融合し、融合された画像に対して人体属性認識を実行して、人体画像サンプルの人体属性の予測値を取得するように構成される、融合モジュールと、
    前記グローバル熱画像及びローカル熱画像に従って、各タイプの人体属性の注目領域を決定するように構成される、決定モジュールと、
    前記注目領域、人体属性の実の値及び人体属性の予測値を利用して、前記認識モデルを補正するように構成される、補正モジュールと、
    補正された認識モデルに基づいて、認識対象となる画像に対して人体属性認識を実行するように構成される、認識モジュールと、
    を備える、人体属性の認識装置。
  11. メモリ、プロセッサおよびメモリに記憶され、且つプロセッサで実行可能なコンピュータプログラムを備える、電子機器であって、前記プロセッサが前記プログラムを実行するとき、請求項1ないし9のいずれか一項に記載の人体属性の認識方法のステップを実現する、電子機器。
  12. コンピュータプログラムであって、
    コンピュータに、請求項1ないし9のいずれか一項に記載の人体属性の認識方法のステップを実行させる、コンピュータプログラム。
JP2022517445A 2019-12-11 2020-09-24 人体属性の認識方法、装置、電子機器及びコンピュータプログラム Active JP7286010B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911268088.4A CN110991380A (zh) 2019-12-11 2019-12-11 人体属性识别方法、装置、电子设备以及存储介质
CN201911268088.4 2019-12-11
PCT/CN2020/117441 WO2021114814A1 (zh) 2019-12-11 2020-09-24 人体属性识别方法、装置、电子设备以及存储介质

Publications (2)

Publication Number Publication Date
JP2022548915A JP2022548915A (ja) 2022-11-22
JP7286010B2 true JP7286010B2 (ja) 2023-06-02

Family

ID=70092482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022517445A Active JP7286010B2 (ja) 2019-12-11 2020-09-24 人体属性の認識方法、装置、電子機器及びコンピュータプログラム

Country Status (6)

Country Link
US (1) US11710335B2 (ja)
EP (1) EP3989112A4 (ja)
JP (1) JP7286010B2 (ja)
KR (1) KR20220020986A (ja)
CN (1) CN110991380A (ja)
WO (1) WO2021114814A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110991380A (zh) * 2019-12-11 2020-04-10 腾讯科技(深圳)有限公司 人体属性识别方法、装置、电子设备以及存储介质
CN111783619B (zh) * 2020-06-29 2023-08-11 北京百度网讯科技有限公司 人体属性的识别方法、装置、设备及存储介质
CN111931567B (zh) * 2020-07-01 2024-05-28 珠海大横琴科技发展有限公司 人体识别的方法及装置、电子设备、存储介质
CN112084953B (zh) * 2020-09-10 2024-05-10 济南博观智能科技有限公司 一种人脸属性识别的方法、系统、设备及可读存储介质
CN112633119A (zh) * 2020-12-17 2021-04-09 北京赢识科技有限公司 一种人体属性识别方法、装置、电子设备及介质
CN112784810B (zh) * 2021-02-08 2024-06-14 风变科技(深圳)有限公司 手势识别方法、装置、计算机设备和存储介质
CN113095300A (zh) * 2021-05-13 2021-07-09 华南理工大学 一种融合人种信息的年龄预测方法及其系统
CN113706463B (zh) * 2021-07-22 2024-04-26 杭州键嘉医疗科技股份有限公司 基于深度学习的关节影像关键点自动检测方法、装置
CN113657487A (zh) * 2021-08-16 2021-11-16 深圳多模智能科技有限公司 一种基于增量学习的人体属性分类方法及装置
CN114627470B (zh) * 2022-05-16 2022-08-05 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012053311A1 (ja) 2010-10-22 2012-04-26 Necソフト株式会社 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム
JP2013242825A (ja) 2012-05-23 2013-12-05 Panasonic Corp 人物属性推定システム、及び学習用データ生成装置
JP2014157316A (ja) 2013-02-18 2014-08-28 Ricoh Co Ltd プロジェクタ装置
JP2014220555A (ja) 2013-05-01 2014-11-20 Necカシオモバイルコミュニケーションズ株式会社 撮像装置、その制御方法及びプログラム
JP2019175093A (ja) 2018-03-28 2019-10-10 パナソニックIpマネジメント株式会社 推定装置、推定方法、推定プログラム、学習装置、学習方法、及び学習プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6656987B2 (ja) * 2016-03-30 2020-03-04 株式会社エクォス・リサーチ 画像認識装置、移動体装置、及び画像認識プログラム
JP6969878B2 (ja) * 2017-03-13 2021-11-24 パナソニック株式会社 識別器学習装置および識別器学習方法
CN107784282B (zh) * 2017-10-24 2020-04-03 北京旷视科技有限公司 对象属性的识别方法、装置及系统
CN111670457B (zh) * 2017-12-03 2023-12-01 元平台公司 动态对象实例检测、分割和结构映射的优化
CN110008842A (zh) * 2019-03-09 2019-07-12 同济大学 一种基于深度多损失融合模型的行人重识别方法
CN110175595B (zh) * 2019-05-31 2021-03-02 北京金山云网络技术有限公司 人体属性识别方法、识别模型训练方法及装置
CN110458247A (zh) * 2019-09-06 2019-11-15 北京金山数字娱乐科技有限公司 图像识别模型的训练方法及装置、图像识别方法及装置
CN110991380A (zh) * 2019-12-11 2020-04-10 腾讯科技(深圳)有限公司 人体属性识别方法、装置、电子设备以及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012053311A1 (ja) 2010-10-22 2012-04-26 Necソフト株式会社 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム
JP2013242825A (ja) 2012-05-23 2013-12-05 Panasonic Corp 人物属性推定システム、及び学習用データ生成装置
US20150086110A1 (en) 2012-05-23 2015-03-26 Panasonic Corporation Person attribute estimation system and learning-use data generation device
JP2014157316A (ja) 2013-02-18 2014-08-28 Ricoh Co Ltd プロジェクタ装置
JP2014220555A (ja) 2013-05-01 2014-11-20 Necカシオモバイルコミュニケーションズ株式会社 撮像装置、その制御方法及びプログラム
JP2019175093A (ja) 2018-03-28 2019-10-10 パナソニックIpマネジメント株式会社 推定装置、推定方法、推定プログラム、学習装置、学習方法、及び学習プログラム

Also Published As

Publication number Publication date
EP3989112A1 (en) 2022-04-27
US20220036059A1 (en) 2022-02-03
WO2021114814A1 (zh) 2021-06-17
EP3989112A4 (en) 2022-08-03
US11710335B2 (en) 2023-07-25
JP2022548915A (ja) 2022-11-22
CN110991380A (zh) 2020-04-10
KR20220020986A (ko) 2022-02-21

Similar Documents

Publication Publication Date Title
JP7286010B2 (ja) 人体属性の認識方法、装置、電子機器及びコンピュータプログラム
WO2019128508A1 (zh) 图像处理方法、装置、存储介质及电子设备
Ullah et al. A brief survey of visual saliency detection
Perez et al. Video pornography detection through deep learning techniques and motion information
Gan et al. Devnet: A deep event network for multimedia event detection and evidence recounting
JP7386545B2 (ja) 画像中の物体を識別するための方法、及び当該方法を実施するためのモバイル装置
Chaves-González et al. Detecting skin in face recognition systems: A colour spaces study
WO2019128507A1 (zh) 图像处理方法、装置、存储介质及电子设备
US11917288B2 (en) Image processing method and apparatus
CN110555481A (zh) 一种人像风格识别方法、装置和计算机可读存储介质
CN108229369A (zh) 图像拍摄方法、装置、存储介质及电子设备
JP2021101384A (ja) 画像処理装置、画像処理方法およびプログラム
Durga et al. A ResNet deep learning based facial recognition design for future multimedia applications
CN113505768A (zh) 模型训练、人脸识别方法、电子设备及存储介质
CN111739027A (zh) 一种图像处理方法、装置、设备及可读存储介质
CN111242019A (zh) 视频内容的检测方法、装置、电子设备以及存储介质
CN112036260A (zh) 一种自然环境下多尺度子块聚合的表情识别方法及系统
CN111582155B (zh) 活体检测方法、装置、计算机设备和存储介质
Tapia et al. Sex-classification from cellphones periocular iris images
CN110909691B (zh) 动作检测方法、装置、计算机可读存储介质和计算机设备
Dutta Facial Pain Expression Recognition in Real‐Time Videos
Sheng et al. Multilayer deep features with multiple kernel learning for action recognition
Ruan et al. Facial expression recognition in facial occlusion scenarios: A path selection multi-network
CN115115552B (zh) 图像矫正模型训练及图像矫正方法、装置和计算机设备
Bae Deformable part region learning for object detection

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220317

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230523

R150 Certificate of patent or registration of utility model

Ref document number: 7286010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150