JP2020525953A - 人体輪郭キーポイントの検出方法、画像処理方法、装置及び機器 - Google Patents

人体輪郭キーポイントの検出方法、画像処理方法、装置及び機器 Download PDF

Info

Publication number
JP2020525953A
JP2020525953A JP2019572641A JP2019572641A JP2020525953A JP 2020525953 A JP2020525953 A JP 2020525953A JP 2019572641 A JP2019572641 A JP 2019572641A JP 2019572641 A JP2019572641 A JP 2019572641A JP 2020525953 A JP2020525953 A JP 2020525953A
Authority
JP
Japan
Prior art keywords
human body
keypoint
contour
image
body contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019572641A
Other languages
English (en)
Other versions
JP6967090B2 (ja
Inventor
▲劉▼文▲韜▼
▲錢▼晨
▲許▼▲親▼▲親▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Publication of JP2020525953A publication Critical patent/JP2020525953A/ja
Application granted granted Critical
Publication of JP6967090B2 publication Critical patent/JP6967090B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20116Active contour; Active surface; Snakes

Abstract

本願の実施形態は、人体が含まれる画像ブロックの画像特徴を取得するステップと、第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得するステップと、前記人体輪郭キーポイント予測結果に基づいて前記画像ブロックにおける人体輪郭キーポイントを取得するステップであって、前記人体輪郭キーポイントが人体の外部輪郭を表すために用いられるステップと、を含む人体輪郭キーポイントの検出方法、画像処理方法、ニューラルネットワークのトレーニング方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラムを開示する。

Description

(関連出願の相互参照)
本願は、2018年1月19日に中国特許局に提出された、出願番号CN201810054352.3、発明の名称「人体輪郭キーポイントの検出方法、画像処理方法、装置及び機器」の中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
本願は、コンピュータビジョン技術に関し、特に、人体輪郭キーポイントの検出方法、人体輪郭キーポイントの検出装置、画像処理方法、画像処理装置、ニューラルネットワークのトレーニング方法、ニューラルネットワークのトレーニング装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラムに関する。
現在、人体キーポイントは、一般的には人体骨格のキーポイントを指し、主に人体骨格のモデルを構築するために用いられる。人体動作の認識又はマンマシンインタラクション等の応用が構築された人体骨格モデルにより実現可能になる。
画像からより豊富な人体構造セマンティクスを引き出すために、人体が含まれる画像からどのようにより多いセマンティクス情報を取得して、それによってアプリケーションにより豊富な情報を提供するかは、注目すべき技術的課題である。
本願の実施形態は、人体輪郭キーポイントの検出、画像処理及びニューラルネットワークのトレーニングの技術的手段を提供する。
本願の実施形態の一態様によれば、人体が含まれる画像ブロックの画像特徴を取得するステップと、第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得するステップと、前記人体輪郭キーポイント予測結果に基づいて前記画像ブロックにおける人体輪郭キーポイントを取得するステップと、を含み、前記人体輪郭キーポイントが人体の外部輪郭を表すために用いられる人体輪郭キーポイントの検出方法を提供する。
本願の一実施形態では、人体が含まれる画像ブロックの画像特徴を取得する前記ステップは、被処理画像に対して人体検出を行うステップと、人体検出結果により前記被処理画像における人体が含まれる前記画像ブロックを取得するステップと、を含む。
本願の別の実施形態では、前記画像ブロックは前記被処理画像であり、又は、前記画像ブロックは前記被処理画像における人体が含まれる局所画像であり、又は、前記画像ブロックは前記被処理画像における人体が含まれる局所画像に基づいて処理して得られた画像ブロックである。
本願の更に別の実施形態では、被処理画像に対して人体検出を行う前記ステップは、人体検出器を用いて前記被処理画像に対して人体検出を行って、人体外接枠の中心位置及び人体スケール因子を取得するステップであって、前記人体外接枠の中心位置及び人体スケール因子が被処理画像内の人体外接枠の位置を確定するために用いられるステップを含む。
本願の更に別の実施形態では、第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得する前記ステップは、前記第1のニューラルネットワークにより前記画像特徴に基づいて、少なくとも一つの人体輪郭キーポイントのそれぞれに対応する少なくとも一つの人体輪郭キーポイント対応マップを形成するステップを含む。
本願の更に別の実施形態では、前記人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップを含む。
本願の更に別の実施形態では、前記人体輪郭キーポイント予測結果に基づいて前記画像ブロックにおける人体輪郭キーポイントを取得する前記ステップは、一つの人体輪郭キーポイント信頼度マップに対して、前記信頼度マップから所定の信頼度要求を満たす一つの点を選択し、該点の前記画像ブロックにおけるマッピング位置点を前記信頼度マップの対応する人体輪郭キーポイントとするステップを含む。
本願の更に別の実施形態では、前記人体輪郭キーポイントは、頭部輪郭キーポイント、腕輪郭キーポイント、手部輪郭キーポイント、肩部輪郭キーポイント、足部輪郭キーポイント、腰部輪郭キーポイント及び/又は脚部輪郭キーポイントを含む。
本願の更に別の実施形態では、前記頭部輪郭キーポイントは、頭頂部キーポイント、鼻先端部キーポイント及び顎キーポイントのうちの1種又は複数種を含み、及び/又は、前記腕輪郭キーポイントは、手首輪郭キーポイント、肘輪郭キーポイント、腕の付け根部輪郭キーポイント、手首輪郭キーポイントと肘輪郭キーポイントとの間の中点位置に位置する前腕輪郭中点キーポイント、及び肘輪郭キーポイントと腕の付け根部輪郭キーポイントとの間の中点位置に位置する上腕中点キーポイントのうちの1種又は複数種を含み、及び/又は、前記手部輪郭キーポイントは、手先キーポイント及び掌中点キーポイントのうちの1種又は複数種を含み、及び/又は、前記肩部輪郭キーポイントは、肩部と頭部の接合位置に位置する肩頭接合キーポイント及び腕の付け根部輪郭キーポイントと肩頭接合キーポイントとの間の中点位置に位置する肩輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は、前記足部輪郭キーポイントは、股間キーポイント、膝輪郭キーポイント、踝輪郭キーポイント、股の付け根部外側輪郭キーポイント、膝輪郭キーポイントと踝輪郭キーポイントとの間の中点位置に位置するすね輪郭中点キーポイント、膝内側輪郭キーポイントと股間キーポイントとの間の中点位置に位置する股内側輪郭中点キーポイント、及び膝外側輪郭キーポイントと股の付け根部外側輪郭キーポイントとの間の中点位置に位置する股外側輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は、前記腰部輪郭キーポイントは、股の付け根部外側輪郭キーポイントと腕の付け根部輪郭キーポイントとの間をN等分にして生成するN個の等分点のうちの1種又は複数種を含み、前記Nが1より大きく、及び/又は、前記脚部輪郭キーポイントは、爪先キーポイント及び踵キーポイントのうちの1種又は複数種を含む。
本願の更に別の実施形態では、前記第1のニューラルネットワークは、人体輪郭キーポイントのラベリング情報が含まれるトレーニング画像集合により予めトレーニングされたものである。
本願の更に別の実施形態では、前記第1のニューラルネットワークのトレーニングには、人体が含まれるサンプル画像ブロックの画像特徴を取得するステップと、トレーニング待ちの第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得するステップと、前記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含む。
本願の更に別の実施形態では、人体が含まれるサンプル画像ブロックの画像特徴を取得する前記ステップは、トレーニングデータ集合から画像サンプルを取得するステップと、画像サンプル内の人体が含まれるサンプル画像ブロックの画像特徴を取得するステップと、を含む。
本願の更に別の実施形態では、トレーニング待ちの第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得する前記ステップは、前記トレーニング待ちの第1のニューラルネットワークにより前記画像特徴に基づいて、少なくとも一つの人体輪郭キーポイントのそれぞれに対応する少なくとも一つの人体輪郭キーポイント対応マップを形成するステップを含む。
本願の更に別の実施形態では、前記人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップを含む。
本願の更に別の実施形態では、前記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行う前記ステップは、少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、それぞれ人体輪郭キーポイント信頼度マップを生成するステップと、前記トレーニング待ちの第1のニューラルネットワークから出力された人体輪郭キーポイント信頼度マップと前記生成した人体輪郭キーポイント信頼度マップとの差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含む。
本願の更に別の実施形態では、少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、それぞれ人体輪郭キーポイント信頼度マップを生成する前記ステップは、少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、対応する人体輪郭キーポイントのラベリング情報のそれぞれの対応するサンプル画像ブロック内の位置の所定周囲領域内で、ガウス応答をそれぞれ形成し、且つ前記ガウス応答に基づいて、少なくとも一つの人体輪郭キーポイントのラベリング情報のそれぞれの対応する人体輪郭キーポイント信頼度マップを形成するステップを含む。
本願の更に別の実施形態では、前記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行う前記ステップは、一つの人体輪郭キーポイント信頼度マップに対して、前記信頼度マップから所定の信頼度要求を満たした点を選択し、該点の前記画像サンプルにおけるマッピング位置点を前記信頼度マップの対応する人体輪郭キーポイントとするステップと、前記信頼度マップの対応する人体輪郭キーポイントと前記画像サンプルの人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含む。
本願の更に別の実施形態では、人体が含まれるサンプル画像ブロックの画像特徴を取得する前記ステップは、前記画像サンプルに対して人体検出を行うステップと、人体検出結果及び画像サンプルをトレーニング待ちの入力ニューラルネットワークに提供して、トレーニング待ちの入力ニューラルネットワークにより人体が含まれる所定の大きさのサンプル画像ブロックを取得するステップと、トレーニング待ちの第2のニューラルネットワークを用いて前記サンプル画像ブロックの画像特徴を取得するステップと、を含む。
本願の更に別の実施形態では、前記第1のニューラルネットワークをトレーニングする前記ステップは、前記人体輪郭キーポイント予測結果と前記人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの入力ニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対して教師あり学習を行うステップを更に含む。
本願の更に別の実施形態では、前記画像サンプルに含まれる人体輪郭キーポイントのラベリング情報の設置プロセスは、画像サンプルの人体骨格キーポイントを取得するステップと、設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は前記人体骨格キーポイントに基づいて補助線を設置するステップと、前記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成するステップと、を含む。
本願の更に別の実施形態では、前記画像サンプルに含まれる人体輪郭キーポイントのラベリング情報の設置プロセスは、第1の集合及び/又は第2の集合内の2つの人体輪郭キーポイント間の連結線におけるN1個の仕切点に基づいて、第3の集合内の人体輪郭キーポイントのラベリング情報を形成するステップを更に含み、ここで、N1が1より大きい整数である。
本願の更に別の実施形態では、設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は前記人体骨格キーポイントに基づいて補助線を設置する前記ステップは、前記人体骨格キーポイントに基づいて腕の付け根部内側輪郭キーポイントを通過し且つ上腕方向に垂直する第1の補助線を決定するステップステップを含み、前記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成する前記ステップは、前記第1の補助線と上腕外側輪郭との交点に基づいて第2の集合中の腕の付け根部外側輪郭キーポイントのラベリング情報を形成するステップを含む。
本願の更に別の実施形態では、設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は前記人体骨格キーポイントに基づいて補助線を設置する前記ステップは、股間キーポイントを通過し且つ人体骨格キーポイントで形成された股方向に垂直する第2の補助線を設置するステップを含み、前記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成する前記ステップは、前記第2の補助線と股外側輪郭の交点に基づいて第2の集合中の股の付け根部外側輪郭キーポイントのラベリング情報を形成するステップを含む。
本願の更に別の実施形態では、前記方法は、前記人体輪郭キーポイントに基づいて前記画像ブロックに対して拡張現実AR効果のレンダリング処理を行うステップを更に含む。
本願の更に別の実施形態では、前記人体輪郭キーポイントに基づいて前記画像ブロックに対してAR効果のレンダリング処理を行う前記ステップは、前記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定するステップと、前記位置関係により前記ステッカー素材に基づいて前記画像ブロックに対してAR効果のレンダリング処理を行うステップと、を含む。
本願の実施形態の別の態様によれば、人体が含まれる画像ブロックの人体輪郭キーポイントを検出するステップであって、前記人体輪郭キーポイントが人体の外部輪郭を表すために用いられるステップと、前記人体輪郭キーポイントに基づいて前記画像ブロックに対して拡張現実AR効果のレンダリング処理を行うステップと、を含む画像処理方法を提供する。
本願の一実施形態では、人体が含まれる画像ブロックの人体輪郭キーポイントを検出する前記ステップは、上記いずれか1種の方法を用いて前記人体輪郭キーポイントを検出するステップを含む。
本願の別の実施形態では、前記人体輪郭キーポイントに基づいて前記画像ブロックに対してAR効果のレンダリング処理を行う前記ステップは、前記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定するステップと、前記位置関係により前記ステッカー素材に基づいて前記画像ブロックに対してAR効果のレンダリング処理を行うステップと、を含む。
本願の更に別の実施形態では、前記人体輪郭キーポイントに基づいて前記画像ブロックに対してAR効果のレンダリング処理を行う前記ステップは、ステッカーハンドルを作成するための第1のインターフェイス関数を呼び出してステッカーハンドルを作成するステップと、ステッカー素材を読み取るための第2のインターフェイス関数を呼び出してステッカー素材圧縮パッケージを内部メモリに読み込み、解析するステップと、ステッカー素材をレンダリングするための第3のインターフェイス関数を呼び出して解析結果により前記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定し、前記ステッカーハンドルに基づいて前記解析結果と前記位置関係により前記画像ブロック上で内部メモリに読み込まれたステッカー素材パッケージに対してAR効果のレンダリングを行うステップと、を含む。
本願の更に別の実施形態では、前記解析結果は、ステッカー素材に関連する人体輪郭キーポイント、ステッカー素材の再生トリガ条件、ステッカー素材の再生状態パラメータのうちの1種又は複数種を含む。
本願の更に別の実施形態では、前記方法は、レンダリングが終了した後、前記ステッカーハンドルを廃棄するステップを更に含む。
本願の実施形態の更に別の態様によれば、人体が含まれるサンプル画像ブロックの画像特徴を取得するステップと、トレーニング待ちの第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得するステップと、前記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むニューラルネットワークのトレーニング方法を提供する。
本願の一実施形態では、人体が含まれるサンプル画像ブロックの画像特徴を取得する前記ステップは、トレーニングデータ集合から画像サンプルを取得するステップと、画像サンプル内の人体が含まれるサンプル画像ブロックの画像特徴を取得するステップと、を含む。
本願の別の実施形態では、トレーニング待ちの第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得する前記ステップは、前記トレーニング待ちの第1のニューラルネットワークにより前記画像特徴に基づいて、少なくとも一つの人体輪郭キーポイントのそれぞれに対応する少なくとも一つの人体輪郭キーポイント対応マップを形成するステップを含む。
本願の更に別の実施形態では、前記人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップを含む。
本願の更に別の実施形態では、前記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行う前記ステップは、少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、それぞれ人体輪郭キーポイント信頼度マップを生成するステップと、前記トレーニング待ちの第1のニューラルネットワークから出力された人体輪郭キーポイント信頼度マップと前記生成した人体輪郭キーポイント信頼度マップとの差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含む。
本願の更に別の実施形態では、少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、それぞれ人体輪郭キーポイント信頼度マップを生成する前記ステップは、少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、対応する人体輪郭キーポイントのラベリング情報のそれぞれの対応するサンプル画像ブロック内の位置の所定周囲領域内で、ガウス応答をそれぞれ形成し、且つ前記ガウス応答に基づいて、少なくとも一つの人体輪郭キーポイントのラベリング情報のそれぞれの対応する人体輪郭キーポイント信頼度マップを形成するステップを含む。
本願の更に別の実施形態では、前記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行う前記ステップは、一つの人体輪郭キーポイント信頼度マップに対して、前記信頼度マップから所定の信頼度要求を満たした点を選択し、該点の前記画像サンプルにおけるマッピング位置点を前記信頼度マップの対応する人体輪郭キーポイントとするステップと、前記信頼度マップの対応する人体輪郭キーポイントと前記画像サンプルの人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含む。
本願の更に別の実施形態では、人体が含まれるサンプル画像ブロックの画像特徴を取得する前記ステップは、前記画像サンプルに対して人体検出を行うステップと、人体検出結果及び画像サンプルをトレーニング待ちの入力ニューラルネットワークに提供して、トレーニング待ちの入力ニューラルネットワークにより人体が含まれる所定の大きさのサンプル画像ブロックを取得するステップと、トレーニング待ちの第2のニューラルネットワークを用いて前記サンプル画像ブロックの画像特徴を取得するステップと、を含む。
本願の更に別の実施形態では、前記第1のニューラルネットワークをトレーニングする前記ステップは、前記人体輪郭キーポイント予測結果と前記人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの入力ニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対して教師あり学習を行うステップを更に含む。
本願の更に別の実施形態では、前記画像サンプルに含まれる人体輪郭キーポイントのラベリング情報の設置プロセスは、画像サンプルの人体骨格キーポイントを取得するステップと、設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は前記人体骨格キーポイントに基づいて補助線を設置するステップと、前記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成するステップと、を含む。
本願の更に別の実施形態では、前記画像サンプルに含まれる人体輪郭キーポイントのラベリング情報の設置プロセスは、第1の集合及び/又は第2の集合内の2つの人体輪郭キーポイント間の連結線におけるN1個の仕切点に基づいて、第3の集合内の人体輪郭キーポイントのラベリング情報を形成するステップを更に含み、N1が1より大きい整数である。
本願の更に別の実施形態では、設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は前記人体骨格キーポイントに基づいて補助線を設置する前記ステップは、前記人体骨格キーポイントに基づいて腕の付け根部内側輪郭キーポイントを通過し且つ上腕方向に垂直する第1の補助線を決定するステップを含み、前記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成する前記ステップは、前記第1の補助線と上腕外側輪郭との交点に基づいて第2の集合中の腕の付け根部外側輪郭キーポイントのラベリング情報を形成するステップを含む。
本願の更に別の実施形態では、設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は前記人体骨格キーポイントに基づいて補助線を設置する前記ステップは、股間キーポイントを通過し且つ人体骨格キーポイントで形成された股方向に垂直する第2の補助線を設置するステップを含み、前記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成する前記ステップは、前記第2の補助線と股外側輪郭の交点に基づいて第2の集合中の股の付け根部外側輪郭キーポイントのラベリング情報を形成するステップを含む。
本願の実施形態の更に別の態様によれば、人体が含まれる画像ブロックの画像特徴を取得するための画像特徴取得モジュールと、第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得するための予測結果取得モジュールと、前記人体輪郭キーポイント予測結果に基づいて前記画像ブロックにおける人体輪郭キーポイントを取得するための輪郭キーポイント取得モジュールであって、前記人体輪郭キーポイントが人体の外部輪郭を表すために用いられる輪郭キーポイント取得モジュールと、を含む人体輪郭キーポイントの検出装置を提供する。
本願の一実施形態では、前記画像特徴取得モジュールは、被処理画像に対して人体検出を行い、且つ人体検出結果により前記被処理画像における人体が含まれる前記画像ブロックを取得する。
本願の別の実施形態では、前記画像ブロックは前記被処理画像であり、又は、前記画像ブロックは前記被処理画像における人体が含まれる局所画像であり、又は、前記画像ブロックは前記被処理画像における人体が含まれる局所画像に基づいて処理して得られた画像ブロックである。
本願の更に別の実施形態では、前記画像特徴取得モジュールは、人体検出器を用いて前記被処理画像に対して人体検出を行って、人体外接枠の中心位置及び人体スケール因子を取得し、前記人体外接枠の中心位置及び人体スケール因子が被処理画像内の人体外接枠の位置を確定するために用いられる。
本願の更に別の実施形態では、前記予測結果取得モジュールは、前記第1のニューラルネットワークにより前記画像特徴に基づいて、少なくとも一つの人体輪郭キーポイントのそれぞれに対応する少なくとも一つの人体輪郭キーポイント対応マップを形成する。
本願の更に別の実施形態では、前記人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップを含む。
本願の更に別の実施形態では、前記輪郭キーポイント取得モジュールは、一つの人体輪郭キーポイント信頼度マップに対して、前記信頼度マップから所定の信頼度要求を満たす一つの点を選択し、該点の前記画像ブロックにおけるマッピング位置点を前記信頼度マップの対応する人体輪郭キーポイントとする。
本願の更に別の実施形態では、前記人体輪郭キーポイントは、頭部輪郭キーポイント、腕輪郭キーポイント、手部輪郭キーポイント、肩部輪郭キーポイント、足部輪郭キーポイント、腰部輪郭キーポイント及び/又は脚部輪郭キーポイントを含む。
本願の更に別の実施形態では、前記頭部輪郭キーポイントは、頭頂部キーポイント、鼻先端部キーポイント及び顎キーポイントのうちの1種又は複数種を含み、及び/又は、前記腕輪郭キーポイントは、手首輪郭キーポイント、肘輪郭キーポイント、腕の付け根部輪郭キーポイント、手首輪郭キーポイントと肘輪郭キーポイントとの間の中点位置に位置する前腕輪郭中点キーポイント、及び肘輪郭キーポイントと腕の付け根部輪郭キーポイントとの間の中点位置に位置する上腕中点キーポイントのうちの1種又は複数種を含み、及び/又は、前記手部輪郭キーポイントは、手先キーポイント及び掌中点キーポイントのうちの1種又は複数種を含み、及び/又は
前記肩部輪郭キーポイントは、肩部と頭部の接合位置に位置する肩頭接合キーポイント及び腕の付け根部輪郭キーポイントと肩頭接合キーポイントとの間の中点位置に位置する肩輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は、前記足部輪郭キーポイントは、股間キーポイント、膝輪郭キーポイント、踝輪郭キーポイント、股の付け根部外側輪郭キーポイント、膝輪郭キーポイントと踝輪郭キーポイントとの間の中点位置に位置するすね輪郭中点キーポイント、膝内側輪郭キーポイントと股間キーポイントとの間の中点位置に位置する股内側輪郭中点キーポイント、及び膝外側輪郭キーポイントと股の付け根部外側輪郭キーポイントとの間の中点位置に位置する股外側輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は、前記腰部輪郭キーポイントは、股の付け根部外側輪郭キーポイントと腕の付け根部輪郭キーポイントとの間をN等分にして生成するN個の等分点のうちの1種又は複数種を含み、前記Nが1より大きく、及び/又は、前記脚部輪郭キーポイントは、爪先キーポイント及び踵キーポイントのうちの1種又は複数種を含む。
本願の更に別の実施形態では、前記装置は、人体輪郭キーポイントのラベリング情報が含まれるトレーニング画像集合を用いて前記第1のニューラルネットワークをトレーニングするためのニューラルネットワークのトレーニング装置を更に含む。
本願の実施形態の更に別の態様によれば、人体が含まれる画像ブロックの人体輪郭キーポイントを検出するための人体輪郭キーポイントの検出装置であって、前記人体輪郭キーポイントが人体の外部輪郭を表すために用いられる人体輪郭キーポイントの検出装置と、前記人体輪郭キーポイントに基づいて前記画像ブロックに対してAR効果のレンダリング処理を行うためのレンダリングモジュールと、を含む画像処理装置を提供する。
本願の一実施形態では、前記人体輪郭キーポイントの検出装置は、上記いずれか一項の装置を用いて前記人体輪郭キーポイントを検出する。
本願の別の実施形態では、前記レンダリングモジュールは、前記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定し、且つ前記位置関係により前記ステッカー素材に基づいて前記画像ブロックに対してAR効果のレンダリング処理を行う。
本願の更に別の実施形態では、前記レンダリングモジュールは、ステッカーハンドルを作成するための第1のインターフェイス関数を呼び出してステッカーハンドルを作成し、ステッカー素材を読み取るための第2のインターフェイス関数を呼び出してステッカー素材圧縮パッケージを内部メモリに読み込み、解析し、ステッカー素材をレンダリングするための第3のインターフェイス関数を呼び出して解析結果により前記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定し、前記ステッカーハンドルに基づいて前記解析結果と前記位置関係により前記画像ブロック上で内部メモリに読み込まれたステッカー素材パッケージに対してAR効果のレンダリングを行う。
本願の更に別の実施形態では、前記解析結果は、ステッカー素材に関連する人体輪郭キーポイント、ステッカー素材の再生トリガ条件、ステッカー素材の再生状態パラメータのうちの1種又は複数種を含む。
本願の更に別の実施形態では、前記レンダリングモジュールは、レンダリングが終了した後、前記ステッカーハンドルを廃棄する。
本願の実施形態の更に別の態様によれば、人体が含まれるサンプル画像ブロックの画像特徴を取得するための第1のモジュールと、トレーニング待ちの第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得するための第2のモジュールと、前記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うための第3のモジュールと、を含むニューラルネットワークのトレーニング装置を提供する。
本願の一実施形態では、前記第1のモジュールは、前記画像サンプルに対して人体検出を行うための検出サブモジュールと、人体検出結果及び画像サンプルをトレーニング待ちの入力ニューラルネットワークに提供して、トレーニング待ちの入力ニューラルネットワークにより人体が含まれる所定の大きさのサンプル画像ブロックを取得するための第1の取得サブモジュールと、トレーニング待ちの第2のニューラルネットワークを用いて前記サンプル画像ブロックの画像特徴を取得するための第2の取得サブモジュールと、を含む。
本願の別の実施形態では、前記第3のモジュールは、更に、前記人体輪郭キーポイント予測結果と前記人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの入力ニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対して教師あり学習を行うために用いられる。
本願の更に別の実施形態では、前記装置は、画像サンプルの人体骨格キーポイントを取得し、設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は前記人体骨格キーポイントに基づいて補助線を設置し、且つ前記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成するための第1のラベリングモジュールを更に含む。
本願の更に別の実施形態では、前記装置は、第1の集合及び/又は第2の集合内の2つの人体輪郭キーポイント間の連結線におけるN1個の仕切点に基づいて、第3の集合内の人体輪郭キーポイントのラベリング情報を形成するための第2のラベリングモジュールを更に含み、N1が1より大きい整数である。
本願の更に別の実施形態では、前記第1のラベリングモジュールは、前記人体骨格キーポイントに基づいて腕の付け根部内側輪郭キーポイントを通過し且つ上腕方向に垂直する第1の補助線を決定し、且つ前記第1の補助線と上腕外側輪郭との交点に基づいて第2の集合中の腕の付け根部外側輪郭キーポイントのラベリング情報を形成する。
本願の更に別の実施形態では、前記第1のラベリングモジュールは、股間キーポイントを通過し且つ人体骨格キーポイントで形成された股方向に垂直する第2の補助線を設置し、且つ前記第2の補助線と股外側輪郭の交点に基づいて第2の集合中の股の付け根部外側輪郭キーポイントのラベリング情報を形成する。
本願の実施形態の更に別の態様によれば、コンピュータプログラムを記憶するためのメモリと、前記メモリに記憶されたコンピュータプログラムを実行するためのプロセッサと、を含み、前記コンピュータプログラムが実行される時に、上記いずれか1種の方法の実施形態が実現される電子機器を提供する。
本願の実施形態の更に別の態様によれば、コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、該コンピュータプログラムがプロセッサにより実行される時に、上記いずれか1種の方法の実施形態が実現されるコンピュータ可読記憶媒体を提供する。
本願の実施形態の更に別の態様によれば、コンピュータコマンドを含むコンピュータプログラムであって、前記コンピュータコマンドが機器のプロセッサで作動する時に、上記いずれか1種の方法の実施形態が実現されるコンピュータプログラムを提供する。
本願に基づいて提供される人体輪郭キーポイントの検出方法、人体輪郭キーポイントの検出装置、画像処理方法、画像処理装置、ニューラルネットワークのトレーニング方法、ニューラルネットワークのトレーニング装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラムにおいて、本願は、第1のニューラルネットワークを用いて人体輪郭キーポイントを取得することによって、画像における人体外部輪郭を高速且つ精確に描くことに寄与し、そのように人体が含まれる画像からより豊富な人体セマンティクス情報を取得することに寄与し、更により豊富な人体セマンティクス情報を対応の用途に提供することができ、例えば、本願により抽出された人体輪郭キーポイントは、ステッカー処理、人体動作分析及び人体形態分析等の用途に利用可能である。
以下、図面及び実施形態を通じて本願の技術的手段をさらに詳しく説明する。
明細書の一部を構成する図面は、本願の実施形態を説明し、その説明と共に本願の原理を解釈することに用いられる。
図面を参照し、以下の詳細な説明により本願をより明瞭に理解することができる。
本願の人体輪郭キーポイントの検出方法の一実施形態のフローチャートである。 本願の人体輪郭キーポイントの一実施形態の模式図である。 本願のニューラルネットワークのトレーニング方法の一実施形態のフローチャートである。 本願のニューラルネットワークのトレーニング方法の別の実施形態のフローチャートである。 本願の画像サンプルの人体輪郭キーポイントのラベリング情報の生成方法の一実施形態のフローチャートである。 本願の画像処理方法の一実施形態のフローチャートである。 本願で被処理画像に対してステッカー処理を行う一実施形態のフローチャートである。 本願の人体輪郭キーポイントの検出装置の一実施形態の構成模式図である。 本願のニューラルネットワークのトレーニング装置の一実施形態の構成模式図である。 本願の画像処理装置の一実施形態の構成模式図である。 本願の実施形態を実現する一例示的機器のブロック図である。
ここで、図面を参照しながら本願の様々な例示的な実施例を詳細に説明する。なお、特に断らない限り、これらの実施例で記述した部材及び操作の相対的配置、数式及び値は本願の範囲を限定するものではないことに注意すべきである。
同時に、説明の便宜上、図面に示した各部分の寸法は実際の比例関係に従って描いたものではないことを理解すべきである。
以下の少なくとも一つの例示的な実施例に対する説明は実際に説明的なものに過ぎず、本願及びその適用または使用へのなんらの制限にもならない。
関連分野の当業者に既知の技術、方法及び機器については、詳細に説明しない場合があるが、場合によって、前記技術、方法及び機器は明細書の一部と見なすべきである。
なお、類似する符号及び英文字は以下の図面において類似項目を表し、従って、ある一項が一つの図面において定義されれば、以降の図面においてそれをさらに説明する必要がないことに注意すべきである。
本願の実施例は端末装置、コンピュータシステム及びサーバ等の電子機器に適用可能であり、それは他の様々な共通または専用計算システム環境または構成と共に動作可能である。端末装置、コンピュータシステム及びサーバ等の電子機器との併用に適する公知の端末装置、計算システム、環境及び/または構成の例は、パーソナルコンピュータシステム、サーバコンピュータシステム、シンクライアント、ファットクライアント、手持ちまたはラップトップデバイス、マイクロプロセッサに基づくシステム、セットトップボックス、プログラマブル消費者用電子機器、ネットワークパソコン、小型コンピュータシステム、大型コンピュータシステム及び前記の任意のシステムを含む分散型クラウドコンピューティング技術環境などを含むが、これらに限定されない。
端末装置、コンピュータシステム及びサーバ等の電子機器はコンピュータシステムにより実行されるコンピュータシステム実行可能コマンド(例えば、プログラムモジュール)の一般的な言語環境において記述できる。通常、プログラムモジュールはルーチン、プログラム、目的プログラム、コンポーネント、ロジック、データ構造などを含んでよく、それらは特定のタスクを実行するかまたは特定の抽象データ型を実現する。コンピュータシステム/サーバは分散型クラウドコンピューティング環境において実施でき、分散型クラウドコンピューティング環境において、タスクは通信ネットワークにわたってリンクされた遠隔処理機器により実行される。分散型クラウドコンピューティング環境において、プログラムモジュールは記憶機器を含むローカルまたは遠隔計算システムの記憶媒体に存在してよい。
例示的実施例
図1は本願の人体輪郭キーポイントの検出方法の一実施形態のフローチャートである。図1に示すように、該実施例の方法は、操作S100、操作S110及び操作S120を含む。以下、図1における各操作について詳細に説明する。
S100において、人体が含まれる画像ブロックの画像特徴を取得し、例えば、被処理画像における人体が含まれる画像ブロックの画像特徴を取得する。
選択可能な一例において、本願における被処理画像は、静的画像又は写真等の画像であってもよいし、動的ビデオにおけるビデオフレーム等であってもよい。該被処理画像における人体は、正面の人体、側面の人体又は背面の人体等であってよい。被処理画像における人体は、例えば、歩いている、ジャンプしている、蹲いでいる、横になっている又は倒立をしている等の様々な形態になっていてもよい。また、本願の画像ブロックに含まれる人体は完全な人体(例えば、図2に示す人体)であってもよく、局所的な人体(即ち、人体の一部、例えば、人の半身画像等)であってもよい。本願は被処理画像における人体の表現形態を限定しない。
選択可能な一例において、本願はニューラルネットワークの方式で被処理画像における人体が含まれる画像ブロックの画像特徴を取得することができる。本願では被処理画像における人体が含まれる画像ブロックの画像特徴を抽出するためのニューラルネットワークは畳み込みニューラルネットワーク等であってよい。本願の第1のニューラルネットワークと区別するために、本願は、被処理画像における人体が含まれる画像ブロックの画像特徴を抽出するためのニューラルネットワークを第2のニューラルネットワークと言う。
選択可能な一例において、本願は被処理画像における人体が含まれる画像ブロックを第2のニューラルネットワークに入力し、該第2のニューラルネットワークにより該画像ブロックの画像特徴を出力することができる。第2のニューラルネットワークに入力される画像ブロックの大きさは一般的には第2のニューラルネットワークの入力画像サイズへの要求に依存し、例えば、画像ブロックの大きさは256×256等であってよい。本願は画像ブロックの大きさを限定しない。
選択可能な一例において、本願における第2のニューラルネットワークのネットワーク構造は実際に画像特徴を抽出する時の要求に応じて設計でき、本願の実施例は該第2のニューラルネットワークのネットワーク構造を限定しなく、例えば、本願の第2のニューラルネットワークは、畳み込み層、非線形Relu層、プーリング層及び全結合層等を含んでよいが、それらに限定されなく、該第2のニューラルネットワークに含まれる層数が多いほど、ネットワークが深くなり、更に例えば、本願の第2のニューラルネットワークのネットワーク構造としては、ALexNet、深層残差ネットワーク(Deep Residual Network、ResNet)又はVGGnet(Visual Geometry Group Network、視覚幾何組ネットワーク)等のニューラルネットワークに採用されるネットワーク構造を採用して良いが、それらに限定されない。
選択可能な一例において、本願における画像ブロックは被処理画像の画像全体であってもよいし、被処理画像における人体が含まれる局所画像であってもよい。また、画像ブロックは更に被処理画像における人体が含まれる局所画像に基づいて処理して得られた画像ブロックであってもよい。本願で第2のニューラルネットワークに入力される画像ブロックは被処理画像に対して切り取り処理を行うことで取得される画像ブロックであってよい。選択可能な一例において、本願は、先に被処理画像に対して人体検出を行い、人体検出結果により被処理画像に対して切り取り処理を行い、更に切り取り処理の結果により本願における画像ブロックを取得するようになってよい。
選択可能な一例において、所定の大きさを有する画像ブロックを取得するために、本願は、先に被処理画像に対して縮小拡大処理を行い、次に、所定の大きさで縮小拡大処理後の被処理画像から人体が含まれる画像ブロックを切り取ることができる。本願は人体検出結果により被処理画像に対して縮小拡大処理を行うことができ、そのように切り取った人体が含まれる画像ブロックに所定の大きさを持たせる。本願はニューラルネットワークの方式で被処理画像に対して縮小拡大処理及び切り取り処理を行うことができる。本願における第1のニューラルネットワーク及び第2のニューラルネットワークと区別するために、本願における縮小拡大処理及び切り取り処理を実行するためのニューラルネットワークは入力ニューラルネットワークと呼んでも良い。
選択可能な一例において、本願は人体検出結果及び被処理画像を入力ニューラルネットワークに提供してよく、そのように入力ニューラルネットワークの出力により所定の大きさを有する人体が含まれる画像ブロックを取得することができる。本願における人体検出結果は一般的には人体の被処理画像での位置を表示可能な情報を指す。本願は様々な形態で被処理画像の人体検出結果を取得でき、例えば、人体検出器を用いて被処理画像に対して人体検出を行って、人体検出結果を取得する。本願は被処理画像に対して人体検出を行う実現形態及び人体検出器の構造等を限定しない。
選択可能な一例において、本願の人体検出結果は、被処理画像内の人体外接枠の中心位置及び人体スケール因子を含んでよい。本願における人体外接枠の中心位置は人体位置又は人体中心点等と呼んでよい。本願における人体スケール因子は人体外接枠の大きさを決定することに利用可能である。人体スケール因子は拡大縮小因子であってよく、例えば、人体スケール因子sは被処理画像内の人体頭部の大きさHを標準サイズhに拡大縮小する拡大縮小因子であってよく、即ちs=h/Hである。本願は、被処理画像内の人体外接枠の中心位置、人体スケール因子及び被処理画像を入力ニューラルネットワークに提供し、入力ニューラルネットワークを介して人体スケール因子により被処理画像に対して拡大縮小処理を行い、且つ所定の大きさ及び中心位置により拡大縮小処理後の被処理画像に対して切り取り処理を行い、人体が含まれる所定の大きさの画像ブロックを出力するようになってよい。
選択可能な一例において、該操作S100はプロセッサによりメモリに記憶された対応のコマンドを呼び出して実行されてもよく、プロセッサにより作動する画像特徴取得モジュール800によって実行されてもよい。
S110において、第1のニューラルネットワークにより画像特徴に基づいて上記人体の人体輪郭キーポイント予測結果を取得する。
選択可能な一例において、本願における第1のニューラルネットワークは人体輪郭キーポイントのラベリング情報を有する画像サンプルを用いてトレーニングして取得されたものである。本願で入力ニューラルネットワークによって被処理画像に対して拡大縮小処理及び切り取り処理を行い、且つ第2のニューラルネットワークによって人体が含まれる画像ブロックの画像特徴を抽出する場合に、本願における入力ニューラルネットワーク、第1のニューラルネットワーク及び第2のニューラルネットワークはいずれも人体輪郭キーポイントのラベリング情報を有する画像サンプルを用いてトレーニングして取得されたものであってよい。画像サンプルを用いてニューラルネットワークをトレーニングするプロセスについては以下の図3及び図4に対する説明を参照してもよい。ここで、詳細な説明は割愛する。
選択可能な一例において、本願における第1のニューラルネットワークは、入力される画像特徴について、少なくとも一つの人体輪郭キーポイントに対してそれぞれ人体輪郭キーポイント対応マップを形成する。通常、本願における一つの人体輪郭キーポイント対応マップは、一つの対応する人体輪郭キーポイントが画像ブロックの複数の位置(例えばそれぞれの位置)に現れる可能性を表示可能を表している。人体輪郭キーポイント対応マップは人体輪郭キーポイント予測結果の選択可能の表現形式である。選択可能な一例において、人体輪郭キーポイントの数を予めN(Nが0より大きい整数)に設定するとした場合、本願における第1のニューラルネットワークは、入力された画像特徴に対して、N個の人体輪郭キーポイント対応マップを形成し、それぞれの人体輪郭キーポイント対応マップがいずれも一つの人体輪郭キーポイントに対応し、異なる人体輪郭キーポイント対応マップが異なる人体輪郭キーポイントに対応し、このように一つの人体輪郭キーポイント対応マップは、それに対応する人体輪郭キーポイントが画像ブロックのそれぞれの位置に現れる可能性を示すことができる。
選択可能な一例において、第1のニューラルネットワークから出力される人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップであってよい。人体輪郭キーポイント信頼度マップは対応する人体輪郭キーポイントが画像ブロックの複数の位置(例えば、それぞれの位置)に現れる信頼度を示すことができる。
選択可能な一例において、本願における人体輪郭キーポイントの数は一般的には複数である。選択可能な一例において、人体輪郭キーポイントの数は一般的には42個より低くなく、かつ一般的には115個を超えなく、例えば、本願の人体輪郭キーポイントの数が64個であってよい。64個の人体輪郭キーポイントが分布した選択可能な一例が図2に示される。
選択可能な一例において、本願の人体輪郭キーポイントは、頭部輪郭キーポイント、腕輪郭キーポイント、手部輪郭キーポイント、肩部輪郭キーポイント、足部輪郭キーポイント、腰部輪郭キーポイント及び脚部輪郭キーポイントのうちの少なくとも一つを含む。
選択可能に、本願の頭部輪郭キーポイントの数は一般的には3個より低くなく、かつ一般的には8個を超えない。
選択可能に、本願の腕輪郭キーポイントは、左側腕輪郭キーポイント(左側腕内側輪郭キーポイント及び/又は左側腕外側輪郭キーポイントを含む)と右側腕輪郭キーポイント(右側腕内側輪郭キーポイント及び/又は右側腕外側輪郭キーポイントを含む)を含んでよい。左/右側腕輪郭キーポイントの数は一般的には6個より低くなく、かつ一般的には18個を超えない。
選択可能に、本願の手部輪郭キーポイントは、左側手部輪郭キーポイントと右側手部輪郭キーポイントを含んでよく、左/右側手部輪郭キーポイントの数は一般的には2個より低くなく、かつ一般的には2個を超えない。
選択可能に、本願の肩部輪郭キーポイントは、左側肩部輪郭キーポイントと右側肩部輪郭キーポイントを含んでよく、左/右側肩部輪郭キーポイントの数は一般的には2個より低くなく、かつ一般的には4個を超えない。
選択可能に、本願の足部輪郭キーポイントは、左側足部輪郭キーポイント(左側足部内側輪郭キーポイント及び/又は左側足部外側輪郭キーポイントを含む)と右側足部輪郭キーポイント(右側足部内側輪郭キーポイント及び/又は右側足部外側輪郭キーポイントを含む)を含んでよい。左/右側足部輪郭キーポイントの数は一般的には6個より低くなく、かつ一般的には18個を超えない。この左側足部輪郭キーポイントと右側足部輪郭キーポイントのうち、股間に位置するキーポイントが重複するものである。
選択可能に、本願の腰部輪郭キーポイントは、左側腰部輪郭キーポイントと右側腰部輪郭キーポイントを含んでよく、左/右側腰部輪郭キーポイントの数は一般的には2個より低くなく、かつ一般的には10個を超えない。
選択可能に、本願の脚部輪郭キーポイントは、左側脚部輪郭キーポイントと右側脚部輪郭キーポイントを含んでよく、左/右側脚部輪郭キーポイントの数は一般的には2個より低くなく、かつ一般的には2個を超えない。
選択可能な一例において、本願の人体輪郭キーポイントは、以下のものを含む。
3個の頭部輪郭キーポイント:それぞれは1個の頭頂部キーポイント、1個の鼻先端部キーポイント及び1個の顎キーポイントであり、
10個の左側腕輪郭キーポイント:それぞれは2個の左手首輪郭キーポイント(内側外側それぞれ1個、即ち、左手首内側輪郭キーポイントと左手首外側輪郭キーポイント)、2個の左肘輪郭キーポイント(内側外側それぞれ1個、即ち、左肘内側輪郭キーポイントと左肘外側輪郭キーポイント)、2個の左腕の付け根部輪郭キーポイント(内側外側それぞれ1個、即ち、左腕の付け根部内側輪郭キーポイントと左腕の付け根部外側輪郭キーポイントであり、この左腕の付け根部内側輪郭キーポイントが即ち左腋窩キーポイントである)、左手首輪郭キーポイントと左肘輪郭キーポイントとの間の中点位置に位置する2個の左前腕輪郭中点キーポイント(内側外側それぞれ1個、即ち、左前腕内側輪郭中点キーポイントと左前腕外側輪郭中点キーポイント)、及び左肘輪郭キーポイントと左腕の付け根部輪郭キーポイントとの間の中点位置に位置する2個の左上腕輪郭中点キーポイント(内側外側それぞれ1個、即ち、左上腕内側輪郭中点キーポイントと左上腕外側輪郭中点キーポイント)であり、本願における上腕が即ち上膊であり、
10個の右側腕輪郭キーポイント:それぞれは2個の右手首輪郭キーポイント(内側外側それぞれ1個、即ち、右手首内側輪郭キーポイントと右手首外側輪郭キーポイント)、2個の右肘輪郭キーポイント(内側外側それぞれ1個、即ち、右肘内側輪郭キーポイントと右肘外側輪郭キーポイント)、2個の右腕の付け根部輪郭キーポイント(内側外側それぞれ1個、即ち、右腕の付け根部内側輪郭キーポイントと右腕の付け根部外側輪郭キーポイントであり、この右腕の付け根部内側輪郭キーポイントが即ち右腋窩キーポイントである)、右手首輪郭キーポイントと右肘輪郭キーポイントとの間の中点位置に位置する2個の右前腕輪郭中点キーポイント(内側外側それぞれ1個、即ち、右前腕内側輪郭中点キーポイントと右前腕外側輪郭中点キーポイント)、及び右肘輪郭キーポイントと右腕の付け根部輪郭キーポイントとの間の中点位置に位置する2個の右上腕輪郭中点キーポイント(内側外側それぞれ1個、即ち、右上腕内側輪郭中点キーポイントと右上腕外側輪郭中点キーポイント)であり、本願における前腕が即ち下臂である。
2個の左側手部輪郭キーポイント:それぞれは1個の左手手先キーポイント及び1個の左手掌中点キーポイントであり、
2個の右側手部輪郭キーポイント:それぞれは1個の右手手先キーポイント及び1個の右手掌中点キーポイントであり、
2個の左側肩部輪郭キーポイント:それぞれは左側肩部と頭部の接合位置に位置する1個の左肩頭接合キーポイント、及び左腕の付け根部輪郭キーポイントと左肩頭接合キーポイントとの間の中点位置に位置する1個の左肩輪郭中点キーポイントであり、
2個の右側肩部輪郭キーポイント:それぞれは右側肩部と頭部の接合位置に位置する1個の右肩頭接合キーポイント、及び右腕の付け根部輪郭キーポイントと右肩頭接合キーポイントとの間の中点位置に位置する1個の右肩輪郭中点キーポイントであり、
10個の左側足部輪郭キーポイント:それぞれは1個の股間キーポイント、2個の左膝輪郭キーポイント(内側外側それぞれ1個、即ち、左膝内側輪郭キーポイントと左膝外側輪郭キーポイント)、2個の左踝輪郭キーポイント(内側外側それぞれ1個、即ち、左踝内側輪郭キーポイントと左踝外側輪郭キーポイント)、1個の左股の付け根部外側輪郭キーポイント、左膝輪郭キーポイントと左踝輪郭キーポイントとの間の中点位置に位置する2個の左すね輪郭中点キーポイント(内側外側それぞれ1個、即ち、左すね内側輪郭中点キーポイントと左すね外側輪郭中点キーポイント)、左膝内側輪郭キーポイントと股間キーポイントとの間の中点位置に位置する1個の左股内側輪郭中点キーポイント、及び左膝外側輪郭キーポイントと左股の付け根部外側輪郭キーポイントとの間の中点位置に位置する1個の左股外側輪郭中点キーポイントであり、
10個の右側足部輪郭キーポイント:それぞれは1個の股間キーポイント(上記左側足部輪郭キーポイントのうちの股間キーポイントと重複する)、2個の右膝輪郭キーポイント(内側外側それぞれ1個、即ち、右膝内側輪郭キーポイントと右膝外側輪郭キーポイント)、2個の右踝輪郭キーポイント(内側外側それぞれ1個、即ち、右踝内側輪郭キーポイントと右踝外側輪郭キーポイント)、1個の右股の付け根部外側輪郭キーポイント、右膝輪郭キーポイントと右踝輪郭キーポイントとの間の中点位置に位置する2個の右すね輪郭中点キーポイント(内側外側それぞれ1個、即ち、右すね内側輪郭中点キーポイントと右すね外側輪郭中点キーポイント)、右膝内側輪郭キーポイントと股間キーポイントとの間の中点位置に位置する1個の右股内側輪郭中点キーポイント、及び右膝外側輪郭キーポイントと右股の付け根部外側輪郭キーポイントとの間の中点位置に位置する1個の右股外側輪郭中点キーポイントであり、
5個の左側腰部輪郭キーポイント:それぞれは左股の付け根部外側輪郭キーポイントと左腕の付け根部輪郭キーポイントとの間を6等分にして生成する5個の等分点であり、
5個の右側腰部輪郭キーポイント:それぞれは右股の付け根部外側輪郭キーポイントと右腕の付け根部輪郭キーポイントとの間を6等分にして生成する5個の等分点であり、
2個の左側脚部輪郭キーポイント:それぞれは1個の左爪先キーポイント及び1個の左踵キーポイントであり
2個の右側脚部輪郭キーポイント:それぞれは1個の右爪先キーポイント及び1個の右踵キーポイントであり、
上記人体輪郭キーポイントの総数が64個である(重複する股間キーポイント1個を含まない)。複数回の実験によって分かったように、本願では64個の人体輪郭キーポイントを検出するために消費する計算資源及び時間コストが多くない。図2から分かったように、64個の人体輪郭キーポイントは人体の外部輪郭を精確に描くことができる。このことから分かったように、64個の人体輪郭キーポイントは、資源消費、リアルタイム性及び人体外部輪郭を描く正確度で、好適なバランスを取ることができる。
上記人体輪郭キーポイントの詳細な分布は選択可能な一例に過ぎず、本願では人体輪郭キーポイントの分布情况が限定されなく、人体輪郭キーポイントによって人体の外部輪郭を基本的に描くことができればよい。また、人体輪郭キーポイントの数が多いほど(例えば、64個より多い)、人体輪郭キーポイントに基づいて描かれた人体輪郭が精確になることが多い。
選択可能な一例において、該操作S110はプロセッサによりメモリに記憶された対応のコマンドを呼び出して実行されてもよく、プロセッサにより作動する予測結果取得モジュール810によって実行されてもよい。
S120において、人体輪郭キーポイント予測結果により画像ブロック中の人体輪郭キーポイントを取得する。
選択可能な一例において、本願は、予め設置された人体輪郭点判別条件により、第1のニューラルネットワークから出力される情報を判断し、判断結果により画像ブロックにおける人体輪郭キーポイントを取得し、更に位置マッピング等の方式によって画像ブロックにおける人体輪郭キーポイントを被処理画像に変換して、被処理画像における人体輪郭キーポイントを取得することができる。本願における判別条件は実際に応じて設定されるものであり、例えば、人体輪郭キーポイント対応マップに基づいて設定される。
選択可能な一例では、第1のニューラルネットワークはN個の人体輪郭キーポイントについて、N個の人体輪郭キーポイント信頼度マップを出力し、本願は、所定の信頼度要求によりM(Mが0より大きく且つN以下である)番目の人体輪郭キーポイント信頼度マップを判断して、人体輪郭キーポイント信頼度マップから所定の信頼度要求を満たす点を選択することができ、例えば、本願は、所定の信頼度要求によりM番目の人体輪郭キーポイント信頼度マップについて下記操作を行ってよく、M番目の人体輪郭キーポイント信頼度マップから信頼度が最も高い点を選択し、この信頼度が最も高い点が所定の信頼度閾値より大きいか否かを判断し、所定の信頼度閾値より大きくなければ、被処理画像にM番目の人体輪郭キーポイントが存在しないことを示し、所定の信頼度閾値より大きければ、該点の画像ブロックでの位置に対してマッピング処理を行って、該点の被処理画像でのマッピング位置点を取得でき、該マッピング位置点がM番目の人体輪郭キーポイントとなる。
選択可能な一例において、該操作S120はプロセッサによりメモリに記憶された対応のコマンドを呼び出して実行されてもよく、プロセッサにより作動する輪郭キーポイント取得モジュール820によって実行されてもよい。
本願により取得された人体輪郭キーポイントは、被処理画像における人体外部輪郭を精確に描くことに寄与し、そのように人体が含まれる画像からより豊富な人体セマンティクス情報を取得することに寄与し、更により豊富な人体セマンティクス情報を対応の用途に提供することができ、例えば、本願により抽出された人体輪郭キーポイントは、ステッカー処理、人体動作分析及び人体形態分析等の用途に利用可能である。本願は第1のニューラルネットワークを用いて被処理画像の人体輪郭キーポイントを取得することによって、被処理画像の人体輪郭キーポイントを高速且つ精確に取得することに寄与し、そのように被処理画像の人体輪郭キーポイントをリアルタイムで抽出する要求を満足することに寄与し、更に本願で提供される技術的手段を生放送又はマンマシンインタラクション等のリアルタイム環境に利用可能にする。
図3は本願のニューラルネットワークのトレーニング方法の一実施形態のフローチャートである。図3に示すように、該実施例の方法は、操作S300、操作S310及び操作S320を含む。以下、図3における各操作について詳細に説明する。
S300において、人体が含まれるサンプル画像ブロックの画像特徴を取得し、例えば、トレーニングデータ集合から画像サンプルを取得し、且つ画像サンプル内の人体が含まれるサンプル画像ブロックの画像特徴を取得する。選択可能な一例において、本願におけるトレーニングデータ集合は、第1のニューラルネットワークをトレーニングするための複数の画像サンプルを含み、一般的には、それぞれの画像サンプルにはいずれも人体輪郭キーポイントのラベリング情報が設置されており、例えば、それぞれの画像サンプルにいずれも複数の人体輪郭キーポイント(例えば、64個又は64より大きく且つ115個以下である人体輪郭キーポイント等)ラベリング情報が設置されている。本願はランダムに読み取る方式又は画像サンプル配列順序で読み取る方式によりトレーニングデータ集合から一回に一つ又は複数の画像サンプルを読み取ることができる。トレーニングデータ集合中の画像サンプルの人体輪郭キーポイントのラベリング情報の生成方式は下記の図5の説明のようになってもよく、ここで、詳細な説明は割愛する。
選択可能な一例において、本願は様々な形態で人体が含まれるサンプル画像ブロックの画像特徴を取得することができ、例えば、本願はニューラルネットワークの方式で画像サンプル内の人体が含まれる画像ブロックの画像特徴を取得することができる。選択可能な一例において、本願は、先に画像サンプルに対して人体検出を行い、次に、人体検出結果及び画像サンプルをトレーニング待ちの入力ニューラルネットワークに提供して、トレーニング待ちの入力ニューラルネットワークにより人体が含まれる所定の大きさのサンプル画像ブロックを取得し、最後に、トレーニング待ちの第2のニューラルネットワークを用いてサンプル画像ブロックの画像特徴を取得するようになってよい。上記人体検出結果は画像サンプルにおける人体外接枠の中心位置及び人体スケール因子であってよい。
選択可能な一例において、該操作S300はプロセッサによりメモリに記憶された対応のコマンドを呼び出して実行されてもよく、プロセッサにより作動する第1のモジュール900によって実行されてもよい。
S310において、トレーニング待ちの第1のニューラルネットワークにより画像特徴に基づいて人体の人体輪郭キーポイント予測結果を取得する。
選択可能な一例において、本願におけるトレーニング待ちの第1のニューラルネットワークは、入力されるサンプル画像ブロックの画像特徴について、少なくとも一つの人体輪郭キーポイントに対してそれぞれ人体輪郭キーポイント対応マップを形成する。選択可能な一例において、人体輪郭キーポイントの数をN(Nが0より大きい整数)に予め設定し、本願におけるトレーニング待ちの第1のニューラルネットワークは、入力されるサンプル画像ブロックの画像特徴について、N個の人体輪郭キーポイント対応マップを形成し、それぞれの人体輪郭キーポイント対応マップがいずれも一つの人体輪郭キーポイントに対応し、異なる人体輪郭キーポイント対応マップが異なる人体輪郭キーポイントに対応し、そのように一つの人体輪郭キーポイント対応マップはそれに対応する人体輪郭キーポイントがサンプル画像ブロックのそれぞれの位置に現れる可能性を示すことができる。
選択可能な一例において、トレーニング待ちの第1のニューラルネットワークから出力される人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップであってよい。人体輪郭キーポイント信頼度マップは対応する人体輪郭キーポイントがサンプル画像ブロックの複数の位置(例えば、それぞれの位置)に現れる信頼度を示すことができる。
選択可能な一例において、該操作S310はプロセッサによりメモリに記憶された対応のコマンドを呼び出して実行されてもよく、プロセッサにより作動する第2のモジュール910によって実行されてもよい。
S320において、人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行う。
選択可能な一例において、画像サンプルのいずれか一つの人体輪郭キーポイントのラベリング情報に対して、本願は該人体輪郭キーポイントのラベリング情報に人体輪郭キーポイント対応マップ(例えば、人体輪郭キーポイント信頼度マップ)を生成することができる。本願は画像サンプルの一部又は全部の人体輪郭キーポイントのラベリング情報に対してそれぞれ一つの人体輪郭キーポイント対応マップ(例えば、人体輪郭キーポイント信頼度マップ)を生成することができる。その後、本願はトレーニング待ちの第1のニューラルネットワークから出力された各人体輪郭キーポイント対応マップ(例えば、人体輪郭キーポイント信頼度マップ)と上記の生成した各人体輪郭キーポイント対応マップ(例えば、人体輪郭キーポイント信頼度マップ)との差異を教師情報として、トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うことができる。
選択可能な一例において、トレーニング待ちの第1のニューラルネットワークがN(例えば、64)個の人体輪郭キーポイントについて出力したN(例えば、64)枚の人体輪郭キーポイント信頼度マップは、それぞれ第1の出力人体輪郭キーポイント信頼度マップ、第2の出力人体輪郭キーポイント信頼度マップ、……及び第Nの出力人体輪郭キーポイント信頼度マップであり、本願では画像サンプルのN(例えば、64)個の人体輪郭キーポイントのラベリング情報のために生成したN(例えば、64)枚の人体輪郭キーポイント信頼度マップは、それぞれ第1の生成人体輪郭キーポイント信頼度マップ、第2の生成人体輪郭キーポイント信頼度マップ、……及び第Nの生成人体輪郭キーポイント信頼度マップであり、本願は第1の出力人体輪郭キーポイント信頼度マップと第1の生成人体輪郭キーポイント信頼度マップとの差異、第2の出力人体輪郭キーポイント信頼度マップと第2の生成人体輪郭キーポイント信頼度マップとの差異、……、及び第Nの出力人体輪郭キーポイント信頼度マップと第Nの生成人体輪郭キーポイント信頼度マップとの差異を教師情報として、トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うことができる。
選択可能な一例において、本願は様々な方式によって人体輪郭キーポイント信頼度マップを生成することができ、例えば、画像サンプルのいずれか一つの人体輪郭キーポイントのラベリング情報について、先に該人体輪郭キーポイントのラベリング情報によりそのサンプル画像ブロックでの位置を決定し、次に、該位置の所定の周囲領域(例えば、該位置を中心とするX×Y領域、更に例えば、画像ブロック領域全体等)内で、ガウス応答を形成し、そのように該ガウス応答に基づいて該人体輪郭キーポイントのラベリング情報に対応する人体輪郭キーポイント信頼度マップを取得できる。上記方法によれば、本願は画像サンプルのそれぞれの人体輪郭キーポイントのラベリング情報に対して、それぞれサンプル画像ブロックの大きさと同様な1枚の人体輪郭キーポイント信頼度マップを生成することができる。また、本願は他の方式によって人体輪郭キーポイント信頼度マップを生成することもでき、例えば、人体輪郭キーポイントのラベリング情報に対応するサンプル画像ブロック内の位置を1に設置し、他の位置を0に設置して、1枚の人体輪郭キーポイント信頼度マップを取得する。本願は人体輪郭キーポイント信頼度マップを生成する実現形態を限定しない。
選択可能な一例において、本願は予め設置された人体輪郭点判別条件により、トレーニング待ちの第1のニューラルネットワークから出力される情報を判断し、判断結果によりサンプル画像ブロックにおける人体輪郭キーポイントを取得することができ、更に位置マッピング等の方式によってサンプル画像ブロックにおける人体輪郭キーポイントを画像サンプルに変換して、画像サンプル内の人体輪郭キーポイントを取得することができる。その後、本願は上記の取得された画像サンプル内の人体輪郭キーポイントと画像サンプルの人体輪郭キーポイントのラベリング情報との差異を小さくすることを目的として、トレーニング待ちの第1のニューラルネットワークのネットワークパラメータ(例えば、重み値等)を調整して、トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うことができる。
選択可能な一例において、トレーニング待ちの第1のニューラルネットワークに対するトレーニングが所定の反復条件に達した時に、今回のトレーニングプロセスが終了するとする。本願の所定の反復条件は、トレーニング待ちの第1のニューラルネットワークから出力される情報と画像サンプルの人体輪郭キーポイントのラベリング情報との差異が所定の差異要求を満たしたことを含んでよい。差異がこの所定の差異要求を満たした場合に、トレーニング待ちの第1のニューラルネットワークに対する今回のトレーニングが成功して完了するとする。本願の所定の反復条件は、該トレーニング待ちの第1のニューラルネットワークをトレーニングするために使用される画像サンプルの数が所定の数量要求に達した等のことを含んでもよい。使用される画像サンプルの数量が所定の数量要求に達したが、差が所定の差要求を満たしていない場合に、トレーニング待ちの第1のニューラルネットワークに対する今回のトレーニングが成功しなかったとする。トレーニングが成功して完了した第1のニューラルネットワークは、被処理画像における人体が含まれる画像ブロックの画像特徴に対して人体輪郭キーポイント検出処理を行うことに利用可能である。
選択可能な一例において、該操作S320はプロセッサによりメモリに記憶された対応のコマンドを呼び出して実行されてもよく、プロセッサにより作動する第3のモジュール920によって実行されてもよい。
図4は本願のニューラルネットワークのトレーニング方法の別の実施形態のフローチャートである。図4に示すように、該実施例の方法は、操作S400、操作S410、操作S420、操作S430、操作S440及び操作S450を含む。以下、図4における各操作について説明する。
S400において、トレーニングデータ集合から画像サンプルを取得する。本願における画像サンプルについては上記操作S300に対する説明を参照してよい。
S410において、画像サンプルを人体検出器に提供して画像サンプルの人体検出結果を取得する。選択可能に、本願は人体検出器を用いて画像サンプルにおける人体外接枠の中心位置及び人体スケール因子を取得することができる。
S420において、画像サンプルの人体検出結果及び画像サンプルをトレーニング待ちの入力ニューラルネットワークに提供して、トレーニング待ちの入力ニューラルネットワークにより人体が含まれる所定の大きさのサンプル画像ブロックを取得する。
選択可能に、トレーニング待ちの入力ニューラルネットワークは、入力される画像サンプルにおける人体外接枠の中心位置及び人体スケール因子により、画像サンプルにおける人体外接枠の大きさ及び位置を決定でき、そのように人体外接枠の大きさ及び位置により入力される画像サンプルからサンプル画像ブロックを切り取り、且つ該サンプル画像ブロックを出力することができる。
S430において、サンプル画像ブロックをトレーニング待ちの第2のニューラルネットワークに提供して、第2のニューラルネットワークを介してサンプル画像ブロックの画像特徴を取得する。該トレーニング待ちの第2のニューラルネットワークの構造等については上記方法の実施形態での関連説明を参照してよく、ここで、重複説明を省略する。
選択可能な一例において、該操作S400、S410、S420及びS430はプロセッサによりメモリに記憶された対応のコマンドを呼び出して実行されてもよく、プロセッサにより作動する第1のモジュール900によって実行されてもよい。
S440において、サンプル画像ブロックの画像特徴をトレーニング待ちの第1のニューラルネットワークに提供して、トレーニング待ちの第1のニューラルネットワークによりサンプル画像ブロックの画像特徴に基づいて人体輪郭キーポイント予測処理を行って、少なくとも一つの人体輪郭キーポイント対応マップを取得する。
選択可能に、入力されるサンプル画像ブロックの画像特徴について、トレーニング待ちの第1のニューラルネットワークはそれぞれの人体輪郭キーポイントに対してそれぞれ一つの人体輪郭キーポイント信頼度マップを出力することができ、即ち、出力されるそれぞれの人体輪郭キーポイント信頼度マップがいずれも一つの異なる人体輪郭キーポイントに対応し、一つの人体輪郭キーポイント信頼度マップはそれに対応する人体輪郭キーポイントがサンプル画像ブロックのそれぞれの位置に現れる信頼度を示すことができる。
選択可能な一例において、該操作S440はプロセッサによりメモリに記憶された対応のコマンドを呼び出して実行されてもよく、プロセッサにより作動する第2のモジュール910によって実行されてもよい。
S450において、トレーニング待ちの第1のニューラルネットワークから出力されたN個の人体輪郭キーポイント対応マップと画像サンプルの人体輪郭キーポイントのラベリング情報に基づいて形成されたN個の人体輪郭キーポイント対応マップとの差異を教師情報として、トレーニング待ちの入力ニューラルネットワーク、トレーニング待ちの第1のニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対して教師あり学習を行う。
選択可能に、画像サンプルのいずれか一つの人体輪郭キーポイントのラベリング情報に対して、先に該人体輪郭キーポイントのラベリング情報によりそのサンプル画像ブロックでの位置を決定し、次に、該位置の所定の周囲領域(例えば、該位置を中心とするX×Y領域、更に例えば、画像ブロック領域全体等)内で、ガウス応答を形成することができ、そのように該ガウス応答に基づいて該人体輪郭キーポイントのラベリング情報に対応する人体輪郭キーポイント信頼度マップを取得できる。上記方法によれば、本願は画像サンプルのそれぞれの人体輪郭キーポイントのラベリング情報に対してそれぞれサンプル画像ブロックの大きさと同様な1枚の人体輪郭キーポイント信頼度マップを生成することができる。そのようにして、本願は第1のニューラルネットワークがそれぞれの人体輪郭キーポイントについて出力した人体輪郭キーポイント信頼度マップと上記の生成した対応の人体輪郭キーポイント信頼度マップとの差異を教師情報として、トレーニング待ちの入力ニューラルネットワーク、トレーニング待ちの第1のニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対して教師あり学習を行うことができる。つまり、本願は上記の生成した人体輪郭キーポイント信頼度マップとトレーニング待ちの第1のニューラルネットワークから出力された人体輪郭キーポイント信頼度マップとの差異を小さくすることを目的として、トレーニング待ちの入力ニューラルネットワーク、トレーニング待ちの第1のニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークのネットワークパラメータ(例えば、重み値等)を調整して、トレーニング待ちの入力ニューラルネットワーク、トレーニング待ちの第1のニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対して教師あり学習を行うことができる。
トレーニング待ちの入力ニューラルネットワーク、トレーニング待ちの第1のニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対するトレーニングが所定の反復条件に達した(例えば、差が所定の差要求を満たし又は使用される画像サンプルの数が所定の数量要求に達した)時に、今回のトレーニングプロセスが終了するとする。トレーニングプロセスが終了した時に、トレーニング待ちの第1のニューラルネットワークから出力された情報と画像サンプルの人体輪郭キーポイントのラベリング情報との差異が所定の差異要求を満たせば、トレーニング待ちの入力ニューラルネットワーク、トレーニング待ちの第1のニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対する今回のトレーニングが成功して完了するとし、逆には、トレーニング待ちの入力ニューラルネットワーク、トレーニング待ちの第1のニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対する今回のトレーニングが成功しなかったとする。
選択可能な一例において、該操作S450はプロセッサによりメモリに記憶された対応のコマンドを呼び出して実行されてもよく、プロセッサにより作動する第3のモジュール920によって実行されてもよい。
図5は本願の画像サンプルの人体輪郭キーポイントのラベリング情報の生成方法の一実施形態のフローチャートである。図5に示すように、該実施例の方法は、操作S500、操作S510及び操作S520を含む。選択可能に、該実施例の方法は、操作S530を更に含む。以下、図5における各操作について説明する。
S500において、画像サンプルの人体骨格キーポイントを取得する。
選択可能な一例において、本願は様々な方式により画像サンプルの人体骨格キーポイントを取得することができ、選択可能な一例において、まず、画像サンプルを人体検出器に提供して画像サンプルの人体検出結果を取得し、例えば、画像サンプルにおける人体外接枠の中心位置及び人体スケール因子を取得し、次に、画像サンプルの人体検出結果及び画像サンプルを入力ニューラルネットワークに提供して、入力ニューラルネットワークにより該画像サンプル内の人体が含まれるサンプル画像ブロックを取得し、次に、サンプル画像ブロックを人体骨格検出モジュールに供給して、該人体骨格検出モジュールによりサンプル画像ブロックにおける人体骨格キーポイントを取得する。
選択可能な一例において、本願における人体骨格キーポイントは一般的には体の関節の中心位置に位置する。人体骨格キーポイントを用いて人体外部輪郭を描くことができない。選択可能に、本願で取得された人体骨格キーポイントは、右肩キーポイント、右肘キーポイント、右手首キーポイント、左肩キーポイント、左肘キーポイント、左手首キーポイント、右寛骨キーポイント、右膝キーポイント、右踝キーポイント、左寛骨キーポイント、左膝キーポイント、左踝キーポイント、頭頂部キーポイント及びネックキーポイント等を含む。本願は人体骨格キーポイントの数及び人体骨格キーポイントを取得する実現形態を限定しない。
S510において、該画像サンプルの第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は人体骨格キーポイントに基づいて所定の補助線設置方式により補助線を設置する。
選択可能な一例において、人体輪郭キーポイントのラベリング情報は人体輪郭キーポイントの番号及び位置座標等を含んでよい。一つの画像サンプルは複数の集合を有してよく、異なる集合に対応するラベリング難度が異なってよく、ラベリング難度が高い集合内の人体輪郭キーポイントのラベリング情報は、ラベリング難度が低い集合内の人体輪郭キーポイントのラベリング情報に基づいて形成されたものであってよい。本願におけるラベリング難度の度合いは人体輪郭キーポイントの位置を精確に決定しやすいか否かに応じて区別される。本願における画像サンプルの第1の集合内の人体輪郭キーポイントのラベリング情報のラベリング難度が一般的には最も低く、即ち最も精確に決定されやすい人体輪郭キーポイントのラベリング情報が第1の集合に設置されている。本願は手動でラベリングする等の方式によって、第1の集合内の人体輪郭キーポイントのラベリング情報を形成することができる。
選択可能な一例において、第1の集合内の人体輪郭キーポイントのラベリング情報は、以下のものを含んでよい。
頭部輪郭キーポイントラベリング情報:例えば、1個の頭頂部キーポイントラベリング情報、1個の鼻先端部キーポイントラベリング情報及び1個の顎キーポイントラベリング情報、
左側手部輪郭キーポイントラベリング情報:例えば、1個の左手手先キーポイントラベリング情報及び1個の左手掌中点キーポイントラベリング情報、
右側手部輪郭キーポイントラベリング情報:例えば、1個の右手手先キーポイントラベリング情報及び1個の右手掌中点キーポイントラベリング情報、
左側腕輪郭キーポイントラベリング情報のうちの左手首輪郭キーポイントラベリング情報(内側外側それぞれ1個)、左肘輪郭キーポイントラベリング情報(内側外側それぞれ1個)及び1個の左腕の付け根部内側輪郭キーポイントラベリング情報(即ち、左腋窩キーポイントラベリング情報)、
右側腕輪郭キーポイントラベリング情報のうちの右手首輪郭キーポイントラベリング情報(内側外側それぞれ1個)、右肘輪郭キーポイントラベリング情報(内側外側それぞれ1個)及び1個の右腕の付け根部内側輪郭キーポイントラベリング情報(即ち、右腋窩キーポイントラベリング情報)、
左側肩部輪郭キーポイントラベリング情報のうちの1個の左肩頭接合キーポイントラベリング情報、
右側肩部輪郭キーポイントラベリング情報のうちの1個の右肩頭接合キーポイントラベリング情報、
左側足部輪郭キーポイントラベリング情報のうちの1個の股間キーポイントラベリング情報、左膝輪郭キーポイントラベリング情報(内側外側それぞれ1個)及び左踝輪郭キーポイントラベリング情報(内側外側それぞれ1個)、
右側足部輪郭キーポイントラベリング情報のうちの股間キーポイントラベリング情報(重複)、右膝輪郭キーポイントラベリング情報(内側外側それぞれ1個)と右踝輪郭キーポイントラベリング情報(内側外側それぞれ1個)、
左側脚部輪郭キーポイントラベリング情報:例えば、1個の左爪先キーポイントラベリング情報及び1個の左踵キーポイントラベリング情報、
右側脚部輪郭キーポイントラベリング情報:例えば、1個の右爪先キーポイントラベリング情報及び1個の右踵キーポイントラベリング情報。
選択可能な一例において、本願の所定の補助線設置方式は一般的には、一つの人体輪郭キーポイントを通過するように、2つの人体骨格キーポイントの連結線に垂直する垂線を設置することを含む。
第1の選択可能な例において、人体骨格キーポイントのうちの左肩キーポイントと左肘キーポイントとの連結線(以下、第1の連結線という)を作成し、第1の集合中の左腋窩キーポイントを通過するように該第1の連結線の垂線(以下、第1の垂線という)を設置し、該第1の垂線が本願の一補助線となる。同様に、人体骨格キーポイントのうちの右肩キーポイントと右肘キーポイントとの連結線(以下、第2の連結線という)を作成し、第1の集合中の右腋窩キーポイントを通過するように該第2の連結線の垂線(以下、第2の垂線という)を設置し、該第2の垂線が本願の一補助線となる。
第2の選択可能な例において、人体骨格キーポイントのうちの左寛骨キーポイントと左膝キーポイントとの連結線(以下、第3の連結線という)を作成し、第1の集合中の股間キーポイントを通過するように該第3の連結線の垂線(以下、第3の垂線という)を設置し、該第3の垂線が本願の一補助線となる。同様に、人体骨格キーポイントのうちの右寛骨キーポイントと右膝キーポイントとの連結線(以下、第4の連結線という)を作成し、第1の集合中の股間キーポイントを通過するように該第4の連結線の垂線(以下、第4の垂線という)を設置し、該第4の垂線が本願の一補助線となる。
選択可能な一例において、該操作S510はプロセッサによりメモリに記憶された対応のコマンドを呼び出して実行されてもよく、プロセッサにより作動する人体輪郭キーポイントの検出装置1000によって実行されてもよい。
S520において、補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成する。
選択可能な一例において、本願の画像サンプルの第2の集合内の人体輪郭キーポイントのラベリング情報のラベリング難度が一般的には第1の集合より高い。第2の集合内の人体輪郭キーポイントのラベリング情報は一般的には第1の集合内の人体輪郭キーポイントのラベリング情報に基づいて形成されたものである。本願は、補助線から点を選択する方式によって、例えば交点を選択する方式によって、第2の集合内の人体輪郭キーポイントのラベリング情報を形成することができる。補助線を作成する方式及び補助線から点を選択する方式によって第2の集合内の人体輪郭キーポイントのラベリング情報を形成することは、第2の集合内の人体輪郭キーポイントのラベリング情報の正確性や一致性を高めることに寄与する。
選択可能な一例において、本願は、第1の垂線とサンプル画像ブロックにおける人体外部輪郭との交点を左腕の付け根部外側輪郭キーポイントとし、左腕の付け根部外側輪郭キーポイントのサンプル画像ブロックでの位置座標を画像サンプルでの位置座標に変換することによって、該左腕の付け根部外側輪郭キーポイントの番号及びその画像サンプルでの位置座標により第2の集合中の左腕の付け根部外側輪郭キーポイントラベリング情報を形成することができる。該方式によれば、左腕の付け根部外側輪郭キーポイントラベリング情報の正確性や一致性を高めることに寄与する。
選択可能な一例において、本願は、第2の垂線とサンプル画像ブロックにおける人体外部輪郭との交点を右腕の付け根部外側輪郭キーポイントとし、右腕の付け根部外側輪郭キーポイントのサンプル画像ブロックでの位置座標を画像サンプルでの位置座標に変換することによって、該右腕の付け根部外側輪郭キーポイントの番号及びその画像サンプルでの位置座標により第2の集合中の右腕の付け根部外側輪郭キーポイントラベリング情報を形成することができる。該方式によれば、右腕の付け根部外側輪郭キーポイントラベリング情報の正確性や一致性を高めることに寄与する。
選択可能な一例において、本願は、第3の垂線とサンプル画像ブロックにおける人体外部輪郭との交点を左股の付け根部外側輪郭キーポイントとし、左股の付け根部外側輪郭キーポイントのサンプル画像ブロックでの位置座標を画像サンプルでの位置座標に変換することによって、該左股の付け根部外側輪郭キーポイントの番号及びその画像サンプルでの位置座標により第2の集合中の左股の付け根部外側輪郭キーポイントラベリング情報を形成することができる。該方式によれば、左股の付け根部外側輪郭キーポイントラベリング情報の正確性や一致性を高めることに寄与する。
選択可能な一例において、本願は、第4の垂線とサンプル画像ブロックにおける人体外部輪郭との交点を右股の付け根部外側輪郭キーポイントとし、右股の付け根部外側輪郭キーポイントのサンプル画像ブロックでの位置座標を画像サンプルでの位置座標に変換することによって、該右股の付け根部外側輪郭キーポイントの番号及びその画像サンプルでの位置座標により第2の集合中の右股の付け根部外側輪郭キーポイントラベリング情報を形成することができる。該方式によれば、右股の付け根部外側輪郭キーポイントラベリング情報の正確性や一致性を高めることに寄与する。
選択可能な一例において、該操作S500、S510及びS520はプロセッサによりメモリに記憶された対応のコマンドを呼び出して実行されてもよく、プロセッサにより作動する第1のラベリングモジュール930によって実行されてもよい。
S530において、第1の集合及び/又は第2の集合内の2つの人体輪郭キーポイント間の連結線におけるN1個の仕切点に基づいて、第3の集合内の人体輪郭キーポイントのラベリング情報を形成する。
選択可能な一例において、本願の画像サンプルの第3の集合内の人体輪郭キーポイントのラベリング情報のラベリング難度が一般的には第1の集合より高い。しかしながら、第3の集合のラベリング難度が必ず第2の集合のラベリング難度より高いというわけではない。選択可能な一例では、本願における人体輪郭キーポイントのラベリング情報は第1の集合中の2つの人体輪郭キーポイントの連結線上のN1個の仕切点のラベリング情報であってもよく、第2の集合内の2つの人体輪郭キーポイントの連結線上のN1個の仕切点のラベリング情報であってもよく、更に第1の集合中の一つの人体輪郭キーポイントと第2の集合中の一つの人体輪郭キーポイントの連結線上のN1個の仕切点のラベリング情報であってもよい。本願におけるN1個の仕切点は一般的にはN1個の平均仕切点であり、N1個の平均仕切点が即ちN1個の等分点であり、且つN1が1より大きい整数であり、例えば、2等分点(即ち、中点)又は5等分点又は6等分点等が挙げられる。
選択可能な一例では、本願は、左手首内側輪郭キーポイントと左肘内側輪郭キーポイントとの連結線上の中点を左前腕内側輪郭中点キーポイントとし、第3の集合中の左前腕内側輪郭中点キーポイントラベリング情報を形成することができる。本願は、左手首外側輪郭キーポイントと左肘外側輪郭キーポイントとの連結線上の中点を左前腕外側輪郭中点キーポイントとし、第3の集合中の左前腕外側輪郭中点キーポイントラベリング情報を形成することができる。
選択可能な一例では、本願は、右手首内側輪郭キーポイントと右肘内側輪郭キーポイントとの連結線上の中点を右前腕内側輪郭中点キーポイントとし、第3の集合中の右前腕内側輪郭中点キーポイントラベリング情報を形成することができる。本願は、右手首外側輪郭キーポイントと左肘外側輪郭キーポイントとの連結線上の中点を右前腕外側輪郭中点キーポイントとし、第3の集合中の右前腕外側輪郭中点キーポイントラベリング情報を形成することができる。
選択可能な一例では、本願は、左肘内側輪郭キーポイントと左腕の付け根部内側輪郭キーポイント(即ち、左腋窩キーポイント)との連結線上の中点を左上腕内側輪郭中点キーポイントとし、第3の集合中の左上腕内側輪郭中点キーポイントラベリング情報を形成することができる。本願は、左肘外側輪郭キーポイントと左腕の付け根部外側輪郭キーポイントとの連結線上の中点を左上腕外側輪郭中点キーポイントとし、第3の集合中の左上腕外側輪郭中点キーポイントラベリング情報を形成することができる。
選択可能な一例では、本願は、右肘内側輪郭キーポイントと右腕の付け根部内側輪郭キーポイント(即ち、右腋窩キーポイント)との連結線上の中点を右上腕内側輪郭中点キーポイントとし、第3の集合中の右上腕内側輪郭中点キーポイントラベリング情報を形成することができる。本願は、右肘外側輪郭キーポイントと右腕の付け根部外側輪郭キーポイントとの連結線上の中点を右上腕外側輪郭中点キーポイントとし、第3の集合中の右上腕外側輪郭中点キーポイントラベリング情報を形成することができる。
選択可能な一例では、本願は、左腕の付け根部外側輪郭キーポイントと左肩頭接合キーポイントとの連結線上の中点を左肩輪郭中点キーポイントとし、第3の集合中の左肩輪郭中点キーポイントラベリング情報を形成することができる。
選択可能な一例では、本願は、右腕の付け根部外側輪郭キーポイントと右肩頭接合キーポイントとの連結線上の中点を右肩輪郭中点キーポイントとし、第3の集合中の右肩輪郭中点キーポイントラベリング情報を形成することができる。
選択可能な一例では、本願は、左膝内側輪郭キーポイントと左踝内側輪郭キーポイントとの連結線上の中点を左すね内側輪郭中点キーポイントとし、第3の集合中の左すね内側輪郭中点キーポイントラベリング情報を形成することができる。本願は、左膝外側輪郭キーポイントと左踝外側輪郭キーポイントとの連結線上の中点を左すね外側輪郭中点キーポイントとし、第3の集合中の左すね外側輪郭中点キーポイントラベリング情報を形成することができる。
選択可能な一例では、本願は、右膝内側輪郭キーポイントと右踝内側輪郭キーポイントとの連結線上の中点を右すね内側輪郭中点キーポイントとし、第3の集合中の右すね内側輪郭中点キーポイントラベリング情報を形成することができる。本願は、右膝外側輪郭キーポイントと右踝外側輪郭キーポイントとの連結線上の中点を右すね外側輪郭中点キーポイントとし、第3の集合中の右すね外側輪郭中点キーポイントラベリング情報を形成することができる。
選択可能な一例では、本願は、左膝内側輪郭キーポイントと左股の付け根部内側輪郭キーポイント(即ち、股間キーポイント)との連結線上の中点を左股内側輪郭中点キーポイントとし、第3の集合中の左股内側輪郭中点キーポイントラベリング情報を形成することができる。本願は、左膝外側輪郭キーポイントと左股の付け根部外側輪郭キーポイントとの連結線上の中点を左股外側輪郭中点キーポイントとし、第3の集合中の左股外側輪郭中点キーポイントラベリング情報を形成することができる。
選択可能な一例では、本願は、右膝内側輪郭キーポイントと右股の付け根部内側輪郭キーポイント(即ち、股間キーポイント)との連結線上の中点を右股内側輪郭中点キーポイントとし、第3の集合中の右股内側輪郭中点キーポイントラベリング情報を形成することができる。本願は、右膝外側輪郭キーポイントと右股の付け根部外側輪郭キーポイントとの連結線上の中点を右股外側輪郭中点キーポイントとし、第3の集合中の右股外側輪郭中点キーポイントラベリング情報を形成することができる。
選択可能な一例では、本願は、左股の付け根部外側輪郭キーポイントと左腕の付け根部輪郭キーポイント(即ち、左腋窩キーポイント)との連結線を6等分にして5個の等分点を生成することができ、本願は、5個の等分点を5個の左側腰部輪郭キーポイントとし、第3の集合中の5個の左側腰部輪郭キーポイントラベリング情報を形成することができる。
選択可能な一例では、本願は、右股の付け根部外側輪郭キーポイントと右腕の付け根部輪郭キーポイント(即ち、右腋窩キーポイント)との連結線を6等分にして5個の等分点を生成することができ、本願は、5個の等分点を5個の右側腰部輪郭キーポイントとし、第3の集合中の5個の右側腰部輪郭キーポイントラベリング情報を形成することができる。
選択可能な一例において、該操作S530はプロセッサによりメモリに記憶された対応のコマンドを呼び出して実行されてもよく、プロセッサにより作動する第2のラベリングモジュール940によって実行されてもよい。
図6は本願の画像処理方法の一実施形態のフローチャートである。図6に示すように、該実施例の方法は、操作S600及び操作S610を含む。以下、図6における各操作について説明する。
S600において、人体が含まれる画像ブロックの人体輪郭キーポイントを検出する。本願における人体輪郭キーポイントは、人体の外部輪郭を示すために用いられる。本願は上記図1に示す各操作によって人体輪郭キーポイントの検出を行うことができる。ここで再度説明することを省略する。
選択可能な一例において、該操作S600はプロセッサによりメモリに記憶された対応のコマンドを呼び出して実行されてもよく、プロセッサにより作動する人体輪郭キーポイントの検出装置1000によって実行されてもよい。
S610において、人体輪郭キーポイントに基づいて画像ブロックに対してAR(Augmented Reality、拡張現実)効果のレンダリング処理を行う。
選択可能な一例において、本願は、画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を先に決定しておき、次に、該位置関係によりステッカー素材に基づいて、画像ブロックに対してAR効果のレンダリング処理を行うことができる。選択可能な一例では、まず、ステッカーハンドルを作成するための第1のインターフェイス関数を呼び出してステッカーハンドルを作成し、次に、ステッカー素材を読み取るための第2のインターフェイス関数を呼び出してステッカー素材圧縮パッケージを内部メモリに読み込み、解析し、それにより解析結果に基づいてステッカー素材に関連する人体輪郭キーポイント、ステッカー素材の再生トリガ条件、ステッカー素材の再生状態パラメータ等のレンダリングに必要な情報を取得し、次に、ステッカー素材をレンダリングするための第3のインターフェイス関数を呼び出して解析結果に基づいて画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定し、上記ステッカーハンドルに基づいて解析結果と位置関係により画像ブロック上で内部メモリに読み込まれたステッカー素材パッケージに対してAR効果のレンダリングを行う。レンダリングが終了した後、以上で作成したステッカーハンドルを廃棄する。
選択可能な一例において、本願におけるステッカー素材の再生状態パラメータは、再生所在レイヤ、リピート再生パラメータ及び拡大/縮小再生等を含んでよい。本願におけるAR効果は、服装効果(例えば、着替え効果)、アクセサリー効果(例えば、アクセサリーをつける効果)、広告効果及び2D/3D特殊効果等であってよい。本願は再生状態パラメータに含まれる内容及びAR効果の表現形態を限定しない。
選択可能な一例において、該操作S610はプロセッサによりメモリに記憶された対応のコマンドを呼び出して実行されてもよく、プロセッサにより作動するレンダリングモジュール1010によって実行されてもよい。
図7は本願で被処理画像に対してステッカー処理を行う一実施形態のフローチャートである。図7に示すように、該実施例の方法は、操作S700、操作S710、操作S720、操作S730、操作S740及び操作S750を含む。以下、図7における各操作について説明する。
S700において、ステッカーハンドルを作成する。
選択可能な一例において、本願はステッカーハンドルを作成するインターフェイス関数を呼び出すことによってステッカーハンドルの作成を実現することができる。作成したステッカーハンドルには、ビデオフレーム及びステッカー素材等を記憶するために対応の記憶空間が残されている。また、本願は非GL(Graphics Library、グラフィックスライブラリ)環境でステッカーハンドルを作成することができる。本願で作成するステッカーハンドルは遅延に基づいてGL中の資源を作成するステッカーハンドルであってよく、つまり、作成するステッカーハンドルにGL中の資源を使用する要求があった場合に、資源を使用する時に作成するポリシーを採用可能であり、例えば、第1回のレンダリングの前に、GL環境で対応の資源を作成する。
S710において、ステッカー素材を読み取る。
選択可能な一例において、本願は、ステッカー素材を読み取るインターフェイス関数を呼び出すことによってステッカー素材の読み取りを実現することができ、例えば、該インターフェイス関数にステッカー素材のパス情報を供給することによって、対応のステッカー素材圧縮パッケージを内部メモリに読み込み、内部メモリ中で該圧縮パッケージ中のファイルを解析する。ステッカー素材圧縮パッケージには通常jsonファイルが含まれており、jsonファイルの解析によって、ステッカー素材を読み取るように、ステッカー素材圧縮パッケージ中のステッカー素材(例えば、2Dステッカー等)のピクチャー数及び大きさ等のステッカー素材の情報を取得でき、一方、異なるステッカー素材と人体輪郭キーポイントの位置関係及びステッカー素材のトリガ動作等を取得できる。本願は以上で作成したステッカーハンドルにステッカー素材、位置関係及びトリガ動作等のステッカー素材レンダリング情報を記憶できる。
選択可能な一例において、本願は、ステッカーハンドル中のステッカーレンダリング情報によりレンダリング要求があるフレーム数を取得し、且つ対応のビデオフレームを予め読み取るようになってよい。本願はバックグランドで資源読取スレッドを作動させることによって上記のビデオフレームを読み取る操作を完了することができる。
S720において、ステッカー素材をレンダリングする。
選択可能な一例において、本願は、ステッカー素材をレンダリングするインターフェイス関数を呼び出すことによってステッカー素材をレンダリングする操作を実現することができる。例えば、該インターフェイス関数はステッカー素材レンダリング情報及び検出されたビデオフレーム中の動作により、該ビデオフレームで対応のステッカー素材をレンダリングする必要があるか否か(例えば、ビデオフレーム中の動作が各ステッカー素材のそれぞれに対応するトリガ動作に属するか否か等)を判断することができ、ビデオフレームで対応のステッカー素材をレンダリングする必要があると判断された場合に、該ステッカー素材が再生状態に進み、本願はステッカー素材と人体輪郭キーポイントの位置関係等の情報により、対応のステッカー素材を所定数のビデオフレーム中の対応位置に表示可能である。選択可能に、再生状態に進むステッカー素材の位置行列を計算し、位置行列をステッカーハンドルに記憶するようにしてよく、表示時に、表示プロセッサにより処理するように、先に対応のステッカー素材をフレームバッファ中の画像テクスチャに変換し、次に、取得された位置行列により、画像テクスチャのビデオフレームでの位置を決定し、レンダリングするようにしてよい。
S730において、ステッカーハンドルを廃棄する。
選択可能な一例において、本願は、ステッカー素材をレンダリングし続ける必要がない場合に、ステッカーハンドルを廃棄するインターフェイス関数を呼び出すことによって以上で作成したステッカーハンドルを廃棄し、特徴ハンドルの占用する対応資源を解放することができる。
選択可能な一例において、該操作S700、S710、S720及びS730はプロセッサによりメモリに記憶された対応のコマンドを呼び出して実行されてもよく、プロセッサにより作動するレンダリングモジュール1010によって実行されてもよい。
本願の実施例で提供されるいずれか1種の方法はデータ処理能力を有するいかなる適切な機器によって実行されてもよく、端末装置とサーバ等を含むが、それらに限定されない。又は、本願の実施例で提供されるいずれか1種の方法はプロセッサによって実行されてもよく、例えば、プロセッサはメモリに記憶された対応のコマンドを呼び出すことで本願の実施例におけるいずれか1種の方法を実行する。以下、詳細な説明を省略する。
当業者であれば、上記方法の実施例を実現する全てまたは一部の操作はプログラムによって関連ハードウェアに命令を出すことにより完成できることを理解でき、前記プログラムは、ROM、RAM、磁気ディスクまたは光ディスクなどのプログラムコードを記憶可能である様々な媒体を含むコンピュータ読み取り可能記憶媒体に記憶可能であり、該プログラムは実行される時に、上記方法の実施例を含む操作を実行する。
図8は本願の人体輪郭キーポイントの検出装置の一実施形態の構成模式図である。図8に示すように、該実施例の装置は主に、画像特徴取得モジュール800、予測結果取得モジュール810及び輪郭キーポイント取得モジュール820を含む。選択可能に、該装置は更に、ニューラルネットワークのトレーニング装置830を含んでよい。
画像特徴取得モジュール800は主に、人体が含まれる画像ブロックの画像特徴を取得するために用いられる。画像特徴取得モジュール800に実行される操作については、上記方法の実施形態での図1の操作S100に対する説明を参照してもよい。ここで、重複説明を省略する。
予測結果取得モジュール810は主に、第1のニューラルネットワークにより上記画像特徴取得モジュール800の取得した画像特徴により、人体の人体輪郭キーポイント予測結果を取得するために用いられる。予測結果取得モジュール810に実行される操作については、上記方法の実施形態での図1の操作S110に対する説明を参照してもよい。ここで、重複説明を省略する。
輪郭キーポイント取得モジュール820は主に、人体輪郭キーポイント予測結果により画像ブロック中の人体輪郭キーポイントを取得するために用いられる。人体輪郭キーポイントは、人体の外部輪郭を表すために用いられる。輪郭キーポイント取得モジュール820に実行される操作については、上記方法の実施形態での図1の操作S120に対する説明を参照してもよい。ここで、重複説明を省略する。
ニューラルネットワークのトレーニング装置830は主に、第1のニューラルネットワークをトレーニングするために用いられる。ニューラルネットワークのトレーニング装置830は、更に入力ニューラルネットワーク及び第2のニューラルネットワークをトレーニングするためにも用いられる。ニューラルネットワークのトレーニング装置830は、更に画像サンプルをラベリングするためにも用いられる。ニューラルネットワークのトレーニング装置830に実行される操作については、上記方法の実施形態での図3、図4及び図5に対する説明を参照してもよい。ニューラルネットワークのトレーニング装置830の構造については、下記実施形態での図9に対する説明を参照してもよい。ここで、重複説明を省略する。
図9は本願のニューラルネットワークのトレーニング装置の一実施形態の構成模式図である。図9に示すように、該実施例の装置は主に、第1のモジュール900、第2のモジュール910及び第3のモジュール920を含む。選択可能に、該装置は更に、第1のラベリングモジュール930と第2のラベリングモジュール940を含んでよい。
第1のモジュール900は主に、人体が含まれるサンプル画像ブロックの画像特徴を取得するために用いられる。
選択可能な一例において、第1のモジュール900は、検出サブモジュール、第1の取得サブモジュール及び第2の取得サブモジュールを含む。この検出サブモジュールは主に、画像サンプルに対して人体検出を行うために用いられる。この第1の取得サブモジュールは主に、人体検出結果及び画像サンプルをトレーニング待ちの入力ニューラルネットワークに提供して、トレーニング待ちの入力ニューラルネットワークにより人体が含まれる所定の大きさのサンプル画像ブロックを取得するために用いられる。この第2の取得サブモジュールは主に、トレーニング待ちの第2のニューラルネットワークを用いてサンプル画像ブロックの画像特徴を取得するために用いられる。第1のモジュール900及びそれに含まれる各サブモジュールに実行される操作については、上記方法の実施形態での図3の操作S300及び図4の操作S400、S410、S420、S430に対する説明を参照してもよい。ここで、重複説明を省略する。
第2のモジュール910は主に、トレーニング待ちの第1のニューラルネットワークにより画像特徴に基づいて人体の人体輪郭キーポイント予測結果を取得するために用いられる。第2のモジュール910に実行される操作については、上記方法の実施形態での図3の操作S310及び図4の操作S440に対する説明を参照してもよい。ここで、重複説明を省略する。
第3のモジュール920は主に、人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うために用いられる。第3のモジュール920は、更に、人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、トレーニング待ちの入力ニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対して教師あり学習を行うために用いられる。第3のモジュール920に実行される操作については、上記方法の実施形態での図3の操作S320及び図4の操作S450に対する説明を参照してもよい。ここで、重複説明を省略する。
第1のラベリングモジュール930は主に、画像サンプルの人体骨格キーポイントを取得し、設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は人体骨格キーポイントに基づいて、補助線を設置し、且つ補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成するために用いられる。第1のラベリングモジュール930に実行される操作については、上記方法の実施形態での図5の操作S500、S510及びS520に対する説明を参照してもよい。ここで、重複説明を省略する。
第2のラベリングモジュール940は主に、第1の集合及び/又は第2の集合内の2つの人体輪郭キーポイント間の連結線におけるN1個の仕切点に基づいて、第3の集合内の人体輪郭キーポイントのラベリング情報を形成するために用いられ、ここで、N1が1より大きい整数である。第2のラベリングモジュール940に実行される操作については、上記方法の実施形態での図5のS530に対する説明を参照してもよい。ここで、重複説明を省略する。
図10は本願の画像処理装置の一実施形態の構成模式図である。図10における装置は主に、人体輪郭キーポイントの検出装置1000及びレンダリングモジュール1010を含む。
人体輪郭キーポイントの検出装置1000は主に、人体が含まれる画像ブロックの人体輪郭キーポイントを検出するために用いられる。この人体輪郭キーポイントは、人体の外部輪郭を表すために用いられる。該人体輪郭キーポイントの検出装置1000に実行される操作については、上記方法の実施形態での図1、図3、図4及び図5に対する説明を参照してもよい。ここで、重複説明を省略する。
レンダリングモジュール1010は主に、人体輪郭キーポイントに基づいて画像ブロックに対してAR効果のレンダリング処理を行うために用いられる。レンダリングモジュール1010に実行される操作については、上記方法の実施形態での図6の操作S610及び図7に対する説明を参照してもよい。ここで、重複説明を省略する。
例示的機器
図11は本願を実現するのに適する例示的装置1100を示し、装置1100は自動車に配置されるコントロールシステム/電子システム、携帯端末(例えば、スマートフォン等)、パーソナルコンピュータ(PC;例えば、デスクトップコンピュータ又はノートパソコン等)、タブレット型コンピュータ及びサーバ等であってよい。図11において、装置1100は一つ又は複数のプロセッサ、通信部などを含み、前記一つ又は複数のプロセッサは、例えば、一つ又は複数の中央処理ユニット(CPU)1101、及び/又は一つ又は複数の加速ユニット1113などであり、加速ユニット1113はGPU、FPGA、他の種類の専用プロセッサ等を含んでよいが、それらに限定されなく、プロセッサは、読み取り専用メモリ(ROM)1102に記憶された実行可能コマンド又は記憶部1108からランダムアクセスメモリ(RAM)1103にロードされた実行可能コマンドによって各種の適切な動作及び処理を実現することができる。通信部1112はネットワークカードを含んでよいが、それに限定されなく、前記ネットワークカードはIB(Infiniband)ネットワークカードを含んでよいが、それに限定されない。プロセッサは読み取り専用メモリ1102及び/又はランダムアクセスメモリ1103と通信して実行可能コマンドを実行し、通信バス1104を介して通信部812に接続され、通信部1112を介して他のターゲットデバイスと通信してよく、それにより本願における対応の操作を完成する。
上記各コマンドに実行される操作については上記の方法の実施例での関連説明を参照してもよく、ここで詳細な説明を省略する。また、RAM1103には、装置の動作に必要な各種のプログラムやデータが格納されていてもよい。CPU1101、ROM1102及びRAM1103は、通信バス1104を介して相互に接続される。RAM1103を有する場合に、ROM1102は選択可能なモジュールである。RAM1103は実行可能コマンドを格納するか、または動作時に実行可能コマンドをROM1102に書き込み、実行可能コマンドによって中央処理ユニット1101に上記物体分割方法に含まれる操作を実行させる。入力/出力(I/O)インターフェイス1105も通信バス1104に接続される。通信部1112は、統合的に設置されてもよく、複数のサブモジュール(例えば複数のIBネットワークカード)を有し、通信バスのリンク上にあるように設置されてもよい。
キーボード、マウスなどを含む入力部1106と、陰極線管(CRT)、液晶ディスプレイー(LCD)など及びスピーカなどを含む出力部1107と、ハードディスクなどを含む記憶部1108と、LANカード、モデムなどのネットワークインターフェイスカードを含む通信部1109とがI/Oインターフェイス1105に接続されている。通信部1109は例えばインターネットのようなネットワークを介して通信処理を行う。ドライブ1110も必要に応じてI/Oインターフェイス1105に接続される。磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどのリムーバブル媒体1111は、必要に応じてドライブ1110上に装着され、そこから読み出されたコンピュータプログラムを必要に応じて記憶部1108にインストールする。
なお、図11に示す構造は選択可能な一実施形態に過ぎず、具体的な実践過程では、実際の必要に応じて上記図11の部品の数及び種類を選択、削除、追加、または置換することができ、異なる機能部品の設置上でも、分離設置または統合設置などの実施形態を採用でき、例えばGPUとCPUは分離設置するかまたは加速ユニットをCPUに統合するようにしてよく、通信部は分離設置するか、またはCPUや加速ユニットに統合設置することなども可能であることを特に説明する必要がある。これらの置換可能な実施形態はいずれも本願の保護範囲に属する。
特に、本願の実施例によれば、フローチャートを参照しながら上述したプロセスはコンピュータソフトウェアプログラムとして実現できる。例えば、本願の実施例はコンピュータプログラム製品を含み、それは機械可読媒体に有形に具現化された、フローチャートに示す操作を実行するためのプログラムコードを含むコンピュータプログラムを含み、プログラムコードは本願により提供される方法の操作を対応して実行する対応のコマンドを含んでよい。
このような実施例では、該コンピュータプログラムは通信部1109によってネットワークからダウンロード及びインストールされ、及び/又はリムーバブル媒体1111からインストールされ得る。中央処理ユニット(CPU)1101によって該コンピュータプログラムを実行する時に、本願に記載の上記対応の操作を実現するコマンドを実行する。
一つ又は複数の選択可能な実施形態では、本願の実施例は、コンピュータ可読コマンドを記憶するためのコンピュータプログラム製品であって、前記コマンドが実行される時に、コンピュータが上記いずれか一つの実施例に記載の人体輪郭キーポイントの検出方法又はニューラルネットワークのトレーニング方法又は画像処理方法を実行するコンピュータプログラム製品を更に提供する。
該コンピュータプログラム製品は具体的にはハードウェア、ソフトウェア又はそれらの組合せにより実現可能である。選択可能な一例において、前記コンピュータプログラム製品は具体的にはコンピュータ記憶媒体として実現され、別の選択可能な一例において、前記コンピュータプログラム製品は具体的には、例えばソフトウェア開発キット(Software Development Kit、SDK)などのソフトウェア製品として実現される。
一つ又は複数の選択可能な実施形態では、本願の実施例は、上記のいずれか一つの可能な実施例における人体輪郭キーポイントの検出方法又はニューラルネットワークトレーニング方法又は画像処理方法を第2の装置に実行させるための人体輪郭キーポイント検出指示又はニューラルネットワークトレーニング指示又は画像処理指示を第1の装置から第2の装置に送信するステップと、第1の装置により第2の装置から送信される人体輪郭キーポイント検出結果又はニューラルネットワークトレーニング結果又は画像処理結果を受信するステップと、を含む別の人体輪郭キーポイントの検出方法、ニューラルネットワークのトレーニング方法、画像処理方法及びそれらに対応する装置と電子機器、コンピュータ記憶媒体、コンピュータプログラム並びにコンピュータプログラム製品を更に提供する
いくつかの実施例では、該人体輪郭キーポイント検出指示又はニューラルネットワークトレーニング指示又は画像処理指示は呼び出しコマンドであってよく、第1の装置は呼び出すことで、人体輪郭キーポイント検出操作又はニューラルネットワークトレーニング操作又は画像処理操作を第2の装置に実行させるように指示することができ、それに対して、呼び出しコマンドを受信したことに応答して、第2の装置は上記人体輪郭キーポイントの検出方法又はニューラルネットワークのトレーニング方法又は画像処理方法の任意の実施例における操作及び/又はフローを実行することができる。
本願の実施例における「第1の」、「第2の」などの用語は区別するためのものに過ぎず、本願の実施例に対する限定と理解してはならないことを理解すべきである。更に、本願では、「複数の」は2つ又は2つ以上を指してよく、「少なくとも一つの」は一つ、2つ又は2つ以上を指してよいことを理解すべきである。更に、本願で言及された任意の部材、データ又は構造は、明確に限定され又は明細書の前後で反対的に示唆された場合でなければ、一般的には一つ又は複数と理解してよいことを理解すべきである。更に、本願ではそれぞれの実施例についての説明はそれぞれの実施例の相違点を重点として強調し、その同一又は類似的な点について相互に参照してよく、簡単化するために、ここで一つずつに繰り返して説明しないことを理解すべきである。
本願の方法、装置、電子機器及びコンピュータ可読記憶媒体は、様々な形態で実現され得る。例えば、ソフトウェア、ハードウェア、ファームウェアまたはソフトウェア、ハードウェア、ファームウェアの任意の組合わせによって本願の方法、装置、電子機器及びコンピュータ可読記憶媒体を実現することができる。前記方法の操作のための上記順序は説明することのみを目的とし、本願の方法の操作は、特に断らない限り、以上で具体的に説明した順序に限定されない。また、いくつかの実施形態では、本願は記録媒体に記憶されたプログラムとしてもよく、これらのプログラムは本願の方法を実現するための機械可読コマンドを含む。従って、本願は本願の方法を実行するためのプログラムが記憶された記録媒体も含む。
本願の説明は、例示及び説明のために提示されたものであり、網羅的なものでありもしくは開示された形式に本願を限定するというわけでない。当業者にとっては多くの修正及び変形を加えることができるのは明らかであろう。実施例は本願の原理及び実際応用をより明瞭に説明するため、かつ当業者が本願を理解して特定用途に適した各種の修正を加えた各種の実施例を設計可能にするように選択され説明されたものである。
以下、図面及び実施形態を通じて本願の技術的手段をさらに詳しく説明する。
例えば、本願は以下の項目を提供する。
(項目1)
人体が含まれる画像ブロックの画像特徴を取得するステップと、
第1のニューラルネットワークにより上記画像特徴に基づいて上記人体の人体輪郭キーポイント予測結果を取得するステップと、
上記人体輪郭キーポイント予測結果に基づいて上記画像ブロックにおける人体輪郭キーポイントを取得するステップと、を含み、
上記人体輪郭キーポイントが人体の外部輪郭を表すために用いられることを特徴とする人体輪郭キーポイントの検出方法。
(項目2)
人体が含まれる画像ブロックの画像特徴を取得する上記ステップは、
被処理画像に対して人体検出を行うステップと、
人体検出結果により上記被処理画像における人体が含まれる上記画像ブロックを取得するステップと、を含むことを特徴とする項目1に記載の方法。
(項目3)
上記画像ブロックは上記被処理画像であり、又は、
上記画像ブロックは上記被処理画像における人体が含まれる局所画像であり、又は、
上記画像ブロックは上記被処理画像における人体が含まれる局所画像に基づいて処理して得られた画像ブロックであることを特徴とする項目2に記載の方法。
(項目4)
被処理画像に対して人体検出を行う上記ステップは、人体検出器を用いて上記被処理画像に対して人体検出を行って、人体外接枠の中心位置及び人体スケール因子を取得するステップであって、上記人体外接枠の中心位置及び人体スケール因子が被処理画像内の人体外接枠の位置を確定するために用いられるステップを含むことを特徴とする項目2〜3のいずれか一項に記載の方法。
(項目5)
第1のニューラルネットワークにより上記画像特徴に基づいて上記人体の人体輪郭キーポイント予測結果を取得する上記ステップは、
上記第1のニューラルネットワークにより上記画像特徴に基づいて、少なくとも一つの人体輪郭キーポイントのそれぞれに対応する少なくとも一つの人体輪郭キーポイント対応マップを形成するステップを含むことを特徴とする項目1〜4のいずれか一項に記載の方法。
(項目6)
上記人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップを含むことを特徴とする項目5に記載の方法。
(項目7)
上記人体輪郭キーポイント予測結果に基づいて上記画像ブロックにおける人体輪郭キーポイントを取得する上記ステップは、
一つの人体輪郭キーポイント信頼度マップに対して、上記信頼度マップから所定の信頼度要求を満たす一つの点を選択し、上記点の上記画像ブロックにおけるマッピング位置点を上記信頼度マップの対応する人体輪郭キーポイントとするステップを含むことを特徴とする項目6に記載の方法。
(項目8)
上記人体輪郭キーポイントは、頭部輪郭キーポイント、腕輪郭キーポイント、手部輪郭キーポイント、肩部輪郭キーポイント、足部輪郭キーポイント、腰部輪郭キーポイント及び/又は脚部輪郭キーポイントを含むことを特徴とする項目1〜7のいずれか一項に記載の方法。
(項目9)
上記頭部輪郭キーポイントは、頭頂部キーポイント、鼻先端部キーポイント及び顎キーポイントのうちの1種又は複数種を含み、及び/又は、
上記腕輪郭キーポイントは、手首輪郭キーポイント、肘輪郭キーポイント、腕の付け根部輪郭キーポイント、手首輪郭キーポイントと肘輪郭キーポイントとの間の中点位置に位置する前腕輪郭中点キーポイント、及び肘輪郭キーポイントと腕の付け根部輪郭キーポイントとの間の中点位置に位置する上腕中点キーポイントのうちの1種又は複数種を含み、及び/又は
上記手部輪郭キーポイントは、手先キーポイント及び掌中点キーポイントのうちの1種又は複数種を含み、及び/又は
上記肩部輪郭キーポイントは、肩部と頭部の接合位置に位置する肩頭接合キーポイント及び腕の付け根部輪郭キーポイントと肩頭接合キーポイントとの間の中点位置に位置する肩輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は
上記足部輪郭キーポイントは、股間キーポイント、膝輪郭キーポイント、踝輪郭キーポイント、股の付け根部外側輪郭キーポイント、膝輪郭キーポイントと踝輪郭キーポイントとの間の中点位置に位置するすね輪郭中点キーポイント、膝内側輪郭キーポイントと股間キーポイントとの間の中点位置に位置する股内側輪郭中点キーポイント、及び膝外側輪郭キーポイントと股の付け根部外側輪郭キーポイントとの間の中点位置に位置する股外側輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は
上記腰部輪郭キーポイントは、股の付け根部外側輪郭キーポイントと腕の付け根部輪郭キーポイントとの間をN等分にして生成するN個の等分点のうちの1種又は複数種を含み、上記Nが1より大きく、及び/又は
上記脚部輪郭キーポイントは、爪先キーポイント及び踵キーポイントのうちの1種又は複数種を含むことを特徴とする項目8に記載の方法。
(項目10)
上記第1のニューラルネットワークは、人体輪郭キーポイントのラベリング情報が含まれるトレーニング画像集合により予めトレーニングされたものであることを特徴とする項目1〜9のいずれか一項に記載の方法。
(項目11)
上記第1のニューラルネットワークのトレーニングには
人体が含まれるサンプル画像ブロックの画像特徴を取得するステップと、
トレーニング待ちの第1のニューラルネットワークにより上記画像特徴に基づいて上記人体の人体輪郭キーポイント予測結果を取得するステップと、
上記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とする項目10に記載の方法。
(項目12)
人体が含まれるサンプル画像ブロックの画像特徴を取得する上記ステップは、
トレーニングデータ集合から画像サンプルを取得するステップと、
画像サンプル内の人体が含まれるサンプル画像ブロックの画像特徴を取得するステップと、を含むことを特徴とする項目11に記載の方法。
(項目13)
トレーニング待ちの第1のニューラルネットワークにより上記画像特徴に基づいて上記人体の人体輪郭キーポイント予測結果を取得する上記ステップは、
上記トレーニング待ちの第1のニューラルネットワークにより上記画像特徴に基づいて、少なくとも一つの人体輪郭キーポイントのそれぞれに対応する少なくとも一つの人体輪郭キーポイント対応マップを形成するステップを含むことを特徴とする項目11〜12のいずれか一項に記載の方法。
(項目14)
上記人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップを含むことを特徴とする項目13に記載の方法。
(項目15)
上記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行う上記ステップは、
少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、それぞれ人体輪郭キーポイント信頼度マップを生成するステップと、
上記トレーニング待ちの第1のニューラルネットワークから出力された人体輪郭キーポイント信頼度マップと上記生成した人体輪郭キーポイント信頼度マップとの差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とする項目14に記載の方法。
(項目16)
少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、それぞれ人体輪郭キーポイント信頼度マップを生成する上記ステップは、
少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、対応する人体輪郭キーポイントのラベリング情報のそれぞれの対応するサンプル画像ブロック内の位置の所定周囲領域内で、ガウス応答をそれぞれ形成し、且つ上記ガウス応答に基づいて、少なくとも一つの人体輪郭キーポイントのラベリング情報のそれぞれの対応する人体輪郭キーポイント信頼度マップを形成するステップを含むことを特徴とする項目15に記載の方法。
(項目17)
上記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行う上記ステップは、
一つの人体輪郭キーポイント信頼度マップに対して、上記信頼度マップから所定の信頼度要求を満たした点を選択し、上記点の上記画像サンプルにおけるマッピング位置点を上記信頼度マップの対応する人体輪郭キーポイントとするステップと、
上記信頼度マップの対応する人体輪郭キーポイントと上記画像サンプルの人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とする項目14に記載の方法。
(項目18)
人体が含まれるサンプル画像ブロックの画像特徴を取得する上記ステップは、
上記画像サンプルに対して人体検出を行うステップと、
人体検出結果及び画像サンプルをトレーニング待ちの入力ニューラルネットワークに提供して、トレーニング待ちの入力ニューラルネットワークにより人体が含まれる所定の大きさのサンプル画像ブロックを取得するステップと、
トレーニング待ちの第2のニューラルネットワークを用いて上記サンプル画像ブロックの画像特徴を取得するステップと、を含むことを特徴とする項目11〜17のいずれか一項に記載の方法。
(項目19)
上記第1のニューラルネットワークをトレーニングする上記ステップは、
上記人体輪郭キーポイント予測結果と上記人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの入力ニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対して教師あり学習を行うステップを更に含むことを特徴とする項目18に記載の方法。
(項目20)
上記画像サンプルに含まれる人体輪郭キーポイントのラベリング情報の設置プロセスは、
画像サンプルの人体骨格キーポイントを取得するステップと、
設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は上記人体骨格キーポイントに基づいて補助線を設置するステップと、
上記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成するステップと、を含むことを特徴とする項目11〜19のいずれか一項に記載の方法。
(項目21)
上記画像サンプルに含まれる人体輪郭キーポイントのラベリング情報の設置プロセスは、
第1の集合及び/又は第2の集合内の2つの人体輪郭キーポイント間の連結線におけるN1個の仕切点に基づいて、第3の集合内の人体輪郭キーポイントのラベリング情報を形成するステップを更に含み、
N1が1より大きい整数であることを特徴とする項目20に記載の方法。
(項目22)
設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は上記人体骨格キーポイントに基づいて補助線を設置する上記ステップは、
上記人体骨格キーポイントに基づいて腕の付け根部内側輪郭キーポイントを通過し且つ上腕方向に垂直する第1の補助線を決定するステップを含み、
上記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成する上記ステップは、
上記第1の補助線と上腕外側輪郭との交点に基づいて第2の集合中の腕の付け根部外側輪郭キーポイントのラベリング情報を形成するステップを含むことを特徴とする項目20〜21のいずれか一項に記載の方法。
(項目23)
設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は上記人体骨格キーポイントに基づいて補助線を設置する上記ステップは、
股間キーポイントを通過し且つ人体骨格キーポイントで形成された股方向に垂直する第2の補助線を設置するステップを含み、
上記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成する上記ステップは、
上記第2の補助線と股外側輪郭の交点に基づいて第2の集合中の股の付け根部外側輪郭キーポイントのラベリング情報を形成するステップを含むことを特徴とする項目20〜22のいずれか一項に記載の方法。
(項目24)
上記人体輪郭キーポイントに基づいて上記画像ブロックに対して拡張現実AR効果のレンダリング処理を行うステップを更に含むことを特徴とする項目1〜23のいずれか一項に記載の方法。
(項目25)
上記人体輪郭キーポイントに基づいて上記画像ブロックに対してAR効果のレンダリング処理を行う上記ステップは、
上記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定するステップと、
上記位置関係により上記ステッカー素材に基づいて上記画像ブロックに対してAR効果のレンダリング処理を行うステップと、を含むことを特徴とする項目24に記載の方法。
(項目26)
人体が含まれる画像ブロックの人体輪郭キーポイントを検出するステップであって、上記人体輪郭キーポイントが人体の外部輪郭を表すために用いられるステップと、
上記人体輪郭キーポイントに基づいて上記画像ブロックに対して拡張現実AR効果のレンダリング処理を行うステップと、を含むことを特徴とする画像処理方法。
(項目27)
人体が含まれる画像ブロックの人体輪郭キーポイントを検出する上記ステップは、
項目1〜25のいずれか一項に記載の方法を用いて上記人体輪郭キーポイントを検出するステップを含むことを特徴とする項目26に記載の方法。
(項目28)
上記人体輪郭キーポイントに基づいて上記画像ブロックに対してAR効果のレンダリング処理を行う上記ステップは、
上記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定するステップと、
上記位置関係により上記ステッカー素材に基づいて上記画像ブロックに対してAR効果のレンダリング処理を行うステップと、を含むことを特徴とする項目26〜27のいずれか一項に記載の方法。
(項目29)
上記人体輪郭キーポイントに基づいて上記画像ブロックに対してAR効果のレンダリング処理を行う上記ステップは、
ステッカーハンドルを作成するための第1のインターフェイス関数を呼び出してステッカーハンドルを作成するステップと、
ステッカー素材を読み取るための第2のインターフェイス関数を呼び出してステッカー素材圧縮パッケージを内部メモリに読み込み、解析するステップと、
ステッカー素材をレンダリングするための第3のインターフェイス関数を呼び出して解析結果により上記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定し、上記ステッカーハンドルに基づいて上記解析結果と上記位置関係により上記画像ブロック上で内部メモリに読み込まれたステッカー素材パッケージに対してAR効果のレンダリングを行うステップと、を含むことを特徴とする項目26〜28のいずれか一項に記載の方法。
(項目30)
上記解析結果は、ステッカー素材に関連する人体輪郭キーポイント、ステッカー素材の再生トリガ条件、ステッカー素材の再生状態パラメータのうちの1種又は複数種を含むことを特徴とする項目29に記載の方法。
(項目31)
レンダリングが終了した後、上記ステッカーハンドルを廃棄するステップを更に含むことを特徴とする項目29〜30のいずれか一項に記載の方法。
(項目32)
人体が含まれるサンプル画像ブロックの画像特徴を取得するステップと、
トレーニング待ちの第1のニューラルネットワークにより上記画像特徴に基づいて上記人体の人体輪郭キーポイント予測結果を取得するステップと、
上記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とするニューラルネットワークのトレーニング方法。
(項目33)
人体が含まれるサンプル画像ブロックの画像特徴を取得する上記ステップは、
トレーニングデータ集合から画像サンプルを取得するステップと、
画像サンプル内の人体が含まれるサンプル画像ブロックの画像特徴を取得するステップと、を含むことを特徴とする項目32に記載の方法。
(項目34)
トレーニング待ちの第1のニューラルネットワークにより上記画像特徴に基づいて上記人体の人体輪郭キーポイント予測結果を取得する上記ステップは、
上記トレーニング待ちの第1のニューラルネットワークにより上記画像特徴に基づいて、少なくとも一つの人体輪郭キーポイントのそれぞれに対応する少なくとも一つの人体輪郭キーポイント対応マップを形成するステップを含むことを特徴とする項目32〜33のいずれか一項に記載の方法。
(項目35)
上記人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップを含むことを特徴とする項目34に記載の方法。
(項目36)
上記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行う上記ステップは、
少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、それぞれ人体輪郭キーポイント信頼度マップを生成するステップと、
上記トレーニング待ちの第1のニューラルネットワークから出力された人体輪郭キーポイント信頼度マップと上記生成した人体輪郭キーポイント信頼度マップとの差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とする項目35に記載の方法。
(項目37)
少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、それぞれ人体輪郭キーポイント信頼度マップを生成する上記ステップは、
少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、対応する人体輪郭キーポイントのラベリング情報のそれぞれの対応するサンプル画像ブロック内の位置の所定周囲領域内で、ガウス応答をそれぞれ形成し、且つ上記ガウス応答に基づいて、少なくとも一つの人体輪郭キーポイントのラベリング情報のそれぞれの対応する人体輪郭キーポイント信頼度マップを形成するステップを含むことを特徴とする項目36に記載の方法。
(項目38)
上記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行う上記ステップは、
一つの人体輪郭キーポイント信頼度マップに対して、上記信頼度マップから所定の信頼度要求を満たした点を選択し、上記点の上記画像サンプルにおけるマッピング位置点を上記信頼度マップの対応する人体輪郭キーポイントとするステップと、
上記信頼度マップの対応する人体輪郭キーポイントと上記画像サンプルの人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とする項目35に記載の方法。
(項目39)
人体が含まれるサンプル画像ブロックの画像特徴を取得する上記ステップは、
上記画像サンプルに対して人体検出を行うステップと、
人体検出結果及び画像サンプルをトレーニング待ちの入力ニューラルネットワークに提供して、トレーニング待ちの入力ニューラルネットワークにより人体が含まれる所定の大きさのサンプル画像ブロックを取得するステップと、
トレーニング待ちの第2のニューラルネットワークを用いて上記サンプル画像ブロックの画像特徴を取得するステップと、を含むことを特徴とする項目32〜38のいずれか一項に記載の方法。
(項目40)
上記第1のニューラルネットワークをトレーニングする上記ステップは、
上記人体輪郭キーポイント予測結果と上記人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの入力ニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対して教師あり学習を行うステップを更に含むことを特徴とする項目39に記載の方法。
(項目41)
上記画像サンプルに含まれる人体輪郭キーポイントのラベリング情報の設置プロセスは、
画像サンプルの人体骨格キーポイントを取得するステップと、
設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は上記人体骨格キーポイントに基づいて補助線を設置するステップと、
上記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成するステップと、を含むことを特徴とする項目32〜40のいずれか一項に記載の方法。
(項目42)
上記画像サンプルに含まれる人体輪郭キーポイントのラベリング情報の設置プロセスは、
第1の集合及び/又は第2の集合内の2つの人体輪郭キーポイント間の連結線におけるN1個の仕切点に基づいて、第3の集合内の人体輪郭キーポイントのラベリング情報を形成するステップを更に含み、
N1が1より大きい整数であることを特徴とする項目41に記載の方法。
(項目43)
設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は上記人体骨格キーポイントに基づいて補助線を設置する上記ステップは、
上記人体骨格キーポイントに基づいて腕の付け根部内側輪郭キーポイントを通過し且つ上腕方向に垂直する第1の補助線を決定するステップを含み、
上記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成する上記ステップは、
上記第1の補助線と上腕外側輪郭との交点に基づいて第2の集合中の腕の付け根部外側輪郭キーポイントのラベリング情報を形成するステップを含むことを特徴とする項目41〜42のいずれか一項に記載の方法。
(項目44)
設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は上記人体骨格キーポイントに基づいて補助線を設置する上記ステップは、
股間キーポイントを通過し且つ人体骨格キーポイントで形成された股方向に垂直する第2の補助線を設置するステップを含み、
上記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成する上記ステップは、
上記第2の補助線と股外側輪郭の交点に基づいて第2の集合中の股の付け根部外側輪郭キーポイントのラベリング情報を形成するステップを含むことを特徴とする項目41〜43のいずれか一項に記載の方法。
(項目45)
人体が含まれる画像ブロックの画像特徴を取得するための画像特徴取得モジュールと、
第1のニューラルネットワークにより上記画像特徴に基づいて上記人体の人体輪郭キーポイント予測結果を取得するための予測結果取得モジュールと、
上記人体輪郭キーポイント予測結果に基づいて上記画像ブロックにおける人体輪郭キーポイントを取得するための輪郭キーポイント取得モジュールであって、上記人体輪郭キーポイントが人体の外部輪郭を表すために用いられる輪郭キーポイント取得モジュールと、を含むことを特徴とする人体輪郭キーポイントの検出装置。
(項目46)
上記画像特徴取得モジュールは、被処理画像に対して人体検出を行い、且つ人体検出結果により上記被処理画像における人体が含まれる上記画像ブロックを取得することを特徴とする項目45に記載の装置。
(項目47)
上記画像ブロックは上記被処理画像であり、又は、
上記画像ブロックは上記被処理画像における人体が含まれる局所画像であり、又は、
上記画像ブロックは上記被処理画像における人体が含まれる局所画像に基づいて処理して得られた画像ブロックであることを特徴とする項目46に記載の装置。
(項目48)
上記画像特徴取得モジュールは、人体検出器を用いて上記被処理画像に対して人体検出を行って、人体外接枠の中心位置及び人体スケール因子を取得するために用いられ、上記人体外接枠の中心位置及び人体スケール因子が被処理画像内の人体外接枠の位置を確定するために用いられることを特徴とする項目46〜47のいずれか一項に記載の装置。
(項目49)
上記予測結果取得モジュールは、上記第1のニューラルネットワークにより上記画像特徴に基づいて、少なくとも一つの人体輪郭キーポイントのそれぞれに対応する少なくとも一つの人体輪郭キーポイント対応マップを形成することを特徴とする項目45〜48のいずれか一項に記載の装置。
(項目50)
上記人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップを含む項目49に記載の装置ことを特徴とする。
(項目51)
上記輪郭キーポイント取得モジュールは、一つの人体輪郭キーポイント信頼度マップに対して、上記信頼度マップから所定の信頼度要求を満たす一つの点を選択し、上記点の上記画像ブロックにおけるマッピング位置点を上記信頼度マップの対応する人体輪郭キーポイントとすることを特徴とする項目50に記載の装置。
(項目52)
上記人体輪郭キーポイントは、頭部輪郭キーポイント、腕輪郭キーポイント、手部輪郭キーポイント、肩部輪郭キーポイント、足部輪郭キーポイント、腰部輪郭キーポイント及び/又は脚部輪郭キーポイントを含むことを特徴とする項目45〜51のいずれか一項に記載の装置。
(項目53)
上記頭部輪郭キーポイントは、頭頂部キーポイント、鼻先端部キーポイント及び顎キーポイントのうちの1種又は複数種を含み、及び/又は、
上記腕輪郭キーポイントは、手首輪郭キーポイント、肘輪郭キーポイント、腕の付け根部輪郭キーポイント、手首輪郭キーポイントと肘輪郭キーポイントとの間の中点位置に位置する前腕輪郭中点キーポイント、及び肘輪郭キーポイントと腕の付け根部輪郭キーポイントとの間の中点位置に位置する上腕中点キーポイントのうちの1種又は複数種を含み、及び/又は
上記手部輪郭キーポイントは、手先キーポイント及び掌中点キーポイントのうちの1種又は複数種を含み、及び/又は
上記肩部輪郭キーポイントは、肩部と頭部の接合位置に位置する肩頭接合キーポイント及び腕の付け根部輪郭キーポイントと肩頭接合キーポイントとの間の中点位置に位置する肩輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は
上記足部輪郭キーポイントは、股間キーポイント、膝輪郭キーポイント、踝輪郭キーポイント、股の付け根部外側輪郭キーポイント、膝輪郭キーポイントと踝輪郭キーポイントとの間の中点位置に位置するすね輪郭中点キーポイント、膝内側輪郭キーポイントと股間キーポイントとの間の中点位置に位置する股内側輪郭中点キーポイント、及び膝外側輪郭キーポイントと股の付け根部外側輪郭キーポイントとの間の中点位置に位置する股外側輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は
上記腰部輪郭キーポイントは、股の付け根部外側輪郭キーポイントと腕の付け根部輪郭キーポイントとの間をN等分にして生成するN個の等分点のうちの1種又は複数種を含み、上記Nが1より大きく、及び/又は
上記脚部輪郭キーポイントは、爪先キーポイント及び踵キーポイントのうちの1種又は複数種を含むことを特徴とする項目52に記載の装置。
(項目54)
人体輪郭キーポイントのラベリング情報が含まれるトレーニング画像集合を用いて上記第1のニューラルネットワークをトレーニングするためのニューラルネットワークのトレーニング装置を更に含むことを特徴とする項目45〜53のいずれか一項に記載の装置。
(項目55)
人体が含まれる画像ブロックの人体輪郭キーポイントを検出するための人体輪郭キーポイントの検出装置であって、上記人体輪郭キーポイントが人体の外部輪郭を表すために用いられる人体輪郭キーポイントの検出装置と、
上記人体輪郭キーポイントに基づいて上記画像ブロックに対してAR効果のレンダリング処理を行うためのレンダリングモジュールと、を含むことを特徴とする画像処理装置。
(項目56)
上記人体輪郭キーポイントの検出装置は、項目45〜54のいずれか一項に記載の装置を用いて上記人体輪郭キーポイントを検出することを特徴とする項目55に記載の装置。
(項目57)
上記レンダリングモジュールは、上記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定し、且つ上記位置関係により上記ステッカー素材に基づいて上記画像ブロックに対してAR効果のレンダリング処理を行うことを特徴とする項目55〜56のいずれか一項に記載の装置。
(項目58)
上記レンダリングモジュールは、ステッカーハンドルを作成するための第1のインターフェイス関数を呼び出してステッカーハンドルを作成し、ステッカー素材を読み取るための第2のインターフェイス関数を呼び出してステッカー素材圧縮パッケージを内部メモリに読み込み、解析し、ステッカー素材をレンダリングするための第3のインターフェイス関数を呼び出して解析結果により上記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定し、上記ステッカーハンドルに基づいて上記解析結果と上記位置関係により上記画像ブロック上で内部メモリに読み込まれたステッカー素材パッケージに対してAR効果のレンダリングを行うことを特徴とする項目55〜57のいずれか一項に記載の装置。
(項目59)
上記解析結果は、ステッカー素材に関連する人体輪郭キーポイント、ステッカー素材の再生トリガ条件、ステッカー素材の再生状態パラメータのうちの1種又は複数種を含むことを特徴とする項目58に記載の装置。
(項目60)
上記レンダリングモジュールは、レンダリングが終了した後、上記ステッカーハンドルを廃棄することを特徴とする項目58〜59のいずれか一項に記載の装置。
(項目61)
人体が含まれるサンプル画像ブロックの画像特徴を取得するための第1のモジュールと、
トレーニング待ちの第1のニューラルネットワークにより上記画像特徴に基づいて上記人体の人体輪郭キーポイント予測結果を取得するための第2のモジュールと、
上記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うための第3のモジュールと、を含むことを特徴とするニューラルネットワークのトレーニング装置。
(項目62)
上記第1のモジュールは、
上記画像サンプルに対して人体検出を行うための検出サブモジュールと、
人体検出結果及び画像サンプルをトレーニング待ちの入力ニューラルネットワークに提供して、トレーニング待ちの入力ニューラルネットワークにより人体が含まれる所定の大きさのサンプル画像ブロックを取得するための第1の取得サブモジュールと、
トレーニング待ちの第2のニューラルネットワークを用いて上記サンプル画像ブロックの画像特徴を取得するための第2の取得サブモジュールと、を含むことを特徴とする項目61に記載の装置。
(項目63)
上記第3のモジュールは、更に、
上記人体輪郭キーポイント予測結果と上記人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの入力ニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対して教師あり学習を行うために用いられることを特徴とする項目62に記載の装置。
(項目64)
画像サンプルの人体骨格キーポイントを取得し、設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は上記人体骨格キーポイントに基づいて補助線を設置し、且つ上記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成するための第1のラベリングモジュールを更に含むことを特徴とする項目61〜63のいずれか一項に記載の装置。
(項目65)
第1の集合及び/又は第2の集合内の2つの人体輪郭キーポイント間の連結線におけるN1個の仕切点に基づいて、第3の集合内の人体輪郭キーポイントのラベリング情報を形成するための第2のラベリングモジュールを更に含み、N1が1より大きい整数であることを特徴とする項目64に記載の装置。
(項目66)
上記第1のラベリングモジュールは、上記人体骨格キーポイントに基づいて腕の付け根部内側輪郭キーポイントを通過し且つ上腕方向に垂直する第1の補助線を決定し、且つ上記第1の補助線と上腕外側輪郭との交点に基づいて第2の集合中の腕の付け根部外側輪郭キーポイントのラベリング情報を形成することを特徴とする項目64〜65のいずれか一項に記載の装置。
(項目67)
上記第1のラベリングモジュールは、股間キーポイントを通過し且つ人体骨格キーポイントで形成された股方向に垂直する第2の補助線を設置し、且つ上記第2の補助線と股外側輪郭の交点に基づいて第2の集合中の股の付け根部外側輪郭キーポイントのラベリング情報を形成することを特徴とする項目64〜66のいずれか一項に記載の装置。
(項目68)
コンピュータプログラムを記憶するためのメモリと、
上記メモリに記憶されたコンピュータプログラムを実行するためのプロセッサと、を含み、上記コンピュータプログラムが実行される時に、上記項目1〜44のいずれか一項に記載の方法が実現されることを特徴とする電子機器。
(項目69)
コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、上記コンピュータプログラムがプロセッサにより実行される時に、上記項目1〜44のいずれか一項に記載の方法が実現されることを特徴とするコンピュータ可読記憶媒体。
(項目70)
コンピュータコマンドを含むコンピュータプログラムであって、上記コンピュータコマンドが機器のプロセッサで作動する時に、上記項目1〜44のいずれか一項に記載の方法が実現されることを特徴とするコンピュータプログラム。

Claims (70)

  1. 人体が含まれる画像ブロックの画像特徴を取得するステップと、
    第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得するステップと、
    前記人体輪郭キーポイント予測結果に基づいて前記画像ブロックにおける人体輪郭キーポイントを取得するステップと、を含み、
    前記人体輪郭キーポイントが人体の外部輪郭を表すために用いられることを特徴とする人体輪郭キーポイントの検出方法。
  2. 人体が含まれる画像ブロックの画像特徴を取得する前記ステップは、
    被処理画像に対して人体検出を行うステップと、
    人体検出結果により前記被処理画像における人体が含まれる前記画像ブロックを取得するステップと、を含むことを特徴とする請求項1に記載の方法。
  3. 前記画像ブロックは前記被処理画像であり、又は、
    前記画像ブロックは前記被処理画像における人体が含まれる局所画像であり、又は、
    前記画像ブロックは前記被処理画像における人体が含まれる局所画像に基づいて処理して得られた画像ブロックであることを特徴とする請求項2に記載の方法。
  4. 被処理画像に対して人体検出を行う前記ステップは、人体検出器を用いて前記被処理画像に対して人体検出を行って、人体外接枠の中心位置及び人体スケール因子を取得するステップであって、前記人体外接枠の中心位置及び人体スケール因子が被処理画像内の人体外接枠の位置を確定するために用いられるステップを含むことを特徴とする請求項2〜3のいずれか一項に記載の方法。
  5. 第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得する前記ステップは、
    前記第1のニューラルネットワークにより前記画像特徴に基づいて、少なくとも一つの人体輪郭キーポイントのそれぞれに対応する少なくとも一つの人体輪郭キーポイント対応マップを形成するステップを含むことを特徴とする請求項1〜4のいずれか一項に記載の方法。
  6. 前記人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップを含むことを特徴とする請求項5に記載の方法。
  7. 前記人体輪郭キーポイント予測結果に基づいて前記画像ブロックにおける人体輪郭キーポイントを取得する前記ステップは、
    一つの人体輪郭キーポイント信頼度マップに対して、前記信頼度マップから所定の信頼度要求を満たす一つの点を選択し、該点の前記画像ブロックにおけるマッピング位置点を前記信頼度マップの対応する人体輪郭キーポイントとするステップを含むことを特徴とする請求項6に記載の方法。
  8. 前記人体輪郭キーポイントは、頭部輪郭キーポイント、腕輪郭キーポイント、手部輪郭キーポイント、肩部輪郭キーポイント、足部輪郭キーポイント、腰部輪郭キーポイント及び/又は脚部輪郭キーポイントを含むことを特徴とする請求項1〜7のいずれか一項に記載の方法。
  9. 前記頭部輪郭キーポイントは、頭頂部キーポイント、鼻先端部キーポイント及び顎キーポイントのうちの1種又は複数種を含み、及び/又は、
    前記腕輪郭キーポイントは、手首輪郭キーポイント、肘輪郭キーポイント、腕の付け根部輪郭キーポイント、手首輪郭キーポイントと肘輪郭キーポイントとの間の中点位置に位置する前腕輪郭中点キーポイント、及び肘輪郭キーポイントと腕の付け根部輪郭キーポイントとの間の中点位置に位置する上腕中点キーポイントのうちの1種又は複数種を含み、及び/又は
    前記手部輪郭キーポイントは、手先キーポイント及び掌中点キーポイントのうちの1種又は複数種を含み、及び/又は
    前記肩部輪郭キーポイントは、肩部と頭部の接合位置に位置する肩頭接合キーポイント及び腕の付け根部輪郭キーポイントと肩頭接合キーポイントとの間の中点位置に位置する肩輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は
    前記足部輪郭キーポイントは、股間キーポイント、膝輪郭キーポイント、踝輪郭キーポイント、股の付け根部外側輪郭キーポイント、膝輪郭キーポイントと踝輪郭キーポイントとの間の中点位置に位置するすね輪郭中点キーポイント、膝内側輪郭キーポイントと股間キーポイントとの間の中点位置に位置する股内側輪郭中点キーポイント、及び膝外側輪郭キーポイントと股の付け根部外側輪郭キーポイントとの間の中点位置に位置する股外側輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は
    前記腰部輪郭キーポイントは、股の付け根部外側輪郭キーポイントと腕の付け根部輪郭キーポイントとの間をN等分にして生成するN個の等分点のうちの1種又は複数種を含み、前記Nが1より大きく、及び/又は
    前記脚部輪郭キーポイントは、爪先キーポイント及び踵キーポイントのうちの1種又は複数種を含むことを特徴とする請求項8に記載の方法。
  10. 前記第1のニューラルネットワークは、人体輪郭キーポイントのラベリング情報が含まれるトレーニング画像集合により予めトレーニングされたものであることを特徴とする請求項1〜9のいずれか一項に記載の方法。
  11. 前記第1のニューラルネットワークのトレーニングには
    人体が含まれるサンプル画像ブロックの画像特徴を取得するステップと、
    トレーニング待ちの第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得するステップと、
    前記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とする請求項10に記載の方法。
  12. 人体が含まれるサンプル画像ブロックの画像特徴を取得する前記ステップは、
    トレーニングデータ集合から画像サンプルを取得するステップと、
    画像サンプル内の人体が含まれるサンプル画像ブロックの画像特徴を取得するステップと、を含むことを特徴とする請求項11に記載の方法。
  13. トレーニング待ちの第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得する前記ステップは、
    前記トレーニング待ちの第1のニューラルネットワークにより前記画像特徴に基づいて、少なくとも一つの人体輪郭キーポイントのそれぞれに対応する少なくとも一つの人体輪郭キーポイント対応マップを形成するステップを含むことを特徴とする請求項11〜12のいずれか一項に記載の方法。
  14. 前記人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップを含むことを特徴とする請求項13に記載の方法。
  15. 前記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行う前記ステップは、
    少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、それぞれ人体輪郭キーポイント信頼度マップを生成するステップと、
    前記トレーニング待ちの第1のニューラルネットワークから出力された人体輪郭キーポイント信頼度マップと前記生成した人体輪郭キーポイント信頼度マップとの差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とする請求項14に記載の方法。
  16. 少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、それぞれ人体輪郭キーポイント信頼度マップを生成する前記ステップは、
    少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、対応する人体輪郭キーポイントのラベリング情報のそれぞれの対応するサンプル画像ブロック内の位置の所定周囲領域内で、ガウス応答をそれぞれ形成し、且つ前記ガウス応答に基づいて、少なくとも一つの人体輪郭キーポイントのラベリング情報のそれぞれの対応する人体輪郭キーポイント信頼度マップを形成するステップを含むことを特徴とする請求項15に記載の方法。
  17. 前記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行う前記ステップは、
    一つの人体輪郭キーポイント信頼度マップに対して、前記信頼度マップから所定の信頼度要求を満たした点を選択し、該点の前記画像サンプルにおけるマッピング位置点を前記信頼度マップの対応する人体輪郭キーポイントとするステップと、
    前記信頼度マップの対応する人体輪郭キーポイントと前記画像サンプルの人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とする請求項14に記載の方法。
  18. 人体が含まれるサンプル画像ブロックの画像特徴を取得する前記ステップは、
    前記画像サンプルに対して人体検出を行うステップと、
    人体検出結果及び画像サンプルをトレーニング待ちの入力ニューラルネットワークに提供して、トレーニング待ちの入力ニューラルネットワークにより人体が含まれる所定の大きさのサンプル画像ブロックを取得するステップと、
    トレーニング待ちの第2のニューラルネットワークを用いて前記サンプル画像ブロックの画像特徴を取得するステップと、を含むことを特徴とする請求項11〜17のいずれか一項に記載の方法。
  19. 前記第1のニューラルネットワークをトレーニングする前記ステップは、
    前記人体輪郭キーポイント予測結果と前記人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの入力ニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対して教師あり学習を行うステップを更に含むことを特徴とする請求項18に記載の方法。
  20. 前記画像サンプルに含まれる人体輪郭キーポイントのラベリング情報の設置プロセスは、
    画像サンプルの人体骨格キーポイントを取得するステップと、
    設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は前記人体骨格キーポイントに基づいて補助線を設置するステップと、
    前記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成するステップと、を含むことを特徴とする請求項11〜19のいずれか一項に記載の方法。
  21. 前記画像サンプルに含まれる人体輪郭キーポイントのラベリング情報の設置プロセスは、
    第1の集合及び/又は第2の集合内の2つの人体輪郭キーポイント間の連結線におけるN1個の仕切点に基づいて、第3の集合内の人体輪郭キーポイントのラベリング情報を形成するステップを更に含み、
    N1が1より大きい整数であることを特徴とする請求項20に記載の方法。
  22. 設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は前記人体骨格キーポイントに基づいて補助線を設置する前記ステップは、
    前記人体骨格キーポイントに基づいて腕の付け根部内側輪郭キーポイントを通過し且つ上腕方向に垂直する第1の補助線を決定するステップを含み、
    前記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成する前記ステップは、
    前記第1の補助線と上腕外側輪郭との交点に基づいて第2の集合中の腕の付け根部外側輪郭キーポイントのラベリング情報を形成するステップを含むことを特徴とする請求項20〜21のいずれか一項に記載の方法。
  23. 設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は前記人体骨格キーポイントに基づいて補助線を設置する前記ステップは、
    股間キーポイントを通過し且つ人体骨格キーポイントで形成された股方向に垂直する第2の補助線を設置するステップを含み、
    前記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成する前記ステップは、
    前記第2の補助線と股外側輪郭の交点に基づいて第2の集合中の股の付け根部外側輪郭キーポイントのラベリング情報を形成するステップを含むことを特徴とする請求項20〜22のいずれか一項に記載の方法。
  24. 前記人体輪郭キーポイントに基づいて前記画像ブロックに対して拡張現実AR効果のレンダリング処理を行うステップを更に含むことを特徴とする請求項1〜23のいずれか一項に記載の方法。
  25. 前記人体輪郭キーポイントに基づいて前記画像ブロックに対してAR効果のレンダリング処理を行う前記ステップは、
    前記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定するステップと、
    前記位置関係により前記ステッカー素材に基づいて前記画像ブロックに対してAR効果のレンダリング処理を行うステップと、を含むことを特徴とする請求項24に記載の方法。
  26. 人体が含まれる画像ブロックの人体輪郭キーポイントを検出するステップであって、前記人体輪郭キーポイントが人体の外部輪郭を表すために用いられるステップと、
    前記人体輪郭キーポイントに基づいて前記画像ブロックに対して拡張現実AR効果のレンダリング処理を行うステップと、を含むことを特徴とする画像処理方法。
  27. 人体が含まれる画像ブロックの人体輪郭キーポイントを検出する前記ステップは、
    請求項1〜25のいずれか一項に記載の方法を用いて前記人体輪郭キーポイントを検出するステップを含むことを特徴とする請求項26に記載の方法。
  28. 前記人体輪郭キーポイントに基づいて前記画像ブロックに対してAR効果のレンダリング処理を行う前記ステップは、
    前記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定するステップと、
    前記位置関係により前記ステッカー素材に基づいて前記画像ブロックに対してAR効果のレンダリング処理を行うステップと、を含むことを特徴とする請求項26〜27のいずれか一項に記載の方法。
  29. 前記人体輪郭キーポイントに基づいて前記画像ブロックに対してAR効果のレンダリング処理を行う前記ステップは、
    ステッカーハンドルを作成するための第1のインターフェイス関数を呼び出してステッカーハンドルを作成するステップと、
    ステッカー素材を読み取るための第2のインターフェイス関数を呼び出してステッカー素材圧縮パッケージを内部メモリに読み込み、解析するステップと、
    ステッカー素材をレンダリングするための第3のインターフェイス関数を呼び出して解析結果により前記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定し、前記ステッカーハンドルに基づいて前記解析結果と前記位置関係により前記画像ブロック上で内部メモリに読み込まれたステッカー素材パッケージに対してAR効果のレンダリングを行うステップと、を含むことを特徴とする請求項26〜28のいずれか一項に記載の方法。
  30. 前記解析結果は、ステッカー素材に関連する人体輪郭キーポイント、ステッカー素材の再生トリガ条件、ステッカー素材の再生状態パラメータのうちの1種又は複数種を含むことを特徴とする請求項29に記載の方法。
  31. レンダリングが終了した後、前記ステッカーハンドルを廃棄するステップを更に含むことを特徴とする請求項29〜30のいずれか一項に記載の方法。
  32. 人体が含まれるサンプル画像ブロックの画像特徴を取得するステップと、
    トレーニング待ちの第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得するステップと、
    前記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とするニューラルネットワークのトレーニング方法。
  33. 人体が含まれるサンプル画像ブロックの画像特徴を取得する前記ステップは、
    トレーニングデータ集合から画像サンプルを取得するステップと、
    画像サンプル内の人体が含まれるサンプル画像ブロックの画像特徴を取得するステップと、を含むことを特徴とする請求項32に記載の方法。
  34. トレーニング待ちの第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得する前記ステップは、
    前記トレーニング待ちの第1のニューラルネットワークにより前記画像特徴に基づいて、少なくとも一つの人体輪郭キーポイントのそれぞれに対応する少なくとも一つの人体輪郭キーポイント対応マップを形成するステップを含むことを特徴とする請求項32〜33のいずれか一項に記載の方法。
  35. 前記人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップを含むことを特徴とする請求項34に記載の方法。
  36. 前記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行う前記ステップは、
    少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、それぞれ人体輪郭キーポイント信頼度マップを生成するステップと、
    前記トレーニング待ちの第1のニューラルネットワークから出力された人体輪郭キーポイント信頼度マップと前記生成した人体輪郭キーポイント信頼度マップとの差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とする請求項35に記載の方法。
  37. 少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、それぞれ人体輪郭キーポイント信頼度マップを生成する前記ステップは、
    少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、対応する人体輪郭キーポイントのラベリング情報のそれぞれの対応するサンプル画像ブロック内の位置の所定周囲領域内で、ガウス応答をそれぞれ形成し、且つ前記ガウス応答に基づいて、少なくとも一つの人体輪郭キーポイントのラベリング情報のそれぞれの対応する人体輪郭キーポイント信頼度マップを形成するステップを含むことを特徴とする請求項36に記載の方法。
  38. 前記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行う前記ステップは、
    一つの人体輪郭キーポイント信頼度マップに対して、前記信頼度マップから所定の信頼度要求を満たした点を選択し、該点の前記画像サンプルにおけるマッピング位置点を前記信頼度マップの対応する人体輪郭キーポイントとするステップと、
    前記信頼度マップの対応する人体輪郭キーポイントと前記画像サンプルの人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とする請求項35に記載の方法。
  39. 人体が含まれるサンプル画像ブロックの画像特徴を取得する前記ステップは、
    前記画像サンプルに対して人体検出を行うステップと、
    人体検出結果及び画像サンプルをトレーニング待ちの入力ニューラルネットワークに提供して、トレーニング待ちの入力ニューラルネットワークにより人体が含まれる所定の大きさのサンプル画像ブロックを取得するステップと、
    トレーニング待ちの第2のニューラルネットワークを用いて前記サンプル画像ブロックの画像特徴を取得するステップと、を含むことを特徴とする請求項32〜38のいずれか一項に記載の方法。
  40. 前記第1のニューラルネットワークをトレーニングする前記ステップは、
    前記人体輪郭キーポイント予測結果と前記人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの入力ニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対して教師あり学習を行うステップを更に含むことを特徴とする請求項39に記載の方法。
  41. 前記画像サンプルに含まれる人体輪郭キーポイントのラベリング情報の設置プロセスは、
    画像サンプルの人体骨格キーポイントを取得するステップと、
    設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は前記人体骨格キーポイントに基づいて補助線を設置するステップと、
    前記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成するステップと、を含むことを特徴とする請求項32〜40のいずれか一項に記載の方法。
  42. 前記画像サンプルに含まれる人体輪郭キーポイントのラベリング情報の設置プロセスは、
    第1の集合及び/又は第2の集合内の2つの人体輪郭キーポイント間の連結線におけるN1個の仕切点に基づいて、第3の集合内の人体輪郭キーポイントのラベリング情報を形成するステップを更に含み、
    N1が1より大きい整数であることを特徴とする請求項41に記載の方法。
  43. 設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は前記人体骨格キーポイントに基づいて補助線を設置する前記ステップは、
    前記人体骨格キーポイントに基づいて腕の付け根部内側輪郭キーポイントを通過し且つ上腕方向に垂直する第1の補助線を決定するステップを含み、
    前記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成する前記ステップは、
    前記第1の補助線と上腕外側輪郭との交点に基づいて第2の集合中の腕の付け根部外側輪郭キーポイントのラベリング情報を形成するステップを含むことを特徴とする請求項41〜42のいずれか一項に記載の方法。
  44. 設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は前記人体骨格キーポイントに基づいて補助線を設置する前記ステップは、
    股間キーポイントを通過し且つ人体骨格キーポイントで形成された股方向に垂直する第2の補助線を設置するステップを含み、
    前記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成する前記ステップは、
    前記第2の補助線と股外側輪郭の交点に基づいて第2の集合中の股の付け根部外側輪郭キーポイントのラベリング情報を形成するステップを含むことを特徴とする請求項41〜43のいずれか一項に記載の方法。
  45. 人体が含まれる画像ブロックの画像特徴を取得するための画像特徴取得モジュールと、
    第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得するための予測結果取得モジュールと、
    前記人体輪郭キーポイント予測結果に基づいて前記画像ブロックにおける人体輪郭キーポイントを取得するための輪郭キーポイント取得モジュールであって、前記人体輪郭キーポイントが人体の外部輪郭を表すために用いられる輪郭キーポイント取得モジュールと、を含むことを特徴とする人体輪郭キーポイントの検出装置。
  46. 前記画像特徴取得モジュールは、被処理画像に対して人体検出を行い、且つ人体検出結果により前記被処理画像における人体が含まれる前記画像ブロックを取得することを特徴とする請求項45に記載の装置。
  47. 前記画像ブロックは前記被処理画像であり、又は、
    前記画像ブロックは前記被処理画像における人体が含まれる局所画像であり、又は、
    前記画像ブロックは前記被処理画像における人体が含まれる局所画像に基づいて処理して得られた画像ブロックであることを特徴とする請求項46に記載の装置。
  48. 前記画像特徴取得モジュールは、人体検出器を用いて前記被処理画像に対して人体検出を行って、人体外接枠の中心位置及び人体スケール因子を取得するために用いられ、前記人体外接枠の中心位置及び人体スケール因子が被処理画像内の人体外接枠の位置を確定するために用いられることを特徴とする請求項46〜47のいずれか一項に記載の装置。
  49. 前記予測結果取得モジュールは、前記第1のニューラルネットワークにより前記画像特徴に基づいて、少なくとも一つの人体輪郭キーポイントのそれぞれに対応する少なくとも一つの人体輪郭キーポイント対応マップを形成することを特徴とする請求項45〜48のいずれか一項に記載の装置。
  50. 前記人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップを含む請求項49に記載の装置ことを特徴とする。
  51. 前記輪郭キーポイント取得モジュールは、一つの人体輪郭キーポイント信頼度マップに対して、前記信頼度マップから所定の信頼度要求を満たす一つの点を選択し、該点の前記画像ブロックにおけるマッピング位置点を前記信頼度マップの対応する人体輪郭キーポイントとすることを特徴とする請求項50に記載の装置。
  52. 前記人体輪郭キーポイントは、頭部輪郭キーポイント、腕輪郭キーポイント、手部輪郭キーポイント、肩部輪郭キーポイント、足部輪郭キーポイント、腰部輪郭キーポイント及び/又は脚部輪郭キーポイントを含むことを特徴とする請求項45〜51のいずれか一項に記載の装置。
  53. 前記頭部輪郭キーポイントは、頭頂部キーポイント、鼻先端部キーポイント及び顎キーポイントのうちの1種又は複数種を含み、及び/又は、
    前記腕輪郭キーポイントは、手首輪郭キーポイント、肘輪郭キーポイント、腕の付け根部輪郭キーポイント、手首輪郭キーポイントと肘輪郭キーポイントとの間の中点位置に位置する前腕輪郭中点キーポイント、及び肘輪郭キーポイントと腕の付け根部輪郭キーポイントとの間の中点位置に位置する上腕中点キーポイントのうちの1種又は複数種を含み、及び/又は
    前記手部輪郭キーポイントは、手先キーポイント及び掌中点キーポイントのうちの1種又は複数種を含み、及び/又は
    前記肩部輪郭キーポイントは、肩部と頭部の接合位置に位置する肩頭接合キーポイント及び腕の付け根部輪郭キーポイントと肩頭接合キーポイントとの間の中点位置に位置する肩輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は
    前記足部輪郭キーポイントは、股間キーポイント、膝輪郭キーポイント、踝輪郭キーポイント、股の付け根部外側輪郭キーポイント、膝輪郭キーポイントと踝輪郭キーポイントとの間の中点位置に位置するすね輪郭中点キーポイント、膝内側輪郭キーポイントと股間キーポイントとの間の中点位置に位置する股内側輪郭中点キーポイント、及び膝外側輪郭キーポイントと股の付け根部外側輪郭キーポイントとの間の中点位置に位置する股外側輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は
    前記腰部輪郭キーポイントは、股の付け根部外側輪郭キーポイントと腕の付け根部輪郭キーポイントとの間をN等分にして生成するN個の等分点のうちの1種又は複数種を含み、前記Nが1より大きく、及び/又は
    前記脚部輪郭キーポイントは、爪先キーポイント及び踵キーポイントのうちの1種又は複数種を含むことを特徴とする請求項52に記載の装置。
  54. 人体輪郭キーポイントのラベリング情報が含まれるトレーニング画像集合を用いて前記第1のニューラルネットワークをトレーニングするためのニューラルネットワークのトレーニング装置を更に含むことを特徴とする請求項45〜53のいずれか一項に記載の装置。
  55. 人体が含まれる画像ブロックの人体輪郭キーポイントを検出するための人体輪郭キーポイントの検出装置であって、前記人体輪郭キーポイントが人体の外部輪郭を表すために用いられる人体輪郭キーポイントの検出装置と、
    前記人体輪郭キーポイントに基づいて前記画像ブロックに対してAR効果のレンダリング処理を行うためのレンダリングモジュールと、を含むことを特徴とする画像処理装置。
  56. 前記人体輪郭キーポイントの検出装置は、請求項45〜54のいずれか一項に記載の装置を用いて前記人体輪郭キーポイントを検出することを特徴とする請求項55に記載の装置。
  57. 前記レンダリングモジュールは、前記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定し、且つ前記位置関係により前記ステッカー素材に基づいて前記画像ブロックに対してAR効果のレンダリング処理を行うことを特徴とする請求項55〜56のいずれか一項に記載の装置。
  58. 前記レンダリングモジュールは、ステッカーハンドルを作成するための第1のインターフェイス関数を呼び出してステッカーハンドルを作成し、ステッカー素材を読み取るための第2のインターフェイス関数を呼び出してステッカー素材圧縮パッケージを内部メモリに読み込み、解析し、ステッカー素材をレンダリングするための第3のインターフェイス関数を呼び出して解析結果により前記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定し、前記ステッカーハンドルに基づいて前記解析結果と前記位置関係により前記画像ブロック上で内部メモリに読み込まれたステッカー素材パッケージに対してAR効果のレンダリングを行うことを特徴とする請求項55〜57のいずれか一項に記載の装置。
  59. 前記解析結果は、ステッカー素材に関連する人体輪郭キーポイント、ステッカー素材の再生トリガ条件、ステッカー素材の再生状態パラメータのうちの1種又は複数種を含むことを特徴とする請求項58に記載の装置。
  60. 前記レンダリングモジュールは、レンダリングが終了した後、前記ステッカーハンドルを廃棄することを特徴とする請求項58〜59のいずれか一項に記載の装置。
  61. 人体が含まれるサンプル画像ブロックの画像特徴を取得するための第1のモジュールと、
    トレーニング待ちの第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得するための第2のモジュールと、
    前記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うための第3のモジュールと、を含むことを特徴とするニューラルネットワークのトレーニング装置。
  62. 前記第1のモジュールは、
    前記画像サンプルに対して人体検出を行うための検出サブモジュールと、
    人体検出結果及び画像サンプルをトレーニング待ちの入力ニューラルネットワークに提供して、トレーニング待ちの入力ニューラルネットワークにより人体が含まれる所定の大きさのサンプル画像ブロックを取得するための第1の取得サブモジュールと、
    トレーニング待ちの第2のニューラルネットワークを用いて前記サンプル画像ブロックの画像特徴を取得するための第2の取得サブモジュールと、を含むことを特徴とする請求項61に記載の装置。
  63. 前記第3のモジュールは、更に、
    前記人体輪郭キーポイント予測結果と前記人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの入力ニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対して教師あり学習を行うために用いられることを特徴とする請求項62に記載の装置。
  64. 画像サンプルの人体骨格キーポイントを取得し、設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は前記人体骨格キーポイントに基づいて補助線を設置し、且つ前記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成するための第1のラベリングモジュールを更に含むことを特徴とする請求項61〜63のいずれか一項に記載の装置。
  65. 第1の集合及び/又は第2の集合内の2つの人体輪郭キーポイント間の連結線におけるN1個の仕切点に基づいて、第3の集合内の人体輪郭キーポイントのラベリング情報を形成するための第2のラベリングモジュールを更に含み、N1が1より大きい整数であることを特徴とする請求項64に記載の装置。
  66. 前記第1のラベリングモジュールは、前記人体骨格キーポイントに基づいて腕の付け根部内側輪郭キーポイントを通過し且つ上腕方向に垂直する第1の補助線を決定し、且つ前記第1の補助線と上腕外側輪郭との交点に基づいて第2の集合中の腕の付け根部外側輪郭キーポイントのラベリング情報を形成することを特徴とする請求項64〜65のいずれか一項に記載の装置。
  67. 前記第1のラベリングモジュールは、股間キーポイントを通過し且つ人体骨格キーポイントで形成された股方向に垂直する第2の補助線を設置し、且つ前記第2の補助線と股外側輪郭の交点に基づいて第2の集合中の股の付け根部外側輪郭キーポイントのラベリング情報を形成することを特徴とする請求項64〜66のいずれか一項に記載の装置。
  68. コンピュータプログラムを記憶するためのメモリと、
    前記メモリに記憶されたコンピュータプログラムを実行するためのプロセッサと、を含み、前記コンピュータプログラムが実行される時に、上記請求項1〜44のいずれか一項に記載の方法が実現されることを特徴とする電子機器。
  69. コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、該コンピュータプログラムがプロセッサにより実行される時に、上記請求項1〜44のいずれか一項に記載の方法が実現されることを特徴とするコンピュータ可読記憶媒体。
  70. コンピュータコマンドを含むコンピュータプログラムであって、前記コンピュータコマンドが機器のプロセッサで作動する時に、上記請求項1〜44のいずれか一項に記載の方法が実現されることを特徴とするコンピュータプログラム。
JP2019572641A 2018-01-19 2019-01-08 人体輪郭キーポイントの検出方法、画像処理方法、装置及び機器 Active JP6967090B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810054352.3 2018-01-19
CN201810054352.3A CN110059522B (zh) 2018-01-19 2018-01-19 人体轮廓关键点检测方法、图像处理方法、装置及设备
PCT/CN2019/070725 WO2019141104A1 (zh) 2018-01-19 2019-01-08 人体轮廓关键点检测方法、图像处理方法、装置及设备

Publications (2)

Publication Number Publication Date
JP2020525953A true JP2020525953A (ja) 2020-08-27
JP6967090B2 JP6967090B2 (ja) 2021-11-17

Family

ID=67302015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019572641A Active JP6967090B2 (ja) 2018-01-19 2019-01-08 人体輪郭キーポイントの検出方法、画像処理方法、装置及び機器

Country Status (6)

Country Link
US (1) US11113560B2 (ja)
JP (1) JP6967090B2 (ja)
KR (1) KR102328349B1 (ja)
CN (1) CN110059522B (ja)
SG (1) SG11201911684RA (ja)
WO (1) WO2019141104A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11562504B1 (en) * 2022-01-26 2023-01-24 Goodsize Inc. System, apparatus and method for predicting lens attribute

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
US11113838B2 (en) * 2019-03-26 2021-09-07 Nec Corporation Deep learning based tattoo detection system with optimized data labeling for offline and real-time processing
CN110428390B (zh) * 2019-07-18 2022-08-26 北京达佳互联信息技术有限公司 一种素材展示方法、装置、电子设备和存储介质
CN110705448B (zh) * 2019-09-27 2023-01-20 北京市商汤科技开发有限公司 一种人体检测方法及装置
CN110852162B (zh) * 2019-09-29 2020-10-23 深圳云天励飞技术有限公司 一种人体完整度数据标注方法、装置及终端设备
US10842415B1 (en) * 2019-10-25 2020-11-24 Plethy, Inc. Devices, systems, and methods for monitoring and assessing gait, stability, and/or balance of a user
CN110852257B (zh) * 2019-11-08 2023-02-10 深圳数联天下智能科技有限公司 一种人脸关键点的检测方法、装置及存储介质
US11156830B2 (en) * 2019-11-14 2021-10-26 Facebook Technologies, Llc Co-located pose estimation in a shared artificial reality environment
CN111259822A (zh) * 2020-01-19 2020-06-09 杭州微洱网络科技有限公司 针对电商图像中模特脖颈关键点的检测方法
CN111476097A (zh) * 2020-03-06 2020-07-31 平安科技(深圳)有限公司 人体姿态评估方法、装置、计算机设备及存储介质
CN111368787A (zh) * 2020-03-17 2020-07-03 浙江大学 视频处理方法及装置、设备和计算机可读存储介质
CN111582258B (zh) * 2020-03-31 2024-03-19 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及可读存储介质
CN111539357B (zh) * 2020-04-28 2024-01-23 睿魔智能科技(深圳)有限公司 人体识别模型及其训练方法、系统、存储介质及设备
CN111724901A (zh) * 2020-06-19 2020-09-29 中山大学 一种基于视觉的结构体参数预测方法、系统、装置及存储介质
CN111860199B (zh) * 2020-06-28 2022-09-27 上海芯翌智能科技有限公司 图像中关键点的检测方法及设备
CN112084981B (zh) * 2020-09-15 2023-06-02 华侨大学 一种基于神经网络定制服装的方法
CN113743177A (zh) * 2021-02-09 2021-12-03 北京沃东天骏信息技术有限公司 关键点检测方法、系统、智能终端和存储介质
CN113469221A (zh) * 2021-06-09 2021-10-01 浙江大华技术股份有限公司 身份识别模型的训练方法和身份识别方法以及相关设备
CN113627409B (zh) * 2021-10-13 2022-03-15 南通力人健身器材有限公司 一种健身动作识别监控方法及系统
CN114519666B (zh) * 2022-02-18 2023-09-19 广州方硅信息技术有限公司 直播图像矫正方法、装置、设备及存储介质
US20240013464A1 (en) * 2022-07-11 2024-01-11 Samsung Electronics Co., Ltd. Multimodal disentanglement for generating virtual human avatars

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09190522A (ja) * 1996-01-09 1997-07-22 Taito Corp 画像合成処理方法およびその装置
JP2004174219A (ja) * 2002-10-01 2004-06-24 Japan Science & Technology Agency 画像処理装置、画像処理方法、及び当該画像処理をコンピュータに実行させるプログラムを格納する記録媒体
JP2005339288A (ja) * 2004-05-27 2005-12-08 Toshiba Corp 画像処理装置及びその方法
JP2012256131A (ja) * 2011-06-07 2012-12-27 Omron Corp 画像処理装置、情報生成装置、画像処理方法、情報生成方法、制御プログラムおよび記録媒体
JP2015075915A (ja) * 2013-10-09 2015-04-20 アイシン精機株式会社 顔検出装置、方法およびプログラム
CN107219925A (zh) * 2017-05-27 2017-09-29 成都通甲优博科技有限责任公司 姿势检测方法、装置及服务器

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120009710A (ko) * 2010-07-20 2012-02-02 에스케이플래닛 주식회사 얼굴 인식 기반의 가상 체험 서버 및 그 서비스 방법
JP4784709B1 (ja) * 2011-03-10 2011-10-05 オムロン株式会社 対象物追跡装置、対象物追跡方法、および制御プログラム
CN104537608A (zh) * 2014-12-31 2015-04-22 深圳市中兴移动通信有限公司 一种图像处理的方法及其装置
US9552510B2 (en) * 2015-03-18 2017-01-24 Adobe Systems Incorporated Facial expression capture for character animation
CN106021365A (zh) * 2016-05-11 2016-10-12 上海迪目信息科技有限公司 高维空间点超球覆盖视频序列标注的系统和方法
CN106203376B (zh) * 2016-07-19 2020-04-10 北京旷视科技有限公司 人脸关键点定位方法及装置
CN106570480B (zh) * 2016-11-07 2019-04-19 南京邮电大学 一种基于姿势识别的人体动作分类方法
CN106845400B (zh) * 2017-01-19 2020-04-10 南京开为网络科技有限公司 一种基于人脸关键点跟踪实现特效而产生的品牌展示方法
CN107092917B (zh) * 2017-03-24 2020-06-02 北京大学 一种基于流形学习的汉字笔画自动提取方法
US10957115B2 (en) * 2017-07-05 2021-03-23 Trendage, Inc. Wearable item visualizer
CN107492108A (zh) * 2017-08-18 2017-12-19 成都通甲优博科技有限责任公司 一种基于深度学习的骨架线提取算法、系统及存储介质
CN109960986A (zh) * 2017-12-25 2019-07-02 北京市商汤科技开发有限公司 人脸姿态分析方法、装置、设备、存储介质以及程序
CN111566705B (zh) * 2017-12-29 2023-07-21 上海联影医疗科技股份有限公司 一种确定医学成像中的感兴趣区域的系统和方法
CN108830783B (zh) * 2018-05-31 2021-07-02 北京市商汤科技开发有限公司 一种图像处理方法、装置和计算机存储介质
CN108985259B (zh) * 2018-08-03 2022-03-18 百度在线网络技术(北京)有限公司 人体动作识别方法和装置
CN110942479B (zh) * 2018-09-25 2023-06-02 Oppo广东移动通信有限公司 虚拟对象控制方法、存储介质及电子设备
US11036975B2 (en) * 2018-12-14 2021-06-15 Microsoft Technology Licensing, Llc Human pose estimation
CN111626082A (zh) * 2019-02-28 2020-09-04 佳能株式会社 检测装置和方法及图像处理装置和系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09190522A (ja) * 1996-01-09 1997-07-22 Taito Corp 画像合成処理方法およびその装置
JP2004174219A (ja) * 2002-10-01 2004-06-24 Japan Science & Technology Agency 画像処理装置、画像処理方法、及び当該画像処理をコンピュータに実行させるプログラムを格納する記録媒体
JP2005339288A (ja) * 2004-05-27 2005-12-08 Toshiba Corp 画像処理装置及びその方法
JP2012256131A (ja) * 2011-06-07 2012-12-27 Omron Corp 画像処理装置、情報生成装置、画像処理方法、情報生成方法、制御プログラムおよび記録媒体
JP2015075915A (ja) * 2013-10-09 2015-04-20 アイシン精機株式会社 顔検出装置、方法およびプログラム
CN107219925A (zh) * 2017-05-27 2017-09-29 成都通甲优博科技有限责任公司 姿势检测方法、装置及服务器

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11562504B1 (en) * 2022-01-26 2023-01-24 Goodsize Inc. System, apparatus and method for predicting lens attribute

Also Published As

Publication number Publication date
KR102328349B1 (ko) 2021-11-18
SG11201911684RA (en) 2020-01-30
JP6967090B2 (ja) 2021-11-17
WO2019141104A1 (zh) 2019-07-25
CN110059522B (zh) 2021-06-25
CN110059522A (zh) 2019-07-26
US20190318194A1 (en) 2019-10-17
KR20200020739A (ko) 2020-02-26
US11113560B2 (en) 2021-09-07

Similar Documents

Publication Publication Date Title
JP2020525953A (ja) 人体輪郭キーポイントの検出方法、画像処理方法、装置及び機器
CN111626218B (zh) 基于人工智能的图像生成方法、装置、设备及存储介质
WO2018121777A1 (zh) 人脸检测方法、装置和电子设备
CN102458595B (zh) 在虚拟世界中控制对象的系统、方法和记录介质
KR100722229B1 (ko) 사용자 중심형 인터페이스를 위한 가상현실 상호작용 인체모델 즉석 생성/제어 장치 및 방법
CN109035373B (zh) 三维特效程序文件包的生成及三维特效生成方法与装置
CN110675475B (zh) 一种人脸模型生成方法、装置、设备及存储介质
US20230419592A1 (en) Method and apparatus for training a three-dimensional face reconstruction model and method and apparatus for generating a three-dimensional face image
JP2019096113A (ja) キーポイントデータに関する加工装置、方法及びプログラム
US20190362530A1 (en) Information processing apparatus, information processing method, and program
CN114049468A (zh) 一种展示方法、装置、设备及存储介质
CN114677572B (zh) 对象描述参数的生成方法、深度学习模型的训练方法
CN114723888A (zh) 三维发丝模型生成方法、装置、设备、存储介质及产品
US20230177755A1 (en) Predicting facial expressions using character motion states
CN114998490A (zh) 一种虚拟对象生成方法、装置、设备及存储介质
US11361467B2 (en) Pose selection and animation of characters using video data and training techniques
CN116092120B (zh) 基于图像的动作确定方法、装置、电子设备及存储介质
WO2023035725A1 (zh) 虚拟道具展示方法及装置
US20230290132A1 (en) Object recognition neural network training using multiple data sources
CN114638744A (zh) 人体姿态迁移方法及装置
CN114327168A (zh) 人体模型处理方法和装置、电子设备和存储介质
CN115880766A (zh) 姿态迁移、姿态迁移模型训练方法、装置和存储介质
CN112915535B (zh) 一种游戏数据处理方法以及相关设备
CN117557699B (zh) 动画数据生成方法、装置、计算机设备和存储介质
CN116385829B (zh) 姿态描述信息生成方法、模型的训练方法和装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211022

R150 Certificate of patent or registration of utility model

Ref document number: 6967090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250