JP2020525953A - 人体輪郭キーポイントの検出方法、画像処理方法、装置及び機器 - Google Patents
人体輪郭キーポイントの検出方法、画像処理方法、装置及び機器 Download PDFInfo
- Publication number
- JP2020525953A JP2020525953A JP2019572641A JP2019572641A JP2020525953A JP 2020525953 A JP2020525953 A JP 2020525953A JP 2019572641 A JP2019572641 A JP 2019572641A JP 2019572641 A JP2019572641 A JP 2019572641A JP 2020525953 A JP2020525953 A JP 2020525953A
- Authority
- JP
- Japan
- Prior art keywords
- human body
- keypoint
- contour
- image
- body contour
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20116—Active contour; Active surface; Snakes
Abstract
Description
本願は、2018年1月19日に中国特許局に提出された、出願番号CN201810054352.3、発明の名称「人体輪郭キーポイントの検出方法、画像処理方法、装置及び機器」の中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
前記肩部輪郭キーポイントは、肩部と頭部の接合位置に位置する肩頭接合キーポイント及び腕の付け根部輪郭キーポイントと肩頭接合キーポイントとの間の中点位置に位置する肩輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は、前記足部輪郭キーポイントは、股間キーポイント、膝輪郭キーポイント、踝輪郭キーポイント、股の付け根部外側輪郭キーポイント、膝輪郭キーポイントと踝輪郭キーポイントとの間の中点位置に位置するすね輪郭中点キーポイント、膝内側輪郭キーポイントと股間キーポイントとの間の中点位置に位置する股内側輪郭中点キーポイント、及び膝外側輪郭キーポイントと股の付け根部外側輪郭キーポイントとの間の中点位置に位置する股外側輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は、前記腰部輪郭キーポイントは、股の付け根部外側輪郭キーポイントと腕の付け根部輪郭キーポイントとの間をN等分にして生成するN個の等分点のうちの1種又は複数種を含み、前記Nが1より大きく、及び/又は、前記脚部輪郭キーポイントは、爪先キーポイント及び踵キーポイントのうちの1種又は複数種を含む。
図1は本願の人体輪郭キーポイントの検出方法の一実施形態のフローチャートである。図1に示すように、該実施例の方法は、操作S100、操作S110及び操作S120を含む。以下、図1における各操作について詳細に説明する。
10個の左側腕輪郭キーポイント:それぞれは2個の左手首輪郭キーポイント(内側外側それぞれ1個、即ち、左手首内側輪郭キーポイントと左手首外側輪郭キーポイント)、2個の左肘輪郭キーポイント(内側外側それぞれ1個、即ち、左肘内側輪郭キーポイントと左肘外側輪郭キーポイント)、2個の左腕の付け根部輪郭キーポイント(内側外側それぞれ1個、即ち、左腕の付け根部内側輪郭キーポイントと左腕の付け根部外側輪郭キーポイントであり、この左腕の付け根部内側輪郭キーポイントが即ち左腋窩キーポイントである)、左手首輪郭キーポイントと左肘輪郭キーポイントとの間の中点位置に位置する2個の左前腕輪郭中点キーポイント(内側外側それぞれ1個、即ち、左前腕内側輪郭中点キーポイントと左前腕外側輪郭中点キーポイント)、及び左肘輪郭キーポイントと左腕の付け根部輪郭キーポイントとの間の中点位置に位置する2個の左上腕輪郭中点キーポイント(内側外側それぞれ1個、即ち、左上腕内側輪郭中点キーポイントと左上腕外側輪郭中点キーポイント)であり、本願における上腕が即ち上膊であり、
10個の右側腕輪郭キーポイント:それぞれは2個の右手首輪郭キーポイント(内側外側それぞれ1個、即ち、右手首内側輪郭キーポイントと右手首外側輪郭キーポイント)、2個の右肘輪郭キーポイント(内側外側それぞれ1個、即ち、右肘内側輪郭キーポイントと右肘外側輪郭キーポイント)、2個の右腕の付け根部輪郭キーポイント(内側外側それぞれ1個、即ち、右腕の付け根部内側輪郭キーポイントと右腕の付け根部外側輪郭キーポイントであり、この右腕の付け根部内側輪郭キーポイントが即ち右腋窩キーポイントである)、右手首輪郭キーポイントと右肘輪郭キーポイントとの間の中点位置に位置する2個の右前腕輪郭中点キーポイント(内側外側それぞれ1個、即ち、右前腕内側輪郭中点キーポイントと右前腕外側輪郭中点キーポイント)、及び右肘輪郭キーポイントと右腕の付け根部輪郭キーポイントとの間の中点位置に位置する2個の右上腕輪郭中点キーポイント(内側外側それぞれ1個、即ち、右上腕内側輪郭中点キーポイントと右上腕外側輪郭中点キーポイント)であり、本願における前腕が即ち下臂である。
2個の右側手部輪郭キーポイント:それぞれは1個の右手手先キーポイント及び1個の右手掌中点キーポイントであり、
2個の左側肩部輪郭キーポイント:それぞれは左側肩部と頭部の接合位置に位置する1個の左肩頭接合キーポイント、及び左腕の付け根部輪郭キーポイントと左肩頭接合キーポイントとの間の中点位置に位置する1個の左肩輪郭中点キーポイントであり、
2個の右側肩部輪郭キーポイント:それぞれは右側肩部と頭部の接合位置に位置する1個の右肩頭接合キーポイント、及び右腕の付け根部輪郭キーポイントと右肩頭接合キーポイントとの間の中点位置に位置する1個の右肩輪郭中点キーポイントであり、
10個の左側足部輪郭キーポイント:それぞれは1個の股間キーポイント、2個の左膝輪郭キーポイント(内側外側それぞれ1個、即ち、左膝内側輪郭キーポイントと左膝外側輪郭キーポイント)、2個の左踝輪郭キーポイント(内側外側それぞれ1個、即ち、左踝内側輪郭キーポイントと左踝外側輪郭キーポイント)、1個の左股の付け根部外側輪郭キーポイント、左膝輪郭キーポイントと左踝輪郭キーポイントとの間の中点位置に位置する2個の左すね輪郭中点キーポイント(内側外側それぞれ1個、即ち、左すね内側輪郭中点キーポイントと左すね外側輪郭中点キーポイント)、左膝内側輪郭キーポイントと股間キーポイントとの間の中点位置に位置する1個の左股内側輪郭中点キーポイント、及び左膝外側輪郭キーポイントと左股の付け根部外側輪郭キーポイントとの間の中点位置に位置する1個の左股外側輪郭中点キーポイントであり、
10個の右側足部輪郭キーポイント:それぞれは1個の股間キーポイント(上記左側足部輪郭キーポイントのうちの股間キーポイントと重複する)、2個の右膝輪郭キーポイント(内側外側それぞれ1個、即ち、右膝内側輪郭キーポイントと右膝外側輪郭キーポイント)、2個の右踝輪郭キーポイント(内側外側それぞれ1個、即ち、右踝内側輪郭キーポイントと右踝外側輪郭キーポイント)、1個の右股の付け根部外側輪郭キーポイント、右膝輪郭キーポイントと右踝輪郭キーポイントとの間の中点位置に位置する2個の右すね輪郭中点キーポイント(内側外側それぞれ1個、即ち、右すね内側輪郭中点キーポイントと右すね外側輪郭中点キーポイント)、右膝内側輪郭キーポイントと股間キーポイントとの間の中点位置に位置する1個の右股内側輪郭中点キーポイント、及び右膝外側輪郭キーポイントと右股の付け根部外側輪郭キーポイントとの間の中点位置に位置する1個の右股外側輪郭中点キーポイントであり、
5個の左側腰部輪郭キーポイント:それぞれは左股の付け根部外側輪郭キーポイントと左腕の付け根部輪郭キーポイントとの間を6等分にして生成する5個の等分点であり、
5個の右側腰部輪郭キーポイント:それぞれは右股の付け根部外側輪郭キーポイントと右腕の付け根部輪郭キーポイントとの間を6等分にして生成する5個の等分点であり、
2個の左側脚部輪郭キーポイント:それぞれは1個の左爪先キーポイント及び1個の左踵キーポイントであり
2個の右側脚部輪郭キーポイント:それぞれは1個の右爪先キーポイント及び1個の右踵キーポイントであり、
上記人体輪郭キーポイントの総数が64個である(重複する股間キーポイント1個を含まない)。複数回の実験によって分かったように、本願では64個の人体輪郭キーポイントを検出するために消費する計算資源及び時間コストが多くない。図2から分かったように、64個の人体輪郭キーポイントは人体の外部輪郭を精確に描くことができる。このことから分かったように、64個の人体輪郭キーポイントは、資源消費、リアルタイム性及び人体外部輪郭を描く正確度で、好適なバランスを取ることができる。
左側手部輪郭キーポイントラベリング情報:例えば、1個の左手手先キーポイントラベリング情報及び1個の左手掌中点キーポイントラベリング情報、
右側手部輪郭キーポイントラベリング情報:例えば、1個の右手手先キーポイントラベリング情報及び1個の右手掌中点キーポイントラベリング情報、
左側腕輪郭キーポイントラベリング情報のうちの左手首輪郭キーポイントラベリング情報(内側外側それぞれ1個)、左肘輪郭キーポイントラベリング情報(内側外側それぞれ1個)及び1個の左腕の付け根部内側輪郭キーポイントラベリング情報(即ち、左腋窩キーポイントラベリング情報)、
右側腕輪郭キーポイントラベリング情報のうちの右手首輪郭キーポイントラベリング情報(内側外側それぞれ1個)、右肘輪郭キーポイントラベリング情報(内側外側それぞれ1個)及び1個の右腕の付け根部内側輪郭キーポイントラベリング情報(即ち、右腋窩キーポイントラベリング情報)、
左側肩部輪郭キーポイントラベリング情報のうちの1個の左肩頭接合キーポイントラベリング情報、
右側肩部輪郭キーポイントラベリング情報のうちの1個の右肩頭接合キーポイントラベリング情報、
左側足部輪郭キーポイントラベリング情報のうちの1個の股間キーポイントラベリング情報、左膝輪郭キーポイントラベリング情報(内側外側それぞれ1個)及び左踝輪郭キーポイントラベリング情報(内側外側それぞれ1個)、
右側足部輪郭キーポイントラベリング情報のうちの股間キーポイントラベリング情報(重複)、右膝輪郭キーポイントラベリング情報(内側外側それぞれ1個)と右踝輪郭キーポイントラベリング情報(内側外側それぞれ1個)、
左側脚部輪郭キーポイントラベリング情報:例えば、1個の左爪先キーポイントラベリング情報及び1個の左踵キーポイントラベリング情報、
右側脚部輪郭キーポイントラベリング情報:例えば、1個の右爪先キーポイントラベリング情報及び1個の右踵キーポイントラベリング情報。
図11は本願を実現するのに適する例示的装置1100を示し、装置1100は自動車に配置されるコントロールシステム/電子システム、携帯端末(例えば、スマートフォン等)、パーソナルコンピュータ(PC;例えば、デスクトップコンピュータ又はノートパソコン等)、タブレット型コンピュータ及びサーバ等であってよい。図11において、装置1100は一つ又は複数のプロセッサ、通信部などを含み、前記一つ又は複数のプロセッサは、例えば、一つ又は複数の中央処理ユニット(CPU)1101、及び/又は一つ又は複数の加速ユニット1113などであり、加速ユニット1113はGPU、FPGA、他の種類の専用プロセッサ等を含んでよいが、それらに限定されなく、プロセッサは、読み取り専用メモリ(ROM)1102に記憶された実行可能コマンド又は記憶部1108からランダムアクセスメモリ(RAM)1103にロードされた実行可能コマンドによって各種の適切な動作及び処理を実現することができる。通信部1112はネットワークカードを含んでよいが、それに限定されなく、前記ネットワークカードはIB(Infiniband)ネットワークカードを含んでよいが、それに限定されない。プロセッサは読み取り専用メモリ1102及び/又はランダムアクセスメモリ1103と通信して実行可能コマンドを実行し、通信バス1104を介して通信部812に接続され、通信部1112を介して他のターゲットデバイスと通信してよく、それにより本願における対応の操作を完成する。
いくつかの実施例では、該人体輪郭キーポイント検出指示又はニューラルネットワークトレーニング指示又は画像処理指示は呼び出しコマンドであってよく、第1の装置は呼び出すことで、人体輪郭キーポイント検出操作又はニューラルネットワークトレーニング操作又は画像処理操作を第2の装置に実行させるように指示することができ、それに対して、呼び出しコマンドを受信したことに応答して、第2の装置は上記人体輪郭キーポイントの検出方法又はニューラルネットワークのトレーニング方法又は画像処理方法の任意の実施例における操作及び/又はフローを実行することができる。
例えば、本願は以下の項目を提供する。
(項目1)
人体が含まれる画像ブロックの画像特徴を取得するステップと、
第1のニューラルネットワークにより上記画像特徴に基づいて上記人体の人体輪郭キーポイント予測結果を取得するステップと、
上記人体輪郭キーポイント予測結果に基づいて上記画像ブロックにおける人体輪郭キーポイントを取得するステップと、を含み、
上記人体輪郭キーポイントが人体の外部輪郭を表すために用いられることを特徴とする人体輪郭キーポイントの検出方法。
(項目2)
人体が含まれる画像ブロックの画像特徴を取得する上記ステップは、
被処理画像に対して人体検出を行うステップと、
人体検出結果により上記被処理画像における人体が含まれる上記画像ブロックを取得するステップと、を含むことを特徴とする項目1に記載の方法。
(項目3)
上記画像ブロックは上記被処理画像であり、又は、
上記画像ブロックは上記被処理画像における人体が含まれる局所画像であり、又は、
上記画像ブロックは上記被処理画像における人体が含まれる局所画像に基づいて処理して得られた画像ブロックであることを特徴とする項目2に記載の方法。
(項目4)
被処理画像に対して人体検出を行う上記ステップは、人体検出器を用いて上記被処理画像に対して人体検出を行って、人体外接枠の中心位置及び人体スケール因子を取得するステップであって、上記人体外接枠の中心位置及び人体スケール因子が被処理画像内の人体外接枠の位置を確定するために用いられるステップを含むことを特徴とする項目2〜3のいずれか一項に記載の方法。
(項目5)
第1のニューラルネットワークにより上記画像特徴に基づいて上記人体の人体輪郭キーポイント予測結果を取得する上記ステップは、
上記第1のニューラルネットワークにより上記画像特徴に基づいて、少なくとも一つの人体輪郭キーポイントのそれぞれに対応する少なくとも一つの人体輪郭キーポイント対応マップを形成するステップを含むことを特徴とする項目1〜4のいずれか一項に記載の方法。
(項目6)
上記人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップを含むことを特徴とする項目5に記載の方法。
(項目7)
上記人体輪郭キーポイント予測結果に基づいて上記画像ブロックにおける人体輪郭キーポイントを取得する上記ステップは、
一つの人体輪郭キーポイント信頼度マップに対して、上記信頼度マップから所定の信頼度要求を満たす一つの点を選択し、上記点の上記画像ブロックにおけるマッピング位置点を上記信頼度マップの対応する人体輪郭キーポイントとするステップを含むことを特徴とする項目6に記載の方法。
(項目8)
上記人体輪郭キーポイントは、頭部輪郭キーポイント、腕輪郭キーポイント、手部輪郭キーポイント、肩部輪郭キーポイント、足部輪郭キーポイント、腰部輪郭キーポイント及び/又は脚部輪郭キーポイントを含むことを特徴とする項目1〜7のいずれか一項に記載の方法。
(項目9)
上記頭部輪郭キーポイントは、頭頂部キーポイント、鼻先端部キーポイント及び顎キーポイントのうちの1種又は複数種を含み、及び/又は、
上記腕輪郭キーポイントは、手首輪郭キーポイント、肘輪郭キーポイント、腕の付け根部輪郭キーポイント、手首輪郭キーポイントと肘輪郭キーポイントとの間の中点位置に位置する前腕輪郭中点キーポイント、及び肘輪郭キーポイントと腕の付け根部輪郭キーポイントとの間の中点位置に位置する上腕中点キーポイントのうちの1種又は複数種を含み、及び/又は
上記手部輪郭キーポイントは、手先キーポイント及び掌中点キーポイントのうちの1種又は複数種を含み、及び/又は
上記肩部輪郭キーポイントは、肩部と頭部の接合位置に位置する肩頭接合キーポイント及び腕の付け根部輪郭キーポイントと肩頭接合キーポイントとの間の中点位置に位置する肩輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は
上記足部輪郭キーポイントは、股間キーポイント、膝輪郭キーポイント、踝輪郭キーポイント、股の付け根部外側輪郭キーポイント、膝輪郭キーポイントと踝輪郭キーポイントとの間の中点位置に位置するすね輪郭中点キーポイント、膝内側輪郭キーポイントと股間キーポイントとの間の中点位置に位置する股内側輪郭中点キーポイント、及び膝外側輪郭キーポイントと股の付け根部外側輪郭キーポイントとの間の中点位置に位置する股外側輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は
上記腰部輪郭キーポイントは、股の付け根部外側輪郭キーポイントと腕の付け根部輪郭キーポイントとの間をN等分にして生成するN個の等分点のうちの1種又は複数種を含み、上記Nが1より大きく、及び/又は
上記脚部輪郭キーポイントは、爪先キーポイント及び踵キーポイントのうちの1種又は複数種を含むことを特徴とする項目8に記載の方法。
(項目10)
上記第1のニューラルネットワークは、人体輪郭キーポイントのラベリング情報が含まれるトレーニング画像集合により予めトレーニングされたものであることを特徴とする項目1〜9のいずれか一項に記載の方法。
(項目11)
上記第1のニューラルネットワークのトレーニングには
人体が含まれるサンプル画像ブロックの画像特徴を取得するステップと、
トレーニング待ちの第1のニューラルネットワークにより上記画像特徴に基づいて上記人体の人体輪郭キーポイント予測結果を取得するステップと、
上記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とする項目10に記載の方法。
(項目12)
人体が含まれるサンプル画像ブロックの画像特徴を取得する上記ステップは、
トレーニングデータ集合から画像サンプルを取得するステップと、
画像サンプル内の人体が含まれるサンプル画像ブロックの画像特徴を取得するステップと、を含むことを特徴とする項目11に記載の方法。
(項目13)
トレーニング待ちの第1のニューラルネットワークにより上記画像特徴に基づいて上記人体の人体輪郭キーポイント予測結果を取得する上記ステップは、
上記トレーニング待ちの第1のニューラルネットワークにより上記画像特徴に基づいて、少なくとも一つの人体輪郭キーポイントのそれぞれに対応する少なくとも一つの人体輪郭キーポイント対応マップを形成するステップを含むことを特徴とする項目11〜12のいずれか一項に記載の方法。
(項目14)
上記人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップを含むことを特徴とする項目13に記載の方法。
(項目15)
上記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行う上記ステップは、
少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、それぞれ人体輪郭キーポイント信頼度マップを生成するステップと、
上記トレーニング待ちの第1のニューラルネットワークから出力された人体輪郭キーポイント信頼度マップと上記生成した人体輪郭キーポイント信頼度マップとの差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とする項目14に記載の方法。
(項目16)
少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、それぞれ人体輪郭キーポイント信頼度マップを生成する上記ステップは、
少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、対応する人体輪郭キーポイントのラベリング情報のそれぞれの対応するサンプル画像ブロック内の位置の所定周囲領域内で、ガウス応答をそれぞれ形成し、且つ上記ガウス応答に基づいて、少なくとも一つの人体輪郭キーポイントのラベリング情報のそれぞれの対応する人体輪郭キーポイント信頼度マップを形成するステップを含むことを特徴とする項目15に記載の方法。
(項目17)
上記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行う上記ステップは、
一つの人体輪郭キーポイント信頼度マップに対して、上記信頼度マップから所定の信頼度要求を満たした点を選択し、上記点の上記画像サンプルにおけるマッピング位置点を上記信頼度マップの対応する人体輪郭キーポイントとするステップと、
上記信頼度マップの対応する人体輪郭キーポイントと上記画像サンプルの人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とする項目14に記載の方法。
(項目18)
人体が含まれるサンプル画像ブロックの画像特徴を取得する上記ステップは、
上記画像サンプルに対して人体検出を行うステップと、
人体検出結果及び画像サンプルをトレーニング待ちの入力ニューラルネットワークに提供して、トレーニング待ちの入力ニューラルネットワークにより人体が含まれる所定の大きさのサンプル画像ブロックを取得するステップと、
トレーニング待ちの第2のニューラルネットワークを用いて上記サンプル画像ブロックの画像特徴を取得するステップと、を含むことを特徴とする項目11〜17のいずれか一項に記載の方法。
(項目19)
上記第1のニューラルネットワークをトレーニングする上記ステップは、
上記人体輪郭キーポイント予測結果と上記人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの入力ニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対して教師あり学習を行うステップを更に含むことを特徴とする項目18に記載の方法。
(項目20)
上記画像サンプルに含まれる人体輪郭キーポイントのラベリング情報の設置プロセスは、
画像サンプルの人体骨格キーポイントを取得するステップと、
設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は上記人体骨格キーポイントに基づいて補助線を設置するステップと、
上記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成するステップと、を含むことを特徴とする項目11〜19のいずれか一項に記載の方法。
(項目21)
上記画像サンプルに含まれる人体輪郭キーポイントのラベリング情報の設置プロセスは、
第1の集合及び/又は第2の集合内の2つの人体輪郭キーポイント間の連結線におけるN1個の仕切点に基づいて、第3の集合内の人体輪郭キーポイントのラベリング情報を形成するステップを更に含み、
N1が1より大きい整数であることを特徴とする項目20に記載の方法。
(項目22)
設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は上記人体骨格キーポイントに基づいて補助線を設置する上記ステップは、
上記人体骨格キーポイントに基づいて腕の付け根部内側輪郭キーポイントを通過し且つ上腕方向に垂直する第1の補助線を決定するステップを含み、
上記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成する上記ステップは、
上記第1の補助線と上腕外側輪郭との交点に基づいて第2の集合中の腕の付け根部外側輪郭キーポイントのラベリング情報を形成するステップを含むことを特徴とする項目20〜21のいずれか一項に記載の方法。
(項目23)
設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は上記人体骨格キーポイントに基づいて補助線を設置する上記ステップは、
股間キーポイントを通過し且つ人体骨格キーポイントで形成された股方向に垂直する第2の補助線を設置するステップを含み、
上記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成する上記ステップは、
上記第2の補助線と股外側輪郭の交点に基づいて第2の集合中の股の付け根部外側輪郭キーポイントのラベリング情報を形成するステップを含むことを特徴とする項目20〜22のいずれか一項に記載の方法。
(項目24)
上記人体輪郭キーポイントに基づいて上記画像ブロックに対して拡張現実AR効果のレンダリング処理を行うステップを更に含むことを特徴とする項目1〜23のいずれか一項に記載の方法。
(項目25)
上記人体輪郭キーポイントに基づいて上記画像ブロックに対してAR効果のレンダリング処理を行う上記ステップは、
上記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定するステップと、
上記位置関係により上記ステッカー素材に基づいて上記画像ブロックに対してAR効果のレンダリング処理を行うステップと、を含むことを特徴とする項目24に記載の方法。
(項目26)
人体が含まれる画像ブロックの人体輪郭キーポイントを検出するステップであって、上記人体輪郭キーポイントが人体の外部輪郭を表すために用いられるステップと、
上記人体輪郭キーポイントに基づいて上記画像ブロックに対して拡張現実AR効果のレンダリング処理を行うステップと、を含むことを特徴とする画像処理方法。
(項目27)
人体が含まれる画像ブロックの人体輪郭キーポイントを検出する上記ステップは、
項目1〜25のいずれか一項に記載の方法を用いて上記人体輪郭キーポイントを検出するステップを含むことを特徴とする項目26に記載の方法。
(項目28)
上記人体輪郭キーポイントに基づいて上記画像ブロックに対してAR効果のレンダリング処理を行う上記ステップは、
上記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定するステップと、
上記位置関係により上記ステッカー素材に基づいて上記画像ブロックに対してAR効果のレンダリング処理を行うステップと、を含むことを特徴とする項目26〜27のいずれか一項に記載の方法。
(項目29)
上記人体輪郭キーポイントに基づいて上記画像ブロックに対してAR効果のレンダリング処理を行う上記ステップは、
ステッカーハンドルを作成するための第1のインターフェイス関数を呼び出してステッカーハンドルを作成するステップと、
ステッカー素材を読み取るための第2のインターフェイス関数を呼び出してステッカー素材圧縮パッケージを内部メモリに読み込み、解析するステップと、
ステッカー素材をレンダリングするための第3のインターフェイス関数を呼び出して解析結果により上記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定し、上記ステッカーハンドルに基づいて上記解析結果と上記位置関係により上記画像ブロック上で内部メモリに読み込まれたステッカー素材パッケージに対してAR効果のレンダリングを行うステップと、を含むことを特徴とする項目26〜28のいずれか一項に記載の方法。
(項目30)
上記解析結果は、ステッカー素材に関連する人体輪郭キーポイント、ステッカー素材の再生トリガ条件、ステッカー素材の再生状態パラメータのうちの1種又は複数種を含むことを特徴とする項目29に記載の方法。
(項目31)
レンダリングが終了した後、上記ステッカーハンドルを廃棄するステップを更に含むことを特徴とする項目29〜30のいずれか一項に記載の方法。
(項目32)
人体が含まれるサンプル画像ブロックの画像特徴を取得するステップと、
トレーニング待ちの第1のニューラルネットワークにより上記画像特徴に基づいて上記人体の人体輪郭キーポイント予測結果を取得するステップと、
上記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とするニューラルネットワークのトレーニング方法。
(項目33)
人体が含まれるサンプル画像ブロックの画像特徴を取得する上記ステップは、
トレーニングデータ集合から画像サンプルを取得するステップと、
画像サンプル内の人体が含まれるサンプル画像ブロックの画像特徴を取得するステップと、を含むことを特徴とする項目32に記載の方法。
(項目34)
トレーニング待ちの第1のニューラルネットワークにより上記画像特徴に基づいて上記人体の人体輪郭キーポイント予測結果を取得する上記ステップは、
上記トレーニング待ちの第1のニューラルネットワークにより上記画像特徴に基づいて、少なくとも一つの人体輪郭キーポイントのそれぞれに対応する少なくとも一つの人体輪郭キーポイント対応マップを形成するステップを含むことを特徴とする項目32〜33のいずれか一項に記載の方法。
(項目35)
上記人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップを含むことを特徴とする項目34に記載の方法。
(項目36)
上記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行う上記ステップは、
少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、それぞれ人体輪郭キーポイント信頼度マップを生成するステップと、
上記トレーニング待ちの第1のニューラルネットワークから出力された人体輪郭キーポイント信頼度マップと上記生成した人体輪郭キーポイント信頼度マップとの差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とする項目35に記載の方法。
(項目37)
少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、それぞれ人体輪郭キーポイント信頼度マップを生成する上記ステップは、
少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、対応する人体輪郭キーポイントのラベリング情報のそれぞれの対応するサンプル画像ブロック内の位置の所定周囲領域内で、ガウス応答をそれぞれ形成し、且つ上記ガウス応答に基づいて、少なくとも一つの人体輪郭キーポイントのラベリング情報のそれぞれの対応する人体輪郭キーポイント信頼度マップを形成するステップを含むことを特徴とする項目36に記載の方法。
(項目38)
上記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行う上記ステップは、
一つの人体輪郭キーポイント信頼度マップに対して、上記信頼度マップから所定の信頼度要求を満たした点を選択し、上記点の上記画像サンプルにおけるマッピング位置点を上記信頼度マップの対応する人体輪郭キーポイントとするステップと、
上記信頼度マップの対応する人体輪郭キーポイントと上記画像サンプルの人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とする項目35に記載の方法。
(項目39)
人体が含まれるサンプル画像ブロックの画像特徴を取得する上記ステップは、
上記画像サンプルに対して人体検出を行うステップと、
人体検出結果及び画像サンプルをトレーニング待ちの入力ニューラルネットワークに提供して、トレーニング待ちの入力ニューラルネットワークにより人体が含まれる所定の大きさのサンプル画像ブロックを取得するステップと、
トレーニング待ちの第2のニューラルネットワークを用いて上記サンプル画像ブロックの画像特徴を取得するステップと、を含むことを特徴とする項目32〜38のいずれか一項に記載の方法。
(項目40)
上記第1のニューラルネットワークをトレーニングする上記ステップは、
上記人体輪郭キーポイント予測結果と上記人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの入力ニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対して教師あり学習を行うステップを更に含むことを特徴とする項目39に記載の方法。
(項目41)
上記画像サンプルに含まれる人体輪郭キーポイントのラベリング情報の設置プロセスは、
画像サンプルの人体骨格キーポイントを取得するステップと、
設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は上記人体骨格キーポイントに基づいて補助線を設置するステップと、
上記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成するステップと、を含むことを特徴とする項目32〜40のいずれか一項に記載の方法。
(項目42)
上記画像サンプルに含まれる人体輪郭キーポイントのラベリング情報の設置プロセスは、
第1の集合及び/又は第2の集合内の2つの人体輪郭キーポイント間の連結線におけるN1個の仕切点に基づいて、第3の集合内の人体輪郭キーポイントのラベリング情報を形成するステップを更に含み、
N1が1より大きい整数であることを特徴とする項目41に記載の方法。
(項目43)
設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は上記人体骨格キーポイントに基づいて補助線を設置する上記ステップは、
上記人体骨格キーポイントに基づいて腕の付け根部内側輪郭キーポイントを通過し且つ上腕方向に垂直する第1の補助線を決定するステップを含み、
上記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成する上記ステップは、
上記第1の補助線と上腕外側輪郭との交点に基づいて第2の集合中の腕の付け根部外側輪郭キーポイントのラベリング情報を形成するステップを含むことを特徴とする項目41〜42のいずれか一項に記載の方法。
(項目44)
設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は上記人体骨格キーポイントに基づいて補助線を設置する上記ステップは、
股間キーポイントを通過し且つ人体骨格キーポイントで形成された股方向に垂直する第2の補助線を設置するステップを含み、
上記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成する上記ステップは、
上記第2の補助線と股外側輪郭の交点に基づいて第2の集合中の股の付け根部外側輪郭キーポイントのラベリング情報を形成するステップを含むことを特徴とする項目41〜43のいずれか一項に記載の方法。
(項目45)
人体が含まれる画像ブロックの画像特徴を取得するための画像特徴取得モジュールと、
第1のニューラルネットワークにより上記画像特徴に基づいて上記人体の人体輪郭キーポイント予測結果を取得するための予測結果取得モジュールと、
上記人体輪郭キーポイント予測結果に基づいて上記画像ブロックにおける人体輪郭キーポイントを取得するための輪郭キーポイント取得モジュールであって、上記人体輪郭キーポイントが人体の外部輪郭を表すために用いられる輪郭キーポイント取得モジュールと、を含むことを特徴とする人体輪郭キーポイントの検出装置。
(項目46)
上記画像特徴取得モジュールは、被処理画像に対して人体検出を行い、且つ人体検出結果により上記被処理画像における人体が含まれる上記画像ブロックを取得することを特徴とする項目45に記載の装置。
(項目47)
上記画像ブロックは上記被処理画像であり、又は、
上記画像ブロックは上記被処理画像における人体が含まれる局所画像であり、又は、
上記画像ブロックは上記被処理画像における人体が含まれる局所画像に基づいて処理して得られた画像ブロックであることを特徴とする項目46に記載の装置。
(項目48)
上記画像特徴取得モジュールは、人体検出器を用いて上記被処理画像に対して人体検出を行って、人体外接枠の中心位置及び人体スケール因子を取得するために用いられ、上記人体外接枠の中心位置及び人体スケール因子が被処理画像内の人体外接枠の位置を確定するために用いられることを特徴とする項目46〜47のいずれか一項に記載の装置。
(項目49)
上記予測結果取得モジュールは、上記第1のニューラルネットワークにより上記画像特徴に基づいて、少なくとも一つの人体輪郭キーポイントのそれぞれに対応する少なくとも一つの人体輪郭キーポイント対応マップを形成することを特徴とする項目45〜48のいずれか一項に記載の装置。
(項目50)
上記人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップを含む項目49に記載の装置ことを特徴とする。
(項目51)
上記輪郭キーポイント取得モジュールは、一つの人体輪郭キーポイント信頼度マップに対して、上記信頼度マップから所定の信頼度要求を満たす一つの点を選択し、上記点の上記画像ブロックにおけるマッピング位置点を上記信頼度マップの対応する人体輪郭キーポイントとすることを特徴とする項目50に記載の装置。
(項目52)
上記人体輪郭キーポイントは、頭部輪郭キーポイント、腕輪郭キーポイント、手部輪郭キーポイント、肩部輪郭キーポイント、足部輪郭キーポイント、腰部輪郭キーポイント及び/又は脚部輪郭キーポイントを含むことを特徴とする項目45〜51のいずれか一項に記載の装置。
(項目53)
上記頭部輪郭キーポイントは、頭頂部キーポイント、鼻先端部キーポイント及び顎キーポイントのうちの1種又は複数種を含み、及び/又は、
上記腕輪郭キーポイントは、手首輪郭キーポイント、肘輪郭キーポイント、腕の付け根部輪郭キーポイント、手首輪郭キーポイントと肘輪郭キーポイントとの間の中点位置に位置する前腕輪郭中点キーポイント、及び肘輪郭キーポイントと腕の付け根部輪郭キーポイントとの間の中点位置に位置する上腕中点キーポイントのうちの1種又は複数種を含み、及び/又は
上記手部輪郭キーポイントは、手先キーポイント及び掌中点キーポイントのうちの1種又は複数種を含み、及び/又は
上記肩部輪郭キーポイントは、肩部と頭部の接合位置に位置する肩頭接合キーポイント及び腕の付け根部輪郭キーポイントと肩頭接合キーポイントとの間の中点位置に位置する肩輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は
上記足部輪郭キーポイントは、股間キーポイント、膝輪郭キーポイント、踝輪郭キーポイント、股の付け根部外側輪郭キーポイント、膝輪郭キーポイントと踝輪郭キーポイントとの間の中点位置に位置するすね輪郭中点キーポイント、膝内側輪郭キーポイントと股間キーポイントとの間の中点位置に位置する股内側輪郭中点キーポイント、及び膝外側輪郭キーポイントと股の付け根部外側輪郭キーポイントとの間の中点位置に位置する股外側輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は
上記腰部輪郭キーポイントは、股の付け根部外側輪郭キーポイントと腕の付け根部輪郭キーポイントとの間をN等分にして生成するN個の等分点のうちの1種又は複数種を含み、上記Nが1より大きく、及び/又は
上記脚部輪郭キーポイントは、爪先キーポイント及び踵キーポイントのうちの1種又は複数種を含むことを特徴とする項目52に記載の装置。
(項目54)
人体輪郭キーポイントのラベリング情報が含まれるトレーニング画像集合を用いて上記第1のニューラルネットワークをトレーニングするためのニューラルネットワークのトレーニング装置を更に含むことを特徴とする項目45〜53のいずれか一項に記載の装置。
(項目55)
人体が含まれる画像ブロックの人体輪郭キーポイントを検出するための人体輪郭キーポイントの検出装置であって、上記人体輪郭キーポイントが人体の外部輪郭を表すために用いられる人体輪郭キーポイントの検出装置と、
上記人体輪郭キーポイントに基づいて上記画像ブロックに対してAR効果のレンダリング処理を行うためのレンダリングモジュールと、を含むことを特徴とする画像処理装置。
(項目56)
上記人体輪郭キーポイントの検出装置は、項目45〜54のいずれか一項に記載の装置を用いて上記人体輪郭キーポイントを検出することを特徴とする項目55に記載の装置。
(項目57)
上記レンダリングモジュールは、上記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定し、且つ上記位置関係により上記ステッカー素材に基づいて上記画像ブロックに対してAR効果のレンダリング処理を行うことを特徴とする項目55〜56のいずれか一項に記載の装置。
(項目58)
上記レンダリングモジュールは、ステッカーハンドルを作成するための第1のインターフェイス関数を呼び出してステッカーハンドルを作成し、ステッカー素材を読み取るための第2のインターフェイス関数を呼び出してステッカー素材圧縮パッケージを内部メモリに読み込み、解析し、ステッカー素材をレンダリングするための第3のインターフェイス関数を呼び出して解析結果により上記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定し、上記ステッカーハンドルに基づいて上記解析結果と上記位置関係により上記画像ブロック上で内部メモリに読み込まれたステッカー素材パッケージに対してAR効果のレンダリングを行うことを特徴とする項目55〜57のいずれか一項に記載の装置。
(項目59)
上記解析結果は、ステッカー素材に関連する人体輪郭キーポイント、ステッカー素材の再生トリガ条件、ステッカー素材の再生状態パラメータのうちの1種又は複数種を含むことを特徴とする項目58に記載の装置。
(項目60)
上記レンダリングモジュールは、レンダリングが終了した後、上記ステッカーハンドルを廃棄することを特徴とする項目58〜59のいずれか一項に記載の装置。
(項目61)
人体が含まれるサンプル画像ブロックの画像特徴を取得するための第1のモジュールと、
トレーニング待ちの第1のニューラルネットワークにより上記画像特徴に基づいて上記人体の人体輪郭キーポイント予測結果を取得するための第2のモジュールと、
上記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うための第3のモジュールと、を含むことを特徴とするニューラルネットワークのトレーニング装置。
(項目62)
上記第1のモジュールは、
上記画像サンプルに対して人体検出を行うための検出サブモジュールと、
人体検出結果及び画像サンプルをトレーニング待ちの入力ニューラルネットワークに提供して、トレーニング待ちの入力ニューラルネットワークにより人体が含まれる所定の大きさのサンプル画像ブロックを取得するための第1の取得サブモジュールと、
トレーニング待ちの第2のニューラルネットワークを用いて上記サンプル画像ブロックの画像特徴を取得するための第2の取得サブモジュールと、を含むことを特徴とする項目61に記載の装置。
(項目63)
上記第3のモジュールは、更に、
上記人体輪郭キーポイント予測結果と上記人体輪郭キーポイントのラベリング情報との差異を教師情報として、上記トレーニング待ちの入力ニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対して教師あり学習を行うために用いられることを特徴とする項目62に記載の装置。
(項目64)
画像サンプルの人体骨格キーポイントを取得し、設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は上記人体骨格キーポイントに基づいて補助線を設置し、且つ上記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成するための第1のラベリングモジュールを更に含むことを特徴とする項目61〜63のいずれか一項に記載の装置。
(項目65)
第1の集合及び/又は第2の集合内の2つの人体輪郭キーポイント間の連結線におけるN1個の仕切点に基づいて、第3の集合内の人体輪郭キーポイントのラベリング情報を形成するための第2のラベリングモジュールを更に含み、N1が1より大きい整数であることを特徴とする項目64に記載の装置。
(項目66)
上記第1のラベリングモジュールは、上記人体骨格キーポイントに基づいて腕の付け根部内側輪郭キーポイントを通過し且つ上腕方向に垂直する第1の補助線を決定し、且つ上記第1の補助線と上腕外側輪郭との交点に基づいて第2の集合中の腕の付け根部外側輪郭キーポイントのラベリング情報を形成することを特徴とする項目64〜65のいずれか一項に記載の装置。
(項目67)
上記第1のラベリングモジュールは、股間キーポイントを通過し且つ人体骨格キーポイントで形成された股方向に垂直する第2の補助線を設置し、且つ上記第2の補助線と股外側輪郭の交点に基づいて第2の集合中の股の付け根部外側輪郭キーポイントのラベリング情報を形成することを特徴とする項目64〜66のいずれか一項に記載の装置。
(項目68)
コンピュータプログラムを記憶するためのメモリと、
上記メモリに記憶されたコンピュータプログラムを実行するためのプロセッサと、を含み、上記コンピュータプログラムが実行される時に、上記項目1〜44のいずれか一項に記載の方法が実現されることを特徴とする電子機器。
(項目69)
コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、上記コンピュータプログラムがプロセッサにより実行される時に、上記項目1〜44のいずれか一項に記載の方法が実現されることを特徴とするコンピュータ可読記憶媒体。
(項目70)
コンピュータコマンドを含むコンピュータプログラムであって、上記コンピュータコマンドが機器のプロセッサで作動する時に、上記項目1〜44のいずれか一項に記載の方法が実現されることを特徴とするコンピュータプログラム。
Claims (70)
- 人体が含まれる画像ブロックの画像特徴を取得するステップと、
第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得するステップと、
前記人体輪郭キーポイント予測結果に基づいて前記画像ブロックにおける人体輪郭キーポイントを取得するステップと、を含み、
前記人体輪郭キーポイントが人体の外部輪郭を表すために用いられることを特徴とする人体輪郭キーポイントの検出方法。 - 人体が含まれる画像ブロックの画像特徴を取得する前記ステップは、
被処理画像に対して人体検出を行うステップと、
人体検出結果により前記被処理画像における人体が含まれる前記画像ブロックを取得するステップと、を含むことを特徴とする請求項1に記載の方法。 - 前記画像ブロックは前記被処理画像であり、又は、
前記画像ブロックは前記被処理画像における人体が含まれる局所画像であり、又は、
前記画像ブロックは前記被処理画像における人体が含まれる局所画像に基づいて処理して得られた画像ブロックであることを特徴とする請求項2に記載の方法。 - 被処理画像に対して人体検出を行う前記ステップは、人体検出器を用いて前記被処理画像に対して人体検出を行って、人体外接枠の中心位置及び人体スケール因子を取得するステップであって、前記人体外接枠の中心位置及び人体スケール因子が被処理画像内の人体外接枠の位置を確定するために用いられるステップを含むことを特徴とする請求項2〜3のいずれか一項に記載の方法。
- 第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得する前記ステップは、
前記第1のニューラルネットワークにより前記画像特徴に基づいて、少なくとも一つの人体輪郭キーポイントのそれぞれに対応する少なくとも一つの人体輪郭キーポイント対応マップを形成するステップを含むことを特徴とする請求項1〜4のいずれか一項に記載の方法。 - 前記人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップを含むことを特徴とする請求項5に記載の方法。
- 前記人体輪郭キーポイント予測結果に基づいて前記画像ブロックにおける人体輪郭キーポイントを取得する前記ステップは、
一つの人体輪郭キーポイント信頼度マップに対して、前記信頼度マップから所定の信頼度要求を満たす一つの点を選択し、該点の前記画像ブロックにおけるマッピング位置点を前記信頼度マップの対応する人体輪郭キーポイントとするステップを含むことを特徴とする請求項6に記載の方法。 - 前記人体輪郭キーポイントは、頭部輪郭キーポイント、腕輪郭キーポイント、手部輪郭キーポイント、肩部輪郭キーポイント、足部輪郭キーポイント、腰部輪郭キーポイント及び/又は脚部輪郭キーポイントを含むことを特徴とする請求項1〜7のいずれか一項に記載の方法。
- 前記頭部輪郭キーポイントは、頭頂部キーポイント、鼻先端部キーポイント及び顎キーポイントのうちの1種又は複数種を含み、及び/又は、
前記腕輪郭キーポイントは、手首輪郭キーポイント、肘輪郭キーポイント、腕の付け根部輪郭キーポイント、手首輪郭キーポイントと肘輪郭キーポイントとの間の中点位置に位置する前腕輪郭中点キーポイント、及び肘輪郭キーポイントと腕の付け根部輪郭キーポイントとの間の中点位置に位置する上腕中点キーポイントのうちの1種又は複数種を含み、及び/又は
前記手部輪郭キーポイントは、手先キーポイント及び掌中点キーポイントのうちの1種又は複数種を含み、及び/又は
前記肩部輪郭キーポイントは、肩部と頭部の接合位置に位置する肩頭接合キーポイント及び腕の付け根部輪郭キーポイントと肩頭接合キーポイントとの間の中点位置に位置する肩輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は
前記足部輪郭キーポイントは、股間キーポイント、膝輪郭キーポイント、踝輪郭キーポイント、股の付け根部外側輪郭キーポイント、膝輪郭キーポイントと踝輪郭キーポイントとの間の中点位置に位置するすね輪郭中点キーポイント、膝内側輪郭キーポイントと股間キーポイントとの間の中点位置に位置する股内側輪郭中点キーポイント、及び膝外側輪郭キーポイントと股の付け根部外側輪郭キーポイントとの間の中点位置に位置する股外側輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は
前記腰部輪郭キーポイントは、股の付け根部外側輪郭キーポイントと腕の付け根部輪郭キーポイントとの間をN等分にして生成するN個の等分点のうちの1種又は複数種を含み、前記Nが1より大きく、及び/又は
前記脚部輪郭キーポイントは、爪先キーポイント及び踵キーポイントのうちの1種又は複数種を含むことを特徴とする請求項8に記載の方法。 - 前記第1のニューラルネットワークは、人体輪郭キーポイントのラベリング情報が含まれるトレーニング画像集合により予めトレーニングされたものであることを特徴とする請求項1〜9のいずれか一項に記載の方法。
- 前記第1のニューラルネットワークのトレーニングには
人体が含まれるサンプル画像ブロックの画像特徴を取得するステップと、
トレーニング待ちの第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得するステップと、
前記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とする請求項10に記載の方法。 - 人体が含まれるサンプル画像ブロックの画像特徴を取得する前記ステップは、
トレーニングデータ集合から画像サンプルを取得するステップと、
画像サンプル内の人体が含まれるサンプル画像ブロックの画像特徴を取得するステップと、を含むことを特徴とする請求項11に記載の方法。 - トレーニング待ちの第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得する前記ステップは、
前記トレーニング待ちの第1のニューラルネットワークにより前記画像特徴に基づいて、少なくとも一つの人体輪郭キーポイントのそれぞれに対応する少なくとも一つの人体輪郭キーポイント対応マップを形成するステップを含むことを特徴とする請求項11〜12のいずれか一項に記載の方法。 - 前記人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップを含むことを特徴とする請求項13に記載の方法。
- 前記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行う前記ステップは、
少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、それぞれ人体輪郭キーポイント信頼度マップを生成するステップと、
前記トレーニング待ちの第1のニューラルネットワークから出力された人体輪郭キーポイント信頼度マップと前記生成した人体輪郭キーポイント信頼度マップとの差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とする請求項14に記載の方法。 - 少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、それぞれ人体輪郭キーポイント信頼度マップを生成する前記ステップは、
少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、対応する人体輪郭キーポイントのラベリング情報のそれぞれの対応するサンプル画像ブロック内の位置の所定周囲領域内で、ガウス応答をそれぞれ形成し、且つ前記ガウス応答に基づいて、少なくとも一つの人体輪郭キーポイントのラベリング情報のそれぞれの対応する人体輪郭キーポイント信頼度マップを形成するステップを含むことを特徴とする請求項15に記載の方法。 - 前記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行う前記ステップは、
一つの人体輪郭キーポイント信頼度マップに対して、前記信頼度マップから所定の信頼度要求を満たした点を選択し、該点の前記画像サンプルにおけるマッピング位置点を前記信頼度マップの対応する人体輪郭キーポイントとするステップと、
前記信頼度マップの対応する人体輪郭キーポイントと前記画像サンプルの人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とする請求項14に記載の方法。 - 人体が含まれるサンプル画像ブロックの画像特徴を取得する前記ステップは、
前記画像サンプルに対して人体検出を行うステップと、
人体検出結果及び画像サンプルをトレーニング待ちの入力ニューラルネットワークに提供して、トレーニング待ちの入力ニューラルネットワークにより人体が含まれる所定の大きさのサンプル画像ブロックを取得するステップと、
トレーニング待ちの第2のニューラルネットワークを用いて前記サンプル画像ブロックの画像特徴を取得するステップと、を含むことを特徴とする請求項11〜17のいずれか一項に記載の方法。 - 前記第1のニューラルネットワークをトレーニングする前記ステップは、
前記人体輪郭キーポイント予測結果と前記人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの入力ニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対して教師あり学習を行うステップを更に含むことを特徴とする請求項18に記載の方法。 - 前記画像サンプルに含まれる人体輪郭キーポイントのラベリング情報の設置プロセスは、
画像サンプルの人体骨格キーポイントを取得するステップと、
設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は前記人体骨格キーポイントに基づいて補助線を設置するステップと、
前記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成するステップと、を含むことを特徴とする請求項11〜19のいずれか一項に記載の方法。 - 前記画像サンプルに含まれる人体輪郭キーポイントのラベリング情報の設置プロセスは、
第1の集合及び/又は第2の集合内の2つの人体輪郭キーポイント間の連結線におけるN1個の仕切点に基づいて、第3の集合内の人体輪郭キーポイントのラベリング情報を形成するステップを更に含み、
N1が1より大きい整数であることを特徴とする請求項20に記載の方法。 - 設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は前記人体骨格キーポイントに基づいて補助線を設置する前記ステップは、
前記人体骨格キーポイントに基づいて腕の付け根部内側輪郭キーポイントを通過し且つ上腕方向に垂直する第1の補助線を決定するステップを含み、
前記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成する前記ステップは、
前記第1の補助線と上腕外側輪郭との交点に基づいて第2の集合中の腕の付け根部外側輪郭キーポイントのラベリング情報を形成するステップを含むことを特徴とする請求項20〜21のいずれか一項に記載の方法。 - 設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は前記人体骨格キーポイントに基づいて補助線を設置する前記ステップは、
股間キーポイントを通過し且つ人体骨格キーポイントで形成された股方向に垂直する第2の補助線を設置するステップを含み、
前記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成する前記ステップは、
前記第2の補助線と股外側輪郭の交点に基づいて第2の集合中の股の付け根部外側輪郭キーポイントのラベリング情報を形成するステップを含むことを特徴とする請求項20〜22のいずれか一項に記載の方法。 - 前記人体輪郭キーポイントに基づいて前記画像ブロックに対して拡張現実AR効果のレンダリング処理を行うステップを更に含むことを特徴とする請求項1〜23のいずれか一項に記載の方法。
- 前記人体輪郭キーポイントに基づいて前記画像ブロックに対してAR効果のレンダリング処理を行う前記ステップは、
前記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定するステップと、
前記位置関係により前記ステッカー素材に基づいて前記画像ブロックに対してAR効果のレンダリング処理を行うステップと、を含むことを特徴とする請求項24に記載の方法。 - 人体が含まれる画像ブロックの人体輪郭キーポイントを検出するステップであって、前記人体輪郭キーポイントが人体の外部輪郭を表すために用いられるステップと、
前記人体輪郭キーポイントに基づいて前記画像ブロックに対して拡張現実AR効果のレンダリング処理を行うステップと、を含むことを特徴とする画像処理方法。 - 人体が含まれる画像ブロックの人体輪郭キーポイントを検出する前記ステップは、
請求項1〜25のいずれか一項に記載の方法を用いて前記人体輪郭キーポイントを検出するステップを含むことを特徴とする請求項26に記載の方法。 - 前記人体輪郭キーポイントに基づいて前記画像ブロックに対してAR効果のレンダリング処理を行う前記ステップは、
前記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定するステップと、
前記位置関係により前記ステッカー素材に基づいて前記画像ブロックに対してAR効果のレンダリング処理を行うステップと、を含むことを特徴とする請求項26〜27のいずれか一項に記載の方法。 - 前記人体輪郭キーポイントに基づいて前記画像ブロックに対してAR効果のレンダリング処理を行う前記ステップは、
ステッカーハンドルを作成するための第1のインターフェイス関数を呼び出してステッカーハンドルを作成するステップと、
ステッカー素材を読み取るための第2のインターフェイス関数を呼び出してステッカー素材圧縮パッケージを内部メモリに読み込み、解析するステップと、
ステッカー素材をレンダリングするための第3のインターフェイス関数を呼び出して解析結果により前記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定し、前記ステッカーハンドルに基づいて前記解析結果と前記位置関係により前記画像ブロック上で内部メモリに読み込まれたステッカー素材パッケージに対してAR効果のレンダリングを行うステップと、を含むことを特徴とする請求項26〜28のいずれか一項に記載の方法。 - 前記解析結果は、ステッカー素材に関連する人体輪郭キーポイント、ステッカー素材の再生トリガ条件、ステッカー素材の再生状態パラメータのうちの1種又は複数種を含むことを特徴とする請求項29に記載の方法。
- レンダリングが終了した後、前記ステッカーハンドルを廃棄するステップを更に含むことを特徴とする請求項29〜30のいずれか一項に記載の方法。
- 人体が含まれるサンプル画像ブロックの画像特徴を取得するステップと、
トレーニング待ちの第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得するステップと、
前記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とするニューラルネットワークのトレーニング方法。 - 人体が含まれるサンプル画像ブロックの画像特徴を取得する前記ステップは、
トレーニングデータ集合から画像サンプルを取得するステップと、
画像サンプル内の人体が含まれるサンプル画像ブロックの画像特徴を取得するステップと、を含むことを特徴とする請求項32に記載の方法。 - トレーニング待ちの第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得する前記ステップは、
前記トレーニング待ちの第1のニューラルネットワークにより前記画像特徴に基づいて、少なくとも一つの人体輪郭キーポイントのそれぞれに対応する少なくとも一つの人体輪郭キーポイント対応マップを形成するステップを含むことを特徴とする請求項32〜33のいずれか一項に記載の方法。 - 前記人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップを含むことを特徴とする請求項34に記載の方法。
- 前記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行う前記ステップは、
少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、それぞれ人体輪郭キーポイント信頼度マップを生成するステップと、
前記トレーニング待ちの第1のニューラルネットワークから出力された人体輪郭キーポイント信頼度マップと前記生成した人体輪郭キーポイント信頼度マップとの差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とする請求項35に記載の方法。 - 少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、それぞれ人体輪郭キーポイント信頼度マップを生成する前記ステップは、
少なくとも一つの人体輪郭キーポイントのラベリング情報に対して、対応する人体輪郭キーポイントのラベリング情報のそれぞれの対応するサンプル画像ブロック内の位置の所定周囲領域内で、ガウス応答をそれぞれ形成し、且つ前記ガウス応答に基づいて、少なくとも一つの人体輪郭キーポイントのラベリング情報のそれぞれの対応する人体輪郭キーポイント信頼度マップを形成するステップを含むことを特徴とする請求項36に記載の方法。 - 前記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行う前記ステップは、
一つの人体輪郭キーポイント信頼度マップに対して、前記信頼度マップから所定の信頼度要求を満たした点を選択し、該点の前記画像サンプルにおけるマッピング位置点を前記信頼度マップの対応する人体輪郭キーポイントとするステップと、
前記信頼度マップの対応する人体輪郭キーポイントと前記画像サンプルの人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うステップと、を含むことを特徴とする請求項35に記載の方法。 - 人体が含まれるサンプル画像ブロックの画像特徴を取得する前記ステップは、
前記画像サンプルに対して人体検出を行うステップと、
人体検出結果及び画像サンプルをトレーニング待ちの入力ニューラルネットワークに提供して、トレーニング待ちの入力ニューラルネットワークにより人体が含まれる所定の大きさのサンプル画像ブロックを取得するステップと、
トレーニング待ちの第2のニューラルネットワークを用いて前記サンプル画像ブロックの画像特徴を取得するステップと、を含むことを特徴とする請求項32〜38のいずれか一項に記載の方法。 - 前記第1のニューラルネットワークをトレーニングする前記ステップは、
前記人体輪郭キーポイント予測結果と前記人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの入力ニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対して教師あり学習を行うステップを更に含むことを特徴とする請求項39に記載の方法。 - 前記画像サンプルに含まれる人体輪郭キーポイントのラベリング情報の設置プロセスは、
画像サンプルの人体骨格キーポイントを取得するステップと、
設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は前記人体骨格キーポイントに基づいて補助線を設置するステップと、
前記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成するステップと、を含むことを特徴とする請求項32〜40のいずれか一項に記載の方法。 - 前記画像サンプルに含まれる人体輪郭キーポイントのラベリング情報の設置プロセスは、
第1の集合及び/又は第2の集合内の2つの人体輪郭キーポイント間の連結線におけるN1個の仕切点に基づいて、第3の集合内の人体輪郭キーポイントのラベリング情報を形成するステップを更に含み、
N1が1より大きい整数であることを特徴とする請求項41に記載の方法。 - 設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は前記人体骨格キーポイントに基づいて補助線を設置する前記ステップは、
前記人体骨格キーポイントに基づいて腕の付け根部内側輪郭キーポイントを通過し且つ上腕方向に垂直する第1の補助線を決定するステップを含み、
前記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成する前記ステップは、
前記第1の補助線と上腕外側輪郭との交点に基づいて第2の集合中の腕の付け根部外側輪郭キーポイントのラベリング情報を形成するステップを含むことを特徴とする請求項41〜42のいずれか一項に記載の方法。 - 設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は前記人体骨格キーポイントに基づいて補助線を設置する前記ステップは、
股間キーポイントを通過し且つ人体骨格キーポイントで形成された股方向に垂直する第2の補助線を設置するステップを含み、
前記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成する前記ステップは、
前記第2の補助線と股外側輪郭の交点に基づいて第2の集合中の股の付け根部外側輪郭キーポイントのラベリング情報を形成するステップを含むことを特徴とする請求項41〜43のいずれか一項に記載の方法。 - 人体が含まれる画像ブロックの画像特徴を取得するための画像特徴取得モジュールと、
第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得するための予測結果取得モジュールと、
前記人体輪郭キーポイント予測結果に基づいて前記画像ブロックにおける人体輪郭キーポイントを取得するための輪郭キーポイント取得モジュールであって、前記人体輪郭キーポイントが人体の外部輪郭を表すために用いられる輪郭キーポイント取得モジュールと、を含むことを特徴とする人体輪郭キーポイントの検出装置。 - 前記画像特徴取得モジュールは、被処理画像に対して人体検出を行い、且つ人体検出結果により前記被処理画像における人体が含まれる前記画像ブロックを取得することを特徴とする請求項45に記載の装置。
- 前記画像ブロックは前記被処理画像であり、又は、
前記画像ブロックは前記被処理画像における人体が含まれる局所画像であり、又は、
前記画像ブロックは前記被処理画像における人体が含まれる局所画像に基づいて処理して得られた画像ブロックであることを特徴とする請求項46に記載の装置。 - 前記画像特徴取得モジュールは、人体検出器を用いて前記被処理画像に対して人体検出を行って、人体外接枠の中心位置及び人体スケール因子を取得するために用いられ、前記人体外接枠の中心位置及び人体スケール因子が被処理画像内の人体外接枠の位置を確定するために用いられることを特徴とする請求項46〜47のいずれか一項に記載の装置。
- 前記予測結果取得モジュールは、前記第1のニューラルネットワークにより前記画像特徴に基づいて、少なくとも一つの人体輪郭キーポイントのそれぞれに対応する少なくとも一つの人体輪郭キーポイント対応マップを形成することを特徴とする請求項45〜48のいずれか一項に記載の装置。
- 前記人体輪郭キーポイント対応マップは、人体輪郭キーポイント信頼度マップを含む請求項49に記載の装置ことを特徴とする。
- 前記輪郭キーポイント取得モジュールは、一つの人体輪郭キーポイント信頼度マップに対して、前記信頼度マップから所定の信頼度要求を満たす一つの点を選択し、該点の前記画像ブロックにおけるマッピング位置点を前記信頼度マップの対応する人体輪郭キーポイントとすることを特徴とする請求項50に記載の装置。
- 前記人体輪郭キーポイントは、頭部輪郭キーポイント、腕輪郭キーポイント、手部輪郭キーポイント、肩部輪郭キーポイント、足部輪郭キーポイント、腰部輪郭キーポイント及び/又は脚部輪郭キーポイントを含むことを特徴とする請求項45〜51のいずれか一項に記載の装置。
- 前記頭部輪郭キーポイントは、頭頂部キーポイント、鼻先端部キーポイント及び顎キーポイントのうちの1種又は複数種を含み、及び/又は、
前記腕輪郭キーポイントは、手首輪郭キーポイント、肘輪郭キーポイント、腕の付け根部輪郭キーポイント、手首輪郭キーポイントと肘輪郭キーポイントとの間の中点位置に位置する前腕輪郭中点キーポイント、及び肘輪郭キーポイントと腕の付け根部輪郭キーポイントとの間の中点位置に位置する上腕中点キーポイントのうちの1種又は複数種を含み、及び/又は
前記手部輪郭キーポイントは、手先キーポイント及び掌中点キーポイントのうちの1種又は複数種を含み、及び/又は
前記肩部輪郭キーポイントは、肩部と頭部の接合位置に位置する肩頭接合キーポイント及び腕の付け根部輪郭キーポイントと肩頭接合キーポイントとの間の中点位置に位置する肩輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は
前記足部輪郭キーポイントは、股間キーポイント、膝輪郭キーポイント、踝輪郭キーポイント、股の付け根部外側輪郭キーポイント、膝輪郭キーポイントと踝輪郭キーポイントとの間の中点位置に位置するすね輪郭中点キーポイント、膝内側輪郭キーポイントと股間キーポイントとの間の中点位置に位置する股内側輪郭中点キーポイント、及び膝外側輪郭キーポイントと股の付け根部外側輪郭キーポイントとの間の中点位置に位置する股外側輪郭中点キーポイントのうちの1種又は複数種を含み、及び/又は
前記腰部輪郭キーポイントは、股の付け根部外側輪郭キーポイントと腕の付け根部輪郭キーポイントとの間をN等分にして生成するN個の等分点のうちの1種又は複数種を含み、前記Nが1より大きく、及び/又は
前記脚部輪郭キーポイントは、爪先キーポイント及び踵キーポイントのうちの1種又は複数種を含むことを特徴とする請求項52に記載の装置。 - 人体輪郭キーポイントのラベリング情報が含まれるトレーニング画像集合を用いて前記第1のニューラルネットワークをトレーニングするためのニューラルネットワークのトレーニング装置を更に含むことを特徴とする請求項45〜53のいずれか一項に記載の装置。
- 人体が含まれる画像ブロックの人体輪郭キーポイントを検出するための人体輪郭キーポイントの検出装置であって、前記人体輪郭キーポイントが人体の外部輪郭を表すために用いられる人体輪郭キーポイントの検出装置と、
前記人体輪郭キーポイントに基づいて前記画像ブロックに対してAR効果のレンダリング処理を行うためのレンダリングモジュールと、を含むことを特徴とする画像処理装置。 - 前記人体輪郭キーポイントの検出装置は、請求項45〜54のいずれか一項に記載の装置を用いて前記人体輪郭キーポイントを検出することを特徴とする請求項55に記載の装置。
- 前記レンダリングモジュールは、前記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定し、且つ前記位置関係により前記ステッカー素材に基づいて前記画像ブロックに対してAR効果のレンダリング処理を行うことを特徴とする請求項55〜56のいずれか一項に記載の装置。
- 前記レンダリングモジュールは、ステッカーハンドルを作成するための第1のインターフェイス関数を呼び出してステッカーハンドルを作成し、ステッカー素材を読み取るための第2のインターフェイス関数を呼び出してステッカー素材圧縮パッケージを内部メモリに読み込み、解析し、ステッカー素材をレンダリングするための第3のインターフェイス関数を呼び出して解析結果により前記画像ブロックの人体輪郭キーポイントとステッカー素材の位置関係を確定し、前記ステッカーハンドルに基づいて前記解析結果と前記位置関係により前記画像ブロック上で内部メモリに読み込まれたステッカー素材パッケージに対してAR効果のレンダリングを行うことを特徴とする請求項55〜57のいずれか一項に記載の装置。
- 前記解析結果は、ステッカー素材に関連する人体輪郭キーポイント、ステッカー素材の再生トリガ条件、ステッカー素材の再生状態パラメータのうちの1種又は複数種を含むことを特徴とする請求項58に記載の装置。
- 前記レンダリングモジュールは、レンダリングが終了した後、前記ステッカーハンドルを廃棄することを特徴とする請求項58〜59のいずれか一項に記載の装置。
- 人体が含まれるサンプル画像ブロックの画像特徴を取得するための第1のモジュールと、
トレーニング待ちの第1のニューラルネットワークにより前記画像特徴に基づいて前記人体の人体輪郭キーポイント予測結果を取得するための第2のモジュールと、
前記人体輪郭キーポイント予測結果と人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの第1のニューラルネットワークに対して教師あり学習を行うための第3のモジュールと、を含むことを特徴とするニューラルネットワークのトレーニング装置。 - 前記第1のモジュールは、
前記画像サンプルに対して人体検出を行うための検出サブモジュールと、
人体検出結果及び画像サンプルをトレーニング待ちの入力ニューラルネットワークに提供して、トレーニング待ちの入力ニューラルネットワークにより人体が含まれる所定の大きさのサンプル画像ブロックを取得するための第1の取得サブモジュールと、
トレーニング待ちの第2のニューラルネットワークを用いて前記サンプル画像ブロックの画像特徴を取得するための第2の取得サブモジュールと、を含むことを特徴とする請求項61に記載の装置。 - 前記第3のモジュールは、更に、
前記人体輪郭キーポイント予測結果と前記人体輪郭キーポイントのラベリング情報との差異を教師情報として、前記トレーニング待ちの入力ニューラルネットワーク及びトレーニング待ちの第2のニューラルネットワークに対して教師あり学習を行うために用いられることを特徴とする請求項62に記載の装置。 - 画像サンプルの人体骨格キーポイントを取得し、設置された第1の集合内の人体輪郭キーポイントのラベリング情報及び/又は前記人体骨格キーポイントに基づいて補助線を設置し、且つ前記補助線から選択された点に基づいて第2の集合内の人体輪郭キーポイントのラベリング情報を形成するための第1のラベリングモジュールを更に含むことを特徴とする請求項61〜63のいずれか一項に記載の装置。
- 第1の集合及び/又は第2の集合内の2つの人体輪郭キーポイント間の連結線におけるN1個の仕切点に基づいて、第3の集合内の人体輪郭キーポイントのラベリング情報を形成するための第2のラベリングモジュールを更に含み、N1が1より大きい整数であることを特徴とする請求項64に記載の装置。
- 前記第1のラベリングモジュールは、前記人体骨格キーポイントに基づいて腕の付け根部内側輪郭キーポイントを通過し且つ上腕方向に垂直する第1の補助線を決定し、且つ前記第1の補助線と上腕外側輪郭との交点に基づいて第2の集合中の腕の付け根部外側輪郭キーポイントのラベリング情報を形成することを特徴とする請求項64〜65のいずれか一項に記載の装置。
- 前記第1のラベリングモジュールは、股間キーポイントを通過し且つ人体骨格キーポイントで形成された股方向に垂直する第2の補助線を設置し、且つ前記第2の補助線と股外側輪郭の交点に基づいて第2の集合中の股の付け根部外側輪郭キーポイントのラベリング情報を形成することを特徴とする請求項64〜66のいずれか一項に記載の装置。
- コンピュータプログラムを記憶するためのメモリと、
前記メモリに記憶されたコンピュータプログラムを実行するためのプロセッサと、を含み、前記コンピュータプログラムが実行される時に、上記請求項1〜44のいずれか一項に記載の方法が実現されることを特徴とする電子機器。 - コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、該コンピュータプログラムがプロセッサにより実行される時に、上記請求項1〜44のいずれか一項に記載の方法が実現されることを特徴とするコンピュータ可読記憶媒体。
- コンピュータコマンドを含むコンピュータプログラムであって、前記コンピュータコマンドが機器のプロセッサで作動する時に、上記請求項1〜44のいずれか一項に記載の方法が実現されることを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810054352.3 | 2018-01-19 | ||
CN201810054352.3A CN110059522B (zh) | 2018-01-19 | 2018-01-19 | 人体轮廓关键点检测方法、图像处理方法、装置及设备 |
PCT/CN2019/070725 WO2019141104A1 (zh) | 2018-01-19 | 2019-01-08 | 人体轮廓关键点检测方法、图像处理方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020525953A true JP2020525953A (ja) | 2020-08-27 |
JP6967090B2 JP6967090B2 (ja) | 2021-11-17 |
Family
ID=67302015
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019572641A Active JP6967090B2 (ja) | 2018-01-19 | 2019-01-08 | 人体輪郭キーポイントの検出方法、画像処理方法、装置及び機器 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11113560B2 (ja) |
JP (1) | JP6967090B2 (ja) |
KR (1) | KR102328349B1 (ja) |
CN (1) | CN110059522B (ja) |
SG (1) | SG11201911684RA (ja) |
WO (1) | WO2019141104A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11562504B1 (en) * | 2022-01-26 | 2023-01-24 | Goodsize Inc. | System, apparatus and method for predicting lens attribute |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018033137A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 在视频图像中展示业务对象的方法、装置和电子设备 |
US11113838B2 (en) * | 2019-03-26 | 2021-09-07 | Nec Corporation | Deep learning based tattoo detection system with optimized data labeling for offline and real-time processing |
CN110428390B (zh) * | 2019-07-18 | 2022-08-26 | 北京达佳互联信息技术有限公司 | 一种素材展示方法、装置、电子设备和存储介质 |
CN110705448B (zh) * | 2019-09-27 | 2023-01-20 | 北京市商汤科技开发有限公司 | 一种人体检测方法及装置 |
CN110852162B (zh) * | 2019-09-29 | 2020-10-23 | 深圳云天励飞技术有限公司 | 一种人体完整度数据标注方法、装置及终端设备 |
US10842415B1 (en) * | 2019-10-25 | 2020-11-24 | Plethy, Inc. | Devices, systems, and methods for monitoring and assessing gait, stability, and/or balance of a user |
CN110852257B (zh) * | 2019-11-08 | 2023-02-10 | 深圳数联天下智能科技有限公司 | 一种人脸关键点的检测方法、装置及存储介质 |
US11156830B2 (en) * | 2019-11-14 | 2021-10-26 | Facebook Technologies, Llc | Co-located pose estimation in a shared artificial reality environment |
CN111259822A (zh) * | 2020-01-19 | 2020-06-09 | 杭州微洱网络科技有限公司 | 针对电商图像中模特脖颈关键点的检测方法 |
CN111476097A (zh) * | 2020-03-06 | 2020-07-31 | 平安科技(深圳)有限公司 | 人体姿态评估方法、装置、计算机设备及存储介质 |
CN111368787A (zh) * | 2020-03-17 | 2020-07-03 | 浙江大学 | 视频处理方法及装置、设备和计算机可读存储介质 |
CN111582258B (zh) * | 2020-03-31 | 2024-03-19 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置、电子设备及可读存储介质 |
CN111539357B (zh) * | 2020-04-28 | 2024-01-23 | 睿魔智能科技(深圳)有限公司 | 人体识别模型及其训练方法、系统、存储介质及设备 |
CN111724901A (zh) * | 2020-06-19 | 2020-09-29 | 中山大学 | 一种基于视觉的结构体参数预测方法、系统、装置及存储介质 |
CN111860199B (zh) * | 2020-06-28 | 2022-09-27 | 上海芯翌智能科技有限公司 | 图像中关键点的检测方法及设备 |
CN112084981B (zh) * | 2020-09-15 | 2023-06-02 | 华侨大学 | 一种基于神经网络定制服装的方法 |
CN113743177A (zh) * | 2021-02-09 | 2021-12-03 | 北京沃东天骏信息技术有限公司 | 关键点检测方法、系统、智能终端和存储介质 |
CN113469221A (zh) * | 2021-06-09 | 2021-10-01 | 浙江大华技术股份有限公司 | 身份识别模型的训练方法和身份识别方法以及相关设备 |
CN113627409B (zh) * | 2021-10-13 | 2022-03-15 | 南通力人健身器材有限公司 | 一种健身动作识别监控方法及系统 |
CN114519666B (zh) * | 2022-02-18 | 2023-09-19 | 广州方硅信息技术有限公司 | 直播图像矫正方法、装置、设备及存储介质 |
US20240013464A1 (en) * | 2022-07-11 | 2024-01-11 | Samsung Electronics Co., Ltd. | Multimodal disentanglement for generating virtual human avatars |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09190522A (ja) * | 1996-01-09 | 1997-07-22 | Taito Corp | 画像合成処理方法およびその装置 |
JP2004174219A (ja) * | 2002-10-01 | 2004-06-24 | Japan Science & Technology Agency | 画像処理装置、画像処理方法、及び当該画像処理をコンピュータに実行させるプログラムを格納する記録媒体 |
JP2005339288A (ja) * | 2004-05-27 | 2005-12-08 | Toshiba Corp | 画像処理装置及びその方法 |
JP2012256131A (ja) * | 2011-06-07 | 2012-12-27 | Omron Corp | 画像処理装置、情報生成装置、画像処理方法、情報生成方法、制御プログラムおよび記録媒体 |
JP2015075915A (ja) * | 2013-10-09 | 2015-04-20 | アイシン精機株式会社 | 顔検出装置、方法およびプログラム |
CN107219925A (zh) * | 2017-05-27 | 2017-09-29 | 成都通甲优博科技有限责任公司 | 姿势检测方法、装置及服务器 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120009710A (ko) * | 2010-07-20 | 2012-02-02 | 에스케이플래닛 주식회사 | 얼굴 인식 기반의 가상 체험 서버 및 그 서비스 방법 |
JP4784709B1 (ja) * | 2011-03-10 | 2011-10-05 | オムロン株式会社 | 対象物追跡装置、対象物追跡方法、および制御プログラム |
CN104537608A (zh) * | 2014-12-31 | 2015-04-22 | 深圳市中兴移动通信有限公司 | 一种图像处理的方法及其装置 |
US9552510B2 (en) * | 2015-03-18 | 2017-01-24 | Adobe Systems Incorporated | Facial expression capture for character animation |
CN106021365A (zh) * | 2016-05-11 | 2016-10-12 | 上海迪目信息科技有限公司 | 高维空间点超球覆盖视频序列标注的系统和方法 |
CN106203376B (zh) * | 2016-07-19 | 2020-04-10 | 北京旷视科技有限公司 | 人脸关键点定位方法及装置 |
CN106570480B (zh) * | 2016-11-07 | 2019-04-19 | 南京邮电大学 | 一种基于姿势识别的人体动作分类方法 |
CN106845400B (zh) * | 2017-01-19 | 2020-04-10 | 南京开为网络科技有限公司 | 一种基于人脸关键点跟踪实现特效而产生的品牌展示方法 |
CN107092917B (zh) * | 2017-03-24 | 2020-06-02 | 北京大学 | 一种基于流形学习的汉字笔画自动提取方法 |
US10957115B2 (en) * | 2017-07-05 | 2021-03-23 | Trendage, Inc. | Wearable item visualizer |
CN107492108A (zh) * | 2017-08-18 | 2017-12-19 | 成都通甲优博科技有限责任公司 | 一种基于深度学习的骨架线提取算法、系统及存储介质 |
CN109960986A (zh) * | 2017-12-25 | 2019-07-02 | 北京市商汤科技开发有限公司 | 人脸姿态分析方法、装置、设备、存储介质以及程序 |
CN111566705B (zh) * | 2017-12-29 | 2023-07-21 | 上海联影医疗科技股份有限公司 | 一种确定医学成像中的感兴趣区域的系统和方法 |
CN108830783B (zh) * | 2018-05-31 | 2021-07-02 | 北京市商汤科技开发有限公司 | 一种图像处理方法、装置和计算机存储介质 |
CN108985259B (zh) * | 2018-08-03 | 2022-03-18 | 百度在线网络技术(北京)有限公司 | 人体动作识别方法和装置 |
CN110942479B (zh) * | 2018-09-25 | 2023-06-02 | Oppo广东移动通信有限公司 | 虚拟对象控制方法、存储介质及电子设备 |
US11036975B2 (en) * | 2018-12-14 | 2021-06-15 | Microsoft Technology Licensing, Llc | Human pose estimation |
CN111626082A (zh) * | 2019-02-28 | 2020-09-04 | 佳能株式会社 | 检测装置和方法及图像处理装置和系统 |
-
2018
- 2018-01-19 CN CN201810054352.3A patent/CN110059522B/zh active Active
-
2019
- 2019-01-08 KR KR1020197038937A patent/KR102328349B1/ko active IP Right Grant
- 2019-01-08 WO PCT/CN2019/070725 patent/WO2019141104A1/zh active Application Filing
- 2019-01-08 SG SG11201911684RA patent/SG11201911684RA/en unknown
- 2019-01-08 JP JP2019572641A patent/JP6967090B2/ja active Active
- 2019-06-26 US US16/454,021 patent/US11113560B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09190522A (ja) * | 1996-01-09 | 1997-07-22 | Taito Corp | 画像合成処理方法およびその装置 |
JP2004174219A (ja) * | 2002-10-01 | 2004-06-24 | Japan Science & Technology Agency | 画像処理装置、画像処理方法、及び当該画像処理をコンピュータに実行させるプログラムを格納する記録媒体 |
JP2005339288A (ja) * | 2004-05-27 | 2005-12-08 | Toshiba Corp | 画像処理装置及びその方法 |
JP2012256131A (ja) * | 2011-06-07 | 2012-12-27 | Omron Corp | 画像処理装置、情報生成装置、画像処理方法、情報生成方法、制御プログラムおよび記録媒体 |
JP2015075915A (ja) * | 2013-10-09 | 2015-04-20 | アイシン精機株式会社 | 顔検出装置、方法およびプログラム |
CN107219925A (zh) * | 2017-05-27 | 2017-09-29 | 成都通甲优博科技有限责任公司 | 姿势检测方法、装置及服务器 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11562504B1 (en) * | 2022-01-26 | 2023-01-24 | Goodsize Inc. | System, apparatus and method for predicting lens attribute |
Also Published As
Publication number | Publication date |
---|---|
KR102328349B1 (ko) | 2021-11-18 |
SG11201911684RA (en) | 2020-01-30 |
JP6967090B2 (ja) | 2021-11-17 |
WO2019141104A1 (zh) | 2019-07-25 |
CN110059522B (zh) | 2021-06-25 |
CN110059522A (zh) | 2019-07-26 |
US20190318194A1 (en) | 2019-10-17 |
KR20200020739A (ko) | 2020-02-26 |
US11113560B2 (en) | 2021-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020525953A (ja) | 人体輪郭キーポイントの検出方法、画像処理方法、装置及び機器 | |
CN111626218B (zh) | 基于人工智能的图像生成方法、装置、设备及存储介质 | |
WO2018121777A1 (zh) | 人脸检测方法、装置和电子设备 | |
CN102458595B (zh) | 在虚拟世界中控制对象的系统、方法和记录介质 | |
KR100722229B1 (ko) | 사용자 중심형 인터페이스를 위한 가상현실 상호작용 인체모델 즉석 생성/제어 장치 및 방법 | |
CN109035373B (zh) | 三维特效程序文件包的生成及三维特效生成方法与装置 | |
CN110675475B (zh) | 一种人脸模型生成方法、装置、设备及存储介质 | |
US20230419592A1 (en) | Method and apparatus for training a three-dimensional face reconstruction model and method and apparatus for generating a three-dimensional face image | |
JP2019096113A (ja) | キーポイントデータに関する加工装置、方法及びプログラム | |
US20190362530A1 (en) | Information processing apparatus, information processing method, and program | |
CN114049468A (zh) | 一种展示方法、装置、设备及存储介质 | |
CN114677572B (zh) | 对象描述参数的生成方法、深度学习模型的训练方法 | |
CN114723888A (zh) | 三维发丝模型生成方法、装置、设备、存储介质及产品 | |
US20230177755A1 (en) | Predicting facial expressions using character motion states | |
CN114998490A (zh) | 一种虚拟对象生成方法、装置、设备及存储介质 | |
US11361467B2 (en) | Pose selection and animation of characters using video data and training techniques | |
CN116092120B (zh) | 基于图像的动作确定方法、装置、电子设备及存储介质 | |
WO2023035725A1 (zh) | 虚拟道具展示方法及装置 | |
US20230290132A1 (en) | Object recognition neural network training using multiple data sources | |
CN114638744A (zh) | 人体姿态迁移方法及装置 | |
CN114327168A (zh) | 人体模型处理方法和装置、电子设备和存储介质 | |
CN115880766A (zh) | 姿态迁移、姿态迁移模型训练方法、装置和存储介质 | |
CN112915535B (zh) | 一种游戏数据处理方法以及相关设备 | |
CN117557699B (zh) | 动画数据生成方法、装置、计算机设备和存储介质 | |
CN116385829B (zh) | 姿态描述信息生成方法、模型的训练方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191227 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210624 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210921 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211008 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211022 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6967090 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |