JP7361060B2 - 3d関節点回帰モデル生成方法及び装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラム - Google Patents

3d関節点回帰モデル生成方法及び装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラム Download PDF

Info

Publication number
JP7361060B2
JP7361060B2 JP2021006367A JP2021006367A JP7361060B2 JP 7361060 B2 JP7361060 B2 JP 7361060B2 JP 2021006367 A JP2021006367 A JP 2021006367A JP 2021006367 A JP2021006367 A JP 2021006367A JP 7361060 B2 JP7361060 B2 JP 7361060B2
Authority
JP
Japan
Prior art keywords
joint point
regression model
sample image
output
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021006367A
Other languages
English (en)
Other versions
JP2021114295A (ja
Inventor
モン,チンユエ
ヂャオ,チェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021114295A publication Critical patent/JP2021114295A/ja
Application granted granted Critical
Publication of JP7361060B2 publication Critical patent/JP7361060B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Description

本開示は、コンピュータ技術分野に関し、具体的に三次元(3D)肢体回帰の技術分野に関し、特に三次元(3D)関節点回帰モデル生成方法及び装置、3D関節点座標生成方法及び装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラムに関する。
混合データに基づく三次元(3D)肢体回帰技術とは、深層学習技術により3D肢体回帰を行う場合に、二次元(2D)アノテーションデータと三次元(3D)アノテーションデータとを用いて同時に学習することをいう。現在、深層学習技術の開発に伴い、様々なオブジェクトやタスクのキーポイントの回帰など、様々な分野でのアプリケーションがますます広範になっている。深層学習技術は、正確にラベル付けされたデータに依存し、3Dデータのアノテーションが2Dデータのアノテーションよりもはるかに困難であるため、現在の学術界と産業界では、2Dキーポイントの回帰に対する研究が多く、3D肢体の学習に対する研究が相対的に少ない。
本開示の実施例は、3D関節点回帰モデル生成方法及び装置、3D関節点座標生成方法及び装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラムを提供する。
第1の態様によれば、本開示の実施例は、2Dラベルの付されたサンプル画像及び3Dラベルの付されたサンプル画像を取得するステップと、2Dラベルの付されたサンプル画像を第1入力とし、2Dラベルに対応する関節点ヒートマップセットを第1所望出力とし、基本3D関節点回帰モデルの出力層における部分チャネルをトレーニングするステップと、3Dラベルの付されたサンプル画像を第2入力とし、3Dラベルに対応する関節点ヒートマップセットを第2所望出力の第1部分出力とし、3Dラベルに対応する関節点奥行き情報マップセットを第2所望出力の第2部分出力とし、基本3D関節点回帰モデルの出力層における全チャネルをトレーニングするステップと、を含む3D関節点回帰モデル生成方法を提供している。
いくつかの実施例において、2Dラベルの付されたサンプル画像を第1入力とし、2Dラベルに対応する関節点ヒートマップセットを第1所望出力とし、基本3D関節点回帰モデルの出力層における部分チャネルをトレーニングするステップは、2Dラベルの付されたサンプル画像を第1入力とし、2Dラベルに対応する関節点ヒートマップセットを第1所望出力とし、2Dラベルの付されたサンプル画像に対応する幾何学的拘束損失関数を第1所望出力に対応する損失関数とし、基本3D関節点回帰モデルの出力層における部分チャネルをトレーニングすることを含む。
いくつかの実施例において、3Dラベルの付されたサンプル画像を第2入力とし、3Dラベルに対応する関節点ヒートマップセットを第2所望出力の第1部分出力とし、3Dラベルに対応する関節点奥行き情報マップセットを第2所望出力の第2部分出力とし、基本3D関節点回帰モデルの出力層における全チャネルをトレーニングするステップは、3Dラベルの付されたサンプル画像を第2入力とし、3Dラベルに対応する関節点ヒートマップセットを第2所望出力の第1部分出力とし、3Dラベルに対応する関節点奥行き情報マップセットを第2所望出力の第2部分出力とするとともに、3Dラベルの付されたサンプル画像に対応する幾何学的拘束損失関数の重み値を第2所望出力の第1部分出力に対応する損失関数とし、3Dラベルの付されたサンプル画像に対応するユークリッド距離損失関数の重み値を第2所望出力の第2部分出力に対応する損失関数とし、基本3D関節点回帰モデルの出力層における全チャネルをトレーニングすることを含む。
いくつかの実施例において、幾何学的拘束損失関数は、各予測骨の長さ比率とサンプル画像セットにおける骨の長さ割合の平均値との間のユークリッド距離を含み、予測骨は、基本3D関節点回帰モデルから出力される関節点ヒートマップセットにおける骨であり、各予測骨の長さ割合は、1回のトレーニングで選択されたサンプル画像セットにおける各サンプル画像に対応する各予測骨の長さと基準データセットにおける骨の長さとの比率であり、サンプル画像セットにおける骨の長さ割合は、1回のトレーニングで選択されたサンプル画像セットにおけるすべてのサンプル画像に対応するすべての予測骨の長さと基準データセットにおける骨の長さとの比率である。
いくつかの実施例において、3Dラベルの付されたサンプル画像に対応するユークリッド距離損失関数は、3Dラベルの付されたサンプル画像を第2入力としたときに、基本3D関節点回帰モデルから出力される関節点奥行き情報マップセットにおける奥行き情報と、3Dラベルにおけるラベル付けされた関節点奥行き情報とのユークリッド距離を含む。
いくつかの実施例において、基本3D関節点回帰モデルは、初期3D関節点回帰モデルか、2Dラベルの付されたサンプル画像を用いて初期3D関節点回帰モデルをトレーニングして得られる予めトレーニングされた3D関節点回帰モデルのいずれか一方を含む。
いくつかの実施例において、予めトレーニングされた3D関節点回帰モデルは、2Dラベルの付されたサンプル画像を入力とし、2Dラベルを所望出力とし、関節点回帰モデルから出力される関節点ヒートマップセットに基づいて確定された関節点座標と2Dラベルにおける2D関節点座標との間のユークリッド距離を損失関数とし、初期3D関節点回帰モデルをトレーニングして得られるステップにより確定される。
第2の態様によれば、本開示の実施例は、人物を含む画像を取得するステップと、画像をトレーニングされた3D関節点回帰モデルに入力して、トレーニングされた3D関節点回帰モデルから出力される関節点ヒートマップセット及び関節点奥行き情報マップセットを得るステップであって、トレーニングされた3D関節点回帰モデルが上記実施例のいずれかの3D関節点回帰モデル生成方法を用いて、基本3D関節点回帰モデルをトレーニングして得られるステップと、関節点ヒートマップセット及び関節点奥行き情報マップセットに基づいて、人物の3D関節点座標を確定するステップと、を含む3D関節点座標生成方法を提供している。
いくつかの実施例において、方法は、人物の3D関節点座標に基づいて、人体の動作パラメータを確定するステップと、人体の動作パラメータに基づいて、人物の動作を提示する提示情報を生成するステップとをさらに含む。
第3の態様によれば、本開示の実施例は、2Dラベルの付されたサンプル画像及び3Dラベルの付されたサンプル画像を取得するように構成されるサンプル画像取得ユニットと、2Dラベルの付されたサンプル画像を第1入力とし、2Dラベルに対応する関節点ヒートマップセットを第1所望出力とし、基本3D関節点回帰モデルの出力層における部分チャネルをトレーニングするように構成される部分チャネルトレーニングユニットと、3Dラベルの付されたサンプル画像を第2入力とし、3Dラベルに対応する関節点ヒートマップセットを第2所望出力の第1部分出力とし、3Dラベルに対応する関節点奥行き情報マップセットを第2所望出力の第2部分出力とし、基本3D関節点回帰モデルの出力層における全チャネルをトレーニングするように構成される全チャネルトレーニングユニットと、を含む3D関節点回帰モデル生成装置を提供している。
いくつかの実施例において、部分チャネルトレーニングユニットはさらに、2Dラベルの付されたサンプル画像を第1入力とし、2Dラベルに対応する関節点ヒートマップセットを第1所望出力とし、2Dラベルの付されたサンプル画像に対応する幾何学的拘束損失関数を第1所望出力に対応する損失関数とし、基本3D関節点回帰モデルの出力層における部分チャネルをトレーニングするように構成される。
いくつかの実施例において、全チャネルトレーニングユニットはさらに、3Dラベルの付されたサンプル画像を第2入力とし、3Dラベルに対応する関節点ヒートマップセットを第2所望出力の第1部分出力とし、3Dラベルに対応する関節点奥行き情報マップセットを第2所望出力の第2部分出力とするとともに、3Dラベルの付されたサンプル画像に対応する幾何学的拘束損失関数の重み値を第2所望出力の第1部分出力に対応する損失関数とし、3Dラベルの付されたサンプル画像に対応するユークリッド距離損失関数の重み値を第2所望出力の第2部分出力に対応する損失関数とし、基本3D関節点回帰モデルの出力層における全チャネルをトレーニングするように構成される。
いくつかの実施例において、部分チャネルトレーニングユニット又は全チャネルトレーニングユニットの両方における幾何学的拘束損失関数は、各予測骨の長さ割合とサンプル画像セットにおける骨の長さ割合の平均値との間のユークリッド距離を含み、予測骨は、基本3D関節点回帰モデルから出力される関節点ヒートマップセットにおける骨であり、各予測骨の長さ割合は、1回のトレーニングで選択されたサンプル画像セットにおける各サンプル画像に対応する各予測骨の長さと基準データセットにおける骨の長さとの比率であり、サンプル画像セットにおける骨の長さ割合は、1回のトレーニングで選択されたサンプル画像セットにおけるすべてのサンプル画像に対応するすべての予測骨の長さと基準データセットにおける骨の長さとの比率である。
いくつかの実施例において、全チャネルトレーニングユニットにおける3Dラベルの付されたサンプル画像に対応するユークリッド距離損失関数は、3Dラベルの付されたサンプル画像を第2入力としたときに、基本3D関節点回帰モデルから出力される関節点奥行き情報マップセットにおける奥行き情報と、3Dラベルにおいてラベル付けされた関節点奥行き情報とのユークリッド距離を含む。
いくつかの実施例において、部分チャネルトレーニングユニット又は全チャネルトレーニングユニットの両方における基本3D関節点回帰モデルは、初期3D関節点回帰モデルか、2Dラベルの付されたサンプル画像を用いて初期3D関節点回帰モデルをトレーニングして得られる予めトレーニングされた3D関節点回帰モデルのいずれか一方を含む。
いくつかの実施例において、予めトレーニングされた3D関節点回帰モデルは、2Dラベルの付されたサンプル画像を入力とし、2Dラベルを所望出力とし、関節点回帰モデルから出力される関節点ヒートマップセットに基づいて確定された関節点座標と2Dラベルにおける2D関節点座標との間のユークリッド距離を損失関数とし、初期3D関節点回帰モデルをトレーニングして得られるステップにより確定される。
第4の態様によれば、本開示の実施例は、人物を含む画像を取得するように構成される画像取得ユニットと、画像をトレーニングされた3D関節点回帰モデルに入力して、トレーニングされた3D関節点回帰モデルから出力される関節点ヒートマップセット及び関節点奥行き情報マップセットを取得するように構成される画像入力ユニットであって、トレーニングされた3D関節点回帰モデルが上記実施例のいずれかの3D関節点回帰モデル生成を用いて、基本3D関節点回帰モデルをトレーニングして得られる画像入力ユニットと、関節点ヒートマップセット及び関節点奥行き情報マップセットに基づいて、人物の3D関節点座標を確定するように構成される座標確定ユニットと、を含む3D関節点座標生成装置を提供している。
いくつかの実施例において、装置は、人物の3D関節点座標に基づいて、人体の動作パラメータを確定するように構成される動作パラメータ確定ユニットと、人体の動作パラメータに基づいて、人物の動作を提示する提示情報を生成するように構成される提示情報生成ユニットとをさらに含む。
第5の態様によれば、本開示の実施例は、1つ又は複数のプロセッサと、1つ又は複数のプログラムを記憶するための記憶装置と、を含む電子機器であって、1つ又は複数のプログラムが1つ又は複数のプロセッサによって実行される場合に、1つ又は複数のプロセッサに上記のいずれかに記載の3D関節点回帰モデル生成方法及び/又は3D関節点座標生成方法を実現させる電子機器を提供している。
第6の態様によれば、本開示の実施例は、コンピュータプログラムが格納されているコンピュータ可読記憶媒体であって、該プログラムがプロセッサによって実行される場合に、上記のいずれかに記載の3D関節点回帰モデル生成方法及び/又は3D関節点座標生成方法を実現するコンピュータ可読記憶媒体を提供している。
第7の態様によれば、本開示の実施例は、コンピュータプログラムであって、該コンピュータプログラムがプロセッサによって実行される場合に、上記のいずれかに記載の3D関節点回帰モデル生成方法及び/又は3D関節点座標生成方法を実現するコンピュータプログラムを提供している。
本開示の実施例に係る3D関節点回帰モデル生成方法及び装置は、3D関節点回帰モデル生成方法は、まず、2Dラベルの付されたサンプル画像及び3Dラベルの付されたサンプル画像を取得するステップと、その後、2Dラベルの付されたサンプル画像を第1入力とし、2Dラベルに対応する関節点ヒートマップセットを第1所望出力とし、基本3D関節点回帰モデルの出力層における部分チャネルをトレーニングするステップと、その後、3Dラベルの付されたサンプル画像を第2入力とし、3Dラベルに対応する関節点ヒートマップセットを第2所望出力の第1部分出力とし、3Dラベルに対応する関節点奥行き情報マップセットを第2所望出力の第2部分出力とし、基本3D関節点回帰モデルの出力層における全チャネルをトレーニングするステップとを含む。このプロセスにおいて、2Dラベルの付されたサンプル画像及び3Dラベルの付されたサンプル画像を用いて関節点回帰モデルにおける部分チャネル及び全チャネルをそれぞれトレーニングし、2Dラベルの付されたサンプル画像及び3Dラベルの付されたサンプル画像を用いて3D関節点回帰モデルのパラメータを同時に調整することができ、3Dラベルの付されたサンプル画像が限られた場合に、高い予測能力を有する関節点回帰モデルをトレーニングすることができ、トレーニング済みの関節点回帰モデルに基づいて入力画像の3D関節点を生成する精度を向上させることができる。
一部の実施例において、2Dラベルの付されたサンプル画像を用いて初期3D関節点回帰モデルを予めトレーニングして、予めトレーニングされた3D関節点回帰モデルを得るとともに、予めトレーニングされた3D関節点回帰モデルを基本3D関節点回帰モデルとして用い、さらに2Dラベルの付されたサンプル画像及び3Dラベルの付されたサンプル画像を用いて基本3D関節点ネットワークをトレーニングして、トレーニングされた3D関節点回帰モデルを得ることができる。このプロセスは、トレーニングされた3D関節点回帰モデルの生成効率及びトレーニングされた3D関節点回帰モデルに基づく3D関節点の生成精度を向上できる。
本開示の他の特徴、目的及び利点は、以下の図面を参照してなされる非限定的な実施例の詳細な説明を読むことにより、より明らかになるであろう。
本開示を適用できる例示的なシステムアーキテクチャを示す図である。 本開示の実施例に係る3D関節点回帰モデル生成方法の一実施例を示すフローチャートである。 本開示の実施例に係る3D関節点回帰モデル生成方法の例示的な適用シーンである。 図3aにおける適用シーンを実現する3D関節点回帰モデル生成方法を示す概略図である。 本開示の実施例に係る3D関節点座標生成方法の一実施例を示す概略フローチャートである。 本開示の3D関節点回帰モデル生成装置の一実施例の例示的なブロック図である。 本開示の3D関節点座標生成装置の一実施例の例示的な構造図である。 本開示の実施例を実現するためのサーバに適用されるコンピュータシステムを示す構造概略図である。
以下、添付図面及び実施例を参照しながら、本開示をより詳細に説明する。ここで説明する具体的な実施例は、関連する発明を説明するためのものに過ぎず、当該発明を限定するものではないことを理解されたい。また、説明の便宜上、図面には発明に関連する部分のみが示されていることに留意されたい。
なお、本開示の実施例及び実施例における特徴は、矛盾を生じない限り、相互に組み合わせることができる。以下、添付図面及び実施例を参照しながら、本開示を詳細に説明する。当業者はさらに、用語「第1」、「第2」等を用いて様々な入力、所望出力、部分出力等を本明細書で記述することができるが、これらの入力、所望出力、部分出力は、これらの用語によって限定されるべきではないことを理解するであろう。これらの用語は、1つの入力、所望出力、部分出力を他の入力、所望出力、部分出力から区別するためのものに過ぎない。
図1は、本開示の3D関節点回帰モデル生成方法又は3D関節点回帰モデル生成装置を適用できる実施例の例示的なシステムアーキテクチャ100が示されている。
図1に示すように、システムアーキテクチャ100は、端末装置101、102、103、ネットワーク104及びサーバ105を含んでもよい。ネットワーク104は、端末装置101、102、103とサーバ105との間に通信リンクの媒体を提供するために用いられる。ネットワーク104は、有線、無線通信リンク又は光ファイバケーブル等のような、様々な接続タイプを含んでもよい。
ユーザは、メッセージ等を受送信するために、端末装置101、102、103を使用してネットワーク104を介してサーバ105とインタラクティブすることができる。端末装置101、102、103には、例えば、翻訳系アプリケーション、ブラウザアプリケーション、ショッピング系アプリケーション、検索系アプリケーション、インスタントメッセンジャー、メールボックスクライアント、ソーシャルプラットフォームソフトウェア等のような様々な通信クライアントアプリケーションがインストールされていてもよい。
端末装置101、102、103は、ハードウェアであってもよいし、ソフトウェアであってもよい。端末装置101、102、103がハードウェアである場合には、ブラウザアプリケーションをサポートする様々な電子機器であってもよく、タブレットコンピュータ、ラップトップコンピュータ及びデスクトップコンピュータなどを含むが、これらに限定されない。端末装置101、102、103がソフトウェアである場合には、上記に挙げられた電子機器にインストールされてもよい。これは、例えば、分散サービスを提供するために用いられるなど、複数のソフトウェア又はソフトウェアモジュールとして実現されてもよく、単一のソフトウェア又はソフトウェアモジュールとして実現されてもよい。ここでは、特に限定しない。
サーバ105は、例えば、端末装置101、102、103に行われるブラウザアプリケーションをサポートするバックグラウンドサーバ等の、様々なサービスを提供するサーバであってもよい。バックグラウンドサーバは、受信したリクエスト等のデータに対して分析などの処理を行うとともに、処理結果を端末装置にフィードバックすることができる。
なお、サーバはハードウェアであってもよいし、ソフトウェアであってもよい。サーバがハードウェアである場合には、複数のサーバからなる分散サーバクラスタとして実現されてもよいし、単一のサーバとして実現されてもよい。サーバがソフトウェアである場合には、例えば、分散サービスを提供するための複数のソフトウェア又はソフトウェアモジュールとして実現されてもよいし、単一のソフトウェア又はソフトウェアモジュールとして実現されてもよい。ここでは、特に限定しない。
実際には、本開示の実施例に係る3D関節点回帰モデル生成方法、3D関節点座標生成方法は、端末装置101、102、103及び/又はサーバ105、106により実行されてもよく、3D関節点回帰モデル生成装置、3D関節点座標生成装置は、端末装置101、102、103及び/又はサーバ105、106に設けられてもよい。
図1における端末装置、ネットワーク及びサーバの数は、単なる例示的なものに過ぎないことを理解されたい。必要に応じて、端末装置、ネットワーク及びサーバの数を任意に加減してもよい。
引き続き図2を参照すると、図2は本開示に係る3D関節点回帰モデル生成方法の一実施例を示すフロー200が示されている。該3D関節点回帰モデル生成方法は、ステップ201~203を含む。
ステップ201:2Dラベルの付されたサンプル画像及び3Dラベルの付されたサンプル画像を取得する。
本実施例において、3D関節点回帰モデル生成方法の実行主体(例えば、図1に示す端末又はサーバ)は、ローカル又はクラウドから2Dラベルの付されたサンプル画像及び3Dラベルの付されたサンプル画像を取得することができる。
ステップ202:2Dラベルの付されたサンプル画像を第1入力とし、2Dラベルに対応する関節点ヒートマップセットを第1所望出力とし、基本3D関節点回帰モデルの出力層における部分チャネルをトレーニングする。
本実施例において、2Dラベルの付されたサンプル画像とは、基本3D関節点回帰モデルをトレーニングするための、2次元座標ラベルの付されたトレーニングサンプル画像をいう。関節点ヒートマップは、関節を示すキーポイントがラベル付けされたヒートマップである。部分チャネルとは、出力層における完全に接続された出力チャネルの一部をいう。
上記基本3D関節点回帰モデルは、初期3D関節点回帰モデルか、2Dラベルの付されたサンプル画像を用いて初期3D関節点回帰モデルをトレーニングして得られる予めトレーニングされた3D関節点回帰モデルのいずれか一方を含むことができる。
ここで、初期関節点回帰モデルは、カスケードされる砂時計モデル(hourglass)を用いて実現されてもよいし、さらに系列化に基づく全層畳み込みニューラルネットワーク構造を用いて空間情報及びテクスチャ情報を学習し、人体姿勢を推定するConvolutional Pose Machines(CPM)モデルを用いて実現されてもよく、また、人体姿勢認識アイテムモデル(OpenPose)、人体姿勢推定モデル(AlphaPose)などを用いて実現されてもよい。
ここで、2Dラベルの付されたサンプル画像を用いて初期3D関節点回帰モデルをトレーニングして、予めトレーニングされた3D関節点回帰モデルを得た後、予めトレーニングされた3D関節点回帰モデルを基本3D関節点回帰モデルとすることは、予めトレーニングされた3D関節点回帰モデルのいくつかの上位層を用いて浅層特徴を抽出し、最後に新たにトレーニングされた分類に入ることに相当する。これにより、初期3D関節点回帰モデルを完全に再トレーニングする必要がないので、3D関節点回帰モデルを生成する効率を向上させることができる。初期3D関節点回帰モデルを新たにトレーニングする場合、精度が非常に低い値から徐々に上昇し、予めトレーニングされた3D関節点回帰モデルを用いる場合、少ない反復回数だけでよりよい結果を得ることができる。
2Dラベルの付されたサンプル画像を第1入力とし、2Dラベルに対応する関節点ヒートマップセットを第1所望出力とし、基本3D関節点回帰モデルの出力層における部分チャネルをトレーニングする際に、従来技術又は将来開発される技術における損失関数を用いてトレーニング効果を拘束してもよく、例えば、平均二乗誤差損失関数、平均絶対誤差損失関数、Huber損失関数、Log-Cosh損失関数、分位点損失関数のうちの1つ又は複数を損失関数として用いてもよい。
具体的な例において、予めトレーニングされた3D関節点回帰モデルは、2Dラベルの付されたサンプル画像を入力とし、2Dラベルを所望出力とし、関節点回帰モデルから出力される関節点ヒートマップセットに基づいて確定された関節点座標と2Dラベルにおける2D関節点座標との間のユークリッド距離を損失関数とし、初期3D関節点回帰モデルをトレーニングして得られるステップにより確定されてもよい。
本実施例のいくつかの選択可能な実施形態において、2Dラベルの付されたサンプル画像を第1入力とし、2Dラベルに対応する関節点ヒートマップセットを第1所望出力とし、基本3D関節点回帰モデルの出力層における部分チャネルをトレーニングするステップは、2Dラベルの付されたサンプル画像を第1入力とし、2Dラベルに対応する関節点ヒートマップセットを第1所望出力とし、2Dラベルの付されたサンプル画像に対応する幾何学的拘束損失関数を第1所望出力に対応する損失関数とし、基本3D関節点回帰モデルの出力層における部分チャネルをトレーニングすることを含む。
本実施形態において、幾何学的拘束損失関数とは、人体の骨の幾何学的拘束(例えば、骨の長さ、骨間の接続関係など)に基づいて確定される損失関数をいう。
奥行き情報がラベル付けされていない2Dラベルの付されたサンプル画像に対して幾何学的拘束損失関数を損失関数として用いることで、ラベル付けされていない奥行き情報の最終的なトレーニング結果の正確慣習への影響を低減させ、トレーニングされた3D関節点回帰モデルの出力層における部分チャネルの正確性を向上させることができる。
本実施例のいくつかの選択可能な実施形態において、幾何学的拘束損失関数は、各予測骨の長さ割合とサンプル画像セットにおける骨の長さ割合の平均値との間のユークリッド距離を含み、予測骨は、基本3D関節点回帰モデルから出力される関節点ヒートマップセットにおける骨であり、各予測骨の長さ割合は、1回のトレーニングで選択されたサンプル画像セットにおける各サンプル画像に対応する各予測骨の長さと基準データセットにおける骨の長さとの比率であり、サンプル画像セットにおける骨の長さ割合は、1回のトレーニングで選択されたサンプル画像セットにおけるすべてのサンプル画像に対応するすべての予測骨の長さと基準データセットにおける骨の長さとの比率である。
Figure 0007361060000001
Figure 0007361060000002
ステップ203:3Dラベルの付されたサンプル画像を第2入力とし、3Dラベルに対応する関節点ヒートマップセットを第2所望出力の第1部分出力とし、3Dラベルに対応する関節点奥行き情報マップセットを第2所望出力の第2部分出力とし、基本3D関節点回帰モデルの出力層における全チャネルをトレーニングする。
本実施例において、3Dラベルの付されたサンプル画像とは、基本3D関節点回帰モデルをトレーニングするための、3次元座標ラベルの付されたトレーニングサンプル画像をいう。関節点奥行き情報マップは、関節点の奥行き情報を示す画像である。全チャネルとは、出力層における完全に接続された出力チャネルの全てをいう。
3Dラベルの付されたサンプル画像を第2入力とし、3Dラベルに対応する関節点ヒートマップセットを第2所望出力の第1部分出力とし、3Dラベルに対応する奥行き情報マップセットを第2所望出力の第2部分出力とし、基本3D関節点回帰モデルの出力層における部分チャネルをトレーニングする際に、従来技術又は将来開発される技術における損失関数を用いてトレーニング効果を拘束してもよく、例えば、平均二乗誤差損失関数、平均絶対誤差損失関数、Huber損失関数、Log-Cosh損失関数、分位点損失関数のうちの1つ又は複数を損失関数として用いてもよい。
本実施例のいくつかの選択可能な実施形態において、3Dラベルの付されたサンプル画像を第2入力とし、3Dラベルに対応する関節点ヒートマップセットを第2所望出力の第1部分出力とし、3Dラベルに対応する関節点奥行き情報マップセットを第2所望出力の第2部分出力とし、基本3D関節点回帰モデルの出力層における全チャネルをトレーニングするステップは、3Dラベルの付されたサンプル画像を第2入力とし、3Dラベルに対応する関節点ヒートマップセットを第2所望出力の第1部分出力とし、3Dラベルに対応する関節点奥行き情報マップセットを第2所望出力の第2部分出力とするとともに、3Dラベルの付されたサンプル画像に対応する幾何学的拘束損失関数の重み値を第2所望出力の第1部分出力に対応する損失関数とし、3Dラベルの付されたサンプル画像に対応するユークリッド距離損失関数の重み値を第2所望出力の第2部分出力に対応する損失関数とし、基本3D関節点回帰モデルの出力層における全チャネルをトレーニングすることを含む。
本実施形態において、3Dラベルに対応する関節点ヒートマップセットを第2所望出力の第1部分出力とし、3Dラベルに対応する関節点奥行き情報マップセットを第2所望出力の第2部分出力とするとともに、3Dラベルの付されたサンプル画像に対応する幾何学的拘束損失関数の重み値を第2所望出力の第1部分出力に対応する損失関数とし、3Dラベルの付されたサンプル画像に対応するユークリッド距離損失関数の重み値を第2所望出力の第2部分出力に対応する損失関数とし、基本3D関節点回帰モデルの出力層における全チャネルをトレーニングすることにより、2Dラベルの付されたデータを用いて基本3D関節点回帰モデルの出力層における部分チャネルをトレーニングすることに加えて、3Dラベルの付されたサンプル画像を用いて基本3D関節点回帰モデルの出力層における全チャネルをさらにトレーニングすることができ、トレーニング済みの基本3D関節点回帰モデルの出力層における全チャネルの出力の正確性を少ない反復回数だけで向上させることができる。
本実施例のいくつかの選択可能な実施形態において、3Dラベルの付されたサンプル画像に対応するユークリッド距離損失関数は、3Dラベルの付されたサンプル画像を第2入力としたときに、基本3D関節点回帰モデルから出力される関節点奥行き情報マップセットにおける奥行き情報と、3Dラベルにおけるラベル付けされた関節点奥行き情報とのユークリッド距離を含む。
本実施形態において、3D座標情報が完全にラベル付けされたサンプル画像に対して、3Dラベルの付されたサンプル画像に対応するユークリッド距離を先に計算してユークリッド距離損失関数とし、ユークリッド距離損失関数の重み値を第2所望出力の第2部分出力に対応する損失関数とすることにより、損失関数を計算する効率を向上させ、3D関節点回帰モデルを生成する効率を向上させることができる。
本開示の上記実施例に係る3D関節点回帰モデル生成方法は、2Dラベルの付されたサンプル画像及び3Dラベルの付されたサンプル画像を用いて関節点回帰モデルにおける部分チャネル及び全チャネルをそれぞれトレーニングすることにより、2Dラベルの付されたサンプル画像及び3Dラベルの付されたサンプル画像を用いて関節点回帰モデルのパラメータを同時に調整することができ、3Dラベルの付されたサンプル画像が限られた場合に、高い予測能力を有する関節点回帰モデルをトレーニングすることができ、トレーニング済みの関節点回帰モデルに基づいて入力画像の3D関節点を生成する精度を向上させることができる。
以下、図3a及び図3bを参照して、本開示の3D関節点回帰モデル生成方法の例示的な適用シーンを説明する。
図3aに示すように、図3aは本開示に係る3D関節点回帰モデル生成方法の例示的な適用シーンが示される。
図3aに示すように、3D関節点回帰モデル生成方法300は電子機器320において実行され、方法300は、
まず、2Dラベルの付されたサンプル画像301及び3Dラベルの付されたサンプル画像302を取得するステップと、
その後、2Dラベルの付されたサンプル画像301を第1入力303とし、2Dラベルに対応する関節点ヒートマップセット304を第1所望出力305とし、基本3D関節点回帰モデル306の出力層における部分チャネル307をトレーニングするステップと、
最後に、3Dラベルの付されたサンプル画像302を第2入力308とし、3Dラベルに対応する関節点ヒートマップセット309を第2所望出力310の第1部分出力311とし、3Dラベルに対応する関節点奥行き情報マップセット312を第2所望出力310の第2部分出力313とし、基本3D関節点回帰モデルの出力層における全チャネル314をトレーニングするステップと、を含む。
上記図3aに示される3D関節点回帰モデル生成方法の適用シーンは、3D関節点回帰モデル生成方法の例示的な説明に過ぎず、該方法を限定するものではないことを理解されたい。例えば、上記図3aに示される各ステップは、より詳細な実施方法をさらに採用することができる。上記図3(a)に踏まえて、さらに他のステップを加えてもよい。
図3bに示すように、図3bにおいて、3D関節点回帰モデルに2Dラベルの付された画像サンプルをロードすると、3D関節点回帰ネットワークが2Dラベルに対応する関節点ヒートマップセットを出力し、2Dラベルを用いて教師あり関節点ヒートマップ回帰を形成して3D関節点回帰ネットワークモデルをトレーニングし、3D関節点回帰モデルに3Dラベルの付された画像サンプルをロードすると、3D関節点回帰ネットワークが3Dラベルに対応する関節点ヒートマップセット及び奥行き情報マップセットを出力し、3Dラベルを用いて教師あり関節点ヒートマップ回帰及び教師あり奥行き情報マップ回帰を形成して3D関節点回帰ネットワークモデルをトレーニングする。2Dラベルの付された画像サンプル及び3Dラベルの付された画像サンプルを用いて交互にトレーニングすることにより、トレーニングされた3D関節点回帰ネットワークモデルを得ることができる。
さらに図4を参照すると、図4は本開示に係る3D関節点座標生成方法の一実施例を示す概略フローチャートが示されている。
図4に示すように、本実施例の3D関節点座標生成方法400は、ステップ401~ステップ405を含むことができる。
ステップ401において、人物を含む画像を取得する。
本実施例において、3D関節点座標生成方法の実行主体(例えば、図1に示す端末又はサーバ)は、ローカル又はクラウドからタスクを含む画像を取得することができる。
ステップ402において、画像をトレーニングされた3D関節点回帰モデルに入力し、トレーニングされた3D関節点回帰モデルから出力される関節点ヒートマップセット及び関節点奥行き情報マップセットを得る。
本実施例において、上記実行主体は、画像をトレーニングされた3D関節点回帰モデルに入力し、トレーニングされた3D関節点回帰モデルの出力層の部分チャネルから出力される関節点ヒートマップセットと、トレーニングされた3D関節点回帰モデルの出力層の全チャネルのうち上記部分チャネルを除くチャネルから出力される関節点奥行き情報マップセットとを得ることができる。
トレーニングされた3D関節点回帰モデルは、上記図2又は図3に記載の3D関節点回帰モデル生成方法を用いて基本3D関節点回帰モデルをトレーニングして得られる。
ステップ403において、関節点ヒートマップセット及び関節点奥行き情報マップセットに基づいて、人物の3D関節点座標を確定する。
本実施例において、3D関節点座標生成方法(例えば、図1に示す端末又はサーバ)の実行主体は、関節点ヒートマップセットに基づいて、各関節点の2D座標を確定し、さらに関節点奥行き情報マップセットに基づいて、各関節点の奥行き座標を得ることができる。それによって、各関節点について、2D座標及び奥行き座標を組み合わせて3D関節点座標を得る。
選択可能なステップ404において、人物の3D関節点座標に基づいて、人体の動作パラメータを確定する。
本実施例において、上記実行主体は、画像における人物の3D関節点座標に基づいて、該人物が行われる動作を示すことができる人体の動作パラメータを確定する。
ステップ405において、人体の動作パラメータに基づいて、人物の動作を提示する提示情報を生成する。
本実施例において、上記実行主体は、人体の動作パラメータに基づいて、これらの動作パラメータが注意喚起条件に合致するか否かを判定し、合致すると、注意喚起条件に対応する、人物の動作を提示する提示情報を生成することができる。さらに、ユーザに次の動作を指導するために、これらの提示情報をユーザに提示することができる。
例として、上記実行主体は、フィットネスアドバイスに際して、人体の動作パラメータがフィットネス注意喚起条件に合致するか否かに基づいて、フィットネス注意喚起条件に合致する際に、フィットネス注意喚起条件に対応する、人物の動作を提示する提示情報を生成するとともに、ユーザの次のフィットネス動作を指導するために、これらの提示情報をユーザに提示することができる。
他の例として、3Dマン-マシンインタラクションサービスにおいて、上記実行主体は、人体の動作パラメータがマン-マシンインタラクション注意喚起条件に合致するか否かに基づいて、マン-マシンインタラクション注意喚起条件に合致する際に、マン-マシンインタラクション注意喚起条件に対応する、人物の動作を提示する提示情報を生成するとともに、ユーザの次のマン-マシンインタラクションアクションを指導するために、これらの提示情報をユーザに提示することができる。
本開示の図4における実施例の3D関節点座標生成方法は、図2に示す3D関節点回帰モデル生成方法に加えて、人物を含む画像をトレーニングされた3D関節点回帰モデルに入力し、トレーニングされた3D関節点回帰モデルから出力される関節点ヒートマップセット及び関節点奥行き情報マップセットを得るとともに、関節点ヒートマップセット及び関節点奥行き情報マップセットに基づいて、人物の3D関節点座標を確定し、確定されたタスクの3D関節点座標の精度及び効率を向上できる。
一部の実施例において、さらに人物の3D関節点座標に基づいて人体の動作パラメータを確定し、人体の動作パラメータに基づいて、人物の動作を提示する提示情報を生成することにより、人物の動作の正確性及び目標性を向上させることもできる。
さらに図5を参照すると、上記各図に示される方法の実施態様として、本開示の実施例は、図2~図4に示される方法の実施例に対応する3D関節点回帰モデル生成装置の一実施例を提供し、当該装置は、具体的に上記端末装置又はサーバに適用可能である。
図5に示すように、本実施例の3D関節点回帰モデル生成装置500は、2Dラベルの付されたサンプル画像及び3Dラベルの付されたサンプル画像を取得するように構成されるサンプル画像取得ユニット510と、2Dラベルの付されたサンプル画像を第1入力とし、2Dラベルに対応する関節点ヒートマップセットを第1所望出力とし、基本3D関節点回帰モデルの出力層における部分チャネルをトレーニングするように構成される部分チャネルトレーニングユニット520と、3Dラベルの付されたサンプル画像を第2入力とし、3Dラベルに対応する関節点ヒートマップセットを第2所望出力の第1部分出力とし、3Dラベルに対応する関節点奥行き情報マップセットを第2所望出力の第2部分出力とし、基本3D関節点回帰モデルの出力層における全チャネルをトレーニングするように構成される全チャネルトレーニングユニット530と、を含むことができる。
いくつかの実施例において、部分チャネルトレーニングユニット520はさらに、2Dラベルの付されたサンプル画像を第1入力とし、2Dラベルに対応する関節点ヒートマップセットを第1所望出力とし、2Dラベルの付されたサンプル画像に対応する幾何学的拘束損失関数を第1所望出力に対応する損失関数とし、基本3D関節点回帰モデルの出力層における部分チャネルをトレーニングするように構成される。
いくつかの実施例において、全チャネルトレーニングユニット530はさらに、3Dラベルの付されたサンプル画像を第2入力とし、3Dラベルに対応する関節点ヒートマップセットを第2所望出力の第1部分出力とし、3Dラベルに対応する関節点奥行き情報マップセットを第2所望出力の第2部分出力とするとともに、3Dラベルの付されたサンプル画像に対応する幾何学的拘束損失関数の重み値を第2所望出力の第1部分出力に対応する損失関数とし、3Dラベルの付されたサンプル画像に対応するユークリッド距離損失関数の重み値を第2所望出力の第2部分出力に対応する損失関数とし、基本3D関節点回帰モデルの出力層における全チャネルをトレーニングするように構成される。
いくつかの実施例において、部分チャネルトレーニングユニット又は全チャネルトレーニングユニットの両方における幾何学的拘束損失関数は、各予測骨の長さ割合とサンプル画像セットにおける骨の長さ割合の平均値との間のユークリッド距離を含み、予測骨は、基本3D関節点回帰モデルから出力される関節点ヒートマップセットにおける骨であり、各予測骨の長さ割合は、1回のトレーニングで選択されたサンプル画像セットにおける各サンプル画像に対応する各予測骨の長さと基準データセットにおける骨の長さとの比率であり、サンプル画像セットにおける骨の長さ割合は、1回のトレーニングで選択されたサンプル画像セットにおけるすべてのサンプル画像に対応するすべての予測骨の長さと基準データセットにおける骨の長さとの比率である。
いくつかの実施例において、全チャネルトレーニングユニットにおける3Dラベルの付されたサンプル画像に対応するユークリッド距離損失関数は、3Dラベルの付されたサンプル画像を第2入力としたときに、基本3D関節点回帰モデルから出力される関節点奥行き情報マップセットにおける奥行き情報と、3Dラベルにおいてラベル付けされた関節点奥行き情報とのユークリッド距離を含む。
いくつかの実施例において、部分チャネルトレーニングユニット又は全チャネルトレーニングユニットの両方における基本3D関節点回帰モデルは、初期3D関節点回帰モデルか、2Dラベルの付されたサンプル画像を用いて初期3D関節点回帰モデルをトレーニングして得られる予めトレーニングされた3D関節点回帰モデルのいずれか一方を含む。
いくつかの実施例において、予めトレーニングされた3D関節点回帰モデルは、2Dラベルの付されたサンプル画像を入力とし、2Dラベルを所望出力とし、関節点回帰モデルから出力される関節点ヒートマップセットに基づいて確定された関節点座標と2Dラベルにおける2D関節点座標との間のユークリッド距離を損失関数とし、初期3D関節点回帰モデルをトレーニングして得られることにより確定される。
装置500に記載されたそれぞれのユニットは、図2~図3を参照して記述された方法に記載のそれぞれのステップに対応することを理解されたい。したがって、方法について上述した動作及び特徴は、装置500及び装置500に含まれるユニットに同様に適用され、ここでその説明が省略される。
さらに図6を参照すると、上記各図に示される方法の実施態様として、本開示の実施例は、図4に示される方法の実施例に対応する3D関節点座標生成装置の一実施例を提供し、当該装置は、具体的に上記端末装置又はサーバに適用可能である。
図6に示すように、本実施例の3D関節点座標生成装置600は、人物を含む画像を取得するように構成される画像取得ユニット610と、画像をトレーニングされた3D関節点回帰モデルに入力して、トレーニングされた3D関節点回帰モデルから出力される関節点ヒートマップセット及び関節点奥行き情報マップセットを取得するように構成される画像入力ユニット620であって、トレーニングされた3D関節点回帰モデルが上記実施例のいずれかに記載の3D関節点回帰モデル生成装置を用いて、基本3D関節点回帰モデルをトレーニングして得られる画像入力ユニット620と、関節点ヒートマップセット及び関節点奥行き情報マップセットに基づいて、人物の3D関節点座標を確定するように構成される座標確定ユニット630と、を含むことができる。
いくつかの実施例において、装置は、人物の3D関節点座標に基づいて、人体の動作パラメータを確定するように構成される動作パラメータ確定ユニットと、人体の動作パラメータに基づいて、人物の動作を提示する提示情報を生成するように構成される提示情報生成ユニットとをさらに含む。
なお、装置600に記載されたそれぞれのユニットは、図4を参照して記述された方法に記載のそれぞれのステップに対応することを理解されたい。したがって、方法について上述した動作及び特徴は、装置600及び装置600に含まれるユニットに同様に適用され、ここでその説明が省略される。
以下、本開示の実施例を実現するのに適した電子機器(例えば、図1におけるサーバ又は端末装置)700の構造概略図が示される図7を参照する。本開示の実施例における端末装置は、ハンドヘルドコンピュータ、デスクトップコンピュータなどを含むことができるが、これらに限定されない。図7に示される端末装置/サーバはただの例示に過ぎず、本開示の実施例の機能及び使用範囲にいかなるの限定を加えるものではない。
図7に示すように、電子機器700は、読み出し専用メモリ(ROM)702に格納されているプログラム又は記憶デバイス708からランダムアクセスメモリ(RAM)703にロードされたプログラムによって、様々な適当な動作及び処理を実行することができる処理デバイス(例えば、中央処理装置、グラフィックプロセッサ等)701を含んでもよい。RAM703には、電子機器700の操作に必要な様々なプログラム及びデータがさらに格納されている。処理デバイス701、ROM702及びRAM703がバス704を介して互いに接続されている。入力/出力(I/O)インターフェース705もバス704に接続されている。
通常、I/Oインターフェース705には、例えば、タッチスクリーン、タッチパッド、キーボード、マウス、カメラ、マイク、加速度計、ジャイロスコープ等を含む入力デバイス706、例えば、液晶ディスプレイ(LCD)、スピーカ、バイブレータ等を含む出力デバイス707、例えば磁気テープ、ハードディスク等を含む記憶デバイス708及び通信デバイス709が接続されてもよい。通信デバイス709は、電子機器700が他のデバイスと無線又は有線で通信してデータを交換することを可能にする。図7は、様々なデバイスを有する電子機器700が示されているが、示されたデバイスの全てを実施又は具備するように要求しないことを理解されたい。これより多い又は少ないデバイスが代替的に実施され又は具備されてもよい。図7に示すそれぞれのブロックは、1つのデバイスを示すものであってもよいし、必要に応じて複数のデバイスを示すものであってもよい。
特に、本開示の実施例によれば、以上でフローチャートを参照して記述されたプロセスは、コンピュータソフトウェアプログラムとして実現されてもよい。例えば、本開示の実施例は、コンピュータ可読媒体に担持されるコンピュータプログラムを備えるコンピュータプログラム製品を備え、該コンピュータプログラムは、フローチャートで示される方法を実行するためのプログラムコードを含む。このような実施例において、該コンピュータプログラムは、通信デバイス709を介してネットワークからダウンロードされてインストールされてもよく、又は記憶デバイス708からインストールされてもよく、又はROM702からインストールされてもよい。該コンピュータプログラムが処理デバイス701によって実行される場合に、本開示の実施例の方法で限定された上記の機能を実行する。
注意すべきなのは、本開示の実施例に記載のコンピュータ可読媒体は、コンピュータ可読信号媒体又はコンピュータ可読記憶媒体、又はこれらの任意の組み合わせであってもよい。コンピュータ可読記憶媒体は、例えば、電気的、磁気的、光学的、電磁的、赤外線の、又は半導体のシステム、装置又はデバイス、或いはこれらの任意の組み合わせであってもよいがこれらに限定されない。コンピュータ可読記憶媒体のより具体的な例としては、1本又は複数の導線を有する電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラマブル読み出し専用メモリ(EPROM若しくはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み出し専用メモリ(CD-ROM)、光メモリ、磁気メモリ、又はこれらの任意の適切な組み合わせを含むことができるが、これらに限定されない。本開示の実施例において、コンピュータ可読記憶媒体は、命令実行システム、装置若しくはデバイスで使用可能な、又はそれらに組み込まれて使用可能なプログラムを包含又は格納する任意の有形の媒体であってもよい。本開示の実施例において、コンピュータ可読信号媒体は、ベースバンド内で、又はキャリアの一部として伝送される、コンピュータ可読プログラムコードが担持されたデータ信号を含んでもよい。このような伝送されたデータ信号は、様々な形態をとることができ、電磁信号、光信号、又はこれらの任意の適切な組み合わせを含むことができるが、これらに限定されない。コンピュータ可読信号媒体は、さらにコンピュータ可読記憶媒体以外の任意のコンピュータ可読媒体であってもよい。該コンピュータ可読信号媒体は、命令実行システム、装置若しくはデバイスによって使用されるか、又はそれらに組み込まれて使用されるプログラムを、送信、伝送又は転送することができる。コンピュータ可読媒体に含まれるプログラムコードは任意の適切な媒体で伝送することができ、有線、光ケーブル、RF(無線周波数)など、又はこれらの任意の適切な組み合わせを含むが、これらに限定されない。
上記のコンピュータ可読媒体は、上記の電子機器に含まれるものであってもよく、独立に存在して該電子機器に組み込まれていないものであってもよい。上記のコンピュータ可読媒体に1つ又は複数のプログラムが担持され、上記1つ又は複数のプログラムが該電子機器によって実行される場合に、2Dラベルの付されたサンプル画像及び3Dラベルの付されたサンプル画像を取得し、2Dラベルの付されたサンプル画像を第1入力とし、2Dラベルに対応する関節点ヒートマップセットを第1所望出力とし、基本3D関節点回帰モデルの出力層における部分チャネルをトレーニングし、3Dラベルの付されたサンプル画像を第2入力とし、3Dラベルに対応する関節点ヒートマップセットを第2所望出力の第1部分出力とし、3Dラベルに対応する関節点奥行き情報マップセットを第2所望出力の第2部分出力とし、基本3D関節点回帰モデルの出力層における全チャネルをトレーニングさせること、又は、人物を含む画像を取得し、画像をトレーニングされた3D関節点回帰モデルに入力し、トレーニングされた3D関節点回帰モデルから出力される関節点ヒートマップセット及び関節点奥行き情報マップセットを得、関節点ヒートマップセット及び関節点奥行き情報マップセットに基づいて、人物の3D関節点座標を確定させること、を該電子機器に実行させる。
1つ又は複数種のプログラミング言語又はそれらの組み合わせで、本開示の実施例の操作を実行するためのコンピュータプログラムコードを編集することができ、前記プログラミング言語には、オブジェクト向けのプログラミング言語、例えばJava(登録商標)、Smalltalk、C++が含まれ、通常のプロシージャ向けプログラミング言語、例えば「C」言語又は類似しているプログラミング言語も含まれる。プログラムコードは、完全にユーザコンピュータで実行されてもよいし、部分的にユーザコンピュータに実行されてもよいし、スタンドアロンソフトウェアパッケージとして実行されてもよいし、部分的にユーザコンピュータで、部分的にリモートコンピュータで実行されてもよい、又は完全にリモートコンピュータ又はサーバで実行されてもよい。リモートコンピュータに係る場合に、リモートコンピュータは、ローカルエリアネットワーク(LAN)又は広域ネットワーク(WAN)を含む任意の種類のネットワークを介して、ユーザコンピュータ、又は、外部コンピュータに接続できる(例えば、インターネットサービスプロバイダによりインターネットを介して接続できる)。
図面におけるフローチャート及びブロック図は、本開示の各実施例に係るシステム、方法及びコンピュータプログラム製品により実現可能なアーキテクチャ、機能及び操作を示す。ここで、フローチャート又はブロック図における各ブロックは、モジュール、プログラムセクション若しくはコードの一部を示してもよく、該モジュール、プログラムセグメント、又はコードの一部は、規定されたロジック機能を達成するための1つ以上の実行可能な命令を含む。なお、いくつかの代替実施態様において、ブロック内に示された機能は、図面に示された順番とは異なるもので実行されてもよい。例えば、連続して示された2つのブロックは、実際には関連する機能に応じて、ほぼ並行に実行されてもよく、逆の順番で実行されてもよい。なお、ブロック図及び/又はフローチャートにおける各ブロック、並びに、ブロック図及び/又はフローチャートにおけるブロックの組み合わせは、規定された機能若しくは操作を実行する、ハードウェアに基づく専用システムで実現されてもよく、又は専用ハードウェアとコンピュータ命令との組み合わせで実行されてもよい。
本開示の実施例に係るユニットは、ソフトウェアの形式で実現されてもよいし、ハードウェアの形式で実現されてもよい。記述されたユニットは、プロセッサに設けられてもよく、例えば、サンプル画像取得ユニット、部分チャネルトレーニングユニット及び全チャネルトレーニングユニットを含むプロセッサと記述されてもよい。ここで、これらのユニットの名称は、該ユニット自体を限定するものではなく、例えば、サンプル画像取得ユニットがさらに「2Dラベルの付されたサンプル画像及び3Dラベルの付されたサンプル画像を取得するユニット」と記述されてもよい。
以上の記載は、本開示の好ましい実施例、及び使用される技術的原理に関する説明に過ぎない。本発明に係る発明の範囲が、上記の技術的特徴の特定の組み合わせからなる技術案に限定されるものではなく、上記の本発明の趣旨を逸脱しない範囲で、上記の技術的特徴又はそれらの同等の特徴を任意に組み合わせてなる他の技術案も含むべきであることを、当業者に理解されたい。例えば、上記の特徴と、本発明に開示された類似の機能を持っている技術的特徴(これらに限定されていない)とを互いに置き換えてなる技術案が挙げられる。

Claims (15)

  1. 2D関節点座標を含む2Dラベルの付されたサンプル画像と、3Dラベルの付されたサンプル画像を取得するステップと、
    前記2Dラベルの付されたサンプル画像を第1入力とし、2Dラベルに対応する関節点ヒートマップセットを第1所望出力とし、基本3D関節点回帰モデルの出力層における部分チャネルをトレーニングするステップと、
    前記3Dラベルの付されたサンプル画像を第2入力とし、3Dラベルに対応する関節点ヒートマップセットを第2所望出力の第1部分出力とし、3Dラベルに対応する関節点奥行き情報マップセットを第2所望出力の第2部分出力とし、3Dラベルの付されたサンプル画像に対応する幾何学的拘束損失関数の重み値を前記第2所望出力の第1部分出力に対応する損失関数とし、3Dラベルの付されたサンプル画像に対応するユークリッド距離損失関数の重み値を前記第2所望出力の第2部分出力に対応する損失関数とし、前記基本3D関節点回帰モデルの出力層における全チャネルをトレーニングするステップと、を含み、
    記幾何学的拘束損失関数と前記ユークリッド距離損失関数が異なる関数であり、
    前記基本3D関節点回帰モデルは、2Dラベルの付されたサンプル画像を用いて初期3D関節点回帰モデルをトレーニングして得られる予めトレーニングされた3D関節点回帰モデルであり、
    前記予めトレーニングされた3D関節点回帰モデルは、
    2Dラベルの付されたサンプル画像を入力とし、前記2Dラベルを所望出力とし、関節点回帰モデルから出力される関節点ヒートマップセットに基づいて確定された関節点座標と2Dラベルにおける2D関節点座標との間のユークリッド距離を損失関数とし、前記初期3D関節点回帰モデルをトレーニングして得られる
    3D関節点回帰モデル生成方法。
  2. 前記の前記2Dラベルの付されたサンプル画像を第1入力とし、2Dラベルに対応する関節点ヒートマップセットを第1所望出力とし、基本3D関節点回帰モデルの出力層における部分チャネルをトレーニングするステップは、
    前記2Dラベルの付されたサンプル画像を第1入力とし、2Dラベルに対応する関節点ヒートマップセットを第1所望出力とし、2Dラベルの付されたサンプル画像に対応する幾何学的拘束損失関数を前記第1所望出力に対応する損失関数とし、基本3D関節点回帰モデルの出力層における部分チャネルをトレーニングすることを含む請求項1に記載の方法。
  3. 前記幾何学的拘束損失関数は、各予測骨の長さ比率とサンプル画像セットにおける骨の長さ割合の平均値との間のユークリッド距離を含み、予測骨は、前記基本3D関節点回帰モデルから出力される関節点ヒートマップセットにおける骨であり、
    各予測骨の長さ割合は、1回のトレーニングで選択されたサンプル画像セットにおける各サンプル画像に対応する各予測骨の長さと基準データセットにおける骨の長さとの比率であり、
    サンプル画像セットにおける骨の長さ割合は、1回のトレーニングで選択されたサンプル画像セットにおける全てのサンプル画像に対応する全ての予測骨の長さと基準データセットにおける骨の長さとの比率である請求項2に記載の方法。
  4. 前記ユークリッド距離損失関数は、
    前記3Dラベルの付されたサンプル画像を第2入力としたときに、前記基本3D関節点回帰モデルから出力される関節点奥行き情報マップセットにおける奥行き情報と、前記3Dラベルにおけるラベル付けされた関節点奥行き情報とのユークリッド距離を含む請求項1に記載の方法。
  5. 人物を含む画像を取得するステップと、
    前記画像をトレーニングされた3D関節点回帰モデルに入力して、前記トレーニングされた3D関節点回帰モデルから出力される関節点ヒートマップセット及び関節点奥行き情報マップセットを得るステップであって、前記トレーニングされた3D関節点回帰モデルが請求項1~4のいずれか一項に記載の3D関節点回帰モデル生成方法を用いて、基本3D関節点回帰モデルをトレーニングして得られるステップと、
    前記関節点ヒートマップセット及び関節点奥行き情報マップセットに基づいて、前記人物の3D関節点座標を確定するステップと、を含む3D関節点座標生成方法。
  6. 前記人物の3D関節点座標に基づいて、人体の動作パラメータを確定するステップと、
    前記人体の動作パラメータに基づいて、前記人物の動作を提示する提示情報を生成するステップと、をさらに含む請求項5に記載の方法。
  7. 2D関節点座標を含む2Dラベルの付されたサンプル画像と、3Dラベルの付されたサンプル画像を取得するように構成されるサンプル画像取得ユニットと、
    前記2Dラベルの付されたサンプル画像を第1入力とし、2Dラベルに対応する関節点ヒートマップセットを第1所望出力とし、基本3D関節点回帰モデルの出力層における部分チャネルをトレーニングするように構成される部分チャネルトレーニングユニットと、
    前記3Dラベルの付されたサンプル画像を第2入力とし、3Dラベルに対応する関節点ヒートマップセットを第2所望出力の第1部分出力とし、3Dラベルに対応する関節点奥行き情報マップセットを第2所望出力の第2部分出力とし、3Dラベルの付されたサンプル画像に対応する幾何学的拘束損失関数の重み値を前記第2所望出力の第1部分出力に対応する損失関数とし、3Dラベルの付されたサンプル画像に対応するユークリッド距離損失関数の重み値を前記第2所望出力の第2部分出力に対応する損失関数とし、前記基本3D関節点回帰モデルの出力層における全チャネルをトレーニングするように構成される全チャネルトレーニングユニットと、を含み、
    記幾何学的拘束損失関数と前記ユークリッド距離損失関数が異なる関数であり、
    前記基本3D関節点回帰モデルは、2Dラベルの付されたサンプル画像を用いて初期3D関節点回帰モデルをトレーニングして得られる予めトレーニングされた3D関節点回帰モデルであり、
    前記予めトレーニングされた3D関節点回帰モデルは、
    2Dラベルの付されたサンプル画像を入力とし、前記2Dラベルを所望出力とし、関節点回帰モデルから出力される関節点ヒートマップセットに基づいて確定された関節点座標と2Dラベルにおける2D関節点座標との間のユークリッド距離を損失関数とし、前記初期3D関節点回帰モデルをトレーニングして得られる
    3D関節点回帰モデル生成装置。
  8. 前記部分チャネルトレーニングユニットはさらに、
    前記2Dラベルの付されたサンプル画像を第1入力とし、2Dラベルに対応する関節点ヒートマップセットを第1所望出力とし、2Dラベルの付されたサンプル画像に対応する幾何学的拘束損失関数を前記第1所望出力に対応する損失関数とし、基本3D関節点回帰モデルの出力層における部分チャネルをトレーニングするように構成される請求項7に記載の装置。
  9. 前記部分チャネルトレーニングユニット又は前記全チャネルトレーニングユニットの両方における幾何学的拘束損失関数は、各予測骨の長さ割合とサンプル画像セットにおける骨の長さ割合の平均値との間のユークリッド距離を含み、
    予測骨は、前記基本3D関節点回帰モデルから出力される関節点ヒートマップセットにおける骨であり、
    各予測骨の長さ割合は、1回のトレーニングで選択されたサンプル画像セットにおける各サンプル画像に対応する各予測骨の長さと基準データセットにおける骨の長さとの比率であり、
    サンプル画像セットにおける骨の長さ割合は、1回のトレーニングで選択されたサンプル画像セットにおける全てのサンプル画像に対応する全ての予測骨の長さと基準データセットにおける骨の長さとの比率である、請求項8に記載の装置。
  10. 前記ユークリッド距離損失関数は、
    前記3Dラベルの付されたサンプル画像を第2入力としたときに、前記基本3D関節点回帰モデルから出力される関節点奥行き情報マップセットにおける奥行き情報と、前記3Dラベルにおけるラベル付けされた関節点奥行き情報とのユークリッド距離を含む、請求項7に記載の装置。
  11. 人物を含む画像を取得するように構成される画像取得ユニットと、
    前記画像をトレーニングされた3D関節点回帰モデルに入力して、前記トレーニングされた3D関節点回帰モデルから出力される関節点ヒートマップセット及び関節点奥行き情報マップセットを得るように構成される画像入力ユニットであって、前記トレーニングされた3D関節点回帰モデルが請求項710のいずれか一項に記載の3D関節点回帰モデル生成装置を用いて、基本3D関節点回帰モデルをトレーニングして得られる画像入力ユニットと、
    前記関節点ヒートマップセット及び関節点奥行き情報マップセットに基づいて、前記人物の3D関節点座標を確定するように構成される座標確定ユニットと、を含む、
    3D関節点座標生成装置。
  12. 前記人物の3D関節点座標に基づいて、人体の動作パラメータを確定するように構成される動作パラメータ確定ユニットと、
    前記人体の動作パラメータに基づいて、前記人物の動作を提示する提示情報を生成するように構成される提示情報生成ユニットと、
    をさらに含む請求項11に記載の装置。
  13. 1つ又は複数のプロセッサと、
    1つ又は複数のプログラムを記憶するための記憶装置と、を含む電子機器であって、
    前記1つ又は複数のプログラムが前記1つ又は複数のプロセッサによって実行される場合に、前記1つ又は複数のプロセッサに請求項1~6のいずれか一項に記載の方法を実現させる電子機器。
  14. コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、該プログラムがプロセッサで実行される場合に、請求項1~6のいずれか一項に記載の方法を実現するコンピュータ可読記憶媒体。
  15. コンピュータプログラムであって、
    該コンピュータプログラムがプロセッサによって実行される場合に、請求項1~4のいずれか一項に記載の3D関節点回帰モデル生成方法及び/又は請求項5~6のいずれか一項に記載の3D関節点座標生成方法を実現する、コンピュータプログラム。
JP2021006367A 2020-01-20 2021-01-19 3d関節点回帰モデル生成方法及び装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラム Active JP7361060B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010064261.5 2020-01-20
CN202010064261.5A CN111260774B (zh) 2020-01-20 2020-01-20 生成3d关节点回归模型的方法和装置

Publications (2)

Publication Number Publication Date
JP2021114295A JP2021114295A (ja) 2021-08-05
JP7361060B2 true JP7361060B2 (ja) 2023-10-13

Family

ID=70950782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021006367A Active JP7361060B2 (ja) 2020-01-20 2021-01-19 3d関節点回帰モデル生成方法及び装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラム

Country Status (5)

Country Link
US (1) US11341718B2 (ja)
EP (1) EP3859678A1 (ja)
JP (1) JP7361060B2 (ja)
KR (1) KR102382419B1 (ja)
CN (1) CN111260774B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113449637A (zh) * 2021-06-28 2021-09-28 桂林电子科技大学 毫米波雷达人体骨骼姿势估计方法和装置
CN113505768A (zh) * 2021-09-10 2021-10-15 北京的卢深视科技有限公司 模型训练、人脸识别方法、电子设备及存储介质
KR102421776B1 (ko) * 2021-09-27 2022-07-19 주식회사 넥스트도어 3차원 객체모델 생성 장치 및 그 방법
CN115171149B (zh) * 2022-06-09 2023-12-05 广州紫为云科技有限公司 基于单目rgb图像回归的实时人体2d/3d骨骼关键点识别方法
US20240112367A1 (en) * 2022-09-30 2024-04-04 Hinge Health, Inc. Real-time pose estimation through bipartite matching of heatmaps of joints and persons and display of visualizations based on the same
CN116958584B (zh) * 2023-09-21 2024-01-05 腾讯科技(深圳)有限公司 关键点检测方法、回归模型的训练方法、装置及电子设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4270372B2 (ja) 2003-05-20 2009-05-27 東洋ゴム工業株式会社 ランフラットタイヤ

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04270372A (ja) * 1990-12-25 1992-09-25 Kongouzen Souhonzan Shiyourinji 技能開発方法
US5625577A (en) * 1990-12-25 1997-04-29 Shukyohojin, Kongo Zen Sohonzan Shorinji Computer-implemented motion analysis method using dynamics
JP2002259474A (ja) * 2001-03-05 2002-09-13 Oojisu Soken:Kk 人体モデル生成方法、人体モデル生成装置、コンピュータプログラム及び記録媒体
US10395411B2 (en) * 2015-06-24 2019-08-27 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Skinned multi-person linear model
GB2554633B (en) * 2016-06-24 2020-01-22 Imperial College Sci Tech & Medicine Detecting objects in video data
GB201703129D0 (en) * 2017-02-27 2017-04-12 Metail Ltd Quibbler
CN107392097B (zh) * 2017-06-15 2020-07-07 中山大学 一种单目彩色视频的三维人体关节点定位方法
US10380413B2 (en) * 2017-07-13 2019-08-13 Robert Bosch Gmbh System and method for pose-invariant face alignment
WO2019064598A1 (en) * 2017-09-29 2019-04-04 Nec Corporation REGRESSION APPARATUS, REGRESSION METHOD, AND COMPUTER-READABLE STORAGE MEDIUM
CN110622213B (zh) * 2018-02-09 2022-11-15 百度时代网络技术(北京)有限公司 利用3d语义地图进行深度定位和分段的系统和方法
WO2019207176A1 (es) * 2018-04-25 2019-10-31 Seddi, Inc. Modelado de dinámica de tejido blando no lineal para avatares interactivos
CN109299685A (zh) * 2018-09-14 2019-02-01 北京航空航天大学青岛研究院 用于人体关节3d坐标估计的推断网络及其方法
US11475630B2 (en) * 2018-10-17 2022-10-18 Midea Group Co., Ltd. System and method for generating acupuncture points on reconstructed 3D human body model for physical therapy
CN109508681B (zh) * 2018-11-20 2021-11-30 北京京东尚科信息技术有限公司 生成人体关键点检测模型的方法和装置
CN109711277B (zh) * 2018-12-07 2020-10-27 中国科学院自动化研究所 基于时空频域混合学习的行为特征提取方法、系统、装置
CN109858524B (zh) * 2019-01-04 2020-10-16 北京达佳互联信息技术有限公司 手势识别方法、装置、电子设备及存储介质
GB2581524B (en) * 2019-02-22 2022-05-11 Huawei Tech Co Ltd Facial shape representation and generation system and method
US10853970B1 (en) * 2019-03-22 2020-12-01 Bartec Corporation System for estimating a three dimensional pose of one or more persons in a scene
CN110009059B (zh) * 2019-04-16 2022-03-29 北京字节跳动网络技术有限公司 用于生成模型的方法和装置
EP3731185A1 (en) * 2019-04-26 2020-10-28 Tata Consultancy Services Limited Weakly supervised learning of 3d human poses from 2d poses
CN110188700B (zh) * 2019-05-31 2022-11-29 安徽大学 基于分组回归模型的人体三维关节点预测方法
US11417011B2 (en) * 2020-02-11 2022-08-16 Nvidia Corporation 3D human body pose estimation using a model trained from unlabeled multi-view data
WO2021221657A1 (en) * 2020-04-30 2021-11-04 Google Llc Generative nonlinear human shape models
CN111753669A (zh) * 2020-05-29 2020-10-09 广州幻境科技有限公司 基于图卷积网络的手部数据识别方法、系统和存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4270372B2 (ja) 2003-05-20 2009-05-27 東洋ゴム工業株式会社 ランフラットタイヤ

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Alexandros Andre Chaaraoui et al.,"A review on vision techniques applied to Human Behaviour Analysis for Ambient-Assisted Living",Expert Systems with Applications,2012年,39,pp.10873-10888
Xingyi Zhou et al.,"Towards 3D Human Pose Estimation in the Wild: A Weakly-Supervised Approach",2017 IEEE International Conference on Computer Vision (ICCV),2017年10月22日,pp.398-407

Also Published As

Publication number Publication date
KR20210093795A (ko) 2021-07-28
US11341718B2 (en) 2022-05-24
KR102382419B1 (ko) 2022-04-08
JP2021114295A (ja) 2021-08-05
CN111260774A (zh) 2020-06-09
EP3859678A1 (en) 2021-08-04
CN111260774B (zh) 2023-06-23
US20210225069A1 (en) 2021-07-22

Similar Documents

Publication Publication Date Title
JP7361060B2 (ja) 3d関節点回帰モデル生成方法及び装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラム
CN106846497B (zh) 应用于终端的呈现三维地图的方法和装置
CN109272543B (zh) 用于生成模型的方法和装置
CN111524216B (zh) 生成三维人脸数据的方法和装置
CN110009059B (zh) 用于生成模型的方法和装置
CN109754464B (zh) 用于生成信息的方法和装置
US11928856B2 (en) Computer vision and speech algorithm design service
CN110310299B (zh) 用于训练光流网络、以及处理图像的方法和装置
WO2023030381A1 (zh) 三维人头重建方法、装置、设备及介质
Keshavarzi et al. Scenegen: Generative contextual scene augmentation using scene graph priors
JP2022172173A (ja) 画像編集モデルのトレーニング方法および装置、画像編集方法および装置、電子機器、記憶媒体並びにコンピュータプログラム
CN112734910A (zh) 基于rgb单图实时人脸三维图像重建方法、装置及电子设备
Wang et al. Modelling and visualizing holographic 3D geographical scenes with timely data based on the HoloLens
CN111652675A (zh) 展示方法、装置和电子设备
CN112101257A (zh) 训练样本生成方法、图像处理方法、装置、设备和介质
WO2023035935A1 (zh) 数据处理方法、装置、电子设备和存储介质
CN111582208B (zh) 用于生成生物体姿态关键点信息的方法和装置
KR20230065339A (ko) 모델 데이터 처리 방법, 장치, 전자 기기 및 컴퓨터 판독 가능 매체
CN111949860B (zh) 用于生成相关度确定模型的方法和装置
CN111275799A (zh) 动画的生成方法、装置和电子设备
CN111524062B (zh) 图像生成方法和装置
WO2023005725A1 (zh) 一种姿态估计方法、装置、设备及介质
WO2023109666A1 (zh) 虚拟换装方法、装置、电子设备及可读介质
CN111582206B (zh) 用于生成生物体姿态关键点信息的方法和装置
CN113378808B (zh) 人物图像识别方法、装置、电子设备和计算机可读介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220601

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230118

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230118

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230130

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230131

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230331

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20230404

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231002

R150 Certificate of patent or registration of utility model

Ref document number: 7361060

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150