JP7178396B2 - 入力映像に含まれた客体の3次元ポーズの推定のためのデータを生成する方法およびコンピュータシステム - Google Patents
入力映像に含まれた客体の3次元ポーズの推定のためのデータを生成する方法およびコンピュータシステム Download PDFInfo
- Publication number
- JP7178396B2 JP7178396B2 JP2020212564A JP2020212564A JP7178396B2 JP 7178396 B2 JP7178396 B2 JP 7178396B2 JP 2020212564 A JP2020212564 A JP 2020212564A JP 2020212564 A JP2020212564 A JP 2020212564A JP 7178396 B2 JP7178396 B2 JP 7178396B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- joints
- position information
- estimating
- joint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 87
- 238000012549 training Methods 0.000 claims description 65
- 230000006870 function Effects 0.000 claims description 46
- 238000002156 mixing Methods 0.000 claims description 17
- 230000002159 abnormal effect Effects 0.000 claims description 14
- 238000013507 mapping Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 3
- 230000003278 mimic effect Effects 0.000 claims description 3
- 238000012805 post-processing Methods 0.000 description 20
- 238000012545 processing Methods 0.000 description 14
- 210000000988 bone and bone Anatomy 0.000 description 9
- 238000007781 pre-processing Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000013140 knowledge distillation Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 239000010410 layer Substances 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 210000004197 pelvis Anatomy 0.000 description 5
- 210000001624 hip Anatomy 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 210000003423 ankle Anatomy 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 239000013585 weight reducing agent Substances 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000037147 athletic performance Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000007664 blowing Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000004821 distillation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 238000011068 loading method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Description
は、客体130のすべての関節の3次元、2次元の平均(mean)であってよく、特に、Kバーは、スクリーン座標系の値を有してよい。P[x、y]は、P3Dのx、y部分であってよく、単一な下部記号は、特定の要素を示してよい。fは、客体130の撮影に利用されたカメラ(例えば、カメラ120)の焦点距離であってよい。言い換えれば、客体130のグローバル位置情報は、客体130の撮影に利用されたカメラの焦点距離、および推論モデルによる推定前後の各関節の2次元および3次元の位置情報を利用して計算されてよい。
はアダマール積(Hadamard product)を示し、Ljは推論モデル900によって推定されたj番目の関節の位置マップを示す。Lj GTは、j番目の関節の実測位置マップ(すなわち、正解)を示す。GTとTはそれぞれ、正解と教師モデル920によって推定された結果を示す。すなわち、HjTおよびLj Tはそれぞれ、教師モデル920によって推定されたj番目の関節のヒートマップおよび位置マップを示してよい。αは、正解と教師モデル損失条件との間の混合要素(すなわち、混合比)を示してよく、例えば、0.5に設定されてよい。教師-学生学習は、各ミニバッチ(mini batch)によって全体の訓練過程にわたって実行されてよい。推論モデル900への訓練が完了した後、教師モデル920の知識によって学習された学生モデルである推論モデル900がモバイルデバイスのようなコンピュータシステム100に搭載され、客体の3次元ポーズの推定のために利用されてよい。
310:入力部
320:前処理部
330:推論部
340:後処理部
350:アニメーション生成部
360:出力部(レンダリング部)
Claims (18)
- コンピュータシステムを利用して入力映像に含まれた客体の3次元ポーズの推定のためのデータを生成する方法であって、
少なくとも1つの動く客体を含む入力映像を取得する段階、
前記客体の複数の関節それぞれの位置情報を推定するために予め訓練された推論モデルを利用して前記入力映像に含まれた前記客体の複数の関節それぞれの位置情報を推定する段階、および
前記推定された位置情報を利用して前記客体の動きを示すアニメーションデータを生成する段階
を含み、前記推論モデルは、所定の訓練用の映像から、前記訓練用の映像に含まれた客体の複数の関節それぞれの位置情報を推定するために予め訓練された教師モデルを利用して学習されたモデルであって、前記教師モデルに比べて軽量化されたモデルであり、
前記推定された位置情報は、前記複数の関節それぞれに対する3次元座標情報を含み、前記アニメーションデータは、それぞれの関節に対して連続的に推定された3次元座標情報に基づく前記それぞれの関節の回転情報を含む、3次元ポーズの推定のためのデータを生成し、
前記位置情報を推定する段階の前に、推論モデルを構築する方法を実行するステップを更に含み、前記推論モデルを構築する方法は、
訓練用の映像に含まれた客体の複数の関節の位置情報を推定するように教師モデルを訓練させる段階、
前記教師モデルによる前記訓練用の映像に含まれた客体の複数の関節の位置情報の推定結果に基づいて、前記教師モデルよりも軽量化されたモデルである前記教師モデルの学生モデルに、前記訓練用の映像に含まれた客体の複数の関節の位置情報を学習させる段階、および
前記学習された学生モデルを、入力映像に含まれた客体の3次元ポーズを推定するための推論モデルとして構築する段階
を含み、前記学生モデルに、前記訓練用の映像に含まれた客体の複数の関節の位置情報を学習させる段階において、前記学生モデルは、前記複数の関節に対するヒートマップに基づいて計算される第1損失関数と、前記複数の関節に対する位置マップに基づいて計算される第2損失関数とを含む損失関数を利用して訓練される、方法。 - 前記推論モデルが入力映像に含まれた客体の複数の関節の位置情報を学習するにあたり、前記教師モデルによる入力映像に含まれた客体の複数の関節の位置情報の推定結果が損失関数の計算に利用される、
請求項1に記載の3次元ポーズの推定のためのデータを生成する方法。 - 前記アニメーションデータに基づいて前記複数の関節を仮想のキャラクタにマッピングすることにより、前記客体の動きを模倣する仮想のキャラクタを生成する段階
をさらに含む、請求項1に記載の3次元ポーズの推定のためのデータを生成する方法。 - 前記位置情報を推定する段階は、
前記複数の関節それぞれに対するヒートマップおよび位置マップを生成する段階、および
前記ヒートマップおよび前記位置マップに基づき、前記それぞれの関節の3次元座標情報を前記位置情報として推定する段階
を含み、
前記ヒートマップは、前記それぞれの関節が前記ヒートマップ内の各ピクセル位置に存在する可能性を示し、
前記位置マップは、前記それぞれの関節に対してx軸方向の位置を示す位置マップ、y軸方向の位置を示す位置マップ、およびz軸方向の位置を示す位置マップを含む、
請求項1に記載の3次元ポーズの推定のためのデータを生成する方法。 - 前記推定された位置情報のうちで誤推定された位置情報を決定する段階、および
前記誤推定された位置情報を補正する段階
をさらに含む、請求項1に記載の3次元ポーズの推定のためのデータを生成する方法。 - 前記それぞれの関節の3次元座標情報に対応する前記それぞれの関節に対するヒートマップ上の値が所定の閾値未満であるかを判定する段階、
前記3次元座標情報に対応する前記ヒートマップ上の値が前記所定の閾値未満であれば、前記3次元座標情報は誤推定されたものと判定する段階、および
前記誤推定と判定された3次元座標情報を補正する段階
をさらに含む、請求項4に記載の3次元ポーズの推定のためのデータを生成する方法。 - 前記アニメーションデータは、前記3次元座標情報に基づいた前記それぞれの関節の3次元位置情報を含む、
請求項1に記載の3次元ポーズの推定のためのデータを生成する方法。 - 前記それぞれの関節の回転情報のうちで非正常回転状態を示す回転情報があるかを判定する段階、および
前記非正常回転状態を示すと判定された回転情報を補正する段階
をさらに含む、請求項7に記載の3次元ポーズの推定のためのデータを生成する方法。 - 前記判定する段階は、前記それぞれの関節の回転情報が前記客体の正常な動きに該当するものとして予め設定された角度の範囲内にない場合、非正常回転状態として判定する、
請求項8に記載の3次元ポーズの推定のためのデータを生成する方法。 - 前記入力映像を撮影するために利用されたカメラの焦点距離、および前記複数の関節のうちの少なくとも1つに対して推定された位置情報に基づき、前記客体のグローバル位置を示すグローバル位置情報を計算する段階
をさらに含み、
前記グローバル位置情報に基づき、前記客体の前記入力映像内での位置移動が推定される、
請求項1に記載の3次元ポーズの推定のためのデータを生成する方法。 - 前記入力映像は、複数の客体を含み、
前記複数の客体と関連するコンフィデンスマップを生成する段階
をさらに含み、
前記コンフィデンスマップは、前記複数の客体それぞれの複数の関節それぞれと関連するベクトル情報を含み、
前記位置情報を推定する段階は、前記コンフィデンスマップを利用して前記各客体の複数の関節それぞれの位置情報を前記複数の客体のうちの他の客体と区分して推定する、
請求項1に記載の3次元ポーズの推定のためのデータを生成する方法。 - 前記仮想のキャラクタを生成する段階は、前記アニメーションデータに基づいて前記複数の関節を複数の仮想のキャラクタのそれぞれにマッピングすることにより、前記客体の動きを模倣する複数の仮想のキャラクタを生成し、
前記生成された複数の仮想のキャラクタのそれぞれは、ユーザ端末から出力される出力映像の異なる位置に配置される、
請求項3に記載の3次元ポーズの推定のためのデータを生成する方法。 - 前記入力映像は、複数の客体を含み、
前記取得する段階は、前記入力映像から複数の客体のうちの1つの客体を含む部分映像を取得し、
前記複数の客体のうちの1つの客体を含む各部分映像に対して前記推定する段階と前記生成する段階は、並列的に実行されるか、又は前記各部分映像別に順に実行される、
請求項1に記載の3次元ポーズの推定のためのデータを生成する方法。 - 前記入力映像は、複数の客体を含み、
前記仮想のキャラクタを生成する段階は、前記複数の客体のそれぞれの複数の関節を仮想のキャラクタにマッピングすることにより、前記複数の客体の動きを模倣する複数の仮想のキャラクタを生成し、
前記生成された複数の仮想のキャラクタのそれぞれは、ユーザ端末から出力される出力映像において、前記ユーザ端末のユーザによる前記ユーザ端末での操作によって決定された位置に配置される、
請求項3に記載の3次元ポーズの推定のためのデータを生成する方法。 - 請求項1~14のうちのいずれか一項に記載の方法をコンピュータに実行させるコンピュータ・プログラム。
- 入力映像に含まれた客体の3次元ポーズの推定のためのデータを生成するコンピュータシステムであって、
コンピュータ読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサ
を含み、前記少なくとも1つのプロセッサは、
少なくとも1つの動く客体を含む入力映像を取得し、前記客体の複数の関節それぞれの位置情報を推定するために予め訓練された推論モデルを利用して前記入力映像に含まれた前記客体の複数の関節それぞれの位置情報を推定し、前記推定された位置情報を利用して前記客体の動きを示すアニメーションデータを生成し、
前記推論モデルは、所定の訓練用の映像から、前記訓練用の映像に含まれた客体の複数の関節それぞれの位置情報を推定するために予め訓練された教師モデルを利用して学習されたモデルであって、前記教師モデルに比べて軽量化されたモデルであり、
前記推定された位置情報は、前記複数の関節それぞれに対する3次元座標情報を含み、前記アニメーションデータは、それぞれの関節に対して連続的に推定された3次元座標情報に基づく前記それぞれの関節の回転情報を含み、
前記少なくとも1つのプロセッサは、前記入力映像に含まれた前記客体の複数の関節それぞれの位置情報を推定する前に、推論モデルを構築する方法を実行し、前記推論モデルを構築する方法は、
訓練用の映像に含まれた客体の複数の関節の位置情報を推定するように教師モデルを訓練させる段階、
前記教師モデルによる前記訓練用の映像に含まれた客体の複数の関節の位置情報の推定結果に基づいて、前記教師モデルよりも軽量化されたモデルである前記教師モデルの学生モデルに、前記訓練用の映像に含まれた客体の複数の関節の位置情報を学習させる段階、および
前記学習された学生モデルを、入力映像に含まれた客体の3次元ポーズを推定するための推論モデルとして構築する段階
を含み、前記学生モデルに、前記訓練用の映像に含まれた客体の複数の関節の位置情報を学習させる段階において、前記学生モデルは、前記複数の関節に対するヒートマップに基づいて計算される第1損失関数と、前記複数の関節に対する位置マップに基づいて計算される第2損失関数とを含む損失関数を利用して訓練される、コンピュータシステム。 - 前記学生モデルに、前記訓練用の映像に含まれた客体の複数の関節の位置情報を学習させる段階において、
前記学生モデルは、
前記学生モデルによって推定された前記複数の関節のそれぞれの関節に対する第1ヒートマップと前記それぞれの関節に対する正解に該当する第2ヒートマップとの差、および前記第1ヒートマップと前記教師モデルによって推定された前記それぞれの関節に対する第3ヒートマップとの差に基づいて計算される第1損失関数、および前記学生モデルによって推定された前記それぞれの関節に対する第1位置マップと前記それぞれの関節に対する正解に該当する第2位置マップとの差、および前記第1位置マップと前記教師モデルによって推定された前記それぞれの関節に対する第3位置マップとの差に基づいて計算される第2損失関数を利用して訓練される、
請求項1に記載の方法。 - 前記第1ヒートマップと前記第2ヒートマップとの差、および前記第1ヒートマップと前記第3ヒートマップとの差は、所定の混合比で前記第1損失関数に含まれ、
前記第1位置マップと前記第2位置マップとの差、および前記第1位置マップと前記第3位置マップとの差は、前記所定の混合比で前記第2損失関数に含まれる、
請求項17に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2020-0000699 | 2020-01-03 | ||
KR1020200000699A KR20210087680A (ko) | 2020-01-03 | 2020-01-03 | 입력 영상에 포함된 객체의 3차원 포즈를 추정하기 위한 데이터를 생성하는 방법 및 장치와 3차원 포즈 추정을 위한 추론 모델 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021111380A JP2021111380A (ja) | 2021-08-02 |
JP7178396B2 true JP7178396B2 (ja) | 2022-11-25 |
Family
ID=76655522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020212564A Active JP7178396B2 (ja) | 2020-01-03 | 2020-12-22 | 入力映像に含まれた客体の3次元ポーズの推定のためのデータを生成する方法およびコンピュータシステム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11610331B2 (ja) |
JP (1) | JP7178396B2 (ja) |
KR (2) | KR20210087680A (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109829849B (zh) * | 2019-01-29 | 2023-01-31 | 达闼机器人股份有限公司 | 一种训练数据的生成方法、装置和终端 |
KR102349530B1 (ko) | 2021-08-19 | 2022-01-10 | (주)로코모스튜디오 | 인공지능 기반 애니메이션 객체의 자동 생성 방법, 장치 및 시스템 |
CN115222871B (zh) * | 2021-08-31 | 2023-04-18 | 达闼科技(北京)有限公司 | 模型评估方法、装置、存储介质及电子设备 |
CN113706699B (zh) * | 2021-10-27 | 2022-02-08 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、电子设备及计算机可读存储介质 |
US20240233229A1 (en) * | 2021-11-08 | 2024-07-11 | Nvidia Corporation | Synthetic audio-driven body animation using voice tempo |
CN114099234B (zh) * | 2021-11-23 | 2023-08-22 | 复旦大学 | 一种用于辅助康复训练的智能化康复机器人数据处理方法及系统 |
US11861779B2 (en) * | 2021-12-14 | 2024-01-02 | Adobe Inc. | Digital object animation using control points |
CN114131611B (zh) * | 2021-12-16 | 2023-10-24 | 华中科技大学 | 机器人重力位姿分解的关节误差离线补偿方法、系统及终端 |
CN114037066B (zh) * | 2022-01-07 | 2022-04-12 | 南昌虚拟现实研究院股份有限公司 | 数据处理方法、装置、电子设备及存储介质 |
KR102670294B1 (ko) * | 2022-01-11 | 2024-05-29 | 주식회사 띵킹프렌즈 | 사용자 신체비율기반 자세보정방법 |
CN114494334B (zh) * | 2022-01-28 | 2023-02-03 | 北京百度网讯科技有限公司 | 调整三维姿态的方法、装置、电子设备及存储介质 |
US20230282031A1 (en) * | 2022-03-04 | 2023-09-07 | Microsoft Technology Licensing, Llc | Pose prediction for articulated object |
KR102675619B1 (ko) * | 2022-03-16 | 2024-06-19 | 호서대학교 산학협력단 | 딥러닝 기반 자세 추정 시스템 및 실시간 애니메이션을 위한 딥러닝 기반의 메타버스 시스템 |
WO2023224250A1 (ko) * | 2022-05-16 | 2023-11-23 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
WO2024014197A1 (ja) * | 2022-07-14 | 2024-01-18 | ソニーグループ株式会社 | 映像処理装置、映像処理方法およびプログラム |
KR20240014012A (ko) * | 2022-07-22 | 2024-01-31 | 주식회사 네이션에이 | 인공지능 기반의 3차원 모션 영상 생성 방법 및 장치 |
US20240153250A1 (en) * | 2022-11-02 | 2024-05-09 | Nec Laboratories America, Inc. | Neural shape machine learning for object localization with mixed training domains |
KR20240116336A (ko) | 2023-01-20 | 2024-07-29 | 주식회사 공간의파티 | 웹 환경의 모바일 기기에서 깊이 정보를 이용한 객체 포즈 추정 방법 및 장치 |
WO2024166600A1 (ja) * | 2023-02-10 | 2024-08-15 | 日本電気株式会社 | 学習モデル生成装置、学習モデル生成方法、及びコンピュータ読み取り可能な記録媒体 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000194876A (ja) | 1998-12-25 | 2000-07-14 | Atr Media Integration & Communications Res Lab | 仮想空間共有装置 |
JP2001126082A (ja) | 1999-11-01 | 2001-05-11 | Atr Media Integration & Communications Res Lab | ネットワークを用いる映画制作装置 |
JP2003058907A (ja) | 2001-08-09 | 2003-02-28 | Univ Tokyo | 木構造リンク系のポーズ及び動作を生成する方法 |
JP2012048362A (ja) | 2010-08-25 | 2012-03-08 | Kddi Corp | 人体姿勢推定装置、人体姿勢推定方法およびコンピュータプログラム |
WO2019167883A1 (ja) | 2018-02-28 | 2019-09-06 | 富士フイルム株式会社 | 機械学習装置および方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4148281B2 (ja) * | 2006-06-19 | 2008-09-10 | ソニー株式会社 | モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム |
KR101925879B1 (ko) | 2012-11-02 | 2019-02-26 | 삼성전자주식회사 | 깊이 영상을 이용하는 동작 추정 방법 및 장치 |
US9384443B2 (en) * | 2013-06-14 | 2016-07-05 | Brain Corporation | Robotic training apparatus and methods |
JP2017138915A (ja) | 2016-02-05 | 2017-08-10 | 株式会社バンダイナムコエンターテインメント | 画像生成システム及びプログラム |
JP6310516B2 (ja) | 2016-08-18 | 2018-04-11 | 株式会社カプコン | ゲームプログラム及びゲームシステム |
US11580784B2 (en) * | 2017-12-08 | 2023-02-14 | Nec Corporation | Model learning device, model learning method, and recording medium |
JP7241004B2 (ja) * | 2019-11-19 | 2023-03-16 | 株式会社エヌ・ティ・ティ ピー・シー コミュニケーションズ | 身体動作解析装置、身体動作解析システム、身体動作解析方法、及びプログラム |
-
2020
- 2020-01-03 KR KR1020200000699A patent/KR20210087680A/ko not_active Application Discontinuation
- 2020-12-22 JP JP2020212564A patent/JP7178396B2/ja active Active
- 2020-12-30 US US17/137,749 patent/US11610331B2/en active Active
-
2022
- 2022-07-22 KR KR1020220090814A patent/KR102562378B1/ko active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000194876A (ja) | 1998-12-25 | 2000-07-14 | Atr Media Integration & Communications Res Lab | 仮想空間共有装置 |
JP2001126082A (ja) | 1999-11-01 | 2001-05-11 | Atr Media Integration & Communications Res Lab | ネットワークを用いる映画制作装置 |
JP2003058907A (ja) | 2001-08-09 | 2003-02-28 | Univ Tokyo | 木構造リンク系のポーズ及び動作を生成する方法 |
JP2012048362A (ja) | 2010-08-25 | 2012-03-08 | Kddi Corp | 人体姿勢推定装置、人体姿勢推定方法およびコンピュータプログラム |
WO2019167883A1 (ja) | 2018-02-28 | 2019-09-06 | 富士フイルム株式会社 | 機械学習装置および方法 |
Non-Patent Citations (1)
Title |
---|
山下 隆義,イラストで学ぶ ディープラーニング 改訂第2版,第2版,日本,株式会社講談社,2018年11月19日,P.111-115 |
Also Published As
Publication number | Publication date |
---|---|
US20210209788A1 (en) | 2021-07-08 |
KR102562378B1 (ko) | 2023-08-02 |
JP2021111380A (ja) | 2021-08-02 |
US11610331B2 (en) | 2023-03-21 |
KR20210087680A (ko) | 2021-07-13 |
KR20220110453A (ko) | 2022-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7178396B2 (ja) | 入力映像に含まれた客体の3次元ポーズの推定のためのデータを生成する方法およびコンピュータシステム | |
US10529137B1 (en) | Machine learning systems and methods for augmenting images | |
CN111126272B (zh) | 姿态获取方法、关键点坐标定位模型的训练方法和装置 | |
JP7250709B2 (ja) | 畳み込み画像変換を使用して同時位置特定およびマッピングを実施する方法およびシステム | |
CN109636831B (zh) | 一种估计三维人体姿态及手部信息的方法 | |
US10679046B1 (en) | Machine learning systems and methods of estimating body shape from images | |
EP2880633B1 (en) | Animating objects using the human body | |
US11494915B2 (en) | Image processing system, image processing method, and program | |
US8457355B2 (en) | Incorporating video meta-data in 3D models | |
CN113034652A (zh) | 虚拟形象驱动方法、装置、设备及存储介质 | |
WO2011075082A1 (en) | Method and system for single view image 3 d face synthesis | |
CN113706699A (zh) | 数据处理方法、装置、电子设备及计算机可读存储介质 | |
US11748913B2 (en) | Modeling objects from monocular camera outputs | |
US10970849B2 (en) | Pose estimation and body tracking using an artificial neural network | |
US11721056B2 (en) | Motion model refinement based on contact analysis and optimization | |
US20230126829A1 (en) | Point-based modeling of human clothing | |
EP4150577A1 (en) | Learning articulated shape reconstruction from imagery | |
CN117152228A (zh) | 基于通道自注意力机制的自监督图像深度估计方法 | |
US20220392099A1 (en) | Stable pose estimation with analysis by synthesis | |
CN114202606A (zh) | 图像处理方法、电子设置、存储介质及计算机程序产品 | |
Jian et al. | Realistic face animation generation from videos | |
Liu et al. | Deep learning for 3D human pose estimation and mesh recovery: A survey | |
Hong et al. | A novel Gravity-FREAK feature extraction and Gravity-KLT tracking registration algorithm based on iPhone MEMS mobile sensor in mobile environment | |
Zhou et al. | Tracking of Deformable Human Avatars through Fusion of Low-Dimensional 2D and 3D Kinematic Models | |
CN117813626A (zh) | 从多视图立体(mvs)图像重建深度信息 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201222 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20210414 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20210412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220511 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220928 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220928 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221012 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221025 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221114 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7178396 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |