JP2021513175A - データ処理方法及び装置、電子機器並びに記憶媒体 - Google Patents
データ処理方法及び装置、電子機器並びに記憶媒体 Download PDFInfo
- Publication number
- JP2021513175A JP2021513175A JP2020558429A JP2020558429A JP2021513175A JP 2021513175 A JP2021513175 A JP 2021513175A JP 2020558429 A JP2020558429 A JP 2020558429A JP 2020558429 A JP2020558429 A JP 2020558429A JP 2021513175 A JP2021513175 A JP 2021513175A
- Authority
- JP
- Japan
- Prior art keywords
- coordinate
- depth value
- coordinates
- feature
- key point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
【選択図】図1B
Description
本出願は、出願番号が201811089872.4であり、出願日が2018年09月18日である中国特許出願に基づいて提出され、該中国特許出願の優先権を主張し、該中国特許出願の全内容を参照として本出願に援用する。
参照深度値及び画像におけるターゲットのキーポイントの実際深度値に基づいて、前記キーポイントの第1の2D座標を第2の2D座標に変換し、前記第2の2D座標と前記参照深度値が前記キーポイントの第1の3D特徴を構成することと、
前記第1の3D特徴に基づいて、前記ターゲットの3D姿勢を取得することとを含む。
参照深度値及び画像におけるターゲットのキーポイントの実際深度値に基づいて、前記キーポイントの第1の2D座標を第2の2D座標に変換し、前記第2の2D座標と前記参照深度値が前記キーポイントの第1の3D特徴を構成するように構成される第1変換モジュールと、
前記第1の3D特徴に基づいて、前記ターゲットの3D姿勢を取得するように構成される第1取得モジュールとを備える。
情報を記憶するように構成されるメモリと、
前記メモリに接続され、前記メモリに記憶されているコンピュータによる実行可能な命令を実行することで、1つ又は複数の技術的解決手段で提供されるデータ処理方法を実現させるように構成されるプロセッサとを備える。
X2=(X1*d)/D、
Y2=(Y1*d)/D、
ただし、X2は、前記第2の2D座標の第1方向における座標値であり、X1は、前記第1の2D座標の前記第1方向における座標値であり、
Y2は、第2の2D座標の第2方向における座標値であり、Y1は、前記第1の2D座標の前記第2方向における座標値であり、前記第2方向は、前記第1方向に垂直しており、
dは、前記実際深度値であり、Dは、前記参照深度値である。
前記第4の2D座標及び前記第4の2D座標に対応する深度値を正規化処理し、正規化された前記第4の2D座標及び正規化された前記第4の2D座標に対応する深度値を得ることと、
深層学習モジュールを利用して、正規化された前記第4の2D座標及び正規化された前記第4の2D座標に対応する深度値を処理し、前記ターゲットの3D姿勢を得ることとを含む。
第4の2D座標及び前記第4の2D座標に対応する深度値に基づいて、前記キーポイントの座標平均値及び分散を得ることと、
前記座標平均値、分散、前記第4の2D座標及び前記第4の2D座標に対応する深度値に基づいて、正規化された第4の2D座標を得ることとを含む。
Y4’=(Y4−Mean)/Stdy。
前記実際深度値に基づいて、前記3D姿勢を二次元平面に投影する反復演算を行い、前記第3の2D座標と距離が最も小さい第5の2D座標を得ることと、
前記第5の2D座標及び前記第1の3D特徴に基づいて、前記ターゲットの回転パラメータ及び水平移動パラメータを得ることとを更に含む。
(X5,Y5)は、前記第5の2D座標であり、(X3,Y3)は、前記第3の2D座標である。
参照深度値及び画像におけるターゲットのキーポイントの実際深度値に基づいて、前記キーポイントの第1の2D座標を第2の2D座標に変換し、前記第2の2D座標と前記参照深度値が前記キーポイントの第1の3D特徴を構成するように構成される第1変換モジュール110と
前記第1の3D特徴に基づいて、前記ターゲットの3D姿勢を取得するように構成される第1取得モジュール120とを備える。
X2=(X1*d)/D、
Y2=(Y1*d)/D、
ただし、X2は、前記第2の2D座標の第1方向における座標値であり、X1は、前記第1の2D座標の前記第1方向における座標値であり、
Y2は、第2の2D座標の第2方向における座標値であり、Y1は、前記第1の2D座標の前記第2方向における座標値であり、前記第2方向は、前記第1方向に垂直しており、
dは、前記実際深度値であり、Dは、前記参照深度値である。
前記キーポイントの第2の3D特徴及び前記画像に対応する光心位置に基づいて、前記第1の2D座標を得るように構成される第2変換モジュールを更に備え、前記第2の3D特徴は、2D画像に基づいて得られた第3の2D座標と、深度画像に基づいて得られた実際深度値とを含む。
前記実際深度値に基づいて、前記3D姿勢を二次元平面に投影する反復演算を行い、前記第3の2D座標と距離が最も小さい第5の2D座標を得るように構成される反復モジュールと、
前記第5の2D座標及び前記第1の3D特徴に基づいて、前記ターゲットの回転パラメータ及び水平移動パラメータを得るように構成される第2取得モジュールとを更に備える。
情報を記憶するように構成されるメモリと、
前記メモリに接続され、前記メモリに記憶されているコンピュータによる実行可能な命令を実行することで、前記1つ又は複数の技術的解決手段で提供されるデータ処理方法を実現させ、例えば図1A、図1B及び図5に示した方法のうちの1つ又は複数を実現させるように構成されるプロセッサとを備える。
本例において、深層ニューラルネットワークにより人体の二次元及び三次元キーポイントを予測し、三次元ビジョンアルゴリズムにより、人体の三次元姿勢を算出する。具体的には、下記のステップを含む。
2D画像に対応する深度画像における14個の人体キーポイントの実際深度値を抽出し、
三角関数などにより、実際深度値に対応する2D座標を参照深度値に対応する2D座標に変換し、
カメラ内部パラメータを利用して、キーポイントの変換された2D座標に対して、内部パラメータ正規化操作を行い、
更なる座標正規化操作のために、正規化された各キーポイントの平均値と標準差を統計し、正規化された2D座標及び参照深度値を得、
正規化された2D座標及び参照深度値を深層ニューラルネットワークに入力し、ニューラルネットワークにより、2Dキーポイントから3Dキーポイントへの第1の3D特徴を得て、該第1の3D特徴に基づいて、三次元ビジョンアルゴリズム等によって、3D姿勢を得、例えば、透視n点(PnP)最適化により、前記第1の3D特徴に基づいて、3D姿勢を得る。
全結合層(Fc)、バッチ処理+ReLu層及びDropout層を含み、
全結合層によって、14個のキーポイントの第1の3D特徴を取得し、出力されるのは3D姿勢である。
該例において、データ処理方法を提供する。該方法は、下記のステップを含む。
二次元人体キーポイントに対してカメラ内部パラメータの正規化を行ってから、2番目の深層ニューラルネットワークに入力し、人体の1つのキーポイント(一般的には、骨盤部にある)に対する相対的三次元キーポイントを得、
最後に、得られた二次元キーポイント及び三次元キーポイントのを位置合わせし、PnPアルゴリズムで、三次元人体空間姿勢を得ることとを得る。
下記のステップを含む。
第1ステップで得られた二次元キーポイント座標を3Dキーポイント抽出ネットワークに入力し、対応する三次元人体骨格(17個のキーポイントであり、ここで、骨盤のキーポイント位置は常に0である)を得、
得られた2つの人体キーポイントモデルを位置合わせし、各キーポイントを物理的に一致させる。
Claims (20)
- データ処理方法であって、
参照深度値及び画像におけるターゲットのキーポイントの実際深度値に基づいて、前記キーポイントの第1の2D座標を第2の2D座標に変換することであって、前記第2の2D座標と前記参照深度値が前記キーポイントの第1の3D特徴を構成することと、
前記第1の3D特徴に基づいて、前記ターゲットの3D姿勢を取得することとを含む、データ処理方法。 - 参照深度値及び画像におけるターゲットのキーポイントの実際深度値に基づいて、前記キーポイントの第1の2D座標を第2の2D座標に変換することは、
前記実際深度値と前記参照深度値との比、及び前記第1の2D座標に基づいて、前記第2の2D座標を得ることを含むことを特徴とする
請求項1に記載の方法。 - 前記実際深度値と前記参照深度値との比及び前記第1の2D座標に基づいて、前記第2の2D座標を得ることは、
X2=(X1*d)/D、
Y2=(Y1*d)/D、
という関数関係を利用して前記第2の2D座標を決定することを含み、
ただし、X2は、前記第2の2D座標の第1方向における座標値であり、X1は、前記第1の2D座標の前記第1方向における座標値であり、
Y2は、第2の2D座標の第2方向における座標値であり、Y1は、前記第1の2D座標の前記第2方向における座標値であり、前記第2方向は、前記第1方向に垂直しており、
dは、前記実際深度値であり、Dは、前記参照深度値であることを特徴とする
請求項2に記載の方法。 - 前記方法は、
前記キーポイントの第2の3D特徴及び前記画像に対応する光心位置に基づいて、前記第1の2D座標を得ることを更に含み、前記第2の3D特徴は、2D画像に基づいて得られた第3の2D座標と、深度画像に基づいて得られた実際深度値とを含むことを特徴とする
請求項1から3のいずれか一項に記載の方法。 - 前記キーポイントの第2の3D特徴及び前記画像に対応する光心位置に基づいて、前記第1の2D座標を得ることは、
前記キーポイントの第2の3D特徴を移動し、前記キーポイントにおける基準点の3D特徴を前記光心位置に水平移動させ、各前記キーポイントの第3の3D特徴を得ることと、
前記第3の3D特徴を2Dイメージング平面に投影し、前記第1の2D座標を得ることとを含むことを特徴とする
請求項4に記載の方法。 - 前記ターゲットが人体骨格である場合、前記基準点の第1の3D特徴は、前記キーポイントにおける2つの股関節キーポイントの第2の3D特徴に基づいて決定されるものであることを特徴とする
請求項5に記載の方法。 - 前記第1の3D特徴に基づいて、前記ターゲットの3D姿勢を得ることは、
前記キーポイントの第2の2D座標に対応する深度値から前記基準点の深度値を減算し、第4の2D座標及び前記第4の2D座標に対応する深度値を得ることと、
前記第4の2D座標及び前記第4の2D座標に対応する深度値を正規化処理し、正規化された前記第4の2D座標及び正規化された前記第4の2D座標に対応する深度値を得ることと、
深層学習モジュールを利用して、正規化された前記第4の2D座標及び正規化された前記第4の2D座標に対応する深度値を処理し、前記ターゲットの3D姿勢を得ることとを含むことを特徴とする
請求項5に記載の方法。 - 前記第4の2D座標及び前記第4の2D座標に対応する深度値を正規化処理し、正規化された前記第4の2D座標及び正規化された前記第4の2D座標に対応する深度値を得ることは、
第4の2D座標及び前記第4の2D座標に対応する深度値に基づいて、前記キーポイントの座標平均値及び分散を得ることと、
前記座標平均値、分散、前記第4の2D座標及び前記第4の2D座標に対応する深度値に基づいて、正規化された第4の2D座標を得ることを含むことを特徴とする
請求項7に記載の方法。 - 前記方法は、
前記実際深度値に基づいて、前記3D姿勢を二次元平面に投影する反復演算を行い、前記第3の2D座標と距離が最も小さい第5の2D座標を得ることと、
前記第5の2D座標及び前記第1の3D特徴に基づいて、前記ターゲットの回転パラメータ及び水平移動パラメータを得ることとを更に含むことを特徴とする
請求項4から7のいずれか一項に記載の方法。 - データ処理装置であって、
参照深度値及び画像におけるターゲットのキーポイントの実際深度値に基づいて、前記キーポイントの第1の2D座標を第2の2D座標に変換するように構成される第1変換モジュールであって、前記第2の2D座標と前記参照深度値が前記キーポイントの第1の3D特徴を構成する第1変換モジュールと、
前記第1の3D特徴に基づいて、前記ターゲットの3D姿勢を取得するように構成される第1取得モジュールと、を備える、データ処理装置。 - 前記第1変換モジュールは、前記実際深度値と前記参照深度値との比、及び前記第1の2D座標に基づいて、前記第2の2D座標を得るように構成されることを特徴とする
請求項10に記載の装置。 - 前記第1変換モジュールは、
X2=(X1*d)/D、
Y2=(Y1*d)/D、
という関数関係を利用して前記第2の2D座標を決定するように構成され、
ただし、X2は、前記第2の2D座標の第1方向における座標値であり、X1は、前記第1の2D座標の前記第1方向における座標値であり、
Y2は、第2の2D座標の第2方向における座標値であり、Y1は、前記第1の2D座標の前記第2方向における座標値であり、前記第2方向は、前記第1方向に垂直しており、
dは、前記実際深度値であり、Dは、前記参照深度値であることを特徴とする
請求項11に記載の装置。 - 前記装置は、
前記キーポイントの第2の3D特徴及び前記画像に対応する光心位置に基づいて、前記第1の2D座標を得るように構成される第2変換モジュールを更に備え、前記第2の3D特徴は、2D画像に基づいて得られた第3の2D座標と、深度画像に基づいて得られた実際深度値とを含むことを特徴とする
請求項10から12のいずれか一項に記載の装置。 - 前記第2変換モジュールは、前記キーポイントの第2の3D特徴を移動し、前記キーポイントにおける基準点の3D特徴を前記光心位置に水平移動させ、各前記キーポイントの第3の3D特徴を得て、前記第3の3D特徴を2Dイメージング平面に投影し、前記第1の2D座標を得るように構成されることを特徴とする
請求項13に記載の装置。 - 前記ターゲットが人体骨格である場合、前記基準点の第1の3D特徴は、前記キーポイントにおける2つの股関節キーポイントの第2の3D特徴に基づいて決定されるものであることを特徴とする
請求項14に記載の装置。 - 前記第1取得モジュールは、前記キーポイントの第2の2D座標に対応する深度値から前記基準点の深度値を減算し、第4の2D座標及び前記第4の2D座標に対応する深度値を得て、前記第4の2D座標及び前記第4の2D座標に対応する深度値を正規化処理し、正規化された前記第4の2D座標及び正規化された前記第4の2D座標に対応する深度値を得て、深層学習モジュールを利用して、正規化された前記第4の2D座標及び正規化された前記第4の2D座標に対応する深度値を処理し、前記ターゲットの3D姿勢を得るように構成されることを特徴とする
請求項14に記載の装置。 - 前記第1取得モジュールは、第4の2D座標及び前記第4の2D座標に対応する深度値に基づいて、前記キーポイントの座標平均値及び分散を得て、前記座標平均値、分散、前記第4の2D座標及び前記第4の2D座標に対応する深度値に基づいて、正規化された第4の2D座標を得るように構成されることを特徴とする
請求項15に記載の装置。 - 前記装置は、
前記実際深度値に基づいて、前記3D姿勢を二次元平面に投影する反復演算を行い、前記第3の2D座標と距離が最も小さい第5の2D座標を得るように構成される反復モジュールと、
前記第5の2D座標及び前記第1の3D特徴に基づいて、前記ターゲットの回転パラメータ及び水平移動パラメータを得るように構成される第2取得モジュールとを更に備えることを特徴とする
請求項10から17のいずれか一項に記載の装置。 - コンピュータ記憶媒体であって、前記コンピュータ記憶媒体にはコンピュータによる実行可能なコードが記憶されており、前記コンピュータによる実行可能なコードがコンピュータによって実行されると、請求項1から9のいずれか一項に記載の方法を実現させる、コンピュータ記憶媒体。
- 電子機器であって、
コンピュータによる実行可能な命令を記憶するように構成されるメモリと、
前記メモリに接続され、前記メモリに記憶されているコンピュータによる実行可能な命令を実行することで、請求項1から9のいずれか一項に記載の方法を実現させるように構成されるプロセッサとを備える、電子機器。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811089872.4 | 2018-09-18 | ||
CN201811089872.4A CN110909580B (zh) | 2018-09-18 | 2018-09-18 | 数据处理方法及装置、电子设备及存储介质 |
PCT/CN2019/083959 WO2020057121A1 (zh) | 2018-09-18 | 2019-04-23 | 数据处理方法及装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021513175A true JP2021513175A (ja) | 2021-05-20 |
JP6985532B2 JP6985532B2 (ja) | 2021-12-22 |
Family
ID=69812918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020558429A Active JP6985532B2 (ja) | 2018-09-18 | 2019-04-23 | データ処理方法及び装置、電子機器並びに記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11238273B2 (ja) |
JP (1) | JP6985532B2 (ja) |
CN (1) | CN110909580B (ja) |
SG (1) | SG11202010510XA (ja) |
WO (1) | WO2020057121A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111353930B (zh) * | 2018-12-21 | 2022-05-24 | 北京市商汤科技开发有限公司 | 数据处理方法及装置、电子设备及存储介质 |
CN109840500B (zh) * | 2019-01-31 | 2021-07-02 | 深圳市商汤科技有限公司 | 一种三维人体姿态信息检测方法及装置 |
US20210312236A1 (en) * | 2020-03-30 | 2021-10-07 | Cherry Labs, Inc. | System and method for efficient machine learning model training |
CN111582204A (zh) * | 2020-05-13 | 2020-08-25 | 北京市商汤科技开发有限公司 | 姿态检测方法、装置、计算机设备及存储介质 |
CN113808227B (zh) * | 2020-06-12 | 2023-08-25 | 杭州普健医疗科技有限公司 | 一种医学影像对齐方法、介质及电子设备 |
US11488325B2 (en) * | 2020-06-17 | 2022-11-01 | Microsoft Technology Licensing, Llc | Auto calibrating a single camera from detectable objects |
CN111985384A (zh) * | 2020-08-14 | 2020-11-24 | 深圳地平线机器人科技有限公司 | 获取脸部关键点的3d坐标及3d脸部模型的方法和装置 |
CN113483661B (zh) * | 2021-07-06 | 2023-06-30 | 广东南方数码科技股份有限公司 | 一种点云数据获取方法、装置、设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120139907A1 (en) * | 2010-12-06 | 2012-06-07 | Samsung Electronics Co., Ltd. | 3 dimensional (3d) display system of responding to user motion and user interface for the 3d display system |
CN102800126A (zh) * | 2012-07-04 | 2012-11-28 | 浙江大学 | 基于多模态融合的实时人体三维姿态恢复的方法 |
CN103037226A (zh) * | 2011-09-30 | 2013-04-10 | 联咏科技股份有限公司 | 深度融合方法及其装置 |
CN104243948A (zh) * | 2013-12-20 | 2014-12-24 | 深圳深讯和科技有限公司 | 2d图像转3d图像的深度调整方法及装置 |
JP2015167008A (ja) * | 2013-07-30 | 2015-09-24 | キヤノン株式会社 | 姿勢推定装置、姿勢推定方法およびプログラム |
JP2017097578A (ja) * | 2015-11-24 | 2017-06-01 | キヤノン株式会社 | 情報処理装置及び方法 |
WO2018087933A1 (ja) * | 2016-11-14 | 2018-05-17 | 富士通株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103988226B (zh) * | 2011-08-31 | 2017-09-26 | Metaio有限公司 | 用于估计摄像机运动以及用于确定实境三维模型的方法 |
US9275078B2 (en) * | 2013-09-05 | 2016-03-01 | Ebay Inc. | Estimating depth from a single image |
CN104881881B (zh) * | 2014-02-27 | 2018-04-10 | 株式会社理光 | 运动对象表示方法及其装置 |
JP5928748B2 (ja) * | 2014-07-31 | 2016-06-01 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 同一種類の複数の認識対象物体が検索対象画像中に存在する場合に、それぞれの認識対象物体の位置および向きを精度良く求める手法 |
US10277889B2 (en) * | 2016-12-27 | 2019-04-30 | Qualcomm Incorporated | Method and system for depth estimation based upon object magnification |
CN108230383B (zh) * | 2017-03-29 | 2021-03-23 | 北京市商汤科技开发有限公司 | 手部三维数据确定方法、装置及电子设备 |
US10929654B2 (en) * | 2018-03-12 | 2021-02-23 | Nvidia Corporation | Three-dimensional (3D) pose estimation from a monocular camera |
-
2018
- 2018-09-18 CN CN201811089872.4A patent/CN110909580B/zh active Active
-
2019
- 2019-04-23 SG SG11202010510XA patent/SG11202010510XA/en unknown
- 2019-04-23 JP JP2020558429A patent/JP6985532B2/ja active Active
- 2019-04-23 WO PCT/CN2019/083959 patent/WO2020057121A1/zh active Application Filing
- 2019-04-23 US US17/049,687 patent/US11238273B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120139907A1 (en) * | 2010-12-06 | 2012-06-07 | Samsung Electronics Co., Ltd. | 3 dimensional (3d) display system of responding to user motion and user interface for the 3d display system |
CN103037226A (zh) * | 2011-09-30 | 2013-04-10 | 联咏科技股份有限公司 | 深度融合方法及其装置 |
CN102800126A (zh) * | 2012-07-04 | 2012-11-28 | 浙江大学 | 基于多模态融合的实时人体三维姿态恢复的方法 |
JP2015167008A (ja) * | 2013-07-30 | 2015-09-24 | キヤノン株式会社 | 姿勢推定装置、姿勢推定方法およびプログラム |
CN104243948A (zh) * | 2013-12-20 | 2014-12-24 | 深圳深讯和科技有限公司 | 2d图像转3d图像的深度调整方法及装置 |
JP2017097578A (ja) * | 2015-11-24 | 2017-06-01 | キヤノン株式会社 | 情報処理装置及び方法 |
WO2018087933A1 (ja) * | 2016-11-14 | 2018-05-17 | 富士通株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN110909580B (zh) | 2022-06-10 |
WO2020057121A1 (zh) | 2020-03-26 |
US20210240971A1 (en) | 2021-08-05 |
CN110909580A (zh) | 2020-03-24 |
SG11202010510XA (en) | 2020-11-27 |
JP6985532B2 (ja) | 2021-12-22 |
US11238273B2 (en) | 2022-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6985532B2 (ja) | データ処理方法及び装置、電子機器並びに記憶媒体 | |
EP3786890B1 (en) | Method and apparatus for determining pose of image capture device, and storage medium therefor | |
CN104596502B (zh) | 一种基于cad模型与单目视觉的物体位姿测量方法 | |
US11468612B2 (en) | Controlling display of a model based on captured images and determined information | |
WO2019161813A1 (zh) | 动态场景的三维重建方法以及装置和系统、服务器、介质 | |
WO2018119889A1 (zh) | 三维场景定位方法和装置 | |
CN110874864A (zh) | 获取对象三维模型的方法、装置、电子设备及系统 | |
US20180338742A1 (en) | X-ray system and method for standing subject | |
WO2021043213A1 (zh) | 标定方法、装置、航拍设备和存储介质 | |
EP4307233A1 (en) | Data processing method and apparatus, and electronic device and computer-readable storage medium | |
US20210200190A1 (en) | Action imitation method and robot and computer readable storage medium using the same | |
US10706584B1 (en) | Hand tracking using a passive camera system | |
CN113366491B (zh) | 眼球追踪方法、装置及存储介质 | |
JP2008506953A5 (ja) | ||
CN108932734B (zh) | 单目图像的深度恢复方法及装置、计算机设备 | |
CN112258567A (zh) | 物体抓取点的视觉定位方法、装置、存储介质及电子设备 | |
CN114862973B (zh) | 基于固定点位的空间定位方法、装置、设备及存储介质 | |
CN113256718B (zh) | 定位方法和装置、设备及存储介质 | |
CN112183506A (zh) | 一种人体姿态生成方法及其系统 | |
WO2022018811A1 (ja) | 被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム | |
CN113159161A (zh) | 目标匹配方法和装置、设备及存储介质 | |
JP3401512B2 (ja) | 移動物体追跡装置 | |
CN109531578B (zh) | 仿人机械手臂体感控制方法及装置 | |
CN115862124A (zh) | 视线估计方法、装置、可读存储介质及电子设备 | |
CN113048985B (zh) | 已知相对旋转角度条件下的像机相对运动估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201020 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210323 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210625 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210922 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6985532 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |