JP2022534666A - 画像処理方法、装置、電子機器及び記憶媒体 - Google Patents
画像処理方法、装置、電子機器及び記憶媒体 Download PDFInfo
- Publication number
- JP2022534666A JP2022534666A JP2021565760A JP2021565760A JP2022534666A JP 2022534666 A JP2022534666 A JP 2022534666A JP 2021565760 A JP2021565760 A JP 2021565760A JP 2021565760 A JP2021565760 A JP 2021565760A JP 2022534666 A JP2022534666 A JP 2022534666A
- Authority
- JP
- Japan
- Prior art keywords
- image
- target object
- limb
- keypoint
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示は、出願番号が202010357593.2であり、出願日が2020年04月29日である中国特許出願に基づいて提出され、該中国特許出願の優先権を主張し、該中国特許出願の全てが参照によって本開示に組み込まれる。
上記取得ユニット31は、複数のフレームの画像を取得するように構成され、
上記検出ユニット32は、複数のフレームの画像のうちの第1画像中の目標対象に対して肢体キーポイント検出処理を行い、上記目標対象の一部の肢体に対応する第1キーポイント情報を取得するように構成され、
上記追跡決定ユニット33は、上記第1キーポイント情報に基づき、第2画像中の上記目標対象の上記一部の肢体に対応する第2キーポイント情報を決定するように構成され、上記第2画像は、上記複数のフレームの画像のうち、上記第1画像以後の1つのフレームの画像である。
上記肢体検出モジュール321は、上記第1画像中の目標対象に対して肢体検出処理を行い、目標対象の第1領域を決定するように構成され、第1領域は目標対象の一部の肢体が位置する領域を含み、
上記肢体キーポイント検出モジュール322は、上記第1領域に対応する画素点に対して肢体キーポイント検出処理を行い、上記目標対象の上記一部の肢体に対応する第1キーポイント情報を取得するように構成される。
上記割り当てユニット34は、上記検出ユニットが目標対象の一部の肢体に対応する第1キーポイント情報を取得したことに応答して、目標対象に追跡識別子を割り当てるように構成され、
上記統計ユニット35は、複数のフレームの画像の処理プロセスにおいて割り当てられた追跡識別子の数に基づき、複数のフレームの画像中の目標対象の数を決定するように構成される。
例えば、本願は以下の項目を提供する。
(項目1)
複数のフレームの画像を取得するステップと、
前記複数のフレームの画像のうちの第1画像中の目標対象に対して肢体キーポイント検出処理を行い、前記目標対象の一部の肢体に対応する第1キーポイント情報を取得するステップと、
前記第1キーポイント情報に基づき、第2画像中の前記目標対象の前記一部の肢体に対応する第2キーポイント情報を決定するステップであって、前記第2画像は、前記複数のフレームの画像のうち、前記第1画像以後の1つのフレームの画像である、ステップと、を含む、画像処理方法。
(項目2)
前記複数のフレームの画像のうちの第1画像中の目標対象に対して肢体キーポイント検出処理を行い、前記目標対象の一部の肢体に対応する第1キーポイント情報を取得するステップは、
前記第1画像中の前記目標対象に対して肢体検出処理を行い、前記目標対象の第1領域を決定するステップであって、前記第1領域は前記目標対象の一部の肢体が位置する領域を含む、ステップと、
前記第1領域に対応する画素点に対して肢体キーポイント検出処理を行い、前記目標対象の前記一部の肢体に対応する第1キーポイント情報を取得するステップと、を含む
項目1に記載の画像処理方法。
(項目3)
前記第1キーポイント情報に基づき、第2画像中の前記目標対象の前記一部の肢体に対応する第2キーポイント情報を決定するステップは、
前記第1キーポイント情報に基づいて前記第1画像において第2領域を決定するステップであって、前記第2領域は前記目標対象の第1領域よりも大きく、前記第1領域は前記目標対象の一部の肢体が位置する領域を含む、ステップと、
前記第2領域に基づき、前記第2画像における、前記第2領域の位置範囲に対応する第3領域を決定するステップと、
前記第2画像における前記第3領域内の画素点に対して肢体キーポイント検出処理を行い、前記一部の肢体に対応する第2キーポイント情報を取得するステップと、を含む
項目1に記載の画像処理方法。
(項目4)
前記第1キーポイント情報に基づき、第2画像中の前記目標対象の前記一部の肢体に対応する第2キーポイント情報を決定するステップは、
前記第1キーポイント情報の前記第1画像における位置範囲に基づき、前記第2画像における、前記位置範囲に対応する第3領域を決定するステップと、
前記第2画像における前記第3領域内の画素点に対して肢体キーポイント検出処理を行い、前記一部の肢体に対応する第2キーポイント情報を取得するステップと、を含む
項目1に記載の画像処理方法。
(項目5)
前記第1画像中の前記目標対象に対して肢体検出処理を行うステップは、
肢体検出ネットワークを用いて前記第1画像中の前記目標対象に対して肢体検出処理を行うステップを含み、
前記肢体検出ネットワークは、第1タイプのサンプル画像を用いて訓練して得られるものであり、前記第1タイプのサンプル画像には目標対象の検出枠がラベル付けされ、前記検出枠のラベル付け範囲は前記目標対象の一部の肢体が位置する領域を含む
項目2に記載の画像処理方法。
(項目6)
前記第1領域に対応する画素点に対して肢体キーポイント検出処理を行うステップは、
肢体キーポイント検出ネットワークを用いて前記第1領域に対応する画素点に対して肢体キーポイント検出処理を行うステップを含み、
前記肢体キーポイント検出ネットワークは、第2タイプのサンプル画像を用いて訓練して得られるものであり、前記第2タイプのサンプル画像には、前記目標対象の一部の肢体を含むキーポイントがラベル付けされている
項目2に記載の画像処理方法。
(項目7)
前記目標対象の一部の肢体は、頭部、首部、肩部、胸部、腰部、股関節部、腕、手部のうちの少なくとも1つを含み、
前記第1キーポイント情報及び前記第2キーポイント情報は、頭部、首部、肩部、胸部、腰部、股関節部、腕、手部のうちの少なくとも1つの肢体の輪郭キーポイント情報及び/又は骨格キーポイント情報を含む
項目1から6のいずれか1項に記載の画像処理方法。
(項目8)
前記目標対象の一部の肢体に対応する第1キーポイント情報を取得したことに応答して、前記目標対象に追跡識別子を割り当てるステップと、
前記複数のフレームの画像の処理プロセスにおいて割り当てられた前記追跡識別子の数に基づき、前記複数のフレームの画像中の目標対象の数を決定するステップと、をさらに含む
項目1から7のいずれか1項に記載の画像処理方法。
(項目9)
前記第2キーポイント情報に基づいて前記目標対象の姿勢を決定するステップと、
前記目標対象の姿勢に基づいて前記目標対象に対応するインタラクション命令を決定するステップと、をさらに含む
項目1から8のいずれか1項に記載の画像処理方法。
(項目10)
複数のフレームの画像を取得するように構成される取得ユニットと、
前記複数のフレームの画像のうちの第1画像中の目標対象に対して肢体キーポイント検出処理を行い、前記目標対象の一部の肢体に対応する第1キーポイント情報を取得するように構成される検出ユニットと、
前記第1キーポイント情報に基づき、第2画像中の前記目標対象の前記一部の肢体に対応する第2キーポイント情報を決定するように構成される追跡決定ユニットであって、前記第2画像は、前記複数のフレームの画像のうち、前記第1画像以後の1つのフレームの画像である、追跡決定ユニットと、を含む、画像処理装置。
(項目11)
前記検出ユニットは、肢体検出モジュール及び肢体キーポイント検出モジュールを含み、
前記肢体検出モジュールは、前記第1画像中の前記目標対象に対して肢体検出処理を行い、前記目標対象の第1領域を決定するように構成され、前記第1領域は前記目標対象の一部の肢体が位置する領域を含み、
前記肢体キーポイント検出モジュールは、前記第1領域に対応する画素点に対して肢体キーポイント検出処理を行い、前記目標対象の前記一部の肢体に対応する第1キーポイント情報を取得するように構成される
項目10に記載の画像処理装置。
(項目12)
前記追跡決定ユニットは、前記第1キーポイント情報に基づいて前記第1画像において第2領域を決定し、前記第2領域に基づき、前記第2画像における、前記第2領域の位置範囲に対応する第3領域を決定し、そして前記第2画像における前記第3領域内の画素点に対して肢体キーポイント検出処理を行い、前記一部の肢体に対応する第2キーポイント情報を取得するように構成され、ここで前記第2領域は前記目標対象の第1領域よりも大きく、前記第1領域は前記目標対象の一部の肢体が位置する領域を含む
項目10に記載の画像処理装置。
(項目13)
前記追跡決定ユニットは、前記第1キーポイント情報の前記第1画像における位置範囲に基づき、前記第2画像における、前記位置範囲に対応する第3領域を決定し、そして前記第2画像における前記第3領域内の画素点に対して肢体キーポイント検出処理を行い、前記一部の肢体に対応する第2キーポイント情報を取得するように構成される
項目10に記載の画像処理装置。
(項目14)
前記肢体検出モジュールは、肢体検出ネットワークを用いて前記第1画像中の前記目標対象に対して肢体検出処理を行うように構成され、
前記肢体検出ネットワークは、第1タイプのサンプル画像を用いて訓練して得られるものであり、前記第1タイプのサンプル画像には目標対象の検出枠がラベル付けされ、前記検出枠のラベル付け範囲は前記目標対象の一部の肢体が位置する領域を含む
項目11に記載の画像処理装置。
(項目15)
前記肢体キーポイント検出モジュールは、肢体キーポイント検出ネットワークを用いて前記第1領域に対応する画素点に対して肢体キーポイント検出処理を行うように構成され、
前記肢体キーポイント検出ネットワークは、第2タイプのサンプル画像を用いて訓練して得られるものであり、前記第2タイプのサンプル画像には、前記目標対象の一部の肢体を含むキーポイントがラベル付けされている
項目11に記載の画像処理装置。
(項目16)
前記目標対象の一部の肢体は、頭部、首部、肩部、胸部、腰部、股関節部、腕、手部のうちの少なくとも1つを含み、
前記第1キーポイント情報及び前記第2キーポイント情報は、頭部、首部、肩部、胸部、腰部、股関節部、腕、手部のうちの少なくとも1つの肢体の輪郭キーポイント情報及び/又は骨格キーポイント情報を含む
項目10から15のいずれか1項に記載の画像処理装置。
(項目17)
前記検出ユニットが前記目標対象の一部の肢体に対応する第1キーポイント情報を取得したことに応答して、前記目標対象に追跡識別子を割り当てるように構成される割り当てユニットと、
前記複数のフレームの画像の処理プロセスにおいて割り当てられた前記追跡識別子の数に基づき、前記複数のフレームの画像中の目標対象の数を決定するように構成される統計ユニットと、をさらに含む
項目10から16のいずれか1項に記載の画像処理装置。
(項目18)
前記第2キーポイント情報に基づいて前記目標対象の姿勢を決定し、そして前記目標対象の姿勢に基づいて前記目標対象に対応するインタラクション命令を決定するように構成される決定ユニットをさらに含む
項目10から17のいずれか1項に記載の画像処理装置。
(項目19)
プロセッサに、項目1から9のいずれか1項に記載の画像処理方法のステップを実行させるためのコンピュータプログラムを記憶した、コンピュータ可読記憶媒体。
(項目20)
メモリと、プロセッサと、前記メモリに記憶されている前記プロセッサで実行可能なコンピュータプログラムと、を含み、前記プロセッサは前記コンピュータプログラムを実行して、項目1から9のいずれか1項に記載の画像処理方法のステップを実施する、電子機器。
(項目21)
コンピュータに項目1から9のいずれか1項に記載の画像処理方法を実行させる、コンピュータプログラム。
Claims (21)
- 複数のフレームの画像を取得するステップと、
前記複数のフレームの画像のうちの第1画像中の目標対象に対して肢体キーポイント検出処理を行い、前記目標対象の一部の肢体に対応する第1キーポイント情報を取得するステップと、
前記第1キーポイント情報に基づき、第2画像中の前記目標対象の前記一部の肢体に対応する第2キーポイント情報を決定するステップであって、前記第2画像は、前記複数のフレームの画像のうち、前記第1画像以後の1つのフレームの画像である、ステップと、を含む、画像処理方法。 - 前記複数のフレームの画像のうちの第1画像中の目標対象に対して肢体キーポイント検出処理を行い、前記目標対象の一部の肢体に対応する第1キーポイント情報を取得するステップは、
前記第1画像中の前記目標対象に対して肢体検出処理を行い、前記目標対象の第1領域を決定するステップであって、前記第1領域は前記目標対象の一部の肢体が位置する領域を含む、ステップと、
前記第1領域に対応する画素点に対して肢体キーポイント検出処理を行い、前記目標対象の前記一部の肢体に対応する第1キーポイント情報を取得するステップと、を含む
請求項1に記載の画像処理方法。 - 前記第1キーポイント情報に基づき、第2画像中の前記目標対象の前記一部の肢体に対応する第2キーポイント情報を決定するステップは、
前記第1キーポイント情報に基づいて前記第1画像において第2領域を決定するステップであって、前記第2領域は前記目標対象の第1領域よりも大きく、前記第1領域は前記目標対象の一部の肢体が位置する領域を含む、ステップと、
前記第2領域に基づき、前記第2画像における、前記第2領域の位置範囲に対応する第3領域を決定するステップと、
前記第2画像における前記第3領域内の画素点に対して肢体キーポイント検出処理を行い、前記一部の肢体に対応する第2キーポイント情報を取得するステップと、を含む
請求項1に記載の画像処理方法。 - 前記第1キーポイント情報に基づき、第2画像中の前記目標対象の前記一部の肢体に対応する第2キーポイント情報を決定するステップは、
前記第1キーポイント情報の前記第1画像における位置範囲に基づき、前記第2画像における、前記位置範囲に対応する第3領域を決定するステップと、
前記第2画像における前記第3領域内の画素点に対して肢体キーポイント検出処理を行い、前記一部の肢体に対応する第2キーポイント情報を取得するステップと、を含む
請求項1に記載の画像処理方法。 - 前記第1画像中の前記目標対象に対して肢体検出処理を行うステップは、
肢体検出ネットワークを用いて前記第1画像中の前記目標対象に対して肢体検出処理を行うステップを含み、
前記肢体検出ネットワークは、第1タイプのサンプル画像を用いて訓練して得られるものであり、前記第1タイプのサンプル画像には目標対象の検出枠がラベル付けされ、前記検出枠のラベル付け範囲は前記目標対象の一部の肢体が位置する領域を含む
請求項2に記載の画像処理方法。 - 前記第1領域に対応する画素点に対して肢体キーポイント検出処理を行うステップは、
肢体キーポイント検出ネットワークを用いて前記第1領域に対応する画素点に対して肢体キーポイント検出処理を行うステップを含み、
前記肢体キーポイント検出ネットワークは、第2タイプのサンプル画像を用いて訓練して得られるものであり、前記第2タイプのサンプル画像には、前記目標対象の一部の肢体を含むキーポイントがラベル付けされている
請求項2に記載の画像処理方法。 - 前記目標対象の一部の肢体は、頭部、首部、肩部、胸部、腰部、股関節部、腕、手部のうちの少なくとも1つを含み、
前記第1キーポイント情報及び前記第2キーポイント情報は、頭部、首部、肩部、胸部、腰部、股関節部、腕、手部のうちの少なくとも1つの肢体の輪郭キーポイント情報及び/又は骨格キーポイント情報を含む
請求項1から6のいずれか1項に記載の画像処理方法。 - 前記目標対象の一部の肢体に対応する第1キーポイント情報を取得したことに応答して、前記目標対象に追跡識別子を割り当てるステップと、
前記複数のフレームの画像の処理プロセスにおいて割り当てられた前記追跡識別子の数に基づき、前記複数のフレームの画像中の目標対象の数を決定するステップと、をさらに含む
請求項1から7のいずれか1項に記載の画像処理方法。 - 前記第2キーポイント情報に基づいて前記目標対象の姿勢を決定するステップと、
前記目標対象の姿勢に基づいて前記目標対象に対応するインタラクション命令を決定するステップと、をさらに含む
請求項1から8のいずれか1項に記載の画像処理方法。 - 複数のフレームの画像を取得するように構成される取得ユニットと、
前記複数のフレームの画像のうちの第1画像中の目標対象に対して肢体キーポイント検出処理を行い、前記目標対象の一部の肢体に対応する第1キーポイント情報を取得するように構成される検出ユニットと、
前記第1キーポイント情報に基づき、第2画像中の前記目標対象の前記一部の肢体に対応する第2キーポイント情報を決定するように構成される追跡決定ユニットであって、前記第2画像は、前記複数のフレームの画像のうち、前記第1画像以後の1つのフレームの画像である、追跡決定ユニットと、を含む、画像処理装置。 - 前記検出ユニットは、肢体検出モジュール及び肢体キーポイント検出モジュールを含み、
前記肢体検出モジュールは、前記第1画像中の前記目標対象に対して肢体検出処理を行い、前記目標対象の第1領域を決定するように構成され、前記第1領域は前記目標対象の一部の肢体が位置する領域を含み、
前記肢体キーポイント検出モジュールは、前記第1領域に対応する画素点に対して肢体キーポイント検出処理を行い、前記目標対象の前記一部の肢体に対応する第1キーポイント情報を取得するように構成される
請求項10に記載の画像処理装置。 - 前記追跡決定ユニットは、前記第1キーポイント情報に基づいて前記第1画像において第2領域を決定し、前記第2領域に基づき、前記第2画像における、前記第2領域の位置範囲に対応する第3領域を決定し、そして前記第2画像における前記第3領域内の画素点に対して肢体キーポイント検出処理を行い、前記一部の肢体に対応する第2キーポイント情報を取得するように構成され、ここで前記第2領域は前記目標対象の第1領域よりも大きく、前記第1領域は前記目標対象の一部の肢体が位置する領域を含む
請求項10に記載の画像処理装置。 - 前記追跡決定ユニットは、前記第1キーポイント情報の前記第1画像における位置範囲に基づき、前記第2画像における、前記位置範囲に対応する第3領域を決定し、そして前記第2画像における前記第3領域内の画素点に対して肢体キーポイント検出処理を行い、前記一部の肢体に対応する第2キーポイント情報を取得するように構成される
請求項10に記載の画像処理装置。 - 前記肢体検出モジュールは、肢体検出ネットワークを用いて前記第1画像中の前記目標対象に対して肢体検出処理を行うように構成され、
前記肢体検出ネットワークは、第1タイプのサンプル画像を用いて訓練して得られるものであり、前記第1タイプのサンプル画像には目標対象の検出枠がラベル付けされ、前記検出枠のラベル付け範囲は前記目標対象の一部の肢体が位置する領域を含む
請求項11に記載の画像処理装置。 - 前記肢体キーポイント検出モジュールは、肢体キーポイント検出ネットワークを用いて前記第1領域に対応する画素点に対して肢体キーポイント検出処理を行うように構成され、
前記肢体キーポイント検出ネットワークは、第2タイプのサンプル画像を用いて訓練して得られるものであり、前記第2タイプのサンプル画像には、前記目標対象の一部の肢体を含むキーポイントがラベル付けされている
請求項11に記載の画像処理装置。 - 前記目標対象の一部の肢体は、頭部、首部、肩部、胸部、腰部、股関節部、腕、手部のうちの少なくとも1つを含み、
前記第1キーポイント情報及び前記第2キーポイント情報は、頭部、首部、肩部、胸部、腰部、股関節部、腕、手部のうちの少なくとも1つの肢体の輪郭キーポイント情報及び/又は骨格キーポイント情報を含む
請求項10から15のいずれか1項に記載の画像処理装置。 - 前記検出ユニットが前記目標対象の一部の肢体に対応する第1キーポイント情報を取得したことに応答して、前記目標対象に追跡識別子を割り当てるように構成される割り当てユニットと、
前記複数のフレームの画像の処理プロセスにおいて割り当てられた前記追跡識別子の数に基づき、前記複数のフレームの画像中の目標対象の数を決定するように構成される統計ユニットと、をさらに含む
請求項10から16のいずれか1項に記載の画像処理装置。 - 前記第2キーポイント情報に基づいて前記目標対象の姿勢を決定し、そして前記目標対象の姿勢に基づいて前記目標対象に対応するインタラクション命令を決定するように構成される決定ユニットをさらに含む
請求項10から17のいずれか1項に記載の画像処理装置。 - プロセッサに、請求項1から9のいずれか1項に記載の画像処理方法のステップを実行させるためのコンピュータプログラムを記憶した、コンピュータ可読記憶媒体。
- メモリと、プロセッサと、前記メモリに記憶されている前記プロセッサで実行可能なコンピュータプログラムと、を含み、前記プロセッサは前記コンピュータプログラムを実行して、請求項1から9のいずれか1項に記載の画像処理方法のステップを実施する、電子機器。
- コンピュータに請求項1から9のいずれか1項に記載の画像処理方法を実行させる、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010357593.2 | 2020-04-29 | ||
CN202010357593.2A CN111539992A (zh) | 2020-04-29 | 2020-04-29 | 图像处理方法、装置、电子设备和存储介质 |
PCT/CN2021/076504 WO2021218293A1 (zh) | 2020-04-29 | 2021-02-10 | 图像处理方法、装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022534666A true JP2022534666A (ja) | 2022-08-03 |
Family
ID=71975386
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021565760A Pending JP2022534666A (ja) | 2020-04-29 | 2021-02-10 | 画像処理方法、装置、電子機器及び記憶媒体 |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP2022534666A (ja) |
CN (1) | CN111539992A (ja) |
TW (1) | TW202141340A (ja) |
WO (1) | WO2021218293A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111539992A (zh) * | 2020-04-29 | 2020-08-14 | 北京市商汤科技开发有限公司 | 图像处理方法、装置、电子设备和存储介质 |
CN112016514B (zh) * | 2020-09-09 | 2024-05-14 | 平安科技(深圳)有限公司 | 一种交通标志识别方法、装置、设备及储存介质 |
CN112465890A (zh) * | 2020-11-24 | 2021-03-09 | 深圳市商汤科技有限公司 | 深度检测方法、装置、电子设备和计算机可读存储介质 |
CN112785573B (zh) * | 2021-01-22 | 2024-08-16 | 上海商汤善萃医疗科技有限公司 | 图像处理方法及相关装置、设备 |
CN112818908B (zh) * | 2021-02-22 | 2024-07-02 | Oppo广东移动通信有限公司 | 关键点检测方法、装置、终端及存储介质 |
CN113192127B (zh) * | 2021-05-12 | 2024-01-02 | 北京市商汤科技开发有限公司 | 一种图像处理方法、装置、电子设备和存储介质 |
CN113469017B (zh) * | 2021-06-29 | 2024-09-17 | 北京市商汤科技开发有限公司 | 一种图像处理方法、装置及电子设备 |
CN115337607B (zh) * | 2022-10-14 | 2023-01-17 | 佛山科学技术学院 | 一种基于计算机视觉的上肢运动康复训练方法 |
CN117831075B (zh) * | 2024-01-03 | 2024-09-03 | 深圳力强数智科技有限公司 | 视频流分析训练的人体骨骼关键点推理方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012083955A (ja) * | 2010-10-12 | 2012-04-26 | Nippon Telegr & Teleph Corp <Ntt> | 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム |
CN108230357A (zh) * | 2017-10-25 | 2018-06-29 | 北京市商汤科技开发有限公司 | 关键点检测方法、装置、存储介质、计算机程序和电子设备 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10262426B2 (en) * | 2014-10-31 | 2019-04-16 | Fyusion, Inc. | System and method for infinite smoothing of image sequences |
CN108986137B (zh) * | 2017-11-30 | 2022-02-01 | 成都通甲优博科技有限责任公司 | 人体跟踪方法、装置及设备 |
CN109918975B (zh) * | 2017-12-13 | 2022-10-21 | 腾讯科技(深圳)有限公司 | 一种增强现实的处理方法、对象识别的方法及终端 |
CN108062526B (zh) * | 2017-12-15 | 2021-05-04 | 厦门美图之家科技有限公司 | 一种人体姿态估计方法及移动终端 |
CN108062536B (zh) * | 2017-12-29 | 2020-07-24 | 纳恩博(北京)科技有限公司 | 一种检测方法及装置、计算机存储介质 |
CN109685797B (zh) * | 2018-12-25 | 2021-08-10 | 北京旷视科技有限公司 | 骨骼点检测方法、装置、处理设备及存储介质 |
CN110139115B (zh) * | 2019-04-30 | 2020-06-09 | 广州虎牙信息科技有限公司 | 基于关键点的虚拟形象姿态控制方法、装置及电子设备 |
CN111539992A (zh) * | 2020-04-29 | 2020-08-14 | 北京市商汤科技开发有限公司 | 图像处理方法、装置、电子设备和存储介质 |
-
2020
- 2020-04-29 CN CN202010357593.2A patent/CN111539992A/zh active Pending
-
2021
- 2021-02-10 WO PCT/CN2021/076504 patent/WO2021218293A1/zh active Application Filing
- 2021-02-10 JP JP2021565760A patent/JP2022534666A/ja active Pending
- 2021-03-12 TW TW110109002A patent/TW202141340A/zh unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012083955A (ja) * | 2010-10-12 | 2012-04-26 | Nippon Telegr & Teleph Corp <Ntt> | 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム |
CN108230357A (zh) * | 2017-10-25 | 2018-06-29 | 北京市商汤科技开发有限公司 | 关键点检测方法、装置、存储介质、计算机程序和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
TW202141340A (zh) | 2021-11-01 |
CN111539992A (zh) | 2020-08-14 |
WO2021218293A1 (zh) | 2021-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022534666A (ja) | 画像処理方法、装置、電子機器及び記憶媒体 | |
US10832039B2 (en) | Facial expression detection method, device and system, facial expression driving method, device and system, and storage medium | |
JP7137804B2 (ja) | ジェスチャベースインタラクションのための方法およびシステム | |
KR102014385B1 (ko) | 수술영상 학습 및 학습 기반 수술동작 인식 방법 및 장치 | |
JP2004513442A (ja) | 外観及び幾何学的配置特質に基づき統計モデルを活用する画像処理システムでの人物の札付け | |
KR20170014491A (ko) | 움직임 인식 방법 및 움직임 인식 장치 | |
WO2017084319A1 (zh) | 手势识别方法及虚拟现实显示输出设备 | |
WO2021098545A1 (zh) | 一种姿势确定方法、装置、设备、存储介质、芯片及产品 | |
CN111527468A (zh) | 一种隔空交互方法、装置和设备 | |
TW202145065A (zh) | 一種圖像處理方法、電子設備及電腦可讀儲存介質 | |
Lemley et al. | Eye tracking in augmented spaces: A deep learning approach | |
CN110770742B (zh) | 基于面部特征点的摇动动作识别系统和方法 | |
US20210133985A1 (en) | Method, system, and computer-accessible recording medium for motion recognition based on an atomic pose | |
WO2023273071A1 (zh) | 一种图像处理方法、装置及电子设备 | |
CN110069126B (zh) | 虚拟对象的控制方法和装置 | |
WO2020019353A1 (zh) | 跟踪控制方法、设备、计算机可读存储介质 | |
Ueng et al. | Vision based multi-user human computer interaction | |
CN117455989A (zh) | 室内场景slam追踪方法、装置、头戴式设备及介质 | |
US11410398B2 (en) | Augmenting live images of a scene for occlusion | |
CN113192127B (zh) | 一种图像处理方法、装置、电子设备和存储介质 | |
CN112655021A (zh) | 图像处理方法、装置、电子设备和存储介质 | |
JP2007048232A (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム | |
Xu et al. | Bare hand gesture recognition with a single color camera | |
CN114510142B (zh) | 基于二维图像的手势识别方法及其系统和电子设备 | |
CN114495272A (zh) | 动作识别方法、装置、存储介质以及计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211104 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211104 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221121 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230616 |