JP2021534482A - ジェスチャー認識方法、ジェスチャー処理方法及び装置 - Google Patents
ジェスチャー認識方法、ジェスチャー処理方法及び装置 Download PDFInfo
- Publication number
- JP2021534482A JP2021534482A JP2021506277A JP2021506277A JP2021534482A JP 2021534482 A JP2021534482 A JP 2021534482A JP 2021506277 A JP2021506277 A JP 2021506277A JP 2021506277 A JP2021506277 A JP 2021506277A JP 2021534482 A JP2021534482 A JP 2021534482A
- Authority
- JP
- Japan
- Prior art keywords
- finger
- state
- hand
- gesture
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Abstract
Description
Claims (45)
- 画像における手部の指の状態を検出することと、
前記指の状態に基づいて前記手部の状態ベクトルを決定することと、
前記手部の状態ベクトルに基づいて前記手部のジェスチャーを特定することと、を含むことを特徴とするジェスチャー認識方法。 - 前記指の状態は、前記指が前記手部の掌の根元部に対して伸ばされているか否か及び/又は伸ばされている度合の状態を示すことを特徴とする請求項1に記載の方法。
- 前記指の状態に基づいて前記手部の状態ベクトルを決定することは、
前記指の状態に基づいて、指の状態ごとに異なる前記指の状態値を決定することと、
前記指の状態値に基づいて前記手部の状態ベクトルを決定することと、を含むことを特徴とする請求項1又は2に記載の方法。 - 前記指の状態は、伸ばしている状態、伸ばしていない状態、半分伸ばしている状態、曲がっている状態のうちの1つ又は複数を含むことを特徴とする請求項1〜3のいずれか一項に記載の方法。
- 前記画像における手部の指の位置情報を検出することと、
前記指の位置情報に基づいて前記手部の位置ベクトルを決定することと、を更に含み、
前記手部の状態ベクトルに基づいて前記手部のジェスチャーを特定することは、
前記手部の状態ベクトルと前記手部の位置ベクトルに基づいて前記手部のジェスチャーを特定することを含むことを特徴とする請求項1〜4のいずれか一項に記載の方法。 - 前記画像における手部の指の位置情報を検出することは、
前記画像における前記手部の指のキーポイントを検出し、前記指のキーポイントの位置情報を取得することを含み、
前記指の位置情報に基づいて前記手部の位置ベクトルを決定することは、
前記指のキーポイントの位置情報に基づいて前記手部の位置ベクトルを決定することを含むことを特徴とする請求項5に記載の方法。 - 前記画像における前記手部の指のキーポイントを検出し、前記指のキーポイントの位置情報を取得することは、
前記画像における前記手部の、伸ばしていない状態以外の指のキーポイントを検出し、前記キーポイントの位置情報を取得することを含むことを特徴とする請求項6に記載の方法。 - 前記キーポイントは指先及び/又は指の関節を含むことを特徴とする請求項7に記載の方法。
- 画像における手部の指の状態を検出することは、
前記画像をニューラルネットワークに入力して、前記ニューラルネットワークにより前記画像における手部の指の状態を検出することを含むことを特徴とする請求項1〜8のいずれか一項に記載の方法。 - 前記ニューラルネットワークは複数の状態分岐ネットワークを含み、前記ニューラルネットワークにより前記画像における手部の指の状態を検出することは、
前記ニューラルネットワークの異なる状態分岐ネットワークにより前記画像における手部の異なる指の状態をそれぞれ検出することを含むことを特徴とする請求項9に記載の方法。 - 前記ニューラルネットワークは位置分岐ネットワークを更に含み、前記画像における手部の指の位置情報を検出することは、
前記ニューラルネットワークの前記位置分岐ネットワークにより前記画像における前記手部の指の位置情報を検出することを含むことを特徴とする請求項9又は10に記載の方法。 - 前記ニューラルネットワークは、予めラベル情報を有するサンプル画像を用いてトレーニングされたものであり、前記ラベル情報は、前記指の状態を示す第1のラベル情報、及び/又は、前記指の位置情報又はキーポイントの位置情報を示す第2のラベル情報を含むことを特徴とする請求項9〜11のいずれか一項に記載の方法。
- 前記サンプル画像において、伸ばしていない状態の指について第2のラベル情報が付けされないことを特徴とする請求項12に記載の方法。
- 前記第1のラベル情報は各指の状態を示す第1のマーク値から構成される状態ベクトルを含み、
前記第2のラベル情報は各指の位置情報又はキーポイントの位置情報をマークする第2のマーク値から構成される位置ベクトルを含むことを特徴とする請求項12又は13に記載の方法。 - 前記ニューラルネットワークのトレーニングには、
手部のサンプル画像をニューラルネットワークに入力して手部の指の状態を取得することと、
前記指の状態に基づいて指の位置重みを決定することと、
前記指の状態と前記位置重みに基づいて、前記ニューラルネットワークによるジェスチャー予測結果の損失を決定することと、
前記ニューラルネットワークに前記損失を逆伝搬して、前記ニューラルネットワークのネットワークパラメータを調整することと、を含むことを特徴とする請求項9〜14のいずれか一項に記載の方法。 - 手部のサンプル画像をニューラルネットワークに入力して手部の指の状態を取得することは、
手部のサンプル画像をニューラルネットワークに入力して手部の指の状態と位置情報を取得することを含み、
前記指の状態と前記位置重みに基づいて、前記ニューラルネットワークによるジェスチャー予測結果の損失を決定することは、
前記指の状態、前記位置情報及び前記位置重みに基づいて、前記ニューラルネットワークによるジェスチャー予測結果の損失を決定することを含むことを特徴とする請求項15に記載の方法。 - 前記指の状態に基づいて前記指の位置重みを決定することは、
指の状態が伸ばしていない状態である場合に、前記指の位置重みをゼロにすることを含むことを特徴とする請求項15又は16に記載の方法。 - 画像を取得することと、
請求項1〜17のいずれか一項に記載の方法を用いて前記画像に含まれる手部のジェスチャーを認識することと、
ジェスチャーの認識結果に対応する制御操作を実行することと、を含むことを特徴とするジェスチャー処理方法。 - ジェスチャーの認識結果に対応する操作制御を実行することは、
予め設定されたジェスチャーと制御指令とのマッピング関係により、ジェスチャーの認識結果に対応する制御指令を取得することと、
前記制御指令に基づいて、電子機器が対応する操作を実行するように制御することと、を含むことを特徴とする請求項18に記載の方法。 - ジェスチャーの認識結果に対応する操作制御を実行することは、
予め設定されたジェスチャーと特殊効果とのマッピング関係により、ジェスチャーの認識結果に対応する特殊効果を特定することと、
コンピュータグラフィックスにより前記画像に前記特殊効果を作成することと、を含むことを特徴とする請求項18に記載の方法。 - コンピュータグラフィックスにより前記画像に前記特殊効果を作成することは、
前記画像に含まれる手部又は手部の指のキーポイントに基づいて、コンピュータグラフィックスにより前記特殊効果を作成することを含むことを特徴とする請求項20に記載の方法。 - 画像における手部の指の状態を検出するための状態検出モジュールと、
前記指の状態に基づいて前記手部の状態ベクトルを決定するための状態ベクトル取得モジュールと、
前記手部の状態ベクトルに基づいて前記手部のジェスチャーを特定するためのジェスチャー特定モジュールと、を含むことを特徴とするジェスチャー認識装置。 - 前記指の状態は、前記指が前記手部の掌の根元部に対して伸ばされているか否か及び/又は伸ばされている度合の状態を示すことを特徴とする請求項22に記載の装置。
- 前記状態ベクトル取得モジュールは、
前記指の状態に基づいて、指の状態ごとに異なる前記指の状態値を決定するための状態値取得サブモジュールと、
前記指の状態値に基づいて前記手部の状態ベクトルを決定するための第1の状態ベクトル取得サブモジュールと、を含むことを特徴とする請求項22又は23に記載の装置。 - 前記指の状態は、伸ばしている状態、伸ばしていない状態、半分伸ばしている状態、曲がっている状態のうちの1つ又は複数を含むことを特徴とする請求項22〜24のいずれか一項に記載の装置。
- 前記画像における手部の指の位置情報を検出するための位置情報取得モジュールと、
前記指の位置情報に基づいて前記手部の位置ベクトルを決定するための位置ベクトル取得モジュールと、を更に含み、
前記ジェスチャー特定モジュールは、
前記手部の状態ベクトルと前記手部の位置ベクトルに基づいて前記手部のジェスチャーを特定するための第1のジェスチャー特定サブモジュールを含むことを特徴とする請求項22〜25のいずれか一項に記載の装置。 - 前記位置情報取得モジュールは、
前記画像における前記手部の指のキーポイントを検出し、前記指のキーポイントの位置情報を取得するためのキーポイント検出サブモジュールを含み、
前記位置ベクトル取得モジュールは、
前記指のキーポイントの位置情報に基づいて前記手部の位置ベクトルを決定するための第1の位置ベクトル取得サブモジュールを含むことを特徴とする請求項26に記載の装置。 - 前記キーポイント検出サブモジュールは、
前記画像における前記手部の、伸ばしていない状態以外の指のキーポイントを検出し、前記キーポイントの位置情報を取得するために用いられることを特徴とする請求項27に記載の装置。 - 前記キーポイントは指先及び/又は指の関節を含むことを特徴とする請求項28に記載の装置。
- 前記状態検出モジュールは、
前記画像をニューラルネットワークに入力して、前記ニューラルネットワークにより前記画像における手部の指の状態を検出するための第1の状態検出サブモジュールを含むことを特徴とする請求項22〜29のいずれか一項に記載の方法。 - 前記ニューラルネットワークは複数の状態分岐ネットワークを含み、前記第1の状態検出サブモジュールは、
前記ニューラルネットワークの異なる状態分岐ネットワークにより前記画像における手部の異なる指の状態をそれぞれ検出するために用いられることを特徴とする請求項30に記載の装置。 - 前記ニューラルネットワークは位置分岐ネットワークを更に含み、前記位置情報取得モジュールは、
前記ニューラルネットワークの前記位置分岐ネットワークにより前記画像における前記手部の指の位置情報を検出するための第1の位置情報取得サブモジュールを含むことを特徴とする請求項30又は31に記載の装置。 - 前記ニューラルネットワークは、予めラベル情報を有するサンプル画像を用いてトレーニングされたものであり、前記ラベル情報は、前記指の状態を示す第1のラベル情報、及び/又は、前記指の位置情報又はキーポイントの位置情報を示す第2のラベル情報を含むことを特徴とする請求項30〜32のいずれか一項に記載の装置。
- 前記サンプル画像において、伸ばしていない状態の指について第2のラベル情報が付けされないことを特徴とする請求項33に記載の装置。
- 前記第1のラベル情報は各指の状態を示す第1のマーク値から構成される状態ベクトルを含み、
前記第2のラベル情報は各指の位置情報又はキーポイントの位置情報をマークする第2のマーク値から構成される位置ベクトルを含むことを特徴とする請求項33又は34に記載の装置。 - 前記ニューラルネットワークは、トレーニングモジュールを含み、前記トレーニングモジュールは、
手部のサンプル画像をニューラルネットワークに入力して手部の指の状態を取得するための状態取得サブモジュールと、
前記指の状態に基づいて指の位置重みを決定するための位置重み決定サブモジュールと、
前記指の状態と前記位置重みに基づいて、前記ニューラルネットワークによるジェスチャー予測結果の損失を決定するための損失決定サブモジュールと、
前記ニューラルネットワークに前記損失を逆伝搬して、前記ニューラルネットワークのネットワークパラメータを調整するための逆伝搬サブモジュールと、を備えることを特徴とする請求項30〜35のいずれか一項に記載の装置。 - 前記状態取得サブモジュールは、
手部のサンプル画像をニューラルネットワークに入力して手部の指の状態と位置情報を取得するために用いられ、
前記損失決定サブモジュールは、
前記指の状態、前記位置情報及び前記位置重みに基づいて、前記ニューラルネットワークによるジェスチャー予測結果の損失を決定するために用いられることを特徴とする請求項36に記載の装置。 - 前記位置重み決定サブモジュールは、
指の状態が伸ばしていない状態である場合に、前記指の位置重みをゼロにするために用いられることを特徴とする請求項36又は37に記載の装置。 - 画像を取得するための画像取得モジュールと、
請求項22〜38のいずれか一項に記載の装置を用いて前記画像に含まれる手部のジェスチャーを認識するためのジェスチャー取得モジュールと、
ジェスチャーの認識結果に対応する制御操作を実行するための操作実行モジュールと、を含むことを特徴とするジェスチャー処理装置。 - 前記操作実行モジュールは、
予め設定されたジェスチャーと制御指令とのマッピング関係により、ジェスチャーの認識結果に対応する制御指令を取得するための制御指令取得サブモジュールと、
前記制御指令に基づいて、電子機器が対応する操作を実行するように制御するための操作実行サブモジュールと、を含むことを特徴とする請求項39に記載の装置。 - 前記操作実行モジュールは、
予め設定されたジェスチャーと特殊効果とのマッピング関係により、ジェスチャーの認識結果に対応する特殊効果を特定するための特殊効果特定サブモジュールと、
コンピュータグラフィックスにより前記画像に前記特殊効果を作成するための特殊効果実行サブモジュールと、を含むことを特徴とする請求項39に記載の装置。 - 前記特殊効果実行サブモジュールは、
前記画像に含まれる手部又は手部の指キーポイントに基づいて、コンピュータグラフィックスにより前記特殊効果を作成するために用いられることを特徴とする請求項41に記載の装置。 - プロセッサと、
プロセッサにより実行可能なコマンドを記憶するためのメモリと、を含み、
前記プロセッサは前記実行可能なコマンドを呼び出すことによって請求項1〜21のいずれか一項に記載の方法を実現することを特徴とする電子機器。 - コンピュータプログラムコマンドが記憶されているコンピュータ読取可能記憶媒体であって、前記コンピュータプログラムコマンドは、プロセッサにより実行されると、請求項1〜21のいずれか一項に記載の方法を実現させることを特徴とするコンピュータ読取可能記憶媒体。
- コンピュータ読取可能コードを含むコンピュータプログラムであって、前記コンピュータ読取可能コードは、電子機器で実行されると、前記電子機器のプロセッサに請求項1〜21のいずれか一項に記載の方法を実現するためのコマンドを実行させることを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810942882.1 | 2018-08-17 | ||
CN201810942882.1A CN110837766B (zh) | 2018-08-17 | 2018-08-17 | 手势识别方法、手势处理方法及装置 |
PCT/CN2019/092559 WO2020034763A1 (zh) | 2018-08-17 | 2019-06-24 | 手势识别方法、手势处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021534482A true JP2021534482A (ja) | 2021-12-09 |
JP7266667B2 JP7266667B2 (ja) | 2023-04-28 |
Family
ID=69525088
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021506277A Active JP7266667B2 (ja) | 2018-08-17 | 2019-06-24 | ジェスチャー認識方法、ジェスチャー処理方法及び装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210158031A1 (ja) |
JP (1) | JP7266667B2 (ja) |
KR (1) | KR20210040435A (ja) |
CN (1) | CN110837766B (ja) |
SG (1) | SG11202101142PA (ja) |
WO (1) | WO2020034763A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112527113A (zh) * | 2020-12-09 | 2021-03-19 | 北京地平线信息技术有限公司 | 手势识别及手势识别网络的训练方法和装置、介质和设备 |
CN112947755A (zh) * | 2021-02-24 | 2021-06-11 | Oppo广东移动通信有限公司 | 手势控制方法与装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008530661A (ja) * | 2005-02-08 | 2008-08-07 | オブロング・インダストリーズ・インコーポレーテッド | ジェスチャベースの制御システムのためのシステムおよび方法 |
JP2014182662A (ja) * | 2013-03-19 | 2014-09-29 | Stanley Electric Co Ltd | 操作装置及び操作方法 |
CN105868715A (zh) * | 2016-03-29 | 2016-08-17 | 苏州科达科技股份有限公司 | 一种手势识别方法、装置及手势学习系统 |
CN108229277A (zh) * | 2017-03-31 | 2018-06-29 | 北京市商汤科技开发有限公司 | 手势识别、控制及神经网络训练方法、装置及电子设备 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101577062B (zh) * | 2008-12-30 | 2012-07-25 | 浙江工业大学 | 一种基于空间编码的手语运动信息与文本信息相互转换的实现方法 |
CN102368290B (zh) * | 2011-09-02 | 2012-12-26 | 华南理工大学 | 一种基于手指高级特征的手势识别方法 |
JP6494926B2 (ja) * | 2014-05-28 | 2019-04-03 | 京セラ株式会社 | 携帯端末、ジェスチャ制御プログラムおよびジェスチャ制御方法 |
CN106295612A (zh) * | 2016-08-23 | 2017-01-04 | 广西科技大学 | 一种手部康复训练中手指运动的视觉监测方法 |
CN106709461B (zh) * | 2016-12-28 | 2019-09-17 | 中国科学院深圳先进技术研究院 | 基于视频的行为识别方法及装置 |
CN108230352B (zh) * | 2017-01-24 | 2021-02-26 | 北京市商汤科技开发有限公司 | 目标对象的检测方法、装置和电子设备 |
CN107563494B (zh) * | 2017-08-01 | 2020-08-18 | 华南理工大学 | 一种基于卷积神经网络和热图的第一视角指尖检测方法 |
CN107808143B (zh) * | 2017-11-10 | 2021-06-01 | 西安电子科技大学 | 基于计算机视觉的动态手势识别方法 |
CN108227912B (zh) * | 2017-11-30 | 2021-05-11 | 北京市商汤科技开发有限公司 | 设备控制方法和装置、电子设备、计算机存储介质 |
-
2018
- 2018-08-17 CN CN201810942882.1A patent/CN110837766B/zh active Active
-
2019
- 2019-06-24 KR KR1020217007082A patent/KR20210040435A/ko not_active Application Discontinuation
- 2019-06-24 SG SG11202101142PA patent/SG11202101142PA/en unknown
- 2019-06-24 WO PCT/CN2019/092559 patent/WO2020034763A1/zh active Application Filing
- 2019-06-24 JP JP2021506277A patent/JP7266667B2/ja active Active
-
2021
- 2021-02-03 US US17/166,238 patent/US20210158031A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008530661A (ja) * | 2005-02-08 | 2008-08-07 | オブロング・インダストリーズ・インコーポレーテッド | ジェスチャベースの制御システムのためのシステムおよび方法 |
JP2014182662A (ja) * | 2013-03-19 | 2014-09-29 | Stanley Electric Co Ltd | 操作装置及び操作方法 |
CN105868715A (zh) * | 2016-03-29 | 2016-08-17 | 苏州科达科技股份有限公司 | 一种手势识别方法、装置及手势学习系统 |
CN108229277A (zh) * | 2017-03-31 | 2018-06-29 | 北京市商汤科技开发有限公司 | 手势识别、控制及神经网络训练方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
SG11202101142PA (en) | 2021-03-30 |
CN110837766B (zh) | 2023-05-05 |
KR20210040435A (ko) | 2021-04-13 |
US20210158031A1 (en) | 2021-05-27 |
CN110837766A (zh) | 2020-02-25 |
JP7266667B2 (ja) | 2023-04-28 |
WO2020034763A1 (zh) | 2020-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6944051B2 (ja) | キーポイント検出方法及び装置、電子機器並びに記憶媒体 | |
CN110348524B (zh) | 一种人体关键点检测方法及装置、电子设备和存储介质 | |
WO2021135601A1 (zh) | 辅助拍照方法、装置、终端设备及存储介质 | |
US11383166B2 (en) | Interaction method of application scene, mobile terminal, and storage medium | |
JP2022524262A (ja) | 目標対象物の検出方法、目標対象物の検出装置、電子機器、記憶媒体及びコンピュータプログラム | |
KR20220053670A (ko) | 목표 대상물 매칭 방법 및 장치, 전자 기기 및 기억 매체 | |
CN110991327A (zh) | 交互方法及装置、电子设备和存储介质 | |
CN105320262A (zh) | 操作虚拟世界里的电脑和手机的方法、装置以及使用其的眼镜 | |
KR102321562B1 (ko) | 동적 동작 검출 방법, 동적 동작 제어 방법 및 장치 | |
CN110889382A (zh) | 虚拟形象渲染方法及装置、电子设备和存储介质 | |
JP2021531589A (ja) | 目標対象の動作認識方法、装置及び電子機器 | |
US20190384419A1 (en) | Handheld controller, tracking method and system using the same | |
JP2022506637A (ja) | 画像処理方法および装置、ネットワークトレーニング方法および装置 | |
US20210158031A1 (en) | Gesture Recognition Method, and Electronic Device and Storage Medium | |
CN112540696A (zh) | 屏幕触控管理方法、智能终端、装置及可读存储介质 | |
CN111242303A (zh) | 网络训练方法及装置、图像处理方法及装置 | |
CN110929616B (zh) | 一种人手识别方法、装置、电子设备和存储介质 | |
WO2022111458A1 (zh) | 图像拍摄方法和装置、电子设备及存储介质 | |
JP2023511156A (ja) | 撮影方法及び電子機器 | |
CN110135329B (zh) | 从视频中提取姿势的方法、装置、设备及存储介质 | |
CN113642551A (zh) | 指甲关键点检测方法、装置、电子设备及存储介质 | |
CN111611414A (zh) | 车辆检索方法、装置及存储介质 | |
CN114821799A (zh) | 基于时空图卷积网络的动作识别方法、装置和设备 | |
CN114266305A (zh) | 对象识别方法及装置、电子设备和存储介质 | |
CN117555412A (zh) | 交互方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210204 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220531 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230208 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20230208 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230228 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230307 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230418 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7266667 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |