JPWO2019168190A1 - 操作推定装置、操作推定方法、及びプログラム - Google Patents
操作推定装置、操作推定方法、及びプログラム Download PDFInfo
- Publication number
- JPWO2019168190A1 JPWO2019168190A1 JP2020503667A JP2020503667A JPWO2019168190A1 JP WO2019168190 A1 JPWO2019168190 A1 JP WO2019168190A1 JP 2020503667 A JP2020503667 A JP 2020503667A JP 2020503667 A JP2020503667 A JP 2020503667A JP WO2019168190 A1 JPWO2019168190 A1 JP WO2019168190A1
- Authority
- JP
- Japan
- Prior art keywords
- coordinate
- coordinates
- gesture operation
- condition
- determination unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Abstract
Description
深度画像に撮像された人体部位に対応する人体部位画像に基づいて、前記人体部位画像の特徴を示す第一の座標を算出する、第一の座標算出部と、
前記第一の座標と異なる、前記人体部位画像の特徴を示す第二の座標を算出する、第二の座標算出部と、
前記第一の座標に対する前記第二の座標の位置が、予め決めた開始位置を示す開始位置条件に含まれる場合、ジェスチャ操作を開始したと判定する、開始判定部と、
前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の移動方向が、予め設定した移動方向を示す移動方向条件に含まれ、かつ前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の移動距離が、予め設定した移動距離を示す移動距離条件に含まれ、かつ前記第一の座標に対する前記第二の座標の位置が、予め設定した終了位置を示す終了位置条件に含まれる場合、前記ジェスチャ操作が終了したと判定する、終了判定部と、
を有することを特徴とする。
(a)深度画像に撮像された人体部位に対応する人体部位画像に基づいて、前記人体部位画像の特徴を示す第一の座標を算出する、ステップと、
(b)前記第一の座標と異なる、前記人体部位画像の特徴を示す第二の座標を算出する、ステップと、
(c)前記第一の座標に対する前記第二の座標の位置が、予め設定した開始位置を示す開始位置条件に含まれる場合、ジェスチャ操作を開始したと判定する、ステップと、
(d)前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の前記移動方向が、予め決めた移動方向を示す移動方向条件に含まれ、かつ前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の移動距離が、予め設定した移動距離を示す移動距離条件に含まれ、かつ前記第一の座標に対する前記第二の座標の位置が、予め設定した終了位置を示す終了位置条件に含まれる場合、前記ジェスチャ操作が終了したと判定する、ステップと、
を有することを特徴とする。
コンピュータに、
(a)深度画像に撮像された人体部位に対応する人体部位画像に基づいて、前記人体部位画像の特徴を示す第一の座標を算出する、ステップと、
(b)前記第一の座標と異なる、前記人体部位画像の特徴を示す第二の座標を算出する、ステップと、
(c)前記第一の座標に対する前記第二の座標の位置が、予め設定した開始位置を示す開始条件を示す位置に含まれる場合、ジェスチャ操作を開始したと判定する、ステップと、
(d)前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の前記移動方向が、予め決めた移動方向を示す移動方向条件に含まれ、かつ前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の移動距離が、予め設定した移動距離を示す移動距離条件に含まれ、かつ前記第一の座標に対する前記第二の座標の位置が、予め設定した終了位置を示す終了位置条件に含まれる場合、前記ジェスチャ操作が終了したと判定する、ステップと、
を実行させる命令を含むプログラムを記録していることを特徴とする。
以下、本発明の実施の形態における操作推定装置、操作推定方法、及び操作推定プログラムについて、図1から図7を参照しながら説明する。
最初に、本実施の形態における操作推定装置の構成について説明する。図1は、操作推定装置の一例を示す図である。図1に示すように、操作推定装置1は、第一の座標算出部2と、第二の座標算出部3と、開始判定部4と、終了判定部5とを有する。
続いて、図2、図3を用いて、操作推定装置1及び操作推定装置1を有するシステムについて具体的に説明する。図2は、操作推定装置を有するシステムの一例を示す図である。操作推定システム20は、操作推定装置1と、深度センサ21とを有する。開始判定部4は、開始位置判定部22と、開始方向判定部23とを有する。終了判定部5は、少なくとも移動方向判定部24と、移動距離判定部25と、加速度判定部26とを有する。
次に、本発明の実施の形態における操作推定装置1の動作について図4を用いて概略を説明する。図4は、操作推定装置の動作の一例を示す図である。以下の説明においては、適宜図1から3を参酌する。また、本実施の形態では、操作推定装置1を動作させることによって、操作推定方法が実施される。よって、本実施の形態における操作推定方法の説明は、以下の操作推定装置1の動作説明に代える。
以上のように本実施の形態によれば、人体部位画像から算出した第一の座標と第二の座標とが、ジェスチャ操作ごとに設定された、上述した開始位置条件、移動方向条件、移動距離条件、終了位置条件を満たした場合、利用者が当該ジェスチャ操作をしたと推定する。そうすることで、ジェスチャ操作を推定する精度を向上させることができる。
本発明の実施の形態におけるプログラムは、コンピュータに、図4に示すステップA1、A2、図5に示すステップA51からA64を実行させるプログラムであればよい。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における操作推定装置と操作推定方法とを実現することができる。この場合、コンピュータのプロセッサは、第一の座標算出部2、第二の座標算出部3、開始判定部4、終了判定部5として機能し、処理を行なう。
ここで、実施の形態におけるプログラムを実行することによって、操作推定装置1を実現するコンピュータについて図7を用いて説明する。図7は、本発明の実施の形態における操作推定装置1を実現するコンピュータの一例を示すブロック図である。
以上の実施の形態に関し、更に以下の付記を開示する。なお、上述した実施の形態の一部又は全部は、以下に記載する(付記1)から(付記6)によって表現することができるが、以下の記載に限定されるものではない。
深度画像に撮像された人体部位に対応する人体部位画像に基づいて、前記人体部位画像の特徴を示す第一の座標を算出する、第一の座標算出部と、
前記第一の座標と異なる、前記人体部位画像の特徴を示す第二の座標を算出する、第二の座標算出部と、
前記第一の座標に対する前記第二の座標の位置が、予め決めた開始位置を示す開始位置条件に含まれる場合、ジェスチャ操作を開始したと判定する、開始判定部と、
前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の移動方向が、予め設定した移動方向を示す移動方向条件に含まれ、かつ前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の移動距離が、予め設定した移動距離を示す移動距離条件に含まれ、かつ前記第一の座標に対する前記第二の座標の位置が、予め設定した終了位置を示す終了位置条件に含まれる場合、前記ジェスチャ操作が終了したと判定する、終了判定部と、
を有することを特徴とする操作推定装置。
付記1に記載の操作推定装置であって
前記終了判定部は、更に、前記ジェスチャ操作を開始した後、時系列に取得した前記深度画像を用いて、前記深度画像間の前記第一の座標又は前記第二の座標又はそれら両方の加速度を算出し、算出した前記加速度が、予め設定した加速度を示す加速度条件に含まれる場合、前記ジェスチャ操作が終了したと判定する
ことを特徴とする操作推定装置。
(a)深度画像に撮像された人体部位に対応する人体部位画像に基づいて、前記人体部位画像の特徴を示す第一の座標を算出する、ステップと、
(b)前記第一の座標と異なる、前記人体部位画像の特徴を示す第二の座標を算出する、ステップと、
(c)前記第一の座標に対する前記第二の座標の位置が、予め設定した開始位置を示す開始位置条件に含まれる場合、ジェスチャ操作を開始したと判定する、ステップと、
(d)前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の移動方向が、予め決めた移動方向を示す移動方向条件に含まれ、かつ前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の移動距離が、予め設定した移動距離を示す移動距離条件に含まれ、かつ前記第一の座標に対する前記第二の座標の位置が、予め設定した終了位置を示す終了位置条件に含まれる場合、前記ジェスチャ操作が終了したと判定する、ステップと、
を有することを特徴とする操作推定方法。
付記3に記載の操作推定方法であって
前記(d)のステップにおいて、更に、前記ジェスチャ操作を開始した後、時系列に取得した前記深度画像を用いて、前記深度画像間の前記第一の座標又は前記第二の座標又はそれら両方の加速度を算出し、算出した前記加速度が、予め設定した加速度を示す加速度条件に含まれる場合、前記ジェスチャ操作が終了したと判定する
ことを特徴とする操作推定方法。
コンピュータに、
(a)深度画像に撮像された人体部位に対応する人体部位画像に基づいて、前記人体部位画像の特徴を示す第一の座標を算出する、ステップと、
(b)前記第一の座標と異なる、前記人体部位画像の特徴を示す第二の座標を算出する、ステップと、
(c)前記第一の座標に対する前記第二の座標の位置が、予め設定した開始位置を示す開始条件を示す位置に含まれる場合、ジェスチャ操作を開始したと判定する、ステップと、
(d)前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の移動方向が、予め決めた移動方向を示す移動方向条件に含まれ、かつ前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の移動距離が、予め設定した移動距離を示す移動距離条件に含まれ、かつ前記第一の座標に対する前記第二の座標の位置が、予め設定した終了位置を示す終了位置条件に含まれる場合、前記ジェスチャ操作が終了したと判定する、ステップと、
を実行させる命令を含む、プログラムを記録したコンピュータ読み取り可能な記録媒体。
付記5に記載のコンピュータ読み取り可能な記録媒体であって、
前記(d)のステップにおいて、更に、前記ジェスチャ操作を開始した後、時系列に取得した前記深度画像を用いて、前記深度画像間の前記第一の座標又は前記第二の座標又はそれら両方の加速度を算出し、算出した前記加速度が、予め設定した加速度を示す加速度条件に含まれる場合、前記ジェスチャ操作が終了したと判定する
ことを特徴とするコンピュータ読み取り可能な記録媒体。
2 第一の座標算出部
3 第二の座標算出部
4 開始判定部
5 終了判定部
20 操作推定システム
21 深度センサ
22 開始位置判定部
23 開始方向判定部
24 移動方向判定部
25 移動距離判定部
26 加速度判定部
27 終了位置判定部
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
コンピュータに、
(a)深度画像に撮像された人体部位に対応する人体部位画像に基づいて、前記人体部位画像の特徴を示す第一の座標を算出する、ステップと、
(b)前記第一の座標と異なる、前記人体部位画像の特徴を示す第二の座標を算出する、ステップと、
(c)前記第一の座標に対する前記第二の座標の位置が、予め設定した開始位置を示す開始条件を示す位置に含まれる場合、ジェスチャ操作を開始したと判定する、ステップと、
(d)前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の前記移動方向が、予め決めた移動方向を示す移動方向条件に含まれ、かつ前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の移動距離が、予め設定した移動距離を示す移動距離条件に含まれ、かつ前記第一の座標に対する前記第二の座標の位置が、予め設定した終了位置を示す終了位置条件に含まれる場合、前記ジェスチャ操作が終了したと判定する、ステップと、
を実行させることを特徴とする。
コンピュータに、
(a)深度画像に撮像された人体部位に対応する人体部位画像に基づいて、前記人体部位画像の特徴を示す第一の座標を算出する、ステップと、
(b)前記第一の座標と異なる、前記人体部位画像の特徴を示す第二の座標を算出する、ステップと、
(c)前記第一の座標に対する前記第二の座標の位置が、予め設定した開始位置を示す開始条件を示す位置に含まれる場合、ジェスチャ操作を開始したと判定する、ステップと、
(d)前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の移動方向が、予め決めた移動方向を示す移動方向条件に含まれ、かつ前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の移動距離が、予め設定した移動距離を示す移動距離条件に含まれ、かつ前記第一の座標に対する前記第二の座標の位置が、予め設定した終了位置を示す終了位置条件に含まれる場合、前記ジェスチャ操作が終了したと判定する、ステップと、
を実行させるプログラム。
付記5に記載のプログラムであって、
前記(d)のステップにおいて、更に、前記ジェスチャ操作を開始した後、時系列に取得した前記深度画像を用いて、前記深度画像間の前記第一の座標又は前記第二の座標又はそれら両方の加速度を算出し、算出した前記加速度が、予め設定した加速度を示す加速度条件に含まれる場合、前記ジェスチャ操作が終了したと判定する
ことを特徴とするプログラム。
Claims (6)
- 深度画像に撮像された人体部位に対応する人体部位画像に基づいて、前記人体部位画像の特徴を示す第一の座標を算出する、第一の座標算出部と、
前記第一の座標と異なる、前記人体部位画像の特徴を示す第二の座標を算出する、第二の座標算出部と、
前記第一の座標に対する前記第二の座標の位置が、予め決めた開始位置を示す開始位置条件に含まれる場合、ジェスチャ操作を開始したと判定する、開始判定部と、
前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の移動方向が、予め設定した移動方向を示す移動方向条件に含まれ、かつ前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の移動距離が、予め設定した移動距離を示す移動距離条件に含まれ、かつ前記第一の座標に対する前記第二の座標の位置が、予め設定した終了位置を示す終了位置条件に含まれる場合、前記ジェスチャ操作が終了したと判定する、終了判定部と、
を有することを特徴とする操作推定装置。 - 請求項1に記載の操作推定装置であって
前記終了判定部は、更に、前記ジェスチャ操作を開始した後、時系列に取得した前記深度画像を用いて、前記深度画像間の前記第一の座標又は前記第二の座標又はそれら両方の加速度を算出し、算出した前記加速度が、予め設定した加速度を示す加速度条件に含まれる場合、前記ジェスチャ操作が終了したと判定する
ことを特徴とする操作推定装置。 - (a)深度画像に撮像された人体部位に対応する人体部位画像に基づいて、前記人体部位画像の特徴を示す第一の座標を算出する、ステップと、
(b)前記第一の座標と異なる、前記人体部位画像の特徴を示す第二の座標を算出する、ステップと、
(c)前記第一の座標に対する前記第二の座標の位置が、予め設定した開始位置を示す開始位置条件に含まれる場合、ジェスチャ操作を開始したと判定する、ステップと、
(d)前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の移動方向が、予め決めた移動方向を示す移動方向条件に含まれ、かつ前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の移動距離が、予め設定した移動距離を示す移動距離条件に含まれ、かつ前記第一の座標に対する前記第二の座標の位置が、予め設定した終了位置を示す終了位置条件に含まれる場合、前記ジェスチャ操作が終了したと判定する、ステップと、
を有することを特徴とする操作推定方法。 - 請求項3に記載の操作推定方法であって
前記(d)のステップにおいて、更に、前記ジェスチャ操作を開始した後、時系列に取得した前記深度画像を用いて、前記深度画像間の前記第一の座標又は前記第二の座標又はそれら両方の加速度を算出し、算出した前記加速度が、予め設定した加速度を示す加速度条件に含まれる場合、前記ジェスチャ操作が終了したと判定する
ことを特徴とする操作推定方法。 - コンピュータに、
(a)深度画像に撮像された人体部位に対応する人体部位画像に基づいて、前記人体部位画像の特徴を示す第一の座標を算出する、ステップと、
(b)前記第一の座標と異なる、前記人体部位画像の特徴を示す第二の座標を算出する、ステップと、
(c)前記第一の座標に対する前記第二の座標の位置が、予め設定した開始位置を示す開始条件を示す位置に含まれる場合、ジェスチャ操作を開始したと判定する、ステップと、
(d)前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の移動方向が、予め決めた移動方向を示す移動方向条件に含まれ、かつ前記ジェスチャ操作を開始した後、取得した複数の前記深度画像に基づいて、算出した前記第一の座標又は前記第二の座標又はそれら両方の移動距離が、予め設定した移動距離を示す移動距離条件に含まれ、かつ前記第一の座標に対する前記第二の座標の位置が、予め設定した終了位置を示す終了位置条件に含まれる場合、前記ジェスチャ操作が終了したと判定する、ステップと、
を実行させる命令を含む、プログラムを記録したコンピュータ読み取り可能な記録媒体。 - 請求項5に記載のコンピュータ読み取り可能な記録媒体であって、
前記(d)のステップにおいて、更に、前記ジェスチャ操作を開始した後、時系列に取得した前記深度画像を用いて、前記深度画像間の前記第一の座標又は前記第二の座標又はそれら両方の加速度を算出し、算出した前記加速度が、予め設定した加速度を示す加速度条件に含まれる場合、前記ジェスチャ操作が終了したと判定する
ことを特徴とするコンピュータ読み取り可能な記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018037917 | 2018-03-02 | ||
JP2018037917 | 2018-03-02 | ||
PCT/JP2019/008249 WO2019168190A1 (ja) | 2018-03-02 | 2019-03-01 | 操作推定装置、操作推定方法、及びコンピュータ読み取り可能な記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019168190A1 true JPWO2019168190A1 (ja) | 2021-02-12 |
JP6958951B2 JP6958951B2 (ja) | 2021-11-02 |
Family
ID=67806338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020503667A Active JP6958951B2 (ja) | 2018-03-02 | 2019-03-01 | 操作推定装置、操作推定方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6958951B2 (ja) |
WO (1) | WO2019168190A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014038527A (ja) * | 2012-08-17 | 2014-02-27 | Nec System Technologies Ltd | 入力装置、入力方法、及びプログラム |
JP2016511492A (ja) * | 2013-03-15 | 2016-04-14 | クアルコム,インコーポレイテッド | 少なくとも2つの制御オブジェクトを用いて行われるジェスチャの検出 |
WO2016056260A1 (ja) * | 2014-10-07 | 2016-04-14 | 株式会社ログバー | ジェスチャ入力時におけるノイズ除去方法 |
JP2017224161A (ja) * | 2016-06-15 | 2017-12-21 | 株式会社東海理化電機製作所 | ジェスチャ判定装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6349800B2 (ja) * | 2014-03-12 | 2018-07-04 | オムロン株式会社 | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 |
-
2019
- 2019-03-01 WO PCT/JP2019/008249 patent/WO2019168190A1/ja active Application Filing
- 2019-03-01 JP JP2020503667A patent/JP6958951B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014038527A (ja) * | 2012-08-17 | 2014-02-27 | Nec System Technologies Ltd | 入力装置、入力方法、及びプログラム |
JP2016511492A (ja) * | 2013-03-15 | 2016-04-14 | クアルコム,インコーポレイテッド | 少なくとも2つの制御オブジェクトを用いて行われるジェスチャの検出 |
WO2016056260A1 (ja) * | 2014-10-07 | 2016-04-14 | 株式会社ログバー | ジェスチャ入力時におけるノイズ除去方法 |
JP2017224161A (ja) * | 2016-06-15 | 2017-12-21 | 株式会社東海理化電機製作所 | ジェスチャ判定装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6958951B2 (ja) | 2021-11-02 |
WO2019168190A1 (ja) | 2019-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9122341B2 (en) | Resolving merged touch contacts | |
US20080143676A1 (en) | Information input device and method and medium for inputting information in 3D space | |
KR102035166B1 (ko) | 전자기기, 그 제어방법 및 기억매체 | |
KR101372122B1 (ko) | 터치스크린에서의 벡터 기반 제스처를 보정하는 방법 및 그 장치 | |
JP2013186648A (ja) | 情報処理装置およびその制御方法 | |
US11216064B2 (en) | Non-transitory computer-readable storage medium, display control method, and display control apparatus | |
JP2021519970A (ja) | ビデオオブジェクト検出 | |
TW201716931A (zh) | 用以執行影像處理方法的非暫時性電腦可讀取媒體,以及使用此影像處理方法的影像感測裝置 | |
US9891730B2 (en) | Information processing apparatus, information processing method therefor, and non-transitory storage medium | |
JP6212201B2 (ja) | マルチフィンガータッチインタラクション中のパンおよびスケーリングの検出 | |
JP6958951B2 (ja) | 操作推定装置、操作推定方法、及びプログラム | |
WO2018098960A1 (zh) | 一种触屏设备操作方法及触屏设备 | |
US8773382B2 (en) | Computer-readable storage medium, coordinate processing apparatus, coordinate processing system, and coordinate processing method | |
JP6892155B2 (ja) | 人体部位推定装置、人体部位推定方法、及びプログラム | |
JP6697567B2 (ja) | 歩数計数装置、歩数計数方法、およびプログラム | |
US20220283702A1 (en) | Touch input device, touch input method and recording medium recording touch input program | |
JP2015191250A (ja) | 情報処理装置、及びその制御方法、プログラム、記録媒体 | |
US20120299837A1 (en) | Identifying contacts and contact attributes in touch sensor data using spatial and temporal features | |
US20140201687A1 (en) | Information processing apparatus and method of controlling information processing apparatus | |
CN112800820A (zh) | 面部检测方法和设备 | |
KR20210058614A (ko) | 적응적인 임계치를 이용한 얼굴 검출 방법 및 장치 | |
US10558270B2 (en) | Method for determining non-contact gesture and device for the same | |
JP7283734B2 (ja) | 追跡装置、追跡方法、及びプログラム | |
JP7120690B2 (ja) | 関節位置推定装置、関節位置推定方法およびプログラム | |
JP7283735B2 (ja) | 追跡装置、追跡方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200818 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200818 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210427 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210615 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210907 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210930 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6958951 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |