JP2013533561A - ジェスチャーに基づく人間と機械のインタラクション方法およびシステム、コンピュータ記録媒体 - Google Patents
ジェスチャーに基づく人間と機械のインタラクション方法およびシステム、コンピュータ記録媒体 Download PDFInfo
- Publication number
- JP2013533561A JP2013533561A JP2013520959A JP2013520959A JP2013533561A JP 2013533561 A JP2013533561 A JP 2013533561A JP 2013520959 A JP2013520959 A JP 2013520959A JP 2013520959 A JP2013520959 A JP 2013520959A JP 2013533561 A JP2013533561 A JP 2013533561A
- Authority
- JP
- Japan
- Prior art keywords
- color block
- color
- coordinates
- probability distribution
- obtaining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 230000003993 interaction Effects 0.000 title claims abstract description 36
- 238000006243 chemical reaction Methods 0.000 claims abstract description 9
- 238000012545 processing Methods 0.000 claims description 24
- 238000009499 grossing Methods 0.000 claims description 13
- 239000003086 colorant Substances 0.000 claims description 9
- 238000012937 correction Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 claims description 7
- 230000008602 contraction Effects 0.000 claims description 4
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03543—Mice or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【解決手段】当該システムは取得モジュール、位置決めモジュールおよび変換モジュールを含む。当該方法は、ユーザのビデオストリームの中から画像を取得するステップ101と、前景の中から三つ以上の予め設けられた色ブロックの座標を取得するステップ102と、第一色ブロックの座標によりマウスの移動をシミュレートし、その他の色ブロックの座標によりマウスのクリック操作をシミュレートするステップ103と、を含む。
【選択図】図1
Description
図1は、本実施形態に係るジェスチャーに基づく人間と機械のインタラクション方法のフローチャートである。
ユーザのビデオストリームを取得し、ビデオストリームの中から画像を取得する。
前景の中から三つ以上の予め設けられた色ブロックの座標を取得する。
第一色ブロックの座標によりマウスの移動をシミュレートし、その他の色ブロックの座標によりマウスのクリック操作をシミュレートする。
本発明に係る第二実施形態は、第一実施形態を改善したものであって、そのフローチャートは図2に示すとおりである。
カメラによりユーザのビデオストリームを取得し、ビデオストリームの中から画像を抽出する。
それぞれの画像について処理を行い、画像中の背景を除去して、前景を取得する。既存のオフィス、家庭内で使用する際、ビデオ映像における背景の変化は比較的小さいため、ビデオストリームの中から背景をとても簡単に確定できる。ステップ202は具体的には、次のステップを含む。
CodeBookアルゴリズムにより背景モデルを作成し、マスク画像を生成する。当該マスク画像は、当該処理された画像と同じサイズにすることができ、また、白色で前景を示し、黒色で背景を示すことができる。
当該マスク画像と当該処理された画像をマッチングし、対応する画像部分を除去する。当該マスク画像は、一つあるだけでよく、当該背景モデルによりそれぞれの画像の背景を除去して、前景を取得する。
予め設けられた色ブロック・テンプレートにより、それぞれの予め設けられた色ブロックに対応するヒストグラムを取得する。
ステップ201により取得した画像、およびステップ203により取得した三つの色ブロックのヒストグラムを取得する。BackProjection(逆投影)アルゴリズムにより、それぞれの色ブロックの確率分布図を算出する。
取得した確率分布図について処理を行い、上述の確率分布図をさらに最適化する。
上述の確率分布図に対して収縮処理を行い、ノイズを除去する。
上述の確率分布図に対してガウス平滑化処理を行い、さらに、ガウス平滑化処理された確率分布図に対して閾値分割を行う。画像の閾値分割とは、予め設けられた閾値に対し、画像のピクセルが閾値未満である場合、当該ピクセルを前景とみなし、画像のピクセルが閾値以上である場合、当該ピクセルを背景とみなす。
CAMShift(Continuously Apative Mean−Shift)アルゴリズムにより確率分布図の質量中心を追跡して、上述した三つの色ブロックの中心点座標を取得する。
取得した三つの色ブロックの中心点座標をマウスの操作情報に変換する。
図3は、本実施形態に係るジェスチャーに基づく人間と機械のインタラクションシステムの構成を示すブロック図である。当該システムは、取得モジュール1、位置決めモジュール2および変換モジュール3を含む。
本発明に係る第四実施形態は、第三実施形態を改善したものであって、その構成は図4に示すとおりである。当該システムは、取得モジュール1、位置決めモジュール2および変換モジュール3を含む。
2 位置決めモジュール、
21 背景分割ユニット、
211 マスク画像サブユニット、
212 除去サブユニット、
22 ヒストグラムユニット、
23 確率分布ユニット、
24 修正ユニット、
25 色ブロック位置決めユニット、
3 変換モジュール。
Claims (18)
- ユーザのビデオストリームの中から画像を取得するステップと、
前景の中から三つ以上の予め設けられた色ブロックの座標を取得するステップと、
第一色ブロックの座標によりマウスの移動をシミュレートし、その他の色ブロックの座標によりマウスのクリック操作をシミュレートするステップと、
を含むことを特徴とするジェスチャーに基づく人間と機械のインタラクション方法。 - 前記ユーザのビデオストリームを取得し、ビデオストリームの中から画像を取得するステップは、
カメラによりユーザのビデオストリームを取得して、ビデオストリームの中から連続する画像または所定値の間隔で断続する画像を取得する、
ことを特徴とする請求項1に記載のジェスチャーに基づく人間と機械のインタラクション方法。 - 前記前景の中から三つ以上の予め設けられた色ブロックの座標を取得するステップは、
背景モデルを作成して、マスク画像を生成し、当該マスク画像により前記画像の背景を除去するステップと、
予め設けられた第一色ブロック、第二色ブロック、第三色ブロックのテンプレートを取得し、前記画像により前記それぞれの色ブロックのヒストグラムを生成するステップと、
前記それぞれの色ブロックのヒストグラムからそれぞれの色ブロックの確率分布図を算出するステップと、
前記確率分布図の前記それぞれの色ブロックの質量中心を取得することにより前記三つの色ブロックの座標を取得するステップと、
を含むことを特徴とする請求項2に記載のジェスチャーに基づく人間と機械のインタラクション方法。 - 前記その他の色ブロックの座標によりマウスのクリック操作をシミュレートするステップは、
前記第二色ブロックと第三色ブロックの座標間の直線距離を取得し、前記直線距離が予め設定された閾値より小さい場合、前記マウスの左ボタンが押下されたとシミュレートし、前記直線距離が前記閾値以上である場合、左ボタンの押下が解放されたとシミュレートする、
ことを特徴とする請求項3に記載のジェスチャーに基づく人間と機械のインタラクション方法。 - 前記予め設けられた色ブロックのテンプレートを取得することは、指に三つの色の異なる指カバーをつけ、前記指カバーの色を色ブロックのテンプレートとして記録する、
ことを特徴とする請求項4に記載のジェスチャーに基づく人間と機械のインタラクション方法。 - 前記それぞれの色ブロックのヒストグラムからそれぞれの色ブロックの確率分布図を算出するステップの後に、さらに、
前記確率分布図に対して収縮処理を行い、ノイズを除去するステップと、
前記確率分布図に対してガウス平滑化処理を行い、さらに、ガウス平滑化処理された確率分布図に対して閾値分割を行うステップと、
を含むことを特徴とする請求項3に記載のジェスチャーに基づく人間と機械のインタラクション方法。 - ユーザのビデオストリームの中から画像を取得する取得モジュールと、
前景の中から三つ以上の予め設けられた色ブロックの座標を取得する位置決めモジュールと、
第一色ブロックの座標によりマウスの移動をシミュレートし、その他の色ブロックの座標によりマウスのクリック操作をシミュレートする変換モジュールと、
を含むことを特徴とするジェスチャーに基づく人間と機械のインタラクションシステム。 - 前記取得モジュールは、
カメラによりユーザのビデオストリームを取得して、ビデオストリームの中から連続する画像または所定値の間隔で断続する画像を取得する、
ことを特徴とする請求項7に記載のジェスチャーに基づく人間と機械のインタラクションシステム。 - 前記位置決めモジュールは、
背景モデルを作成して、マスク画像を生成し、当該マスク画像により前記画像の背景を除去する背景分割ユニットと、
予め設けられた第一色ブロック、第二色ブロック、第三色ブロックのテンプレートを取得し、前記画像により前記それぞれの色ブロックのヒストグラムを生成するヒストグラムユニットと、
前記それぞれの色ブロックのヒストグラムからそれぞれの色ブロックの確率分布図を算出する確率分布図ユニットと、
前記確率分布図の前記それぞれの色ブロックの質量中心を取得することにより前記三つの色ブロックの座標を取得する色ブロック位置決めユニットと、
を含むことを特徴とする請求項8に記載のジェスチャーに基づく人間と機械のインタラクションシステム。 - 前記変換ユニットは、
前記第二色ブロックと第三色ブロックの座標間の直線距離を取得し、前記直線距離が予め設定された閾値より小さい場合、前記マウスの左ボタンが押下されたとシミュレートし、前記直線距離が前記閾値以上である場合、左ボタンの押下が解放されたとシミュレートする、
ことを特徴とする請求項9に記載のジェスチャーに基づく人間と機械のインタラクションシステム。 - 指につけられた三つの色の異なる指カバーをさらに含み、前記指カバーの色を色ブロックのテンプレートとして記録する、
ことを特徴とする請求項10に記載のジェスチャーに基づく人間と機械のインタラクションシステム。 - 前記位置決めモジュールは、修正ユニットをさらに含み、
前記修正ユニットは、ノイズ除去サブユニットおよび平滑化サブユニットを含み、
前記ノイズ除去サブユニットは、前記確率分布図に対して収縮処理を行うことによりノイズを除去し、
前記平滑化サブユニットは、前記確率分布図に対してガウス平滑化処理を行い、さらに、ガウス平滑化処理された確率分布図に対して閾値分割を行う、
ことを特徴とする請求項9に記載のジェスチャーに基づく人間と機械のインタラクションシステム。 - 一つまたは複数のコンピュータ実行可能命令を含むコンピュータ記録媒体であって、
前記コンピュータ実行可能命令は、ジェスチャーに基づく人間と機械のインタラクション方法を実現するために使用され、
前記方法は、
ユーザのビデオストリームの中から画像を取得するステップと、
前景の中から三つ以上の予め設けられた色ブロックの座標を取得するステップと、
第一色ブロックの座標によりマウスの移動をシミュレートし、その他の色ブロックの座標によりマウスのクリック操作をシミュレートするステップと、
を含むことを特徴とするコンピュータ記録媒体。 - 前記ユーザのビデオストリームを取得し、ビデオストリームの中から画像を取得するステップは、
カメラによりユーザのビデオストリームを取得して、ビデオストリームの中から連続する画像または所定値の間隔で断続する画像を取得する、
ことを特徴とする請求項13に記載のコンピュータ記録媒体。 - 前記前景の中から三つ以上の予め設けられた色ブロックの座標を取得するステップは、
背景モデルを作成して、マスク画像を生成し、当該マスク画像により前記画像の背景を除去するステップと、
予め設けられた第一色ブロック、第二色ブロック、第三色ブロックのテンプレートを取得し、前記画像により前記それぞれの色ブロックのヒストグラムを生成するステップと、
前記それぞれの色ブロックのヒストグラムからそれぞれの色ブロックの確率分布図を算出するステップと、
前記確率分布図の前記それぞれの色ブロックの質量中心を取得することにより前記三つの色ブロックの座標を取得するステップと、
を含むことを特徴とする請求項14に記載のコンピュータ記録媒体。 - 前記その他の色ブロックの座標によりマウスのクリック操作をシミュレートするステップは、
前記第二色ブロックと第三色ブロックの座標間の直線距離を取得し、前記直線距離が予め設定された閾値より小さい場合、前記マウスの左ボタンが押下されたとシミュレートし、前記直線距離が前記閾値以上である場合、左ボタンの押下が解放されたとシミュレートする、
ことを特徴とする請求項15に記載のコンピュータ記録媒体。 - 前記予め設けられた色ブロックのテンプレートを取得することは、指に三つの色の異なる指カバーをつけ、前記指カバーの色を色ブロックのテンプレートとして記録する、
ことを特徴とする請求項16に記載のコンピュータ記録媒体。 - 前記それぞれの色ブロックのヒストグラムからそれぞれの色ブロックの確率分布図を算出するステップの後に、さらに、
前記確率分布図に対して収縮処理を行い、ノイズを除去するステップと、
前記確率分布図に対してガウス平滑化処理を行い、さらに、ガウス平滑化処理された確率分布図に対して閾値分割を行うステップと、
を含むことを特徴とする請求項15に記載のコンピュータ記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201010287015.2 | 2010-09-17 | ||
CN201010287015.2A CN102402279B (zh) | 2010-09-17 | 2010-09-17 | 基于手势的人机交互方法及系统 |
PCT/CN2011/078483 WO2012034469A1 (zh) | 2010-09-17 | 2011-08-16 | 基于手势的人机交互方法及系统、计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013533561A true JP2013533561A (ja) | 2013-08-22 |
JP5698355B2 JP5698355B2 (ja) | 2015-04-08 |
Family
ID=45830997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013520959A Active JP5698355B2 (ja) | 2010-09-17 | 2011-08-16 | ジェスチャーに基づく人間と機械のインタラクション方法およびシステム、コンピュータ記録媒体 |
Country Status (8)
Country | Link |
---|---|
EP (1) | EP2618237B1 (ja) |
JP (1) | JP5698355B2 (ja) |
KR (1) | KR101433543B1 (ja) |
CN (1) | CN102402279B (ja) |
BR (1) | BR112013006871A2 (ja) |
CA (1) | CA2806149C (ja) |
RU (1) | RU2552192C2 (ja) |
WO (1) | WO2012034469A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103576848B (zh) * | 2012-08-09 | 2016-07-13 | 腾讯科技(深圳)有限公司 | 手势操作方法和手势操作装置 |
CN106611402B (zh) * | 2015-10-23 | 2019-06-14 | 腾讯科技(深圳)有限公司 | 图像处理方法及装置 |
CN108897421A (zh) * | 2018-06-19 | 2018-11-27 | 芜湖美智空调设备有限公司 | 电子设备及其控制方法、装置和计算机可读存储介质 |
KR102274781B1 (ko) * | 2019-08-13 | 2021-07-07 | 박종태 | 발과 다리의 6축 움직임 해석에 따른 명령어 생성방법 |
CN114967927B (zh) * | 2022-05-30 | 2024-04-16 | 桂林电子科技大学 | 一种基于图像处理的智能手势交互方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003527708A (ja) * | 2000-03-13 | 2003-09-16 | アーベー イン クレデブル | ジェスチャ認識システム |
JP2010500645A (ja) * | 2006-08-08 | 2010-01-07 | マイクロソフト コーポレーション | 視覚ディスプレイのためのバーチャルコントローラ |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6747632B2 (en) * | 1997-03-06 | 2004-06-08 | Harmonic Research, Inc. | Wireless control device |
US6072494A (en) * | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
US6088018A (en) * | 1998-06-11 | 2000-07-11 | Intel Corporation | Method of using video reflection in providing input data to a computer system |
RU2175143C1 (ru) * | 2000-04-04 | 2001-10-20 | Свириденко Андрей Владимирович | Способ дистанционного управления |
CN101609362B (zh) * | 2008-06-19 | 2011-07-20 | 大同股份有限公司 | 以视讯为基础的游标控制装置及其控制方法 |
CN101344816B (zh) * | 2008-08-15 | 2010-08-11 | 华南理工大学 | 基于视线跟踪和手势识别的人机交互方法及装置 |
-
2010
- 2010-09-17 CN CN201010287015.2A patent/CN102402279B/zh active Active
-
2011
- 2011-08-16 EP EP11824539.8A patent/EP2618237B1/en active Active
- 2011-08-16 RU RU2012150393/08A patent/RU2552192C2/ru active
- 2011-08-16 JP JP2013520959A patent/JP5698355B2/ja active Active
- 2011-08-16 KR KR1020137005378A patent/KR101433543B1/ko active IP Right Grant
- 2011-08-16 BR BR112013006871A patent/BR112013006871A2/pt not_active Application Discontinuation
- 2011-08-16 WO PCT/CN2011/078483 patent/WO2012034469A1/zh active Application Filing
- 2011-08-16 CA CA2806149A patent/CA2806149C/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003527708A (ja) * | 2000-03-13 | 2003-09-16 | アーベー イン クレデブル | ジェスチャ認識システム |
JP2010500645A (ja) * | 2006-08-08 | 2010-01-07 | マイクロソフト コーポレーション | 視覚ディスプレイのためのバーチャルコントローラ |
Also Published As
Publication number | Publication date |
---|---|
EP2618237A4 (en) | 2015-11-11 |
WO2012034469A1 (zh) | 2012-03-22 |
CN102402279A (zh) | 2012-04-04 |
KR101433543B1 (ko) | 2014-08-22 |
EP2618237A1 (en) | 2013-07-24 |
BR112013006871A2 (pt) | 2017-09-19 |
KR20130073934A (ko) | 2013-07-03 |
RU2012150393A (ru) | 2014-10-27 |
RU2552192C2 (ru) | 2015-06-10 |
CA2806149A1 (en) | 2012-03-22 |
CA2806149C (en) | 2015-11-03 |
EP2618237B1 (en) | 2018-11-28 |
CN102402279B (zh) | 2016-05-25 |
JP5698355B2 (ja) | 2015-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8963836B2 (en) | Method and system for gesture-based human-machine interaction and computer-readable medium thereof | |
JP5887775B2 (ja) | ヒューマンコンピュータインタラクションシステム、手と手指示点位置決め方法、及び手指のジェスチャ決定方法 | |
US8286102B1 (en) | System and method for image processing using multi-touch gestures | |
JP5698355B2 (ja) | ジェスチャーに基づく人間と機械のインタラクション方法およびシステム、コンピュータ記録媒体 | |
Rautaray et al. | A novel human computer interface based on hand gesture recognition using computer vision techniques | |
Yin et al. | Toward natural interaction in the real world: Real-time gesture recognition | |
CN113961067B (zh) | 基于深度学习的非接触式涂鸦绘制方法与识别交互系统 | |
CN107450717B (zh) | 一种信息处理方法及穿戴式设备 | |
CN108628455B (zh) | 一种基于触摸屏手势识别的虚拟沙画绘制方法 | |
CN103649967A (zh) | 动态手势识别方法和编辑系统 | |
Vivek Veeriah et al. | Robust hand gesture recognition algorithm for simple mouse control | |
Choi et al. | Bare-hand-based augmented reality interface on mobile phone | |
CN107682595B (zh) | 一种交互投影方法、系统及计算机可读存储介质 | |
US10339372B2 (en) | Analog strokes to digital ink strokes | |
Ye et al. | Gestimator: Shape and stroke similarity based gesture recognition | |
KR102052449B1 (ko) | 가상 마우스 시스템 및 그 제어 방법 | |
CN104951083A (zh) | 一种远距离手势输入法及输入系统 | |
CN111860086A (zh) | 基于深度神经网络的手势识别方法、装置及系统 | |
Song et al. | Real-time single camera natural user interface engine development | |
Li et al. | Kinect-based gesture recognition and its application in moocs recording system | |
Shukla et al. | Enhancing Human-Computer Interaction: Hand Detection for Air Writing Utilizing NumPy and OpenCV | |
WO2020170851A1 (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
Narain et al. | Learning has never been more fun: A Markerless AR-based Character Learning Application for Children | |
Babu et al. | Touchless User Interface for Sketching Using Hand Gesture Recognition | |
Del Rosario et al. | Processing RGB-D Data from a 3D Camera using Object Detection and Written Character Recognition in Convolutional Neural Networks for Virtual Finger Writing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130311 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130123 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140812 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140909 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150120 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5698355 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |