JP7213396B1 - 電子機器及びプログラム - Google Patents
電子機器及びプログラム Download PDFInfo
- Publication number
- JP7213396B1 JP7213396B1 JP2022517908A JP2022517908A JP7213396B1 JP 7213396 B1 JP7213396 B1 JP 7213396B1 JP 2022517908 A JP2022517908 A JP 2022517908A JP 2022517908 A JP2022517908 A JP 2022517908A JP 7213396 B1 JP7213396 B1 JP 7213396B1
- Authority
- JP
- Japan
- Prior art keywords
- hand
- electronic device
- data
- unit
- skeleton
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 claims description 61
- 230000009471 action Effects 0.000 claims description 38
- 238000000034 method Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 8
- 210000003811 finger Anatomy 0.000 description 60
- 238000010586 diagram Methods 0.000 description 22
- 210000004247 hand Anatomy 0.000 description 15
- 238000000605 extraction Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 11
- 230000033001 locomotion Effects 0.000 description 6
- 210000003813 thumb Anatomy 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 241000700605 Viruses Species 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 230000009385 viral infection Effects 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000036449 good health Effects 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 239000010813 municipal solid waste Substances 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000036642 wellbeing Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/033—Recognition of patterns in medical or anatomical images of skeletal patterns
Abstract
Description
得部と、前記撮像データに基づいて、前記手に対応するスケルトンデータを推測する推測部と、前記スケルトンデータに基づいて、前記電子機器を操作するためのカーソル位置を決定する決定部とを備え、前記推測部は、前記撮像データにおいて握り拳または掌を検出することにより、前記手が含まれる領域を抽出した後、前記手が含まれる領域から、前記スケルトンデータを推測する。
<構成例>
以下、本実施形態の構成例について図面を参照して説明する。図1は実施形態1に係る電子機器1の構成の一例を示すブロック図である。以下では、一例として、電子機器1がスマートフォンである場合について説明するが、本実施形態はこれに限定されず、電子機器一般に適用することができる。電子機器1は、一例として、制御部2、撮像部4、表示部5、メモリ6及び記憶部7によって構成されてよい。
図2は、実施形態1における電子機器1の一具体的構成例の外観を示す図である。撮像部4は電子機器1の表面側(図2においては、電子機器1が示されている側)を撮影するカメラであってよい。
本実施形態におけるスケルトンデータの推測の流れについて図3~図5を参照して説明する。図3は、実施形態1におけるスケルトンデータの推測の流れの一例を説明するフローチャートである。
一例として、スケルトンデータ推測部8bは、多数の手(握り拳、開いた手など、様々な形状の手を含む)の撮像データと当該手のスケルトンデータとの組を教師データとして機械学習された学習モデルを用いて、領域抽出部8aが抽出した、手が含まれる領域から、操作者の手に対応するスケルトンデータを推測するものであってよい。
本実施形態におけるスケルトンデータに基づくカーソル位置の決定等の流れについて図7~図10を参照して説明する。
・スケルトンデータ73における複数の所定ポイント間の相対距離
・スケルトンデータ73における複数の所定ポイントによって形成される角度
・スケルトンデータ73における複数の所定ポイントによって形成される形状
・スケルトンデータ73における1以上の所定ポイントの移動速度などが挙げられるがこれらに限定されない。
・上記相対距離が所定の閾値以下か否か
・上記相対距離が所定の範囲内か否か
・上記角度が所定の閾値以下か否か
・上記角度が所定の範囲内か否か
・上記形状が、所定の形状(例えば、五指によって形成される形状が、「パー」形状であるか「グー」形状であるか等)
・上記移動速度が所定の閾値以下か否か
・上記移動速度が所定の範囲内か否か
・上記の条件を満たした状態が閾値以上継続したか否かなどが挙げられるがこれらに限定されない。
具体的には、例えば、決定部9は、人差し指の指先のポイントと当該指の付け根のポイントとの位置関係に基づいて、クリックアクションを検出することができる。これによれば、動作の支点となる指の付け根部分は動きが少ないため、一実施形態に係る本発明は、ジェスチャを検出し易くなる。すなわち、一実施形態に係る本発明によれば、操作の安定性を向上させることができる。
図11は、電子機器1の操作の一例を説明するための外観図である。電子機器1は、具体的にはスマートフォンであってよい。電子機器1はカメラ104と表示部105とを備えていてよい。
<構成例>
以下、実施形態2の構成例について図面を参照して説明する。実施形態2に係る電子機器の構成は、特に説明しない限り、図1で示した実施形態1の構成と同じであるため、実施形態1の説明を参酌することにより、その説明は省略する。
<構成例>
以下、実施形態3の構成例について図面を参照して説明する。実施形態3に係る電子機器の構成は、特に説明しない限り、図1で示した実施形態1の構成と同じであるため、実施形態1の説明を参酌することにより、その説明は省略する。
<構成例>
以下、実施形態4の構成例について図面を参照して説明する。実施形態4に係る電子機器の構成は、特に説明しない限り、図1で示した実施形態1の構成と同じであるため、実施形態1の説明を参酌することにより、その説明は省略する。
手の認識において、手を認識する精度を上げるために、カメラに撮像された手と関係ない対象物、例えば人の顔や服など手と異なる対処物であって、比較的映り込みやすい対象物をあらかじめ除外対象として認識アルゴリズムに登録することができる。
電子機器1、141及び1000の一部又は全部の機能は、集積回路(ICチップ)等のハードウェアによって実現してもよいし、ソフトウェアによって実現してもよい。
本明細書に記載の発明の一部は以下の付記のようにも記載されうるが、以下には限られない。
電子機器であって、
操作者の手の撮像データを取得する取得部と、
前記撮像データに基づいて、前記手に対応するスケルトンデータを推測する推測部と、
前記スケルトンデータに基づいて、前記電子機器を操作するためのカーソル位置を決定する決定部と、
を備える電子機器。
電子機器であって、
操作者の手の撮像データを取得する取得部と、
前記撮像データに基づいて、前記手に対応するスケルトンデータを推測する推測部と、
前記スケルトンデータに基づいて、前記電子機器が実行するアプリケーションを操作する操作部と、
を備える電子機器。
電子機器が備える少なくとも1つのプロセッサに、
操作者の手の撮像データを取得する取得処理と、
前記撮像データに基づいて、前記手に対応するスケルトンデータを推測する推測処理と、
前記スケルトンデータに基づいて、前記電子機器を操作するためのカーソル位置を決定する決定処理と、
を実行させるための、プログラム。
電子機器が備える少なくとも1つのプロセッサに、
操作者の手の撮像データを取得する取得処理と、
前記撮像データに基づいて、前記手に対応するスケルトンデータを推測する推測処理と、
前記スケルトンデータに基づいて、前記電子機器が実行するアプリケーションを操作する操作処理と、
を実行させるための、プログラム。
2 制御部
3 取得部
4 撮像部
5、145 表示部
6 メモリ
7 記憶部
8 推測部
8a 領域抽出部
8b スケルトンデータ推測部
9 決定部
10 操作部
40 握り拳
41 手が含まれる領域
50、60、70、80、90 手
51、61、73、83、93 スケルトン
71、81、91 指先のポイント
72、82、92 指の付け根のポイント
106、146 モニタ領域
107、107a、107b、107c、107d、147、147A、
147B カーソル
108、149 アイコン領域
109 システム領域
150 コンピュータ
151 CPU
152 メモリ
153 プログラム
154 記録媒体
Claims (13)
- 電子機器であって、
操作者の手の撮像データを取得する取得部と、
前記撮像データに基づいて、前記手に対応するスケルトンデータを推測する推測部と、
前記スケルトンデータに基づいて、前記電子機器を操作するためのカーソル位置を決定する決定部と、
を備え、
前記推測部は、前記撮像データにおいて手の一部である掌または握り拳を検出することにより、前記手が含まれる領域を抽出した後、前記手が含まれる領域から、前記スケルトンデータを推測する、
電子機器。 - 前記推測部は、前記手の撮像データと対応する前記スケルトンデータとの組を教師データとして機械学習された学習モデルを用いて、前記スケルトンデータを推測する、請求項1に記載の電子機器。
- 前記推測部は、右手の前記撮像データと対応する前記スケルトンデータとの組を教師データとして機械学習された右手認識用学習モデルと、左手の前記撮像データと対応する前記スケルトンデータとして機械学習された左手認識用学習モデルと用いて、前記右手認識用学習モデル又は前記左手認識用学習モデルのいずれかからスケルトンデータを取得できたかに応じて、前記操作者の手が右手か左手かを認識する請求項2に記載の電子機器。
- 前記撮像データは、単一のカメラによって取得されたRGB画像である、請求項1ないし3のいずれか1項に記載の電子機器。
- 前記決定部は、前記スケルトンデータが示す前記手の特定の部位の位置に基づいて、前記カーソル位置を決定する、請求項1ないし4のいずれか1項に記載の電子機器。
- 前記スケルトンデータから、前記電子機器を操作するためのアクションを検出する検出部をさらに備える、請求項1ないし5のいずれか1項に記載の電子機器。
- 前記検出部は、前記スケルトンデータが示す指の先と当該指の根元との位置関係に基づいて、クリックアクションを検出する、請求項6に記載の電子機器。
- 前記電子機器の表示画面に、前記決定部が決定したカーソル位置に基づいて、カーソルを表示するカーソル表示部をさらに備える、請求項6又は7に記載の電子機器。
- 前記カーソル表示部は、前記検出部が検出した前記アクションに応じた表示態様で、前記カーソルを表示する、請求項8に記載の電子機器。
- 前記表示画面は、特定領域を含み、
前記カーソル表示部は、前記決定部が決定したカーソル位置が前記特定領域内である場合には、当該カーソル位置が前記特定領域外である場合とは異なる表示態様で、前記特定領域外に前記カーソルを表示する、請求項8又は9に記載の電子機器。 - 電子機器であって、
操作者の手の撮像データを取得する取得部と、
前記撮像データに基づいて、前記手に対応するスケルトンデータを推測する推測部と、
前記スケルトンデータに基づいて、前記電子機器が実行するアプリケーションを操作する操作部と、
を備え、
前記推測部は、前記撮像データにおいて手の一部である掌または握り拳を検出することにより、前記手が含まれる領域を抽出した後、前記手が含まれる領域から、前記スケルトンデータを推測する、
電子機器。 - 電子機器が備える少なくとも1つのプロセッサに、
操作者の手の撮像データを取得する取得処理と、
前記撮像データに手の一部である掌または握り拳を検出することにより、手が含まれる領域を抽出した後、前記手が含まれる領域から、スケルトンデータを推測する推測処理と、
前記スケルトンデータに基づいて、前記電子機器を操作するためのカーソル位置を決定する決定処理と、
を実行させるための、プログラム。 - 電子機器が備える少なくとも1つのプロセッサに、
操作者の手の撮像データを取得する取得処理と、
前記撮像データに手の一部である掌または握り拳を検出することにより、手が含まれる領域を抽出した後、前記手が含まれる領域から、スケルトンデータを推測する推測処理と、
前記スケルトンデータに基づいて、前記電子機器が実行するアプリケーションを操作する操作処理と、
を実行させるための、プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/031679 WO2023031988A1 (ja) | 2021-08-30 | 2021-08-30 | 電子機器及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP7213396B1 true JP7213396B1 (ja) | 2023-01-26 |
JPWO2023031988A1 JPWO2023031988A1 (ja) | 2023-03-09 |
JPWO2023031988A5 JPWO2023031988A5 (ja) | 2023-08-08 |
Family
ID=85035377
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022517908A Active JP7213396B1 (ja) | 2021-08-30 | 2021-08-30 | 電子機器及びプログラム |
Country Status (7)
Country | Link |
---|---|
US (1) | US20230061557A1 (ja) |
JP (1) | JP7213396B1 (ja) |
KR (1) | KR20230035209A (ja) |
CN (1) | CN116075801A (ja) |
AU (1) | AU2021463303A1 (ja) |
CA (1) | CA3229530A1 (ja) |
WO (1) | WO2023031988A1 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05324181A (ja) * | 1992-05-26 | 1993-12-07 | Takenaka Komuten Co Ltd | ハンドポインティング式入力装置 |
JP2010181978A (ja) * | 2009-02-03 | 2010-08-19 | Seiko Epson Corp | 共同作業装置及び共同作業の制御方法 |
WO2014010670A1 (ja) * | 2012-07-13 | 2014-01-16 | Isayama Taro | 要素選択装置、要素選択方法、および、プログラム |
WO2016174915A1 (ja) * | 2015-04-30 | 2016-11-03 | ソニー株式会社 | 画像処理装置と画像処理方法およびプログラム |
JP2017199379A (ja) * | 2013-02-19 | 2017-11-02 | ミラマ サービス インク | 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法 |
US20180024641A1 (en) * | 2016-07-20 | 2018-01-25 | Usens, Inc. | Method and system for 3d hand skeleton tracking |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8005263B2 (en) * | 2007-10-26 | 2011-08-23 | Honda Motor Co., Ltd. | Hand sign recognition using label assignment |
US8881049B2 (en) * | 2007-12-14 | 2014-11-04 | Apple Inc. | Scrolling displayed objects using a 3D remote controller in a media system |
US8514251B2 (en) * | 2008-06-23 | 2013-08-20 | Qualcomm Incorporated | Enhanced character input using recognized gestures |
JP2011028366A (ja) * | 2009-07-22 | 2011-02-10 | Sony Corp | 操作制御装置および操作制御方法 |
US20170017393A1 (en) * | 2010-04-23 | 2017-01-19 | Handscape Inc., A Delaware Corporation | Method for controlling interactive objects from a touchpad of a computerized device |
US9891820B2 (en) * | 2010-04-23 | 2018-02-13 | Handscape Inc. | Method for controlling a virtual keyboard from a touchpad of a computerized device |
US9069386B2 (en) * | 2010-05-11 | 2015-06-30 | Nippon Systemware Co., Ltd. | Gesture recognition device, method, program, and computer-readable medium upon which program is stored |
JP5656514B2 (ja) * | 2010-08-27 | 2015-01-21 | キヤノン株式会社 | 情報処理装置及び方法 |
US8897491B2 (en) * | 2011-06-06 | 2014-11-25 | Microsoft Corporation | System for finger recognition and tracking |
US9030498B2 (en) * | 2011-08-15 | 2015-05-12 | Apple Inc. | Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface |
JP2013171529A (ja) | 2012-02-22 | 2013-09-02 | Shimane Prefecture | 操作入力装置、操作判定方法およびプログラム |
US9671874B2 (en) * | 2012-11-08 | 2017-06-06 | Cuesta Technology Holdings, Llc | Systems and methods for extensions to alternative control of touch-based devices |
US9383894B2 (en) * | 2014-01-08 | 2016-07-05 | Microsoft Technology Licensing, Llc | Visual feedback for level of gesture completion |
US20170031452A1 (en) * | 2014-01-15 | 2017-02-02 | Juice Design Co., Ltd. | Manipulation determination apparatus, manipulation determination method, and, program |
RU2014108820A (ru) * | 2014-03-06 | 2015-09-20 | ЭлЭсАй Корпорейшн | Процессор изображений, содержащий систему распознавания жестов с функциональными возможностями обнаружения и отслеживания пальцев |
US9990046B2 (en) * | 2014-03-17 | 2018-06-05 | Oblong Industries, Inc. | Visual collaboration interface |
EP2924543B1 (en) * | 2014-03-24 | 2019-12-04 | Tata Consultancy Services Limited | Action based activity determination system and method |
US10852838B2 (en) * | 2014-06-14 | 2020-12-01 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9804696B2 (en) * | 2015-01-02 | 2017-10-31 | Microsoft Technology Licensing, Llc | User-input control device toggled motion tracking |
WO2016119827A1 (en) * | 2015-01-28 | 2016-08-04 | Huawei Technologies Co., Ltd. | Hand or finger detection device and a method thereof |
US10409443B2 (en) * | 2015-06-24 | 2019-09-10 | Microsoft Technology Licensing, Llc | Contextual cursor display based on hand tracking |
US11263409B2 (en) * | 2017-11-03 | 2022-03-01 | Board Of Trustees Of Michigan State University | System and apparatus for non-intrusive word and sentence level sign language translation |
US11573641B2 (en) * | 2018-03-13 | 2023-02-07 | Magic Leap, Inc. | Gesture recognition system and method of using same |
US11009941B2 (en) * | 2018-07-25 | 2021-05-18 | Finch Technologies Ltd. | Calibration of measurement units in alignment with a skeleton model to control a computer system |
US10902250B2 (en) * | 2018-12-21 | 2021-01-26 | Microsoft Technology Licensing, Llc | Mode-changeable augmented reality interface |
US11294472B2 (en) * | 2019-01-11 | 2022-04-05 | Microsoft Technology Licensing, Llc | Augmented two-stage hand gesture input |
US10984575B2 (en) * | 2019-02-06 | 2021-04-20 | Snap Inc. | Body pose estimation |
US11182909B2 (en) * | 2019-12-10 | 2021-11-23 | Google Llc | Scalable real-time hand tracking |
US20210279893A1 (en) * | 2020-03-09 | 2021-09-09 | Disney Enterprises, Inc. | Interactive entertainment system |
US11954242B2 (en) * | 2021-01-04 | 2024-04-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
WO2022204657A1 (en) * | 2021-03-22 | 2022-09-29 | Apple Inc. | Methods for manipulating objects in an environment |
-
2021
- 2021-08-30 JP JP2022517908A patent/JP7213396B1/ja active Active
- 2021-08-30 CN CN202180005525.2A patent/CN116075801A/zh active Pending
- 2021-08-30 KR KR1020227009845A patent/KR20230035209A/ko not_active Application Discontinuation
- 2021-08-30 CA CA3229530A patent/CA3229530A1/en active Pending
- 2021-08-30 AU AU2021463303A patent/AU2021463303A1/en active Pending
- 2021-08-30 WO PCT/JP2021/031679 patent/WO2023031988A1/ja active Application Filing
- 2021-08-30 US US17/764,151 patent/US20230061557A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05324181A (ja) * | 1992-05-26 | 1993-12-07 | Takenaka Komuten Co Ltd | ハンドポインティング式入力装置 |
JP2010181978A (ja) * | 2009-02-03 | 2010-08-19 | Seiko Epson Corp | 共同作業装置及び共同作業の制御方法 |
WO2014010670A1 (ja) * | 2012-07-13 | 2014-01-16 | Isayama Taro | 要素選択装置、要素選択方法、および、プログラム |
JP2017199379A (ja) * | 2013-02-19 | 2017-11-02 | ミラマ サービス インク | 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法 |
WO2016174915A1 (ja) * | 2015-04-30 | 2016-11-03 | ソニー株式会社 | 画像処理装置と画像処理方法およびプログラム |
US20180024641A1 (en) * | 2016-07-20 | 2018-01-25 | Usens, Inc. | Method and system for 3d hand skeleton tracking |
Also Published As
Publication number | Publication date |
---|---|
KR20230035209A (ko) | 2023-03-13 |
CA3229530A1 (en) | 2023-03-09 |
JPWO2023031988A1 (ja) | 2023-03-09 |
CN116075801A (zh) | 2023-05-05 |
WO2023031988A1 (ja) | 2023-03-09 |
US20230061557A1 (en) | 2023-03-02 |
AU2021463303A1 (en) | 2024-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11048333B2 (en) | System and method for close-range movement tracking | |
KR101620777B1 (ko) | 증강된 가상 터치패드 및 터치스크린 | |
EP3090331B1 (en) | Systems with techniques for user interface control | |
US8290210B2 (en) | Method and system for gesture recognition | |
US9910498B2 (en) | System and method for close-range movement tracking | |
US9329691B2 (en) | Operation input apparatus and method using distinct determination and control areas | |
JP6165485B2 (ja) | 携帯端末向けarジェスチャユーザインタフェースシステム | |
US9317130B2 (en) | Visual feedback by identifying anatomical features of a hand | |
CN110622219B (zh) | 交互式增强现实 | |
TWI695311B (zh) | 一種利用手勢模擬滑鼠操作的方法、裝置及終端 | |
US9836130B2 (en) | Operation input device, operation input method, and program | |
JP6524589B2 (ja) | クリック動作検出装置,方法およびプログラム | |
JP2004078977A (ja) | インターフェイス装置 | |
CN111596757A (zh) | 一种基于指尖交互的手势控制方法和装置 | |
KR20150106823A (ko) | 제스처 인식 장치 및 제스처 인식 장치의 제어 방법 | |
Hartanto et al. | Real time hand gesture movements tracking and recognizing system | |
Roy et al. | Real time hand gesture based user friendly human computer interaction system | |
JP7213396B1 (ja) | 電子機器及びプログラム | |
JPWO2023031988A5 (ja) | ||
Yamagishi et al. | A system for controlling personal computers by hand gestures using a wireless sensor device | |
KR20110049162A (ko) | 휴대용 영상 처리기에서 가상 입출력 장치 및 방법 | |
Ranjith et al. | IMPLEMENTING A REAL TIME VIRTUAL MOUSE SYSTEM USING COMPUTER VISION | |
Dave et al. | Project MUDRA: Personalization of Computers using Natural Interface | |
TW201925989A (zh) | 互動系統 | |
JP6523509B1 (ja) | ゲームプログラム、方法、および情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220318 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220929 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7213396 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |