JP5885309B2 - ジェスチャ認識のためのユーザ・インタフェース、装置および方法 - Google Patents
ジェスチャ認識のためのユーザ・インタフェース、装置および方法 Download PDFInfo
- Publication number
- JP5885309B2 JP5885309B2 JP2013546543A JP2013546543A JP5885309B2 JP 5885309 B2 JP5885309 B2 JP 5885309B2 JP 2013546543 A JP2013546543 A JP 2013546543A JP 2013546543 A JP2013546543 A JP 2013546543A JP 5885309 B2 JP5885309 B2 JP 5885309B2
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- sub
- user
- command
- subsequent sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
- G06V40/67—Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
以下に本発明の他の実施形態を例示する。
[付記1] ジェスチャ認識システムにおけるユーザ・インタフェースであって、
以前にユーザによって実行され、前記ジェスチャ認識システムによって認識されている少なくとも1つのサブジェスチャおよびその順序に従って、少なくとも1つのジェスチャ・コマンドの後続するサブジェスチャを示すように構成されたディスプレイ・ウインドウを含む、前記ユーザ・インタフェース。
[付記2] 前記後続するサブジェスチャは、前記少なくとも1つのジェスチャ・コマンドを完了させるための前記後続するジェスチャの仕方についての情報と共に、ヒントによって示される、付記1に記載のユーザ・インタフェース。
[付記3] 前記ジェスチャ認識システムによって認識される少なくとも1つのサブジェスチャのインジケーションもまた、前記ディスプレイ・ウインドウ内の前記ヒントに対応する位置に表示される、付記2に記載のユーザ・インタフェース。
[付記4] 1つのジェスチャ・コマンドの前記後続するサブジェスチャが前記ユーザによって実行され、前記ジェスチャ認識システムによって認識されると、他のジェスチャ・コマンドの後続するサブジェスチャが前記ディスプレイ・ウインドウから消える、付記1〜3のいずれか1項に記載のユーザ・インタフェース。
[付記5] 前記ヒントおよび少なくとも1つのサブジェスチャの前記インジケーションを有する前記ディスプレイ・ウインドウは、不透明度を有し、当該不透明度は、前記後続するサブジェスチャが前記ユーザによって実行され、前記ジェスチャ認識システムによって認識されていると、次第に減少する、付記4に記載のユーザ・インタフェース。
[付記6] 前記後続するサブジェスチャは、前にユーザによって実行され、前記ジェスチャ認識システムによって認識された前記少なくとも1つのサブジェスチャと同一である、付記1〜5のいずれか1項に記載のユーザ・インタフェース。
[付記7] 装置であって、
以前にユーザによって実行され、ジェスチャ認識システムによって認識されている1つ以上のサブジェスチャおよびその順序に基づいて、当該装置に対する1つ以上の可能なコマンドを予測するように構成されたジェスチャ予測ユニットと、
ユーザ・インタフェースにおいて前記1つ以上の可能なコマンドの後続するサブジェスチャを示すように構成されたディスプレイと、を含む、前記装置。
[付記8] 前記後続するサブジェスチャは、前記コマンドを完了させるための前記後続するジェスチャの仕方についての情報と共に、ヒントによって前記ユーザ・インタフェースにおいて示される、付記7に記載の装置。
[付記9] 前記ディスプレイは、さらに、当該装置によって認識される前記1つ以上のサブジェスチャを示すように構成されている付記7または8に記載の装置。
[付記10] 1つの可能なコマンドの前記後続するサブジェスチャがユーザによって実行され、当該装置によって認識されていると、他の可能なコマンドの後続するサブジェスチャが前記ユーザ・インタフェースにおいて消える、付記7〜9のいずれか1項に記載の装置。
[付記11] 前記ディスプレイにおける前記ヒントおよび1つ以上の可能なコマンドの前記インジケーションは不透明度を有し、当該不透明度は、前記1つ以上の可能なコマンドが前記ユーザによって実行され当該装置によって認識されると次第に減少する、付記7〜10のいずれか1項に記載の装置。
[付記12] 装置におけるジェスチャ認識のための方法であって、
前記装置によって以前に認識された1つ以上のサブジェスチャに基づいて前記装置に対する1つ以上の可能なコマンドを予測するステップと、
ユーザ・インタフェースによって前記1つ以上の可能なコマンドの後続するサブジェスチャを示すステップと、を含む、前記方法。
[付記13] 前記後続するサブジェスチャは、前記ユーザ・インタフェース内に表示されるヒントによって表示され、前記ユーザによって実行される前記1つ以上のサブジェスチャのインジケーションもまた、前記ユーザ・インタフェース内に表示されている、付記12に記載の方法。
[付記14] 1つの可能なコマンドの前記後続するサブジェスチャが、前記装置によって認識されていると、前記ユーザ・インタフェースにおける他の可能なコマンドの前記後続するサブジェスチャを削除するステップをさらに含む、付記12または13に記載の方法。
[付記15] 前記ヒントは、前記少なくとも1つのコマンドを完了させるために、前記後続するサブジェスチャの仕方についての情報と共に表示される、付記12〜14のいずれか1項に記載の方法。
Claims (12)
- 装置であって、
以前にユーザによって実行され、当該装置によって認識されている1つ以上のサブジェスチャおよびその順序に基づいて、当該装置に対する1つ以上の可能なコマンドを予測するように構成されたジェスチャ予測ユニットと、
ユーザ・インタフェースにおいて前記1つ以上の可能なコマンドの後続するサブジェスチャのインジケーションを表示するように構成されたディスプレイであって、該ディスプレイにおける前記1つ以上の可能なコマンドのインジケーションは不透明度を有し、該不透明度は、前記1つ以上の可能なコマンドの数が以前に予測された1つ以上の可能なコマンドの数と比較して減少している場合、減少し、かつ、前記サブジェスチャの実行の進行とともに減少する、該ディスプレイと、を備える、前記装置。 - 前記後続するサブジェスチャは、前記コマンドを完了させるための前記後続するサブジェスチャの仕方についての情報と共に、ヒントによって前記ユーザ・インタフェースにおいて示される、請求項1に記載の装置。
- 前記ディスプレイは、さらに、当該装置によって認識される前記1つ以上のサブジェスチャを示すように構成されている、請求項1または2に記載の装置。
- 1つの可能なコマンドの前記後続するサブジェスチャがユーザによって実行され、当該装置によって認識された場合、他の可能なコマンドの前記後続するサブジェスチャが前記ユーザ・インタフェースにおいて消える、請求項1または2に記載の装置。
- 装置によるジェスチャ認識のための方法であって、
前記装置によって以前に認識された1つ以上のサブジェスチャに基づいて前記装置に対する1つ以上の可能なコマンドを予測するステップと、
ユーザ・インタフェースによって前記1つ以上の可能なコマンドの後続するサブジェスチャをインジケーションにおいて示すステップであって、ディスプレイにおける前記1つ以上の可能なコマンドの該インジケーションは不透明度を有し、該不透明度は、前記1つ以上の可能なコマンドの数が以前に予測された1つ以上の可能なコマンドの数と比較して減少している場合、減少し、かつ、前記サブジェスチャの実行の進行とともに減少する、該ステップと、を含む、前記方法。 - 前記後続するサブジェスチャは、前記ユーザ・インタフェースにおいて表示されるヒントによって示され、前記ユーザによって実行される前記1つ以上のサブジェスチャのインジケーションもまた、前記ユーザ・インタフェースにおいて示される、請求項5に記載の方法。
- 1つの可能なコマンドの前記後続するサブジェスチャが、前記装置によって認識された場合、前記ユーザ・インタフェースにおける他の可能なコマンドの前記後続するサブジェスチャを削除するステップをさらに含む、請求項5または6に記載の方法。
- 前記ヒントは、前記コマンドを完了させるための前記後続するサブジェスチャの仕方についての情報と共に表示される、請求項6に記載の方法。
- ジェスチャ認識システムによって実行可能なプログラムであって、
以前にユーザによって実行され、前記ジェスチャ認識システムによって認識されている少なくとも1つのサブジェスチャおよびその順序に従って、少なくとも1つのジェスチャ・コマンドの後続するサブジェスチャをディスプレイ・ウインドウにおいて示す命令であって、該ディスプレイ・ウインドウは不透明度を有し、該不透明度は、前記1つ以上の可能なコマンドの数が以前に予測された1つ以上の可能なコマンドの数と比較して減少している場合、減少し、かつ、前記サブジェスチャの実行の進行とともに減少する、該命令を含む、前記プログラム。 - 前記後続するサブジェスチャに対して前記少なくとも1つのジェスチャ・コマンドを完了させるための前記後続するサブジェスチャの仕方についての情報と共に、ヒントを表示する命令をさらに含む、請求項9に記載のプログラム。
- 前記ジェスチャ認識システムによって認識される少なくとも1つのサブジェスチャのインジケーションを、前記ディスプレイ・ウインドウにおいて前記ヒントに対応する位置に表示する命令をさらに含む、請求項10に記載のプログラム。
- 1つのジェスチャ・コマンドの前記後続するサブジェスチャが前記ユーザによって実行され、前記ジェスチャ認識システムによって認識された場合、他のジェスチャ・コマンドの後続するサブジェスチャが前記ディスプレイ・ウインドウから消えるようにする命令をさらに含む、請求項9〜11のいずれか1項に記載のプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2010/002206 WO2012088634A1 (en) | 2010-12-30 | 2010-12-30 | User interface, apparatus and method for gesture recognition |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2014501413A JP2014501413A (ja) | 2014-01-20 |
JP2014501413A5 JP2014501413A5 (ja) | 2014-02-27 |
JP5885309B2 true JP5885309B2 (ja) | 2016-03-15 |
Family
ID=46382154
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013546543A Expired - Fee Related JP5885309B2 (ja) | 2010-12-30 | 2010-12-30 | ジェスチャ認識のためのユーザ・インタフェース、装置および方法 |
Country Status (8)
Country | Link |
---|---|
US (1) | US20130283202A1 (ja) |
EP (1) | EP2659336B1 (ja) |
JP (1) | JP5885309B2 (ja) |
KR (1) | KR101811909B1 (ja) |
CN (1) | CN103380405A (ja) |
AU (1) | AU2010366331B2 (ja) |
BR (1) | BR112013014287B1 (ja) |
WO (1) | WO2012088634A1 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5585505B2 (ja) * | 2011-03-17 | 2014-09-10 | セイコーエプソン株式会社 | 画像供給装置、画像表示システム、画像供給装置の制御方法、画像表示装置、及び、プログラム |
KR101322465B1 (ko) * | 2011-11-17 | 2013-10-28 | 삼성전자주식회사 | 셀프 카메라 촬영을 위한 방법 및 장치 |
SE537553C2 (sv) | 2012-08-03 | 2015-06-09 | Crunchfish Ab | Förbättrad identifiering av en gest |
KR101984683B1 (ko) * | 2012-10-10 | 2019-05-31 | 삼성전자주식회사 | 멀티 디스플레이 장치 및 그 제어 방법 |
US20140215382A1 (en) * | 2013-01-25 | 2014-07-31 | Agilent Technologies, Inc. | Method for Utilizing Projected Gesture Completion to Improve Instrument Performance |
JP6212918B2 (ja) * | 2013-04-18 | 2017-10-18 | オムロン株式会社 | 遊技機 |
US20150007117A1 (en) * | 2013-06-26 | 2015-01-01 | Microsoft Corporation | Self-revealing symbolic gestures |
US9740923B2 (en) * | 2014-01-15 | 2017-08-22 | Lenovo (Singapore) Pte. Ltd. | Image gestures for edge input |
DE102014001183B4 (de) | 2014-01-30 | 2022-09-22 | Audi Ag | Verfahren und System zum Auslösen wenigstens einer Funktion eines Kraftwagens |
CN103978487B (zh) * | 2014-05-06 | 2017-01-11 | 宁波易拓智谱机器人有限公司 | 一种基于手势的通用机器人末端位置的操控方法 |
CN104615984B (zh) * | 2015-01-28 | 2018-02-02 | 广东工业大学 | 基于用户任务的手势识别方法 |
US20160257198A1 (en) | 2015-03-02 | 2016-09-08 | Ford Global Technologies, Inc. | In-vehicle component user interface |
DE112016001794T5 (de) * | 2015-04-17 | 2018-02-08 | Mitsubishi Electric Corporation | Gestenerkennungsvorrichtung, Gestenerkennungsverfahren und Informationsverarbeitungsvorrichtung |
US9967717B2 (en) | 2015-09-01 | 2018-05-08 | Ford Global Technologies, Llc | Efficient tracking of personal device locations |
US9914418B2 (en) | 2015-09-01 | 2018-03-13 | Ford Global Technologies, Llc | In-vehicle control location |
US10046637B2 (en) | 2015-12-11 | 2018-08-14 | Ford Global Technologies, Llc | In-vehicle component control user interface |
WO2017104525A1 (ja) * | 2015-12-17 | 2017-06-22 | コニカミノルタ株式会社 | 入力装置、電子機器及びヘッドマウントディスプレイ |
US10082877B2 (en) * | 2016-03-15 | 2018-09-25 | Ford Global Technologies, Llc | Orientation-independent air gesture detection service for in-vehicle environments |
US9584653B1 (en) * | 2016-04-10 | 2017-02-28 | Philip Scott Lyren | Smartphone with user interface to externally localize telephone calls |
US9914415B2 (en) | 2016-04-25 | 2018-03-13 | Ford Global Technologies, Llc | Connectionless communication with interior vehicle components |
DE102016212240A1 (de) * | 2016-07-05 | 2018-01-11 | Siemens Aktiengesellschaft | Verfahren zur Interaktion eines Bedieners mit einem Modell eines technischen Systems |
CN108520228A (zh) * | 2018-03-30 | 2018-09-11 | 百度在线网络技术(北京)有限公司 | 手势匹配方法及装置 |
CN112527093A (zh) * | 2019-09-18 | 2021-03-19 | 华为技术有限公司 | 手势输入方法及电子设备 |
CN110795015A (zh) * | 2019-09-25 | 2020-02-14 | 广州视源电子科技股份有限公司 | 操作提示方法、装置、设备及存储介质 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2323856A1 (en) * | 2000-10-18 | 2002-04-18 | 602531 British Columbia Ltd. | Method, system and media for entering data in a personal computing device |
US7343566B1 (en) * | 2002-07-10 | 2008-03-11 | Apple Inc. | Method and apparatus for displaying a window for a user interface |
US7665041B2 (en) * | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US7466859B2 (en) * | 2004-12-30 | 2008-12-16 | Motorola, Inc. | Candidate list enhancement for predictive text input in electronic devices |
KR100687737B1 (ko) * | 2005-03-19 | 2007-02-27 | 한국전자통신연구원 | 양손 제스쳐에 기반한 가상 마우스 장치 및 방법 |
JP4684745B2 (ja) * | 2005-05-27 | 2011-05-18 | 三菱電機株式会社 | ユーザインタフェース装置及びユーザインタフェース方法 |
JP4602166B2 (ja) * | 2005-06-07 | 2010-12-22 | 富士通株式会社 | 手書き情報入力装置。 |
CN101268437B (zh) * | 2005-11-02 | 2010-05-19 | 松下电器产业株式会社 | 显示目标透射装置及显示目标透射方法 |
US8972902B2 (en) * | 2008-08-22 | 2015-03-03 | Northrop Grumman Systems Corporation | Compound gesture recognition |
JP4267648B2 (ja) * | 2006-08-25 | 2009-05-27 | 株式会社東芝 | インターフェース装置及びその方法 |
KR101304461B1 (ko) * | 2006-12-04 | 2013-09-04 | 삼성전자주식회사 | 제스처 기반 사용자 인터페이스 방법 및 장치 |
US20090049413A1 (en) * | 2007-08-16 | 2009-02-19 | Nokia Corporation | Apparatus and Method for Tagging Items |
US20090100383A1 (en) * | 2007-10-16 | 2009-04-16 | Microsoft Corporation | Predictive gesturing in graphical user interface |
JP2010015238A (ja) * | 2008-07-01 | 2010-01-21 | Sony Corp | 情報処理装置、及び補助情報の表示方法 |
TW201009650A (en) * | 2008-08-28 | 2010-03-01 | Acer Inc | Gesture guide system and method for controlling computer system by gesture |
US7983450B2 (en) * | 2009-03-16 | 2011-07-19 | The Boeing Company | Method, apparatus and computer program product for recognizing a gesture |
US8285499B2 (en) * | 2009-03-16 | 2012-10-09 | Apple Inc. | Event recognition |
JP5256109B2 (ja) * | 2009-04-23 | 2013-08-07 | 株式会社日立製作所 | 表示装置 |
CN101706704B (zh) * | 2009-11-06 | 2011-05-25 | 谢达 | 一种会自动改变不透明度的用户界面显示方法 |
US8622742B2 (en) * | 2009-11-16 | 2014-01-07 | Microsoft Corporation | Teaching gestures with offset contact silhouettes |
JP2011204019A (ja) * | 2010-03-25 | 2011-10-13 | Sony Corp | ジェスチャ入力装置、ジェスチャ入力方法およびプログラム |
TWI514194B (zh) * | 2010-06-18 | 2015-12-21 | Prime View Int Co Ltd | 電子閱讀器及其顯示方法 |
JP5601045B2 (ja) * | 2010-06-24 | 2014-10-08 | ソニー株式会社 | ジェスチャ認識装置、ジェスチャ認識方法およびプログラム |
AU2011292026B2 (en) * | 2010-08-17 | 2014-08-07 | Google Llc | Touch-based gesture detection for a touch-sensitive device |
US8701050B1 (en) * | 2013-03-08 | 2014-04-15 | Google Inc. | Gesture completion path display for gesture-based keyboards |
-
2010
- 2010-12-30 WO PCT/CN2010/002206 patent/WO2012088634A1/en active Application Filing
- 2010-12-30 KR KR1020137017091A patent/KR101811909B1/ko active IP Right Grant
- 2010-12-30 EP EP10861473.6A patent/EP2659336B1/en not_active Not-in-force
- 2010-12-30 CN CN2010800710250A patent/CN103380405A/zh active Pending
- 2010-12-30 BR BR112013014287-1A patent/BR112013014287B1/pt not_active IP Right Cessation
- 2010-12-30 US US13/977,070 patent/US20130283202A1/en not_active Abandoned
- 2010-12-30 JP JP2013546543A patent/JP5885309B2/ja not_active Expired - Fee Related
- 2010-12-30 AU AU2010366331A patent/AU2010366331B2/en not_active Ceased
Also Published As
Publication number | Publication date |
---|---|
US20130283202A1 (en) | 2013-10-24 |
KR101811909B1 (ko) | 2018-01-25 |
WO2012088634A1 (en) | 2012-07-05 |
AU2010366331A1 (en) | 2013-07-04 |
EP2659336B1 (en) | 2019-06-26 |
KR20140014101A (ko) | 2014-02-05 |
EP2659336A1 (en) | 2013-11-06 |
EP2659336A4 (en) | 2016-09-28 |
AU2010366331B2 (en) | 2016-07-14 |
CN103380405A (zh) | 2013-10-30 |
BR112013014287B1 (pt) | 2020-12-29 |
JP2014501413A (ja) | 2014-01-20 |
BR112013014287A2 (pt) | 2016-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5885309B2 (ja) | ジェスチャ認識のためのユーザ・インタフェース、装置および方法 | |
US11494000B2 (en) | Touch free interface for augmented reality systems | |
US11048333B2 (en) | System and method for close-range movement tracking | |
JP6659644B2 (ja) | 応用素子の代替的グラフィック表示の事前の生成による入力に対する低レイテンシの視覚的応答およびグラフィック処理ユニットの入力処理 | |
US9910498B2 (en) | System and method for close-range movement tracking | |
JP5900393B2 (ja) | 情報処理装置、操作制御方法及びプログラム | |
CN105518575B (zh) | 与自然用户界面的双手交互 | |
EP2742415B1 (en) | Drag and drop of objects between applications | |
JP6038898B2 (ja) | エッジ・ジェスチャー | |
CN105229582B (zh) | 基于近距离传感器和图像传感器的手势检测 | |
EP3111300A2 (en) | Controlling a computing-based device using gestures | |
WO2016035323A1 (en) | Information processing device, information processing method, and program | |
US10067664B2 (en) | Method and system for providing prototyping tool, and non-transitory computer-readable recording medium | |
US20220221970A1 (en) | User interface modification | |
CN106796810A (zh) | 在用户界面上从视频选择帧 | |
Osunkoya et al. | Gesture-based human-computer-interaction using Kinect for windows mouse control and powerpoint presentation | |
JP2016528612A5 (ja) | ||
WO2018180406A1 (ja) | シーケンス生成装置およびその制御方法 | |
AU2015309688B2 (en) | Methods and systems for positioning and controlling sound images in three-dimensional space | |
Ramadan et al. | A Novel Control System for a Laptop with Gestures Recognition | |
CN104951051A (zh) | 一种信息处理方法和电子设备 | |
CN114791766A (zh) | 一种基于ar设备的操作方法、装置、介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131209 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141105 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20150129 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150427 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150707 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151106 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20151113 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20160112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160203 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5885309 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |