JPWO2012147960A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JPWO2012147960A1 JPWO2012147960A1 JP2013512493A JP2013512493A JPWO2012147960A1 JP WO2012147960 A1 JPWO2012147960 A1 JP WO2012147960A1 JP 2013512493 A JP2013512493 A JP 2013512493A JP 2013512493 A JP2013512493 A JP 2013512493A JP WO2012147960 A1 JPWO2012147960 A1 JP WO2012147960A1
- Authority
- JP
- Japan
- Prior art keywords
- unit
- reference data
- subject
- camera
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Studio Devices (AREA)
Abstract
Description
カメラで撮像された被写体の撮像画像を入力する入力部と、
前記カメラと前記被写体との距離を示す情報を取得する取得部と、
前記被写体の態様を特定するための基準データとその態様に対応する入力データとを、前記カメラと前記被写体との距離ごとに記憶する記憶部と、
前記記憶部に記憶された前記基準データの中から、前記取得部で取得された情報によって示される距離に対応する基準データを選択する選択部と、
前記選択部で選択された基準データを参照して、前記入力部に入力された撮像画像における前記被写体の態様を特定し、特定された態様に対応するデータを特定する特定部と、
を備える。
カメラで撮像された被写体の態様を特定するための基準データとその態様に対応する入力データとを、前記カメラと前記被写体との距離ごとに記憶する記憶ステップと、
前記カメラで撮像された被写体の撮像画像を入力する入力ステップと、
前記カメラと前記被写体との距離を示す情報を取得する取得部と、
前記記憶ステップで記憶された前記基準データの中から、前記取得ステップで取得された情報によって示される距離に対応する基準データを選択する選択ステップと、
前記選択ステップで選択された基準データを参照して、前記入力ステップで入力された撮像画像における前記被写体の態様を特定し、特定された態様に対応するデータを特定する特定ステップと、
を含む。
コンピュータを、
カメラで撮像された被写体の撮像画像を入力する入力部、
前記カメラと前記被写体との距離を示す情報を取得する取得部、
前記被写体の態様を特定するための基準データとその態様に対応する入力データとを、前記カメラと前記被写体との距離ごとに記憶する記憶部、
前記記憶部に記憶された前記基準データの中から、前記取得部で取得された情報によって示される距離に対応する基準データを選択する選択部、
前記選択部で選択された基準データを参照して、前記入力部に入力された撮像画像における前記被写体の態様を特定し、特定された態様に対応するデータを特定する特定部、
として機能させる。
情報処理装置100は、種々のアプリケーションソフトウェアを実行可能である。情報処理装置100は、アプリケーションソフトウェアへの入力のために、操作部1からの入力処理に加えて、以下に説明するように、ユーザがジェスチャで入力した場合の入力処理を行う。
カメラで撮像された被写体の撮像画像を入力する入力部と、
前記カメラと前記被写体との距離を示す情報を取得する取得部と、
前記被写体の態様を特定するための基準データとその態様に対応する入力データとを、前記カメラと前記被写体との距離ごとに記憶する記憶部と、
前記記憶部に記憶された前記基準データの中から、前記取得部で取得された情報によって示される距離に対応する基準データを選択する選択部と、
前記選択部で選択された基準データを参照して、前記入力部に入力された撮像画像における前記被写体の態様を特定し、特定された態様に対応するデータを特定する特定部と、
を備える情報処理装置。
前記記憶部は、
前記カメラと前記被写体との距離が近くなるほど、より多くの態様を特定するための基準データを記憶する、
ことを特徴とする付記1に記載の情報処理装置。
前記記憶部は、
前記被写体としての手の動きと形状と傾きとを、前記態様として特定するための基準データを記憶する、
ことを特徴とする付記1又は2に記載の情報処理装置。
前記特定部は、
前記入力部によって入力された撮像画像における被写体の画像を抽出し、
抽出した被写体の画像が表す被写体の態様を、前記選択部で選択された基準データに基づいて特定する、
ことを特徴とする付記1乃至3のいずれか一つに記載の情報処理装置。
前記取得部は、
前記撮像部によって撮像された画像データを解析して、前記カメラと前記被写体との距離を示す情報を取得する、
ことを特徴とする付記1乃至4のいずれか一つに記載の情報処理装置。
前記カメラで撮像された被写体の撮像画像を表示する表示部をさらに備える、
ことを特徴とする付記1乃至5のいずれか一つに記載の情報処理装置。
前記表示部は、
前記選択部で選択された基準データに基づいて特定される前記被写体の態様及びその態様に対応する入力データを表示する、
ことを特徴とする付記6に記載の情報処理装置。
カメラで撮像された被写体の態様を特定するための基準データとその態様に対応する入力データとを、前記カメラと前記被写体との距離ごとに記憶する記憶ステップと、
前記カメラで撮像された被写体の撮像画像を入力する入力ステップと、
前記カメラと前記被写体との距離を示す情報を取得する取得部と、
前記記憶ステップで記憶された前記基準データの中から、前記取得ステップで取得された情報によって示される距離に対応する基準データを選択する選択ステップと、
前記選択ステップで選択された基準データを参照して、前記入力ステップで入力された撮像画像における前記被写体の態様を特定し、特定された態様に対応するデータを特定する特定ステップと、
を含む情報処理方法。
コンピュータを、
カメラで撮像された被写体の撮像画像を入力する入力部、
前記カメラと前記被写体との距離を示す情報を取得する取得部、
前記被写体の態様を特定するための基準データとその態様に対応する入力データとを、前記カメラと前記被写体との距離ごとに記憶する記憶部、
前記記憶部に記憶された前記基準データの中から、前記取得部で取得された情報によって示される距離に対応する基準データを選択する選択部、
前記選択部で選択された基準データを参照して、前記入力部に入力された撮像画像における前記被写体の態様を特定し、特定された態様に対応するデータを特定する特定部、
として機能させるプログラムを記録した記録媒体。
2 カメラ
3 表示部
3W ジェスチャ入力支援用ウインドウ
3i ウインドウ
4 記憶部
5 制御部
41 遠距離用基準データ記憶部
42 中距離用基準データ記憶部
43 近距離用基準データ記憶部
51 入力部
52 取得部
53 選択部
54 特定部
55 実行部
100 情報処理装置
200 手
カメラで撮像された被写体の態様を特定するための基準データとその態様に対応する入力データとを、前記カメラと前記被写体との距離ごとに記憶する記憶ステップと、
前記カメラで撮像された被写体の撮像画像を入力する入力ステップと、
前記カメラと前記被写体との距離を示す情報を取得する取得ステップと、
前記記憶ステップで記憶された前記基準データの中から、前記取得ステップで取得された情報によって示される距離に対応する基準データを選択する選択ステップと、
前記選択ステップで選択された基準データを参照して、前記入力ステップで入力された撮像画像における前記被写体の態様を特定し、特定された態様に対応するデータを特定する特定ステップと、
を含む。
コンピュータを、
カメラで撮像された被写体の撮像画像を入力する入力部、
前記カメラと前記被写体との距離を示す情報を取得する取得部、
前記被写体の態様を特定するための基準データとその態様に対応する入力データとを、前記カメラと前記被写体との距離ごとに記憶する記憶部、
前記記憶部に記憶された前記基準データの中から、前記取得部で取得された情報によって示される距離に対応する基準データを選択する選択部、
前記選択部で選択された基準データを参照して、前記入力部に入力された撮像画像における前記被写体の態様を特定し、特定された態様に対応するデータを特定する特定部、
として機能させる。
Claims (9)
- カメラで撮像された被写体の撮像画像を入力する入力部と、
前記カメラと前記被写体との距離を示す情報を取得する取得部と、
前記被写体の態様を特定するための基準データとその態様に対応する入力データとを、前記カメラと前記被写体との距離ごとに記憶する記憶部と、
前記記憶部に記憶された前記基準データの中から、前記取得部で取得された情報によって示される距離に対応する基準データを選択する選択部と、
前記選択部で選択された基準データを参照して、前記入力部に入力された撮像画像における前記被写体の態様を特定し、特定された態様に対応するデータを特定する特定部と、
を備える情報処理装置。 - 前記記憶部は、
前記カメラと前記被写体との距離が近くなるほど、より多くの態様を特定するための基準データを記憶する、
ことを特徴とする請求項1に記載の情報処理装置。 - 前記記憶部は、
前記被写体としての手の動きと形状と傾きとを、前記態様として特定するための基準データを記憶する、
ことを特徴とする請求項1又は2に記載の情報処理装置。 - 前記特定部は、
前記入力部によって入力された撮像画像における被写体の画像を抽出し、
抽出した被写体の画像が表す被写体の態様を、前記選択部で選択された基準データに基づいて特定する、
ことを特徴とする請求項1乃至3のいずれか一項に記載の情報処理装置。 - 前記取得部は、
前記撮像部によって撮像された画像データを解析して、前記カメラと前記被写体との距離を示す情報を取得する、
ことを特徴とする請求項1乃至4のいずれか一項に記載の情報処理装置。 - 前記カメラで撮像された被写体の撮像画像を表示する表示部をさらに備える、
ことを特徴とする請求項1乃至5のいずれか一項に記載の情報処理装置。 - 前記表示部は、
前記選択部で選択された基準データに基づいて特定される前記被写体の態様及びその態様に対応する入力データを表示する、
ことを特徴とする請求項6に記載の情報処理装置。 - カメラで撮像された被写体の態様を特定するための基準データとその態様に対応する入力データとを、前記カメラと前記被写体との距離ごとに記憶する記憶ステップと、
前記カメラで撮像された被写体の撮像画像を入力する入力ステップと、
前記カメラと前記被写体との距離を示す情報を取得する取得部と、
前記記憶ステップで記憶された前記基準データの中から、前記取得ステップで取得された情報によって示される距離に対応する基準データを選択する選択ステップと、
前記選択ステップで選択された基準データを参照して、前記入力ステップで入力された撮像画像における前記被写体の態様を特定し、特定された態様に対応するデータを特定する特定ステップと、
を含む情報処理方法。 - コンピュータを、
カメラで撮像された被写体の撮像画像を入力する入力部、
前記カメラと前記被写体との距離を示す情報を取得する取得部、
前記被写体の態様を特定するための基準データとその態様に対応する入力データとを、前記カメラと前記被写体との距離ごとに記憶する記憶部、
前記記憶部に記憶された前記基準データの中から、前記取得部で取得された情報によって示される距離に対応する基準データを選択する選択部、
前記選択部で選択された基準データを参照して、前記入力部に入力された撮像画像における前記被写体の態様を特定し、特定された態様に対応するデータを特定する特定部、
として機能させるプログラムを記録した記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013512493A JP5709227B2 (ja) | 2011-04-28 | 2012-04-27 | 情報処理装置、情報処理方法及びプログラム |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011101894 | 2011-04-28 | ||
JP2011101894 | 2011-04-28 | ||
PCT/JP2012/061470 WO2012147960A1 (ja) | 2011-04-28 | 2012-04-27 | 情報処理装置、情報処理方法及び記録媒体 |
JP2013512493A JP5709227B2 (ja) | 2011-04-28 | 2012-04-27 | 情報処理装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2012147960A1 true JPWO2012147960A1 (ja) | 2014-07-28 |
JP5709227B2 JP5709227B2 (ja) | 2015-04-30 |
Family
ID=47072471
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013512493A Active JP5709227B2 (ja) | 2011-04-28 | 2012-04-27 | 情報処理装置、情報処理方法及びプログラム |
Country Status (7)
Country | Link |
---|---|
US (1) | US9329673B2 (ja) |
EP (1) | EP2703949B1 (ja) |
JP (1) | JP5709227B2 (ja) |
KR (1) | KR101514168B1 (ja) |
CN (1) | CN103562821B (ja) |
IL (1) | IL229043B (ja) |
WO (1) | WO2012147960A1 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013126784A2 (en) | 2012-02-23 | 2013-08-29 | Huston Charles D | System and method for creating an environment and for sharing a location based experience in an environment |
US10600235B2 (en) | 2012-02-23 | 2020-03-24 | Charles D. Huston | System and method for capturing and sharing a location based experience |
JP2014097112A (ja) * | 2012-11-13 | 2014-05-29 | Takashi Yoshimine | 操作装置及び操作方法 |
JP6110731B2 (ja) * | 2013-05-31 | 2017-04-05 | 株式会社第一興商 | ジェスチャーによるコマンド入力識別システム |
JP6344032B2 (ja) * | 2013-09-26 | 2018-06-20 | 富士通株式会社 | ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム |
US10057483B2 (en) * | 2014-02-12 | 2018-08-21 | Lg Electronics Inc. | Mobile terminal and method thereof |
JP6341755B2 (ja) * | 2014-05-26 | 2018-06-13 | キヤノン株式会社 | 情報処理装置、方法及びプログラム並びに記録媒体 |
KR101636460B1 (ko) * | 2014-11-05 | 2016-07-05 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
WO2016170872A1 (ja) * | 2015-04-20 | 2016-10-27 | 三菱電機株式会社 | 情報表示装置及び情報表示方法 |
AU2016269629B2 (en) | 2015-06-03 | 2021-08-19 | Koninklijke Philips N.V. | Safety improvements for UV radiation in aquatic applications |
KR20170068049A (ko) * | 2015-12-09 | 2017-06-19 | 원광대학교산학협력단 | 어플리케이션 자동구동장치 |
CN108369451B (zh) * | 2015-12-18 | 2021-10-29 | 索尼公司 | 信息处理装置、信息处理方法及计算机可读存储介质 |
US10303259B2 (en) * | 2017-04-03 | 2019-05-28 | Youspace, Inc. | Systems and methods for gesture-based interaction |
US10303417B2 (en) | 2017-04-03 | 2019-05-28 | Youspace, Inc. | Interactive systems for depth-based input |
US10437342B2 (en) | 2016-12-05 | 2019-10-08 | Youspace, Inc. | Calibration systems and methods for depth-based interfaces with disparate fields of view |
US10325184B2 (en) * | 2017-04-12 | 2019-06-18 | Youspace, Inc. | Depth-value classification using forests |
CN109558000B (zh) * | 2017-09-26 | 2021-01-22 | 京东方科技集团股份有限公司 | 一种人机交互方法及电子设备 |
US11221683B2 (en) * | 2019-05-09 | 2022-01-11 | Dell Products, L.P. | Graphical user interface (GUI) manipulation using hand gestures over a hovering keyboard |
KR102269466B1 (ko) * | 2019-05-21 | 2021-06-28 | 이진우 | 동작 인식 기반의 문자 입력 방법 및 그 장치 |
CN112822388B (zh) * | 2019-11-15 | 2022-07-22 | 北京小米移动软件有限公司 | 拍摄模式的触发方法、装置、设备及存储介质 |
CN113630556A (zh) * | 2021-09-26 | 2021-11-09 | 北京市商汤科技开发有限公司 | 聚焦方法、装置、电子设备以及存储介质 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5594469A (en) | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
JP3777650B2 (ja) * | 1995-04-28 | 2006-05-24 | 松下電器産業株式会社 | インターフェイス装置 |
JP2001216069A (ja) * | 2000-02-01 | 2001-08-10 | Toshiba Corp | 操作入力装置および方向検出方法 |
JP2002083302A (ja) | 2000-09-07 | 2002-03-22 | Sony Corp | 情報処理装置、動作認識処理方法及びプログラム格納媒体 |
JP3725460B2 (ja) | 2000-10-06 | 2005-12-14 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス |
US8035612B2 (en) * | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
JP2003131785A (ja) | 2001-10-22 | 2003-05-09 | Toshiba Corp | インタフェース装置および操作制御方法およびプログラム製品 |
JP2004356819A (ja) | 2003-05-28 | 2004-12-16 | Sharp Corp | リモート操作装置 |
JP4723799B2 (ja) * | 2003-07-08 | 2011-07-13 | 株式会社ソニー・コンピュータエンタテインメント | 制御システムおよび制御方法 |
JP2004078977A (ja) | 2003-09-19 | 2004-03-11 | Matsushita Electric Ind Co Ltd | インターフェイス装置 |
JP2005190283A (ja) | 2003-12-26 | 2005-07-14 | Nec Access Technica Ltd | 情報入力装置 |
JP4692159B2 (ja) * | 2004-08-31 | 2011-06-01 | パナソニック電工株式会社 | ジェスチャースイッチ |
JP2007219713A (ja) | 2006-02-15 | 2007-08-30 | Sony Corp | 照会システム、撮像装置、照会装置、情報処理方法、プログラム |
JP2008146243A (ja) | 2006-12-07 | 2008-06-26 | Toshiba Corp | 情報処理装置、情報処理方法、及びプログラム |
KR101141087B1 (ko) | 2007-09-14 | 2012-07-12 | 인텔렉츄얼 벤처스 홀딩 67 엘엘씨 | 제스처-기반 사용자 상호작용의 프로세싱 |
JP4318056B1 (ja) | 2008-06-03 | 2009-08-19 | 島根県 | 画像認識装置および操作判定方法 |
US20100251171A1 (en) * | 2009-03-31 | 2010-09-30 | Parulski Kenneth A | Graphical user interface which adapts to viewing distance |
JP5256109B2 (ja) * | 2009-04-23 | 2013-08-07 | 株式会社日立製作所 | 表示装置 |
KR101567785B1 (ko) * | 2009-05-28 | 2015-11-11 | 삼성전자주식회사 | 휴대단말에서 줌 기능 제어 방법 및 장치 |
JP5614014B2 (ja) * | 2009-09-04 | 2014-10-29 | ソニー株式会社 | 情報処理装置、表示制御方法及び表示制御プログラム |
US8564534B2 (en) * | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
JP2011192081A (ja) | 2010-03-15 | 2011-09-29 | Canon Inc | 情報処理装置及びその制御方法 |
-
2012
- 2012-04-27 US US14/112,280 patent/US9329673B2/en not_active Expired - Fee Related
- 2012-04-27 CN CN201280020559.XA patent/CN103562821B/zh active Active
- 2012-04-27 EP EP12776429.8A patent/EP2703949B1/en not_active Not-in-force
- 2012-04-27 KR KR1020137027930A patent/KR101514168B1/ko active IP Right Grant
- 2012-04-27 JP JP2013512493A patent/JP5709227B2/ja active Active
- 2012-04-27 WO PCT/JP2012/061470 patent/WO2012147960A1/ja active Application Filing
-
2013
- 2013-10-24 IL IL229043A patent/IL229043B/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
US9329673B2 (en) | 2016-05-03 |
CN103562821A (zh) | 2014-02-05 |
EP2703949A1 (en) | 2014-03-05 |
WO2012147960A1 (ja) | 2012-11-01 |
CN103562821B (zh) | 2016-11-09 |
EP2703949A4 (en) | 2014-10-22 |
IL229043A0 (en) | 2013-12-31 |
KR101514168B1 (ko) | 2015-04-21 |
EP2703949B1 (en) | 2017-10-25 |
JP5709227B2 (ja) | 2015-04-30 |
KR20140002007A (ko) | 2014-01-07 |
IL229043B (en) | 2018-04-30 |
US20140043232A1 (en) | 2014-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5709227B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR101514169B1 (ko) | 정보 처리 장치, 정보 처리 방법 및 기록 매체 | |
JP6095283B2 (ja) | 情報処理装置、およびその制御方法 | |
EP2364013B1 (en) | Information processing apparatus, method and program for imaging device | |
JP2016520946A (ja) | 人間対コンピュータの自然な3次元ハンドジェスチャベースのナビゲーション方法 | |
KR101929077B1 (ko) | 이미지 식별 방법 및 이미지 식별 장치 | |
KR102347248B1 (ko) | 터치 제스쳐 인식 방법 및 장치 | |
JP5769277B2 (ja) | 入力装置、入力方法及びプログラム | |
KR101631011B1 (ko) | 제스처 인식 장치 및 제스처 인식 장치의 제어 방법 | |
EP2905680B1 (en) | Information processing apparatus, information processing method, and program | |
EP2980755A1 (en) | Method for partitioning area, and inspection device | |
JP2007034525A (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム | |
KR101281461B1 (ko) | 영상분석을 이용한 멀티 터치 입력 방법 및 시스템 | |
US10379678B2 (en) | Information processing device, operation detection method, and storage medium that determine the position of an operation object in a three-dimensional space based on a histogram | |
CN109101173A (zh) | 屏幕布局控制方法、装置、设备及计算机可读存储介质 | |
JP5558899B2 (ja) | 情報処理装置、その処理方法及びプログラム | |
Rupanagudi et al. | A novel and secure methodology for keyless ignition and controlling an automobile using air gestures | |
JP5790257B2 (ja) | 文字入力装置,文字入力プログラムおよび文字入力方法 | |
JP5785876B2 (ja) | ジェスチャー認識装置におけるスイッチ押下判定システム、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 | |
US20230305634A1 (en) | Gesture recognition apparatus, head-mounted-type display apparatus, gesture recognition method, and non-transitory computer readable medium | |
JP2014203119A (ja) | 入力装置、入力処理方法及びプログラム | |
EP2919096A1 (en) | Gesture recognition apparatus and control method of gesture recognition apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20140616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140617 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150203 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5709227 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |