JP2014029565A - 情報処理装置 - Google Patents
情報処理装置 Download PDFInfo
- Publication number
- JP2014029565A JP2014029565A JP2010260866A JP2010260866A JP2014029565A JP 2014029565 A JP2014029565 A JP 2014029565A JP 2010260866 A JP2010260866 A JP 2010260866A JP 2010260866 A JP2010260866 A JP 2010260866A JP 2014029565 A JP2014029565 A JP 2014029565A
- Authority
- JP
- Japan
- Prior art keywords
- hand
- movement
- gesture
- information processing
- detection unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42201—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Landscapes
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Analytical Chemistry (AREA)
- Neurosurgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Input From Keyboards Or The Like (AREA)
Abstract
【課題】本発明は、フィードバック画面を表示することによって、操作感のあるジェスチャー操作を可能にする情報処理装置を提供する。
【解決手段】本発明の情報処理装置は、手の動きによる操作指示を受け付けることによって、対応する動作を行う情報処理装置であって、手の動きを検出する検出手段と、前記検出手段で検出した手の動きに応じた情報をディスプレイに表示する制御手段とを備え、前記制御手段は、前記検出手段で最初に手を検出したときに、その後一定時間内に、前記検出手段で手の動きを検出されたかどうかで、異なる処理を行う。
【選択図】図1
【解決手段】本発明の情報処理装置は、手の動きによる操作指示を受け付けることによって、対応する動作を行う情報処理装置であって、手の動きを検出する検出手段と、前記検出手段で検出した手の動きに応じた情報をディスプレイに表示する制御手段とを備え、前記制御手段は、前記検出手段で最初に手を検出したときに、その後一定時間内に、前記検出手段で手の動きを検出されたかどうかで、異なる処理を行う。
【選択図】図1
Description
本発明は、非接触センサーを使って手の動作をジェスチャーとして認識し、その認識結果であるジェスチャーに基づき操作可能な情報処理装置に関するものである。
従来、ジェスチャーで操作可能な情報処理装置は、ビデオカメラに向かって手を操作して、ビデオカメラに入力された映像から手の移動と形状を認識し、その認識結果によって制御対象装置を制御するものが知られている。
特許文献1は、ビデオカメラから入力された手の移動と形状を認識し、メニュー画面とともに表示されるジェスチャー表示一覧を確認しながら操作を行うインターフェース装置を開示されている。
しかしながら、従来の情報処理装置は、ユーザーによるジェスチャー操作に対するフィードバックがなく、操作感に欠けるという問題があった。
そこで、本発明は、上記従来の問題点を解決すべく、ジェスチャーによる操作に対してフィードバック画面を表示することで、操作感のある情報処理装置を提供することを目的とする。
上記目的を達成するために、手の動きによる操作指示を受け付けることによって、対応する動作を行う情報処理装置であって、手の動きを検出する検出手段と、前記検出手段で検出した手の動きに応じた情報をディスプレイに表示する制御手段とを備え、前記制御手段は、前記検出手段で最初に手を検出したときに、その後一定時間内に、前記検出手段で手の動きを検出されたかどうかで、異なる処理を行うようにしたものである。
このような構成をとることにより、ジェスチャー操作に対するフィードバックをユーザに与えることで、より操作感のあるジェスチャー操作を可能にするという作用を有する。
上記の構成によれば、フィードバック画面を表示することによって、操作感のあるジェスチャー操作を可能にする情報処理装置を提供できる。
以下、本発明の音楽再生機器の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
図1に、実施の形態1にかかる情報処理装置のブロック図を示す。
図1に、実施の形態1にかかる情報処理装置のブロック図を示す。
情報処理装置は、ジェスチャー検知手段101と、装置制御手段102と、モニタ103と、チューナー104と、スピーカー105で構成される。
ジェスチャー検知手段101は、図2に示すように、2つの赤外線LED106と1つの赤外線センサー107で構成され、モニタ103の上部の両端に赤外線LED106、それら2つの赤外線LED106の中間位置に赤外線センサー107を配置されている。2つの赤外線LED106から射出された赤外線は、手で遮られて反射し、2つの赤外線LED106の中間に配置された赤外線センサー107に入射する。赤外線センサー107に入射した赤外線の情報をもとに、手の位置を検出する。さらにジェスチャー検知手段101は、ジェスチャー検知手段101で検出した手の位置を一定間隔に取得することで、手の動きを検出することができる。
装置制御手段102は、ジェスチャー検知手段101で検出した手の位置と動きから「固定」と「移動」の2種類のジェスチャーのいずれであるのかを判定する。
モニタ103は、後述するチューナー104で受信した映像信号を表示するとともに、装置制御手段102で判定されたジェスチャーに関する情報を表示する。本実施の形態では、モニタ103は、情報処理装置の一構成要素としているが、情報処理装置に接続される外部機器であってもかまわない。
チューナー104は、映像信号や音声信号を受信して、装置制御手段102で処理することで、映像信号をモニタ103に出力し、音声信号をスピーカー105に出力する。なお、本実施の形態である情報処理装置では、チューナー104からの信号を表示しているが、DVDやBDのようなディスクやSDカード内に格納されたコンテンツを表示することも可能である。
本実施の形態の情報処理装置は、次の2つのジェスチャーを扱う。
(1)「固定」ジェスチャー
図3は、「固定」ジェスチャーにおける手の動きを示す。
図3は、「固定」ジェスチャーにおける手の動きを示す。
本実施の形態では、手を2つの赤外線LED106のどちらか一方に対して1秒以上かざし続けることで、その手の動作を「固定」ジェスチャーとみなす。
例えば、図9(a)に示すように、テレビ放送を視聴している時に、左側の赤外線LED106に固定し続けた場合、スピーカー105から出力される音量を小さくするように、ボリュームダウンの動作を行う。
また、図9(b)に示すように、手を右側の赤外線LED106に固定し続けた場合、スピーカー105から出力される音量を大きくするように、ボリュームアップの動作を行う。なお、本実施の形態では、「固定」ジェスチャーを判断する時間を1秒としたが、これに限らない。
(2)「移動」ジェスチャー
図4に、「移動」ジェスチャーにおける手の動きを示す。
図4に、「移動」ジェスチャーにおける手の動きを示す。
本実施の形態では、2つの赤外線LED106の一方から他方に対して手を移動させることで、その手の動きを「移動」ジェスチャーとみなす。
例えば、図10(a)に示すように、テレビ放送を視聴している時に、手を左側の赤外線LED106から右側の赤外線LED106へ移動した場合、現在視聴中の次のチャンネルを選局する。また、図10(b)に示すように、右側の赤外線LED106から左側の赤外線LED106へ手を移動した場合、現在視聴中の前のチャンネルを選局する。
次に、「固定」及び「移動」ジェスチャーの判定方法を説明する。
まず、ジェスチャー検知手段101は、装置制御手段102に対して、手の動きに応じて、「右検知」、「左検知」、「左から右への移動」、「右から左への移動」、「未検知」の5つのセンサーイベントのいずれかを発行する。装置制御手段102は、これらのセンサーイベントを受け付けることで、ユーザーが行った手の動きを把握することができる。なお、本実施の形態では、イベントによる処理方法で、ジェスチャーの判定方法を説明しているが、処理方法はイベント方式には限らず、状態を保存する方法でも構わない。
(1)「右検知」センサーイベント
ジェスチャー検知手段101は、ユーザーの手が右側の赤外線LED106にかざされたことを検知すると、装置制御手段102に対し、「右検知」センサーイベントを発行する。
ジェスチャー検知手段101は、ユーザーの手が右側の赤外線LED106にかざされたことを検知すると、装置制御手段102に対し、「右検知」センサーイベントを発行する。
装置制御手段102は、「右検知」センサーイベントを受信してから1秒以上他のセンサーイベントを受信しないときには、ユーザーの手が右側の赤外線LED106で固定されていると判断する。本実施の形態では、固定に対応する動作として、スピーカー105の音量を大きくする処理を行う。さらに、装置制御手段102は、ジェスチャー検知手段から「未検知」センサーイベントを受信するまで、1秒ごとに右側の赤外線LED106で固定に対応する動作を繰り返す。すなわち、スピーカー105の音量を大きくし続けることになる。
(2)「左検知」センサーイベント
ジェスチャー検知手段101は、ユーザーの手が左側の赤外線LED106にかざされたことを検知すると、装置制御手段102に対し、「左検知」センサーイベントを発行する。このとき、装置制御手段102は、「左検知」センサーイベントを受信してから1秒以上他のセンサーイベントを受信しないときには、ユーザーの手が左側の赤外線LED106で固定されていると判断する。本実施の形態では、固定の動作として、スピーカー105の音量を小さくする処理を行う。さらに、装置制御手段102は、ジェスチャー検知手段から「未検知」センサーイベントを受信するまで、1秒ごとに左側の赤外線LED106で固定の動作を繰り返す。すなわち、スピーカー105の音量を小さくし続けることになる。
ジェスチャー検知手段101は、ユーザーの手が左側の赤外線LED106にかざされたことを検知すると、装置制御手段102に対し、「左検知」センサーイベントを発行する。このとき、装置制御手段102は、「左検知」センサーイベントを受信してから1秒以上他のセンサーイベントを受信しないときには、ユーザーの手が左側の赤外線LED106で固定されていると判断する。本実施の形態では、固定の動作として、スピーカー105の音量を小さくする処理を行う。さらに、装置制御手段102は、ジェスチャー検知手段から「未検知」センサーイベントを受信するまで、1秒ごとに左側の赤外線LED106で固定の動作を繰り返す。すなわち、スピーカー105の音量を小さくし続けることになる。
(3)「未検知」センサーイベント
ジェスチャー検知手段101は、右側あるいは左側の赤外線LED106から手を遠ざけて赤外線センサー107で赤外線を検知できなくなると、装置制御手段102に対し「未検知」センサーイベントを発行する。
ジェスチャー検知手段101は、右側あるいは左側の赤外線LED106から手を遠ざけて赤外線センサー107で赤外線を検知できなくなると、装置制御手段102に対し「未検知」センサーイベントを発行する。
(4)「左から右への移動」センサーイベント
ジェスチャー検知手段101は、ユーザーが手を左側の赤外線LED106から、右側の赤外線LED106に移動させると、装置制御手段102に対し「左検知」センサーイベントを発行した後、さらに「左から右への移動」センサーイベントを発行する。
ジェスチャー検知手段101は、ユーザーが手を左側の赤外線LED106から、右側の赤外線LED106に移動させると、装置制御手段102に対し「左検知」センサーイベントを発行した後、さらに「左から右への移動」センサーイベントを発行する。
装置制御手段102は、ジェスチャー検知手段101から「左検知」センサーイベント受信後1秒未満で「左から右への移動」センサーイベントを受信すると、手が左側から右側へ移動されたと判断する。本実施の形態では、左から右への移動に対応する動作として、次のチャンネルを選局する処理を行う。
ユーザーが手を左側の赤外線LED106で固定しスピーカー105の音量を小さくしている際に、音量を小さくし過ぎたと感じ、手を右側へ移動させて右側の赤外線LED106において「固定」ジェスチャーを行った場合、ジェスチャー検知手段101は、装置制御手段102に対し「左から右へ移動」センサーイベントを発行する。このとき、装置制御手段102が、手が右側の赤外線LED106へ移動されたと判断してしまうと、ユーザーはジェスチャーで音量に関する処理を行っているにもかかわらず、ユーザーの意図しないチャンネル選局が行われてしまうことになる。そこで、本実施の形態では、ユーザーによる意図しないジェスチャー操作を防ぐために、装置制御手段102は、「固定」ジェスチャーと認識しているときに、ジェスチャー検知手段101から「左から右へ移動」センサーイベントを受信したとしても、移動に対応する処理、すわなち、チャンネル選局の処理を行わないようにした。これにより、ユーザーの意図しないチャンネル変更が発生することはなくなる。
また、ユーザーが、左側の赤外線LED106から右側の赤外線LED106へ手を何度も移動させることで、連続的に「移動」ジェスチャーを行い、次のチャンネルへ次々と選局する場合には、右側の赤外線LED106に行った手を左側の赤外線LED106に戻す必要がある。ジェスチャー検知手段101は、左側の赤外線LED106に手を戻す動作を検知し、装置制御手段102に対し「右から左へ移動」センサーイベントを発行する。このとき、装置制御手段102が、手が左側の赤外線LED106に移動したと判断してしまうと、ユーザーの意図しない、前のチャンネルへの選局動作が行われてしまい、次のチャンネルに次々と選局されずに、2つのチャンネルの間で選局が繰り返されることになる。従って、ユーザーによる意図しない前のチャンネルへの選局を防ぐために、装置制御手段102は、「左から右へ移動」センサーイベントを受けて「移動」ジェスチャーと認識しているときに、ジェスチャー検知手段101から反対方向の「右から左へ移動」センサーイベントを受信したとしても、前のチャンネルへの選局を行わないようにした。これにより、ユーザーの意図しないチャンネル選局が発生することはなくなる。
(5)「右から左への移動」センサーイベント
ジェスチャー検知手段101は、ユーザーが手を右側の赤外線LED106から、左側の赤外線LED106に移動させると、装置制御手段102に対し「右検知」センサーイベントを発行した後、さらに「右から左への移動」センサーイベントを発行する。
ジェスチャー検知手段101は、ユーザーが手を右側の赤外線LED106から、左側の赤外線LED106に移動させると、装置制御手段102に対し「右検知」センサーイベントを発行した後、さらに「右から左への移動」センサーイベントを発行する。
装置制御手段102は、ジェスチャー検知手段101から「右検知」センサーイベント受信後1秒未満で「右から左への移動」センサーイベントを受信すると、手が右側から左側へ移動されたと判断する。本実施の形態では、右から左への移動に対応する動作として、前のチャンネルを選局する処理を行う。
ユーザーが手を右側の赤外線LED106で固定しスピーカー105の音量を大きくしている際に、音量を大きくし過ぎたと感じ、手を左側へ移動させて左側の赤外線LED106において「固定」ジェスチャーを行った場合、ジェスチャー検知手段101は、装置制御手段102に対し「右から左へ移動」センサーイベントを発行する。このとき、装置制御手段102が、手が左側の赤外線LED106へ移動されたと判断してしまうと、ユーザーはジェスチャーで音量に関する処理を行っているにもかかわらず、ユーザーの意図しないチャンネル選局が行われてしまうことになる。そこで、本実施の形態では、ユーザーによる意図しないジェスチャー操作を防ぐために、装置制御手段102は、「固定」ジェスチャーと認識しているときに、ジェスチャー検知手段101から「右から左へ移動」センサーイベントを受信したとしても、移動に対応する処理、すわなち、チャンネル選局の処理を行わないようにした。これにより、ユーザーの意図しないチャンネル変更が発生することはなくなる。
また、ユーザーが、右側の赤外線LED106から左側の赤外線LED106へ手を何度も移動させることで、連続的に「移動」ジェスチャーを行い、前のチャンネルへ次々と選局する場合には、左側の赤外線LED106に行った手を右側の赤外線LED106に戻す必要がある。ジェスチャー検知手段101は、右側の赤外線LED106に手を戻す動作を検知し、装置制御手段102に対し「左から右へ移動」センサーイベントを発行する。このとき、装置制御手段102が、手が右側の赤外線LED106に移動したと判断してしまうと、ユーザーの意図しない、次のチャンネルへの選局動作が行われてしまい、前のチャンネルに次々と選局されずに、2つのチャンネルの間で選局が繰り返されることになる。従って、ユーザーによる意図しない次のチャンネルへの選局を防ぐために、装置制御手段102は、「右から左へ移動」センサーイベントを受けて「移動」ジェスチャーと認識しているときに、ジェスチャー検知手段101から反対方向の「左から右へ移動」センサーイベントを受信したとしても、次のチャンネルへの選局を行わないようにした。これにより、ユーザーの意図しないチャンネル選局が発生することはなくなる。
次に、「固定」及び「移動」ジェスチャーを行ったときの操作感を示すフィードバック画面を説明する。フィードバック画面は、手の位置や手の動きに応じて、以下の3つを用意している。
(1)赤外線センサー反応時のフィードバック画面
装置制御手段102は、2つの赤外線LED106のどちらか一方に対して、手をかざす動作をしたときに、図5に示すようなフィードバック画面を表示する。これは、「固定」ジェスチャーを行ったとき、最初に手を2つの赤外線LED106のどちらか一方に対してかざした後、1秒以上さらに手をかざし続ける必要があり、この間、手をかざすという動作の操作感が得られず、ユーザーが赤外線センサー107が反応していないという不安感をもつことになるためである。
装置制御手段102は、2つの赤外線LED106のどちらか一方に対して、手をかざす動作をしたときに、図5に示すようなフィードバック画面を表示する。これは、「固定」ジェスチャーを行ったとき、最初に手を2つの赤外線LED106のどちらか一方に対してかざした後、1秒以上さらに手をかざし続ける必要があり、この間、手をかざすという動作の操作感が得られず、ユーザーが赤外線センサー107が反応していないという不安感をもつことになるためである。
赤外線センサー反応時のフィードバック画面は、手を検知したことを明示的に示すスペース108と、今後の発生しうる手の動きに対応する処理を表示するためのスペース109で構成される。この赤外線センサー反応時のフィードバック画面が表示している間は、ユーザーの操作が確定していないので、赤外線センサー反応時のフィードバック画面は、今後の発生しうる手の動きに対応する処理を表示するためのスペース109で確保しておくことで、画面のちらつきを防止する。
(2)「移動」ジェスチャーのフィードバック画面
装置制御手段102は、「移動」ジェスチャーであることをを判断すると、モニタ103に既に表示している赤外線センサー反応時のフィードバック画面のスペース109に、「移動」を意味する表示を追加することで、図6に示すような「移動」ジェスチャーのフィードバック画面を表示する。
装置制御手段102は、「移動」ジェスチャーであることをを判断すると、モニタ103に既に表示している赤外線センサー反応時のフィードバック画面のスペース109に、「移動」を意味する表示を追加することで、図6に示すような「移動」ジェスチャーのフィードバック画面を表示する。
ユーザーは、図5の赤外線センサー反応時のフィードバック画面を確認しなくても、「移動」ジェスチャーを行うことができる。このとき、例えば、図7に示すように、赤外線センサー反応時のフィードバック画面と、「移動」ジェスチャーのフィードバック画面が全く異なるものであると、赤外線センサー反応時のフィードバック画面が一瞬だけ表示されたあと、「移動」ジェスチャーのフィードバック画面がすぐに表示されることになり、画面のちらつきが発生してしまうことになる。そこで、図5の赤外線センサー反応時のフィードバック画面に確定ジェスチャーの情報が追加されるスペース109を予め確保している。これにより、スペース109以外は同じ画面であるので、図6の「移動」ジェスチャーのフィードバック画面が表示されても、画面のちらつきを防止することができる。
(3)「固定」ジェスチャーのフィードバック画面
装置制御手段102は、「固定」ジェスチャーであることを判断すると、モニタ103に既に表示している赤外線センサー反応時のフィードバック画面のスペース109に、「固定」を意味する表示を追加することで、図8に示すような「固定」ジェスチャーのフィードバック画面を表示する。
装置制御手段102は、「固定」ジェスチャーであることを判断すると、モニタ103に既に表示している赤外線センサー反応時のフィードバック画面のスペース109に、「固定」を意味する表示を追加することで、図8に示すような「固定」ジェスチャーのフィードバック画面を表示する。
本発明は、非接触センサーを使って手の動作をジェスチャーとして認識し、その認識結果であるジェスチャーに基づき操作可能な情報処理装置を提供できる。そのため、本発明は、非接触センサーを搭載したテレビ、フォトフレーム等の電子機器に適用可能である。
101 ジェスチャー検知手段
102 装置制御手段
103 モニタ
104 チューナー
105 スピーカー
106 赤外線LED
107 赤外線センサー
108 手を検知したことを明示的に示すスペース
109 今後の発生しうる手の動きに対応する処理を表示するためのスペース
102 装置制御手段
103 モニタ
104 チューナー
105 スピーカー
106 赤外線LED
107 赤外線センサー
108 手を検知したことを明示的に示すスペース
109 今後の発生しうる手の動きに対応する処理を表示するためのスペース
Claims (6)
- 手の動きによる操作指示を受け付けることによって、対応する動作を行う情報処理装置であって、
手の動きを検出する検出手段と、
前記検出手段で検出した手の動きに応じた情報をディスプレイに表示する制御手段とを備え、
前記制御手段は、前記検出手段で最初に手を検出したときに、その後一定時間内に、前記検出手段で手の動きを検出されたかどうかで、異なる処理を行うことを特徴とする情報処理装置。 - 前記制御手段は、前記検出手段で最初に手を検出したときに、その対応するジェスチャー情報を表示することを特徴とする請求項1に記載の情報処理装置。
- 前記制御手段は、前記検出手段で最初に手を検出したときに、その後一定時間内に、前記検出手段で手の動きを検出したときには第1の情報を前記ジェスチャー情報に追加し、手の動きが止まっていると判断したときには第2の情報を前記ジェスチャー情報に追加することを特徴とする請求項2に記載の情報処理装置。
- 前記制御手段は、前記検出手段で最初に手を検出したときに、その後一定時間内に、手の動きが止まっていると判断したとき、前記検出手段で手の動きを検出できなくなるまで、手の動きが止まっていることに対応した処理をし続けることを特徴とする請求項3に記載の情報処理装置。
- 前記制御手段は、手の動きが止まっていることに対応した処理をし続けたあと、前記検出手段で手の動きを検出し、その後異なる地点で手の動きが止まっていると判断したときには、前記検出手段で検出した手の動きを考慮しないことを特徴とする請求項4に記載の情報処理装置。
- 前記制御手段は、手の動きを検出したあと、前記検出手段で反対の方向の手の動きを検出し、その後さらに前記手の動きと同じ方向の動きを検出したときには、前記検出手段で検出した前記反対方向の手の動きを考慮しないことを特徴とする請求項3に記載の情報処理装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010260866A JP2014029565A (ja) | 2010-11-24 | 2010-11-24 | 情報処理装置 |
US13/988,635 US8891025B2 (en) | 2010-11-24 | 2011-02-17 | Information processing device |
PCT/JP2011/000886 WO2012070161A1 (ja) | 2010-11-24 | 2011-02-17 | 情報処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010260866A JP2014029565A (ja) | 2010-11-24 | 2010-11-24 | 情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014029565A true JP2014029565A (ja) | 2014-02-13 |
Family
ID=46145535
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010260866A Pending JP2014029565A (ja) | 2010-11-24 | 2010-11-24 | 情報処理装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8891025B2 (ja) |
JP (1) | JP2014029565A (ja) |
WO (1) | WO2012070161A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2869594A1 (en) * | 2013-11-05 | 2015-05-06 | Xiaomi Inc. | Method and device for controlling terminal by using headset wire, and apparatus |
JP2017511632A (ja) * | 2014-03-31 | 2017-04-20 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | ジェスチャー制御イヤホン |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11301345B2 (en) * | 2011-11-30 | 2022-04-12 | Red Hat, Inc. | Desktop sound source discovery |
US20140354888A1 (en) * | 2011-12-27 | 2014-12-04 | Sony Corporation | Connection device |
JP2014032502A (ja) * | 2012-08-02 | 2014-02-20 | Alpine Electronics Inc | 操作入力装置、それを用いた車載機器及び操作入力処理方法 |
KR20140047948A (ko) * | 2012-10-15 | 2014-04-23 | 엘지전자 주식회사 | 영상표시장치, 및 그 동작방법 |
JP2014085967A (ja) * | 2012-10-25 | 2014-05-12 | Nec Personal Computers Ltd | 情報処理装置、情報処理方法、及びプログラム |
JP2015047885A (ja) * | 2013-08-29 | 2015-03-16 | トヨタ車体株式会社 | 車両搭載インタラクティブシステム |
CN106462178A (zh) | 2013-09-11 | 2017-02-22 | 谷歌技术控股有限责任公司 | 用于检测存在和运动的电子设备和方法 |
US9029780B2 (en) | 2013-09-11 | 2015-05-12 | Google Technology Holdings LLC | Electronic device with gesture detection system and methods for using the gesture detection system |
CN105992080A (zh) * | 2015-04-28 | 2016-10-05 | 乐视致新电子科技(天津)有限公司 | 一种音箱设备的控制方法、装置及音箱设备 |
JP2018109871A (ja) * | 2017-01-04 | 2018-07-12 | 京セラ株式会社 | 電子機器 |
JP6346699B1 (ja) * | 2017-08-08 | 2018-06-20 | 京セラ株式会社 | 電子機器 |
CN110045819B (zh) * | 2019-03-01 | 2021-07-09 | 华为技术有限公司 | 一种手势处理方法及设备 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH086708A (ja) * | 1994-04-22 | 1996-01-12 | Canon Inc | 表示装置 |
JP2005063090A (ja) | 2003-08-11 | 2005-03-10 | Keio Gijuku | ハンドパターンスイッチ装置 |
JP4267648B2 (ja) * | 2006-08-25 | 2009-05-27 | 株式会社東芝 | インターフェース装置及びその方法 |
JP2010154405A (ja) * | 2008-12-26 | 2010-07-08 | Toshiba Corp | 映像再生装置、制御信号生成装置及び制御信号生成方法 |
US8593399B2 (en) * | 2009-02-18 | 2013-11-26 | Kabushiki Kaisha Toshiba | Interface apparatus and method for controlling a device |
JP5231296B2 (ja) * | 2009-03-12 | 2013-07-10 | 東芝テック株式会社 | 商品データ入力装置 |
JP5182202B2 (ja) | 2009-04-14 | 2013-04-17 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
US9304592B2 (en) * | 2010-11-12 | 2016-04-05 | At&T Intellectual Property I, L.P. | Electronic device control based on gestures |
-
2010
- 2010-11-24 JP JP2010260866A patent/JP2014029565A/ja active Pending
-
2011
- 2011-02-17 WO PCT/JP2011/000886 patent/WO2012070161A1/ja active Application Filing
- 2011-02-17 US US13/988,635 patent/US8891025B2/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2869594A1 (en) * | 2013-11-05 | 2015-05-06 | Xiaomi Inc. | Method and device for controlling terminal by using headset wire, and apparatus |
US9703386B2 (en) | 2013-11-05 | 2017-07-11 | Xiaomi Inc. | Method for controlling terminal device by using headset wire and the terminal device thereof |
JP2017511632A (ja) * | 2014-03-31 | 2017-04-20 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | ジェスチャー制御イヤホン |
Also Published As
Publication number | Publication date |
---|---|
US8891025B2 (en) | 2014-11-18 |
WO2012070161A1 (ja) | 2012-05-31 |
US20130242206A1 (en) | 2013-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014029565A (ja) | 情報処理装置 | |
US9817472B2 (en) | Display apparatus and control method thereof | |
US9256345B2 (en) | Image display apparatus and method for operating the same | |
WO2012104288A1 (en) | A device having a multipoint sensing surface | |
US9485412B2 (en) | Device and method for using pressure-sensing touch screen to take picture | |
US20090085764A1 (en) | Remote control apparatus and method thereof | |
WO2014196208A1 (ja) | カーナビ用ジェスチャ入力装置 | |
JP2015127872A (ja) | 制御装置、制御方法、及び、プログラム | |
KR102250091B1 (ko) | 디스플레이 장치 및 디스플레이 방법 | |
US20160054860A1 (en) | Input device | |
US8354996B2 (en) | Electronic reading apparatus and input method thereof | |
US20160231917A1 (en) | Display apparatus and display method | |
KR101134245B1 (ko) | 3차원 가상 리모콘을 포함한 전자기기 및 그의 구동 방법 | |
KR101715937B1 (ko) | 프로젝터가 장착된 디스플레이 장치 및 그 제어 방법 | |
KR20150066132A (ko) | 디스플레이 장치, 리모컨, 디스플레이 시스템, 및 디스플레이 방법 | |
EP2930712A1 (en) | Image display apparatus and operation method thereof | |
KR101833790B1 (ko) | 포스 입력을 이용하여 다양한 모드들을 실현하는 미디어 시스템 및 방법 | |
US20170180777A1 (en) | Display apparatus, remote control apparatus, and control method thereof | |
US9632613B2 (en) | Display control apparatus and control method of display control apparatus for reducing a number of touch times in a case where a guidance is not displayed as compared with a case where the guidance is displayed | |
JP2010259047A (ja) | ディスプレイ装置及びその制御方法 | |
US20140152545A1 (en) | Display device and notification method | |
CN102779014B (zh) | 交互式投影系统以及投影仪调整控制方法 | |
KR20140087787A (ko) | 디스플레이 장치 및 그의 제어 방법 | |
KR101833789B1 (ko) | 이미지 처리 장치 및 이를 이용한 외부 기기 제어 방법 | |
JP2020187514A (ja) | デジタルサイネージシステム、および映像コンテンツの表示制御方法 |