JP2009217465A - Input device, input operation reception method, and program thereof - Google Patents

Input device, input operation reception method, and program thereof Download PDF

Info

Publication number
JP2009217465A
JP2009217465A JP2008059556A JP2008059556A JP2009217465A JP 2009217465 A JP2009217465 A JP 2009217465A JP 2008059556 A JP2008059556 A JP 2008059556A JP 2008059556 A JP2008059556 A JP 2008059556A JP 2009217465 A JP2009217465 A JP 2009217465A
Authority
JP
Japan
Prior art keywords
unit
button
distance
input
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008059556A
Other languages
Japanese (ja)
Inventor
Masanori Honda
雅則 本田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2008059556A priority Critical patent/JP2009217465A/en
Publication of JP2009217465A publication Critical patent/JP2009217465A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Input From Keyboards Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an input device easily operable even when not directly contacted with the device. <P>SOLUTION: The input device for receiving key input by user operation includes: key region parts which are at least a part of a surface of the device, each emit light, and are a plurality of regions to which keys are assigned respectively; a distance sensor part for detecting a distance to an object in the vertical direction with respect to the respective regions; a key input control part for outputting information displaying input of the keys assigned to regions when the distance sensor part detects an object approaching within a first distance of the region; and a light emission control part for, when the distance sensor part detects an object approaching within a second distance larger than the first distance with respect to the region, controlling the key region parts so that light is emitted in the region. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、入力装置、入力操作受付方法およびそのプログラムに関する。   The present invention relates to an input device, an input operation receiving method, and a program thereof.

従来の携帯電話機やPDA(Personal Digital Assistants;個人情報端末)は、加圧された座標を検出可能なタッチパネルや、物理的なスイッチ(キーボタン)を用いた複数のキーを備え、ユーザがこのタッチパネルに触れたこと、あるいは、キーを押下したことを検出して、操作入力としている。
また、装置の側面や、側面からの突起物に光学センサを備え、あるいは、キーに代えて光学センサを備え、この光学センサにより、装置本体から離れた空間にある指を検出し、この指の空間座標位置、移動速度、加速度および移動方向のいずれかを算出し、その算出結果に応じて、キー操作やクリック操作がなされたものと判定しているものもある(例えば、特許文献1参照)。
特開2004−288020号公報
Conventional mobile phones and PDAs (Personal Digital Assistants) have a touch panel capable of detecting pressurized coordinates and a plurality of keys using physical switches (key buttons). It is detected as touching or touching a key and used as an operation input.
In addition, an optical sensor is provided on the side surface of the device or a projection from the side surface, or an optical sensor is provided in place of the key, and this optical sensor detects a finger in a space away from the device main body, Some of the spatial coordinate position, the moving speed, the acceleration, and the moving direction are calculated, and depending on the calculation result, it may be determined that a key operation or a click operation has been performed (for example, see Patent Document 1). .
JP 2004-288020 A

しかしながら、タッチパネルやキーボタンを備えた装置にあっては、爪の長い人は、指で操作し難いことがあるということと、指が直接触れることになるので、汚れた指で操作すると装置が汚れてしまうという問題がある。
また、上述の光学センサを備えた装置にあっては、ユーザは、装置本体から離れた空間にて指を動かすため、操作結果を得るまで、装置がどのキー操作やクリック操作がなされたものと判定するかが分からないため、誤操作を起こしてしまい、ユーザが思い通りに操作し難いことがあるという問題がある。
However, in a device equipped with a touch panel and key buttons, a person with a long nail may be difficult to operate with a finger, and the finger touches directly. There is a problem of getting dirty.
Further, in the apparatus provided with the above-described optical sensor, since the user moves his / her finger in a space away from the apparatus main body, which key operation or click operation is performed by the apparatus until an operation result is obtained. Since the user does not know whether to make the determination, there is a problem that an erroneous operation is caused and the user may have difficulty operating as intended.

本発明は、このような事情に鑑みてなされたもので、その目的は、直接装置に触れなくても容易に操作可能な入力装置、入力操作受付方法およびそのプログラムを提供することにある。   The present invention has been made in view of such circumstances, and an object thereof is to provide an input device that can be easily operated without directly touching the device, an input operation receiving method, and a program thereof.

この発明は上述した課題を解決するためになされたもので、本発明の入力装置は、ユーザによるボタン操作の入力を受け付ける入力装置において、当該装置の表面の少なくとも一部の領域であって、各々にボタンが割り当てられた複数の領域であるボタン領域部と、前記ユーザへの通知を行う通知部と、当該装置から離れた空間を含む空間における物体の位置を検出する位置検出部と、前記位置検出部が前記領域に対して第一の距離内に近づいた物体を検出したときは、該領域に割り当てられたボタンが操作されたことを表す情報を出力するボタン入力制御部と、前記位置検出部が前記領域に対して前記第一の距離より大きい第二の距離内に近づいた物体を検出したときは、該領域に対応した通知を前記通知部に行わせる通知制御部とを具備することを特徴とする。   The present invention has been made to solve the above-described problems. An input device according to the present invention is an input device that accepts an input of a button operation by a user, and is at least a partial region of the surface of the device, A button area part, which is a plurality of areas to which buttons are assigned, a notification part for notifying the user, a position detection part for detecting the position of an object in a space including a space away from the device, and the position A button input control unit that outputs information indicating that a button assigned to the region is operated when the detection unit detects an object that has approached the region within a first distance; and the position detection unit. A notification control unit that causes the notification unit to perform notification corresponding to the area when the unit detects an object that has approached the area within a second distance greater than the first distance. And wherein the Rukoto.

また、本発明の入力装置は、上述の入力装置であって、前記通知制御部は、前記位置検出部が前記領域に対して前記第一の距離内に近づいた物体を検出したときは、該領域に対応した通知を前記通知部に行わせることを特徴とする。   The input device according to the present invention is the above-described input device, wherein the notification control unit detects the object approaching the first distance with respect to the region. A notification corresponding to a region is made to be performed by the notification unit.

また、本発明の入力装置は、上述のいずれかの入力装置であって、前記ボタン入力制御部は、前記ボタンが操作されたことを表す情報を出力する際に、前記位置検出部が位置を検出した物体から前記領域までの距離または該距離の時間変化を表す情報を出力し、前記通知制御部は、前記領域に加えて、前記位置検出部が位置を検出した物体から前記領域までの距離または該距離の時間変化に対応した通知を前記通知部に行わせることを特徴とする。   The input device according to the present invention is any one of the above-described input devices, and the button input control unit detects the position when the information indicating that the button is operated is output. Outputs information indicating the distance from the detected object to the region or the time change of the distance, and the notification control unit, in addition to the region, the distance from the object detected by the position detection unit to the region Alternatively, the notification unit is made to perform notification corresponding to the time change of the distance.

また、本発明の入力装置は、上述のいずれかの入力装置であって、前記通知部は、前記ボタン領域部の領域各々を発光させ、前記通知制御部は、前記領域に対応した通知を、前記通知部に、前記領域の発光を変化させることで行わせ、前記発光の変化は、発光の輝度、発光する色、発光する面積のうち、少なくともいずれか1つの変化であることを特徴とする。   The input device according to the present invention is any one of the above-described input devices, wherein the notification unit causes each of the button region units to emit light, and the notification control unit transmits a notification corresponding to the region, The notification unit is configured to change light emission in the region, and the light emission change is a change in at least one of light emission luminance, light emission color, and light emission area. .

また、本発明の入力装置は、上述のいずれかの入力装置であって、前記ボタン領域部は、前記領域各々への加圧または接触の少なくとも一方を検出し、前記ボタン入力制御部は、前記ボタン領域部が前記領域について加圧または接触を検出したときは、該領域に割り当てられたボタンが操作されたことを表す情報とともに、前記加圧または接触による検出を示す情報を出力することを特徴とする。   Moreover, the input device of the present invention is any one of the above-described input devices, wherein the button area unit detects at least one of pressurization or contact with each of the areas, and the button input control unit When the button area detects pressure or contact with respect to the area, information indicating that the button assigned to the area has been operated and information indicating detection by the pressure or contact are output. And

また、本発明の入力装置は、上述のいずれかの入力装置であって、前記位置検出部が検出した位置を時間順に繋いで前記物体の軌跡情報を生成する軌跡生成部と、複数の軌跡パターン情報を記憶する軌跡パターン記憶部と、前記軌跡パターン記憶部が記憶する軌跡パターン情報各々に対応付けられたコマンドを記憶するコマンド記憶部と、前記軌跡生成部が生成した軌跡情報が表す軌跡と、前記軌跡パターン記憶部が記憶している軌跡パターン情報各々が表す軌跡とを比較し、この比較結果の差分が所定の範囲内の軌跡パターン情報を検出し、該検出した軌跡パターン情報に対応付けられたコマンドを前記コマンド記憶部から読み出して出力するコマンド出力部とを具備することを特徴とする。   The input device according to the present invention is any one of the above-described input devices, wherein a trajectory generation unit that connects the positions detected by the position detection unit in time order to generate trajectory information of the object, and a plurality of trajectory patterns A trajectory pattern storage unit that stores information, a command storage unit that stores a command associated with each of the trajectory pattern information stored in the trajectory pattern storage unit, a trajectory represented by the trajectory information generated by the trajectory generation unit, The trajectory pattern information stored in the trajectory pattern storage unit is compared with the trajectory represented by each trajectory pattern, the difference between the comparison results is detected as trajectory pattern information within a predetermined range, and is associated with the detected trajectory pattern information. And a command output unit for reading out and outputting the command from the command storage unit.

また、本発明の入力装置は、上述のいずれかの入力装置であって、前記位置検出部が検出した位置を時間順に繋いで前記物体の軌跡情報を生成する軌跡生成部と、認証軌跡パターン情報を記憶する認証軌跡パターン記憶部と、前記認証軌跡パターン記憶部が記憶する認証軌跡パターン情報に対応付けられた認証情報を記憶する認証情報記憶部と、前記軌跡生成部が生成した軌跡情報が表す軌跡と、前記認証軌跡パターン記憶部が記憶している認証軌跡パターン情報が表す軌跡とを比較し、この比較結果の差分が所定の範囲内にあるときは、該認証軌跡パターン情報に対応付けられた認証情報を前記認証情報記憶部から読み出して出力する認証軌跡照合部とを具備することを特徴とする。   The input device according to the present invention is any one of the above-described input devices, wherein the locus detection unit generates the locus information of the object by connecting the positions detected by the position detection unit in time order, and the authentication locus pattern information. An authentication trajectory pattern storage unit that stores information, an authentication information storage unit that stores authentication information associated with authentication trajectory pattern information stored in the authentication trajectory pattern storage unit, and trajectory information generated by the trajectory generation unit A trajectory and a trajectory represented by the authentication trajectory pattern information stored in the authentication trajectory pattern storage unit are compared. When the difference between the comparison results is within a predetermined range, the trajectory is associated with the authentication trajectory pattern information. And an authentication trajectory collating unit that reads out and outputs the authentication information from the authentication information storage unit.

また、本発明の入力装置は、上述のいずれかの入力装置であって、前記位置検出部は、液晶パネルに画像を表示するとともに、該液晶パネルに外部から入射する光を検出して撮像する光センサ内蔵システム液晶パネルが撮像した画像に基づき前記距離の検出を行なうことを特徴とする。   The input device according to the present invention is any one of the above-described input devices, wherein the position detection unit displays an image on the liquid crystal panel and detects and captures light incident on the liquid crystal panel from the outside. The distance is detected based on an image captured by the system liquid crystal panel with a built-in optical sensor.

また、本発明の入力装置は、上述の入力装置であって、前記光センサ内蔵システム液晶パネルが撮像するときは、前記光センサ内蔵システム液晶パネルは、該パネルの光センサが検出し易い色からなる画像を表示することを特徴とする。   Further, the input device of the present invention is the above-described input device, and when the system liquid crystal panel with a built-in optical sensor captures an image, the system liquid crystal panel with the built-in optical sensor uses a color that is easily detected by the optical sensor of the panel. The following image is displayed.

また、本発明の入力操作受付方法は、当該装置の表面の少なくとも一部の領域であって、各々にボタンが割り当てられた複数の領域であるボタン領域部と、ユーザへの通知を行う通知部と、当該装置から離れた空間を含む空間における物体の位置を検出する位置検出部とを具備し、ユーザによるボタン操作の入力を受け付ける入力装置における入力操作受付方法において、前記入力装置が、前記位置検出部が前記領域に対して第一の距離内に近づいた物体を検出したときは、該領域に割り当てられたボタンが操作されたことを表す情報を出力する第1の過程と、前記入力装置が、前記位置検出部が前記領域に対して前記第一の距離より大きい第二の距離内に近づいた物体を検出したときは、該領域に対応した通知を前記通知部に行わせる第2の過程とを備えることを特徴とする。   Further, the input operation receiving method of the present invention includes a button area unit that is at least a part of the surface of the device, each of which is assigned a button, and a notification unit that notifies a user And a position detection unit that detects a position of an object in a space including a space away from the device, and the input device accepts a button operation by a user. A first step of outputting information indicating that a button assigned to the area is operated when the detection unit detects an object approaching within the first distance from the area; However, when the position detection unit detects an object that has approached the area within a second distance that is greater than the first distance, the second notification is made to cause the notification unit to perform notification corresponding to the area. Characterized in that it comprises a step.

また、本発明のプログラムは、当該装置の表面の少なくとも一部の領域であって、各々にボタンが割り当てられた複数の領域であるボタン領域部と、ユーザへの通知を行う通知部と、当該装置から離れた空間を含む空間における物体の位置を検出する位置検出部とを具備し、ユーザによるボタン操作の入力を受け付ける入力装置が具備するコンピュータを、前記位置検出部が前記領域に対して第一の距離内に近づいた物体を検出したときは、該領域に割り当てられたボタンが操作されたことを表す情報を出力するボタン入力制御部、前記位置検出部が前記領域に対して前記第一の距離より大きい第二の距離内に近づいた物体を検出したときは、該領域に対応した通知を前記通知部に行わせる通知制御部として機能させる。   In addition, the program of the present invention includes at least a partial area on the surface of the device, a button area portion that is a plurality of areas each assigned a button, a notification section that notifies a user, A computer having an input device for receiving an input of a button operation by a user, the position detection unit having a position relative to the region. A button input control unit that outputs information indicating that a button assigned to the area is operated when an object approaching within a distance is detected; When an object approaching within a second distance that is greater than the distance is detected, it is made to function as a notification control unit that causes the notification unit to perform notification corresponding to the area.

この発明によれば、位置検出部が、当該装置から離れた空間を含む空間における物体の位置を検出し、ボタンが操作されたことを表す情報をボタン入力制御部が出力する第一の距離よりも大きい第二の距離内に前記領域に対して近づいた物体を検出したときは、通知制御部が、該領域に対応した通知を前記通知部に行わせるので、ユーザは該物体を当該装置に近づけることにより操作することになるボタンを事前に把握することができるので、誤操作を防止し、直接装置に触れなくても容易に操作することができる。   According to this invention, the position detection unit detects the position of an object in a space including a space away from the device, and information indicating that the button has been operated is output from the first distance output by the button input control unit. When the object approaching the area within the second distance is detected, the notification control unit causes the notification unit to perform notification corresponding to the area, so that the user makes the object to the device. Since the button to be operated can be grasped in advance by approaching it, it is possible to prevent erroneous operation and to operate easily without directly touching the device.

[第1の実施形態]
以下、図面を参照して、本発明の第1の実施形態について説明する。本実施形態では、赤外線センサやカメラを用いてユーザの指の位置を検出し、指がキーボタンから一定距離(入力検出距離)内にあると判定したときは、該キーボタンが押下されたものとする非接触でのキー入力を可能とする入力装置を備えた携帯電話機100について説明する。図1を参照して携帯電話機100の外観を説明した後、図2を参照して携帯電話機100の構成を説明する。
図1は、本実施形態における携帯電話機100の外観図である。本実施形態では、本発明による入力装置の機能をクラムシェルタイプ(折り畳み構造)の携帯電話機100に実装した例を説明する。図1(a)は、この携帯電話機100を開いた状態で入力操作用のキーが設けられている側を表わし、図1(b)は、その背面を表わす。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. In this embodiment, the position of the user's finger is detected using an infrared sensor or camera, and when it is determined that the finger is within a certain distance (input detection distance) from the key button, the key button is pressed A mobile phone 100 including an input device that enables non-contact key input will be described. After describing the external appearance of the mobile phone 100 with reference to FIG. 1, the configuration of the mobile phone 100 will be described with reference to FIG.
FIG. 1 is an external view of a mobile phone 100 according to the present embodiment. In the present embodiment, an example in which the function of the input device according to the present invention is mounted on a clamshell type (folding structure) mobile phone 100 will be described. FIG. 1A shows the side where the key for input operation is provided with the cellular phone 100 opened, and FIG. 1B shows the back side thereof.

図1(a)の上部のスピーカ117、下部のマイク116は通話に用いられる。
図1(a)の操作部(ボタン領域部)108は、携帯機器100の表面の少なくとも一部の領域であって、各々にキーボタンが設けられた複数の領域からなる。これらの領域には、カーソルキー1081、決定キー1082、テンキー、*、#キー1083が含まれる。カーソルキー1081には、十字方向のうちの1方向のキーが一つずつ割り当てられたボタンであるキーボタンが4つ設けられている。決定キー1082には、決定を表すキーが割当てられた1つのキーボタンが設けられている。テンキー、*、#キー1083には、0〜9の数字と*と#とのうちのいずれかのキーが一つずつ割当てられた12のキーボタンが設けられている。これらのキーボタン(ボタン)は、その裏側に発光部1084であるLED(発光ダイオード)が設置されており、各LEDが発した光をユーザが認識できるように、これらの光を透過する。このLEDは、キーボタン毎に緑、オレンジ、赤の3色が設置されており、主制御部104からの指示に従い発光する。これらのキーボタンは、通話先の電話番号入力、電子メールの文字入力、メニュー選択、機能選択等に使用される。また、本実施形態における操作部108の各キーボタン(1081、1082、1083)には、赤外線を検出する赤外線センサ1071が配置されている。これら、赤外線センサ1071の詳細については、後述する。
The upper speaker 117 and the lower microphone 116 in FIG. 1A are used for a call.
The operation unit (button region unit) 108 in FIG. 1A is at least a partial region on the surface of the mobile device 100 and includes a plurality of regions each provided with a key button. These areas include a cursor key 1081, an enter key 1082, a numeric keypad, *, and # key 1083. The cursor key 1081 is provided with four key buttons, which are buttons to which keys in one of the cross directions are assigned one by one. The decision key 1082 is provided with one key button to which a key representing decision is assigned. The ten key, *, and # key 1083 are provided with 12 key buttons to which one of numbers 0 to 9 and any one of * and # are assigned. These key buttons (buttons) are provided with LEDs (light emitting diodes) which are light emitting units 1084 on the back side thereof, and transmit these lights so that the user can recognize the light emitted by each LED. This LED is provided with three colors of green, orange, and red for each key button, and emits light according to an instruction from the main control unit 104. These key buttons are used for inputting a telephone number of a call destination, inputting characters of e-mail, selecting a menu, selecting a function, and the like. In addition, an infrared sensor 1071 for detecting infrared rays is disposed on each key button (1081, 1082, 1083) of the operation unit 108 in the present embodiment. Details of the infrared sensor 1071 will be described later.

図1(a)の主表示部111、図1(b)の副表示部112は、画像、文字等を表示する表示装置である。主表示部111は、液晶パネル1111を備え、操作部108による操作に応じて電子メール、画像、メニュー画面、機能設定画面等が表示される。副表示部112は主表示部111の背面に設けられ、主表示部111より表示領域が小さいが、携帯電話機100を折り畳んだ状態でもユーザが見ることができる位置に設けられており、折り畳んだ状態でユーザに情報を通知する表示装置として用いられる。
図1(a)の副カメラ110はテレビ電話機能のためのカメラであり、図1(b)の主カメラ109はデジタルカメラ機能のためのカメラである。図1(b)のフラッシュ1091は、主カメラ109を用いて暗い所等で被写体を撮像する場合に使用される。
The main display unit 111 in FIG. 1A and the sub display unit 112 in FIG. 1B are display devices that display images, characters, and the like. The main display unit 111 includes a liquid crystal panel 1111 and displays an e-mail, an image, a menu screen, a function setting screen, and the like according to an operation by the operation unit 108. The sub display unit 112 is provided on the back surface of the main display unit 111 and has a display area smaller than that of the main display unit 111. However, the sub display unit 112 is provided at a position where the user can see the mobile phone 100 even when the mobile phone 100 is folded. It is used as a display device for notifying the user of information.
The secondary camera 110 in FIG. 1A is a camera for a videophone function, and the main camera 109 in FIG. 1B is a camera for a digital camera function. The flash 1091 in FIG. 1B is used when a subject is imaged in a dark place using the main camera 109.

次に、図2を参照して携帯電話機100の構成を説明する。図2は、第1の実施形態による携帯電話機100の構成を示す概略ブロック図である。
無線部102は、アンテナ101が受信する受信信号をベースバンドの受信信号に変換して通信制御部103に出力する。また、無線部102は通信制御部103から入力する送信信号を送信周波数の信号に変調し、アンテナ101へ出力して送信する。
通信制御部103は、無線部102から入力した受信信号の復調処理と、主制御部104から入力した送信信号の変調処理とを行う。
これらアンテナ101や無線部102や通信制御部103は、携帯通信網やW−LAN(無線LAN、ワイヤレス・ローカル・エリア・ネットワーク)などによる通信を行なうための通信手段である。
主制御部104は、不揮発性のメモリであるプログラムメモリ105に記憶されたプログラムを実行して各部を制御する。
Next, the configuration of the mobile phone 100 will be described with reference to FIG. FIG. 2 is a schematic block diagram showing the configuration of the mobile phone 100 according to the first embodiment.
Radio section 102 converts the received signal received by antenna 101 into a baseband received signal and outputs the received signal to communication control section 103. The radio unit 102 modulates a transmission signal input from the communication control unit 103 into a signal having a transmission frequency, and outputs the signal to the antenna 101 for transmission.
The communication control unit 103 performs demodulation processing on the reception signal input from the wireless unit 102 and modulation processing on the transmission signal input from the main control unit 104.
The antenna 101, the wireless unit 102, and the communication control unit 103 are communication means for performing communication via a mobile communication network, a W-LAN (wireless LAN, wireless local area network), or the like.
The main control unit 104 controls each unit by executing a program stored in the program memory 105 which is a nonvolatile memory.

メモリ106は、通話、電子メール等を行う場合に使用されるデータに加え、ユーザにより設定された情報など、その他の管理情報を記憶する不揮発性のメモリである。また、メモリ106は、後述するように、ユーザの指の3次元的な動き(ジェスチャー)の軌跡を表す軌跡パターン情報を記憶するジェスチャー記憶部(軌跡パターン記憶部)1061、主制御部104で動作するアプリケーション各々について、各軌跡パターン情報に対応付けられたコマンドを記憶するAP固有設定記憶部(コマンド記憶部)1062、ユーザの認証情報として用いる軌跡パターン情報を記憶する認証ジェスチャー記憶部(認証軌跡パターン記憶部)1063、認証ジェスチャー記憶部1063が記憶する軌跡パターン情報各々に対応付けられた認証情報であるパスワードを記憶するパスワード記憶部(認証情報記憶部)1064を備える。   The memory 106 is a non-volatile memory that stores other management information such as information set by the user in addition to data used when making a call, e-mail, or the like. Further, as will be described later, the memory 106 operates with a gesture storage unit (trajectory pattern storage unit) 1061 that stores trajectory pattern information representing a trajectory of a three-dimensional movement (gesture) of the user's finger, and the main control unit 104. AP specific setting storage unit (command storage unit) 1062 that stores a command associated with each track pattern information, and an authentication gesture storage unit (authentication track pattern) that stores track pattern information used as user authentication information. Storage unit) 1063, and a password storage unit (authentication information storage unit) 1064 that stores a password that is authentication information associated with each of the trajectory pattern information stored in the authentication gesture storage unit 1063.

距離センサ部(位置検出部)107は、図1を参照して説明したように各キーボタンに配置された赤外線センサ1071を具備し、これらのセンサ群が検出した情報に基づき、操作部108のキー群(1081、1082、1083)を操作しているユーザの指の携帯電話機100から離れた空間を含む空間における3次元的な位置(キーボタンと該キーボタンからの鉛直方向の距離)を検出する。赤外線センサ1071は、ユーザの指が発する赤外線を検出し、距離センサ部107は、どの赤外線センサ1071が赤外線を検出しているかに基づき、ユーザの指が操作部108のキーボタンのうち、どのキーボタンの上にあるかを判定する。さらに、距離センサ部107は、赤外線センサ1071が検出する赤外線の強度に基づき、キーボタンからユーザの指までの距離を判定する。また、このとき、距離センサ部107は、赤外線センサ1071が検出する赤外線の強度による距離の判定に替えて、別に音波(超音波)や赤外線を用いた三角測定などで距離を測定する測距センサを設ける、あるいはいずれかの赤外線センサ1071に替えて測距センサを設けて、この測距センサにより指までの距離を判定するようにしてもよいし、カメラまたはラインセンサを設けて、このカメラまたはラインセンサによる撮像結果の焦点があっているか否かに基づき、カメラまたはラインセンサの焦点距離付近に指があるか否かを判定するようにしてもよい。   As described with reference to FIG. 1, the distance sensor unit (position detection unit) 107 includes the infrared sensor 1071 arranged on each key button, and based on information detected by these sensor groups, the operation unit 108 includes: Detects a three-dimensional position (a distance between the key button and the vertical direction from the key button) in a space including a space away from the mobile phone 100 of the user's finger operating the key group (1081, 1082, 1083). To do. The infrared sensor 1071 detects infrared light emitted by the user's finger, and the distance sensor unit 107 determines which key of the key buttons of the operation unit 108 the user's finger is based on which infrared sensor 1071 detects infrared light. Determine if it is over the button. Furthermore, the distance sensor unit 107 determines the distance from the key button to the user's finger based on the intensity of infrared rays detected by the infrared sensor 1071. At this time, the distance sensor unit 107 measures the distance by a triangular measurement using a sound wave (ultrasonic wave) or infrared rays instead of determining the distance based on the intensity of the infrared rays detected by the infrared sensor 1071. Or a distance sensor may be provided instead of one of the infrared sensors 1071, and the distance to the finger may be determined by the distance sensor, or a camera or a line sensor may be provided. Based on whether or not the imaging result by the line sensor is in focus, it may be determined whether or not the finger is near the focal length of the camera or the line sensor.

操作部108は、図1を参照して説明した通りであり、操作に応じた信号を主制御部104に出力する。また、操作部108の各キーボタンの裏側(内部)に発光部(通知部)1084であるLED(発光ダイオード)が設置されており、各LEDが発した光をユーザが認識できるように、これらの光を透過する。
主カメラ109、副カメラ110は、光学素子、撮像部、映像信号処理部を備え、被写体の像をデジタル信号に変換して主制御部104に出力する。
主表示部111は、図1を参照して説明した通りであり、主制御部104から入力する表示用の信号に基づいて画像、文字等を表示する液晶パネル1111を具備する。
副表示部112は、主制御部104から入力する表示用の信号に基づいて画像、文字等を表示する液晶ディスプレイであるが、有機EL(エレクトロルミネセンス)ディスプレイなどの、その他の画像表示手段であってもよい。
振動部113は、ユーザが認識できる程度にモータにより振動を発生させる。
GPS(Global Positioning System)機能部114は、GPS衛星からの電波信号をアンテナを介して受信し、地上における携帯電話機100の位置を求める。
The operation unit 108 is as described with reference to FIG. 1, and outputs a signal corresponding to the operation to the main control unit 104. In addition, LEDs (light emitting diodes), which are light emitting units (notifying units) 1084, are installed on the back side (inside) of the key buttons of the operation unit 108 so that the user can recognize the light emitted by each LED. Transmits light.
The main camera 109 and the sub camera 110 include an optical element, an imaging unit, and a video signal processing unit, convert an image of a subject into a digital signal, and output the digital signal to the main control unit 104.
The main display unit 111 is as described with reference to FIG. 1 and includes a liquid crystal panel 1111 that displays images, characters, and the like based on display signals input from the main control unit 104.
The sub display unit 112 is a liquid crystal display that displays an image, characters, and the like based on a display signal input from the main control unit 104, but is another image display unit such as an organic EL (electroluminescence) display. There may be.
The vibration unit 113 generates vibration by a motor to such an extent that the user can recognize it.
A GPS (Global Positioning System) function unit 114 receives a radio signal from a GPS satellite via an antenna and obtains the position of the mobile phone 100 on the ground.

音声処理部115は、マイク116から入力される音声信号をデジタル信号に変換して主制御部104に出力し、また、主制御部104からデジタルの音声信号を入力してアナログの音声信号に変換し、スピーカ117に出力して発音させる。
RFID(Radio Frequency IDentification)リーダ118は、アンテナを介して近距離の無線通信によって外部のタグに埋め込まれたICチップのID情報を読み取る。
Ir送信部119、Ir受信部120は、赤外線を利用して外部の機器とデータ通信を行う。
The audio processing unit 115 converts the audio signal input from the microphone 116 into a digital signal and outputs the digital signal to the main control unit 104. Also, the audio processing unit 115 inputs the digital audio signal from the main control unit 104 and converts it into an analog audio signal. Then, the sound is output to the speaker 117 and sounded.
An RFID (Radio Frequency IDentification) reader 118 reads ID information of an IC chip embedded in an external tag by short-range wireless communication via an antenna.
The Ir transmitting unit 119 and the Ir receiving unit 120 perform data communication with an external device using infrared rays.

インジケータ121は、例えば、光を発してユーザに認識させるLED(発光ダイオード)である。インジケータ121は、携帯電話機100を折り畳んだ状態でもユーザが見ることができる位置に設けられており、折り畳んだ状態でユーザに情報を通知する表示装置として用いられる。このインジケータ121として、異なる色の複数のLEDを用いて、携帯電話機100の処理状態に基づき場合分けしてユーザに通知する表示装置として用いてもよい。
なお、ユーザの注意をひくために使用される振動部113、インジケータ121に代えて、または、これらに加えて、匂いを発生する匂い発生部を備えてもよい。匂いを発生するには、携帯電話機100の内部に複数の化学物質を保持し、これらを混合させる等、各種の既存技術を用いることができる。
電源制御部123は電池124から電力の供給を受け、各部に電力を供給する。
その他、携帯電話機100は、例えばブルートゥース(登録商標)のような近距離無線通信技術を用いて、携帯電話機100と録画機器との間の近距離通信を行う機能を有することができる。
Indicator 121 is LED (light emitting diode) which emits light and makes a user recognize, for example. The indicator 121 is provided at a position where the user can see even when the cellular phone 100 is folded, and is used as a display device for notifying the user of information in the folded state. The indicator 121 may be used as a display device that uses a plurality of LEDs of different colors and notifies the user according to the processing state of the mobile phone 100.
In addition, instead of or in addition to the vibration unit 113 and the indicator 121 used to attract the user's attention, an odor generating unit that generates an odor may be provided. In order to generate an odor, various existing techniques such as holding a plurality of chemical substances in the mobile phone 100 and mixing them can be used.
The power control unit 123 receives power from the battery 124 and supplies power to each unit.
In addition, the mobile phone 100 may have a function of performing short-range communication between the mobile phone 100 and the recording device using a short-range wireless communication technology such as Bluetooth (registered trademark).

なお、以下で説明する実施形態においては、アンテナ101、無線部102、通信制御部103、主カメラ109、副表示部112、振動部113、GPS機能部114、音声処理部115、マイク116、スピーカ117、RFIDリーダ118、Ir送信部119、Ir受信部120、インジケータ121、電源制御部123、電池124は、本発明の説明において、特に使用しない。   In the embodiment described below, the antenna 101, the radio unit 102, the communication control unit 103, the main camera 109, the sub display unit 112, the vibration unit 113, the GPS function unit 114, the sound processing unit 115, the microphone 116, and the speaker 117, RFID reader 118, Ir transmitter 119, Ir receiver 120, indicator 121, power supply controller 123, and battery 124 are not particularly used in the description of the present invention.

図3は、主制御部104が、プログラムメモリ105に格納されたプログラムを実行することにより機能するセンサ入力処理部130と関連する携帯電話機100の部分を示した概略ブロック図である。センサ入力処理部130は、ジェスチャー軌跡生成部1301、キー入力制御部1302、発光制御部1303、コマンド出力部1304、認証ジェスチャー照合部1305を具備する。後述するように、アプリケーション(コマンド受付部)1401、アプリケーション(パスワード受付部)1402、アプリケーション(キー入力受付部)1403についても、プログラムメモリ105に格納されたプログラムを実行することにより機能する。   FIG. 3 is a schematic block diagram showing a part of the cellular phone 100 related to the sensor input processing unit 130 that functions when the main control unit 104 executes a program stored in the program memory 105. The sensor input processing unit 130 includes a gesture trajectory generation unit 1301, a key input control unit 1302, a light emission control unit 1303, a command output unit 1304, and an authentication gesture collation unit 1305. As will be described later, the application (command receiving unit) 1401, the application (password receiving unit) 1402, and the application (key input receiving unit) 1403 also function by executing a program stored in the program memory 105.

アプリケーション(コマンド受付部)1401は、主制御部104がプログラムメモリ105からアプリケーションプログラムを読み込んで実行していることにより機能している例えば、Webブラウザや電子メールソフトなどのアプリケーションのコマンド受付部であり、コマンド出力部1304が出力する該アプリケーション固有のコマンドを受け付ける。アプリケーション(パスワード受付部)1402は、そのとき主制御部104がプログラムメモリ105からアプリケーションプログラムを読み込んで実行していることにより機能しているアプリケーションのパスワード受付部であり、認証ジェスチャー照合部1305が出力する該アプリケーション向けのパスワードを受け付ける。アプリケーション(キー入力受付部)1403は、そのとき主制御部104がプログラムメモリ105からアプリケーションプログラムを読み込んで実行していることにより機能しているアプリケーションのキー入力受付部であり、キー入力制御部1302が出力する該アプリケーション向けのキー入力を受け付ける。   An application (command reception unit) 1401 is a command reception unit for an application such as a Web browser or e-mail software, which functions by the main control unit 104 reading and executing an application program from the program memory 105. The command output unit 1304 receives a command specific to the application. An application (password accepting unit) 1402 is a password accepting unit of an application that is functioning when the main control unit 104 reads and executes the application program from the program memory 105 at that time, and the authentication gesture collating unit 1305 outputs A password for the application to be received is accepted. The application (key input reception unit) 1403 is a key input reception unit of an application that functions when the main control unit 104 reads and executes the application program from the program memory 105 at that time, and the key input control unit 1302. Accepts the key input for the application that is output.

ジェスチャー軌跡生成部(軌跡生成部)1301は、距離センサ部107が検出したユーザの指までの距離とその距離を検出したキーボタンと検出したキーボタン間の移動速度とを時間順に繋いでユーザの指の軌跡情報を生成する。
キー入力制御部(ボタン入力制御部)1302は、いずれかのキーボタンに対して予め決められた入力検出距離(第一の距離)内にユーザの指が近付いたことを距離センサ部107が検出したときは、該キーボタンに割り当てられたキーボタンが操作されたことを表す情報、すなわち該当するキーが入力されたことを表す情報をアプリケーション(キー入力受付部)1403に出力する。
The gesture trajectory generation unit (trajectory generation unit) 1301 connects the distance to the user's finger detected by the distance sensor unit 107, the key button that detects the distance, and the movement speed between the detected key buttons in time order. Generate finger trajectory information.
In the key input control unit (button input control unit) 1302, the distance sensor unit 107 detects that a user's finger approaches within a predetermined input detection distance (first distance) with respect to any key button. When this happens, information indicating that the key button assigned to the key button has been operated, that is, information indicating that the corresponding key has been input is output to the application (key input receiving unit) 1403.

発光制御部(通知制御部)1303は、距離センサ部107が、いずれかのキーボタンに対して入力検出距離より大きい値であって、予め決められた入力予告距離(第二の距離)内にユーザの指が近付いたことを検出したときは、該キーボタンの発光を緑色からオレンジ色に変化させるように発光部1084を制御する。さらに、発光制御部1303は、距離センサ部107が、入力検出距離内にユーザの指が近付いたことを検出したときは、該キーの発光をオレンジ色から赤色に変化させるように発光部1084を制御する。   The light emission control unit (notification control unit) 1303 indicates that the distance sensor unit 107 has a value larger than the input detection distance for any of the key buttons and falls within a predetermined input advance notice distance (second distance). When it is detected that the user's finger is approaching, the light emitting unit 1084 is controlled to change the light emission of the key button from green to orange. Further, when the distance sensor unit 107 detects that the user's finger has come within the input detection distance, the light emission control unit 1303 changes the light emission unit 1084 to change the light emission of the key from orange to red. Control.

コマンド出力部1304は、ジェスチャー軌跡生成部1301が生成した軌跡情報が表す軌跡と、ジェスチャー記憶部1061(軌跡パターン記憶部)が記憶している軌跡パターン情報各々が表す軌跡とを比較し、この比較結果の差分が所定の範囲内の軌跡パターン情報を検出し、該検出した軌跡パターン情報に対応付けられたコマンドをAP固有設定記憶部(コマンド記憶部)1062から読み出して、アプリケーション(コマンド受付部)1401に出力する。認証ジェスチャー照合部(認証軌跡照合部)1305は、ジェスチャー軌跡生成部1301が生成した軌跡情報が表す軌跡と、認証ジェスチャー記憶部(認証軌跡パターン記憶部)1063が記憶している認証軌跡パターン情報が表す軌跡とを比較し、この比較結果の差分が所定の範囲内にあるときは、この認証軌跡パターン情報に対応付けられたパスワード(認証情報)をパスワード記憶部(認証情報記憶部)1064から読み出して、アプリケーション(パスワード受付部)1402に出力する。   The command output unit 1304 compares the trajectory represented by the trajectory information generated by the gesture trajectory generation unit 1301 with the trajectory represented by each trajectory pattern information stored in the gesture storage unit 1061 (trajectory pattern storage unit). The trajectory pattern information within which the difference between the results is within a predetermined range is detected, the command associated with the detected trajectory pattern information is read from the AP specific setting storage unit (command storage unit) 1062, and the application (command reception unit) is read out. 1401 is output. The authentication gesture collation unit (authentication trajectory collation unit) 1305 includes the trajectory represented by the trajectory information generated by the gesture trajectory generation unit 1301 and the authentication trajectory pattern information stored in the authentication gesture storage unit (authentication trajectory pattern storage unit) 1063. When the difference between the comparison results is within a predetermined range, the password (authentication information) associated with the authentication locus pattern information is read from the password storage unit (authentication information storage unit) 1064. To the application (password accepting unit) 1402.

図4は、ジェスチャー記憶部1061が記憶する軌跡パターン情報と各軌跡パターン情報に対応付けてAP固有設定記憶部1062が記憶するコマンドを例示する図である。図4の例は、左の列(「軌跡パターン情報」の列)に「2→5→8→0」、「2⇒5⇒8⇒0」、「6⇒5⇒4」、「5↑」、「1,2,3→4,5,6→7,8,9」などの軌跡パターン情報を示す。真ん中の列(「WEBブラウザへのコマンド」の列)に「下に1画面移動」、「上にスクロール」、「左に1画面移動」、「文字を大きくする」、「素早く上にスクロール」などの左の列の同じ行の軌跡パターン情報に対応付けられたWEBブラウザ(アプリケーションの一例)へ処理を指示するコマンドを示す。右の列(「コミックビューアへのコマンド」の列)に該当なし(図中では「−」)「上にスクロール」、「右ページめくり」、「拡大」、「閲覧中のコミックを閉じる」などの左の列の同じ行の軌跡パターン情報に対応付けられたコミックビューア(アプリケーションの一例)へ処理を指示するコマンドを示す。このように「右ページめくり」には「6⇒5⇒4」のようにテンキー、*、Eキー1083の中央部を右から左へ動かす「右ページめくり」に似せた動作を割当てるができる。   FIG. 4 is a diagram exemplifying trajectory pattern information stored in the gesture storage unit 1061 and commands stored in the AP unique setting storage unit 1062 in association with each trajectory pattern information. In the example of FIG. 4, “2 → 5 → 8 → 0”, “2⇒5⇒8⇒0”, “6⇒5⇒4”, “5 ↑” are shown in the left column (“trajectory pattern information” column). ”,“ 1, 2, 3 → 4, 5, 6 → 7, 8, 9 ”. In the middle row (“Web browser command” column) “Move down one screen”, “Scroll up”, “Move one screen left”, “Enlarge text”, “Scroll up quickly” The command which instruct | indicates a process is shown to the WEB browser (an example of an application) matched with the locus | trajectory pattern information of the same line of the left column. Not applicable to the right column (“Comm Viewer Command” column) (“−” in the figure) “Scroll Up”, “Turn Right Page”, “Enlarge”, “Close Comic” The command which instruct | indicates a process to the comic viewer (an example of an application) matched with the locus | trajectory pattern information of the same line of the left column of FIG. In this way, “right page turning” can be assigned an action similar to “right page turning” in which the center of the numeric keypad, *, and E key 1083 is moved from right to left as in “6 => 5 => 4”.

なお、ここでは、図示しないが、真ん中の列のコマンドはWEBブラウザの識別情報と対応付けられてAP固有設定記憶部1062に記憶されており、右の列のコマンドはコミックビューアと対応付けられてAP固有設定記憶部1062に記憶されている。また、AP固有設定記憶部1062が記憶するアプリケーションのコマンドとしてWEBブラウザおよびコミックビューアのコマンドを示し、各軌跡パターン情報に対応付けられたコマンドを示したが、一つの軌跡パターン情報に対して2つを超える数のコマンドが対応付けられていてもよい。   Although not shown here, the command in the middle column is associated with the identification information of the WEB browser and stored in the AP unique setting storage unit 1062, and the command in the right column is associated with the comic viewer. Stored in the AP unique setting storage unit 1062. In addition, WEB browser commands and comic viewer commands are shown as application commands stored in the AP unique setting storage unit 1062, and commands associated with each track pattern information are shown. More than a number of commands may be associated.

また、本実施形態では、軌跡パターン情報に対応付けるコマンドとして、携帯電話機100で動作するアプリケーションへのコマンドを説明したが、アプリケーション以外にも携帯電話機100そのものへのコマンド(例えば、主表示部111のバックライトのオン/オフを指示するコマンド)を対応づけてもよい。また、コマンド出力部1304がアプリケーション(コマンド受付部)1401にコマンドを出力する際に、このコマンドを表す情報に加えて、軌跡情報中の座標や速度などをパラメータとして出力するようにしてもよい。   In the present embodiment, the command to the application operating on the mobile phone 100 has been described as the command associated with the trajectory pattern information. However, in addition to the application, the command to the mobile phone 100 itself (for example, the back of the main display unit 111). A command for instructing light on / off) may be associated. Further, when the command output unit 1304 outputs a command to the application (command reception unit) 1401, in addition to information representing this command, coordinates, speed, and the like in the trajectory information may be output as parameters.

図4に示した軌跡パターン情報と、コマンドとは、携帯電話機100の製造時に、それぞれジェスチャー記憶部1061とAP固有設定記憶部1062とに記憶されるようにしてもよいし、ユーザ操作により設定されるようにしてもよいし、これらが製造時に記憶されるものとユーザ操作により設定されるものとが混在するようにしてもよい。また、ユーザ操作により設定される場合には、軌跡パターン情報、コマンド、軌跡パターン情報とコマンドとの対応付けのいずれかのみをユーザ操作により設定されるようにしてもよい。   The trajectory pattern information and the command shown in FIG. 4 may be stored in the gesture storage unit 1061 and the AP specific setting storage unit 1062 respectively when the mobile phone 100 is manufactured, or set by a user operation. These may be stored, and those stored at the time of manufacture and those set by user operation may be mixed. Further, when set by a user operation, only one of the trace pattern information, the command, and the association between the trace pattern information and the command may be set by the user operation.

図5は、センサ入力処理部130の動作を説明するフローチャートである。センサ入力処理部130は、処理を開始すると、まず距離センサ部107の各センサの動作を開始する(Sa1)。次に、センサ入力処理部130は、主制御部104がプログラムメモリ105から読み込んで実行しているアプリケーションプログラムを識別する情報を取得する(Sa2)。次に、センサ入力処理部130は、AP固有設定記憶部1062からステップSa2にて取得したアプリケーションプログラムを識別する情報に対応付けて、各軌跡パターン情報とコマンドとの対応を取得する(Sa3)。次に、センサ入力処理部130は、距離センサ部107の各センサが起動しているか否かを判定する(Sa4)。この判定において、起動していないと判定したときは、センサ入力処理部130は、操作部108のいずれかのキーボタンが押下される、あるいは、携帯電話機100のクラムシェルが開けられるなど、携帯電話機100を待機状態から起動状態に遷移させる要因を検出すると、距離センサ部107を起動させて、ステップSa4に遷移する(Sa5)。   FIG. 5 is a flowchart for explaining the operation of the sensor input processing unit 130. When the sensor input processing unit 130 starts processing, the sensor input processing unit 130 first starts the operation of each sensor of the distance sensor unit 107 (Sa1). Next, the sensor input processing unit 130 acquires information for identifying an application program that the main control unit 104 reads from the program memory 105 and executes (Sa2). Next, the sensor input processing unit 130 acquires the correspondence between each trace pattern information and the command in association with the information for identifying the application program acquired in step Sa2 from the AP specific setting storage unit 1062 (Sa3). Next, the sensor input processing unit 130 determines whether each sensor of the distance sensor unit 107 is activated (Sa4). In this determination, when it is determined that the mobile phone 100 is not activated, the sensor input processing unit 130 presses any key button of the operation unit 108 or opens the clamshell of the mobile phone 100 or the like. When a factor that causes 100 to transition from the standby state to the activated state is detected, the distance sensor unit 107 is activated, and the process proceeds to step Sa4 (Sa5).

一方、ステップSa4において、距離センサ部107が起動されていると判定したときは、センサ入力処理部130は、距離センサ部107を用いたセンサ入力を行うようにユーザによる設定がなされている(設定ON)か否かを判定する(Sa6)。設定がなされていないと判定したときは、センサ入力処理部130は、処理を終了する。一方、ステップSa6において、設定がなされていると判定したときは、センサ入力処理部130のジェスチャー軌跡生成部1301は、距離センサ部107が検出した指の位置(指を検出したキーと該キーからの距離)を時間順に繋いでユーザの指のジェスチャーを表す軌跡情報を生成する(Sa7)。次にコマンド出力部1304は、ジェスチャー記憶部1061が記憶している軌跡パターン情報と、認証ジェスチャー照合部1305は、認証ジェスチャー記憶部1063が記憶している軌跡パターン情報と、ステップSa7において生成した軌跡情報とが一致しているか否かを判定する(Sa8)   On the other hand, when it is determined in step Sa4 that the distance sensor unit 107 is activated, the sensor input processing unit 130 is set by the user to perform sensor input using the distance sensor unit 107 (setting). ON) or not (Sa6). When it is determined that the setting has not been made, the sensor input processing unit 130 ends the process. On the other hand, when it is determined in step Sa6 that the setting has been made, the gesture trajectory generation unit 1301 of the sensor input processing unit 130 detects the finger position detected by the distance sensor unit 107 (from the key that detected the finger and the key). The distance information) is connected in time order to generate trajectory information representing the gesture of the user's finger (Sa7). Next, the command output unit 1304 is the locus pattern information stored in the gesture storage unit 1061, the authentication gesture collation unit 1305 is the locus pattern information stored in the authentication gesture storage unit 1063, and the locus generated in step Sa7. It is determined whether or not the information matches (Sa8).

このステップSa8の判定において、一致していると判定したときは、該一致していると判定した軌跡パターン情報に対応するコマンドまたはパスワードを出力し(Sa11)、ステップSa12に遷移する。すなわち、コマンド出力部1304が、軌跡情報の一致を判定したときは、ステップSa3にて取得した軌跡パターン情報とコマンドとの対応に基づき、一致を判定した軌跡情報に対応するコマンドを出力し、認証ジェスチャー照合部1305が、軌跡情報の一致を判定したときは、この軌跡パターン情報に対応付けられたパスワードをパスワード記憶部1064から読み出して出力する。   If it is determined in step Sa8 that they match, a command or password corresponding to the locus pattern information determined to match is output (Sa11), and the process proceeds to step Sa12. That is, when the command output unit 1304 determines that the trajectory information matches, the command output unit 1304 outputs a command corresponding to the trajectory information determined to match based on the correspondence between the trajectory pattern information acquired in step Sa3 and the command. When the gesture collation unit 1305 determines that the trajectory information matches, the password associated with the trajectory pattern information is read from the password storage unit 1064 and output.

一方、ステップSa8において、軌跡情報が一致していないと判定したときは、非接触でのキー入力を行うようにユーザによる設定がなされているか否かを判定する(Sa9)。設定されていないと判定したときは、ステップSa12に遷移する。一方、このステップSa9において、設定されていると判定したときは、センサ入力処理部130は、非接触でのキー入力処理を行う(Sa10)。このステップSa10の処理の詳細については図6を用いて後述する。次にステップSa12では、センサ入力処理部130は、距離センサ部107のタイムアウトを行うようにユーザによる設定がなされているか否かを判定する(Sa12)。この判定にて設定されていないと判定したときは、ステップSa14に遷移する。   On the other hand, when it is determined in step Sa8 that the trajectory information does not match, it is determined whether or not the setting is made by the user to perform non-contact key input (Sa9). When it is determined that it is not set, the process proceeds to step Sa12. On the other hand, if it is determined in step Sa9 that it is set, the sensor input processing unit 130 performs non-contact key input processing (Sa10). Details of the processing of step Sa10 will be described later with reference to FIG. Next, in step Sa12, the sensor input processing unit 130 determines whether or not the user has set the time-out for the distance sensor unit 107 (Sa12). If it is determined in this determination that it has not been set, the process proceeds to step Sa14.

一方、このステップSa12の判定にて設定されていると判定したときは、センサ入力処理部130は、予め設定されている時間、距離センサ部107が指を検出しているか否かに基づき、距離センサ部107がタイムアウトしたか否かを判定する(Sa13)。タイムアウトしたと判定したときは、センサ入力処理部130は、後述するステップSa18に遷移する。一方、ステップSa13の判定において、タイムアウトしていないと判定したときは、メインディスプレイである主表示部111の液晶パネル1111と距離センサ部107のタイムアウトを連動させるようにユーザによる設定がなされているか否かを判定する(Sa14)。連動させないと設定されていると判定したときは、後述するステップSa16に遷移する。   On the other hand, when it is determined that the distance is set in the determination of step Sa12, the sensor input processing unit 130 determines the distance based on whether or not the distance sensor unit 107 has detected a finger for a preset time. It is determined whether the sensor unit 107 has timed out (Sa13). If it is determined that a time-out has occurred, the sensor input processing unit 130 proceeds to step Sa18 described later. On the other hand, if it is determined in step Sa13 that the time-out has not occurred, whether or not the user has set the time-out of the liquid crystal panel 1111 of the main display unit 111, which is the main display, and the distance sensor unit 107 to be linked. Is determined (Sa14). When it is determined that it is set not to be interlocked, the process proceeds to step Sa16 described later.

一方、ステップSa14において、連動させるように設定されていると判定したときは、センサ入力処理部130は、メインディスプレイである主表示部111の液晶パネル1111がタイムアウトしているか否かを判定する(Sa15)。タイムアウトしていると判定したときは、センサ入力処理部130は、後述するステップSa18に遷移する。次に、ステップSa16においては、センサ入力処理部130は、距離センサ部107を用いたセンサ入力を行わない(設定OFF)ようにユーザによる設定がなされたか否かを判定する(Sa16)。設定OFFが設定されていると判定したときは、センサ入力処理部130は、距離センサ部107を停止させ(Sa17)、処理を終了する。   On the other hand, when it is determined in step Sa14 that the setting is made to be interlocked, the sensor input processing unit 130 determines whether or not the liquid crystal panel 1111 of the main display unit 111 which is the main display has timed out ( Sa15). When it is determined that the time-out has occurred, the sensor input processing unit 130 proceeds to step Sa18 described later. Next, in step Sa16, the sensor input processing unit 130 determines whether or not the setting has been made by the user so as not to perform sensor input using the distance sensor unit 107 (setting OFF) (Sa16). When it is determined that the setting OFF is set, the sensor input processing unit 130 stops the distance sensor unit 107 (Sa17) and ends the process.

一方、ステップSa16において、設定OFFが設定されていない、すなわちセンサ入力を行うと設定されていると判定したときは、ステップSa4に遷移して上述の処理を繰り返す。また、ステップSa13およびステップSa15の判定の結果、ステップSa18に遷移したときは、センサ入力処理部130は、距離センサ部107を一時的に停止させ、ステップSa4に遷移して上述の処理を繰り返す(Sa18)。   On the other hand, when it is determined in step Sa16 that setting OFF is not set, that is, it is set that sensor input is performed, the process proceeds to step Sa4 and the above-described processing is repeated. As a result of the determinations at step Sa13 and step Sa15, when transitioning to step Sa18, the sensor input processing unit 130 temporarily stops the distance sensor unit 107, transitions to step Sa4, and repeats the above processing ( Sa18).

図6は、図5におけるステップSa10のキー非接触入力処理を説明するフローチャートである。距離センサ部107がユーザの指の3次元的な位置(キーボタンとキーボタンからの距離)を検出すると(Sb1)、センサ入力処理部130は、これを取得した後、キー非接触入力における予告発光を行うようにユーザによる設定がなされているか否かを判定する(Sb2)。ここで、設定されていないと判定したときは、センサ入力処理部130は、ステップSb5に遷移する。一方、ステップSb2の判定において、設定されていると判定したときは、発光制御部1303は、先にセンサ入力処理部130が距離センサ部107から取得したキーボタンからの距離が、予め決められた入力予告距離内であるか否かを判定する(Sb3)。入力予告距離内でないと判定したときは、センサ入力処理部130は、ステップSb5に遷移する。一方、ステップSb3の判定において、入力予告距離内であると判定したときは、発光制御部1303は、先にセンサ入力処理部130が距離センサ部107から取得したキーの発光を緑色からオレンジ色に変化させるように、すなわち予告発光をするように発光部1084を制御する(Sb4)。   FIG. 6 is a flowchart for explaining the key non-contact input process in step Sa10 in FIG. When the distance sensor unit 107 detects the three-dimensional position of the user's finger (the distance from the key button to the key button) (Sb1), the sensor input processing unit 130 obtains this, and then notifies the user of the key non-contact input. It is determined whether or not the user has set to emit light (Sb2). Here, when it is determined that it is not set, the sensor input processing unit 130 proceeds to step Sb5. On the other hand, if it is determined in step Sb2 that it is set, the light emission control unit 1303 determines the distance from the key button previously acquired by the sensor input processing unit 130 from the distance sensor unit 107 in advance. It is determined whether it is within the input notice distance (Sb3). When it is determined that it is not within the input advance notice distance, the sensor input processing unit 130 proceeds to step Sb5. On the other hand, if it is determined in step Sb3 that it is within the input advance notice distance, the light emission control unit 1303 changes the light emission of the key previously acquired from the distance sensor unit 107 by the sensor input processing unit 130 from green to orange. The light emitting unit 1084 is controlled so as to be changed, that is, to perform preliminary light emission (Sb4).

次に、ステップSb5では、センサ入力処理部130の発光制御部1303とキー入力制御部1302とは、先にセンサ入力処理部130が距離センサ部107から取得したキーボタンからの距離が、予め決められた入力検出距離内であるか否かを判定する(Sb5)。入力検出距離内でないと判定したときは、センサ入力処理部130は、キーボタン非接触入力処理を終了する。一方、ステップSb5の判定において、入力検出距離内であると判定したときは、発光制御部1303は、先にセンサ入力処理部130が距離センサ部107から取得したキーボタンの発光をオレンジ色から赤色に変化させるように、すなわちキー入力受付発光をするように発光部1084を制御する(Sb6)。さらに、ボタン入力制御部1302は、先にセンサ入力処理部130が距離センサ部107から取得したキーボタンの入力を表す情報を、アプリケーション(キー入力受付部)1403に出力し(Sb7)、キー非接触入力処理を終了する。   Next, in step Sb5, the light emission control unit 1303 and the key input control unit 1302 of the sensor input processing unit 130 determine the distance from the key button previously acquired from the distance sensor unit 107 by the sensor input processing unit 130 in advance. It is determined whether or not it is within the input detection distance (Sb5). When it is determined that it is not within the input detection distance, the sensor input processing unit 130 ends the key button non-contact input processing. On the other hand, if it is determined in step Sb5 that it is within the input detection distance, the light emission control unit 1303 changes the light emission of the key button previously acquired from the distance sensor unit 107 by the sensor input processing unit 130 from orange to red. The light emitting unit 1084 is controlled so that the key input acceptance light emission is performed (Sb6). Further, the button input control unit 1302 outputs information representing the key button input previously acquired from the distance sensor unit 107 by the sensor input processing unit 130 to the application (key input receiving unit) 1403 (Sb7), The contact input process is terminated.

このように、距離センサ部107が、ユーザの指とキーボタンとの距離を検出し、該距離が入力検出距離よりも大きい入力予告距離内であるときは、発光制御部1303が、発光部1084に該当キーの発光を変化させるので、ユーザは自らの動作によりキー入力することになるキーを事前に把握することができるので、誤入力を防止し、直接装置に触れなくても容易に操作することができる。   As described above, when the distance sensor unit 107 detects the distance between the user's finger and the key button and the distance is within the input notice distance that is larger than the input detection distance, the light emission control unit 1303 displays the light emission unit 1084. Since the light emission of the corresponding key is changed, the user can grasp in advance the key to be input by his / her own operation, thus preventing erroneous input and operating easily without directly touching the device. be able to.

また、コマンドや認証など、限られたパターン数で充分な情報の入力については、距離センサ部107が検出した指の軌跡との差分が一定範囲内である軌跡パターン情報を、メモリ106が記憶している軌跡パターン情報から検出し、該軌跡パターン情報に対応付けられたコマンドまたはパスワードをメモリ106から取得してアプリケーションに入力することで、直接装置に触れなくても容易に操作することができる。
また、パスワードの入力に関しては、キーボードなどを用いた入力においては、アプリケーションは、表示されているパスワードの入力領域を選択する操作がユーザによりなされた後に、キーボードから入力された情報をパスワードとして扱うが、本実施形態では、パスワードの入力領域が表示されているときに、距離センサ部107が検出した指の軌跡と認証ジェスチャーの軌跡パターン情報との差分が一定範囲内であるときは、これをパスワードの入力として扱うようにすることで、表示されているパスワードの入力領域をユーザが選択する操作が不要となる。
In addition, when inputting sufficient information such as commands and authentication, the memory 106 stores trajectory pattern information in which the difference from the finger trajectory detected by the distance sensor unit 107 is within a certain range. By detecting a command or password associated with the track pattern information from the memory 106 and inputting the command or password to the application, the user can easily operate the device without touching the device directly.
As for password input, in the case of input using a keyboard or the like, the application treats information input from the keyboard as a password after an operation for selecting a displayed password input area is performed by the user. In this embodiment, when the password input area is displayed, if the difference between the finger trace detected by the distance sensor unit 107 and the trace pattern information of the authentication gesture is within a certain range, the password is displayed as a password. Thus, the operation for the user to select the input area for the displayed password becomes unnecessary.

なお、本実施形態において、発光制御部1303は、距離センサ部107が検出した指までの距離が入力予告距離内または入力検出距離内となったときには、発光部1084に該当するキーボタンの発光の色を変化させるとして説明したが、各キーボタンに配置されるLEDを複数にするなどして、発光の輝度や発光する面積を変化させるようにしてもよい。
また、距離センサ部107が検出した指までの距離が入力予告距離内または入力検出距離内となったときに発光部1084に、発光制御部1303が、キーボタンの発光を変化させる際の発光変化パターンを、例えば、距離が短いほど、点滅間隔を短くするなど、距離センサ部107が検出した距離または該距離の時間変化に応じて決め、さらにボタン入力制御部1302が、この距離センサ部107が検出した距離または該距離の時間変化を表す情報を、キーボタンの入力を表す情報とともに出力するようにしてもよい。このようにすることで、これらの情報を入力されたアプリケーションは、距離またはその時間変化を表す情報をキーを押す強さを意味する情報として用いて、入力されたキーの文字を表示する際の大きさや色を、距離またはその時間変化を表す情報に応じて変えることができる。
In this embodiment, the light emission control unit 1303 emits light from the key button corresponding to the light emission unit 1084 when the distance to the finger detected by the distance sensor unit 107 is within the input advance notice distance or the input detection distance. Although it has been described that the color is changed, the luminance of light emission and the area of light emission may be changed by using a plurality of LEDs arranged on each key button.
Further, when the distance to the finger detected by the distance sensor unit 107 falls within the input advance notice distance or the input detection distance, the light emission control unit 1303 changes the light emission when the light emission control unit 1303 changes the light emission of the key button. The pattern is determined according to the distance detected by the distance sensor unit 107 or the time change of the distance, for example, the blinking interval is shortened as the distance is shorter, and the button input control unit 1302 further determines that the distance sensor unit 107 The information indicating the detected distance or the time change of the distance may be output together with the information indicating the input of the key button. By doing so, an application that has input such information uses the information indicating the distance or its time change as information indicating the strength of pressing the key, and displays the character of the input key. The size and color can be changed according to the distance or the information representing the change over time.

また、本実施形態では、発光部1084により、ユーザに入力予告や入力検出を通知していたが、発音部を設けて、音の高さや長さ、発音の間隔などを変化させて通知するようにしてもよいし、主表示部111の表示内容を変化させて通知するようにしてもよいし、振動部113により、筺体を振動させて通知するようにしてもよい。また、発光部1084を、各キーボタンではなく、各キーボタンの近傍あるいはキーボタンから離れた箇所に設けてもよい。   In this embodiment, the light emitting unit 1084 notifies the user of the input advance notice or input detection. However, a sound generation unit is provided to notify the user by changing the pitch, length, interval of sound generation, and the like. Alternatively, the display content of the main display unit 111 may be changed and notified, or the casing 113 may be vibrated and notified by the vibration unit 113. Further, the light emitting unit 1084 may be provided not near each key button but near each key button or away from the key button.

また、操作部108のキーボタン各々は、加圧されたことを検出できるように機械接点式のスイッチを備えていたり、接触されたことを検出できるように静電容量パッドなどのタッチパッドを備えていたりしており、ボタン入力制御部1302は、キーボタンへの加圧または接触を検出したときは、そのキーボタンに割当てられたキーの入力を表す情報とともに、該キーの入力が加圧または接触による検出であることを示す情報を、アプリケーション(キー入力受付部)1403に出力するようにしてもよい。操作部108のキーボタンに静電容量パッドなどのタッチパッドを用いる場合は、キーボタン各々にタッチパッドを用いるのでなく、1つのタッチパッドを複数の領域に区切り、各領域をキーと対応させたキーボタンとし、接触を検出した領域に対応するキーの入力を表す情報を、ボタン入力制御部1302は出力するようにしてもよい。   Each key button of the operation unit 108 includes a mechanical contact type switch so that it can be detected that the pressure is applied, or a touch pad such as a capacitance pad so that it can be detected that the button is touched. When the button input control unit 1302 detects pressurization or contact with a key button, the input of the key is pressed or pressed together with information indicating the input of the key assigned to the key button. Information indicating detection by contact may be output to the application (key input receiving unit) 1403. When a touch pad such as a capacitance pad is used as a key button of the operation unit 108, instead of using a touch pad for each key button, one touch pad is divided into a plurality of areas, and each area is associated with a key. The button input control unit 1302 may output information representing a key input corresponding to a region where contact is detected.

また、本実施形態において、軌跡情報および軌跡パターン情報は、指までの距離とその距離を検出したキーボタンとキーボタン間の移動速度とを時間順に繋いだ情報であるとして説明したが、これら距離、キーボタン、移動速度(あるいは時間間隔)のうち、少なくとも一つを時間順に繋いだ情報であればよい、例えば、指までの距離を時間順に繋いだ情報であってもよいし、キーボタンと移動速度とを時間順に繋いだ情報であってもよい。   Further, in the present embodiment, the trajectory information and the trajectory pattern information are described as information that connects the distance to the finger and the key button that detects the distance and the moving speed between the key buttons in time order. Information that connects at least one of the key buttons and the moving speed (or time interval) in time order, for example, information that connects the distance to the finger in time order, The information which connected the moving speed in time order may be sufficient.

また、軌跡情報および軌跡パターン情報における、指までの距離に指がキーボタンを触れることを含めるようにしてもよい。これにより、携帯電話機100の主カメラ109などでの撮影時に、シャッターボタンとして用いるキーボタンから指までの距離が、予め決められた距離になるまで動かした軌跡の軌跡パターン情報に、ピント合わせを指示するコマンドを割当て、上述のキーボタンに指が触れる軌跡の軌跡パターン情報に、シャッターを切ることを指示するコマンドを割当てるにしてもよい。また、キーボタンを触れない軌跡に、フォント選択のコマンドを割当て、キーボタンを触れる軌跡に文字入力(キーボタン押下)を表すコマンドを割当てるようにしてもよい。キーボタンを触れない軌跡に、画面スクロールまたはポインタの移動のコマンドを割当て、キーボタンを触れる軌跡にクリックを表すコマンドを割当てるようにしてもよい。
また、本実施形態において、指までの距離を、距離センサ部107が備える赤外線センサ1071にて判定するとして説明したが、副カメラ110が撮像した画像を併せて用いるようにしてもよい。
Further, the distance to the finger in the trajectory information and the trajectory pattern information may include touching the key button with the finger. Thereby, when photographing with the main camera 109 of the mobile phone 100 or the like, the focus pattern information of the locus moved until the distance from the key button used as the shutter button to the finger becomes a predetermined distance is instructed to focus. A command for instructing to release the shutter may be assigned to the locus pattern information of the locus where the finger touches the key button. Alternatively, a font selection command may be assigned to a locus where no key button is touched, and a command indicating character input (key button press) may be assigned to a locus where the key button is touched. A command for scrolling the screen or moving the pointer may be assigned to a locus where the key button is not touched, and a command representing a click may be assigned to a locus where the key button is touched.
In the present embodiment, the distance to the finger has been described as being determined by the infrared sensor 1071 included in the distance sensor unit 107, but an image captured by the sub camera 110 may be used together.

[第2の実施形態]
以下、図面を参照して、本発明の第2の実施形態について説明する。本実施形態における携帯電話機100aは、図1に示す携帯電話機100とは、距離センサ部107aが備える赤外線センサ1071aの配置のみが異なる。携帯電話機100では、赤外線センサ1071は、各キーボタンに配置されたのに対し、本実施形態における携帯電話機100aでは、図7に示すように、赤外線センサ1071aは、カーソルキー1081、決定キー1082、テンキー、*、#キー1083の各キーボタンの間に配置されている。
[Second Embodiment]
The second embodiment of the present invention will be described below with reference to the drawings. The cellular phone 100a in this embodiment is different from the cellular phone 100 shown in FIG. 1 only in the arrangement of the infrared sensor 1071a provided in the distance sensor unit 107a. In the cellular phone 100, the infrared sensor 1071 is arranged on each key button, whereas in the cellular phone 100a in the present embodiment, as shown in FIG. 7, the infrared sensor 1071a includes a cursor key 1081, a decision key 1082, They are arranged between the key buttons of the ten key, *, and # key 1083.

このように赤外線センサ1071aを配置した場合でも、距離センサ部107aは、ユーザの指の3次元的な位置を検出し、その他の各部は、携帯電話機100と同様に動作することで、ユーザは自らの動作によりキー入力することになるキーを事前に把握することができるので、誤入力を防止し、直接装置に触れなくても容易に操作することができる。   Even when the infrared sensor 1071a is arranged in this manner, the distance sensor unit 107a detects the three-dimensional position of the user's finger, and the other units operate in the same manner as the mobile phone 100, so that the user himself Since it is possible to grasp in advance the key to be input by this operation, it is possible to prevent erroneous input and to operate easily without directly touching the device.

[第3の実施形態]
以下、図面を参照して、本発明の第3の実施形態について説明する。本発明による入力装置を備えた本実施形態における携帯電話機100bは、図1に示す携帯電話機100とは異なる点が2つある。一つ目は、携帯電話機100bの主表示部111bが、液晶パネル1111と、そのガラス基板の画素一つ一つに対応する位置に外光を検出する光センサ1112とを備えた光センサ内蔵システム液晶パネルにより構成されており、画像、文字等を表示するとともに、この主表示部111bに外部から入射する光を検出して撮像し、指までの距離を、主表示部111bの光センサ1112が撮像した画像に基づき判定する点である。2つ目は、操作部108を備えず、主表示部111bにボタンを表示し、これらのボタンに対するユーザ操作を前述の光センサ1112にて検出する点である。
[Third Embodiment]
The third embodiment of the present invention will be described below with reference to the drawings. The mobile phone 100b according to this embodiment provided with the input device according to the present invention has two differences from the mobile phone 100 shown in FIG. The first is a system with a built-in optical sensor, in which the main display unit 111b of the mobile phone 100b includes a liquid crystal panel 1111 and an optical sensor 1112 that detects external light at a position corresponding to each pixel of the glass substrate. It is composed of a liquid crystal panel and displays images, characters, etc., and detects and captures light incident on the main display unit 111b from the outside, and the optical sensor 1112 of the main display unit 111b determines the distance to the finger. This is a point to be determined based on the captured image. The second point is that the operation unit 108 is not provided, buttons are displayed on the main display unit 111b, and a user operation on these buttons is detected by the optical sensor 1112 described above.

図8は、本実施形態における携帯電話機100bの外観図である。同図において、図1の各部に対応する部分には同一の符号(116、117、109、110、1091)を付け、その説明を省略する。携帯電話機100bは、バータイプの携帯電話機であり、携帯電話機100、100aとは異なり、テンキー、*、#キー1083のようなキーボタンを有する操作部108と、距離センサ部107と、副表示部112とを備えず、主表示部111bの液晶パネル1111のうち、操作用のボタンが割り当てられた領域に、該操作用のボタンを表す画像を表示し、該ボタンに対する操作を光センサ(位置検出部)1112にて検出する。このボタンには、数字などのキーが割当てられたキーボタンの他に、携帯電話機100bを操作するためのボタン、例えばオフフックボタン、オンフックボタンや、携帯電話機で動作するアプリケーションを操作するためのボタン、例えばWebブラウザのホームボタンや戻るボタンなどを含む。   FIG. 8 is an external view of the mobile phone 100b in the present embodiment. In the figure, the same reference numerals (116, 117, 109, 110, 1091) are assigned to the parts corresponding to the respective parts in FIG. The mobile phone 100b is a bar-type mobile phone, and unlike the mobile phones 100 and 100a, the operation unit 108 having key buttons such as a numeric keypad, *, and # key 1083, a distance sensor unit 107, and a sub display unit 112, an image representing the operation button is displayed in an area to which the operation button is assigned in the liquid crystal panel 1111 of the main display unit 111b, and the operation on the button is detected by a light sensor (position detection). Part) 1112 to detect. In addition to key buttons to which keys such as numbers are assigned, buttons for operating the mobile phone 100b, such as an off-hook button, an on-hook button, and a button for operating an application running on the mobile phone, For example, a home button and a return button of a web browser are included.

また、メモリ106bのジェスチャー記憶部1061b、認証ジェスチャー記憶部1063bにて記憶する軌跡パターン情報のフォーマットが、携帯電話機100、100aにおける軌跡パターン情報のフォーマットと異なる。図8(a)は、この携帯電話機100bの入力操作用の主表示部111bが設けられている側を表わし、図1(b)は、その背面を表わす。   Further, the format of the trajectory pattern information stored in the gesture storage unit 1061b and the authentication gesture storage unit 1063b of the memory 106b is different from the format of the trajectory pattern information in the mobile phones 100 and 100a. FIG. 8A shows the side on which the main display portion 111b for input operation of the cellular phone 100b is provided, and FIG. 1B shows the back side thereof.

図9は、本実施形態における携帯電話機100bの構成を示す概略ブロック図である。同図において、図2の各部に対応する部分には同一の符号(101〜105、110、113〜121、124、125)を付け、その説明を省略する。メモリ106bは、図2におけるメモリ106と同様に通話、電子メール等を行う場合に使用されるデータに加え、ユーザにより設定された情報など、その他の管理情報を記憶する不揮発性のメモリである。しかし、メモリ106bは、図2におけるメモリ106とは、ジェスチャー記憶部1061と認証ジェスチャー記憶部1063とに替えて、ジェスチャー記憶部1061bと認証ジェスチャー記憶部1063bとを備える点が異なる。   FIG. 9 is a schematic block diagram showing the configuration of the mobile phone 100b in the present embodiment. In the figure, the same reference numerals (101 to 105, 110, 113 to 121, 124, and 125) are assigned to portions corresponding to the respective portions in FIG. The memory 106b is a non-volatile memory that stores other management information such as information set by the user in addition to data used when making a call, e-mail, or the like, similar to the memory 106 in FIG. However, the memory 106b is different from the memory 106 in FIG. 2 in that a gesture storage unit 1061b and an authentication gesture storage unit 1063b are provided instead of the gesture storage unit 1061 and the authentication gesture storage unit 1063.

ジェスチャー記憶部1061bおよび認証ジェスチャー記憶部1063bは、図2におけるジェスチャー記憶部1061および認証ジェスチャー記憶部1063とは、記憶している軌跡パターン情報のフォーマットが異なる。具体的には、図2におけるジェスチャー記憶部1061および認証ジェスチャー記憶部1063では、軌跡パターン情報において位置を表すのにキーボタンと、該キーボタンからの距離とを用いていたが、ジェスチャー記憶部1061bおよび認証ジェスチャー記憶部1063bでは、主表示部111bを基準とした相対座標(X,Y,Zなどの3次元座標)を用いる点が異なる。   The gesture storage unit 1061b and the authentication gesture storage unit 1063b are different from the gesture storage unit 1061 and the authentication gesture storage unit 1063 in FIG. Specifically, in the gesture storage unit 1061 and the authentication gesture storage unit 1063 in FIG. 2, the key button and the distance from the key button are used to represent the position in the trajectory pattern information, but the gesture storage unit 1061b The authentication gesture storage unit 1063b is different in that relative coordinates (three-dimensional coordinates such as X, Y, and Z) based on the main display unit 111b are used.

図10は、主制御部104が、プログラムメモリ105に格納されたプログラムを実行することにより機能するセンサ入力処理部130bと関連する携帯電話機100bの部分を示した概略ブロック図である。センサ入力処理部130bは、ジェスチャー軌跡生成部1301b、ボタン入力制御部1302b、発光制御部1303b、コマンド出力部1304b、認証ジェスチャー照合部1305bを具備する。アプリケーション(コマンド受付部)1401、アプリケーション(パスワード受付部)1402、アプリケーション(ボタン入力受付部)1403bについても、プログラムメモリ105に格納されたプログラムを実行することにより機能する。   FIG. 10 is a schematic block diagram showing a part of the cellular phone 100b related to the sensor input processing unit 130b that functions when the main control unit 104 executes a program stored in the program memory 105. The sensor input processing unit 130b includes a gesture trajectory generation unit 1301b, a button input control unit 1302b, a light emission control unit 1303b, a command output unit 1304b, and an authentication gesture collation unit 1305b. The application (command reception unit) 1401, the application (password reception unit) 1402, and the application (button input reception unit) 1403b also function by executing a program stored in the program memory 105.

アプリケーション(コマンド受付部)1401は、図3におけるアプリケーション(コマンド受付部)1401と同様に、Webブラウザや電子メールソフトなどのアプリケーションのコマンド受付部であり、コマンド出力部1304bが出力する該アプリケーション固有のコマンドを受け付ける。アプリケーション(パスワード受付部)1402は、図3におけるアプリケーション(パスワード受付部)1402と同様に、アプリケーションのパスワード受付部であり、認証ジェスチャー照合部1305bが出力する該アプリケーション向けのパスワードを受け付ける。アプリケーション(ボタン入力受付部)1403bは、アプリケーションのボタン入力受付部であり、ボタン入力制御部1302bが出力する該アプリケーション向けのボタンが操作されたことを表す情報を受け付ける。   The application (command receiving unit) 1401 is a command receiving unit for an application such as a Web browser or e-mail software, as with the application (command receiving unit) 1401 in FIG. 3, and is specific to the application output by the command output unit 1304b. Accept commands. The application (password accepting unit) 1402 is an application password accepting unit, similar to the application (password accepting unit) 1402 in FIG. 3, and accepts a password for the application output by the authentication gesture collating unit 1305b. The application (button input reception unit) 1403b is a button input reception unit of the application, and receives information indicating that the button for the application output from the button input control unit 1302b is operated.

ジェスチャー軌跡生成部(軌跡生成部)1301bは、光センサ1112が検出したユーザの指の位置と検出した指の移動速度とを時間順に繋いでユーザの指の軌跡情報を生成する。ボタン入力制御部1302bは、液晶パネル1111に表示されたボタンに対して予め決められた入力検出距離(第一の距離)内にユーザの指が近付いたことを光センサ1112が検出したときは、該ボタンが操作されたことを表す情報、すなわち該ボタンが押下されたことを表す情報をアプリケーション(キー入力受付部)1403に出力する。   The gesture trajectory generation unit (trajectory generation unit) 1301b generates trajectory information of the user's finger by connecting the position of the user's finger detected by the optical sensor 1112 and the detected movement speed of the finger in time order. When the optical sensor 1112 detects that the user's finger approaches the button displayed on the liquid crystal panel 1111 within a predetermined input detection distance (first distance), the button input control unit 1302b Information indicating that the button has been operated, that is, information indicating that the button has been pressed is output to the application (key input receiving unit) 1403.

発光制御部(通知制御部)1303bは、光センサ1112が、液晶パネル1111に表示されたいずれかのボタンに対して入力検出距離より大きい値であって、予め決められた入力予告距離(第二の距離)内にユーザの指が近付いたことを検出したときは、該ボタンの影を表示するように液晶パネル1111を制御する。さらに、発光制御部1303bは、光センサ1112が、入力検出距離内にユーザの指が近付いたことを検出したときは、該ボタンの画像を変化させるように液晶パネル1111を制御する。   The light emission control unit (notification control unit) 1303b has a value that is larger than the input detection distance for any of the buttons displayed on the liquid crystal panel 1111 by the optical sensor 1112 and has a predetermined input notice distance (second When the user's finger approaches within the distance, the liquid crystal panel 1111 is controlled to display the shadow of the button. Further, when the light sensor 1112 detects that the user's finger has come within the input detection distance, the light emission control unit 1303b controls the liquid crystal panel 1111 to change the button image.

コマンド出力部1304bは、ジェスチャー軌跡生成部1301bが生成した軌跡情報が表す軌跡と、ジェスチャー記憶部(軌跡パターン記憶部)1061bが記憶している軌跡パターン情報各々が表す軌跡とを比較し、この比較結果の差分が所定の範囲内の軌跡パターン情報を検出し、該検出した軌跡パターン情報に対応付けられたコマンドをAP固有設定記憶部(コマンド記憶部)1062から読み出して、アプリケーション(コマンド受付部)1401に出力する。また、コマンド出力部1304bがアプリケーション(コマンド受付部)1401にコマンドを出力する際に、このコマンドを表す情報に加えて、軌跡情報中の座標や速度などをパラメータとして出力するようにしてもよい。例えば、軌跡情報中で、主表示部111bとの距離がゼロとなったとき(主表示部111bをタッチしたとき)の座標を、拡大または縮小のコマンドとともに出力し、これを受けたアプリケーションは、パラメータの座標を中心にして画像を拡大または縮小するようにしてもよい。なお、蛍光灯の光や太陽光などの強い光が光センサ1112に入射しており、光センサ1112が指までの距離を判定できないときは、コマンド出力部1304bおよび認証ジェスチャー照合部1305bは、軌跡パターン情報および軌跡情報からキーボタンからの距離を除いた情報を用いてコマンドやパスワードを判定するようにしてもよい。   The command output unit 1304b compares the trajectory represented by the trajectory information generated by the gesture trajectory generation unit 1301b with the trajectory represented by each trajectory pattern information stored in the gesture storage unit (trajectory pattern storage unit) 1061b. The trajectory pattern information within which the difference between the results is within a predetermined range is detected, the command associated with the detected trajectory pattern information is read from the AP specific setting storage unit (command storage unit) 1062, and the application (command reception unit) is read out. 1401 is output. Further, when the command output unit 1304b outputs a command to the application (command reception unit) 1401, in addition to information representing this command, coordinates, speed, and the like in the trajectory information may be output as parameters. For example, in the trajectory information, the coordinates when the distance to the main display unit 111b becomes zero (when the main display unit 111b is touched) are output together with an enlargement or reduction command, You may make it enlarge or reduce an image centering on the coordinate of a parameter. When strong light such as fluorescent light or sunlight is incident on the optical sensor 1112, and the optical sensor 1112 cannot determine the distance to the finger, the command output unit 1304b and the authentication gesture verification unit 1305b The command or password may be determined using information obtained by removing the distance from the key button from the pattern information and the trajectory information.

タッチパネル付きのディスプレイに、操作用のボタンなどを含む操作用の画像を表示する際には、タッチパネルを操作する手により画像が隠されてしまう。このため、タッチパネル付きのディスプレイを用いた装置では、ユーザが画像の切り替えを認識し易いように、ユーザがディスプレイにタッチしたときではなく、タッチした手を離したときに画像の切り替えを行なう。しかしながら、本実施形態の携帯電話機100bは、このように、光センサ1112により、主表示部111bから離れたところにある指の動きを検出し、この検出結果に基づき画像の切り替えを行なう。このため、操作する手により隠される画像がタッチパネルより少なく、操作する手があっても、ユーザは画像の切り替えを認識することができるので、光センサ112が指の動きを検出したときに、すなわち操作の動作を終えたあと、携帯電話機100bは、操作する手が退けられるのを待つことなく、アプリケーションによる画像の切り替えを行なうことができる。   When an operation image including operation buttons and the like is displayed on a display with a touch panel, the image is hidden by a hand operating the touch panel. For this reason, in an apparatus using a display with a touch panel, the image is switched when the user releases the touched hand, not when the user touches the display, so that the user can easily recognize the switching of the image. However, the cellular phone 100b according to the present embodiment detects the movement of the finger away from the main display unit 111b by the optical sensor 1112, and switches the image based on the detection result. For this reason, since the image hidden by the operating hand is smaller than the touch panel and the user can recognize the switching of the image even if there is an operating hand, when the optical sensor 112 detects the movement of the finger, that is, After finishing the operation, the mobile phone 100b can switch images by an application without waiting for the operating hand to be withdrawn.

また、アプリケーションでは、アプリケーション(コマンド受付部)1401、アプリケーション(パスワード受付部)1402、アプリケーション(ボタン入力受付部)1403bが、センサ入力処理部130bからコマンド、パスワード、ボタン操作の入力を受け付けるとともに、光センサ1112からの直接入力を受け付けるようにしてもよい。これにより、例えば、画像編集を行うアプリケーションの場合、センサ入力処理部130bからのコマンドにより編集機能を切り替え、光センサ1112からの直接入力により、手書き文字や絵を描画することができる。   In the application, an application (command receiving unit) 1401, an application (password receiving unit) 1402, and an application (button input receiving unit) 1403b receive an input of a command, a password, and a button operation from the sensor input processing unit 130b. Direct input from the sensor 1112 may be accepted. Thereby, for example, in the case of an application for image editing, the editing function can be switched by a command from the sensor input processing unit 130b, and handwritten characters and pictures can be drawn by direct input from the optical sensor 1112.

認証ジェスチャー照合部(認証軌跡照合部)1305bは、ジェスチャー軌跡生成部1301bが生成した軌跡情報が表す軌跡と、認証ジェスチャー記憶部(認証軌跡パターン記憶部)1063bが記憶している認証軌跡パターン情報が表す軌跡とを比較し、この比較結果の差分が所定の範囲内にあるときは、この認証軌跡パターン情報に対応付けられた認証情報をパスワード記憶部(認証情報記憶部)1064から読み出して、アプリケーション(パスワード受付部)1402に出力する。   The authentication gesture collation unit (authentication trajectory collation unit) 1305b includes the trajectory represented by the trajectory information generated by the gesture trajectory generation unit 1301b and the authentication trajectory pattern information stored in the authentication gesture storage unit (authentication trajectory pattern storage unit) 1063b. When the difference between the comparison results is within a predetermined range, the authentication information associated with the authentication locus pattern information is read from the password storage unit (authentication information storage unit) 1064 and the application (Password accepting unit) Output to 1402.

光センサ1112は、前述のように撮像し、この撮像により得られた画像中の指を検出する。このとき、光センサ1112は、画像中の指の大きさから主表示部111bから指までの距離を判定し、この距離と、画像中の指の位置から主表示部111bに対する空間的な位置を検出する。また、光センサ1112は、画像中の指の大きさの変化から指の主表示部111bに対して鉛直方向の速度を判定する。この判定した距離または速度に基づき、発光制御部1303bは、ボタンの画像を変化させるように液晶パネル1111を制御するようにしてもよい。このボタンの画像を変化させ方の例としては、例えば、距離が近い、あるいは、速度が速いほど、ボタンの明度を上げる、ボタンのサイズを大きくする、ボタンに表示する文字のフォントを変更する、ボタンの影の大きさを変えるなどである。   The optical sensor 1112 images as described above, and detects a finger in the image obtained by the imaging. At this time, the optical sensor 1112 determines the distance from the main display unit 111b to the finger from the size of the finger in the image, and determines the spatial position relative to the main display unit 111b from the distance and the position of the finger in the image. To detect. The optical sensor 1112 determines the speed in the vertical direction with respect to the main display unit 111b of the finger from the change in the size of the finger in the image. Based on the determined distance or speed, the light emission control unit 1303b may control the liquid crystal panel 1111 to change the button image. As an example of how to change the image of this button, for example, as the distance is shorter or the speed is faster, the brightness of the button is increased, the size of the button is increased, the font of the character displayed on the button is changed, For example, change the size of the button shadow.

また、光センサ1112が画像中に指を検出したときは、発光制御部1303bが液晶パネル1111に、光センサ1112が検出し易い色の画像を表示させるようにしてもよい。さらに、このとき、指を検出した位置に相当する領域のみを、光センサ1112が検出し易い色とした画像としてもよい。これにより、光センサ1112は指の位置をより正確に検出し易くなり、また、携帯電話機100bが検出している指の位置を、ユーザは把握することができる。携帯電話機100bは、主表示部111bから指までの距離を指の輝度に基づき判定(輝度が高いほど近いと判定する)し、前述のように距離または速度に基づきボタンの画像を変化させることができる。このとき、指を検出した位置以外の領域には画像を表示しておくことで、ユーザは迷わずに操作することもできる。   When the light sensor 1112 detects a finger in the image, the light emission control unit 1303b may cause the liquid crystal panel 1111 to display an image in a color that the light sensor 1112 can easily detect. Furthermore, at this time, only an area corresponding to the position where the finger is detected may be an image having a color that the optical sensor 1112 can easily detect. Thereby, the optical sensor 1112 can easily detect the position of the finger more accurately, and the user can grasp the position of the finger detected by the mobile phone 100b. The mobile phone 100b can determine the distance from the main display unit 111b to the finger based on the luminance of the finger (determines that the higher the luminance is, the closer it is), and can change the button image based on the distance or speed as described above. . At this time, by displaying an image in an area other than the position where the finger is detected, the user can operate without hesitation.

また、本実施形態において光センサ1112は、主表示部111bから指までの距離または該方向の速度の判定を行うとして説明したが、これに替えて、別に音波(超音波)や赤外線を用いた三角測定などで距離を測定する測距センサを設けて、この測距センサにより指までの距離を判定するようにしてもよいし、カメラまたはラインセンサを設けて、このカメラまたはラインセンサによる撮像結果の焦点があっているか否かに基づき、カメラまたはラインセンサの焦点距離付近に指があるか否かを判定するようにしてもよい。   In the present embodiment, the optical sensor 1112 has been described as performing the determination of the distance from the main display unit 111b to the finger or the speed in the direction, but instead of this, a sound wave (ultrasonic wave) or infrared light is used. A distance measuring sensor that measures the distance by triangular measurement or the like may be provided, and the distance to the finger may be determined by the distance measuring sensor, or a camera or a line sensor may be provided, and an imaging result obtained by the camera or the line sensor. Whether or not the finger is near the focal length of the camera or the line sensor may be determined based on whether or not there is a focal point.

このように、光センサ1112が、ユーザの指とボタンとの距離を検出し、該距離が入力検出距離よりも大きい入力予告距離内であるときは、発光制御部1303bが、液晶パネル1111に該ボタンの画面表示を変化させるので、ユーザは自らの動作によりボタン操作することになるボタンを事前に把握することができるので、誤入力を防止し、直接装置に触れなくても容易に操作することができる。   As described above, when the optical sensor 1112 detects the distance between the user's finger and the button and the distance is within the input advance notification distance that is larger than the input detection distance, the light emission control unit 1303b displays the distance to the liquid crystal panel 1111. Since the screen display of the buttons is changed, the user can know in advance which buttons will be operated by his / her actions, thus preventing erroneous input and easy operation without touching the device directly. Can do.

なお、図3におけるセンサ入力処理部130、および図4におけるセンサ入力処理部130bの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによりセンサ入力処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   A program for realizing the functions of the sensor input processing unit 130 in FIG. 3 and the sensor input processing unit 130b in FIG. 4 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is stored in the computer. The sensor input process may be performed by reading the system and executing it. Here, the “computer system” includes an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in the computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design changes and the like within a scope not departing from the gist of the present invention.

本発明は、携帯電話機などの携帯機器に用いて好適であるが、これに限定されない。   The present invention is suitable for use in a portable device such as a cellular phone, but is not limited thereto.

この発明の第1の実施形態による携帯電話機100の外観図である。1 is an external view of a mobile phone 100 according to a first embodiment of the present invention. 同実施形態における携帯電話機100の構成を示す概略ブロック図である。FIG. 2 is a schematic block diagram showing a configuration of a mobile phone 100 in the same embodiment. 同実施形態におけるセンサ入力処理部130と関連する携帯電話機100の部分を示した概略ブロック図である。4 is a schematic block diagram showing a part of the mobile phone 100 related to the sensor input processing unit 130 in the same embodiment. FIG. 同実施形態におけるジェスチャー記憶部1061が記憶する軌跡情報と各軌跡情報に対応付けてAP固有設定記憶部1062が記憶するコマンドを例示する図である。It is a figure which illustrates the command which the AP specific setting memory | storage part 1062 memorize | stores in association with the locus | trajectory information memorize | stored in the gesture memory | storage part 1061 in each embodiment, and each locus | trajectory information. 同実施形態におけるセンサ入力処理部130の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the sensor input process part 130 in the embodiment. 同実施形態におけるステップSa10のキー非接触入力処理を説明するフローチャートである。It is a flowchart explaining the key non-contact input process of step Sa10 in the embodiment. この発明の第2の実施形態による携帯電話機100aの外観図である。It is an external view of the mobile telephone 100a by 2nd Embodiment of this invention. この発明の第3の実施形態による携帯電話機100bの外観図である。It is an external view of the mobile telephone 100b by 3rd Embodiment of this invention. 同実施形態における携帯電話機100bの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the mobile telephone 100b in the same embodiment. 同実施形態におけるセンサ入力処理部130bと関連する携帯電話機100bの部分を示した概略ブロック図である。It is the schematic block diagram which showed the part of the mobile telephone 100b relevant to the sensor input process part 130b in the embodiment.

符号の説明Explanation of symbols

100、100a…携帯電話機
101…アンテナ
102…無線部
103…通信制御部
104…主制御部
105…プログラムメモリ
106…メモリ
1061…ジェスチャー記憶部
1062…AP固有設定記憶部
1063…認証ジェスチャー記憶部
1064…パスワード記憶部
107…距離センサ部
1071、1071a…赤外線センサ
108…操作部
1081…カーソルキー
1082…決定キー
1083…テンキー、*、#キー
109…主カメラ
110…副カメラ
111…主表示部
1111…液晶パネル
1112…光センサ
112…副表示部
113…振動部
114…GPS機能部
115…音声処理部
116…マイク
117…スピーカ
118…RFIDリーダ
119…Ir送信部
120…Ir受信部
121…インジケータ
123…電源制御部
124…電池
130…センサ入力処理部
1301…ジェスチャー軌跡生成部
1302…キー入力制御部
1303…発光制御部
1304…コマンド出力部
1305…認証ジェスチャー照合部
DESCRIPTION OF SYMBOLS 100, 100a ... Mobile phone 101 ... Antenna 102 ... Radio | wireless part 103 ... Communication control part 104 ... Main control part 105 ... Program memory 106 ... Memory 1061 ... Gesture memory | storage part 1062 ... AP specific setting memory | storage part 1063 ... Authentication gesture memory | storage part 1064 ... Password storage unit 107 ... Distance sensor unit 1071, 1071a ... Infrared sensor 108 ... Operation unit 1081 ... Cursor key 1082 ... Enter key 1083 ... Numeric keypad, *, # key 109 ... Main camera 110 ... Sub camera 111 ... Main display unit 1111 ... Liquid crystal Panel 1112 ... Optical sensor 112 ... Sub display part 113 ... Vibrating part 114 ... GPS function part 115 ... Audio processing part 116 ... Microphone 117 ... Speaker 118 ... RFID reader 119 ... Ir transmitting part 120 ... Ir receiving part 121 ... Indicator 23 ... power supply control unit 124 ... battery 130 ... sensor input processing unit 1301 ... gesture trajectory generation unit 1302 ... key input control unit 1303 ... emission control unit 1304 ... command output section 1305 ... authentication gesture matching unit

Claims (11)

ユーザによるボタン操作の入力を受け付ける入力装置において、
当該装置の表面の少なくとも一部の領域であって、各々にボタンが割り当てられた複数の領域であるボタン領域部と、
前記ユーザへの通知を行う通知部と、
当該装置から離れた空間を含む空間における物体の位置を検出する位置検出部と、
前記位置検出部が前記領域に対して第一の距離内に近づいた物体を検出したときは、該領域に割り当てられたボタンが操作されたことを表す情報を出力するボタン入力制御部と、
前記位置検出部が前記領域に対して前記第一の距離より大きい第二の距離内に近づいた物体を検出したときは、該領域に対応した通知を前記通知部に行わせる通知制御部と
を具備することを特徴とする入力装置。
In an input device that accepts an input of a button operation by a user,
A button area portion which is at least a part of the surface of the device and is a plurality of areas each assigned a button;
A notification unit for notifying the user;
A position detector for detecting the position of an object in a space including a space away from the device;
A button input control unit that outputs information indicating that a button assigned to the region has been operated when the position detection unit detects an object that has approached the region within a first distance;
A notification control unit for causing the notification unit to perform a notification corresponding to the area when the position detection unit detects an object that has approached the area within a second distance greater than the first distance; An input device comprising the input device.
前記通知制御部は、前記位置検出部が前記領域に対して前記第一の距離内に近づいた物体を検出したときは、該領域に対応した通知を前記通知部に行わせることを特徴とする請求項1に記載の入力装置。   The notification control unit causes the notification unit to perform a notification corresponding to the region when the position detection unit detects an object that has approached the region within the first distance. The input device according to claim 1. 前記ボタン入力制御部は、前記ボタンが操作されたことを表す情報を出力する際に、前記位置検出部が位置を検出した物体から前記領域までの距離または該距離の時間変化を表す情報を出力し、
前記通知制御部は、前記領域に加えて、前記位置検出部が位置を検出した物体から前記領域までの距離または該距離の時間変化に対応した通知を前記通知部に行わせることを特徴とする請求項1または請求項2に記載の入力装置。
When the button input control unit outputs information indicating that the button has been operated, the button input control unit outputs information indicating the distance from the object whose position is detected by the position detection unit to the region or the time change of the distance. And
In addition to the region, the notification control unit causes the notification unit to perform a notification corresponding to a distance from an object whose position is detected by the position detection unit to the region or a time change of the distance. The input device according to claim 1 or 2.
前記通知部は、前記ボタン領域部の領域各々を発光させ、
前記通知制御部は、前記領域に対応した通知を、前記通知部に、前記領域の発光を変化させることで行わせ、
前記発光の変化は、発光の輝度、発光する色、発光する面積のうち、少なくともいずれか1つの変化であることを特徴とする請求項1から請求項3のいずれかの項に記載の入力装置。
The notification unit causes each region of the button region unit to emit light,
The notification control unit causes the notification unit to perform notification corresponding to the region by changing light emission of the region,
The input device according to claim 1, wherein the change in light emission is at least one change among luminance of light emission, color of light emission, and area of light emission. .
前記ボタン領域部は、前記領域各々への加圧または接触の少なくとも一方を検出し、
前記ボタン入力制御部は、前記ボタン領域部が前記領域について加圧または接触を検出したときは、該領域に割り当てられたボタンが操作されたことを表す情報とともに、前記加圧または接触による検出を示す情報を出力すること
を特徴とする請求項1から請求項4のいずれかの項に記載の入力装置。
The button area part detects at least one of pressurization or contact with each of the areas,
When the button area unit detects pressurization or contact with respect to the area, the button input control unit performs detection by the pressurization or contact together with information indicating that a button assigned to the area is operated. The input device according to any one of claims 1 to 4, wherein information to be output is output.
前記位置検出部が検出した位置を時間順に繋いで前記物体の軌跡情報を生成する軌跡生成部と、
複数の軌跡パターン情報を記憶する軌跡パターン記憶部と、
前記軌跡パターン記憶部が記憶する軌跡パターン情報各々に対応付けられたコマンドを記憶するコマンド記憶部と、
前記軌跡生成部が生成した軌跡情報が表す軌跡と、前記軌跡パターン記憶部が記憶している軌跡パターン情報各々が表す軌跡とを比較し、この比較結果の差分が所定の範囲内の軌跡パターン情報を検出し、該検出した軌跡パターン情報に対応付けられたコマンドを前記コマンド記憶部から読み出して出力するコマンド出力部と
を具備することを特徴とする請求項1から請求項5のいずれかの項に記載の入力装置。
A trajectory generator that connects the positions detected by the position detector in chronological order to generate trajectory information of the object;
A locus pattern storage unit for storing a plurality of locus pattern information;
A command storage unit that stores a command associated with each of the trajectory pattern information stored in the trajectory pattern storage unit;
The trajectory represented by the trajectory information generated by the trajectory generation unit is compared with the trajectory represented by each trajectory pattern information stored in the trajectory pattern storage unit, and the difference between the comparison results is trajectory pattern information within a predetermined range. And a command output unit that reads out and outputs a command associated with the detected locus pattern information from the command storage unit. The input device described in 1.
前記位置検出部が検出した位置を時間順に繋いで前記物体の軌跡情報を生成する軌跡生成部と、
認証軌跡パターン情報を記憶する認証軌跡パターン記憶部と、
前記認証軌跡パターン記憶部が記憶する認証軌跡パターン情報に対応付けられた認証情報を記憶する認証情報記憶部と、
前記軌跡生成部が生成した軌跡情報が表す軌跡と、前記認証軌跡パターン記憶部が記憶している認証軌跡パターン情報が表す軌跡とを比較し、この比較結果の差分が所定の範囲内にあるときは、該認証軌跡パターン情報に対応付けられた認証情報を前記認証情報記憶部から読み出して出力する認証軌跡照合部と
を具備することを特徴とする請求項1から請求項5のいずれかの項に記載の入力装置。
A trajectory generator that connects the positions detected by the position detector in chronological order to generate trajectory information of the object;
An authentication locus pattern storage unit for storing authentication locus pattern information;
An authentication information storage unit for storing authentication information associated with the authentication track pattern information stored in the authentication track pattern storage unit;
When the trajectory represented by the trajectory information generated by the trajectory generation unit is compared with the trajectory represented by the authentication trajectory pattern information stored in the authentication trajectory pattern storage unit, and the difference between the comparison results is within a predetermined range. The authentication trajectory collating unit that reads out the authentication information associated with the authentication trajectory pattern information from the authentication information storage unit and outputs the authentication information. 6. The input device described in 1.
前記位置検出部は、液晶パネルに画像を表示するとともに、該液晶パネルに外部から入射する光を検出して撮像する光センサ内蔵システム液晶パネルが撮像した画像に基づき前記距離の検出を行なうこと
を特徴とする請求項1から請求項7のいずれかの項に記載の入力装置。
The position detection unit displays an image on the liquid crystal panel, and detects the distance based on an image captured by the liquid crystal panel with a built-in optical sensor that detects and captures light incident on the liquid crystal panel from the outside. The input device according to any one of claims 1 to 7, wherein the input device is characterized.
前記光センサ内蔵システム液晶パネルが撮像するときは、前記光センサ内蔵システム液晶パネルは、該パネルの光センサが検出し易い色からなる画像を表示することを特徴とする請求項8に記載の入力装置。   9. The input according to claim 8, wherein when the optical sensor built-in system liquid crystal panel takes an image, the optical sensor built-in system liquid crystal panel displays an image having a color that is easily detected by the optical sensor of the panel. apparatus. 当該装置の表面の少なくとも一部の領域であって、各々にボタンが割り当てられた複数の領域であるボタン領域部と、ユーザへの通知を行う通知部と、当該装置から離れた空間を含む空間における物体の位置を検出する位置検出部とを具備し、ユーザによるボタン操作の入力を受け付ける入力装置における入力操作受付方法において、
前記入力装置が、前記位置検出部が前記領域に対して第一の距離内に近づいた物体を検出したときは、該領域に割り当てられたボタンが操作されたことを表す情報を出力する第1の過程と、
前記入力装置が、前記位置検出部が前記領域に対して前記第一の距離より大きい第二の距離内に近づいた物体を検出したときは、該領域に対応した通知を前記通知部に行わせる第2の過程と
を備えることを特徴とする入力操作受付方法。
A space that includes at least a part of the surface of the device, a button region portion that is a plurality of regions each assigned with a button, a notification portion that notifies the user, and a space away from the device An input operation receiving method in an input device that receives a button operation input by a user, and a position detection unit that detects a position of an object in
When the input device detects an object that has approached the region within a first distance, the input device outputs information indicating that a button assigned to the region has been operated. And the process
When the input device detects an object approaching within a second distance larger than the first distance with respect to the region, the input device causes the notification unit to perform notification corresponding to the region. An input operation reception method comprising: a second step.
当該装置の表面の少なくとも一部の領域であって、各々にボタンが割り当てられた複数の領域であるボタン領域部と、ユーザへの通知を行う通知部と、当該装置から離れた空間を含む空間における物体の位置を検出する位置検出部とを具備し、ユーザによるボタン操作の入力を受け付ける入力装置が具備するコンピュータを、
前記位置検出部が前記領域に対して第一の距離内に近づいた物体を検出したときは、該領域に割り当てられたボタンが操作されたことを表す情報を出力するボタン入力制御部、
前記位置検出部が前記領域に対して前記第一の距離より大きい第二の距離内に近づいた物体を検出したときは、該領域に対応した通知を前記通知部に行わせる通知制御部
として機能させるためのプログラム。
A space that includes at least a part of the surface of the device, a button region portion that is a plurality of regions each assigned with a button, a notification portion that notifies the user, and a space away from the device A position detection unit that detects the position of an object in the computer, and a computer provided with an input device that receives an input of a button operation by a user
A button input control unit that outputs information indicating that a button assigned to the region has been operated when the position detection unit detects an object that has approached the region within a first distance;
When the position detection unit detects an object that has approached the area within a second distance greater than the first distance, it functions as a notification control unit that causes the notification unit to perform notification corresponding to the area Program to let you.
JP2008059556A 2008-03-10 2008-03-10 Input device, input operation reception method, and program thereof Pending JP2009217465A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008059556A JP2009217465A (en) 2008-03-10 2008-03-10 Input device, input operation reception method, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008059556A JP2009217465A (en) 2008-03-10 2008-03-10 Input device, input operation reception method, and program thereof

Publications (1)

Publication Number Publication Date
JP2009217465A true JP2009217465A (en) 2009-09-24

Family

ID=41189256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008059556A Pending JP2009217465A (en) 2008-03-10 2008-03-10 Input device, input operation reception method, and program thereof

Country Status (1)

Country Link
JP (1) JP2009217465A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012058882A (en) * 2010-09-07 2012-03-22 Sony Corp Information processor, information processing method and computer program
JP2012243110A (en) * 2011-05-20 2012-12-10 Casio Comput Co Ltd Security device and program
JP2015215911A (en) * 2015-06-24 2015-12-03 ソニー株式会社 Information processing apparatus, information processing method, and computer program
JP2016133934A (en) * 2015-01-16 2016-07-25 シャープ株式会社 Information processing unit, control method for information processing unit, and control program
JP2017142854A (en) * 2017-04-25 2017-08-17 カシオ計算機株式会社 User authentication device, user authentication method, and program
WO2017221809A1 (en) * 2016-06-22 2017-12-28 コニカミノルタ株式会社 Display device and gesture input method
DE102018207630A1 (en) 2017-06-06 2018-12-06 Omron Corporation input device
CN117478119A (en) * 2023-12-27 2024-01-30 深圳市华腾智能科技有限公司 Intelligent switch panel controlled by finger dividing area and control method thereof

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9671897B2 (en) 2010-09-07 2017-06-06 Sony Corporation Information processor, information processing method, and computer program
US10296134B2 (en) 2010-09-07 2019-05-21 Sony Corporation Information processor, information processing method, and computer program
US8736575B2 (en) 2010-09-07 2014-05-27 Sony Corporation Information processor, information processing method, and computer program
US8952931B2 (en) 2010-09-07 2015-02-10 Sony Corporation Information processor, information processing method, and computer program
US10503316B1 (en) 2010-09-07 2019-12-10 Sony Corporation Information processor, information processing method, and computer program
JP2012058882A (en) * 2010-09-07 2012-03-22 Sony Corp Information processor, information processing method and computer program
JP2012243110A (en) * 2011-05-20 2012-12-10 Casio Comput Co Ltd Security device and program
JP2016133934A (en) * 2015-01-16 2016-07-25 シャープ株式会社 Information processing unit, control method for information processing unit, and control program
JP2015215911A (en) * 2015-06-24 2015-12-03 ソニー株式会社 Information processing apparatus, information processing method, and computer program
WO2017221809A1 (en) * 2016-06-22 2017-12-28 コニカミノルタ株式会社 Display device and gesture input method
JP2017142854A (en) * 2017-04-25 2017-08-17 カシオ計算機株式会社 User authentication device, user authentication method, and program
DE102018207630A1 (en) 2017-06-06 2018-12-06 Omron Corporation input device
CN117478119A (en) * 2023-12-27 2024-01-30 深圳市华腾智能科技有限公司 Intelligent switch panel controlled by finger dividing area and control method thereof
CN117478119B (en) * 2023-12-27 2024-04-16 深圳市华腾智能科技有限公司 Intelligent switch panel controlled by finger dividing area and control method thereof

Similar Documents

Publication Publication Date Title
JP2009217465A (en) Input device, input operation reception method, and program thereof
US9342682B2 (en) Portable electronic device
US8577100B2 (en) Remote input method using fingerprint recognition sensor
US7176896B1 (en) Position code bearing notepad employing activation icons
US6992655B2 (en) Input unit arrangement
KR101451271B1 (en) Broadcast receiving apparatus and control method thereof
US20140317562A1 (en) Portable terminal and driving method of the same
JP5172485B2 (en) Input device and control method of input device
US20070273658A1 (en) Cursor actuation with fingerprint recognition
JP2012512453A (en) Electronic device, system, method and computer program for detecting a user input device having an optical marker
KR101512239B1 (en) System and method for transfering content among devices using touch command and unusual touch
KR101451941B1 (en) Method and set-top box for controlling screen associated icon
KR101286412B1 (en) Method and apparatus of multi function virtual user interface
FI114346B (en) Method of identifying symbols and a portable electronic device
JP4882540B2 (en) Movement instruction device, input method, input program
KR20090024958A (en) Realizing apparatus and method of mouse for portable wireless terminal with camera
CN105138173A (en) Control method for touch display screen
JP4871226B2 (en) Recognition device and recognition method
KR101512082B1 (en) system and method for mode switching of electronic pen
JP2009296239A (en) Information processing system, and information processing method
JP2007102415A (en) Mobile terminal with two input modes, program and instruction input method to mobile terminal
KR100644034B1 (en) Apparatus And Method For Two-Dimensional User Interface In The Mobile Communication Terminal
JP2010211637A (en) Projection type input/output system and its program
JP5104904B2 (en) Information processing system and display processing program
KR101824964B1 (en) Communication terminal for operating mouse function