JP5172485B2 - Input device and control method of input device - Google Patents

Input device and control method of input device Download PDF

Info

Publication number
JP5172485B2
JP5172485B2 JP2008151597A JP2008151597A JP5172485B2 JP 5172485 B2 JP5172485 B2 JP 5172485B2 JP 2008151597 A JP2008151597 A JP 2008151597A JP 2008151597 A JP2008151597 A JP 2008151597A JP 5172485 B2 JP5172485 B2 JP 5172485B2
Authority
JP
Japan
Prior art keywords
input
finger
contact
image
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008151597A
Other languages
Japanese (ja)
Other versions
JP2009301094A (en
Inventor
善久 脇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2008151597A priority Critical patent/JP5172485B2/en
Publication of JP2009301094A publication Critical patent/JP2009301094A/en
Application granted granted Critical
Publication of JP5172485B2 publication Critical patent/JP5172485B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、入力面に対するユーザの接触を検出して、該検出の結果に応じた入力信号を生成する入力装置に関するものである。   The present invention relates to an input device that detects a user's contact with an input surface and generates an input signal corresponding to the detection result.

電子機器に入力操作を行うための装置として、従来から様々な入力装置が用いられている。特に、近年では、直感的な入力操作が可能なタッチパネル式の入力装置が広く用いられるようになっている。また、単にタッチパネル式で入力を受け付けるのみならず、用途に応じて、より便利に入力操作を行うことのできる入力装置が提案されている。   Conventionally, various input devices have been used as devices for performing input operations on electronic devices. In particular, in recent years, touch panel type input devices capable of intuitive input operations have been widely used. In addition, an input device has been proposed that can not only accept an input using a touch panel type, but also can perform an input operation more conveniently according to the application.

例えば、車載機器を操作する入力装置では、タッチパネル方式を採用した場合には、運転手がタッチパネルの表示を見るときに、目線が車両の進行方向から逸れるという危険がある。   For example, in an input device that operates an in-vehicle device, when the touch panel method is adopted, there is a risk that the driver's eyes may deviate from the traveling direction of the vehicle when the driver views the display on the touch panel.

そこで、下記の特許文献1及び2では、操作入力を行う操作部と、表示を行う表示部とを分離している。そして、どのスイッチを操作しているのかを運転手に認識させるために、表示部にスイッチの画像を表示すると共に、該スイッチの画像と、操作部上の手の位置を撮像した画像とを重畳して表示している。   Therefore, in Patent Documents 1 and 2 below, an operation unit that performs operation input and a display unit that performs display are separated. Then, in order to make the driver recognize which switch is being operated, an image of the switch is displayed on the display unit, and an image of the position of the hand on the operation unit is superimposed on the switch image. Is displayed.

上記の構成によれば、車両の進行方向から目線をあまり動かさずに見ることのできる位置に表示部を配置することによって、走行中であっても比較的安全に車載機器を操作することができる。   According to the above configuration, by arranging the display unit at a position where the line of sight can be seen without much movement from the traveling direction of the vehicle, the in-vehicle device can be operated relatively safely even during traveling. .

また、従来のタッチパネルでは、パネル上の1点のみを検出することはできるが、パネルに接触する複数の点を同時に検出することはできなかった。例えば、パネル上に複数の指を同時に接触させたときには、何れの指の位置に対して入力操作が行われたかを検出することはできなかった。   Further, in the conventional touch panel, only one point on the panel can be detected, but a plurality of points in contact with the panel cannot be detected at the same time. For example, when a plurality of fingers are simultaneously brought into contact with the panel, it has not been possible to detect to which finger position an input operation has been performed.

これに対し、パネルに接触する複数の点を同時に検出することのできる、すなわち多点同時入力の可能な入力装置が提案されている。例えば、光センサ内蔵液晶表示装置と呼ばれる表示装置では、液晶表示装置に撮像素子が組み込まれた構成とすることにより、液晶表示パネルに接触する物体を画像データとして取り込むことができる。そして、この画像データを解析することによって、液晶表示パネルに接触する複数の点を同時に検出することができる。
特開2007−286696号公報(2007年11月1日公開) 特開平10−269012号公報(1998年10月9日公開)
On the other hand, there has been proposed an input device that can simultaneously detect a plurality of points in contact with the panel, that is, capable of simultaneous multipoint input. For example, in a display device called a liquid crystal display device with a built-in optical sensor, an image sensor is incorporated in the liquid crystal display device, whereby an object in contact with the liquid crystal display panel can be captured as image data. Then, by analyzing this image data, a plurality of points in contact with the liquid crystal display panel can be detected simultaneously.
JP 2007-286696 A (published November 1, 2007) Japanese Patent Laid-Open No. 10-269012 (released on October 9, 1998)

しかしながら、入力装置の入力面に対して指が接触している状態から、簡単な操作で様々な入力操作を行うことのできる入力装置は、従来存在しなかった。例えば、タッチパネル式の入力装置では、入力装置の入力面に対して指が接触していない状態から、接触している状態に変化したときに、入力面に対して接触した指の位置に応じた入力を行うようになっている。   However, there has been no input device that can perform various input operations with a simple operation from a state in which a finger is in contact with the input surface of the input device. For example, in a touch panel type input device, when the finger is not in contact with the input surface of the input device, when the state is changed from the state in which the finger is in contact, the position of the finger in contact with the input surface is determined. Input is to be performed.

なお、光センサ内蔵液晶表示装置を用いて、ジェスチャ入力を行う技術が知られている。ジェスチャ入力では、入力装置の入力面に対して指が接触している状態にて、指で予め定めた軌跡を描くことにより、該軌跡に対応する入力操作を行うことができる。   A technique for performing gesture input using a photosensor built-in liquid crystal display device is known. In gesture input, an input operation corresponding to the locus can be performed by drawing a predetermined locus with the finger while the finger is in contact with the input surface of the input device.

しかしながら、ジェスチャ入力を行う場合には、ユーザは、入力装置に予め設定されたジェスチャを覚える必要がある。そのため、ジェスチャ入力は、表示画面の拡大、縮小、及びスクロール等のように、ジェスチャとジェスチャによって実行される機能との対応が直感的に覚えやすいものには適用しやすいが、カーナビに自宅までのルートガイドを実行させる場合のように、直感的なジェスチャで表すことが難しい機能への適用は困難である。   However, when performing gesture input, the user needs to learn a gesture preset in the input device. Therefore, gesture input is easy to apply to gestures that are easy to remember intuitively, such as enlargement, reduction, and scrolling of the display screen. It is difficult to apply to functions that are difficult to express with intuitive gestures, such as when a route guide is executed.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、入力装置の入力面に対して指が接触している状態から、簡単な操作で様々な入力操作を行うことのできる入力装置及び入力装置の制御方法を実現することにある。   The present invention has been made in view of the above problems, and its purpose is to perform various input operations with simple operations from a state where a finger is in contact with the input surface of the input device. An input device that can be used and an input device control method.

本発明の入力装置は、上記課題を解決するために、入力操作を受け付ける入力面の複数箇所に対して同時に行われる接触をそれぞれ識別して検出し、該検出の結果に応じた入力信号を生成する入力装置であって、上記入力面に複数の指のそれぞれが接触していることを検出する接触検出手段と、上記接触検出手段によって上記入力面に接触していると検出された指のうち、少なくとも1つの指の接触から非接触への状態変化を検出して入力信号を生成する入力検出手段とを備えていることを特徴としている。   In order to solve the above-described problems, the input device of the present invention identifies and detects contacts that are simultaneously made to a plurality of locations on the input surface that accepts an input operation, and generates an input signal according to the detection result. An input device for detecting that each of a plurality of fingers is in contact with the input surface; and a finger detected by the contact detection means as being in contact with the input surface. , And an input detection means for generating an input signal by detecting a state change from at least one finger contact to non-contact.

また、本発明の入力装置の制御方法は、上記課題を解決するために、入力操作を受け付ける入力面の複数箇所に対して同時に行われる接触をそれぞれ識別して検出し、該検出の結果に応じた入力信号を生成する入力装置の制御方法であって、上記入力面に複数の指のそれぞれが接触していることを検出する接触検出ステップと、上記接触検出ステップにて、上記入力面に接触していると検出された指のうち、少なくとも1つの指の接触から非接触への状態変化を検出して入力信号を生成する入力検出ステップとを含むことを特徴としている。   Moreover, in order to solve the said subject, the control method of the input device of this invention identifies and detects the contact performed simultaneously with respect to the several location of the input surface which receives input operation, and according to the result of this detection A method of controlling an input device that generates an input signal, wherein the input surface is contacted in a contact detection step of detecting that each of a plurality of fingers is in contact with the input surface, and the contact detection step. And an input detection step of generating an input signal by detecting a change in state of at least one finger from contact to non-contact among the detected fingers.

上記の構成は、入力操作を受け付ける入力面の複数箇所に対して同時に行われる接触をそれぞれ識別して検出することを前提としている。これは、いわゆる多点同時検出と呼ばれる技術であり、本発明では、このような多点同時検出技術を用いて、入力面に対して指が接触している状態から、簡単な操作で様々な入力操作を行うことのできる入力装置を提供することを目的としている。   The above configuration is based on the premise that each contact that is simultaneously made to a plurality of locations on the input surface that accepts an input operation is identified and detected. This is a so-called multi-point simultaneous detection technique. In the present invention, by using such a multi-point simultaneous detection technique, various operations can be performed by simple operations from a state where the finger is in contact with the input surface. An object of the present invention is to provide an input device capable of performing an input operation.

すなわち、上記の構成によれば、入力面に対して複数の指の接触を受け付けた後、接触を検出した指が、入力面から離れたことを検出して入力信号を生成する。これにより、入力面に指を接触させた状態から、入力操作を行うことが可能になる。   That is, according to the above configuration, after receiving the contact of a plurality of fingers on the input surface, the input signal is generated by detecting that the finger detecting the contact has moved away from the input surface. Thereby, it becomes possible to perform an input operation from a state in which a finger is in contact with the input surface.

ここで、一般に、入力装置は、ユーザがどのような入力操作を行ったかを検出して、検出した入力操作に対応する入力信号を生成することによって、周辺機器の動作を制御したり、データの入力を受け付けたりする。例えば、タッチパネルでは、ユーザがパネルに触れた位置を検出して、検出した位置に対応する入力信号を生成する。   Here, in general, the input device detects the input operation performed by the user and generates an input signal corresponding to the detected input operation, thereby controlling the operation of the peripheral device, Accept input. For example, in the touch panel, a position where the user touches the panel is detected, and an input signal corresponding to the detected position is generated.

すなわち、従来の入力装置では、入力面に触れることで入力操作を行っていたのに対し、本発明の入力装置では、入力面に複数の指で触れた後、指を入力面から離すことで入力操作を行う。これにより、入力装置の入力面に対して指が接触している状態から、簡単な操作で様々な入力操作を行うことができる。   That is, in the conventional input device, the input operation is performed by touching the input surface, whereas in the input device of the present invention, after touching the input surface with a plurality of fingers, the finger is separated from the input surface. Perform input operations. Thereby, various input operations can be performed with simple operations from a state where the finger is in contact with the input surface of the input device.

また、上記の構成によれば、従来にはなかった新しい入力方法を提供することができる。すなわち、上記の構成によれば、まず入力面に対して複数の指の接触を受け付ける。したがって、このときに、例えば、入力面に対して接触する指の本数、入力面上の位置、種別(何指であるか)、指紋、及び掌紋等の情報を取得することが可能である。   Moreover, according to said structure, the new input method which was not in the past can be provided. That is, according to the above configuration, first, a plurality of finger contacts are received with respect to the input surface. Therefore, at this time, for example, it is possible to acquire information such as the number of fingers touching the input surface, the position on the input surface, the type (how many fingers), the fingerprint, and the palm print.

また、指を入力面から離したことを検出するときには、入力面から離れた指の本数、入力面上の位置、種別(何指であるか)、及び指が入力面から離れたタイミング等の情報を取得することが可能である。   In addition, when detecting that the finger has been removed from the input surface, the number of fingers away from the input surface, the position on the input surface, the type (how many fingers), the timing at which the finger has moved away from the input surface, etc. Information can be acquired.

上記入力装置では、このような多様な情報に基づいて、入力信号を生成することができるので、従来にはない多様な入力操作が可能になる。例えば、入力面に触れた指の本数と入力面から離れた指の本数とに応じた入力信号を生成した場合には、ユーザは、入力面に触れる指の本数と、入力面から離す指の本数とを変えることで、異なる入力操作を行うことができる。また、例えば、入力面に接触する指の指紋や、掌紋を読み取ることによって、ユーザを特定することができるので、ユーザ毎に異なる入力信号を生成することもできる。   In the above input device, an input signal can be generated based on such a variety of information, so that a variety of input operations not possible in the past can be performed. For example, when an input signal is generated according to the number of fingers touching the input surface and the number of fingers away from the input surface, the user can determine the number of fingers touching the input surface and the number of fingers away from the input surface. Different input operations can be performed by changing the number. In addition, for example, a user can be identified by reading a fingerprint or palm print of a finger in contact with the input surface, and therefore, a different input signal can be generated for each user.

また、上記接触検出手段は、上記入力面に接触している各指の種別を判別し、上記入力検出手段は、上記接触検出手段の判別結果に基づいて、接触から非接触への状態変化を検出した指の種別に応じた入力信号を生成することが好ましい。   Further, the contact detection means determines the type of each finger that is in contact with the input surface, and the input detection means changes the state from contact to non-contact based on the determination result of the contact detection means. It is preferable to generate an input signal corresponding to the detected finger type.

上記の構成によれば、入力面から離れた指の種別に応じた入力信号が生成される。これにより、例えば入力面に小指から親指までの5本の指を接触させた後、人差し指を入力面から離した場合には、入力面のどの位置に指を接触させていたとしても、人差し指に対応する入力信号が生成される。すなわち、上記の構成によれば、入力面に対する入力位置に関わらず、同じ入力操作を行うことができる。   According to said structure, the input signal according to the classification of the finger | toe away from the input surface is produced | generated. Thus, for example, when five fingers from the little finger to the thumb are brought into contact with the input surface and then the index finger is separated from the input surface, no matter what position on the input surface the finger is in contact with, A corresponding input signal is generated. That is, according to said structure, the same input operation can be performed irrespective of the input position with respect to an input surface.

また、上記入力装置は、指の種別に応じた上記入力信号が生成されたときに、該入力信号と、動作実行装置に所定の動作を実行させる命令とが対応付けられた、指−命令対応情報に基づいて、上記入力信号に対応する命令を、上記動作実行装置に送信する装置制御手段を備えていることが好ましい。   Further, the input device has a finger-command correspondence in which when the input signal corresponding to the type of the finger is generated, the input signal is associated with a command for causing the motion execution device to execute a predetermined motion. It is preferable to provide a device control means for transmitting a command corresponding to the input signal to the operation executing device based on the information.

上記の構成によれば、入力面から離れた指の種別に応じた入力信号が生成され、さらに入力信号に対応する命令が、該命令を実行する動作実行装置に送信される。すなわち、上記の構成によれば、入力面から離した指の種別に応じた命令によって動作実行装置が動作するようになっている。したがって、上記入力装置のユーザは、入力面のどの位置に触れても、他の装置に所望の動作を実行させることができる。なお、動作実行装置は、1つであっても複数であってもよく、また入力装置と一体に構成されていてもよく、さらに入力装置から物理的に離れた位置に存在していてもよい。   According to said structure, the input signal according to the classification of the finger | toe away from the input surface is produced | generated, and also the command corresponding to an input signal is transmitted to the operation | movement execution apparatus which performs this command. That is, according to the above configuration, the action execution device is operated by a command according to the type of the finger separated from the input surface. Therefore, the user of the input device can cause another device to execute a desired operation regardless of the position on the input surface. Note that there may be one or a plurality of operation execution devices, the operation execution devices may be integrated with the input device, or may be present at a position physically separated from the input device. .

これは、例えば車載機器の入力操作を行う場合に好適である。すなわち、上記特許文献1及び2の技術では、表示部に表示されたボタンの位置に指を合せる必要があるため、ボタン操作の際に表示部を見る必要があった。したがって、車の進行方向から目線が逸れるので、運転中の車載機器の操作にはやはり危険が伴っていた。   This is suitable, for example, when performing an input operation of an in-vehicle device. That is, in the techniques of Patent Documents 1 and 2, since it is necessary to put a finger on the position of the button displayed on the display unit, it is necessary to look at the display unit when operating the button. Therefore, since the line of sight deviates from the traveling direction of the car, the operation of the on-vehicle device while driving is also accompanied by danger.

これに対し、上記の構成によれば、入力面から離す指に応じて命令が送信されるので、入力面に触れる位置は、どのような位置であってもよく、そのため入力面を見なくても入力操作を行うことができる。したがって、上記特許文献1及び2の技術のように、表示部を見て、ボタンに指の位置を合せる必要がなく、運転中であっても安全に車載機器の操作を行うことができる。   On the other hand, according to the above configuration, since the command is transmitted in response to the finger separated from the input surface, the position touching the input surface may be any position, and therefore, the input surface is not looked at. Can also perform input operations. Therefore, unlike the techniques of Patent Documents 1 and 2, it is not necessary to match the position of the finger to the button by looking at the display unit, and the in-vehicle device can be safely operated even during driving.

また、上記接触検出手段は、上記入力面に接触している指が、右手または左手の何れの指であるかを判別し、上記入力検出手段は、上記接触検出手段の判別結果に基づいて、接触から非接触への状態変化を検出した指が右手または左手の何指であるかに応じた入力信号を生成し、上記装置制御手段は、右手または左手の各指の種別に応じた上記入力信号が生成されたときに、該入力信号と、動作実行装置に所定の動作を実行させる命令とが対応付けられた、指−命令対応情報に基づいて、上記入力信号に対応する命令を、上記動作実行装置に送信することが好ましい。   Further, the contact detection means determines whether the finger in contact with the input surface is a right hand or a left hand, and the input detection means is based on the determination result of the contact detection means, Generate an input signal according to how many fingers of the right hand or left hand the detected finger from the contact to non-contact state, the device control means, the input according to the type of each finger of the right hand or left hand When the signal is generated, the instruction corresponding to the input signal is based on the finger-command correspondence information in which the input signal is associated with the instruction for causing the action execution device to execute a predetermined action. It is preferable to transmit to the operation execution device.

上記の構成によれば、右手の指と左手の指とがそれぞれ識別して検出され、各指に命令が対応付けられているので、指に割り当てることのできる命令の最大数が増加する。なお、必ずしも全ての指に命令を割り当てる必要はない。   According to the above configuration, the right finger and the left hand finger are identified and detected, and the instructions are associated with each finger, so the maximum number of instructions that can be assigned to the fingers increases. It is not always necessary to assign a command to all fingers.

また、上記入力装置は、上記指−命令対応情報に基づいて、各指に対応する命令を抽出し、上記接触検出手段が検出した各指の位置に、当該指に対応する命令、または該命令によって動作実行装置が実行する動作を示す情報を表示する表示手段を備えていることが好ましい。   In addition, the input device extracts a command corresponding to each finger based on the finger-command correspondence information, and the command corresponding to the finger or the command at the position of each finger detected by the contact detection unit It is preferable that display means for displaying information indicating an operation executed by the operation executing device is provided.

上記の構成によれば、各指に対応する命令、または該命令によって動作実行装置が実行する動作を示す情報が、各指の位置に表示される。したがって、上記入力装置のユーザは、どの指で操作を行えば、どのような命令が生成されるか、あるいはどのような動作が実行されるかを容易に認識することができる。   According to said structure, the information corresponding to the instruction | command corresponding to each finger | toe or the operation | movement which an operation | movement execution apparatus performs by this instruction | indication is displayed on the position of each finger | toe. Therefore, the user of the input device can easily recognize what instruction is generated and what operation is performed with which finger.

また、上記装置制御手段は、上記入力検出手段が、指の接触から非接触への状態変化を検出した後、当該指が再度上記表示面に接触したことを検出したときに上記命令の送信を行うことが好ましい。   Further, the apparatus control means transmits the command when the input detection means detects that the finger is again in contact with the display surface after detecting the change in state from the contact of the finger to the non-contact. Preferably it is done.

上記の構成によれば、指の接触状態が、接触−非接触−接触と切り換わったときに命令の送信が行われる。つまり、この場合には、指の接触状態が、接触−非接触と切り換わった段階では、命令は送信されない。これにより、例えばユーザが入力装置に対する入力操作を終えて、手を入力面から離したときに、ユーザの意図しない命令が送信されてしまうことを防ぐことができる。   According to the above configuration, the command is transmitted when the contact state of the finger is switched to contact-non-contact-contact. In other words, in this case, the command is not transmitted when the contact state of the finger is switched from contact to non-contact. Thereby, for example, when the user finishes the input operation on the input device and releases his / her hand from the input surface, it is possible to prevent a command not intended by the user from being transmitted.

また、上記入力装置は、上記入力面上の物体を画像データとして取り込む撮像部を備え、上記接触検出手段は、上記撮像部が取り込んだ画像データに基づいて上記入力面に複数の指のそれぞれが接触していることを検出することが好ましい。   In addition, the input device includes an imaging unit that captures an object on the input surface as image data, and the contact detection unit includes a plurality of fingers on the input surface based on the image data captured by the imaging unit. It is preferable to detect contact.

上記の構成によれば、撮像部によって上記入力面上の物体が画像データとして取り込まれるので、入力面上に手が触れた場合には、その画像データを解析することにより、各指が入力面に接触しているか否かを検出することができる。   According to the above configuration, since the object on the input surface is captured as image data by the imaging unit, when a hand touches the input surface, each finger is input to the input surface by analyzing the image data. It is possible to detect whether or not it is touching.

なお、撮像部は、入力面上の物体が入力面に接触しているか否かを判別できる程度の画像データを取得できるものであればよい。撮像部としては、例えば、光センサ内蔵液晶表示装置や赤外線カメラ等も適用することができる。   Note that the imaging unit only needs to be able to acquire image data that can determine whether an object on the input surface is in contact with the input surface. As the imaging unit, for example, a liquid crystal display device with a built-in optical sensor, an infrared camera, or the like can be applied.

また、上記撮像部は、光センサ内蔵液晶表示装置で構成されており、上記入力面は、上記光センサ内蔵液晶表示装置の表示面であることが好ましい。   Moreover, it is preferable that the said imaging part is comprised with the optical sensor built-in liquid crystal display device, and the said input surface is a display surface of the said optical sensor built-in liquid crystal display device.

上記の構成によれば、入力面に画像を表示することができるので、ユーザの入力を補助するための情報等を表示することで、ユーザの利便性を向上することができる。また、上記の構成によれば、画像の表示と入力面上の指の検出とを1つの光センサ内蔵液晶表示装置にて行うので、入力装置を小型化することが可能になる。   According to said structure, since an image can be displayed on an input surface, the convenience for a user can be improved by displaying the information etc. for assisting a user's input. Further, according to the above configuration, since the image display and the finger detection on the input surface are performed by one liquid crystal display device with a built-in optical sensor, the input device can be downsized.

ここで、上記特許文献1及び2に記載されているように、従来の入力装置では、ボタンの位置に指を合せて入力操作を行う。そのため、表示部を車の進行方向に近い位置に配置したとしても、表示部を見る必要があることには変わりがないので、運転手の注意が表示部に逸れるので、運転中の操作が危険であるという問題があった。   Here, as described in Patent Documents 1 and 2, in the conventional input device, an input operation is performed by placing a finger on the position of the button. For this reason, even if the display unit is located close to the direction of travel of the car, there is no change in the need to look at the display unit. There was a problem of being.

また、表示等を見ずに入力を行う従来技術として、ジェスチャ入力が挙げられるが、ジェスチャ入力を行う場合には、ユーザは、入力装置に予め設定されたジェスチャを覚える必要がある。そのため、ジェスチャ入力は、表示画面の拡大、縮小、及びスクロール等のように、ジェスチャとジェスチャによって実行される機能との対応が直感的に覚えやすいものには適用しやすいが、カーナビに自宅までのルートガイドを実行させる場合のように、直感的なジェスチャで表すことが難しい機能への適用は困難である。   In addition, as a conventional technique for performing an input without looking at a display or the like, a gesture input can be mentioned. However, when performing a gesture input, the user needs to learn a gesture set in advance in the input device. For this reason, gesture input is easy to apply to gestures that are easy to remember intuitively, such as enlargement, reduction, scrolling, etc. of the display screen. It is difficult to apply to functions that are difficult to express with intuitive gestures, such as when a route guide is executed.

そなため、表示等を見なくても、様々な入力を簡単な操作で行うことのできる入力装置が望まれている。   Therefore, there is a demand for an input device that can perform various inputs with a simple operation without looking at a display or the like.

本発明の入力装置は、上記課題を解決するために、入力操作を受け付ける入力面の複数箇所に対して同時に行われる接触を検出し、該検出結果に応じた入力信号を生成する入力装置であって、上記入力面に接触している複数の指のそれぞれの種別を判別する種別判別手段と、少なくとも1つの指が所定の入力操作を行ったことを検出する入力検出手段と、上記種別判別手段の判別結果に基づいて、上記入力検出手段が入力操作を行った指として検出した指の種別を特定し、該特定した指の種別に応じた入力信号を生成する入力信号生成手段とを備えていることを特徴としている。   In order to solve the above-described problems, an input device according to the present invention is an input device that detects contacts made simultaneously to a plurality of locations on an input surface that accepts an input operation, and generates an input signal according to the detection result. A type discriminating unit for discriminating each type of the plurality of fingers in contact with the input surface, an input detecting unit for detecting that at least one finger has performed a predetermined input operation, and the type discriminating unit. An input signal generating means for specifying the type of the finger detected by the input detecting means as the finger performing the input operation based on the determination result of the input and generating an input signal according to the specified finger type. It is characterized by being.

また、本発明の入力装置の制御方法は、上記課題を解決するために、入力操作を受け付ける入力面の複数箇所に対して同時に行われる接触を検出し、該検出結果に応じた入力信号を生成する入力装置の制御方法であって、上記入力面に接触している複数の指のそれぞれの種別を判別する種別判別ステップと、少なくとも1つの指が所定の入力操作を行ったことを検出する入力検出ステップと、上記種別判別ステップの判別結果に基づいて、上記入力検出ステップにて入力操作を行った指として検出した指の種別を特定し、該特定した指の種別に応じた入力信号を生成する入力信号生成ステップとを含むことを特徴としている。   In order to solve the above problems, the input device control method of the present invention detects simultaneous contact with a plurality of locations on the input surface that accepts an input operation, and generates an input signal according to the detection result. A method for controlling an input device, a type determining step for determining each type of a plurality of fingers in contact with the input surface, and an input for detecting that at least one finger has performed a predetermined input operation Based on the determination result of the detection step and the type determination step, the type of the finger detected as the finger that performed the input operation in the input detection step is specified, and an input signal corresponding to the specified type of finger is generated And an input signal generation step.

上記の構成によれば、入力面に接触している複数の指のそれぞれの種別が判別されると共に、少なくとも1つの指が所定の入力操作を行ったことが検出される。そして、入力操作を行ったことが検出された指の種別に応じた入力信号が生成される。   According to the above configuration, each type of the plurality of fingers in contact with the input surface is determined, and it is detected that at least one finger has performed a predetermined input operation. Then, an input signal corresponding to the type of finger detected to have performed the input operation is generated.

すなわち、上記の構成によれば、入力面に触れた位置に関わらず、指の種別に応じた入力信号が生成される。したがって、上記入力装置では、表示等を見なくても、様々な入力を簡単な操作で行うことができる。   That is, according to the above configuration, an input signal corresponding to the type of finger is generated regardless of the position where the input surface is touched. Therefore, in the input device, various inputs can be performed by simple operations without looking at a display or the like.

また、上記所定の入力操作とは、入力装置が当該入力操作を検出可能なものであればよく、特に限定されない。例えば、入力面に対する指の接触状態が接触−非接触と変化したことを上記所定の入力操作として検出してもよいし、入力面に対する指の接触状態が接触−非接触−接触と変化したことを上記所定の入力操作として検出してもよい。また、例えば、入力面に対して指を押し当てる強さの変化を上記所定の入力操作として検出してもよいし、指が入力面上に描く予め定めた軌跡を上記所定の入力操作として検出してもよい。   The predetermined input operation is not particularly limited as long as the input device can detect the input operation. For example, it may be detected as the predetermined input operation that the finger contact state on the input surface has changed to contact-non-contact, or the finger contact state on the input surface has changed to contact-non-contact-contact. May be detected as the predetermined input operation. Further, for example, a change in strength with which the finger is pressed against the input surface may be detected as the predetermined input operation, or a predetermined locus drawn by the finger on the input surface is detected as the predetermined input operation. May be.

そして、上記入力装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記入力装置の各手段として動作させることにより、上記入力装置をコンピュータにて実現させる制御プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に入る。   The input device may be realized by a computer. In this case, a control program for causing the input device to be realized by the computer by causing the computer to operate as each means of the input device, and recording the program. Such computer-readable recording media also fall within the scope of the present invention.

以上のように、本発明に係る入力装置は、入力面に複数の指のそれぞれが接触していることを検出する接触検出手段と、上記接触検出手段によって上記入力面に接触していると検出された指のうち、少なくとも1つの指の接触から非接触への状態変化を検出して入力信号を生成する入力検出手段とを備えている構成である。   As described above, the input device according to the present invention detects that the input surface is in contact with the input detection surface by the contact detection unit that detects that each of a plurality of fingers is in contact with the input surface. Among these fingers, there is provided an input detecting means for generating an input signal by detecting a state change from contact to non-contact of at least one finger.

また、本発明に係る入力装置の制御方法は、以上のように、入力面に複数の指のそれぞれが接触していることを検出する接触検出ステップと、上記接触検出ステップにて、上記入力面に接触していると検出された指のうち、少なくとも1つの指の接触から非接触への状態変化を検出して入力信号を生成する入力検出ステップとを含む構成である。   In addition, as described above, the input device control method according to the present invention includes the contact detection step for detecting that each of a plurality of fingers is in contact with the input surface, and the input surface in the contact detection step. And an input detection step of generating an input signal by detecting a change in the state of at least one finger from contact to non-contact among the fingers detected to be in contact with.

したがって、入力面に複数の指で触れた後、指を入力面から離すことで入力操作を行うことができるので、入力装置の入力面に対して指が接触している状態から、簡単な操作で様々な入力操作を行うことができるという効果を奏する。   Therefore, after touching the input surface with a plurality of fingers, the input operation can be performed by moving the finger away from the input surface. With this, it is possible to perform various input operations.

また、以上のように、本発明の入力装置は、入力面に接触している複数の指のそれぞれの種別を判別する種別判別手段と、少なくとも1つの指が所定の入力操作を行ったことを検出する入力検出手段と、上記種別判別手段の判別結果に基づいて、上記入力検出手段が入力操作を行った指として検出した指の種別を特定し、該特定した指の種別に応じた入力信号を生成する入力信号生成手段とを備えている構成である。   In addition, as described above, the input device according to the present invention includes a type determination unit that determines the type of each of a plurality of fingers that are in contact with the input surface, and that at least one finger has performed a predetermined input operation. Based on the detection result of the input detection means to be detected and the type determination means, the type of the finger detected by the input detection means as the finger that performed the input operation is specified, and the input signal corresponding to the specified type of finger It is the structure provided with the input signal generation means which produces | generates.

そして、本発明の入力装置の制御方法は、以上のように、入力面に接触している複数の指のそれぞれの種別を判別する種別判別ステップと、少なくとも1つの指が所定の入力操作を行ったことを検出する入力検出ステップと、上記種別判別ステップの判別結果に基づいて、上記入力検出ステップにて入力操作を行った指として検出した指の種別を特定し、該特定した指の種別に応じた入力信号を生成する入力信号生成ステップとを含む構成である。   As described above, the control method for the input device according to the present invention includes a type determination step for determining the type of each of a plurality of fingers in contact with the input surface, and at least one finger performs a predetermined input operation. Based on the determination result of the input detection step and the type determination step, the finger type detected as the finger that performed the input operation in the input detection step is specified, and the specified finger type And an input signal generation step for generating a corresponding input signal.

したがって、入力面に触れた位置に関わらず、指の種別に応じた入力信号が生成されるので、表示等を見なくても、様々な入力を簡単な操作で行うことができるという効果を奏する。   Therefore, an input signal corresponding to the type of the finger is generated regardless of the position touched on the input surface, and it is possible to perform various inputs with a simple operation without looking at the display or the like. .

〔発明の概要〕
本発明の一実施形態について図1から図13に基づいて説明すると以下の通りである。ここでは、本実施形態の入力装置の概要について、図2及び図3に基づいて説明する。図2及び図3は、本発明の一実施形態に係る入力装置1の動作の一例を示す図である。同図(a)に示すように、入力装置1は、表示パネル2を備え、表示パネル2上には、ボタンイメージa〜eが表示されている。
[Summary of the Invention]
An embodiment of the present invention will be described below with reference to FIGS. Here, an outline of the input device according to the present embodiment will be described with reference to FIGS. 2 and 3 are diagrams illustrating an example of the operation of the input device 1 according to an embodiment of the present invention. As shown in FIG. 1A, the input device 1 includes a display panel 2, and button images a to e are displayed on the display panel 2.

ここで、ユーザが、表示パネル2上に手を置くと、同図(b)に示すように、ボタンイメージa〜eのそれぞれが、ユーザの各指先の位置に移動する。図示の例では、ユーザの小指、薬指、中指、人差し指、及び親指のそれぞれに対応する位置にボタンイメージa〜eが表示されている。   Here, when the user places his / her hand on the display panel 2, as shown in FIG. 4B, each of the button images a to e moves to the position of each fingertip of the user. In the illustrated example, button images a to e are displayed at positions corresponding to the user's little finger, ring finger, middle finger, index finger, and thumb, respectively.

この状態において、入力装置1は、ユーザの指の動きを検出して、ボタンイメージa〜eのそれぞれに対応する入力操作を受け付ける。例えば、同図(b)の状態において、ユーザが人差し指で入力操作を行った場合には、同図(c)に示すように、入力装置1は人差し指の動きを検出し、ボタンイメージdに対する入力操作があったと判断する。   In this state, the input device 1 detects the movement of the user's finger and accepts an input operation corresponding to each of the button images a to e. For example, when the user performs an input operation with the index finger in the state of FIG. 5B, the input device 1 detects the movement of the index finger and inputs to the button image d as shown in FIG. Judge that there was an operation.

このように、入力装置1では、ユーザが手を触れた位置において入力操作を受け付ける。したがって、図3(a)に示すように、ユーザが、表示パネル2のより下方に触れた場合であっても、ユーザの小指、薬指、中指、人差し指、及び親指のそれぞれに対応する位置にボタンイメージa〜eが表示される。   As described above, the input device 1 receives an input operation at a position where the user touches the hand. Therefore, as shown in FIG. 3 (a), even when the user touches the display panel 2 below, the buttons are located at positions corresponding to the user's little finger, ring finger, middle finger, index finger, and thumb. Images a to e are displayed.

また、図3(b)に示すように、ユーザの手が小さい場合であっても、そして表示パネル2に触れる手が右手であっても、ユーザの小指、薬指、中指、人差し指、及び親指のそれぞれに対応する位置にボタンイメージa〜eが表示される。そして、入力装置1は、ユーザの指の動きを検出して、ボタンイメージa〜eのそれぞれに対応する入力操作を受け付ける。   Further, as shown in FIG. 3B, even if the user's hand is small and the hand touching the display panel 2 is the right hand, the user's little finger, ring finger, middle finger, index finger, and thumb Button images a to e are displayed at positions corresponding to the respective buttons. Then, the input device 1 detects the movement of the user's finger and accepts an input operation corresponding to each of the button images a to e.

すなわち、従来の入力装置は、所定の位置に設けられたボタン等によって入力を受け付けていたのに対し、入力装置1では、ユーザが手を触れた位置がボタンとなって入力を受け付ける。したがって、入力装置1を用いた場合には、大人でも子供でも、また右利きの人も左利きの人も、そして表示パネル2を見なくても簡単に入力操作を行うことができる。   In other words, the conventional input device accepts input by a button or the like provided at a predetermined position, whereas in the input device 1, the position touched by the user is a button and accepts input. Therefore, when the input device 1 is used, an input operation can be easily performed by an adult or a child, a right-handed person or a left-handed person, and without looking at the display panel 2.

〔適用例〕
入力装置1は、様々な電子機器の入力装置として適用することができる。ここでは、一例として、入力装置1を、オーディオやエアコン等の車載機器の入力装置として適用する例について図4に基づいて説明する。
[Application example]
The input device 1 can be applied as an input device for various electronic devices. Here, as an example, an example in which the input device 1 is applied as an input device for an in-vehicle device such as an audio or an air conditioner will be described with reference to FIG.

図4は、入力装置1を車載機器の入力装置として適用した場合の外観の一例を示す図である。入力装置1の設置位置は、特に限定されないが、ユーザが表示パネル2を見やすい位置に設置することが好ましい。また、入力装置1は、右手でも左手でも入力操作を行うことができるので、助手席からでも運転席からでも手が届く位置に設置することが好ましい。   FIG. 4 is a diagram illustrating an example of an appearance when the input device 1 is applied as an input device of an in-vehicle device. The installation position of the input device 1 is not particularly limited, but it is preferable to install the input apparatus 1 at a position where the user can easily see the display panel 2. Moreover, since the input device 1 can perform an input operation with either the right hand or the left hand, the input device 1 is preferably installed at a position where the hand can be reached from the passenger seat or the driver seat.

具体的には、同図(a)に示すように、入力装置1は、センターコンソールやインストルメントパネルに設置することが好ましい。これにより、助手席及び運転席からも、そして後部座席からも表示パネル2が見やすい上、助手席と運転席とのどちらからでも車載機器の操作を行うことができる。   Specifically, as shown in FIG. 5A, the input device 1 is preferably installed on a center console or an instrument panel. Thereby, the display panel 2 can be easily seen from the passenger seat and the driver seat, and from the rear seat, and the vehicle-mounted device can be operated from either the passenger seat or the driver seat.

同図(b)は、同図(a)に示す入力装置1を拡大した図である。図示の例では、表示パネル2の表面は、ドーム状に形成されている。表示パネル2の表面、すなわち入力装置1の入力面は、ユーザが5つの指を載置できるだけのスペースを有するものであれば、その形状はどのようなものであってもよい。例えば、一般的なタッチパネルと同様に、入力面を四角形状の平面としてもよい。この場合には、広く流通している表示パネルを流用することができるのでコスト面で有利である。また、図示の例のように、入力面をドーム状とした場合には手の形状とフィットするという利点がある。   FIG. 2B is an enlarged view of the input device 1 shown in FIG. In the illustrated example, the surface of the display panel 2 is formed in a dome shape. The surface of the display panel 2, that is, the input surface of the input device 1 may have any shape as long as the user has enough space to place five fingers. For example, similarly to a general touch panel, the input surface may be a rectangular plane. In this case, a display panel that is widely distributed can be used, which is advantageous in terms of cost. Further, when the input surface is dome-shaped as in the illustrated example, there is an advantage that it fits with the shape of the hand.

また、図示のように、表示パネル2には、その外周部に沿ってボタンイメージa〜fが表示されている。ボタンイメージa〜fは、ユーザが表示パネル2に手を触れることによって、手の指先のそれぞれに対応する位置に移動するので、ボタンイメージa〜fの初期表示位置は、どのような位置であってもよく、また手を触れたときに初めてボタンイメージa〜fが表示されるようにしてもよい。   Further, as shown in the figure, button images a to f are displayed on the display panel 2 along the outer periphery thereof. Since the button images a to f move to positions corresponding to the fingertips of the hand when the user touches the display panel 2, the initial display positions of the button images a to f are any positions. Alternatively, the button images a to f may be displayed only when the hand is touched.

ただし、図示の例のように、手を触れる前の状態でボタンイメージa〜fを表示させた場合には、ユーザは、どのような機能を操作できるかを確認した上で、入力装置1への入力操作を行うことができる。したがって、ボタンイメージa〜fは手を触れる前に表示させておくことが好ましい。   However, when the button images a to f are displayed in a state before the hand is touched as in the illustrated example, the user confirms what functions can be operated and then enters the input device 1. The input operation can be performed. Therefore, it is preferable to display the button images a to f before touching them.

また、入力装置1は、表示パネル2にて入力操作を受け付けるので、入力操作を行わないときには、表示パネル2は周辺機器の表示出力装置として利用することもできる。例えば、図示の例では、カーナビゲーションシステムが出力する地図の画像を表示パネル2に表示している。したがって、ボタンイメージa〜fの初期表示位置は、表示パネル2の表示を妨げない位置とすることが好ましい。   Moreover, since the input device 1 accepts an input operation on the display panel 2, the display panel 2 can also be used as a display output device of a peripheral device when no input operation is performed. For example, in the illustrated example, a map image output by the car navigation system is displayed on the display panel 2. Therefore, it is preferable that the initial display positions of the button images a to f are positions that do not hinder the display of the display panel 2.

なお、表示パネル2に表示されている全てのボタンイメージを、ユーザの指に対応する位置に移動させる必要はない。例えば、ボタンイメージa〜fのうち、現在操作可能な機能に対応するボタンイメージのみをユーザの指に対応する位置に移動させてもよい。この場合には、ユーザは、表示パネル2に表示されているボタンイメージを見ることによって、入力装置1で操作可能な機能を把握することができ、表示パネル2に触れることによって、現在操作可能な機能を把握することができる。   It is not necessary to move all the button images displayed on the display panel 2 to a position corresponding to the user's finger. For example, among the button images a to f, only the button image corresponding to the currently operable function may be moved to the position corresponding to the user's finger. In this case, the user can grasp the functions that can be operated with the input device 1 by looking at the button image displayed on the display panel 2, and can currently operate by touching the display panel 2. Capability can be grasped.

〔ハードウェア構成〕
次に、入力装置1のハードウェア構成について図5に基づいて説明する。図5は、入力装置1のハードウェア構成の一例を示すブロック図である。図示のように、入力装置1は、表示パネル2、画像取得部(撮像部)3、バックライト4、CPU(Central Processing Unit)5、主記憶部6、及び補助記憶部7を備えており、周辺機器Pと通信可能に接続されている。
[Hardware configuration]
Next, the hardware configuration of the input device 1 will be described with reference to FIG. FIG. 5 is a block diagram illustrating an example of a hardware configuration of the input device 1. As illustrated, the input device 1 includes a display panel 2, an image acquisition unit (imaging unit) 3, a backlight 4, a CPU (Central Processing Unit) 5, a main storage unit 6, and an auxiliary storage unit 7. The peripheral device P is communicably connected.

表示パネル2及びバックライト4は、画像を表示するためのものである。すなわち、表示パネル2は、カラーフィルタと、バックライト4が発する光を遮って上記カラーフィルタに達する光量を調節する液晶層とを備えている。そして、CPU5の制御に従って、バックライト4と液晶層とが駆動することにより、表示パネル2に任意の画像が表示される。また、表示パネル2の入力装置1の外部に露出している側の面は、ユーザの入力操作を受け付ける入力面としての機能も果たしている。   The display panel 2 and the backlight 4 are for displaying images. That is, the display panel 2 includes a color filter and a liquid crystal layer that blocks the light emitted from the backlight 4 and adjusts the amount of light reaching the color filter. An arbitrary image is displayed on the display panel 2 by driving the backlight 4 and the liquid crystal layer under the control of the CPU 5. Further, the surface of the display panel 2 that is exposed to the outside of the input device 1 also functions as an input surface that accepts user input operations.

画像取得部3は、表示パネル2上の物体を画像として取得するものであり、画像取得部3が取得した画像に基づいて、表示パネル2への指の接触/非接触が判断される。なお、画像取得部3は、表示パネル2に組み込まれており、バックライト4が発する光が表示パネル2上の物体に反射した光を受光して画像を生成するようになっている。画像取得部3には、例えばCCD(charge-coupled device)等の公知の撮像素子を適用することもできる。   The image acquisition unit 3 acquires an object on the display panel 2 as an image, and based on the image acquired by the image acquisition unit 3, it is determined whether or not the finger touches the display panel 2. Note that the image acquisition unit 3 is incorporated in the display panel 2, and generates an image by receiving light reflected by an object on the display panel 2 from light emitted from the backlight 4. A known imaging device such as a CCD (charge-coupled device) can be applied to the image acquisition unit 3.

すなわち、表示パネル2、画像取得部3、及びバックライト4によって、いわゆる光センサ内蔵液晶表示装置が構成されている。そして、入力装置1では、表示パネル2、画像取得部3、及びバックライト4によって、表示パネル2に対するユーザの入力操作を検出すると共に画像の表示を行う。   That is, the display panel 2, the image acquisition unit 3, and the backlight 4 constitute a so-called photosensor built-in liquid crystal display device. In the input device 1, the display panel 2, the image acquisition unit 3, and the backlight 4 detect a user input operation on the display panel 2 and display an image.

ここで、表示パネル2及び画像取得部3のより詳細な構成について、図6に基づいて説明する。図6は、表示パネル2及び画像取得部3の構成及び機能の概略を示す図である。   Here, a more detailed configuration of the display panel 2 and the image acquisition unit 3 will be described with reference to FIG. FIG. 6 is a diagram schematically illustrating the configuration and functions of the display panel 2 and the image acquisition unit 3.

図示のように、表示パネル2は、パネル部2aと、パネル部2aの周囲に設けられたゲートドライバ2b及びソースドライバ2cを含む構成である。また、パネル部2aの周囲には、光センサ駆動回路3bが設けられている。そして、パネル部2aには、RGBの副画素からなる画素が配列していると共に、各画素には、光センサ回路3aが設けられている。   As illustrated, the display panel 2 includes a panel unit 2a, and a gate driver 2b and a source driver 2c provided around the panel unit 2a. An optical sensor driving circuit 3b is provided around the panel portion 2a. In the panel unit 2a, pixels composed of RGB sub-pixels are arranged, and a photosensor circuit 3a is provided for each pixel.

ゲートドライバ2b及びソースドライバ2cは、表示パネル2に入力される表示信号に従って、パネル部2aを構成する各画素の背後(入力装置1の内部側)に配置された液晶層(図示せず)を駆動して、該液晶層のさらに入力装置1の内部側に配置されたバックライト4(図示せず)からRGBの各副画素に入射する光量を調整する。これにより、パネル部2aには、上記表示信号に応じた画像が表示される。   The gate driver 2b and the source driver 2c apply a liquid crystal layer (not shown) disposed behind each pixel constituting the panel unit 2a (inside the input device 1) according to a display signal input to the display panel 2. Driving is performed to adjust the amount of light incident on the RGB sub-pixels from the backlight 4 (not shown) disposed further inside the input device 1 of the liquid crystal layer. Thereby, the image according to the said display signal is displayed on the panel part 2a.

一方、画像取得部3は、光センサ回路3aと、該光センサ回路3aを駆動する光センサ駆動回路3bとで構成されている。この光センサ回路3aが、光センサ駆動回路3bによって駆動されることによって、パネル部2a上の像が読み取られ、読み取られた像が、読み取り信号(画像データ)として出力される。   On the other hand, the image acquisition unit 3 includes an optical sensor circuit 3a and an optical sensor driving circuit 3b that drives the optical sensor circuit 3a. The optical sensor circuit 3a is driven by the optical sensor driving circuit 3b, whereby an image on the panel unit 2a is read, and the read image is output as a read signal (image data).

なお、本実施形態では、表示パネル2とバックライト4との組み合わせによって画像を表示する例について説明するが、入力装置1は画像の表示と入力操作の検出とを行うことができるようになっていればよく、この例に限定されない。例えば、表示パネル2及びバックライト4の代わりに、有機EL(Electro Luminescence)表示装置を用いて画像を表示するようにしてもよい。   In this embodiment, an example in which an image is displayed by a combination of the display panel 2 and the backlight 4 will be described. However, the input device 1 can display an image and detect an input operation. What is necessary is just and it is not limited to this example. For example, instead of the display panel 2 and the backlight 4, an image may be displayed using an organic EL (Electro Luminescence) display device.

主記憶部6は、入力装置1が動作する上で最低限必要となるデータ、例えばBIOS(basic input output system)のプログラムデータやOS(operating system)のプログラムデータなどを記憶するROM(Read Only Memory)と、CPU5による情報処理が行われる際の作業メモリとして機能するRAM(Random Access Memory)とで構成されている。   The main storage unit 6 is a ROM (Read Only Memory) that stores data necessary for the operation of the input device 1, such as program data of a basic input output system (BIOS) or program data of an operating system (OS). ) And a RAM (Random Access Memory) that functions as a working memory when information processing by the CPU 5 is performed.

補助記憶部7には、上記RAMにロードされてCPU5によって実行される制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)等の入力装置1で使用される各種データが格納されている。補助記憶部7は、CPU5がデータの書き込み及び読み出しを行えるものであればよい。例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを補助記憶部7として用いることができる。   The auxiliary storage unit 7 stores various data used by the input device 1 such as program codes (execution format program, intermediate code program, source program) of a control program loaded into the RAM and executed by the CPU 5. Yes. The auxiliary storage unit 7 may be anything as long as the CPU 5 can write and read data. For example, tape systems such as magnetic tape and cassette tape, disk systems including magnetic disks such as floppy (registered trademark) disks / hard disks and optical disks such as CD-ROM / MO / MD / DVD / CD-R, IC cards (memory A card system such as an optical card) or a semiconductor memory system such as a mask ROM / EPROM / EEPROM / flash ROM can be used as the auxiliary storage unit 7.

このように、入力装置1は、入力装置1の各機能を実現する制御プログラムの命令を実行するCPU5、上記プログラムを格納したROM、上記プログラムを展開するRAM、上記プログラムおよび各種データを格納する補助記憶部7を備えていることによって、例えば図2(a)〜(c)に示すような機能を実現している。   As described above, the input device 1 includes the CPU 5 that executes the instructions of the control program that implements each function of the input device 1, the ROM that stores the program, the RAM that expands the program, the auxiliary that stores the program and various data. By providing the storage unit 7, for example, functions as shown in FIGS. 2A to 2C are realized.

なお、入力装置1では、CPU5が必要なデータを利用できるようになっていればよく、データは必ずしも入力装置1に内蔵または外付けされた記憶媒体に格納されている必要はない。例えば、入力装置1を通信ネットワークと接続可能に構成し、必要なデータが通信ネットワークを介してCPU5に供給されるようになっていてもよい。   In the input device 1, it is only necessary that the CPU 5 can use necessary data, and the data does not necessarily have to be stored in a storage medium built in or externally attached to the input device 1. For example, the input device 1 may be configured to be connectable to a communication network, and necessary data may be supplied to the CPU 5 via the communication network.

この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。   The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Also, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used.

なお、本実施形態では、プログラムをCPU5に実行させることによって入力装置1の機能を実現する例を説明するが、回路やチップ等のハードウェアを用いて入力装置1の機能を実現することも可能である。   In this embodiment, an example in which the function of the input device 1 is realized by causing the CPU 5 to execute a program will be described. However, the function of the input device 1 can also be realized using hardware such as a circuit or a chip. It is.

〔画像取得部3が取得する画像〕
ここで、画像取得部3が取得する画像について図7に基づいて説明する。図7は、画像取得部3が取得する画像の一例を示す図である。より詳細には、同図(a)は、ユーザが表示パネル2に手を載置した状態にて画像取得部3が取得する画像の一例を示し、同図(b)は人差し指のみを表示パネル2から離した状態にて画像取得部3が取得する画像の一例を示し、同図(c)は、再度人差し指を表示パネル2に接触させた状態にて画像取得部3が取得する画像の一例を示している。
[Images Acquired by Image Acquisition Unit 3]
Here, an image acquired by the image acquisition unit 3 will be described with reference to FIG. FIG. 7 is a diagram illustrating an example of an image acquired by the image acquisition unit 3. More specifically, FIG. 5A shows an example of an image acquired by the image acquisition unit 3 while the user places his / her hand on the display panel 2, and FIG. 5B shows only the index finger. 2 shows an example of an image acquired by the image acquisition unit 3 in a state separated from 2, and FIG. 8C shows an example of an image acquired by the image acquisition unit 3 with the index finger again in contact with the display panel 2. Is shown.

画像取得部3は、表示パネル2に接触している物体を画像として取り込む。したがって、手全体が表示パネル2に接触しているときには、同図(a)に示すように、5本の指と掌とが画像として取り込まれる。一般に、人の手の外形は共通しているので、この画像から、表示パネル2に接触している手が右手であるか、左手であるかを判別することができ、また画像中の指の種別(親指、人差し指、中指、薬指、小指)も判別することができる。   The image acquisition unit 3 captures an object in contact with the display panel 2 as an image. Therefore, when the entire hand is in contact with the display panel 2, five fingers and the palm are captured as an image, as shown in FIG. Generally, since the external shape of a person's hand is common, it can be determined from this image whether the hand in contact with the display panel 2 is the right hand or the left hand, and the finger in the image The type (thumb, forefinger, middle finger, ring finger, little finger) can also be determined.

ここで、人差し指が表示パネル2から離れたときには、バックライト4から照射された光であって、人差し指で反射して画像取得部3に入射する光の量が著しく低下する。したがって、人差し指が表示パネル2から離れたときには、同図(b)に示すように、人差し指を除く4本の指と掌とが画像として認識可能になる。そして、人差し指が再び表示パネル2に接触したときには、同図(c)に示すように、同図(a)と同様に、5本の指と掌とが画像として認識されるようになる。   Here, when the index finger is separated from the display panel 2, the amount of light emitted from the backlight 4 and reflected by the index finger and incident on the image acquisition unit 3 is significantly reduced. Therefore, when the index finger is separated from the display panel 2, the four fingers and the palm excluding the index finger can be recognized as an image as shown in FIG. When the index finger comes into contact with the display panel 2 again, as shown in FIG. 5C, the five fingers and the palm are recognized as an image as in FIG.

入力装置1は、画像取得部3が取得した画像が、図7(a)の状態から同図(c)の状態まで変化したことを検出して、人差し指で入力操作が行われたと判断する。そして、入力装置1では、表示パネル2に対する接触状態が変化した指が人差し指以外の場合にも同様の判断が行われる。すなわち、入力装置1は、表示パネル2に接触した指が表示パネル2から一度離れ、その後再び表示パネル2に接触したときに、その指で入力操作が行われたと判断する。   The input device 1 detects that the image acquired by the image acquisition unit 3 has changed from the state of FIG. 7A to the state of FIG. 7C, and determines that an input operation has been performed with the index finger. In the input device 1, the same determination is made when the finger whose contact state with the display panel 2 has changed is other than the index finger. That is, the input device 1 determines that an input operation has been performed with the finger when the finger touching the display panel 2 once leaves the display panel 2 and then touches the display panel 2 again.

〔要部構成〕
続いて、入力装置1のさらに詳細な構成について、図1に基づいて説明する。図1は、入力装置1が備えている制御部11の要部構成を示すブロック図である。図示のように、制御部11は、周辺機器制御部(装置制御手段)12、入力検出部(入力検出手段、入力信号生成手段)13、画像解析部(接触検出手段、種別判別手段)14、ボタン座標変更部15、表示制御部16、及びボタン表示部(表示手段)17を備えている。また、図示のように、入力装置1は記憶部21を備え、記憶部21には、コマンドテーブル22とボタン座標テーブル23とが格納されている。
[Main part configuration]
Next, a more detailed configuration of the input device 1 will be described with reference to FIG. FIG. 1 is a block diagram illustrating a main configuration of the control unit 11 provided in the input device 1. As illustrated, the control unit 11 includes a peripheral device control unit (device control unit) 12, an input detection unit (input detection unit, input signal generation unit) 13, an image analysis unit (contact detection unit, type determination unit) 14, A button coordinate changing unit 15, a display control unit 16, and a button display unit (display unit) 17 are provided. Further, as illustrated, the input device 1 includes a storage unit 21, and a command table 22 and a button coordinate table 23 are stored in the storage unit 21.

なお、制御部11が備える各構成は、CPU5がプログラムを実行して実現される機能を示している。また、記憶部21に格納されているデータは、基本的には補助記憶部7に格納されており、CPU5がこれらのデータを使用するときに主記憶部6に読み出される。   In addition, each structure with which the control part 11 is provided has shown the function implement | achieved when CPU5 runs a program. The data stored in the storage unit 21 is basically stored in the auxiliary storage unit 7 and is read out to the main storage unit 6 when the CPU 5 uses these data.

周辺機器制御部12は、入力装置1によって操作される対象となる周辺機器Pにコマンドを送信して、その動作を制御するものである。周辺機器Pとしては、入力装置1によって操作する任意の機器を適用することができる。ここでは、入力装置1を車に搭載することを想定しているので、周辺機器Pがオーディオ機器、空調機器(エアコン)、カーナビゲーションシステム(カーナビ)の3つである例について説明する。   The peripheral device control unit 12 transmits a command to the peripheral device P to be operated by the input device 1 and controls its operation. As the peripheral device P, any device operated by the input device 1 can be applied. Here, since it is assumed that the input device 1 is mounted on a car, an example in which there are three peripheral devices P, that is, an audio device, an air conditioner (air conditioner), and a car navigation system (car navigation system) will be described.

入力検出部13は、画像解析部14が表示パネル2に接触していることを検出した各指の接触状態が変化したことを検出し、接触状態の変化を検出した指に対応する入力信号を生成する。具体的には、入力検出部13は、表示パネル2に対して接触していることが検出された指が、非接触状態となったときに、当該指を示す操作指データを生成する。この操作指データは、周辺機器制御部12に送られ、周辺機器制御部12は、操作指データが示す指の種別に対応するコマンドを生成して、周辺機器Pに送信する。   The input detection unit 13 detects that the contact state of each finger that has detected that the image analysis unit 14 is in contact with the display panel 2 has changed, and outputs an input signal corresponding to the finger that has detected the change in the contact state. Generate. Specifically, when the finger detected to be in contact with the display panel 2 is in a non-contact state, the input detection unit 13 generates operation finger data indicating the finger. The operation finger data is sent to the peripheral device control unit 12, and the peripheral device control unit 12 generates a command corresponding to the finger type indicated by the operation finger data and transmits the command to the peripheral device P.

画像解析部14は、画像取得部3が取得した画像を受け取り、受け取った画像の解析を行う。具体的には、画像解析部14は、上記画像が手の画像であるか否かを判断する。そして、画像解析部14は、上記画像が手の画像であった場合には、その手が右手か左手かを検出すると共に、手の指先の位置を求める。   The image analysis unit 14 receives the image acquired by the image acquisition unit 3 and analyzes the received image. Specifically, the image analysis unit 14 determines whether the image is a hand image. When the image is a hand image, the image analysis unit 14 detects whether the hand is the right hand or the left hand and obtains the position of the fingertip of the hand.

例えば、標準的な手の画像を予め格納しておき、上記画像と標準的な手の画像とを比較することによって、画像取得部3は上記画像が手の画像であるか否か、その手が右手か左手か、また指先の位置がどこであるかを判断することができる。   For example, by storing a standard hand image in advance and comparing the image with a standard hand image, the image acquisition unit 3 determines whether the image is a hand image. It is possible to determine whether the hand is the right hand or the left hand and where the fingertip is.

また、画像取得部3は、上記画像が手の画像である場合に、その手が右手か左手かを、指先の間隔に基づいて判断してもよい。これについて、図8に基づいて説明する。図8は、指先の間隔に基づいて、左手か右手かを判断する方法を説明する図である。   In addition, when the image is a hand image, the image acquisition unit 3 may determine whether the hand is the right hand or the left hand based on the fingertip interval. This will be described with reference to FIG. FIG. 8 is a diagram illustrating a method for determining whether the left hand or the right hand is based on the fingertip interval.

まず、手の画像が取得された場合には、パターンマッチング等によって、指先の位置を特定することができる。そして、指先の位置が特定されると、特定した指先の位置の間隔を算出することができる。   First, when a hand image is acquired, the position of the fingertip can be specified by pattern matching or the like. When the fingertip position is specified, the interval between the specified fingertip positions can be calculated.

ここで、図示のように、人の手は、小指の指先から薬指の指先までの距離aよりも、親指の指先から人差し指の指先までの距離bの方が一般的に長くなっている。したがって、5つの指先の位置が特定されたときに、両端に位置する2つの指先位置の間隔を比較することにより、どちらの端の指が親指で、どちらの端の指が小指であるかを判断することができ、これにより、右手か左手かを判断することができる。例えば、図示の例では、左端の指先位置の間隔aよりも、右端の指先位置の間隔bが長いので、右側が親指であると判断することができ、これにより左手の画像であると判断することができる。   Here, as shown in the drawing, the distance b from the fingertip of the thumb to the fingertip of the index finger is generally longer in the human hand than the distance a from the fingertip of the little finger to the fingertip of the ring finger. Therefore, when the positions of the five fingertips are identified, by comparing the distance between the two fingertip positions located at both ends, it is possible to determine which end finger is the thumb and which end finger is the little finger. It is possible to determine whether it is a right hand or a left hand. For example, in the illustrated example, since the interval b between the right end fingertip positions is longer than the interval a between the left end fingertip positions, it is possible to determine that the right side is a thumb, thereby determining that the image is a left hand image. be able to.

なお、手の大きさ、指の太さ、長さ等は、人それぞれであるから、画像取得部3が取得した画像と、予め格納している標準的な手の画像とをそのまま比較した場合には、画像解析部14が誤認識するおそれがある。   In addition, since the size of the hand, the thickness of the finger, the length, etc. are each person, when the image acquired by the image acquisition unit 3 and the standard hand image stored in advance are directly compared In some cases, the image analysis unit 14 may erroneously recognize.

そこで、画像解析部14は、画像取得部3が取得した画像の標準化を行うことが好ましい。なお、標準化とは、手の大きさ、指の太さ、長さ等が所定の範囲内となるように行う補正を指す。補正後の画像と標準的な手の画像とを比較することにより、画像解析部14は、画像取得部3が取得した画像が、手の画像であるか否かを判断することができる。また、画像取得部3が取得した画像が手の画像である場合には、画像解析部14は、上記画像が右手の画像であるか左手の画像であるか、そして指先の位置はどこであるかを確実に判断することができる。   Therefore, it is preferable that the image analysis unit 14 standardizes the image acquired by the image acquisition unit 3. The standardization refers to correction performed so that the size of the hand, the thickness of the finger, the length, and the like are within a predetermined range. By comparing the corrected image with a standard hand image, the image analysis unit 14 can determine whether the image acquired by the image acquisition unit 3 is a hand image. When the image acquired by the image acquisition unit 3 is a hand image, the image analysis unit 14 determines whether the image is a right-hand image or a left-hand image, and where is the fingertip position. Can be reliably determined.

そして、画像解析部14は、表示パネル2に接触している各指について、表示パネル2上の位置、指の種別、及び左右の何れの手の指であるかを示すデータを生成して、入力検出部13に送る。   Then, the image analysis unit 14 generates, for each finger in contact with the display panel 2, data indicating the position on the display panel 2, the type of the finger, and the left or right hand finger, The data is sent to the input detection unit 13.

ボタン座標変更部15は、画像解析部14が検出した指先の位置に応じて、記憶部21のボタン座標テーブル23に格納されている、ボタンイメージの表示位置を示す座標を更新する。これにより、ボタンイメージが指の動きに追従して移動することになる。また、ボタン座標変更部15が更新した座標は、入力検出部13による入力操作の検出にも用いられる。なお、以下では、ボタン座標変更部15によって更新された座標を更新座標と呼ぶ。   The button coordinate changing unit 15 updates the coordinates indicating the display position of the button image stored in the button coordinate table 23 of the storage unit 21 according to the position of the fingertip detected by the image analysis unit 14. As a result, the button image moves following the movement of the finger. The coordinates updated by the button coordinate changing unit 15 are also used for detecting an input operation by the input detecting unit 13. In the following, the coordinates updated by the button coordinate changing unit 15 are referred to as update coordinates.

表示制御部16は、表示パネル2及びバックライト4の動作を制御して表示パネル2に任意の画像を表示させる。また、表示制御部16は、ボタン表示部17からコントロール画面データを受け取って表示パネル2に表示させる。   The display control unit 16 controls the operations of the display panel 2 and the backlight 4 to display an arbitrary image on the display panel 2. Further, the display control unit 16 receives the control screen data from the button display unit 17 and causes the display panel 2 to display the control screen data.

ボタン表示部17は、各指に割り当てられた機能を示すボタンイメージを当該指に対応する位置に表示させる。具体的には、ボタン表示部17は、記憶部21のコマンドテーブル22に格納されているボタンイメージを読み出すと共に、記憶部21のボタン座標テーブル23に格納されている初期座標または更新座標を読み出す。そして、ボタン表示部17は、読み出した初期座標または更新座標の位置に、読み出したボタンイメージが配置されたコントロール画面データを生成し、このコントロール画面データを表示制御部16に出力して表示させる。   The button display unit 17 displays a button image indicating a function assigned to each finger at a position corresponding to the finger. Specifically, the button display unit 17 reads the button image stored in the command table 22 of the storage unit 21 and reads the initial coordinates or the updated coordinates stored in the button coordinate table 23 of the storage unit 21. Then, the button display unit 17 generates control screen data in which the read button image is arranged at the position of the read initial coordinate or update coordinate, and outputs the control screen data to the display control unit 16 for display.

〔コマンドテーブル22〕
ここで、コマンドテーブル22について説明する。コマンドテーブル22は、指と該指に対応するコマンドとが対応付けられたテーブルである。したがって、周辺機器制御部12は、コマンドテーブル22を参照することによって、入力検出部13が特定した指に対応するコマンドを特定することができる。なお、コマンドは、周辺機器Pに所定の動作を実行させる命令であり、周辺機器P毎に異なっているので、コマンドテーブル22は、周辺機器P毎に用意されている。
[Command table 22]
Here, the command table 22 will be described. The command table 22 is a table in which a finger and a command corresponding to the finger are associated with each other. Therefore, the peripheral device control unit 12 can specify a command corresponding to the finger specified by the input detection unit 13 by referring to the command table 22. Note that the command is a command for causing the peripheral device P to execute a predetermined operation, and is different for each peripheral device P. Therefore, the command table 22 is prepared for each peripheral device P.

さらに、コマンドテーブル22には、各コマンドと該コマンドに対応するボタンイメージとが対応付けて記憶されている。ボタンイメージは、各コマンドによって周辺機器Pが実行する動作を示す画像であり、ボタンイメージが表示されることによって、ユーザは、各指にどのようなコマンドが割り当てられているか(どのような動作が実行されるか)を認識することができる。   Further, each command and a button image corresponding to the command are stored in the command table 22 in association with each other. The button image is an image indicating an operation performed by the peripheral device P in accordance with each command. By displaying the button image, the user is assigned what command to each finger (what operation is performed). Can be recognized).

なお、ボタンイメージは、各指の操作でどのような動作が実行されるかをユーザが認識することができるものであればよく、静止画像以外にも、例えば動画像、文字、及び記号等をボタンイメージとすることもできる。   The button image may be any button image that can be recognized by the user as to what operation is performed by the operation of each finger. In addition to still images, for example, moving images, characters, symbols, etc. It can also be a button image.

コマンドテーブル22は、例えば図9に示すような構成とすることもできる。図9は、コマンドテーブル22の一例を示す図である。図9に示すコマンドテーブル22では、左右の指のそれぞれと、メイン、オーディオ、エアコン、及びカーナビの4つのモードに対応するコマンドとボタンイメージとが対応付けられている。   For example, the command table 22 may be configured as shown in FIG. FIG. 9 is a diagram illustrating an example of the command table 22. In the command table 22 shown in FIG. 9, each of the left and right fingers is associated with commands and button images corresponding to four modes of main, audio, air conditioner, and car navigation.

メインモードは、オーディオ、エアコン、及びカーナビの何れの周辺機器Pを操作するかを選択するためのモードである。したがって、メインモードでは、オーディオを操作するオーディオモードに移行するためのオーディオコマンド、エアコンを操作するエアコンモードに移行するためのエアコンコマンド、及びカーナビを操作するカーナビモードに移行するためのカーナビコマンドが、指に対応付けて記憶されている。   The main mode is a mode for selecting which peripheral device P of the audio, the air conditioner, and the car navigation is to be operated. Therefore, in the main mode, there are an audio command for shifting to an audio mode for operating audio, an air conditioner command for shifting to an air conditioner mode for operating an air conditioner, and a car navigation command for shifting to a car navigation mode for operating a car navigation system. It is stored in association with the finger.

具体的には、オーディオコマンドは、運転席のL1及び助手席のR1に対応付けられており、エアコンコマンドは、運転席のL2及び助手席のR2に対応付けられており、カーナビコマンドは、運転席のL3及び助手席のR3に対応付けられている。   Specifically, the audio command is associated with the driver seat L1 and the passenger seat R1, the air-conditioner command is associated with the driver seat L2 and the passenger seat R2, and the car navigation command is It is associated with the seat L3 and the passenger seat R3.

なお、L1〜L5は、それぞれ左手の親指、人差し指、中指、薬指、及び小指を示し、同様にR1〜R5は、それぞれ右手の親指、人差し指、中指、薬指、及び小指を示している。すなわち、ここでは、入力装置1を右ハンドルの自動車のセンターコンソールに配置することを想定しているので、助手席から入力装置1を操作する場合には、右手で操作することになり、運転席から入力装置1を操作する場合には、右手で操作することになる。そこで、図示の例のコマンドテーブル22では、運転席用と助手席用との2通りの指の割り当てを定義している。   L1 to L5 indicate the left thumb, index finger, middle finger, ring finger, and little finger, respectively. Similarly, R1 to R5 indicate the right thumb, index finger, middle finger, ring finger, and little finger, respectively. That is, here, since it is assumed that the input device 1 is disposed on the center console of the right-hand drive automobile, when the input device 1 is operated from the passenger seat, it is operated with the right hand, When the input device 1 is operated from the right side, it is operated with the right hand. Therefore, the command table 22 in the illustrated example defines two finger assignments for the driver seat and the passenger seat.

同様に、オーディオモードでは、L1及びR1には、オーディオの再生を停止させる停止コマンドが、L2及びR2には、オーディオの再生を開始させる再生コマンドが、L3及びR3には、次の曲を再生させる1曲送りコマンドが、L4及びR4には、オーディオの再生音量を上げる音量UPコマンドが、そしてL5及びR5には、オーディオの再生音量を下げる音量DOWNコマンドが対応付けられている。   Similarly, in the audio mode, a stop command for stopping audio playback is displayed for L1 and R1, a playback command for starting audio playback is played for L2 and R2, and the next song is played for L3 and R3. The one-track advance command to be performed is associated with a volume UP command for increasing the audio reproduction volume to L4 and R4, and a volume DOWN command for decreasing the audio reproduction volume with L5 and R5.

また、エアコンモードでは、L1及びR1には、外気の取り込みを実行させる外気コマンドが、L2及びR2には、車内の空気を循環させる循環コマンドが、L3及びR3には、設定温度を上げる温度UPコマンドが、L4及びR4には、設定温度を下げる温度DOWNコマンドが対応付けられている。   Further, in the air conditioner mode, L1 and R1 have an outside air command for executing the intake of outside air, L2 and R2 have a circulation command for circulating the air inside the vehicle, and L3 and R3 have a temperature UP for raising the set temperature. The command is associated with a temperature DOWN command for lowering the set temperature to L4 and R4.

さらに、カーナビモードでは、L1及びR1には、自宅までのルートガイドを開始させる自宅コマンドが、L2及びR2には、表示する地図をより縮尺の小さい地図に切り換える広域コマンドが、L3及びR3には、表示する地図をより縮尺の大きい地図に切り換える詳細コマンドが対応付けられている。   Further, in the car navigation mode, L1 and R1 include a home command for starting a route guide to the home, L2 and R2 include a wide-area command for switching the displayed map to a smaller scale map, and L3 and R3 include A detailed command for switching the map to be displayed to a map with a larger scale is associated.

なお、本実施形態では、入力装置1を運転席と助手席との両側から操作することを想定しているので、運転席から左手で操作する場合でも、助手席から右手で操作する場合でも、同じ感覚で操作できるようにすることが好ましい。そこで、本実施形態では、L1〜L5と、R1〜R5とのそれぞれに同じコマンドを対応付けている。しかしながら、L1〜L5と、R1〜R5とで別のコマンドを対応付けるようにしてもよい。これにより、指の種別のみならず、右手か左手かに応じた多彩な入力を行うことが可能になる。   In the present embodiment, since it is assumed that the input device 1 is operated from both sides of the driver seat and the passenger seat, even when operating from the driver seat with the left hand, even when operating with the right hand from the passenger seat, It is preferable to be able to operate with the same feeling. Therefore, in the present embodiment, the same command is associated with each of L1 to L5 and R1 to R5. However, another command may be associated with L1 to L5 and R1 to R5. As a result, it is possible to perform various inputs not only according to the type of finger but also according to whether the right hand or the left hand.

また、図示のように、各コマンドにはボタンイメージが対応付けられている。このボタンイメージは、ボタン表示部17によって読み出され、表示制御部16によって表示パネル2に表示される。これにより、ユーザは、どの指で操作を行ったときにどのような機能が実行されるかを容易に認識することができる。   Further, as shown in the figure, a button image is associated with each command. This button image is read by the button display unit 17 and displayed on the display panel 2 by the display control unit 16. Thereby, the user can easily recognize what function is executed when the user performs an operation with which finger.

なお、各指に割り当てるコマンドはどのようなものであってもよいが、小指や薬指での入力操作には不慣れなユーザも存在すると考えられるので、使用頻度の高いコマンドを、親指、人差し指、及び中指に割り当てることが好ましい。   Any command may be assigned to each finger, but it is considered that there are users who are not familiar with the input operation with the little finger or ring finger. It is preferable to assign it to the middle finger.

〔ボタン座標テーブル23〕
次に、ボタン座標テーブル23について説明する。ボタン座標テーブル23は、ボタンイメージを表示する座標を示すテーブルである。ボタン座標テーブル23には、表示パネル2上に手が置かれる前の状態でボタンイメージを表示する座標である初期座標が格納されている。表示パネル2上に手が置かれるまでは、ボタンイメージは、ボタン座標テーブル23の初期座標が示す位置に表示される。
[Button coordinate table 23]
Next, the button coordinate table 23 will be described. The button coordinate table 23 is a table indicating coordinates for displaying a button image. The button coordinate table 23 stores initial coordinates that are coordinates for displaying a button image in a state before the hand is placed on the display panel 2. Until the hand is placed on the display panel 2, the button image is displayed at the position indicated by the initial coordinates in the button coordinate table 23.

また、ボタン座標テーブル23には、表示パネル2上に手が置かれた後の各指の座標を示す更新座標が格納される。上述のように、更新座標は、ボタン座標変更部15によって更新された座標である。表示パネル2上に手が置かれた後は、ボタンイメージは、ボタン座標テーブル23の更新座標が示す位置に表示される。   The button coordinate table 23 stores updated coordinates indicating the coordinates of each finger after the hand is placed on the display panel 2. As described above, the updated coordinates are coordinates updated by the button coordinate changing unit 15. After the hand is placed on the display panel 2, the button image is displayed at the position indicated by the updated coordinates in the button coordinate table 23.

ボタン座標テーブル23は、例えば図10に示すような構成とすることもできる。図10は、ボタン座標テーブル23の一例を示す図である。図示のように、ボタン座標テーブル23には、運転席用、すなわち指L1〜L5のそれぞれに対応する初期座標と更新座標とが格納されていると共に、助手席用、すなわち指R1〜R5のそれぞれに対応する初期座標と更新座標とが格納されている。   The button coordinate table 23 may be configured as shown in FIG. 10, for example. FIG. 10 is a diagram illustrating an example of the button coordinate table 23. As shown in the figure, the button coordinate table 23 stores initial coordinates and update coordinates corresponding to each of the driver seats, that is, the fingers L1 to L5, and each of the passenger seats, that is, the fingers R1 to R5. The initial coordinates and update coordinates corresponding to are stored.

初期座標は、ユーザが表示パネル2に手を触れる前の状態におけるボタンイメージの表示位置として予め設定されるものであり、その値は固定である。一方、更新座標は、ユーザが表示パネル2に手を触れているときにボタンイメージを表示する位置を示すものであり、表示パネル2上の指の位置に応じて随時更新される。   The initial coordinates are set in advance as the display position of the button image before the user touches the display panel 2, and the value thereof is fixed. On the other hand, the update coordinate indicates a position where the button image is displayed when the user touches the display panel 2 and is updated as needed according to the position of the finger on the display panel 2.

このように、入力装置1では、座標を用いて表示パネル2上のボタンイメージの表示位置を表している。これについて図11に基づいて説明する。図11は、表示パネル2上に設定する座標、及び該表示パネル2上に表示されるボタンイメージの表示位置を示す図である。図示の例では、0から200までの縦軸と、0から200までの横軸とが設定されており、これにより表示パネル2上の位置を(0,0)から(200,200)までの座標によって表すことができる。   Thus, in the input device 1, the display position of the button image on the display panel 2 is represented using coordinates. This will be described with reference to FIG. FIG. 11 is a diagram showing coordinates set on the display panel 2 and display positions of button images displayed on the display panel 2. In the illustrated example, a vertical axis from 0 to 200 and a horizontal axis from 0 to 200 are set, and the position on the display panel 2 is thereby changed from (0, 0) to (200, 200). Can be represented by coordinates.

例えば、図10のボタン座標テーブル23を用いた場合には、L1〜L5の初期座標は、それぞれ(180,120)、(160,170)、(100,200)、(40,170)、及び(10,120)となる。したがって、図11に示すように、(180,120)、(160,170)、(100,200)、(40,170)、及び(10,120)の座標にボタンイメージが表示されることになる。   For example, when the button coordinate table 23 of FIG. 10 is used, the initial coordinates of L1 to L5 are (180, 120), (160, 170), (100, 200), (40, 170), and (10, 120). Accordingly, as shown in FIG. 11, the button image is displayed at the coordinates of (180, 120), (160, 170), (100, 200), (40, 170), and (10, 120). Become.

そして、図11に示すように、表示パネル2上に手を載置したときには、その指先の位置の座標が更新座標としてボタン座標テーブル23に格納される。図11の例では、指先の位置座標が、(160,90)、(130,130)、(110,150)、(70,140)、及び(40,110)である。したがって、図10に示すように、L1〜L5の更新座標も(160,90)、(130,130)、(110,150)、(70,140)、及び(40,110)となる。   As shown in FIG. 11, when a hand is placed on the display panel 2, the coordinates of the position of the fingertip are stored in the button coordinate table 23 as update coordinates. In the example of FIG. 11, the position coordinates of the fingertip are (160, 90), (130, 130), (110, 150), (70, 140), and (40, 110). Therefore, as shown in FIG. 10, the updated coordinates of L1 to L5 are also (160, 90), (130, 130), (110, 150), (70, 140), and (40, 110).

これにより、図11に示すように、ボタンイメージの表示位置が、更新座標の(160,90)、(130,130)、(110,150)、(70,140)、及び(40,110)に変化することになる。   Thereby, as shown in FIG. 11, the display position of the button image is the updated coordinates (160, 90), (130, 130), (110, 150), (70, 140), and (40, 110). Will change.

なお、指先の位置とボタンイメージの表示位置とを一致させる必要はなく、ボタンイメージは、どの指での操作がどのコマンド(機能)に対応しているかをユーザが認識できるように表示すればよい。ただし、指先の座標と全く同じ位置にボタンイメージを表示した場合には、指でボタンイメージが隠れるので、本適用例では、指先の座標からずれた位置にボタンイメージを表示している。尚、指先の座標とボタンイメージの表示位置とのずらし量は、ボタンイメージの大きさに応じて固定的に決定してもよいが、指の種別ごとに、おおよその移動方向と移動可能範囲とが異なっているので、ずらす方向とずらし量とを指の種別に応じて変えることが好ましい。   Note that it is not necessary to match the position of the fingertip with the display position of the button image, and the button image may be displayed so that the user can recognize which command (function) corresponds to the operation with which finger. . However, when the button image is displayed at the exact same position as the fingertip coordinate, the button image is hidden by the finger, and in this application example, the button image is displayed at a position shifted from the fingertip coordinate. The amount of shift between the fingertip coordinates and the button image display position may be fixedly determined according to the size of the button image, but for each finger type, the approximate movement direction and the movable range Therefore, it is preferable to change the shifting direction and the shifting amount according to the type of the finger.

〔起動からコントロールモードまでの処理の流れ〕
続いて、入力装置1が起動された後、周辺機器Pに対する入力操作を行うことができるようになるまでの処理の流れについて図12に基づいて説明する。なお、ここでは、周辺機器Pに対する入力操作を行うことができる状態をコントロールモードと呼ぶ。図12は、入力装置1の起動からコントロールモードまでの処理の一例を示すフローチャートである。
[Process flow from startup to control mode]
Next, the flow of processing until the input operation on the peripheral device P can be performed after the input device 1 is activated will be described with reference to FIG. Here, a state in which an input operation on the peripheral device P can be performed is referred to as a control mode. FIG. 12 is a flowchart illustrating an example of processing from activation of the input device 1 to control mode.

車のエンジンがかけられると、入力装置1に電流が供給されて入力装置1は起動状態となる。起動状態となった入力装置1では、まずコントロールデータの読み出しが行われる(S1)。なお、コントロールデータとは、入力装置1の動作に必要なプログラム等のデータである。コントロールデータの読み出しにより、図1に示す各ブロックの機能が実行可能な状態となり、これにより入力装置1は、メインコントロールモードに移行する(S2)。   When the car engine is started, a current is supplied to the input device 1 and the input device 1 is activated. In the input device 1 in the activated state, first, control data is read (S1). The control data is data such as a program necessary for the operation of the input device 1. By reading the control data, the function of each block shown in FIG. 1 becomes executable, and the input device 1 shifts to the main control mode (S2).

メインコントロールモードでは、何れの周辺機器Pを操作するかの選択が行われる。すなわち、メインコントロールモードにおいて、オーディオ機器を操作する旨の入力が行われた場合には、入力装置1はオーディオコントロールモードに移行する(S3)。一方、エアコンを操作する旨の入力が行われた場合には、入力装置1はエアコンコントロールモードに移行する(S4)。また、エアコンを操作する旨の入力が行われた場合には、入力装置1はカーナビコントロールモードに移行する(S5)。   In the main control mode, selection of which peripheral device P to operate is performed. That is, when an input for operating the audio device is performed in the main control mode, the input device 1 shifts to the audio control mode (S3). On the other hand, when an input for operating the air conditioner is performed, the input device 1 shifts to the air conditioner control mode (S4). If an input for operating the air conditioner is made, the input device 1 shifts to the car navigation control mode (S5).

なお、メインコントロールモード、オーディオコントロールモード、エアコンコントロールモード、及びカーナビコントロールモードでは、入力装置1が参照するコマンドテーブル22のデータが変わるだけであり、入力装置1の基本的な動作は同じである。すなわち、メインコントロールモード、オーディオコントロールモード、エアコンコントロールモード、及びカーナビコントロールモードは、何れも周辺機器Pに対する入力操作を行うことができるコントロールモードである。   In the main control mode, audio control mode, air conditioner control mode, and car navigation control mode, only the data in the command table 22 referred to by the input device 1 changes, and the basic operation of the input device 1 is the same. That is, the main control mode, the audio control mode, the air conditioner control mode, and the car navigation control mode are all control modes in which an input operation to the peripheral device P can be performed.

〔コントロールモードにおける処理の流れ〕
続いて、コントロールモードにおける処理の流れについて、図13に基づいて説明する。図13は、コントロールモードにおける処理の一例を示すフローチャートである。
[Process flow in control mode]
Next, the flow of processing in the control mode will be described with reference to FIG. FIG. 13 is a flowchart illustrating an example of processing in the control mode.

入力検出部13は、入力装置1がコントロールモードに移行すると、フラグを0に設定する(S11)。なお、このフラグは、表示パネル2に接触している指の本数を判断するためのものであり、表示パネル2に5本の指が接触していると判断された場合に、フラグが1に設定される。   When the input device 1 shifts to the control mode, the input detection unit 13 sets a flag to 0 (S11). This flag is used to determine the number of fingers that are in contact with the display panel 2. When it is determined that five fingers are in contact with the display panel 2, the flag is set to 1. Is set.

また、入力装置1がコントロールモードに移行すると、ボタン表示部17は、ボタン座標テーブル23から初期座標を読み出す。すなわち、入力装置1がコントロールモードに移行すると、ボタン座標テーブル23には初期座標がセットされる(S12)。   When the input device 1 shifts to the control mode, the button display unit 17 reads initial coordinates from the button coordinate table 23. That is, when the input device 1 shifts to the control mode, initial coordinates are set in the button coordinate table 23 (S12).

なお、初期座標は、入力装置1に最後に入力された手画像に応じて決定される。すなわち、ボタン表示部17は、最後に入力された座標が左手のものであったか、右手のものであったかを、例えば補助記憶部7のような任意の記憶部に記憶しておき、同じ側の手の初期座標を読み出す。   The initial coordinates are determined according to the hand image last input to the input device 1. That is, the button display unit 17 stores, in an arbitrary storage unit such as the auxiliary storage unit 7, whether the last input coordinate is the left-hand or right-hand coordinate, and the same hand on the same side. Read the initial coordinates of.

続いて、ボタン表示部17は、コマンドテーブル22から各指に対応するボタンイメージを読み出す。なお、ここで読み出すボタンイメージは、入力装置1がどの周辺機器Pを操作するコントロールモードであるかに応じて決定される。例えば、ボタン表示部17は、入力装置1がオーディオコントロールモードである場合には、図9のオーディオモードに対応する各ボタンイメージを読み出す。そして、ボタン表示部17は、表示制御部16に指示して、上記読み出したボタンイメージを初期座標の位置に表示させる(S13)。   Subsequently, the button display unit 17 reads out a button image corresponding to each finger from the command table 22. The button image to be read out here is determined according to which peripheral device P is in the control mode in which the input device 1 operates. For example, when the input device 1 is in the audio control mode, the button display unit 17 reads out each button image corresponding to the audio mode in FIG. Then, the button display unit 17 instructs the display control unit 16 to display the read button image at the initial coordinate position (S13).

また、入力検出部13は、フラグを0に設定すると、画像解析部14に画像の解析を開始するように指示を送る。画像解析の開始指示を受けた画像解析部14は、画像取得部3に指示して画像の取り込みを行わせる(S14)。そして、画像の取り込み指示を受けた画像取得部3は、表示パネル2上の対象物の像を取り込み、取り込んだ画像を画像解析部14に送る。   When the flag is set to 0, the input detection unit 13 sends an instruction to the image analysis unit 14 to start image analysis. Upon receiving the image analysis start instruction, the image analysis unit 14 instructs the image acquisition unit 3 to capture an image (S14). Then, the image acquisition unit 3 that has received the image capture instruction captures the image of the object on the display panel 2 and sends the captured image to the image analysis unit 14.

次に、画像解析部14は、画像取得部3から画像を受け取ると、受け取った画像が手の画像であるか否かを判断する(S15)。なお、画像解析部14は、例えば予め記憶している標準的な手の画像と上記画像とを比較することによって、受け取った画像が手の画像であるか否かを判断することができる。   Next, when receiving an image from the image acquisition unit 3, the image analysis unit 14 determines whether or not the received image is a hand image (S15). The image analysis unit 14 can determine whether or not the received image is a hand image, for example, by comparing a standard hand image stored in advance with the image.

ここで、画像解析部14は、画像取得部3から受け取った画像が手の画像であると判断できない場合(S15でNO)には、その旨を入力検出部13に伝達し、伝達を受けた入力検出部13は、S11の処理に戻る。つまり、手を表示パネル2に接触させるまではS11からS15の処理を繰り返すことになる。また、接触させていた手を表示パネル2から離したときにも、S15において手の画像が検出されない状態となるので、S11の処理に戻る。したがって、接触させていた手を表示パネル2から離したときには、S11からS13の処理によって、ボタンイメージの表示位置が初期座標の位置に戻ることになる。   Here, when the image analysis unit 14 cannot determine that the image received from the image acquisition unit 3 is a hand image (NO in S15), the image analysis unit 14 transmits the fact to the input detection unit 13 and receives the transmission. The input detection unit 13 returns to the process of S11. That is, the processes from S11 to S15 are repeated until the hand is brought into contact with the display panel 2. Even when the hand that has been touched is released from the display panel 2, since the hand image is not detected in S15, the process returns to S11. Therefore, when the touched hand is released from the display panel 2, the display position of the button image is returned to the initial coordinate position by the processing from S11 to S13.

一方、画像取得部3から受け取った画像が手の画像であると判断したとき(S15でYES)には、当該画像が右手の画像であるか、左手の画像であるかを判断する(S16)。なお、上記画像が右手の画像であるか、左手の画像であるかについても、予め記憶している標準的な手の画像と上記受け取った画像とを比較することによって判断することができる。   On the other hand, when it is determined that the image received from the image acquisition unit 3 is a hand image (YES in S15), it is determined whether the image is a right hand image or a left hand image (S16). . Whether the image is a right hand image or a left hand image can also be determined by comparing a standard hand image stored in advance with the received image.

続いて、画像解析部14は、上記受け取った画像から、指先の座標を検出する(S17)。具体的には、画像解析部14は、S16における上記画像が右手の画像であるか、左手の画像であるかの判断結果に基づいて、画像の指が何指であるかを特定する。そして、画像解析部14は、特定した各指の先端部分の、表示パネル2上の位置を座標として取得する。   Subsequently, the image analysis unit 14 detects the coordinates of the fingertip from the received image (S17). Specifically, the image analysis unit 14 specifies how many fingers of the image are based on the determination result of whether the image in S16 is a right-hand image or a left-hand image. Then, the image analysis unit 14 acquires the position of the identified tip portion of each finger on the display panel 2 as coordinates.

すなわち、ここでは、画像解析部14は、親指、人差し指、中指、薬指、及び小指の各指先の、表示パネル2上の座標を取得する。そして、画像解析部14は、取得した各指の指先座標を入力検出部13に送る。ここでは、画像解析部14が取得した各指の指先座標を検出座標と呼ぶ。   That is, here, the image analysis unit 14 acquires the coordinates on the display panel 2 of the fingertips of the thumb, index finger, middle finger, ring finger, and little finger. Then, the image analysis unit 14 sends the obtained fingertip coordinates of each finger to the input detection unit 13. Here, the fingertip coordinates of each finger acquired by the image analysis unit 14 are referred to as detection coordinates.

検出座標を受け取った入力検出部13は、受け取った検出座標に5つの指先座標が含まれているか否かを確認する(S18)。すなわち、入力検出部13は、上記検出座標に、親指、人差し指、中指、薬指、及び小指の各指先の座標が含まれているか否かを確認する。   The input detection unit 13 that has received the detected coordinates checks whether or not the received detected coordinates include five fingertip coordinates (S18). That is, the input detection unit 13 confirms whether or not the detected coordinates include the coordinates of the fingertips of the thumb, index finger, middle finger, ring finger, and little finger.

ここで、5つの指先座標が含まれていることが確認されなかった場合(S18でNO)には、入力検出部13は、フラグが1であるか否かを確認する(S26)。ここでは、S11にてフラグが0に設定されているので、入力検出部13は、フラグが1ではないと判断し(S26でNO)、S14の処理に戻る。   Here, when it is not confirmed that five fingertip coordinates are included (NO in S18), the input detection unit 13 checks whether or not the flag is 1 (S26). Here, since the flag is set to 0 in S11, the input detection unit 13 determines that the flag is not 1 (NO in S26), and returns to the process of S14.

一方、5つの指先座標が含まれていることが確認された場合(S18でYES)には、入力検出部13は、タイマーがスタートしているか否かを確認する(S19)。そして、タイマーがスタートしている場合(S19でYES)には、これをストップ(S20)してS21の処理に進み、タイマーがスタートしていない場合(S19でNO)には、そのままS21の処理に進む。   On the other hand, when it is confirmed that five fingertip coordinates are included (YES in S18), the input detection unit 13 checks whether or not the timer is started (S19). If the timer has started (YES in S19), this is stopped (S20) and the process proceeds to S21. If the timer has not started (NO in S19), the process of S21 is continued. Proceed to

なお、このタイマーは、入力検出部13が指の接触状態が変化したことを検出した場合に、その接触状態の変化を入力操作と判断するか否かの判定に用いられるものである。なお、タイマーは、図1及び5には示していないが、入力検出部13が参照可能なように、入力装置1に設けられている。ここでは、タイマーがスタートされていないので、S19の次は、S21の処理に進む。   This timer is used to determine whether or not to determine that the change in the contact state is an input operation when the input detection unit 13 detects that the contact state of the finger has changed. Although not shown in FIGS. 1 and 5, the timer is provided in the input device 1 so that the input detection unit 13 can refer to it. Here, since the timer has not been started, the process proceeds to S21 after S19.

S21では、入力検出部13は、フラグが1であるか否かを確認する。ここでは、S11にてフラグが0に設定されているので、入力検出部13は、フラグが1ではないと判断し(S21でNO)、S22の処理に進む。   In S21, the input detection unit 13 checks whether or not the flag is 1. Here, since the flag is set to 0 in S11, the input detection unit 13 determines that the flag is not 1 (NO in S21), and proceeds to the process of S22.

そして、S22では、ボタン座標テーブル23に更新座標がセットされる。具体的には、入力検出部13は、画像解析部14に指示して、上記検出座標をボタン座標変更部15に送信させる。次に、指示を受けた画像解析部14は、上記検出座標をボタン座標変更部15に送る。そして、ボタン座標変更部15が、画像解析部14から受け取った検出座標を用いて、ボタン座標テーブル23の更新座標を更新することによって、ボタン座標テーブル23に更新座標がセットされる。   In S22, the updated coordinates are set in the button coordinate table 23. Specifically, the input detection unit 13 instructs the image analysis unit 14 to transmit the detected coordinates to the button coordinate change unit 15. Next, upon receiving the instruction, the image analysis unit 14 sends the detected coordinates to the button coordinate change unit 15. Then, the button coordinate changing unit 15 updates the updated coordinates in the button coordinate table 23 using the detected coordinates received from the image analyzing unit 14, whereby the updated coordinates are set in the button coordinate table 23.

ここで、ボタン表示部17は、ボタン座標テーブル23の更新座標が更新されると、該更新された更新座標を読み出し、読み出した初期座標または更新座標の位置にボタンイメージが配置されたコントロール画面データを生成し、生成したコントロール画面データを表示制御部16に出力し、表示パネル2に表示させる(S23)。   Here, when the updated coordinates of the button coordinate table 23 are updated, the button display unit 17 reads the updated updated coordinates, and the control screen data in which the button image is arranged at the position of the read initial coordinates or updated coordinates. And the generated control screen data is output to the display control unit 16 and displayed on the display panel 2 (S23).

そして、入力検出部13は、フラグを1に設定する。すなわち、5つの指先座標が検出され、検出された各指先座標に対応する位置にボタンイメージが配置されたコントロール画面データの表示指示が行われたときに、フラグが1に設定される。そして、フラグを1に設定した入力検出部13は、S14の処理に戻る。   Then, the input detection unit 13 sets the flag to 1. That is, five fingertip coordinates are detected, and the flag is set to 1 when an instruction to display control screen data in which a button image is arranged at a position corresponding to each detected fingertip coordinate is issued. And the input detection part 13 which set the flag to 1 returns to the process of S14.

なお、フラグは、表示パネル2に5本の指が接触しているときに1に設定されるようになっていればよく、フラグを1に設定するタイミングは図示の例に限られない。例えばS18にて5本の指が接触していると判断されたときにフラグを1に設定するようにしてもよい。   The flag only needs to be set to 1 when five fingers are in contact with the display panel 2, and the timing for setting the flag to 1 is not limited to the example illustrated. For example, the flag may be set to 1 when it is determined in S18 that five fingers are in contact.

さて、フラグが1に設定された状態にて、入力検出部13が5つの指先座標を検出した場合には、S15からS21の処理を経てS25の処理に移行する。S25では、入力検出部13は、入力操作を行った入力指が特定されているか否かを確認する。入力指の特定は、後述のS30にて行われるので、この段階では入力指は特定されていない。したがって、入力検出部13は、入力指は特定されていないと判断し(S25でNO)、S22の処理に戻る。   When the input detection unit 13 detects five fingertip coordinates with the flag set to 1, the process proceeds from S15 to S21 to S25. In S25, the input detection unit 13 confirms whether or not the input finger that has performed the input operation is specified. Since the input finger is specified in S30 described later, the input finger is not specified at this stage. Therefore, the input detection unit 13 determines that no input finger is specified (NO in S25), and returns to the process of S22.

S22及びS23では、上述のように、ボタン座標テーブル23に更新座標がセットされ、該更新座標に基づいてボタンイメージが表示される。すなわち、入力装置1では、ユーザが表示パネル2に5本の指を接触させた状態で、指の位置を移動させた場合には、指の位置に追従してボタンイメージの表示位置も移動するようになっている。これにより、入力操作中にユーザの指が移動した場合であっても、常に各指に対応するボタンイメージを適切な位置に表示させることができる。なお、この場合には、すでにフラグが1に設定されているので、入力検出部13はS24においてフラグの変更を行わず、S14の処理に戻る。   In S22 and S23, as described above, the updated coordinates are set in the button coordinate table 23, and the button image is displayed based on the updated coordinates. That is, in the input device 1, when the user moves the finger position with five fingers in contact with the display panel 2, the button image display position also moves following the finger position. It is like that. Thereby, even when the user's finger moves during the input operation, the button image corresponding to each finger can always be displayed at an appropriate position. In this case, since the flag is already set to 1, the input detection unit 13 does not change the flag in S24 and returns to the process of S14.

一方、フラグが1に設定された状態にて、入力検出部13が5つの指先座標を検出できなかった場合には、S18及びS26の処理を経てS27の処理に移行する。S27では、入力検出部13は、4つの指先座標を検出したか否かを確認する。フラグが1に設定されているということは、5つの指先座標が検出されたことを示しているので、S27では、検出された指先座標が5つから4つへと変化したか否かが確認されることになる。   On the other hand, when the flag is set to 1 and the input detection unit 13 cannot detect the five fingertip coordinates, the process proceeds to S27 through S18 and S26. In S27, the input detection unit 13 confirms whether or not four fingertip coordinates are detected. The fact that the flag is set to 1 indicates that five fingertip coordinates have been detected. Therefore, in S27, it is confirmed whether or not the detected fingertip coordinates have changed from five to four. Will be.

ここで、4つの指先座標の検出が確認できなかった場合(S27でNO)には、入力検出部13は、S14の処理に戻る。一方、4つの指先座標の検出が確認できた場合(S27でYES)には、入力検出部13は、タイマーをスタートさせる(S28)。すなわち、入力検出部13は、4つの指先座標を検出したとき(1本の指が非接触となった状態を検出したとき)に、タイマーをスタートさせる。   Here, if the detection of the four fingertip coordinates cannot be confirmed (NO in S27), the input detection unit 13 returns to the process of S14. On the other hand, when the detection of the four fingertip coordinates is confirmed (YES in S27), the input detection unit 13 starts a timer (S28). That is, the input detection unit 13 starts the timer when detecting four fingertip coordinates (when detecting a state where one finger is not in contact).

続いて、入力検出部13は、検出された上記4つの指先座標と、ボタン座標テーブル23に格納されている更新座標とを比較して、座標が得られない指を検出する(S29)。すなわち、S29では、5本の指のうち、何れの指が表示パネル2から離れたかが検出される。   Subsequently, the input detection unit 13 compares the detected four fingertip coordinates with the updated coordinates stored in the button coordinate table 23, and detects a finger for which no coordinate is obtained (S29). That is, in S29, it is detected which of the five fingers has been separated from the display panel 2.

そして、入力検出部13は、座標が得られない指、すなわち表示パネル2から離れた指を、入力操作を行った入力指として特定する(S30)。この後、処理は再びS14に戻り、画像の取り込みが行われる。   And the input detection part 13 specifies the finger | toe from which the coordinate was not obtained, ie, the finger | toe distant from the display panel 2, as the input finger which performed input operation (S30). Thereafter, the process returns to S14 again, and an image is captured.

ここで、上記取り込まれた画像が手の画像であり、5つの指先画像が検出された場合には、S15からS18の処理を経て、処理はS19に進む。そして、ここでは、S28においてタイマーがスタートされているので、処理はS20に進み、入力検出部13は、タイマーをストップする。   Here, when the captured image is a hand image and five fingertip images are detected, the process proceeds to S19 through S15 to S18. Here, since the timer is started in S28, the process proceeds to S20, and the input detection unit 13 stops the timer.

これにより、1本の指の非接触状態が検出されたとき(S27でYES)から、当該指が再度接触状態となったことが検出されたとき(S18でYES)までの時間が上記タイマーによって計測される。   Thereby, the time from when the non-contact state of one finger is detected (YES in S27) to when it is detected that the finger is again in contact (YES in S18) is determined by the timer. It is measured.

また、ここではフラグが1に設定されており、S30にて入力指が特定されているので、S21からS25の処理に進み、S25では、入力検出部13は、入力指が特定済みであると判断し(S25でYES)、S31の処理に進む。   Here, since the flag is set to 1 and the input finger is specified in S30, the process proceeds from S21 to S25. In S25, the input detection unit 13 determines that the input finger has been specified. Determination is made (YES in S25), and the process proceeds to S31.

S31では、入力検出部13は、上記タイマーにて計測された時間が、予め設定された所定の時間範囲内にあるか否かを確認する。ここで、上記タイマーにて計測された時間が上記所定時間範囲外である場合(S31でNO)には、入力検出部13は、S22の処理に戻る。一方、上記タイマーにて計測された時間が上記所定時間範囲内である場合(S31でYES)には、入力検出部13は、S32の処理に進む。   In S31, the input detection unit 13 confirms whether or not the time measured by the timer is within a predetermined time range set in advance. Here, when the time measured by the timer is outside the predetermined time range (NO in S31), the input detection unit 13 returns to the process of S22. On the other hand, when the time measured by the timer is within the predetermined time range (YES in S31), the input detection unit 13 proceeds to the process of S32.

S32では、周辺機器Pに対するコマンドの出力が行われる。具体的には、入力検出部13は、上記特定した入力指を示す入力指データを周辺機器制御部12に送る。そして、入力指データを受け取った周辺機器制御部12は、受け取った入力指データが示す入力指に対応付けられているコマンドをコマンドテーブル22から読み出して、該コマンドを実行させる周辺機器Pに送信する。   In S32, a command is output to the peripheral device P. Specifically, the input detection unit 13 sends input finger data indicating the specified input finger to the peripheral device control unit 12. Then, the peripheral device control unit 12 that has received the input finger data reads a command associated with the input finger indicated by the received input finger data from the command table 22 and transmits the command to the peripheral device P that executes the command. .

また、周辺機器制御部12は、コマンドを送信すると、その旨を入力検出部13に伝達し、伝達を受けた入力検出部13は、フラグを0に戻して(S33)、S14の処理に戻る。   In addition, when the peripheral device control unit 12 transmits a command, the peripheral device control unit 12 transmits the command to the input detection unit 13, and the input detection unit 13 that has received the notification returns the flag to 0 (S33) and returns to the processing of S14. .

なお、図13には示していないが、入力指が特定されたときには、特定された入力指に対応するボタンイメージの表示態様の変更を行う。具体的には、入力検出部13は、S32において、上記入力指データをボタン表示部17にも送信する。そして、ボタン表示部17は、上記入力指データで特定される指に対応するボタンイメージの表示態様を変化させたコントロール画面データを生成する。   Although not shown in FIG. 13, when the input finger is specified, the display mode of the button image corresponding to the specified input finger is changed. Specifically, the input detection unit 13 also transmits the input finger data to the button display unit 17 in S32. And the button display part 17 produces | generates the control screen data which changed the display mode of the button image corresponding to the finger | toe specified by the said input finger data.

これにより、入力装置1が入力操作を検出した指に対応するボタンイメージの表示態様が変化するので、ユーザは、自身の入力操作が入力装置1に正しく認識されたか否かを一目で認識することができる。   As a result, since the display mode of the button image corresponding to the finger whose input operation has been detected by the input device 1 changes, the user can recognize at a glance whether or not his input operation has been correctly recognized by the input device 1. Can do.

なお、ボタンイメージの表示態様の変化は、ユーザがその変化を視覚的に認識することができるものであればよく、例えば色、彩度、明度、サイズ、形状等を変化させてもよいし、表示するボタンイメージを別のボタンイメージに変えてもよい。また、図2(c)の例のように、ボタンイメージの色を反転させてもよい。さらに、車の運転中のように、表示パネル2を見ながら操作することが困難な場合にも対応できるように、選択されたコマンド(または、該コマンドにて実行される動作)を音声で出力するようにしてもよい。   The button image display mode may be changed as long as the user can visually recognize the change. For example, the color, saturation, brightness, size, shape, or the like may be changed. The button image to be displayed may be changed to another button image. Further, as in the example of FIG. 2C, the color of the button image may be reversed. Furthermore, the selected command (or the operation executed by the command) is output by voice so that it is possible to cope with the case where it is difficult to operate while looking at the display panel 2 such as during driving of the car. You may make it do.

以上のように、入力装置1では、ユーザが表示パネル2に接触させた5本の指の1本を表示パネル2から離したときに、入力指が決定され、ユーザが表示パネル2から離した上記の指を再度表示パネル2に接触させることによって、上記入力指に対応付けられたコマンドが周辺機器Pに送信される。   As described above, in the input device 1, when one of the five fingers brought into contact with the display panel 2 is released from the display panel 2, the input finger is determined and the user releases the display panel 2. By bringing the finger into contact with the display panel 2 again, the command associated with the input finger is transmitted to the peripheral device P.

したがって、ユーザは、従来のようにボタンの位置に指を合せる必要がなく、表示パネル2の任意の位置に触れるだけで周辺機器Pの操作を行うことができる。これは、例えば車の運転中のように、表示パネル2を見ずに周辺機器Pの操作を行うことが好ましいときに有用である。   Therefore, the user does not need to put his finger on the position of the button as in the past, and can operate the peripheral device P simply by touching an arbitrary position on the display panel 2. This is useful when it is preferable to operate the peripheral device P without looking at the display panel 2, for example, during driving of a car.

また、入力装置1では、以上のように、表示パネル2に接触させた各指に対応する位置に、当該指で入力操作を行ったときに実行されるコマンド(周辺機器Pの機能)が表示される。したがって、ユーザは、例えば車の停止中や、助手席に乗っているときには、液晶パネルの表示を見ながら確実に周辺機器Pの操作を行うこともできる。   Further, as described above, the input device 1 displays a command (function of the peripheral device P) that is executed when an input operation is performed with the finger at a position corresponding to each finger that is in contact with the display panel 2. Is done. Therefore, for example, when the vehicle is stopped or in the passenger seat, the user can reliably operate the peripheral device P while viewing the display on the liquid crystal panel.

さらに、入力装置1では、タイマーによって計測された、1本の指の非接触状態が検出されたときから、当該指が再度接触状態となったことが検出されたときまでの経過時間に基づいて、入力操作の有無が判断されるようにしている。すなわち、入力装置1では、上記経過時間が、予め定めた時間範囲内でない場合には、入力操作が行われなかったと判断される。   Furthermore, in the input device 1, based on the elapsed time from when the non-contact state of one finger measured by the timer is detected until it is detected that the finger is again in the contact state. The presence / absence of an input operation is determined. That is, in the input device 1, when the elapsed time is not within a predetermined time range, it is determined that an input operation has not been performed.

これにより、ユーザの意図しない入力操作が行われることを防ぐことができる。例えば、表示パネル2に接触状態にある手を移動させるときに生じる指の一瞬の浮きをボタン操作として誤認識する問題を回避することもできる。   Thereby, it can prevent that input operation which a user does not intend is performed. For example, it is possible to avoid the problem of erroneously recognizing a momentary lift of a finger that occurs when a hand in contact with the display panel 2 is moved as a button operation.

また、図13の例では、S18において5つの指先座標が検出されない限り、入力操作を受け付けないようにしている。つまり、ユーザは、5つの指先座標が検出されるように、手を表示パネル2に接触させることによって、入力操作を行うことが可能になる。   In the example of FIG. 13, the input operation is not accepted unless five fingertip coordinates are detected in S18. That is, the user can perform an input operation by bringing the hand into contact with the display panel 2 so that five fingertip coordinates are detected.

これは、入力装置1では、各指先座標(または各指先座標から所定距離だけずれた各位置)にボタンイメージを表示させるようになっており、ボタンイメージの数は最大で5つに設定されているためである。すなわち、5つの指先座標が検出された場合には、表示させるボタンイメージの数は、常に指先座標の数以下となるので、各ボタンイメージを各指先座標に対応する位置に確実に表示させることができる。   This is because the input device 1 displays button images at each fingertip coordinate (or each position shifted by a predetermined distance from each fingertip coordinate), and the maximum number of button images is set to five. Because it is. That is, when five fingertip coordinates are detected, the number of button images to be displayed is always less than or equal to the number of fingertip coordinates, so that each button image can be reliably displayed at a position corresponding to each fingertip coordinate. it can.

また、表示パネル2上におけるユーザの指先の位置が、互いに近接している場合には、ボタンイメージの表示位置に重なりが生じて、ユーザの視認性が低下する可能性がある。また、この場合には、入力操作を行った指の誤判定が生じてユーザの意図しない入力操作が行われる可能性もある。   Further, when the positions of the user's fingertips on the display panel 2 are close to each other, there is a possibility that the display position of the button image overlaps and the visibility of the user is lowered. Further, in this case, there is a possibility that an erroneous operation of the finger that has performed the input operation occurs and an input operation that is not intended by the user is performed.

しかしながら、5つの指先座標が検出された場合には、表示パネル2上におけるユーザの各指先の位置は、入力装置1が識別可能な程度に離れていることになる。指先位置の検出精度にもよるが、パターンマッチング等によって各指先の位置を特定することができる場合には、各指先の位置は十分に離れているので、上記のような問題は生じ難い。   However, when five fingertip coordinates are detected, the position of each fingertip of the user on the display panel 2 is separated to the extent that the input device 1 can be identified. Although depending on the detection accuracy of the fingertip position, when the position of each fingertip can be specified by pattern matching or the like, the positions of the fingertips are sufficiently separated from each other, and thus the above-described problems are unlikely to occur.

なお、上記の問題を確実に解消するために、例えば図13のS18において、5つの指先座標が検出された場合であっても、検出された指先座標に、隣接する指先座標との距離が所定値以下である指先座標が含まれているときには、5つの指先座標が検出されなかった(S18でNO)と判断するようにしてもよい。   In order to surely solve the above problem, for example, even when five fingertip coordinates are detected in S18 of FIG. 13, the distance between the detected fingertip coordinates and the adjacent fingertip coordinates is predetermined. When fingertip coordinates that are less than or equal to the value are included, it may be determined that five fingertip coordinates have not been detected (NO in S18).

〔入力操作の変形例〕
上記実施形態では、検出された指先の座標が5つから4つに変化したときに、入力指が決定され、そして検出された指先の座標が5つに戻ったときにコマンドが出力される例を示したが、入力指の決定は、指の接触/非接触の状態変化に基づいて行うものであればよく、この例に限られない。
[Modified example of input operation]
In the above embodiment, an example in which an input finger is determined when the detected fingertip coordinates change from five to four, and a command is output when the detected fingertip coordinates return to five. However, the determination of the input finger is not limited to this example as long as it is performed based on the change in the state of contact / non-contact of the finger.

例えば、指先の座標が5つから4つに、そしてまた5つに変化したときに、入力指が決定されると共にコマンドが出力されるようにしてもよい。また、例えば指先の座標が4つから3つに、そしてまた4つに変化したときに、入力指が決定されると共にコマンドが出力されるようにしてもよい。   For example, an input finger may be determined and a command may be output when the coordinates of the fingertip change from five to four and again five. Further, for example, when the coordinates of the fingertip are changed from four to three and again to four, the input finger may be determined and a command may be output.

すなわち、入力装置1は、表示パネル2に2本以上の指が接触している状態から、1本の指が非接触状態に変化したことを検出して、変化が検出された指を入力指と判断する構成とすることができる。また、入力装置1は、表示パネル2に2本以上の指が接触している状態から、1本の指が非接触状態に変化した後、再び接触状態に戻ったことを検出し、該検出した指を入力指として決定する構成としてもよい。そして、入力指を決定するタイミングとコマンドを出力するタイミングとは、同じであってもよいし、異なっていてもよい。   That is, the input device 1 detects that one finger has changed from a state in which two or more fingers are in contact with the display panel 2 to a non-contact state, and sets the detected finger to the input finger. It can be set as the structure judged. Further, the input device 1 detects that one finger has changed from a state in which two or more fingers are in contact with the display panel 2 to a non-contact state and then returned to the contact state, and the detection is performed. It is good also as a structure which determines the done finger as an input finger. And the timing which determines an input finger, and the timing which outputs a command may be the same, and may differ.

また、複数の指の接触状態を同時に変化させることによってコマンドが決定されるようにしてもよい。例えば、5本の指を表示パネル2に接触させた状態から、人差し指と親指とを表示パネル2から離し、再度人差し指と親指とを表示パネル2に接触させたときに、人差し指と親指との組み合わせに対して予め定義しておいたコマンドが出力されるようにしてもよい。これにより、より多彩な入力操作を行うことが可能になる。   Further, the command may be determined by simultaneously changing the contact state of a plurality of fingers. For example, when the index finger and the thumb are separated from the display panel 2 from the state in which five fingers are in contact with the display panel 2, and the index finger and the thumb are brought into contact with the display panel 2 again, the index finger and the thumb are combined. Alternatively, a previously defined command may be output. This makes it possible to perform more various input operations.

さらに、入力装置1では、指が接触状態から非接触状態に変化したことを検出したときにコマンドを出力するようにしてもよい。ただし、この場合には、ユーザが入力操作を終えて表示パネル2から手を離したときに、誤ってコマンドが生成される可能性がある。したがって、上記実施形態のように、非接触状態となった指が再び接触状態となったことを検出したときに入力指を決定することが好ましい。   Further, the input device 1 may output a command when it is detected that the finger has changed from the contact state to the non-contact state. However, in this case, when the user finishes the input operation and releases his / her hand from the display panel 2, there is a possibility that a command is generated by mistake. Therefore, it is preferable to determine the input finger when it is detected that the finger that has become in the non-contact state is in the contact state again as in the above embodiment.

また、上記実施形態では、入力操作を行った指の種別を判断して、各指に対応付けられたコマンドを生成する例について説明したが、指の種別を問わずにコマンドを割り当てるようにしてもよい。   In the above-described embodiment, the example of generating the command associated with each finger by determining the type of the finger that performed the input operation has been described. However, the command is assigned regardless of the finger type. Also good.

例えば、入力操作の対象となるコマンドが3種類である場合には、検出された指先座標のうち、右から3番目までの指先座標のそれぞれにコマンドを割り当てるようにしてもよい。この場合には、例えばユーザが右手の5つの指を表示パネル2に接触させたときには、親指、人差し指、及び中指のそれぞれにコマンドが割り当てられると共に、ユーザが右手の人差し指、中指、及び薬指を表示パネル2に接触させたときには、人差し指、中指、及び薬指のそれぞれにコマンドが割り当てられることになる。これによって、ユーザは、より多様な入力方法で入力操作を行うことができる。   For example, when there are three types of commands to be input, the commands may be assigned to the third fingertip coordinates from the right among the detected fingertip coordinates. In this case, for example, when the user touches the display panel 2 with five fingers of the right hand, commands are assigned to the thumb, index finger, and middle finger, and the user displays the index finger, middle finger, and ring finger of the right hand. When the panel 2 is brought into contact, commands are assigned to the index finger, the middle finger, and the ring finger, respectively. Accordingly, the user can perform an input operation by various input methods.

また、表示パネル2上の入力操作が行われた位置に応じてコマンドを生成してもよい。例えば、ユーザが表示パネル2に手を置いたときに、その手の位置、向き、大きさなどを検出して、該検出した位置、向き、大きさなどに応じた位置(例えば各指の指先)にボタンイメージを表示する。そして、表示されたボタンイメージにユーザが触れたときに、当該ボタンイメージに予め対応付けられたコマンドを生成するようにしてもよい。この場合には、表示パネル2に手を置いた後は、従来のタッチパネルと同様の入力操作が可能になる。つまり、ボタンイメージに触れる指がどの指であっても、当該ボタンイメージに予め対応付けられたコマンドが生成される。   Further, a command may be generated according to a position where an input operation on the display panel 2 is performed. For example, when the user places his / her hand on the display panel 2, the position, orientation, size, etc. of the hand are detected, and a position corresponding to the detected position, orientation, size, etc. (for example, the fingertip of each finger) ) Display the button image. Then, when the user touches the displayed button image, a command previously associated with the button image may be generated. In this case, after placing a hand on the display panel 2, an input operation similar to that of a conventional touch panel becomes possible. That is, regardless of the finger touching the button image, a command associated with the button image is generated.

これは、入力装置1を例えばキーボードのような複数の入力キーを備えた入力装置に適用する場合に好適である。すなわち、表示パネル2にユーザが手を置いたときに、置かれた手の位置及び大きさに応じた、ユーザが操作しやすい位置にボタンイメージを表示し、表示したボタンイメージに対する入力操作を受け付けることにより、ユーザは、手の大小や形状に関わらず、スムーズに入力操作を行うことが可能になる。   This is suitable when the input device 1 is applied to an input device having a plurality of input keys such as a keyboard. That is, when the user places his / her hand on the display panel 2, a button image is displayed at a position that is easy for the user to operate according to the position and size of the placed hand, and an input operation on the displayed button image is accepted. Thus, the user can smoothly perform an input operation regardless of the size or shape of the hand.

さらに、上記実施形態では、手を表示パネル2に載置した後で入力操作を行う例について説明したが、これに加えて従来のタッチパネルと同様の操作入力も行うことができるようにしてもよい。   Further, in the above-described embodiment, an example in which an input operation is performed after the hand is placed on the display panel 2 has been described. In addition, an operation input similar to that of a conventional touch panel may be performed. .

すなわち、初期座標に表示されているボタンイメージに対して接触があったことを検知した場合に、当該ボタンイメージに対応付けられているコマンドを送信するようにしてもよい。例えば、図2(a)の状態でボタンイメージa〜eをタイレクトタッチすることで、そのボタンイメージに定義されたコマンドを出力するようにしてもよい。これにより、ユーザは、従来のタッチパネルと同じ操作方法で入力操作を行うことも可能となり、運転中でない場合に、表示パネル2を見ながら、従来から使い慣れた操作方法でスムーズに入力操作を行うことも可能になる。   That is, when it is detected that the button image displayed at the initial coordinates is touched, a command associated with the button image may be transmitted. For example, the command defined in the button image may be output by performing a tile touch on the button images a to e in the state of FIG. As a result, the user can perform an input operation with the same operation method as a conventional touch panel, and smoothly perform an input operation with an operation method that is conventionally used while viewing the display panel 2 when the user is not driving. Will also be possible.

〔入力操作の検出方法の変形例〕
上記実施形態では、表示パネル2に対する指の接触/非接触を画像取得部3が取得した画像に基づいて判断する例を示したが、入力装置1では、どの指で操作が行われたかを判断することができればよく、この例に限られない。
[Modification of input operation detection method]
In the above-described embodiment, an example in which contact / non-contact of the finger with respect to the display panel 2 is determined based on an image acquired by the image acquisition unit 3 has been described, but the input device 1 determines which finger has been operated. This is not limited to this example.

例えば、液晶表示パネルやEL表示パネル、プラズマ表示パネル等のような任意の表示装置の背後に赤外線カメラを設け、表示装置越しにユーザの指を撮像して得た画像に基づいて指の接触/非接触を判断するようにしてもよい。また、例えば、感圧センサや温度センサ等のセンサを用いて、表示パネル2に対する指の接触/非接触を判断することもできる。   For example, an infrared camera is provided behind an arbitrary display device such as a liquid crystal display panel, an EL display panel, a plasma display panel, and the like. You may make it judge non-contact. Further, for example, it is possible to determine contact / non-contact of the finger with respect to the display panel 2 using a sensor such as a pressure sensor or a temperature sensor.

〔ユーザ認証〕
入力装置1では、画像取得部3が取得した画像を利用してユーザ認証を行うようにしてもよい。例えば、予め取得したユーザの指紋や掌紋と、画像取得部3が取得した画像との照合を行うことによってユーザ認証を行うことができる。これにより、周辺機器Pの入力操作における制限をユーザ毎に設定することも可能になる。
[User authentication]
In the input device 1, user authentication may be performed using the image acquired by the image acquisition unit 3. For example, user authentication can be performed by collating a fingerprint or palm print of a user acquired in advance with an image acquired by the image acquisition unit 3. As a result, it is possible to set restrictions on the input operation of the peripheral device P for each user.

例えば、カーナビ機能の入力操作については父母のみが可能とし、それ以外の機能は子供でも操作可能とすることもできる。これにより、子供がカーナビ機能を操作して、父母の運転が妨げられることを防ぐことができる。また、子供が表示パネル2に触れた場合には、子供の手に合せた位置にボタンイメージが表示され、その手の位置で入力操作を行うことができるので、子供であっても簡単に入力操作を行うことができる。したがって、ユーザが子供であっても、例えばオーディオ機器を操作して、好きな音楽を再生することも十分に可能である。   For example, only the parents can perform the input operation of the car navigation function, and other functions can be operated by the child. Thereby, it can prevent that a child operates a car navigation function and a driving | operation of parents is prevented. In addition, when a child touches the display panel 2, a button image is displayed at a position that matches the child's hand, and input operations can be performed at the position of the hand, so even a child can input easily. The operation can be performed. Therefore, even if the user is a child, it is possible to play back favorite music by operating an audio device, for example.

また、例えばパソコンやATM(Automatic Teller Machine)等の電子機器の入力装置として入力装置1を適用した場合には、パスワードの入力や指紋等の読み取りといった特別な動作を行うことなくユーザの認証を行い、認証に成功した場合のみ入力操作を有効にすることも可能になる。   For example, when the input device 1 is applied as an input device of an electronic device such as a personal computer or an ATM (Automatic Teller Machine), the user is authenticated without performing a special operation such as inputting a password or reading a fingerprint. The input operation can be validated only when the authentication is successful.

さらに、手の大きさに応じて入力操作を制限することもできる。例えば、手の大きさが所定より小さい場合には、入力操作を受け付けないようにすることにより、子供が電子機器を誤って操作してしまうことを防ぐことができる。   Furthermore, the input operation can be limited according to the size of the hand. For example, when the size of the hand is smaller than a predetermined size, it is possible to prevent the child from operating the electronic device by mistake by not accepting the input operation.

本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope shown in the claims. That is, embodiments obtained by combining technical means appropriately modified within the scope of the claims are also included in the technical scope of the present invention.

本発明の入力装置によれば、表示パネルに触れるだけで容易に入力操作を行うことができるので、指で触れて入力操作を行う任意の入力装置に適用することができる。   According to the input device of the present invention, an input operation can be easily performed simply by touching the display panel. Therefore, the input device can be applied to any input device that performs an input operation by touching with a finger.

本発明の実施形態を示すものであり、入力装置の要部構成を示すブロック図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 illustrates an embodiment of the present invention and is a block diagram illustrating a configuration of a main part of an input device. 上記入力装置の動作の一例を示す図である。It is a figure which shows an example of operation | movement of the said input device. 上記入力装置の動作の上記とは別の例を示す図である。It is a figure which shows an example different from the above of the operation | movement of the said input device. 上記入力装置を車載機器の入力装置として適用した場合の外観の一例を示す図である。It is a figure which shows an example of the external appearance at the time of applying the said input device as an input device of vehicle equipment. 上記入力装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the said input device. 上記入力装置が備える表示パネル及び画像取得部の構成及び機能の概略を示す図である。It is a figure which shows the outline of a structure and function of a display panel with which the said input device is provided, and an image acquisition part. 上記入力装置が備える画像取得部が取得する画像の一例を示す図である。It is a figure which shows an example of the image which the image acquisition part with which the said input device is provided. 指先の間隔に基づいて、左手か右手かを判断する方法を説明する図である。It is a figure explaining the method of judging whether it is a left hand or a right hand based on the space | interval of a fingertip. 上記入力装置が備えるコマンドテーブルの一例を示す図である。It is a figure which shows an example of the command table with which the said input device is provided. 上記入力装置が備えるボタン座標テーブルの一例を示す図である。It is a figure which shows an example of the button coordinate table with which the said input device is provided. 上記入力装置が備える表示パネル上に設定される座標、及び該表示パネル2上に表示されるボタンイメージの表示位置を示す図である。FIG. 4 is a diagram illustrating coordinates set on a display panel included in the input device and display positions of button images displayed on the display panel 2. 上記入力装置の起動からコントロールモードまでの処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process from starting of the said input device to control mode. 上記コントロールモードにおいて上記入力装置が実行する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which the said input device performs in the said control mode.

符号の説明Explanation of symbols

1 入力装置
2 表示パネル
3 画像取得部(撮像部)
11 制御部
13 入力検出部(入力検出手段、入力信号生成手段)
14 画像解析部(接触検出手段、種別判別手段)
15 ボタン座標変更部
17 ボタン表示部(表示手段)
22 コマンドテーブル
DESCRIPTION OF SYMBOLS 1 Input device 2 Display panel 3 Image acquisition part (imaging part)
11 Control Unit 13 Input Detection Unit (Input Detection Unit, Input Signal Generation Unit)
14 Image analysis unit (contact detection means, type discrimination means)
15 Button coordinate change part 17 Button display part (display means)
22 Command table

Claims (4)

入力操作を受け付ける入力面の複数箇所に対する接触をそれぞれ識別して検出し、該検出の結果に応じた入力信号を生成する入力装置であって、
上記入力面に複数の指のそれぞれが接触していることを検出する接触検出手段と、
上記接触検出手段によって上記入力面に接触していると検出された指のうち、少なくとも1つの指の接触から非接触への状態変化を検出して入力信号を生成する入力検出手段とを備え
上記接触検出手段は、上記入力面に接触している各指の種別を判別し、
上記入力検出手段は、上記接触検出手段の判別結果に基づいて、接触から非接触への状態変化を検出した指の種別に応じた入力信号を生成し、
指の種別に応じた上記入力信号が生成されたときに、該入力信号と、動作実行装置に所定の動作を実行させる命令とが対応付けられた、指−命令対応情報に基づいて、上記入力信号に対応する命令を、上記動作実行装置に送信する装置制御手段を備え、
上記接触検出手段は、上記入力面に接触している指が、右手または左手の何れの指であるかを判別し、
上記入力検出手段は、上記接触検出手段の判別結果に基づいて、接触から非接触への状態変化を検出した指が右手または左手の何指であるかに応じた入力信号を生成し、
上記装置制御手段は、右手または左手の各指の種別に応じた上記入力信号が生成されたときに、該入力信号と、動作実行装置に所定の動作を実行させる命令とが対応付けられた、指−命令対応情報に基づいて、上記入力信号に対応する命令を、上記動作実行装置に送信し、
上記指−命令対応情報に基づいて各指に対応する命令を抽出し、上記接触検出手段が検出した各指の位置に、当該指に対応する命令、または該命令によって動作実行装置が実行する動作を示す情報を表示する表示手段を備え、
上記装置制御手段は、上記入力検出手段が、指の接触から非接触への状態変化を検出した後、当該指が再度上記入力面に接触したことを検出したときに上記命令の送信を行い、
上記入力面上の物体を画像データとして取り込む撮像部を備え、
上記接触検出手段は、上記撮像部が取り込んだ画像データに基づいて上記入力面に複数の指のそれぞれが接触していることを検出し、
上記撮像部は、光センサ内蔵液晶表示装置で構成されており、
上記入力面は、上記光センサ内蔵液晶表示装置の表示面であり、
上記表示手段は、予め定められた位置に予め表示させた、指に対応する命令、または該命令によって動作実行装置が実行する動作を示す上記情報を、上記接触検出手段が上記入力面への指の接触を検出したときに、該接触検出手段が検出した各指の位置に表示することを特徴とする入力装置。
An input device that identifies and detects contact with each of a plurality of locations on an input surface that receives an input operation, and generates an input signal according to the detection result,
Contact detecting means for detecting that each of a plurality of fingers is in contact with the input surface;
Of the fingers detected as being in contact with the input surface by the contact detection means, the input detection means for detecting a state change from contact to non-contact of at least one finger to generate an input signal ,
The contact detection means determines the type of each finger in contact with the input surface;
The input detection means generates an input signal according to the type of the finger that has detected the state change from contact to non-contact based on the determination result of the contact detection means,
When the input signal corresponding to the type of the finger is generated, the input signal is input based on the finger-command correspondence information in which the command for causing the motion execution device to execute a predetermined motion is associated with the input signal. Device control means for transmitting a command corresponding to the signal to the operation execution device,
The contact detection means determines whether the finger in contact with the input surface is a right hand or a left hand,
The input detection unit generates an input signal according to how many fingers of the right hand or the left hand are detected based on the determination result of the contact detection unit,
When the input signal corresponding to the type of each finger of the right hand or the left hand is generated, the device control means is associated with the input signal and a command for causing the operation execution device to execute a predetermined operation. Based on the finger-command correspondence information, a command corresponding to the input signal is transmitted to the operation execution device,
A command corresponding to each finger is extracted based on the finger-command corresponding information, and the command corresponding to the finger or the operation executed by the motion execution device according to the command is detected at the position of each finger detected by the contact detection means. Display means for displaying information indicating
The device control means transmits the command when the input detection means detects that the finger is in contact with the input surface again after detecting the change in state from contact to non-contact of the finger,
An imaging unit that captures an object on the input surface as image data,
The contact detection means detects that each of a plurality of fingers is in contact with the input surface based on image data captured by the imaging unit,
The imaging unit is composed of a liquid crystal display device with a built-in optical sensor,
The input surface is a display surface of the optical sensor built-in liquid crystal display device,
The display means displays a command corresponding to a finger, which is displayed in advance at a predetermined position, or the information indicating the operation performed by the motion execution device according to the command. An input device characterized in that when the contact is detected, it is displayed at the position of each finger detected by the contact detection means .
上記表示手段が各指の位置に表示した、指に対応する命令、または該命令によって動作実行装置が実行する動作を示す上記情報の表示位置を、上記接触検出手段が検出する接触位置に応じて更新する手段を備えていることを特徴とする請求項1に記載の入力装置。 According to the contact position detected by the contact detection means, the display position of the information displayed on the position of each finger by the display means, or the display position of the information indicating the operation executed by the action execution device according to the instruction. The input device according to claim 1, further comprising means for updating . 上記入力検出手段は、上記接触検出手段が、親指、人差し指、中指、薬指、及び小指の5つの指が接触していることを検出した場合に限り、入力信号を生成することを特徴とする請求項1または2に記載の入力装置。 The input detection means generates an input signal only when the contact detection means detects that five fingers of the thumb, index finger, middle finger, ring finger, and little finger are in contact with each other. Item 3. The input device according to Item 1 or 2. 上記表示手段は、予め定められた位置に表示されている、指に対応する命令、または該命令によって動作実行装置が実行する動作を示す上記情報のうち、現在操作可能な機能に対応する情報を、上記接触検出手段が検出した各指の位置に表示することを特徴とする請求項1からの何れか1項に記載の入力装置。 The display means displays information corresponding to a function that can be operated at present, out of the information corresponding to a finger displayed at a predetermined position or the information indicating the operation executed by the operation execution device according to the instruction. the input device according to any one of claims 1 to 3, characterized in that to display the position of each finger where the contact detecting means has detected.
JP2008151597A 2008-06-10 2008-06-10 Input device and control method of input device Expired - Fee Related JP5172485B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008151597A JP5172485B2 (en) 2008-06-10 2008-06-10 Input device and control method of input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008151597A JP5172485B2 (en) 2008-06-10 2008-06-10 Input device and control method of input device

Publications (2)

Publication Number Publication Date
JP2009301094A JP2009301094A (en) 2009-12-24
JP5172485B2 true JP5172485B2 (en) 2013-03-27

Family

ID=41547964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008151597A Expired - Fee Related JP5172485B2 (en) 2008-06-10 2008-06-10 Input device and control method of input device

Country Status (1)

Country Link
JP (1) JP5172485B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107203320A (en) * 2016-03-18 2017-09-26 大陆汽车投资(上海)有限公司 User interface control method based on multiple point touching

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9983700B2 (en) 2011-07-14 2018-05-29 Nec Corporation Input device, image display method, and program for reliable designation of icons
JP5666546B2 (en) * 2011-12-15 2015-02-12 株式会社東芝 Information processing apparatus and image display program
JP5994991B2 (en) * 2012-01-24 2016-09-21 パナソニックIpマネジメント株式会社 Electronics
WO2014045953A1 (en) * 2012-09-20 2014-03-27 ソニー株式会社 Information processing device and method, and program
JP5802234B2 (en) * 2013-03-28 2015-10-28 京セラドキュメントソリューションズ株式会社 INPUT DEVICE, INPUT METHOD, AND ELECTRONIC DEVICE
JP6331022B2 (en) * 2013-09-27 2018-05-30 パナソニックIpマネジメント株式会社 Display device, display control method, and display control program
CN103699882A (en) 2013-12-17 2014-04-02 百度在线网络技术(北京)有限公司 Method and device for generating personalized input panel
JP2015170102A (en) * 2014-03-06 2015-09-28 トヨタ自動車株式会社 Information processor
JP2015172799A (en) * 2014-03-11 2015-10-01 アルプス電気株式会社 touch operation input device
JP6341294B2 (en) 2014-12-05 2018-06-13 富士通株式会社 Tactile sensation providing system and tactile sensation providing apparatus
JP6043820B2 (en) * 2015-02-05 2016-12-14 京セラドキュメントソリューションズ株式会社 Display input device and image forming apparatus having the same
JPWO2017047180A1 (en) * 2015-09-18 2018-07-05 ソニー株式会社 Information processing apparatus, information processing method, and program
JP6739864B2 (en) * 2016-04-05 2020-08-12 マレリ株式会社 In-vehicle information processing system
KR101923042B1 (en) 2017-02-13 2018-11-28 한서대학교 산학협력단 Touch Steering Wheel Based Vehicle Control System Using Electro active Polymer
JP2022021537A (en) 2020-07-22 2022-02-03 株式会社日立製作所 Biometric authentication device and biometric authentication method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4258836B2 (en) * 2002-06-03 2009-04-30 富士ゼロックス株式会社 Function control apparatus and method
EP1865404A4 (en) * 2005-03-28 2012-09-05 Panasonic Corp User interface system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107203320A (en) * 2016-03-18 2017-09-26 大陆汽车投资(上海)有限公司 User interface control method based on multiple point touching

Also Published As

Publication number Publication date
JP2009301094A (en) 2009-12-24

Similar Documents

Publication Publication Date Title
JP5172485B2 (en) Input device and control method of input device
EP2881878B1 (en) Vehicle control by means of gestural input on external or internal surface
EP3237256B1 (en) Controlling a vehicle
EP2876529B1 (en) Unlocking mobile device with various patterns on black screen
US8532871B2 (en) Multi-modal vehicle operating device
KR101561917B1 (en) Vehicle control apparatus and method thereof
US9411424B2 (en) Input device for operating graphical user interface
JP7061465B2 (en) Operation methods, devices, and mobile devices that use fingerprint recognition
KR102214974B1 (en) Apparatus and method for fulfilling functions related to user input of note-taking pattern on lock screen
US7810050B2 (en) User interface system
KR101459441B1 (en) System and method for providing a user interface using finger start points shape recognition in a vehicle
JP5275970B2 (en) Interactive operating device and method for operating interactive operating device
US9740297B2 (en) Motion-based character selection
US20070052686A1 (en) Input device
KR101292719B1 (en) Side touch interface device and method
US20040196400A1 (en) Digital camera user interface using hand gestures
JP2005174356A (en) Direction detection method
US20150186037A1 (en) Information processing device, information processing device control method, control program, and computer-readable recording medium
JP5750687B2 (en) Gesture input device for car navigation
JP2011198000A (en) Touch-panel input device
KR101542502B1 (en) Vehicle control apparatus and method thereof
JP2005135439A (en) Operation input device
WO2007010704A1 (en) Electronic blackboard device, method for adjusting write position of electronic blackboard device, and program for adjusting write position
KR101047420B1 (en) Control device of on-vehicle device
CN110850975B (en) Electronic system with palm recognition, vehicle and operation method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120423

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121226

LAPS Cancellation because of no payment of annual fees