JP2010067217A - Input device and input method - Google Patents

Input device and input method Download PDF

Info

Publication number
JP2010067217A
JP2010067217A JP2008235483A JP2008235483A JP2010067217A JP 2010067217 A JP2010067217 A JP 2010067217A JP 2008235483 A JP2008235483 A JP 2008235483A JP 2008235483 A JP2008235483 A JP 2008235483A JP 2010067217 A JP2010067217 A JP 2010067217A
Authority
JP
Japan
Prior art keywords
hand
user
contact area
fingertip position
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008235483A
Other languages
Japanese (ja)
Other versions
JP5027084B2 (en
Inventor
Tomohiro Terada
智裕 寺田
Atsushi Yamashita
敦士 山下
Takuya Hirai
卓哉 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2008235483A priority Critical patent/JP5027084B2/en
Publication of JP2010067217A publication Critical patent/JP2010067217A/en
Application granted granted Critical
Publication of JP5027084B2 publication Critical patent/JP5027084B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G21NUCLEAR PHYSICS; NUCLEAR ENGINEERING
    • G21CNUCLEAR REACTORS
    • G21C19/00Arrangements for treating, for handling, or for facilitating the handling of, fuel or other materials which are used within the reactor, e.g. within its pressure vessel
    • G21C19/02Details of handling arrangements
    • G21C19/06Magazines for holding fuel elements or control elements
    • G21C19/07Storage racks; Storage pools
    • GPHYSICS
    • G21NUCLEAR PHYSICS; NUCLEAR ENGINEERING
    • G21CNUCLEAR REACTORS
    • G21C19/00Arrangements for treating, for handling, or for facilitating the handling of, fuel or other materials which are used within the reactor, e.g. within its pressure vessel
    • G21C19/02Details of handling arrangements
    • G21C19/10Lifting devices or pulling devices adapted for co-operation with fuel elements or with control elements
    • GPHYSICS
    • G21NUCLEAR PHYSICS; NUCLEAR ENGINEERING
    • G21CNUCLEAR REACTORS
    • G21C19/00Arrangements for treating, for handling, or for facilitating the handling of, fuel or other materials which are used within the reactor, e.g. within its pressure vessel
    • G21C19/19Reactor parts specifically adapted to facilitate handling, e.g. to facilitate charging or discharging of fuel elements

Abstract

<P>PROBLEM TO BE SOLVED: To provide an input device having a plurality of buttons which can be easily operated by corresponding fingers. <P>SOLUTION: A hand image data holding part 23 holds hand image data. A GUI part holding part 24 holds a plurality of GUI parts. A contact area detection part 1 has an operation surface and detects a contact area between the operation surface and a hand of a user. A position coordinate data creation part 21, based on the contact area detected by the contact area detection part 1, creates fingertip position points showing a current contact finger of the user's hand. A fingertip position specification part 22 determines whether there are a plurality of fingertip position points. When there are a predetermined number of fingertip position points, a superimposed image creation part 25 creates an operation image by superimposing the predetermined number of GUI parts on the hand data to be displayed on a display part 3. When any one of a plurality of fingertip position points is tapped, an operation content determination part 26 determines operation content. A command transmission part 27 converts a the operation content determined by the operation content determination part 26 into a command and transmits it to an apparatus 4 to be operated. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、ユーザが機器に対して命令等を入力するための入力装置及び入力方法に関し、より特定的には、ユーザがディスプレイ等に表示された情報に基づいて手等の身体部分を用いて、命令等を入力できる入力装置及び入力方法に関する。   The present invention relates to an input device and an input method for a user to input a command or the like to a device, and more specifically, using a body part such as a hand based on information displayed on a display or the like by a user. The present invention relates to an input device and an input method capable of inputting commands and the like.

近年の情報機器端末の多機能化に伴って、ユーザがより使い易いユーザインターフェイスが求められている。使い易いユーザインターフェイスの一例として、タッチパネルディスプレイがある。タッチパネルディスプレイは、ディスプレイに表示されるGUI(Graphical User Interface)パーツを手で押す操作をすることによって、ユーザが命令等を情報機器端末等に入力する装置である。このことから、タッチパネルディスプレイは、初心者でも直感的に操作できるインターフェイスと言える。   With the recent increase in functionality of information equipment terminals, user interfaces that are easier for users to use are required. An example of an easy-to-use user interface is a touch panel display. A touch panel display is a device in which a user inputs a command or the like to an information device terminal or the like by manually pushing a GUI (Graphical User Interface) part displayed on the display. From this, it can be said that the touch panel display is an interface that even a beginner can operate intuitively.

しかし、タッチパネルディスプレイにおいては、ユーザのタッチを検知するデバイス(以下、入力部という)と表示部とが一体であるので、タッチパネルディスプレイがユーザの手元にないと操作できないという課題があった。   However, in a touch panel display, since a device (hereinafter referred to as an input unit) that detects a user's touch and a display unit are integrated, there is a problem that the touch panel display cannot be operated without the user's hand.

この課題を解決するために、入力部と表示部とを分離して、入力部をユーザの手元に配置する入力装置が開示されている(例えば、特許文献1〜3)。特許文献1に開示の従来の入力装置は、入力部と表示部とを分離して、入力部に置かれたユーザの手をカメラで撮像して、当該撮像したユーザの手を表示部のGUIに重畳して表示する。図13は、特許文献1に開示の従来の入力装置を説明する図である。図13において、従来の入力装置は、カメラ51で撮像したユーザの手52を表示部53に表示する際、操作指の移動に応じて生成されるXY座標情報に基づいて、画面上に表示させる手画像55の位置を移動させる。すなわち、画面上に表示された選択メニュー54のボタンに対応する入力部50の操作面上の位置に手を移動させ、所望のボタンに対応する操作面上の位置をタッチすることで、どのGUIボタンが押されたかを認識する。   In order to solve this problem, an input device is disclosed in which an input unit and a display unit are separated and the input unit is arranged at the user's hand (for example, Patent Documents 1 to 3). The conventional input device disclosed in Patent Literature 1 separates an input unit and a display unit, images a user's hand placed on the input unit with a camera, and displays the captured user's hand on the GUI of the display unit. Superimposed on the display. FIG. 13 is a diagram for explaining a conventional input device disclosed in Patent Document 1. In FIG. In FIG. 13, when the conventional input device displays the user's hand 52 imaged by the camera 51 on the display unit 53, it is displayed on the screen based on the XY coordinate information generated according to the movement of the operating finger. The position of the hand image 55 is moved. That is, by moving the hand to the position on the operation surface of the input unit 50 corresponding to the button of the selection menu 54 displayed on the screen and touching the position on the operation surface corresponding to the desired button, which GUI Recognize whether the button was pressed.

また、特許文献2に開示の従来の入力装置は、入力部と表示部とを分離して、入力部に置かれたユーザの手を検知し、コンピュータグラフィック(以下、CGという)の手形状モデルを、表示部のGUIに重畳して表示する。図14は、特許文献2に開示の従来の入力装置を説明する図である。図14において、従来の入力装置は、ユーザの手65と操作面との複数の接触位置とを同時に取得できる入力部64(タッチパネル)を用いて検知したユーザの手65の指先位置や掌位置に基づいて、CGによって手形状モデル66を復元している。そして、復元した手形状モデル66をGUI63に重畳して表示する際には、特許文献1と同様に、入力部64の操作面上のユーザの手65の位置に基づいて、表示部62に表示させる手形状モデル66の位置を移動させる。   Also, the conventional input device disclosed in Patent Document 2 separates the input unit and the display unit, detects the user's hand placed on the input unit, and forms a computer graphic (hereinafter referred to as CG) hand shape model. Are superimposed on the GUI of the display unit and displayed. FIG. 14 is a diagram for explaining a conventional input device disclosed in Patent Document 2. In FIG. In FIG. 14, the conventional input device detects the fingertip position and palm position of the user's hand 65 detected using the input unit 64 (touch panel) that can simultaneously acquire a plurality of contact positions of the user's hand 65 and the operation surface. Based on this, the hand shape model 66 is restored by CG. When the restored hand shape model 66 is superimposed on the GUI 63 and displayed, it is displayed on the display unit 62 based on the position of the user's hand 65 on the operation surface of the input unit 64 as in Patent Document 1. The position of the hand shape model 66 to be moved is moved.

また、特許文献3に開示の従来の入力装置は、入力部と表示部とを分離して、入力部に置かれたユーザの手をカメラで撮像して、当該撮像したユーザの手画像を表示部のGUIに重畳して表示する。この際、GUIの選択メニューの各ボタンとユーザの手の各指とを対応させて、入力部のユーザの手の移動に合わせて、表示部のGUIの表示を変更する。図15は、特許文献3に開示の従来の入力装置を説明する図である。図15(a)において、従来の入力装置は、選択メニューのボタンC1〜C5を各指P1〜P5に割り当て、ユーザの手画像71の移動と共に指先に割り当てたボタンC1〜C5を移動する。あるいは、図15(b)において、従来の入力装置は、予め画面デザインにより配置が決められている選択メニューのボタンC1〜C5と、手画像71の各指先P1〜P5とを結ぶ線L1〜L5を表示する。これらの従来の入力装置によれば、ユーザは、入力部が表示部から離れている場合でも、タッチパネルディスプレイの直感的な操作感を維持した操作を行うことができる。
特開平10−269012号公報(第19頁、第6図、第7図) 特開2006−72854号公報 国際公開第06/104132号パンフレット
Further, the conventional input device disclosed in Patent Document 3 separates the input unit and the display unit, images the user's hand placed on the input unit with a camera, and displays the captured user's hand image And superimposed on the GUI of the part. At this time, each button of the GUI selection menu is associated with each finger of the user's hand, and the GUI display on the display unit is changed in accordance with the movement of the user's hand in the input unit. FIG. 15 is a diagram for explaining a conventional input device disclosed in Patent Document 3. In FIG. In FIG. 15A, the conventional input device assigns the buttons C1 to C5 of the selection menu to the fingers P1 to P5, and moves the buttons C1 to C5 assigned to the fingertips together with the movement of the hand image 71 of the user. Alternatively, in FIG. 15B, the conventional input device has lines L1 to L5 connecting the buttons C1 to C5 of the selection menu whose arrangement is determined in advance by the screen design and the fingertips P1 to P5 of the hand image 71. Is displayed. According to these conventional input devices, even when the input unit is away from the display unit, the user can perform an operation while maintaining the intuitive operation feeling of the touch panel display.
Japanese Patent Laid-Open No. 10-269012 (page 19, FIG. 6, FIG. 7) JP 2006-72854 A WO 06/104132 pamphlet

しかしながら、特許文献1に記載の従来の入力装置においては、表示部53上の選択メニュー54の位置と、選択メニュー54に対応する入力部50の操作面上のタッチ位置とが1対1に対応している。このため、ユーザは、予め画面デザインにより配置が決められている選択メニュー54のボタンの位置に合わせて手を動かす必要があった。すなわち、ユーザは、表示部53上の選択メニュー54と手画像55との位置関係を確認しながら、入力部50を操作して、予め配置が決められた選択メニュー54の位置まで手画像55を動かさなければならず、意識を表示部53及び入力部50に集中する必要があった。また、配置が決められた複数の選択メニュー54のボタンを、ユーザの各指に割り当てようとすると、操作面上に置く手の指の間隔や位置をボタンの配置に合わせて変える必要があり、操作が煩わしかった。   However, in the conventional input device described in Patent Document 1, there is a one-to-one correspondence between the position of the selection menu 54 on the display unit 53 and the touch position on the operation surface of the input unit 50 corresponding to the selection menu 54. is doing. For this reason, the user has to move his / her hand according to the position of the button of the selection menu 54 whose arrangement is determined in advance by the screen design. That is, the user operates the input unit 50 while confirming the positional relationship between the selection menu 54 and the hand image 55 on the display unit 53, and moves the hand image 55 to the position of the selection menu 54 that has been previously arranged. It was necessary to move the consciousness to the display unit 53 and the input unit 50. Further, when trying to assign a plurality of buttons of the selection menu 54 determined to be arranged to each finger of the user, it is necessary to change the interval and position of the finger of the hand placed on the operation surface in accordance with the arrangement of the buttons. The operation was troublesome.

また、特許文献2に記載の従来の入力装置も、表示部62上の選択メニュー63の位置と、選択メニュー63に対応する入力部64の操作面上のタッチ位置とが1対1に対応しているため、特許文献1と同様の課題があった。   Also, in the conventional input device described in Patent Document 2, the position of the selection menu 63 on the display unit 62 and the touch position on the operation surface of the input unit 64 corresponding to the selection menu 63 correspond one-to-one. Therefore, there is a problem similar to that of Patent Document 1.

また、特許文献3に記載の従来の入力装置おいては、図15(a)に示すように、手71の移動と共に指先P1〜P5に割り当てたボタンC1〜C5を移動する場合は、予め画面デザインによりボタンC1〜C5の配置を決めることができず、ユーザにとって必ずしもボタンC1〜C5の配置が見やすいとは限らなかった。また、ユーザが手71を操作面上に置いた状態でボタンC1〜C5が表示されるので、ユーザが手71を常に操作面上に置かなければ選択メニューのボタンC1〜C5が分らないという課題があった。また、図15(b)に示すように、選択メニューのボタンC1〜C5と、手71の各指先P1〜P5とを結ぶ線L1〜L5を表示する場合も、線L1〜L5の表示により画面デザインを損なう可能性があった。また、手71の位置によっては、線L1〜L5同士が重なり、手71の各指先P1〜P5とボタンC1〜C5との対応関係が分かりづらいという課題があった。   Further, in the conventional input device described in Patent Document 3, as shown in FIG. 15A, when the buttons C1 to C5 assigned to the fingertips P1 to P5 are moved together with the movement of the hand 71, a screen is displayed in advance. The arrangement of the buttons C1 to C5 cannot be determined by the design, and the arrangement of the buttons C1 to C5 is not always easy for the user to see. Further, since the buttons C1 to C5 are displayed in a state where the user places the hand 71 on the operation surface, the buttons C1 to C5 of the selection menu are not known unless the user places the hand 71 on the operation surface. was there. Also, as shown in FIG. 15B, when displaying the lines L1 to L5 connecting the buttons C1 to C5 of the selection menu and the fingertips P1 to P5 of the hand 71, the screen is displayed by displaying the lines L1 to L5. There was a possibility of spoiling the design. Further, depending on the position of the hand 71, the lines L1 to L5 overlap each other, and there is a problem that it is difficult to understand the correspondence between the fingertips P1 to P5 of the hand 71 and the buttons C1 to C5.

それ故に、本発明の目的は、選択メニューのボタンの配置が予め決められている画面デザインを損なわずに、操作面上に置く手の指の間隔や位置をそれらボタンの配置に合わせて変える必要がなく、所定数のボタンを各対応する指により楽に操作できる入力装置及び入力方法を提供することである。   Therefore, the object of the present invention is to change the interval and position of the fingers placed on the operation surface in accordance with the arrangement of the buttons without impairing the screen design in which the arrangement of the buttons of the selection menu is predetermined. There is provided an input device and an input method capable of easily operating a predetermined number of buttons with each corresponding finger.

本発明は、表示部に表示される操作画像を利用して入力されるユーザの指示を操作対象機器に与える入力装置に向けられている。そして、上記目的を達成するために、本発明の入力装置は、手を表す画像データである手画像データを予め保持する手画像データ保持部と、操作対象機器に与える指示を割当てた複数のGUIパーツを予め保持するGUIパーツ保持部と、ユーザが操作するための操作面を有し、当該操作面とユーザの手との接触領域を検知する接触領域検知部と、接触領域検知部が検知した接触領域に基づいて、操作面に現在接触しているユーザの手の指先位置を示す指先位置点を作成する位置座標データ作成部と、指先位置点が所定数あるか否かを判定する指先位置特定部と、指先位置点が所定数ある場合に、GUIパーツ保持部に保持された所定数のGUIパーツと、手画像データ保持部に保持された手画像データとを重畳させて、ユーザの操作に用いる操作画像を作成し、表示部に表示させる重畳画像作成部と、所定数の指先位置点のいずれかがタップ操作された場合に、ユーザが行った操作内容を判定する操作内容判定部と、操作内容判定部が判定したユーザの操作内容をコマンドに変換し、操作対象機器に送信するコマンド送信部とを備える。   The present invention is directed to an input device that provides an operation target device with a user instruction input using an operation image displayed on a display unit. In order to achieve the above object, an input device according to the present invention includes a hand image data holding unit that holds hand image data that is image data representing a hand in advance, and a plurality of GUIs assigned instructions to be given to the operation target device. A GUI part holding unit that holds parts in advance, an operation surface for a user to operate, a contact region detection unit that detects a contact region between the operation surface and the user's hand, and a contact region detection unit A position coordinate data creation unit that creates a fingertip position point that indicates a fingertip position of the user's hand that is currently in contact with the operation surface based on the contact area, and a fingertip position that determines whether there are a predetermined number of fingertip position points When there are a predetermined number of specific parts and fingertip position points, a predetermined number of GUI parts held in the GUI parts holding part and the hand image data held in the hand image data holding part are overlapped to perform user operation Used for An operation image creating unit that creates an operation image and displays the operation image on the display unit, an operation content determination unit that determines an operation content performed by the user when any of a predetermined number of fingertip position points is tapped, and an operation A command transmission unit that converts the user's operation content determined by the content determination unit into a command and transmits the command to the operation target device.

これにより、本発明の入力装置は、選択メニューのボタンの配置が予め決められている画面デザインを損なわずに、操作面上に置く手の指の間隔や位置をそれらボタンの配置に合わせて変える必要がないため、複数のボタンを各対応する指により楽に操作することができる。   Thereby, the input device of the present invention changes the interval and position of the fingers placed on the operation surface in accordance with the arrangement of the buttons without impairing the screen design in which the arrangement of the buttons of the selection menu is determined in advance. Since there is no need, a plurality of buttons can be operated easily with the corresponding fingers.

好ましくは、指先位置特定部は、指先位置点が所定数あった場合に、ユーザの手の指の並び方に基づいて、手画像データの指先と、所定数の指先位置点とを対応付ける。また、重畳画像作成部は、操作画像を作成する際に、所定数のGUIパーツと、手画像データの指先とを対応付ける。   Preferably, when there are a predetermined number of fingertip position points, the fingertip position specifying unit associates the fingertips of the hand image data with the predetermined number of fingertip position points based on how the fingers of the user's hand are arranged. The superimposed image creation unit associates a predetermined number of GUI parts with the fingertip of the hand image data when creating the operation image.

また、操作内容判定部は、所定数の指先位置点と、タップ操作がされた指先位置点との各距離を算出し、所定数の指先位置点のうち、当該算出した距離が最も短い指先位置点に対応した指先を、タップ操作があった指先と特定する。   The operation content determination unit calculates each distance between the predetermined number of fingertip position points and the fingertip position point where the tap operation has been performed, and among the predetermined number of fingertip position points, the calculated fingertip position with the shortest distance The fingertip corresponding to the point is identified as the fingertip that has been tapped.

また、操作内容判定部は、タップ操作があったと特定した指先に対応付けられたGUIパーツが選択されたと判定し、当該GUIパーツに割り当てられた操作内容を、ユーザが行った操作内容と判定する。   The operation content determination unit determines that the GUI part associated with the fingertip identified as having been tapped is selected, and determines the operation content assigned to the GUI part as the operation content performed by the user. .

好ましくは、接触領域検知部は、操作面と手との各接触点を独立して取得できるタッチパッドである。   Preferably, the contact area detection unit is a touch pad that can independently acquire each contact point between the operation surface and the hand.

また、接触領域検知部の操作面上の領域をX座標及びY座標で表すと、接触領域検知部は、X座標軸と垂直な方向に光を発する多数のX発光部と、当該多数のX発光部が発した光を受光する多数のX受光部と、Y座標軸と垂直な方向に光を発する多数のY発光部と、当該多数のY発光部が発した光を受光する多数のY受光部とを備える構成であってもよい。   In addition, when the area on the operation surface of the contact area detection unit is represented by the X coordinate and the Y coordinate, the contact area detection unit includes a large number of X light emission units that emit light in a direction perpendicular to the X coordinate axis, and the large number of X light emission. A number of X light-receiving units that receive the light emitted from the plurality of light-emitting units, a number of Y light-emitting units that emit light in a direction perpendicular to the Y coordinate axis, and a number of Y light-receiving units that receive the light emitted from the plurality of Y light-emitting units The structure provided with these may be sufficient.

接触領域検知部は、X座標軸と垂直な方向にストライプ状の電流を流すXストライプ状導電膜と、Y座標軸と垂直な方向にストライプ状の電流を流すYストライプ状導電膜とを備える構成であってもよい。   The contact region detection unit includes an X stripe-shaped conductive film that flows a stripe-shaped current in a direction perpendicular to the X-coordinate axis, and a Y-stripe conductive film that flows a stripe-shaped current in a direction perpendicular to the Y-coordinate axis. May be.

また、接触領域検知部の操作面上におけるユーザの手の長手方向をY座標軸の方向とし、当該Y座標軸と直交する方向をX座標軸の方向とすると、操作内容判定部は、所定数の指先位置点のうち、タップ操作がされた指先位置点とのX座標が最も近い指先位置点に対応した指先を、タップ操作があった指先と特定する。   Further, when the longitudinal direction of the user's hand on the operation surface of the contact area detection unit is the direction of the Y coordinate axis, and the direction orthogonal to the Y coordinate axis is the direction of the X coordinate axis, the operation content determination unit has a predetermined number of fingertip positions. Among the points, the fingertip corresponding to the fingertip position point having the closest X coordinate to the fingertip position point where the tap operation has been performed is identified as the fingertip where the tap operation has been performed.

接触領域検知部の操作面上の領域をX座標及びY座標で表すと共に、接触領域検知部の操作面上におけるユーザの手の長手方向をY座標軸の方向とし、当該Y座標軸と直交する方向をX座標軸の方向とすると、接触領域検知部は、X座標軸と垂直な方向に光を発する多数のX発光部と、当該多数のX発光部が発した光を受光する多数のX受光部とを備える構成であってもよい。また、接触領域検知部は、X座標軸と垂直な方向にストライプ状の電流を流すXストライプ状導電膜を備える構成であってもよい。   The area on the operation surface of the contact area detection unit is represented by the X coordinate and the Y coordinate, and the longitudinal direction of the user's hand on the operation surface of the contact area detection unit is the Y coordinate axis direction, and the direction orthogonal to the Y coordinate axis is Assuming that the direction of the X coordinate axis is, the contact area detection unit includes a number of X light emitting units that emit light in a direction perpendicular to the X coordinate axis and a number of X light receiving units that receive light emitted from the many X light emitting units. The structure provided may be sufficient. Further, the contact region detection unit may include an X stripe-shaped conductive film that causes a stripe-shaped current to flow in a direction perpendicular to the X coordinate axis.

また、本発明は、上述した入力装置を備えたハンドルにも向けられている。   The present invention is also directed to a handle provided with the above-described input device.

さらに、本発明は、表示部に表示される操作画像を利用して、操作面に入力されるユーザの指示を操作対象機器に与える入力方法にも向けられている。そして、上記目的を達成させるために、本発明の入力方法は、当該操作面とユーザの手との接触領域を検知するステップと、検知した接触領域に基づいて、操作面に現在接触しているユーザの手の指先位置を示す指先位置点を作成するステップと、指先位置点が所定数あるか否かを判定するステップと、指先位置点が所定数ある場合に、予め保持された操作対象機器に与える指示を割当てた所定数のGUIパーツと、予め保持された手を表す画像データである手画像データとを重畳させて、ユーザの操作に用いる操作画像を作成し、表示部に表示させるステップと、所定数の指先位置点のいずれかがタップ操作された場合に、ユーザが行った操作内容を判定するステップと、判定したユーザの操作内容をコマンドに変換し、操作対象機器に送信するステップとを備える。   Furthermore, the present invention is also directed to an input method that uses an operation image displayed on a display unit to give a user instruction input to an operation surface to an operation target device. And in order to achieve the said objective, the input method of this invention is contacting the operation surface now based on the step which detects the contact area of the said operation surface and a user's hand, and the detected contact area. A step of creating a fingertip position point indicating a fingertip position of the user's hand, a step of determining whether or not there is a predetermined number of fingertip position points, and an operation target device held in advance when there are a predetermined number of fingertip position points A step of superimposing a predetermined number of GUI parts to which an instruction to be given is assigned and hand image data, which is image data representing a hand held in advance, to create an operation image used for a user operation and to display the operation image on the display unit When any of the predetermined number of fingertip position points is tapped, a step for determining the operation content performed by the user, and converting the determined user operation content into a command and sending it to the operation target device. And a step of.

本発明の入力装置及び入力方法によれば、選択メニューのボタンの配置が予め決められている画面デザインを損なわずに、操作面上に置く手の指の間隔や位置をそれらボタンの配置に合わせて変える必要がないため、所定数のボタンを各対応する指により楽に操作することが可能となる。   According to the input device and the input method of the present invention, the interval and position of the finger placed on the operation surface are adjusted to the arrangement of the buttons without impairing the screen design in which the arrangement of the buttons of the selection menu is determined in advance. Therefore, it is possible to easily operate a predetermined number of buttons with the corresponding fingers.

以下、本発明の各実施形態に係る入力装置について図面を用いて説明する。なお、各図面において、視認性を考慮し、本発明の実施について特に重要ではない要素は省略している。
(第1の実施形態)
Hereinafter, an input device according to each embodiment of the present invention will be described with reference to the drawings. In each drawing, elements that are not particularly important for implementation of the present invention are omitted in view of visibility.
(First embodiment)

図1は、本発明の第1の実施形態に係る入力装置100のハードウエア構成例を示す図である。図1において、入力装置100は、接触領域検知部1と、演算部2とを備える。演算部2は、データの入出力を行うI/O11と、データやプログラム等を記憶するHDD(Hard Disk Drive)12と、BIOS等の基本プログラムを格納するROM13と、HDD12に記憶されたプログラム及びROM13に格納されたプログラムを実行するCPU14と、データを保持するRAM15と、画像データを処理する画像プロセッサ17と、画像データを保持するVRAM18と、これらの構成要素を接続するバス線16とを備える。   FIG. 1 is a diagram illustrating a hardware configuration example of an input device 100 according to the first embodiment of the present invention. In FIG. 1, the input device 100 includes a contact area detection unit 1 and a calculation unit 2. The calculation unit 2 includes an I / O 11 that inputs and outputs data, an HDD (Hard Disk Drive) 12 that stores data, programs, and the like, a ROM 13 that stores basic programs such as BIOS, and programs and programs stored in the HDD 12. A CPU 14 that executes a program stored in the ROM 13, a RAM 15 that holds data, an image processor 17 that processes image data, a VRAM 18 that holds image data, and a bus line 16 that connects these components are provided. .

接触領域検知部1は、I/O11の入力側に接続され、操作面に接触したユーザの手19の接触領域を多点で検知し、当該検知した接触領域の位置データ(以下、接触位置データという)を出力するタッチパッドである。接触領域検知部1からI/O11の入力側に入力される接触位置データは、RAM15に保持される。   The contact area detection unit 1 is connected to the input side of the I / O 11 and detects the contact area of the user's hand 19 that has touched the operation surface at multiple points, and the position data of the detected contact area (hereinafter referred to as contact position data). It is a touchpad that outputs. Contact position data input from the contact area detector 1 to the input side of the I / O 11 is held in the RAM 15.

I/O11の出力側には、表示部3が接続される。表示部3は、画像データに対応する画像を表示するディスプレイである。また、I/O11の出力側には、入力装置100によって操作されるカーナビゲーション装置、オーディオ装置、エアコン等の操作対象機器4が接続される。演算部2は、接触領域検知部1で検知されたユーザの指示に基づいて、操作対象機器4に指示を出力する。   The display unit 3 is connected to the output side of the I / O 11. The display unit 3 is a display that displays an image corresponding to the image data. Further, an operation target device 4 such as a car navigation device, an audio device, and an air conditioner operated by the input device 100 is connected to the output side of the I / O 11. The calculation unit 2 outputs an instruction to the operation target device 4 based on the user instruction detected by the contact area detection unit 1.

HDD12は、手を表す画像データ(以下、手画像データ)を、GUIと共に表示部3に表示させるようにCPU14を機能させる制御プログラムを記憶している。手画像データの指先には、指先の種類を示すIDが付与されている。手画像データは、RAM15に予め保持されているものとする。なお、手画像データは、手の指先の形状を簡易的に表したものであってもよいし、CG等によって手の指先を詳細に模倣したものであってもよい。あるいは、手画像データは、手の指先に限らず、ユーザが指先と同視できるものであれば、どのような画像データであってもよい。   The HDD 12 stores a control program that causes the CPU 14 to function so that image data representing a hand (hereinafter, hand image data) is displayed on the display unit 3 together with the GUI. An ID indicating the type of the fingertip is given to the fingertip of the hand image data. It is assumed that the hand image data is stored in the RAM 15 in advance. The hand image data may be a simple representation of the shape of the fingertip of the hand, or may be a detailed imitation of the fingertip of the hand using CG or the like. Alternatively, the hand image data is not limited to the fingertip of the hand, and any image data may be used as long as the user can view the fingertip.

なお、入力装置100における制御は、ハードウエア、又はハードウエア及びソフトウエアの協働によって実行される。   Note that the control in the input device 100 is executed by hardware or the cooperation of hardware and software.

以下では、入力装置100の構成及び動作について、より詳しく説明する。まずは、入力装置100の構成から説明する。図2は、入力装置100の機能ブロックの一例を示す図である。図2に示すように、入力装置100は、接触領域検知部1と、演算部2とを備える。演算部2は、位置座標データ作成部21と、指先位置特定部22と、手画像データ保持部23と、GUIパーツ保持部24と、重畳画像作成部25と、操作内容判定部26と、コマンド送信部27とを含む。   Hereinafter, the configuration and operation of the input device 100 will be described in more detail. First, the configuration of the input device 100 will be described. FIG. 2 is a diagram illustrating an example of functional blocks of the input device 100. As shown in FIG. 2, the input device 100 includes a contact area detection unit 1 and a calculation unit 2. The calculation unit 2 includes a position coordinate data creation unit 21, a fingertip position specification unit 22, a hand image data holding unit 23, a GUI parts holding unit 24, a superimposed image creation unit 25, an operation content determination unit 26, a command And a transmission unit 27.

演算部2において、位置座標データ作成部21は、接触領域検知部1から入力される接触位置データから、接触領域検知部1上におけるユーザの指先の位置の座標を表す指先位置点を生成する。指先位置点は、例えば、接触領域検知部1の操作面上において(X、Y)座標により表される。   In the calculation unit 2, the position coordinate data creation unit 21 generates a fingertip position point that represents the coordinates of the position of the user's fingertip on the contact region detection unit 1 from the contact position data input from the contact region detection unit 1. The fingertip position point is represented by, for example, (X, Y) coordinates on the operation surface of the contact area detection unit 1.

指先位置特定部22は、位置座標データ作成部21が作成した指先位置点が4点あるか否かを判定する。そして、指先位置点が4点あった場合に、指先位置点がユーザの指先であると判定し、手の指の並び方に基づいて、順番に指先位置点にIDを付与する。ここで、指先位置特定部22が、指先位置点が4点あるか否かを判定しているのは、ユーザが4本の指で接触領域検知部1に接触したか否かを判定するためである。なお、指先位置特定部22は、判定する指先位置点の数を所定数に変更することができる。例えば、指先位置特定部22は、指先位置点が1〜5点のいずれであるかを判定してもよいし、両手を考慮した場合、指先位置点が1〜10点のいずれであるかを判定してもよい。   The fingertip position specifying unit 22 determines whether there are four fingertip position points created by the position coordinate data creating unit 21. Then, when there are four fingertip position points, it is determined that the fingertip position point is the user's fingertip, and IDs are sequentially assigned to the fingertip position points based on how the fingers of the hand are arranged. Here, the fingertip position specifying unit 22 determines whether or not there are four fingertip position points in order to determine whether or not the user has touched the contact area detection unit 1 with four fingers. It is. Note that the fingertip position specifying unit 22 can change the number of fingertip position points to be determined to a predetermined number. For example, the fingertip position specifying unit 22 may determine whether the fingertip position point is 1 to 5 or, when considering both hands, whether the fingertip position point is 1 to 10 points. You may judge.

手画像データ保持部23は、上述した手画像データを予め保持している。GUIパーツ保持部24は、表示部3に表示される操作画像に含まれるGUIパーツを保持する。GUIパーツ保持部24に保持されるGUIパーツとは、例えば、操作対象機器4を操作する操作ボタン等のことである。   The hand image data holding unit 23 holds the above-described hand image data in advance. The GUI parts holding unit 24 holds GUI parts included in the operation image displayed on the display unit 3. The GUI parts held in the GUI parts holding unit 24 are, for example, operation buttons for operating the operation target device 4.

重畳画像作成部25は、GUIパーツ保持部24から読み出した複数のGUIパーツと、手画像データ保持部23から読み出した手画像データとを重畳させて、ユーザの操作に用いる操作画像として、表示部3に表示させる。また、重畳画像作成部25は、操作内容判定部26が判定したユーザの操作内容に応じて、表示部3に表示される操作画像を変更する。   The superimposed image creating unit 25 superimposes a plurality of GUI parts read from the GUI part holding unit 24 and the hand image data read from the hand image data holding unit 23, and displays a display unit as an operation image used for a user operation. 3 is displayed. The superimposed image creation unit 25 changes the operation image displayed on the display unit 3 according to the user operation content determined by the operation content determination unit 26.

操作内容判定部26は、ユーザが行った操作内容(ユーザの指示)の種類を判定する。操作内容判定部26は、当該判定した操作内容が画面表示に関するものであれば、重畳画像作成部25及びコマンド送信部27にユーザの操作内容を送信する。コマンド送信部27は、操作内容判定部26が判定したユーザの操作内容をコマンドに変換し、操作対象機器4に送信する。   The operation content determination unit 26 determines the type of operation content (user instruction) performed by the user. If the determined operation content relates to screen display, the operation content determination unit 26 transmits the user operation content to the superimposed image creation unit 25 and the command transmission unit 27. The command transmission unit 27 converts the user operation content determined by the operation content determination unit 26 into a command and transmits the command to the operation target device 4.

次に、入力装置100の動作について説明する。図3は、入力装置100の動作の一例を示すフローチャートである。なお、以下の処理は、例えば、図1に示すCPU14が、HDD12に記憶された制御プログラムをRAM15において展開して実行される。   Next, the operation of the input device 100 will be described. FIG. 3 is a flowchart illustrating an example of the operation of the input device 100. The following processing is executed by, for example, the CPU 14 shown in FIG. 1 developing a control program stored in the HDD 12 in the RAM 15.

まず、ステップS301において、位置座標データ作成部21は、接触領域検知部1から接触位置データを取得する。接触位置データは、接触領域検知部1の操作面にユーザの手が接触した領域を、点群(以下、接触点群という)によって表すデータである。   First, in step S <b> 301, the position coordinate data creation unit 21 acquires contact position data from the contact area detection unit 1. The contact position data is data representing a region where the user's hand has touched the operation surface of the contact region detection unit 1 by a point group (hereinafter referred to as a contact point group).

次に、ステップS302において、位置座標データ作成部21は、当該取得した接触点群を用いて指先位置点を求める。図4は、ステップS302で求められる指先位置点を説明するための図である。図4(a)に示すように、位置座標データ作成部21は、接触領域検知部1から取得した接触点群をそれぞれ矩形で囲んで複数の領域を指定する。なお、領域を示す形状は、矩形に限らず楕円でもその他の形状であってもよい。そして、位置座標データ作成部21は、図4(b)に示すように、例えば、矩形Aの重心を指先位置点とする。なお、位置座標データ作成部21は、指先位置点を上述した方法に限らず、どのような方法で求めてもよい。図4(c)には、位置座標データ作成部21によって求められた指先位置点41〜44を示す。   Next, in step S302, the position coordinate data creation unit 21 obtains the fingertip position point using the acquired contact point group. FIG. 4 is a diagram for explaining the fingertip position points obtained in step S302. As shown in FIG. 4A, the position coordinate data creation unit 21 designates a plurality of regions by surrounding the contact point group acquired from the contact region detection unit 1 with a rectangle. The shape indicating the region is not limited to a rectangle, and may be an ellipse or another shape. And the position coordinate data creation part 21 makes the gravity center of the rectangle A a fingertip position point, for example, as shown in FIG.4 (b). The position coordinate data creation unit 21 may obtain the fingertip position point by any method, not limited to the method described above. FIG. 4C shows the fingertip position points 41 to 44 obtained by the position coordinate data creation unit 21.

次に、ステップS303において、指先位置特定部22は、指先位置点を4点取得できたか否かを判定する。指先位置特定部22は、指先位置点を4点取得できた場合(Yes)には、ステップS304に処理を進め、指先位置点を4点取得できなかった場合(No)には、ステップS301に処理を戻す。なお、指先位置特定部22は、上述したように、判定する指先位置点の数を変更してもよい。また、ユーザが間違って接触領域検知部1に触れてしまう場合等を考慮して、指先位置特定部22は、シングルタップではなく、ダブルタップがされた場合にだけ、指先位置点を4点取得できたか否かを判定するようにしてもよい。   Next, in step S303, the fingertip position specifying unit 22 determines whether or not four fingertip position points have been acquired. If four fingertip position points can be acquired (Yes), the fingertip position specifying unit 22 proceeds to step S304. If four fingertip position points cannot be acquired (No), the fingertip position specifying unit 22 proceeds to step S301. Return processing. Note that the fingertip position specifying unit 22 may change the number of fingertip position points to be determined as described above. Further, in consideration of the case where the user accidentally touches the contact area detection unit 1, the fingertip position specifying unit 22 acquires four fingertip position points only when a double tap is performed instead of a single tap. You may make it determine whether it was completed.

ステップS304において、指先位置特定部22は、ユーザの手の指の並び方(手の構造)に基づいて、取得した指先位置点にそれぞれIDを付与する。例えば、図4(c)に示すように、4つの指先位置点が得られるので、指先位置点41〜44に、それぞれ、小指、薬指、中指、人差し指を示すIDを付与する。これによって、指先位置点41〜44と、手画像データの指先とを対応付けることができる。ここでは、ユーザが接触領域検知部1を左手で操作しているものと仮定している。   In step S304, the fingertip position specifying unit 22 assigns an ID to each of the acquired fingertip position points based on how the fingers of the user's hand are arranged (hand structure). For example, as shown in FIG. 4C, since four fingertip position points are obtained, IDs indicating the little finger, ring finger, middle finger, and index finger are assigned to the fingertip position points 41 to 44, respectively. Thereby, the fingertip position points 41 to 44 can be associated with the fingertips of the hand image data. Here, it is assumed that the user operates the contact area detection unit 1 with the left hand.

次に、ステップS305において、指先位置特定部22は、取得した指先位置点を、ステップS304で付与した小指、薬指、中指、人差し指のIDのそれぞれに対応させてRAM15に蓄積する。   Next, in step S305, the fingertip position specifying unit 22 stores the acquired fingertip position points in the RAM 15 in association with the IDs of the little finger, ring finger, middle finger, and index finger given in step S304.

次に、ステップS306において、重畳画像作成部25は、GUIパーツ保持部24から読み出した複数のGUIパーツと、手画像データ保持部23から読み出した手画像データとを重畳させて、ユーザの操作に用いる操作画像として、表示部3に表示させる。この際、重畳画像作成部25は、複数のGUIパーツと、手画像データの指先とを対応付ける。   Next, in step S306, the superimposed image creating unit 25 superimposes the plurality of GUI parts read from the GUI part holding unit 24 and the hand image data read from the hand image data holding unit 23, and performs the operation by the user. The operation image to be used is displayed on the display unit 3. At this time, the superimposed image creation unit 25 associates a plurality of GUI parts with the fingertip of the hand image data.

図5は、ステップS306の処理により、表示部3に表示される操作画面の一例を示している。図5において、GUIパーツ501〜504は、操作対象機器を選択するための操作メニューを表している。この例では、GUIパーツ501が選択されるとDVDが、GUIパーツ502が選択されるとCDが、GUIパーツ503が選択されるとFMラジオが、GUIパーツ504が選択されるとTV(テレビ)が操作対象機器4となる。操作対象機器4が選択されることにより、表示部3にはそれぞれの操作対象機器4を操作するための下位メニューが表示され、ユーザにより下位メニューが選択されることで各操作対象機器4を操作することができる。   FIG. 5 shows an example of an operation screen displayed on the display unit 3 by the process of step S306. In FIG. 5, GUI parts 501 to 504 represent operation menus for selecting an operation target device. In this example, the DVD is selected when the GUI part 501 is selected, the CD is selected when the GUI part 502 is selected, the FM radio is selected when the GUI part 503 is selected, and the TV (TV) is selected when the GUI part 504 is selected. Becomes the operation target device 4. By selecting the operation target device 4, a lower menu for operating each operation target device 4 is displayed on the display unit 3, and each operation target device 4 is operated by selecting the lower menu by the user. can do.

上記の様に予め配置されたGUIパーツ501〜504の各々に対応する下側の位置に、手画像データを構成する指511〜514がそれぞれ表示されており、順番に小指、薬指、中指、人差し指に対応している。このように操作画像を配置することで、ユーザは小指によりDVDを、薬指によりCDを、中指によりFMラジオを、人指し指によりTVを操作対象機器4として選択できることが直感的に理解できる。手画像データは、手画像データ保持部23に予め保持されている画像であるため、予め画面デザインにより配置されたGUIパーツに対応する位置に手画像データを表示させることができる。手画像データの表示位置は、操作面上のユーザの手の位置とは関係なく、ユーザが手を動かしても手画像データは移動しない。   The fingers 511 to 514 constituting the hand image data are respectively displayed at lower positions corresponding to the GUI parts 501 to 504 arranged in advance as described above, and the little finger, ring finger, middle finger, and index finger are sequentially displayed. It corresponds to. By arranging the operation image in this way, the user can intuitively understand that the user can select the DVD as the operation target device 4 with the little finger, the CD with the ring finger, the FM radio with the middle finger, and the TV with the index finger. Since the hand image data is an image stored in advance in the hand image data storage unit 23, the hand image data can be displayed at a position corresponding to a GUI part arranged in advance by the screen design. The display position of the hand image data is not related to the position of the user's hand on the operation surface, and the hand image data does not move even if the user moves the hand.

重畳画像作成部25は、画面デザインによりGUIパーツの配置が変わる場合には、それに対応した手画像データを手画像データ保持部23から選択して読み出すことで、GUIパーツの位置と手画像データの各指の位置を合わせることができる。また、重畳画像作成部25は、指先位置特定部22が判定する指先位置点の数に合わせて、表示するGUIパーツの数を変更することも可能である。   When the arrangement of the GUI parts changes depending on the screen design, the superimposed image creation unit 25 selects and reads out the corresponding hand image data from the hand image data holding unit 23, thereby the position of the GUI parts and the hand image data. The position of each finger can be adjusted. The superimposed image creating unit 25 can also change the number of GUI parts to be displayed in accordance with the number of fingertip position points determined by the fingertip position specifying unit 22.

図3に戻り、ステップS307において、入力装置100は、ユーザの操作内容の特定処理を実行する。以下、図6を用いて、ステップS307の処理について詳しく説明する。   Returning to FIG. 3, in step S <b> 307, the input device 100 executes a process for specifying the user's operation content. Hereinafter, the process of step S307 will be described in detail with reference to FIG.

まず、ステップS601において、指先位置特定部22は、位置座標データ作成部21から指先位置点を取得する。次に、ステップS602において、操作内容判定部26は、いずれかの指先位置点でシングルタップ操作がされたか否かを判定する。操作内容判定部26は、シングルタップ操作がされたと判定した場合には、ステップS605に処理を進め、シングルタップ操作がされなかったと判定した場合には、ステップS603に処理を進める。なお、この例では、操作内容判定部26は、シングルタップ操作がされたか否かを判定しているが、判定するタップ操作の種類を変更してもよい。例えば、操作内容判定部26は、ダブルタップ等の操作がされたか否かを判定してもよい。   First, in step S <b> 601, the fingertip position specifying unit 22 acquires a fingertip position point from the position coordinate data creating unit 21. Next, in step S602, the operation content determination unit 26 determines whether a single tap operation has been performed at any fingertip position point. If the operation content determination unit 26 determines that a single tap operation has been performed, the process proceeds to step S605. If the operation content determination unit 26 determines that a single tap operation has not been performed, the operation content determination unit 26 proceeds to step S603. In this example, the operation content determination unit 26 determines whether a single tap operation has been performed, but the type of tap operation to be determined may be changed. For example, the operation content determination unit 26 may determine whether an operation such as a double tap has been performed.

ステップS603において、操作内容判定部26は、いずれかの指先位置点が操作面上でドラッグ操作がされたか否かを判定する。操作内容判定部26は、ドラッグ操作がされたと判定した場合には、ステップS604に処理を進め、ドラッグ操作がされなかったと判定した場合にはステップS601に処理を戻す。   In step S603, the operation content determination unit 26 determines whether or not any fingertip position point has been dragged on the operation surface. If it is determined that the drag operation has been performed, the operation content determination unit 26 proceeds to step S604, and if it is determined that the drag operation has not been performed, the operation content determination unit 26 returns the process to step S601.

次に、ステップS604において、ステップS603でドラッグ操作が検出されたため、操作内容判定部26は、ユーザの操作内容を画面のスクロール操作と判定する。そして、図3のステップS308に処理を戻す。なお、操作内容判定部26は、ドラッグ操作がされた場合に画面のスクロール操作と判定しているが、判定する操作を変更してもよい。   In step S604, since a drag operation is detected in step S603, the operation content determination unit 26 determines that the user operation content is a screen scroll operation. Then, the process returns to step S308 in FIG. The operation content determination unit 26 determines that the screen is scrolled when a drag operation is performed. However, the operation to be determined may be changed.

ステップS605において、ステップS602でシングルタップが検出されたため、操作内容判定部26は、RAM15に蓄積されている4つの各指先位置点と、シングルタップが検出された指先位置点との間の各距離を算出する。   In step S605, since the single tap is detected in step S602, the operation content determination unit 26 determines each distance between the four fingertip position points stored in the RAM 15 and the fingertip position point where the single tap is detected. Is calculated.

次に、ステップS606において、操作内容判定部26は、算出した距離が最も短い指先位置点から、シングルタップ操作があった指先を特定する。具体的には、操作内容判定部26は、4つの指先位置点のうち、算出した距離が最も短い指先位置点に対応した指先を、シングルタップ操作があった指と特定する。   Next, in step S <b> 606, the operation content determination unit 26 identifies a fingertip that has undergone a single tap operation from the fingertip position point with the shortest calculated distance. Specifically, the operation content determination unit 26 identifies the fingertip corresponding to the fingertip position point with the shortest calculated distance among the four fingertip position points as the finger that has performed the single tap operation.

ステップS607において、操作内容判定部26は、ステップS606で特定した指先に対応するGUIパーツが選択されたと判定し、そのGUIパーツに割り当てられた操作内容を特定する。そして、図3のステップS308に処理を戻す。   In step S607, the operation content determination unit 26 determines that the GUI part corresponding to the fingertip specified in step S606 has been selected, and specifies the operation content assigned to the GUI part. Then, the process returns to step S308 in FIG.

図3のステップS308において、操作内容判定部26は、ステップS604でユーザの操作内容を画面のスクロール操作であると判定した場合には、重畳画像作成部25に判定した操作内容を送信する。重畳画像作成部25は、送信された操作内容に基づいて、操作画面の表示内容を変更する。   In step S308 in FIG. 3, when the operation content determination unit 26 determines in step S604 that the user operation content is a screen scroll operation, the operation content determination unit 26 transmits the determined operation content to the superimposed image creation unit 25. The superimposed image creation unit 25 changes the display content of the operation screen based on the transmitted operation content.

一方、操作内容判定部26は、ステップS607でユーザに選択されたGUIパーツに割り当てられた操作内容を特定した場合には、重畳画像作成部25及びコマンド送信部27に特定した操作内容を送信する。重畳画像作成部25は、操作内容判定部26が特定したユーザの操作内容に基づいて表示内容を変更する。また、コマンド送信部27は、操作内容判定部26が特定したユーザの操作内容をコマンドに変換し、操作対象機器4に送信する。   On the other hand, when the operation content assigned to the GUI part selected by the user in step S607 is specified, the operation content determination unit 26 transmits the specified operation content to the superimposed image creation unit 25 and the command transmission unit 27. . The superimposed image creation unit 25 changes the display content based on the user operation content specified by the operation content determination unit 26. Further, the command transmission unit 27 converts the user operation content specified by the operation content determination unit 26 into a command and transmits the command to the operation target device 4.

以上のように、本発明の第1の実施形態に係る入力装置によれば、選択メニューのボタンと、指先とを対応させるので、ユーザが選択メニューの位置に手を合わせる必要がなくなる。また、操作面上に置く手の指の間隔や位置をボタンの配置に合わせて変える必要がないため、複数のボタンを各対応する指により楽に操作することができる。また、選択メニューの画面デザインをそのまま使用することができるので、画面デザインを損なうことがない。   As described above, according to the input device according to the first embodiment of the present invention, the button of the selection menu is associated with the fingertip, so that it is not necessary for the user to match the position of the selection menu. In addition, since it is not necessary to change the interval and position of the fingers placed on the operation surface in accordance with the arrangement of the buttons, a plurality of buttons can be easily operated with the corresponding fingers. Moreover, since the screen design of the selection menu can be used as it is, the screen design is not impaired.

(第2の実施形態)
第2の実施形態に係る入力装置のハードウェア構成、及び機能ブロックについては、図1及び図2を援用して説明する。第2の実施形態に係る入力装置は、第1の実施形態に係る入力装置100と比較して、接触領域検知部の構成が異なる。第1の実施形態に係る接触領域検知部1は、各接触点を独立して取得できるタッチパッドであったが、第2の実施形態に係る接触領域検知部は、図7に示すように、縦方向と横方向との交点を検出するセンサーにより、各接触点を検出するものである。
(Second Embodiment)
The hardware configuration and functional blocks of the input device according to the second embodiment will be described with reference to FIGS. 1 and 2. The input device according to the second embodiment differs from the input device 100 according to the first embodiment in the configuration of the contact area detection unit. The contact area detection unit 1 according to the first embodiment is a touch pad that can acquire each contact point independently, but the contact area detection unit according to the second embodiment, as shown in FIG. Each contact point is detected by a sensor that detects an intersection between the vertical direction and the horizontal direction.

図7(a)は、本発明の第2の実施形態に係る接触領域検知部1aの構成例を示す図である。ただし、接触領域検知部1aの操作面上の領域をX座標とY座標とで表すものとする。また、ユーザの手の長手方向をY座標軸の方向とし、Y座標軸と直交する方向をX座標軸の方向と定義する。   Fig.7 (a) is a figure which shows the structural example of the contact area | region detection part 1a which concerns on the 2nd Embodiment of this invention. However, an area on the operation surface of the contact area detection unit 1a is represented by an X coordinate and a Y coordinate. The longitudinal direction of the user's hand is defined as the direction of the Y coordinate axis, and the direction orthogonal to the Y coordinate axis is defined as the direction of the X coordinate axis.

図7(a)において、接触領域検知部1aは、X座標軸と垂直な方向に光を発する多数の発光部と、多数の発光部が発した光を受光する多数の受光部とを備える。また、接触領域検知部1aは、Y座標軸と垂直な方向に光を発する多数の発光部と、当該多数の発光部が発した光を受光する多数の受光部とを備える。   In FIG. 7A, the contact area detection unit 1a includes a large number of light emitting units that emit light in a direction perpendicular to the X coordinate axis and a large number of light receiving units that receive light emitted from the large number of light emitting units. The contact area detection unit 1a includes a large number of light emitting units that emit light in a direction perpendicular to the Y coordinate axis, and a large number of light receiving units that receive the light emitted by the large number of light emitting units.

例えば、接触領域検知部1aは、操作面の形状が長方形である場合、X座標軸と平行し、互いに対向する2辺のうち一辺に光を発する多数の発光部と、他の一辺に当該発光部が発した光を受光する多数の受光部とを備える。また、接触領域検知部1aは、Y座標軸と平行し、互いに対向する2辺のうち一辺に光を発する多数の発光部と、他の一辺に当該発光部が発した光を受光する多数の受光部とを備える。なお、操作面の形状は、長方形に限らず、どのような形状であってもよく、例えば、円形であってもよい。   For example, when the shape of the operation surface is a rectangle, the contact area detection unit 1a includes a plurality of light emitting units that emit light on one side of two sides that are parallel to the X coordinate axis and face each other, and the light emitting unit on the other side. And a large number of light receiving parts for receiving the light emitted by. In addition, the contact area detection unit 1a is parallel to the Y coordinate axis and has a large number of light emitting units that emit light on one side of two sides facing each other, and a large number of light receiving units that receive light emitted by the light emitting unit on the other side. A part. Note that the shape of the operation surface is not limited to a rectangle, and may be any shape, for example, a circle.

操作面にユーザの手が接触した場合、多数の発光部から発した一部の光が、ユーザの手によって遮られ、一部の受光部に届かなくなるために、接触領域検知部1aは、接触領域のX座標及びY座標を検知することができる。   When the user's hand comes into contact with the operation surface, a part of the light emitted from a large number of light emitting units is blocked by the user's hands and does not reach a part of the light receiving units. The X coordinate and Y coordinate of the region can be detected.

図7(b)は、本発明の第2の実施形態に係る接触領域検知部1bの構成例を示す図である。図7(b)において、接触領域検知部1bは、X座標方向にストライプ状に電流を流すストライプ状導電膜が形成された基板と、Y座標方向にストライプ状に電流を流すストライプ状導電膜が形成された基板とを、所定の空間を介して導電膜が対向するように上下に重ねて構成されている。この例では、X座標方向のストライブ状導電膜が上側に、Y座標方向のストライブ状導電膜が下側に重ねられている。操作面に手が接触した場合、通常は上下に離れているX座標方向のストライプ状導電膜とY座標方向のストライプ状導電膜が、接触した位置で通電し、接触領域検知部1bは、接触領域のX座標及びY座標を検知することができる。   FIG.7 (b) is a figure which shows the structural example of the contact area | region detection part 1b which concerns on the 2nd Embodiment of this invention. In FIG. 7B, the contact region detection unit 1b includes a substrate on which a striped conductive film that flows current in a stripe shape in the X coordinate direction and a striped conductive film that flows current in a stripe shape in the Y coordinate direction. The formed substrate is configured to overlap vertically so that the conductive films face each other through a predetermined space. In this example, the stripe-like conductive film in the X coordinate direction is overlaid on the upper side, and the stripe-like conductive film in the Y coordinate direction is overlaid on the lower side. When a hand touches the operation surface, the stripe-shaped conductive film in the X-coordinate direction and the stripe-shaped conductive film in the Y-coordinate direction that are normally separated from each other are energized at the contact position, and the contact area detection unit 1b The X coordinate and Y coordinate of the region can be detected.

しかしながら、これらの接触領域検知部1a、1bには、以下のような課題がある。図8(a)は、第2の実施形態に係る接触領域検知部1a、1bの課題を説明する図である。ただし、X座標Y座標で表される領域を(X,Y)領域と記す。接触領域検知部1aの操作面上において、人間の左手の形状を想定して、ユーザの指先が黒丸で示す点で接触している場合を想定する。接触領域検知部1a、1bは、上記の様な検出方式であるために、(X1,Y2)領域801、(X2,Y1)領域802、(X3,Y1)領域803、及び(X4、Y1)領域804以外に、(X1,Y1)811、(X2,Y2)領域812、(X3,Y2)領域813、(X4,Y2)領域814の、実際にはユーザの指先が接触していない領域を検出してしまう。また、(X2,Y1)領域802、(X3,Y1)領域803、及び(X4、Y1)領域804のY座標が同じになってしまう。これは、例えば接触領域検知部1aで説明すると、薬指、中指、人指し指のY座標が近接しているので、発光部が発した光がこれら3本の指で遮られて、別個に特定できず、領域Y1という幅の広い領域内に有るということだけしか検出できないためである。また、接触領域検知部1bについても、縦方向と横方向との交点を検出する同じ検出方式であるため、同様の課題がある。   However, these contact area detectors 1a and 1b have the following problems. FIG. 8A is a diagram for explaining a problem of the contact area detection units 1a and 1b according to the second embodiment. However, an area represented by an X coordinate and a Y coordinate is referred to as an (X, Y) area. Assuming the shape of the human left hand on the operation surface of the contact area detection unit 1a, a case is assumed in which the user's fingertip is in contact at a point indicated by a black circle. Since the contact area detection units 1a and 1b are based on the detection method as described above, the (X1, Y2) area 801, the (X2, Y1) area 802, the (X3, Y1) area 803, and the (X4, Y1) In addition to the area 804, the (X1, Y1) 811, (X2, Y2) area 812, (X3, Y2) area 813, (X4, Y2) area 814 are areas where the user's fingertips are not actually touching. It will be detected. In addition, the (X2, Y1) region 802, the (X3, Y1) region 803, and the (X4, Y1) region 804 have the same Y coordinate. For example, in the case of the contact area detection unit 1a, since the Y coordinates of the ring finger, the middle finger, and the index finger are close to each other, the light emitted from the light emitting unit is blocked by these three fingers and cannot be specified separately. This is because it is only possible to detect that the area is within the wide area Y1. Further, the contact region detection unit 1b has the same problem because it is the same detection method for detecting the intersection between the vertical direction and the horizontal direction.

上述したような課題に対して、接触領域検知部1a、1bは、以下のように課題を解決する。図8(b)は、第2の実施形態に係る接触領域検知部1a、1bの課題を解決する手段を説明する図である。図8(b)において、接触領域検知部1a、1bは、X座標のみを用いて、操作面上のユーザの手の接触領域を検知する。接触領域検知部1a、1bは、人間の手の形状からX座標が重なることを想定し難いので、X座標のみを用いても、操作面上のユーザの手の接触領域を検知することが可能である。そのため、本実施形態においては、第1の実施形態の図6に示すステップS605、S606の処理が異なる。蓄積された各指先位置点とタップされた指先位置点との距離を求めるステップS605の処理は必要ない。ステップS606において、操作内容判定部は、蓄積された各指先位置点のうち、タップ操作がされた指先位置点とのX座標が最も近い指先位置点に対応した指先を、タップ操作があった指先と特定する。   In response to the above-described problem, the contact area detection units 1a and 1b solve the problem as follows. FIG. 8B is a diagram illustrating a means for solving the problems of the contact area detection units 1a and 1b according to the second embodiment. In FIG. 8B, the contact area detectors 1a and 1b detect the contact area of the user's hand on the operation surface using only the X coordinate. Since it is difficult for the contact area detection units 1a and 1b to assume that the X coordinates overlap from the shape of the human hand, it is possible to detect the contact area of the user's hand on the operation surface using only the X coordinates. It is. Therefore, in this embodiment, the processes of steps S605 and S606 shown in FIG. 6 of the first embodiment are different. The process of step S605 for obtaining the distance between each accumulated fingertip position point and the tapped fingertip position point is not necessary. In step S606, the operation content determination unit selects the fingertip corresponding to the fingertip position point having the closest X coordinate to the fingertip position point where the tap operation has been performed among the accumulated fingertip position points. Is specified.

また、第2の実施形態に係る接触領域検知部1a、1bは、人間の手の形状からX座標が重なることを想定し難いことを利用して、図9(a)及び図9(b)に示すように、はじめからX座標を読みとるセンサー(発光部及び受光部、又はストライプ状導電膜)のみを備える構成であってもよい。図9(b)の場合には、Y座標方向のストライプ状導電膜を形成した基板を上下に重ねて、もしくは、上側の基板にY座標方向のストライプ状導電膜を形成し、下側の基板全面に導電膜を形成した基板を組み合わせることで、X座標のみを読みとることができる。これら構成をとることで、X座標のみを検出すれば良いため、部品数が減り、回路構成も簡単になる。   Moreover, the contact area detection units 1a and 1b according to the second embodiment use the fact that it is difficult to assume that the X coordinates overlap from the shape of the human hand, and thus FIG. 9 (a) and FIG. 9 (b). As shown in FIG. 4, the sensor may be configured to include only a sensor (light emitting unit and light receiving unit or stripe conductive film) that reads the X coordinate from the beginning. In the case of FIG. 9B, the substrate on which the stripe-shaped conductive film in the Y-coordinate direction is overlapped vertically, or the stripe-shaped conductive film in the Y-coordinate direction is formed on the upper substrate, and the lower substrate is formed. By combining a substrate having a conductive film formed on the entire surface, only the X coordinate can be read. By adopting these configurations, since only the X coordinate needs to be detected, the number of parts is reduced and the circuit configuration is simplified.

(第3の実施形態)
第3の実施形態では、上述した第1〜2の実施形態に係る入力装置100の車両への取り付け例について説明する。図10は、入力装置100が車両のセンターコンソールに取り付けられた場合の一例を示す図である。図11は、入力装置100が車両のハンドルに取り付けられた場合の一例を示す図である。図12は、入力装置100が車両のドアの操作部に取り付けられた場合の一例を示す図である。図10〜図12に示すような車両の位置に、入力装置100を取り付けることで、運転者は、運転操作に支障なく、入力操作を行うことが可能である。
(Third embodiment)
In the third embodiment, an example in which the input device 100 according to the first and second embodiments described above is attached to a vehicle will be described. FIG. 10 is a diagram illustrating an example when the input device 100 is attached to the center console of the vehicle. FIG. 11 is a diagram illustrating an example when the input device 100 is attached to a vehicle handle. FIG. 12 is a diagram illustrating an example when the input device 100 is attached to an operation unit of a vehicle door. By attaching the input device 100 to the position of the vehicle as shown in FIGS. 10 to 12, the driver can perform the input operation without hindering the driving operation.

本発明の入力装置は、ユーザが機器に対して命令を入力するための入力装置等に利用可能であり、特に、タッチパネルディスプレイの直感的な操作感を維持した操作感を実現したい場合等に有用である。   The input device of the present invention can be used as an input device for a user to input a command to a device, and is particularly useful when it is desired to realize an operational feeling while maintaining an intuitive operational feeling of a touch panel display. It is.

本発明の第1の実施形態に係る入力装置100のハードウエア構成例を示す図The figure which shows the hardware structural example of the input device 100 which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る入力装置100の機能ブロックの一例を示す図The figure which shows an example of the functional block of the input device 100 which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る入力装置100の動作の一例を示すフローチャートThe flowchart which shows an example of operation | movement of the input device 100 which concerns on the 1st Embodiment of this invention. ステップS302で求められる指先位置点を説明するための図The figure for demonstrating the fingertip position point calculated | required by step S302 ステップS306で表示部3に表示される操作画面の一例を示す図The figure which shows an example of the operation screen displayed on the display part 3 by step S306. ステップS307の詳細な処理を説明するためのフローチャートFlowchart for explaining detailed processing of step S307 本発明の第2の実施形態に係る接触領域検知部の構成例を示す図The figure which shows the structural example of the contact area | region detection part which concerns on the 2nd Embodiment of this invention. 第2の実施形態に係る接触領域検知部の課題を説明する図The figure explaining the subject of the contact area detection part which concerns on 2nd Embodiment. X座標を読みとるセンサー(発光部及び受光部、又はストライプ状導電膜)のみを備えた接触領域検知部の構成例を示す図The figure which shows the structural example of the contact area | region detection part provided only with the sensor (a light emission part and a light-receiving part, or a striped conductive film) which reads X coordinate. 入力装置100が車両のセンターコンソールに取り付けられた場合の一例を示す図The figure which shows an example when the input device 100 is attached to the center console of a vehicle 入力装置100が車両のハンドルに取り付けられた場合の一例を示す図The figure which shows an example when the input device 100 is attached to the handle | steering-wheel of a vehicle 入力装置100が車両のドアの操作部に取り付けられた場合の一例を示す図The figure which shows an example when the input device 100 is attached to the operation part of the door of a vehicle. 特許文献1に開示の従来の入力装置を説明する図The figure explaining the conventional input device disclosed by patent document 1 特許文献2に開示の従来の入力装置を説明する図The figure explaining the conventional input device disclosed by patent document 2 特許文献3に開示の従来の入力装置を説明する図The figure explaining the conventional input device disclosed by patent document 3

符号の説明Explanation of symbols

1 接触領域検知部
2 演算部
11 I/O
12 HDD
13 ROM
14 CPU
15 RAM
16 バス線
17 画像プロセッサ
18 VRAM
21 位置座標データ作成部
22 指先位置特定部
23 手画像データ保持部
24 GUIパーツ保持部
25 重畳画像作成部
26 操作内容判定部
27 コマンド送信部
41〜44 指先位置点
100 入力装置
50、64 入力部
51 カメラ
52、65 ユーザの手
53、62 表示部
54 選択メニュー
55、71 手画像
63 選択メニュー
66 手形状モデル
1 Contact Area Detection Unit 2 Calculation Unit 11 I / O
12 HDD
13 ROM
14 CPU
15 RAM
16 bus line 17 image processor 18 VRAM
DESCRIPTION OF SYMBOLS 21 Position coordinate data creation part 22 Fingertip position specific | specification part 23 Hand image data holding part 24 GUI parts holding part 25 Superimposed image creation part 26 Operation content determination part 27 Command transmission part 41-44 Fingertip position point 100 Input device 50, 64 Input part 51 Camera 52, 65 User's Hand 53, 62 Display Unit 54 Selection Menu 55, 71 Hand Image 63 Selection Menu 66 Hand Shape Model

Claims (13)

表示部に表示される操作画像を利用して入力されるユーザの指示を操作対象機器に与える入力装置であって、
手を表す画像データである手画像データを予め保持する手画像データ保持部と、
前記操作対象機器に与える指示を割当てた複数のGUIパーツを予め保持するGUIパーツ保持部と、
前記ユーザが操作するための操作面を有し、当該操作面と前記ユーザの手との接触領域を検知する接触領域検知部と、
前記接触領域検知部が検知した前記接触領域に基づいて、前記操作面に現在接触している前記ユーザの手の指先位置を示す指先位置点を作成する位置座標データ作成部と、
前記指先位置点が所定数あるか否かを判定する指先位置特定部と、
前記指先位置点が所定数ある場合に、前記GUIパーツ保持部に保持された前記所定数のGUIパーツと、前記手画像データ保持部に保持された手画像データとを重畳させて、ユーザの操作に用いる操作画像を作成し、前記表示部に表示させる重畳画像作成部と、
前記所定数の指先位置点のいずれかがタップ操作された場合に、前記ユーザが行った操作内容を判定する操作内容判定部と、
前記操作内容判定部が判定したユーザの操作内容をコマンドに変換し、前記操作対象機器に送信するコマンド送信部とを備える、入力装置。
An input device that gives an operation target device a user instruction input using an operation image displayed on a display unit,
A hand image data holding unit for holding in advance hand image data which is image data representing a hand;
A GUI parts holding unit that holds in advance a plurality of GUI parts assigned instructions to be given to the operation target device;
A contact area detection unit that has an operation surface for the user to operate and detects a contact area between the operation surface and the user's hand;
A position coordinate data creation unit that creates a fingertip position point indicating a fingertip position of the user's hand that is currently in contact with the operation surface, based on the contact area detected by the contact area detection unit;
A fingertip position specifying unit that determines whether or not there are a predetermined number of fingertip position points;
When there are a predetermined number of fingertip position points, the predetermined number of GUI parts held in the GUI parts holding unit and the hand image data held in the hand image data holding unit are overlapped to perform user operation. An operation image to be used for creating a superimposed image creating unit to be displayed on the display unit;
An operation content determination unit that determines the operation content performed by the user when any of the predetermined number of fingertip position points is tapped;
An input device comprising: a command transmission unit that converts a user operation content determined by the operation content determination unit into a command and transmits the command to the operation target device.
前記指先位置特定部は、前記指先位置点が所定数あった場合に、ユーザの手の指の並び方に基づいて、前記手画像データの指先と、前記所定数の指先位置点とを対応付けることを特徴とする、請求項1に記載の入力装置。   The fingertip position specifying unit associates the fingertips of the hand image data with the predetermined number of fingertip position points based on how the fingers of the user's hand are arranged when there are a predetermined number of fingertip position points. The input device according to claim 1, wherein the input device is characterized. 前記重畳画像作成部は、前記操作画像を作成する際に、前記所定数のGUIパーツと、前記手画像データの指先とを対応付けることを特徴とする、請求項2に記載の入力装置。   The input device according to claim 2, wherein the superimposed image creation unit associates the predetermined number of GUI parts with a fingertip of the hand image data when creating the operation image. 前記操作内容判定部は、前記所定数の指先位置点と、前記タップ操作がされた指先位置点との各距離を算出し、前記所定数の指先位置点のうち、当該算出した距離が最も短い指先位置点に対応した指先を、前記タップ操作があった指先と特定することを特徴とする、請求項3に記載の入力装置。   The operation content determination unit calculates each distance between the predetermined number of fingertip position points and the fingertip position point where the tap operation has been performed, and the calculated distance is the shortest among the predetermined number of fingertip position points. The input device according to claim 3, wherein a fingertip corresponding to a fingertip position point is identified as a fingertip that has undergone the tap operation. 前記操作内容判定部は、前記タップ操作があったと特定した指先に対応付けられたGUIパーツが選択されたと判定し、当該GUIパーツに割り当てられた操作内容を、前記ユーザが行った操作内容と判定することを特徴とする、請求項4に記載の入力装置。   The operation content determination unit determines that the GUI part associated with the fingertip specified as having been subjected to the tap operation has been selected, and determines the operation content assigned to the GUI part as the operation content performed by the user. The input device according to claim 4, wherein: 前記接触領域検知部は、前記操作面と前記手との各接触点を独立して取得できるタッチパッドであることを特徴とする、請求項1に記載の入力装置。   The input device according to claim 1, wherein the contact area detection unit is a touch pad that can independently acquire contact points between the operation surface and the hand. 前記接触領域検知部の操作面上の領域をX座標及びY座標で表すと、
前記接触領域検知部は、
X座標軸と垂直な方向に光を発する多数のX発光部と、当該多数のX発光部が発した光を受光する多数のX受光部と、
Y座標軸と垂直な方向に光を発する多数のY発光部と、当該多数のY発光部が発した光を受光する多数のY受光部とを備えることを特徴とする、請求項1に記載の入力装置。
When the area on the operation surface of the contact area detection unit is represented by the X coordinate and the Y coordinate,
The contact area detector is
A number of X light emitting units that emit light in a direction perpendicular to the X coordinate axis; a number of X light receiving units that receive light emitted by the plurality of X light emitting units;
2. The apparatus according to claim 1, comprising: a plurality of Y light emitting units that emit light in a direction perpendicular to the Y coordinate axis; and a plurality of Y light receiving units that receive light emitted from the plurality of Y light emitting units. Input device.
前記接触領域検知部の操作面上の領域をX座標及びY座標で表すと、
前記接触領域検知部は、
X座標軸と垂直な方向にストライプ状の電流を流すXストライプ状導電膜と、
Y座標軸と垂直な方向にストライプ状の電流を流すYストライプ状導電膜とを備えることを特徴とする、請求項1に記載の入力装置。
When the area on the operation surface of the contact area detection unit is represented by the X coordinate and the Y coordinate,
The contact area detector is
An X-striped conductive film that causes a striped current to flow in a direction perpendicular to the X-coordinate axis;
The input device according to claim 1, further comprising a Y-striped conductive film that causes a striped current to flow in a direction perpendicular to the Y coordinate axis.
前記接触領域検知部の操作面上におけるユーザの手の長手方向をY座標軸の方向とし、当該Y座標軸と直交する方向をX座標軸の方向とすると、
前記操作内容判定部は、前記所定数の指先位置点のうち、前記タップ操作がされた指先位置点とのX座標が最も近い指先位置点に対応した指先を、前記タップ操作があった指先と特定することを特徴とする、請求項7又は8のいずれかに記載の入力装置。
When the longitudinal direction of the user's hand on the operation surface of the contact area detection unit is the direction of the Y coordinate axis, and the direction orthogonal to the Y coordinate axis is the direction of the X coordinate axis,
The operation content determination unit selects a fingertip corresponding to a fingertip position point having an X coordinate closest to the fingertip position point on which the tap operation has been performed among the predetermined number of fingertip position points as the fingertip on which the tap operation has been performed. The input device according to claim 7, wherein the input device is specified.
前記接触領域検知部の操作面上の領域をX座標及びY座標で表すと共に、前記接触領域検知部の操作面上におけるユーザの手の長手方向をY座標軸の方向とし、当該Y座標軸と直交する方向をX座標軸の方向とすると、
前記接触領域検知部は、
前記X座標軸と垂直な方向に光を発する多数のX発光部と、当該多数のX発光部が発した光を受光する多数のX受光部とを備えることを特徴とする、請求項1に記載の入力装置。
An area on the operation surface of the contact area detection unit is represented by an X coordinate and a Y coordinate, and the longitudinal direction of the user's hand on the operation surface of the contact area detection unit is a Y coordinate axis direction, which is orthogonal to the Y coordinate axis. If the direction is the direction of the X coordinate axis,
The contact area detector is
2. The apparatus according to claim 1, further comprising: a plurality of X light emitting units that emit light in a direction perpendicular to the X coordinate axis; and a plurality of X light receiving units that receive light emitted from the plurality of X light emitting units. Input device.
前記接触領域検知部の操作面上の領域をX座標及びY座標で表すと共に、前記接触領域検知部の操作面上におけるユーザの手の長手方向をY座標軸の方向とし、当該Y座標軸と直交する方向をX座標軸の方向とすると、
前記接触領域検知部は、
前記X座標軸と垂直な方向にストライプ状の電流を流すXストライプ状導電膜を備えることを特徴とする、請求項1に記載の入力装置。
An area on the operation surface of the contact area detection unit is represented by an X coordinate and a Y coordinate, and the longitudinal direction of the user's hand on the operation surface of the contact area detection unit is a Y coordinate axis direction, which is orthogonal to the Y coordinate axis. If the direction is the direction of the X coordinate axis,
The contact area detector is
The input device according to claim 1, further comprising an X-striped conductive film that causes a striped current to flow in a direction perpendicular to the X-coordinate axis.
請求項1に記載の入力装置を備えたハンドル。   A handle comprising the input device according to claim 1. 表示部に表示される操作画像を利用して、操作面に入力されるユーザの指示を操作対象機器に与える入力方法であって、
前記操作面と前記ユーザの手との接触領域を検知するステップと、
前記検知した接触領域に基づいて、前記操作面に現在接触している前記ユーザの手の指先位置を示す指先位置点を作成するステップと、
前記指先位置点が所定数あるか否かを判定するステップと、
前記指先位置点が所定数ある場合に、予め保持された前記操作対象機器に与える指示を割当てた前記所定数のGUIパーツと、予め保持された手を表す画像データである手画像データとを重畳させて、ユーザの操作に用いる操作画像を作成し、前記表示部に表示させるステップと、
前記所定数の指先位置点のいずれかがタップ操作された場合に、前記ユーザが行った操作内容を判定するステップと、
前記判定したユーザの操作内容をコマンドに変換し、前記操作対象機器に送信するステップとを備える、入力方法。
An input method that uses an operation image displayed on a display unit to give a user instruction input to an operation surface to an operation target device,
Detecting a contact area between the operation surface and the user's hand;
Creating a fingertip position point indicating a fingertip position of the user's hand currently in contact with the operation surface based on the detected contact area;
Determining whether there are a predetermined number of fingertip position points;
When there are a predetermined number of fingertip position points, the predetermined number of GUI parts to which an instruction to be given to the operation target device is held in advance and hand image data that is image data representing a hand held in advance are superimposed. And creating an operation image used for a user operation and displaying the operation image on the display unit;
A step of determining an operation content performed by the user when any of the predetermined number of fingertip position points is tapped;
An input method comprising: converting the determined user operation content into a command and transmitting the command to the operation target device.
JP2008235483A 2008-09-12 2008-09-12 Input device and input method Expired - Fee Related JP5027084B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008235483A JP5027084B2 (en) 2008-09-12 2008-09-12 Input device and input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008235483A JP5027084B2 (en) 2008-09-12 2008-09-12 Input device and input method

Publications (2)

Publication Number Publication Date
JP2010067217A true JP2010067217A (en) 2010-03-25
JP5027084B2 JP5027084B2 (en) 2012-09-19

Family

ID=42192713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008235483A Expired - Fee Related JP5027084B2 (en) 2008-09-12 2008-09-12 Input device and input method

Country Status (1)

Country Link
JP (1) JP5027084B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014013518A (en) * 2012-07-05 2014-01-23 Kyocera Corp Portable terminal, braille input method, and braille input program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099200A (en) * 2001-09-26 2003-04-04 Clarion Co Ltd Information equipment
JP2004062867A (en) * 2002-06-03 2004-02-26 Fuji Xerox Co Ltd Function controller and its method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099200A (en) * 2001-09-26 2003-04-04 Clarion Co Ltd Information equipment
JP2004062867A (en) * 2002-06-03 2004-02-26 Fuji Xerox Co Ltd Function controller and its method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014013518A (en) * 2012-07-05 2014-01-23 Kyocera Corp Portable terminal, braille input method, and braille input program

Also Published As

Publication number Publication date
JP5027084B2 (en) 2012-09-19

Similar Documents

Publication Publication Date Title
US9411424B2 (en) Input device for operating graphical user interface
CN101375235B (en) Information processing device
KR101453628B1 (en) A user interface
WO2013018480A1 (en) User interface device comprising touch pad for shrinking and displaying source image within screen capable of touch input, input processing method and program
JP4818036B2 (en) Touch panel control device and touch panel control method
JP2006072854A (en) Input device
JP2009157908A (en) Information display terminal, information display method, and program
JP2016009300A (en) Vehicle input device and vehicle cockpit module
JP3744116B2 (en) Display input device
WO2011055459A1 (en) Information processing device, method thereof, and display device
JP4924164B2 (en) Touch input device
JP2008065504A (en) Touch panel control device and touch panel control method
JPH11259237A (en) Picture display device
WO2021163020A1 (en) Non-contact gesture commands for touch screens
JP5790578B2 (en) Display system, display device, and operation device
US20150009136A1 (en) Operation input device and input operation processing method
WO2012026322A1 (en) Method and device for editing layout of objects
JP5027084B2 (en) Input device and input method
JP2010129026A (en) Input device
JP5062898B2 (en) User interface device
JP2012146017A (en) Electronic blackboard system, electronic blackboard system control method, program and recording medium therefor
US20150309601A1 (en) Touch input system and input control method
WO2021225044A1 (en) Information processing device, information processing method based on user input operation, and computer program for executing said method
WO2014181587A1 (en) Portable terminal device
JP2009184551A (en) On-vehicle equipment input device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110317

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120619

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120621

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees