JP2010113481A - Input device - Google Patents

Input device Download PDF

Info

Publication number
JP2010113481A
JP2010113481A JP2008284809A JP2008284809A JP2010113481A JP 2010113481 A JP2010113481 A JP 2010113481A JP 2008284809 A JP2008284809 A JP 2008284809A JP 2008284809 A JP2008284809 A JP 2008284809A JP 2010113481 A JP2010113481 A JP 2010113481A
Authority
JP
Japan
Prior art keywords
image
input signal
data
signal generation
mouse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008284809A
Other languages
Japanese (ja)
Other versions
JP5306780B2 (en
Inventor
Katsuyasu Furukawa
勝康 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2008284809A priority Critical patent/JP5306780B2/en
Publication of JP2010113481A publication Critical patent/JP2010113481A/en
Application granted granted Critical
Publication of JP5306780B2 publication Critical patent/JP5306780B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a new input device for generating an input signal by detecting the movement of an object. <P>SOLUTION: The input device 100 includes a display/photosensor part 300 for detecting a neighboring image; a plurality of input signal generation parts 12 for detecting the movement of an object on the basis of the image of the object detected by the display/photosensor part 300, and for generating the input signal associated with the movement of the object; and an input signal generation control part 11 for selecting any one input signal generation part 12 from the plurality of input signal generation parts 12 on the basis of the image of the object detected by the display/photosensor part 300, and for making the selected input signal generation part 12 generate the input signal. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、情報機器に対してユーザが入力を行なう際に用いられる入力装置に関するものであり、特に、対象物の動きを検出して入力信号を生成する入力装置に関するものである。   The present invention relates to an input device used when a user inputs information to an information device, and more particularly to an input device that detects an object motion and generates an input signal.

コンピュータ等の情報機器に対しユーザが入力を行なう際に用いる入力装置としては、マウス、ペンタブレット、ライトペン、ジョイスティック、タッチパネル、トラックボール、ポインティングスティック、キーボード等様々なものがあり、用途によってそれぞれが使い分けられている。   There are various types of input devices used when a user performs input to an information device such as a computer, such as a mouse, a pen tablet, a light pen, a joystick, a touch panel, a trackball, a pointing stick, and a keyboard. It is used properly.

例えば、マウスは、GUI(グラフィカルユーザインターフェイス)を介した入力に好適であり、マウスの移動、クリック、ホイール操作等を組み合わせることによってユーザは快適な操作感を得ることができる。また、ペンタブレットは、紙にペンを用いて描画するのと同様の感覚で操作することが可能であり、描画ソフトウェア等の操作に好適である。その他の入力装置についても、好適な用途がそれぞれ存在している。   For example, a mouse is suitable for input via a GUI (graphical user interface), and a user can obtain a comfortable operation feeling by combining mouse movement, click, wheel operation, and the like. Further, the pen tablet can be operated with the same feeling as when drawing with a pen on paper, and is suitable for operation of drawing software or the like. There are suitable applications for other input devices.

また、特許文献1は、手操作の形状をイメージ情報として形状認識して入力信号を生成する、疲れ難く操作性の良い入力装置を提案している。
特開昭59−132079号公報(昭和59年7月30日公開)
Further, Patent Document 1 proposes an input device that is easy to fatigue and has good operability, which recognizes the shape of a manual operation as image information and generates an input signal.
JP 59-1332079 (released July 30, 1984)

しかしながら、用途によって様々な入力装置が存在することからも示されるように、人間はより使い易い入力装置をさらに求めるものであり、新たな特徴を有する入力装置を提案することは有益である。裏を返せば、特許文献1に記載の入力装置は、人間のすべての要求を満たすような入力装置ではない。   However, as indicated by the existence of various input devices depending on the application, humans further seek input devices that are easier to use, and it is beneficial to propose input devices having new characteristics. In other words, the input device described in Patent Document 1 is not an input device that satisfies all human needs.

本発明は、上記課題に鑑みてなされたものであり、新たな入力装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide a new input device.

本発明に係る入力装置は、上記課題を解決するために、近傍の像を検知する面状部材と、上記面状部材が検知した対象物の像に基づいて当該対象物の動きを検出して、当該対象物の動きに関連付けられた入力信号を生成する複数の入力信号生成手段と、上記面状部材が検知した上記対象物の像に基づいて、上記複数の入力信号生成手段からいずれか一つの入力信号生成手段を選択して、選択した入力信号生成手段に上記入力信号を生成させる入力信号生成制御手段とを備えていることを特徴としている。   In order to solve the above problems, an input device according to the present invention detects a movement of an object based on a planar member that detects a nearby image and an image of the object detected by the planar member. One of the plurality of input signal generation means for generating an input signal associated with the movement of the object and the plurality of input signal generation means based on the image of the object detected by the planar member. An input signal generation control unit that selects one input signal generation unit and causes the selected input signal generation unit to generate the input signal is provided.

上記構成によれば、上記入力装置は、複数の入力信号生成手段を備えており、上記入力信号を生成させる入力信号生成手段を、上記面状部材が検知した上記対象物の像に基づいて選択するため、ユーザは、上記対象物を介して容易により適切な上記入力信号生成手段を選択して上記入力信号を生成させることができる。さらに、上記入力信号生成手段は、上記面状部材が検知した上記対象物の像に基づいて上記入力信号を生成するため、ユーザは、特別な器具を物理的に操作することなく容易に入力を行える上、上記入力信号生成手段の選択と、上記入力装置への入力とをシームレスに行うことができる。なお上記対象物の動きと入力信号との対応関係は、入力信号生成手段毎にそれぞれ異なっていることが好ましい。   According to the above configuration, the input device includes a plurality of input signal generation means, and selects the input signal generation means for generating the input signal based on the image of the object detected by the planar member. Therefore, the user can easily generate the input signal by selecting the more appropriate input signal generation means via the object. Furthermore, since the input signal generation means generates the input signal based on the image of the object detected by the planar member, the user can easily input without physically operating a special instrument. In addition, the selection of the input signal generation means and the input to the input device can be performed seamlessly. The correspondence between the movement of the object and the input signal is preferably different for each input signal generating means.

本発明に係る入力装置は、上記複数の入力信号生成手段のうちの少なくとも一つは、上記対象物が上記面状部材上の特定の位置を指示したことを検出して当該特定の位置を示す入力信号を生成するタブレット信号生成手段であることが好ましい。   In the input device according to the present invention, at least one of the plurality of input signal generating means detects that the object has pointed to a specific position on the planar member and indicates the specific position. A tablet signal generating means for generating an input signal is preferable.

上記構成によれば、上記入力装置は、上記対象物が上記面状部材上の特定の位置を指示したことを検出して当該特定の位置を示す上記入力信号を生成できるので、ユーザが、実際にペンを手に持たなくとも、ペンタブレット操作と同等の操作感で入力することを可能にすることができる。   According to the above configuration, the input device can detect that the target object has indicated a specific position on the planar member and generate the input signal indicating the specific position. Even if the user does not hold the pen in the hand, it is possible to input with the same operational feeling as the operation of the pen tablet.

本発明に係る入力装置は、上記複数の入力信号生成手段のうちの少なくとも一つは、上記対象物が上記面状部材上を移動したことを検出して当該移動の量を示す入力信号を生成するとともに、上記対象物の一部が上記面状部材から離れた後接近または接触したことを検出してクリック操作があったことを示す入力信号を生成するマウス信号生成手段であることが好ましい。   In the input device according to the present invention, at least one of the plurality of input signal generation means detects that the object has moved on the planar member and generates an input signal indicating the amount of the movement. In addition, it is preferable that the mouse signal generation means generates an input signal indicating that a click operation has been performed by detecting that a part of the object has approached or contacted after being separated from the planar member.

上記構成によれば、上記入力装置は、上記対象物が上記面状部材上を移動したことを検出して当該移動の量を示す上記入力信号を生成するとともに、上記対象物の一部が上記面状部材から離れた後接触したことを検出してクリック操作があったことを示す上記入力信号を生成することができるので、ユーザが、実際にマウスを手に持たなくとも、マウス操作と同等の操作感で入力することを可能にすることができる。   According to the above configuration, the input device detects that the object has moved on the planar member and generates the input signal indicating the amount of the movement, and a part of the object is It is possible to generate the above input signal indicating that there was a click operation by detecting contact after leaving the planar member, so that even if the user does not actually hold the mouse, it is equivalent to the mouse operation It is possible to input with a feeling of operation.

本発明に係る入力装置では、上記マウス信号生成手段が、上記対象物の一部が上記面状部材に接近または接触した状態で移動したことを検出してホイール操作があったことを示す入力信号を生成してもよい。   In the input device according to the present invention, the mouse signal generation means detects that a part of the object has moved in a state of approaching or contacting the planar member, and indicates that there has been a wheel operation. May be generated.

上記構成によれば、上記入力装置は、上記対象物の一部が上記面状部材に接触した状態で移動したことを検出してホイール操作があったことを示す上記入力信号を生成することができるので、ユーザが、実際にホイール付マウスを手に持たなくとも、ホイール付マウス操作と同等の操作感で入力することを可能にすることができる。   According to the above configuration, the input device detects that a part of the object has moved in contact with the planar member and generates the input signal indicating that there has been a wheel operation. Therefore, even if the user does not actually hold the mouse with a wheel, the user can input with an operation feeling equivalent to the mouse operation with a wheel.

本発明に係る入力装置では、上記入力信号生成制御手段は、上記面状部材が検知した上記対象物の像と、上記複数の入力信号生成手段のそれぞれに関連付けられた基準画像とを比較することにより、上記複数の入力信号生成手段からいずれか一つの入力信号生成手段を選択することが好ましい。   In the input device according to the present invention, the input signal generation control means compares the image of the object detected by the planar member with a reference image associated with each of the plurality of input signal generation means. Accordingly, it is preferable to select any one input signal generation unit from the plurality of input signal generation units.

上記構成によれば、上記入力装置は、上記対象物の像と、上記基準画像とを比較することにより、用いる入力信号生成手段を選択する。ここで、上記基準画像は、何れかの上記入力信号生成手段に関連付けられているため、ユーザが意図する上記入力信号生成手段を上記対象物の形態によって示したときに、上記入力装置は、上記対象物の像に基づいて、首尾よく上記ユーザが意図する入力信号生成手段を選択することができる。   According to the above configuration, the input device selects an input signal generation unit to be used by comparing the image of the object with the reference image. Here, since the reference image is associated with any one of the input signal generation means, when the input signal generation means intended by the user is indicated by the form of the object, the input device Based on the image of the object, the input signal generation means intended by the user can be successfully selected.

本発明に係る入力装置では、上記入力信号生成制御手段は、上記面状部材が検知した上記対象物の像と、ある上記基準画像に移動、回転、拡大および縮小からなる群より選ばれる一つ以上の画像処理を施した画像、または当該ある基準画像との重複率に基づいて、当該ある基準画像に関連付けられた入力信号生成手段を選択するか否かを決定することが好ましい。   In the input device according to the present invention, the input signal generation control means is one selected from the group consisting of an image of the object detected by the planar member and a certain reference image that is moved, rotated, enlarged and reduced. It is preferable to determine whether or not to select an input signal generation unit associated with the certain reference image based on the image subjected to the above image processing or the overlapping rate with the certain reference image.

上記構成によれば、上記入力装置は、移動、回転、拡大および縮小等の処理を上記基準画像に施した後に上記対象物の像と比較することにより、ユーザが提示する上記対象物が標準的な形態から外れていたとしても、ユーザの意図する上記入力信号生成手段を首尾よく選択することができる。   According to the above configuration, the input device is configured such that the object presented by the user is standardized by performing processing such as movement, rotation, enlargement, and reduction on the reference image and then comparing it with the image of the object. Even if it deviates from this form, the input signal generation means intended by the user can be successfully selected.

本発明に係る入力装置では、上記面状部材が、画像を表示するものであり、上記入力信号生成制御手段が選択した上記入力信号生成手段に関連付けられた補助画像を上記面状部材に表示させる補助画像表示制御手段をさらに備えていることが好ましい。   In the input device according to the present invention, the planar member displays an image, and an auxiliary image associated with the input signal generation unit selected by the input signal generation control unit is displayed on the planar member. It is preferable to further include auxiliary image display control means.

上記構成によれば、上記面状部材上に上記入力信号生成手段に関連付けられた補助画像を表示することができる。これにより、ユーザに対し、上記入力装置が、現在何れの入力信号生成手段を用いて、上記対象物の動きを検出して信号を生成しているのかを提示することができるほか、ユーザが選択された上記入力信号生成手段に適合した入力を行う際に補助となるような画像、例えば、選択された上記入力信号生成手段が、上記対象物が特定の位置を指示したことを検出して当該特定の位置を示す入力信号を生成するような場合には、目的とする位置をユーザが指示し易くする、方眼(グリッド)等の画像を上記面状部材に表示させることが可能となる。   According to the said structure, the auxiliary | assistant image linked | related with the said input signal production | generation means can be displayed on the said planar member. As a result, the input device can present to the user which input signal generation means is currently used to detect the movement of the object and generate a signal. An image that assists in performing input suitable for the input signal generation means, for example, the selected input signal generation means detects that the object has pointed to a specific position, and When an input signal indicating a specific position is generated, an image such as a grid (grid) that makes it easy for the user to specify the target position can be displayed on the planar member.

本発明に係る入力装置では、上記補助画像が、ペン画像、マウス画像およびグリッド画像からなる群より選ばれる補助画像であってもよい。   In the input device according to the present invention, the auxiliary image may be an auxiliary image selected from the group consisting of a pen image, a mouse image, and a grid image.

上記構成によれば、上記補助画像としてペン画像、マウス画像およびグリッド画が用いられるため、特に、タブレット入力またはマウス入力を模した入力方式により入力を行う上記入力信号生成手段が選択されているときに好適な補助画像を表示し得る。   According to the above configuration, since the pen image, the mouse image, and the grid image are used as the auxiliary image, particularly when the input signal generation unit that performs input by an input method simulating tablet input or mouse input is selected. A suitable auxiliary image can be displayed.

本発明に係る入力装置の制御方法は、近傍の像を検知する面状部材と、上記面状部材が検知した上記対象物の像に基づいて当該対象物の動きを検出して、当該対象物の動きに関連付けられた上記入力信号を生成する複数の入力信号生成手段とを備えた入力装置の制御方法であって、上記面状部材が検知した上記対象物の像に基づいて、上記複数の入力信号生成手段からいずれか一つの上記入力信号生成手段を選択して、選択した当該入力信号生成手段に上記入力信号を生成させる入力信号生成制御工程を包含することを特徴としている。   The control method of the input device according to the present invention includes a planar member that detects an image in the vicinity and a motion of the target object based on the image of the target object detected by the planar member, and the target object A plurality of input signal generating means for generating the input signal associated with the movement of the input device, the plurality of input signal generating means, and based on the image of the object detected by the planar member, It includes an input signal generation control step of selecting any one of the input signal generation means from the input signal generation means and causing the selected input signal generation means to generate the input signal.

上記構成によれば、本発明に係る入力装置と同等の効果を奏することができる。   According to the said structure, there can exist an effect equivalent to the input device which concerns on this invention.

上記の構成によれば、本発明に係る画像表示/像検知装置と同様の作用効果を奏する。   According to said structure, there exists an effect similar to the image display / image detection apparatus which concerns on this invention.

また、本発明に係る画像表示/像検知装置を動作させるためのプログラムであって、コンピュータを上記の各手段として駆動させることを特徴とするプログラムも本発明の範疇に含まれる。   Further, a program for operating the image display / image detection apparatus according to the present invention, which is characterized in that the computer is driven as each of the above means, is also included in the scope of the present invention.

本発明に係る入力装置は、複数の入力信号生成手段を備えているので、ユーザは、適切な入力信号生成手段を選択して入力を行うことができる上、上記入力装置は、上記入力信号生成手段の選択を、検知した対象物の像に基づいて行うため、ユーザは、容易に適切な入力信号生成手段を選択することができ、これにより上記入力装置に対する入力を首尾よく行うことができる。   Since the input device according to the present invention includes a plurality of input signal generation units, the user can select and input an appropriate input signal generation unit, and the input device can generate the input signal. Since the selection of the means is performed based on the detected image of the target object, the user can easily select an appropriate input signal generation means, and thereby can perform input to the input device successfully.

本発明の一実施形態に係る入力装置100は、近傍の像を検知することができるセンサ内蔵液晶パネル(面状部材)301を備えており、これにより対象物64の像の読み取りを行ない、読み取った対象物64の像に基づいて入力信号を生成する装置である。   The input device 100 according to an embodiment of the present invention includes a sensor built-in liquid crystal panel (planar member) 301 that can detect a nearby image, thereby reading and reading an image of the object 64. This is an apparatus for generating an input signal based on the image of the target object 64.

なお、本明細書において、対象物とは、ユーザが入力を行なうために用いる物体を指している。具体的には、手を想定している。また、入力信号とは、上記物体を用いてユーザが入力する情報を示す信号である。また、対象物の像の読み取りを、以下では、スキャンとも称する。   In the present specification, the object refers to an object used for the user to input. Specifically, a hand is assumed. The input signal is a signal indicating information input by the user using the object. In addition, reading of an image of an object is also referred to as a scan below.

一実施形態において入力装置100は、タブレットモードとマウスモードとの複数の入力モードを備えており、それらを切り替えて使用することができる。   In one embodiment, the input device 100 includes a plurality of input modes of a tablet mode and a mouse mode, and can be used by switching them.

図15はタブレットモードの概要を示す模式図である。図15に示すように、本モードにおいてユーザは手(対象物64)をペンを持つような形に結んで操作を行う。このとき、入力装置100は、ユーザの手の形状をセンサ内蔵液晶パネル301を用いて読み取り、その手に仮想的に握られているペン先の位置を検出して入力信号とする。なお、入力装置100は、図15に示すように、検出した位置にペン画像171を表示することが好ましい。また、タブレットモードでは、ユーザによる入力を助けるグリッド画像172を表示することが好ましい。   FIG. 15 is a schematic diagram showing an outline of the tablet mode. As shown in FIG. 15, in this mode, the user performs an operation with his / her hand (object 64) tied in a shape holding a pen. At this time, the input device 100 reads the shape of the user's hand using the sensor built-in liquid crystal panel 301 and detects the position of the pen nib virtually held by the hand as an input signal. Note that the input device 100 preferably displays a pen image 171 at the detected position, as shown in FIG. In the tablet mode, it is preferable to display a grid image 172 that assists the user in inputting.

図17は、マウスモードの概要を示す模式図である。図17に示すように、本モードにおいてユーザは手(対象物64)をマウスを持つような形にして操作を行う。このとき、入力装置100は、ユーザの手の形状をセンサ内蔵液晶パネル301を用いて読み取り、その手に仮想的に握られているマウスの移動等を検出して入力信号とする。なお、入力装置100は、図17に示すように、検出したマウスの位置にマウス画像174を表示することが好ましい。   FIG. 17 is a schematic diagram showing an outline of the mouse mode. As shown in FIG. 17, in this mode, the user operates the hand (object 64) with a mouse. At this time, the input device 100 reads the shape of the user's hand using the sensor built-in liquid crystal panel 301, detects the movement of the mouse virtually held by the hand, and the like as an input signal. Note that the input device 100 preferably displays a mouse image 174 at the detected mouse position, as shown in FIG.

そして、ユーザは、入力装置100における上記タブレットモードと上記マウスモードとの切換を自然に行うことができる。すなわち、ユーザは、手(対象物64)の形を、ペンを持つような形にするか、マウスを持つような形にするかによって、上記入力モードを直感的に切り替えることができる。   The user can naturally switch between the tablet mode and the mouse mode in the input device 100. That is, the user can intuitively switch the input mode depending on whether the shape of the hand (object 64) is a shape with a pen or a shape with a mouse.

以下、上述した機能を実現する各部材の構成について詳細に説明する。まず、上記入力装置100が備えるセンサ内蔵液晶パネル301の概要について説明する。   Hereinafter, the structure of each member which implement | achieves the function mentioned above is demonstrated in detail. First, an outline of the sensor built-in liquid crystal panel 301 included in the input device 100 will be described.

(センサ内蔵液晶パネルの概要)
上記入力装置100が備えるセンサ内蔵液晶パネル301は、データの表示に加え、対象物の画像検出が可能な液晶パネルである。ここで、対象物の画像検出とは、例えば、ユーザが指やペンなどでポインティング(タッチ)した位置の検出や、印刷物等の画像の読み取り(スキャン)である。なお、表示に用いるデバイスは、液晶パネルに限定されるものではなく、有機EL(Electro Luminescence)パネルなどであってもよい。
(Outline of LCD panel with built-in sensor)
The sensor built-in liquid crystal panel 301 provided in the input device 100 is a liquid crystal panel capable of detecting an image of an object in addition to displaying data. Here, the image detection of the object is, for example, detection of a position pointed (touched) by the user with a finger or a pen, or reading (scanning) of an image of a printed material. The device used for display is not limited to a liquid crystal panel, and may be an organic EL (Electro Luminescence) panel or the like.

図2を参照しながら、センサ内蔵液晶パネル301の構造について説明する。図2は、センサ内蔵液晶パネル301の断面を模式的に示す図である。なお、ここで説明するセンサ内蔵液晶パネル301は一例であり、表示面と読取面とが共用されているものであれば、任意の構造のものが利用できる。   The structure of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 2 is a diagram schematically showing a cross section of the sensor built-in liquid crystal panel 301. The sensor built-in liquid crystal panel 301 described here is an example, and any structure can be used as long as the display surface and the reading surface are shared.

図示のとおり、センサ内蔵液晶パネル301は、背面側に配置されるアクティブマトリクス基板51Aと、表面側に配置される対向基板51Bとを備え、これら基板の間に液晶層52を挟持した構造を有している。アクティブマトリクス基板51Aには、画素電極56、データ信号線57、光センサ回路32(図示せず)、配向膜58、偏光板59などが設けられる。対向基板51Bには、カラーフィルタ53r(赤)、53g(緑)、53b(青)、遮光膜54、対向電極55、配向膜58、偏光板59などが設けられる。また、センサ内蔵液晶パネル301の背面には、バックライト307が設けられている。   As shown in the figure, the sensor built-in liquid crystal panel 301 includes an active matrix substrate 51A disposed on the back surface side and a counter substrate 51B disposed on the front surface side, and has a structure in which a liquid crystal layer 52 is sandwiched between these substrates. is doing. The active matrix substrate 51A is provided with a pixel electrode 56, a data signal line 57, an optical sensor circuit 32 (not shown), an alignment film 58, a polarizing plate 59, and the like. The counter substrate 51B is provided with color filters 53r (red), 53g (green), 53b (blue), a light shielding film 54, a counter electrode 55, an alignment film 58, a polarizing plate 59, and the like. In addition, a backlight 307 is provided on the back surface of the sensor built-in liquid crystal panel 301.

なお、光センサ回路32に含まれるフォトダイオード6は、青のカラーフィルタ53bを設けた画素電極56の近傍に設けられているが、この構成に限定されるものではない。赤のカラーフィルタ53rを設けた画素電極56の近傍に設けてもよいし、緑のカラーフィルタ53gを設けた画素電極56の近傍に設けてもよい。   The photodiode 6 included in the photosensor circuit 32 is provided in the vicinity of the pixel electrode 56 provided with the blue color filter 53b, but is not limited to this configuration. It may be provided in the vicinity of the pixel electrode 56 provided with the red color filter 53r, or may be provided in the vicinity of the pixel electrode 56 provided with the green color filter 53g.

次に、図3(a)および図3(b)を参照しながら、ユーザが、指やペンで、センサ内蔵液晶パネル301上をタッチした位置を検出する2種類の方法について説明する。   Next, with reference to FIGS. 3A and 3B, two types of methods for detecting the position where the user touches the sensor built-in liquid crystal panel 301 with a finger or a pen will be described.

図3(a)は、反射像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。バックライト307から光63が出射されると、フォトダイオード6を含む光センサ回路32は、対象物64により反射された光63を検知する。これにより、対象物64の反射像を検知することができる。このように、センサ内蔵液晶パネル301は、反射像を検知することにより、タッチした位置を検出することができる。   FIG. 3A is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a reflected image. When the light 63 is emitted from the backlight 307, the optical sensor circuit 32 including the photodiode 6 detects the light 63 reflected by the object 64. Thereby, the reflected image of the target object 64 can be detected. Thus, the sensor built-in liquid crystal panel 301 can detect the touched position by detecting the reflected image.

また、図3(b)は、影像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。図3(b)に示すように、フォトダイオード6を含む光センサ回路32は、対向基板51Bなどを透過した外光61を検知する。しかしながら、対象物64がある場合は、外光61の入射が妨げられるので、光センサ回路32が検知する光量が減る。これにより、対象物64の影像を検知することができる。このように、センサ内蔵液晶パネル301は、影像を検知することにより、タッチした位置を検出することもできる。   FIG. 3B is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a shadow image. As shown in FIG. 3B, the optical sensor circuit 32 including the photodiode 6 detects external light 61 transmitted through the counter substrate 51B and the like. However, when the object 64 is present, the incident of the external light 61 is hindered, so that the amount of light detected by the optical sensor circuit 32 is reduced. Thereby, the image of the target object 64 can be detected. Thus, the sensor built-in liquid crystal panel 301 can also detect a touched position by detecting a shadow image.

上述のように、フォトダイオード6は、バックライト307より出射された光の反射光(影像)を検知してもよいし、外光による影像を検知してもよい。また、上記2種類の検知方法を併用して、影像と反射像とを両方を同時に検知するようにしてもよい。   As described above, the photodiode 6 may detect reflected light (shadow image) of the light emitted from the backlight 307 or may detect a shadow image caused by external light. Further, the two types of detection methods may be used in combination to detect both a shadow image and a reflected image at the same time.

(入力装置の要部構成)
次に、図4を参照しながら、上記入力装置100の要部構成について説明する。図4は、入力装置100の要部構成を示すブロック図である。図示のように、入力装置100は、1または複数の表示/光センサ部300、回路制御部600、データ処理部700、主制御部800、記憶部901、一次記憶部902、操作部903、外部通信部907、音声出力部908、および音声入力部909を備えている。
(Main components of the input device)
Next, with reference to FIG. 4, the configuration of the main part of the input device 100 will be described. FIG. 4 is a block diagram illustrating a main configuration of the input device 100. As illustrated, the input device 100 includes one or more display / light sensor units 300, a circuit control unit 600, a data processing unit 700, a main control unit 800, a storage unit 901, a primary storage unit 902, an operation unit 903, an external device A communication unit 907, an audio output unit 908, and an audio input unit 909 are provided.

表示/光センサ部300は、いわゆる光センサ内蔵液晶表示装置である。表示/光センサ部300は、センサ内蔵液晶パネル301、バックライト307、それらを駆動するための周辺回路309を含んで構成される。   The display / light sensor unit 300 is a so-called liquid crystal display device with a built-in light sensor. The display / light sensor unit 300 includes a sensor built-in liquid crystal panel 301, a backlight 307, and a peripheral circuit 309 for driving them.

センサ内蔵液晶パネル301は、マトリクス状に配置された複数の画素回路31および光センサ回路32を含んで構成される。センサ内蔵液晶パネル301の詳細な構成については後述する。   The sensor built-in liquid crystal panel 301 includes a plurality of pixel circuits 31 and photosensor circuits 32 arranged in a matrix. The detailed configuration of the sensor built-in liquid crystal panel 301 will be described later.

周辺回路309は、液晶パネル駆動回路304、光センサ駆動回路305、信号変換回路306、バックライト駆動回路308を含む。   The peripheral circuit 309 includes a liquid crystal panel drive circuit 304, an optical sensor drive circuit 305, a signal conversion circuit 306, and a backlight drive circuit 308.

液晶パネル駆動回路304は、回路制御部600の表示制御部601からのタイミング制御信号(TC1)およびデータ信号(D)に従って、制御信号(G)およびデータ信号(S)を出力し、画素回路31を駆動する回路である。画素回路31の駆動方法の詳細については後述する。   The liquid crystal panel driving circuit 304 outputs a control signal (G) and a data signal (S) in accordance with the timing control signal (TC1) and the data signal (D) from the display control unit 601 of the circuit control unit 600, and the pixel circuit 31. It is a circuit which drives. Details of the driving method of the pixel circuit 31 will be described later.

光センサ駆動回路305は、回路制御部600のセンサ制御部602からのタイミング制御信号(TC2)に従って、信号線(R)に電圧を印加し、光センサ回路32を駆動する回路である。光センサ回路32の駆動方法の詳細については後述する。   The optical sensor driving circuit 305 is a circuit that drives the optical sensor circuit 32 by applying a voltage to the signal line (R) in accordance with a timing control signal (TC2) from the sensor control unit 602 of the circuit control unit 600. Details of the driving method of the optical sensor circuit 32 will be described later.

信号変換回路306は、光センサ回路32から出力されるセンサ出力信号(SS)をデジタル信号(DS)に変換し、該変換後の信号をセンサ制御部602に送信する回路である。   The signal conversion circuit 306 is a circuit that converts the sensor output signal (SS) output from the optical sensor circuit 32 into a digital signal (DS) and transmits the converted signal to the sensor control unit 602.

バックライト307は、複数の白色LED(Light Emitting Diode)を含んでおり、センサ内蔵液晶パネル301の背面に配置される。そして、バックライト駆動回路308から電源電圧が印加されると、バックライト307は点灯し、センサ内蔵液晶パネル301に光を照射する。なお、バックライト307は、白色LEDに限らず、他の色のLEDを含んでいてもよい。また、バックライト307は、LEDに代えて、例えば、冷陰極管(CCFL:Cold Cathode Fluorescent Lamp)を含むものであってもよい。   The backlight 307 includes a plurality of white LEDs (Light Emitting Diodes) and is disposed on the back surface of the sensor built-in liquid crystal panel 301. When a power supply voltage is applied from the backlight drive circuit 308, the backlight 307 is turned on and irradiates the sensor built-in liquid crystal panel 301 with light. Note that the backlight 307 is not limited to white LEDs, and may include LEDs of other colors. The backlight 307 may include, for example, a cold cathode fluorescent lamp (CCFL) instead of the LED.

バックライト駆動回路308は、回路制御部600のバックライト制御部603からの制御信号(BK)がハイレベルであるときは、バックライト307に電源電圧を印加し、逆に、バックライト制御部603からの制御信号がローレベルであるときは、バックライト307に電源電圧を印加しない。   The backlight driving circuit 308 applies a power supply voltage to the backlight 307 when the control signal (BK) from the backlight control unit 603 of the circuit control unit 600 is at a high level, and conversely, the backlight control unit 603. When the control signal from is at a low level, no power supply voltage is applied to the backlight 307.

次に、回路制御部600について説明する。回路制御部600は、表示/光センサ部300の周辺回路309を制御するデバイスドライバとしての機能を備えるものである。回路制御部600は、表示制御部601、センサ制御部602、バックライト制御部603、および表示データ記憶部604を備えている。   Next, the circuit control unit 600 will be described. The circuit control unit 600 has a function as a device driver that controls the peripheral circuit 309 of the display / light sensor unit 300. The circuit control unit 600 includes a display control unit 601, a sensor control unit 602, a backlight control unit 603, and a display data storage unit 604.

表示制御部601は、データ処理部700の表示データ処理部701から表示データを受信するとともに、表示データ処理部701からの指示に従って、表示/光センサ部300の液晶パネル駆動回路304に、タイミング制御信号(TC1)およびデータ信号(D)を送信し、上記受信した表示データをセンサ内蔵液晶パネル301に表示させる。   The display control unit 601 receives display data from the display data processing unit 701 of the data processing unit 700, and performs timing control on the liquid crystal panel driving circuit 304 of the display / light sensor unit 300 in accordance with an instruction from the display data processing unit 701. A signal (TC1) and a data signal (D) are transmitted, and the received display data is displayed on the sensor built-in liquid crystal panel 301.

なお、表示制御部601は、表示データ処理部701から受信した表示データを、表示データ記憶部604に一次記憶させる。そして、当該一次記憶させた表示データに基づいて、データ信号(D)を生成する。表示データ記憶部604は、例えば、VRAM(video random access memory)などである。   The display control unit 601 temporarily stores the display data received from the display data processing unit 701 in the display data storage unit 604. Then, a data signal (D) is generated based on the primary stored display data. The display data storage unit 604 is, for example, a video random access memory (VRAM).

センサ制御部602は、データ処理部700のセンサデータ処理部703からの指示に従って、表示/光センサ部300の光センサ駆動回路305に、タイミング制御信号(TC2)を送信し、センサ内蔵液晶パネル301にてスキャンを実行させる。   The sensor control unit 602 transmits a timing control signal (TC2) to the optical sensor driving circuit 305 of the display / optical sensor unit 300 in accordance with an instruction from the sensor data processing unit 703 of the data processing unit 700, and the sensor built-in liquid crystal panel 301. Run the scan with.

また、センサ制御部602は、信号変換回路306からデジタル信号(DS)を受信する。そして、センサ内蔵液晶パネル301に含まれる全ての光センサ回路32から出力されたセンサ出力信号(SS)に対応するデジタル信号(DS)に基づいて、画像データを生成する。つまり、センサ内蔵液晶パネル301の読み取り領域全体で読み取った画像データを生成する。そして、該生成した画像データをセンサデータ処理部703に送信する。   In addition, the sensor control unit 602 receives a digital signal (DS) from the signal conversion circuit 306. Then, image data is generated based on the digital signal (DS) corresponding to the sensor output signal (SS) output from all the optical sensor circuits 32 included in the sensor built-in liquid crystal panel 301. That is, the image data read in the entire reading area of the sensor built-in liquid crystal panel 301 is generated. Then, the generated image data is transmitted to the sensor data processing unit 703.

バックライト制御部603は、表示データ処理部701およびセンサデータ処理部703からの指示に従って、表示/光センサ部300のバックライト駆動回路308に制御信号(BK)を送信し、バックライト307を駆動させる。   The backlight control unit 603 transmits a control signal (BK) to the backlight drive circuit 308 of the display / light sensor unit 300 in accordance with instructions from the display data processing unit 701 and the sensor data processing unit 703 to drive the backlight 307. Let

なお、入力装置100が、複数の表示/光センサ部300を備える場合、表示制御部601は、データ処理部700から、どの表示/光センサ部300にて表示データを表示するかの指示を受けたとき、当該指示に応じた表示/光センサ部300の液晶パネル駆動回路304を制御する。また、センサ制御部602は、データ処理部700から、どの表示/光センサ部300にて対象物のスキャンを行なうかの指示を受けたとき、当該指示に応じた表示/光センサ部300の光センサ駆動回路305を制御するとともに、当該指示に応じた表示/光センサ部300の信号変換回路306からデジタル信号(DS)を受信する。   When the input device 100 includes a plurality of display / light sensor units 300, the display control unit 601 receives an instruction from the data processing unit 700 regarding which display / light sensor unit 300 displays the display data. In response, the liquid crystal panel drive circuit 304 of the display / light sensor unit 300 is controlled according to the instruction. When the sensor control unit 602 receives an instruction from the data processing unit 700 as to which display / light sensor unit 300 is to scan the object, The sensor drive circuit 305 is controlled and a digital signal (DS) is received from the signal conversion circuit 306 of the display / light sensor unit 300 according to the instruction.

次に、データ処理部700について説明する。データ処理部700は、主制御部800から受信する「コマンド」に基づいて、回路制御部600に指示を与えるミドルウェアとしての機能を備えるものである。なお、コマンドの詳細については後述する。   Next, the data processing unit 700 will be described. The data processing unit 700 has a function as middleware that gives an instruction to the circuit control unit 600 based on a “command” received from the main control unit 800. Details of the command will be described later.

データ処理部700は、表示データ処理部701およびセンサデータ処理部703を備えている。そして、データ処理部700が、主制御部800からコマンドを受信すると、該受信したコマンドに含まれる各フィールド(後述する)の値に応じて、表示データ処理部701およびセンサデータ処理部703の少なくとも一方が動作する。   The data processing unit 700 includes a display data processing unit 701 and a sensor data processing unit 703. When the data processing unit 700 receives a command from the main control unit 800, at least one of the display data processing unit 701 and the sensor data processing unit 703 depends on the value of each field (described later) included in the received command. One works.

表示データ処理部701は、主制御部800から表示データを受信するとともに、データ処理部700が受信したコマンドに従って、表示制御部601およびバックライト制御部603に指示を与え、上記受信した表示データをセンサ内蔵液晶パネル301に表示させる。なお、コマンドに応じた、表示データ処理部701の動作については、後述する。   The display data processing unit 701 receives display data from the main control unit 800, and gives instructions to the display control unit 601 and the backlight control unit 603 according to the command received by the data processing unit 700, and displays the received display data. The image is displayed on the sensor built-in liquid crystal panel 301. The operation of the display data processing unit 701 according to the command will be described later.

センサデータ処理部703は、データ処理部700が受信したコマンドに従って、センサ制御部602およびバックライト制御部603に指示を与える。   The sensor data processing unit 703 gives an instruction to the sensor control unit 602 and the backlight control unit 603 according to the command received by the data processing unit 700.

また、センサデータ処理部703は、センサ制御部602から画像データを受信し、当該画像データをそのまま画像データバッファ704に格納する。そして、センサデータ処理部703は、データ処理部700が受信したコマンドに従って、画像データバッファ704に記憶されている画像データに基づいて、「全体画像データ」、「部分画像データ(部分画像の座標データを含む)」、および「座標データ」の少なくともいずれか1つを、主制御部800に送信する。なお、全体画像データ、部分画像データ、および座標データについては、後述する。また、コマンドに応じた、センサデータ処理部703の動作については、後述する。   The sensor data processing unit 703 receives image data from the sensor control unit 602 and stores the image data in the image data buffer 704 as it is. Then, in accordance with the command received by the data processing unit 700, the sensor data processing unit 703 performs “whole image data”, “partial image data (partial image coordinate data) based on the image data stored in the image data buffer 704. At least one of “including coordinate data” and “coordinate data” is transmitted to the main control unit 800. The whole image data, partial image data, and coordinate data will be described later. The operation of the sensor data processing unit 703 according to the command will be described later.

次に、主制御部800は、アプリケーションプログラムを実行するものである。主制御部800は、記憶部901に格納されているプログラムを、例えばRAM(Random Access Memory)等で構成される一次記憶部902に読み出して実行する。   Next, the main control unit 800 executes an application program. The main control unit 800 reads the program stored in the storage unit 901 into a primary storage unit 902 configured by, for example, a RAM (Random Access Memory) and executes the program.

主制御部800で実行されるアプリケーションプログラムは、センサ内蔵液晶パネル301に表示データを表示させたり、センサ内蔵液晶パネル301にて対象物のスキャンを行なわせるために、データ処理部700に対して、コマンドおよび表示データを送信する。また、コマンドに「データ種別」を指定した場合は、当該コマンドの応答として、全体画像データ、部分画像データ、および座標データの少なくともいずれか1つを、データ処理部700から受信する。   An application program executed by the main control unit 800 causes the data processing unit 700 to display display data on the sensor built-in liquid crystal panel 301 or to scan an object on the sensor built-in liquid crystal panel 301. Send commands and display data. When “data type” is designated as a command, at least one of whole image data, partial image data, and coordinate data is received from the data processing unit 700 as a response to the command.

なお、回路制御部600、データ処理部700、および主制御部800は、それぞれ、CPU(Central Processing Unit)およびメモリ等で構成することができる。また、データ処理部700は、ASIC(application specific integrate circuit)などの回路で構成されていてもよい。   The circuit control unit 600, the data processing unit 700, and the main control unit 800 can be configured by a CPU (Central Processing Unit), a memory, and the like, respectively. The data processing unit 700 may be configured by a circuit such as an ASIC (application specific integrate circuit).

次に、記憶部901は、図示のように、主制御部800が実行するプログラムおよびデータを格納するものである。なお、主制御部800が実行するプログラムは、アプリケーション固有のプログラムと、各アプリケーションが共用可能な汎用プログラムとに分離されていてもよい。   Next, the storage unit 901 stores programs and data executed by the main control unit 800 as shown in the figure. The program executed by the main control unit 800 may be separated into an application-specific program and a general-purpose program that can be shared by each application.

次に、操作部903は、入力装置100のユーザの入力操作を受けつけるものである。操作部903は、例えば、スイッチ、リモコン、マウス、キーボードなどの入力デバイスで構成される。そして、操作部903は、入力装置100のユーザの入力操作に応じた制御信号を生成し、該生成した制御信号を主制御部800へ送信する。   Next, the operation unit 903 receives an input operation of the user of the input device 100. The operation unit 903 includes input devices such as a switch, a remote controller, a mouse, and a keyboard, for example. Then, the operation unit 903 generates a control signal corresponding to the input operation of the user of the input device 100 and transmits the generated control signal to the main control unit 800.

なお、上記スイッチの例としては、電源のオンとオフとを切り替える電源スイッチ905、予め所定の機能が割り当てられているユーザスイッチ906などのハードウェアスイッチを想定している。   As an example of the switch, a hardware switch such as a power switch 905 that switches power on and off and a user switch 906 to which a predetermined function is assigned in advance is assumed.

その他、入力装置100は、無線/有線通信によって外部装置と通信を行なうための外部通信部907、音声を出力するためのスピーカ等の音声出力部908、音声信号を入力するためのマイク等の音声入力部909などを適宜備えていてもよい。   In addition, the input device 100 includes an external communication unit 907 for communicating with an external device by wireless / wired communication, an audio output unit 908 such as a speaker for outputting audio, and an audio such as a microphone for inputting an audio signal. An input unit 909 or the like may be provided as appropriate.

(コマンドの詳細)
次に、図5および図6を参照しながら、主制御部800からデータ処理部700に送信されるコマンドの詳細について説明する。図5は、コマンドのフレーム構造の一例を模式的に示す図である。また、図6は、コマンドに含まれる各フィールドに指定可能な値の一例、および、その概要を説明する図である。
(Command details)
Next, details of commands transmitted from the main control unit 800 to the data processing unit 700 will be described with reference to FIGS. 5 and 6. FIG. 5 is a diagram schematically illustrating an example of a command frame structure. FIG. 6 is a diagram for explaining an example of values that can be specified for each field included in the command and an outline thereof.

図5に示すように、コマンドは、「ヘッダ」、「データ取得タイミング」、「データ種別」、「スキャン方式」、「スキャン画像階調」、「スキャン解像度」、「スキャンパネル」、「表示パネル」、および「予備」の各フィールドを含んでいる。そして、各フィールドには、例えば、図6に示す値が指定可能である。   As shown in FIG. 5, the commands are “header”, “data acquisition timing”, “data type”, “scan method”, “scan image gradation”, “scan resolution”, “scan panel”, “display panel”. "And" Reserve "fields. In each field, for example, values shown in FIG. 6 can be designated.

「ヘッダ」フィールドは、フレームの開始を示すフィールドである。「ヘッダ」フィールドであることが識別可能であれば、「ヘッダ」フィールドの値は、どのような値であってもよい。   The “header” field is a field indicating the start of a frame. As long as it is possible to identify the “header” field, the value of the “header” field may be any value.

次に、「データ取得タイミング」フィールドは、データを主制御部800へ送信すべきタイミングを指定するフィールドである。「データ取得タイミング」フィールドには、例えば、“00”(センス)、“01”(イベント)、および“10”(オール)という値が指定可能である。   Next, the “data acquisition timing” field is a field for designating a timing at which data should be transmitted to the main control unit 800. In the “data acquisition timing” field, for example, values “00” (sense), “01” (event), and “10” (all) can be specified.

ここで、“センス”は、最新のデータを直ちに送信することを指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“センス”であるコマンドを受信すると、「データ種別」フィールドにて指定されている最新のデータを、直ちに、主制御部800に送信する。   Here, “sense” designates that the latest data is transmitted immediately. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “sense”, the latest data specified in the “data type” field is immediately updated to the main control unit 800. Send to.

また、“イベント”は、センサ制御部602から受信する画像データに変化が生じたタイミングで送信することを指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“イベント”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、センサ制御部602から受信する画像データに、所定の閾値より大きい変化が生じたタイミングで、主制御部800に送信する。   The “event” designates transmission at a timing when a change occurs in the image data received from the sensor control unit 602. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “event”, the image that receives the data specified in the “data type” field from the sensor control unit 602. The data is transmitted to the main control unit 800 at a timing when a change larger than a predetermined threshold occurs.

また、“オール”は、所定周期でデータを送信することを指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“オール”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、所定周期で、主制御部800に送信する。なお、上記所定周期は、光センサ回路32にてスキャンを行なう周期と一致する。   “All” designates data transmission at a predetermined cycle. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “all”, the data designated in the “data type” field is transferred to the main control unit 800 at a predetermined cycle. Send to. The predetermined period coincides with the period in which the optical sensor circuit 32 performs scanning.

次に、「データ種別」フィールドは、センサデータ処理部703から取得するデータの種別を指定するフィールドである。なお、「データ種別」フィールドには、例えば、“001”(座標)、“010”(部分画像)、および“100”(全体画像)という値が指定可能である。さらに、これらの値を加算することによって、“座標”と、“部分画像”/“全体画像”とを、同時に指定可能である。例えば、“座標”と“部分画像”とを同時に指定する場合、“011”と指定することができる。   Next, the “data type” field is a field for designating the type of data acquired from the sensor data processing unit 703. In the “data type” field, for example, values of “001” (coordinates), “010” (partial image), and “100” (entire image) can be specified. Furthermore, by adding these values, “coordinates” and “partial image” / “whole image” can be specified simultaneously. For example, when “coordinate” and “partial image” are specified at the same time, “011” can be specified.

センサデータ処理部703は、「データ種別」フィールドの値が“全体画像”であるコマンドを受信すると、画像データバッファ704に記憶している画像データそのものを主制御部800に送信する。画像データバッファ704に記憶している画像データそのものを、「全体画像データ」と称する。   When the sensor data processing unit 703 receives a command whose value of the “data type” field is “whole image”, the sensor data processing unit 703 transmits the image data itself stored in the image data buffer 704 to the main control unit 800. The image data itself stored in the image data buffer 704 is referred to as “whole image data”.

また、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信すると、センサ制御部602から受信する画像データから、所定の閾値より大きい変化が生じた部分を含む領域を抽出し、該抽出した領域の画像データを主制御部800に送信する。ここで、当該画像データを、「部分画像データ」と称する。なお、上記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出されたそれぞれの部分画像データを主制御部800に送信する。   In addition, when the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 selects a portion where a change larger than a predetermined threshold has occurred from the image data received from the sensor control unit 602. A region to be included is extracted, and image data of the extracted region is transmitted to the main control unit 800. Here, the image data is referred to as “partial image data”. When a plurality of partial image data are extracted, the sensor data processing unit 703 transmits each extracted partial image data to the main control unit 800.

さらに、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信したとき、部分画像データにおける代表座標を検出し、当該代表座標の部分画像データにおける位置を示す座標データを主制御部800に送信する。なお、上記代表座標とは、例えば、上記部分画像データの中心の座標、上記部分画像データの重心の座標などが挙げられる。   Further, when the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 detects representative coordinates in the partial image data and indicates the position of the representative coordinates in the partial image data. The coordinate data is transmitted to the main control unit 800. The representative coordinates include, for example, the coordinates of the center of the partial image data, the coordinates of the center of gravity of the partial image data, and the like.

次に、センサデータ処理部703は、「データ種別」フィールドの値が“座標”であるコマンドを受信すると、上記代表座標の全体画像データにおける位置を示す座標データを主制御部800に送信する。なお、上記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出された、それぞれの部分画像データの、全体画像データにおける代表座標を検出し、当該代表座標を示す座標データのそれぞれを主制御部800に送信する(多点検出)。   Next, when receiving a command whose value of the “data type” field is “coordinate”, the sensor data processing unit 703 transmits coordinate data indicating the position of the representative coordinate in the entire image data to the main control unit 800. When a plurality of partial image data are extracted, the sensor data processing unit 703 detects representative coordinates in the entire image data of the extracted partial image data, and the coordinate data indicating the representative coordinates is detected. Each is transmitted to the main control unit 800 (multi-point detection).

なお、全体画像データ、部分画像データ、および座標データの具体例については、模式図を参照しながら後述する。   Specific examples of the whole image data, the partial image data, and the coordinate data will be described later with reference to schematic diagrams.

次に、「スキャン方式」フィールドは、スキャン実行時に、バックライト307を点灯するか否かを指定するフィールドである。「スキャン方式」フィールドには、例えば、“00”(反射)、“01”(透過)、および“10”(反射/透過)という値が指定可能である。   Next, the “scan method” field is a field for designating whether or not the backlight 307 is turned on at the time of executing the scan. In the “scan method” field, for example, values of “00” (reflection), “01” (transmission), and “10” (reflection / transmission) can be designated.

“反射”は、バックライト307を点灯した状態でスキャンを行なうことを指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“反射”であるコマンドを受信すると、光センサ駆動回路305とバックライト駆動回路308とが同期して動作するように、センサ制御部602とバックライト制御部603とに指示を与える。   “Reflection” designates that scanning is performed with the backlight 307 turned on. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “reflection”, the sensor data processing unit 703 performs sensor control so that the optical sensor driving circuit 305 and the backlight driving circuit 308 operate in synchronization. An instruction is given to the unit 602 and the backlight control unit 603.

また、“透過”は、バックライト307を消灯した状態でスキャンを行なうことを指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“透過”であるコマンドを受信すると、光センサ駆動回路305を動作させ、バックライト駆動回路308と動作させないようにセンサ制御部602とバックライト制御部603とに指示を与える。なお、“反射/透過”は、“反射”と“透過”とを併用してスキャンを行なうことを指定するものである。   “Transmission” specifies that scanning is performed with the backlight 307 turned off. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “transparent”, the sensor control unit 602 operates the optical sensor driving circuit 305 and does not operate the backlight driving circuit 308. Instructions to the backlight control unit 603. Note that “reflection / transmission” specifies that scanning is performed using both “reflection” and “transmission”.

次に、「スキャン画像階調」フィールドは、部分画像データおよび全体画像データの階調を指定するフィールドである。「スキャン画像階調」フィールドには、例えば、“00”(2値)、および“01”(多値)という値が指定可能である。   Next, the “scanned image gradation” field is a field for designating gradations of the partial image data and the entire image data. In the “scanned image gradation” field, for example, values of “00” (binary) and “01” (multivalue) can be designated.

ここで、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“2値”であるコマンドを受信すると、部分画像データおよび全体画像データをモノクロデータとして、主制御部800に送信する。   When the sensor data processing unit 703 receives a command whose “scan image gradation” field value is “binary”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as monochrome data. .

また、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“多値”であるコマンドを受信すると、部分画像データおよび全体画像データを多階調データとして、主制御部800に送信する。   When the sensor data processing unit 703 receives a command whose “scanned image gradation” field value is “multivalued”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as multitone data. To do.

次に、「スキャン解像度」フィールドは、部分画像データおよび全体画像データの解像度を指定するフィールドである。「解像度」フィールドには、例えば、“0”(高)および“1”(低)という値が指定可能である。   Next, the “scan resolution” field is a field for designating the resolution of the partial image data and the entire image data. In the “resolution” field, for example, values of “0” (high) and “1” (low) can be designated.

ここで、“高”は、高解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“高”であるコマンドを受信すると、部分画像データおよび全体画像データを高解像度で主制御部800に送信する。例えば、画像認識などの画像処理を行なう対象の画像データ(指紋などの画像データ)には、“高”を指定することが望ましい。   Here, “high” designates a high resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “high”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 with high resolution. For example, it is desirable to designate “high” for image data (image data such as a fingerprint) to be subjected to image processing such as image recognition.

また、“低”は、低解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“低”であるコマンドを受信すると、部分画像データおよび全体画像データを低解像度で主制御部800に送信する。例えば、タッチした位置等が分かる程度でよい画像データ(タッチした指や手の画像データなど)には、“低”を指定することが望ましい。   “Low” designates a low resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “low”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 at a low resolution. For example, it is desirable to designate “low” for image data (such as touched finger or hand image data) that only needs to be recognized.

次に、「スキャンパネル」フィールドは、どの表示/光センサ部300にて対象物のスキャンを行なうかを指定するフィールドである。「スキャンパネル」フィールドには、例えば、“001”(第1の表示/光センサ部300)、“010”(第2の表示/光センサ部300)という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、第1および第2の表示/光センサ部300を同時に指定する場合、“011”と指定することができる。   Next, the “scan panel” field is a field for designating which display / light sensor unit 300 is to scan the object. In the “scan panel” field, for example, values of “001” (first display / light sensor unit 300) and “010” (second display / light sensor unit 300) can be designated. By adding these values, a plurality of display / light sensor units 300 can be specified at the same time. For example, when the first and second display / light sensor units 300 are specified at the same time, “011” can be specified.

ここで、センサデータ処理部703は、受信したコマンドの「スキャンパネル」フィールドに指定された表示/光センサ部300の光センサ駆動回路305およびバックライト駆動回路308を制御するように、センサ制御部602およびバックライト制御部603に指示を与える。   Here, the sensor data processing unit 703 controls the light sensor driving circuit 305 and the backlight driving circuit 308 of the display / light sensor unit 300 specified in the “scan panel” field of the received command. An instruction is given to 602 and the backlight control unit 603.

次に、「表示パネル」フィールドは、どの表示/光センサ部300にて表示データを表示させるかを指定するフィールドである。「表示パネル」フィールドには、例えば、“001”(第1の表示/光センサ部300)、“010” (第2の表示/光センサ部300)という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、第1および第2の表示/光センサ部300を同時に指定する場合、“011”と指定することができる。   Next, the “display panel” field is a field for designating which display / light sensor unit 300 displays the display data. In the “display panel” field, for example, values “001” (first display / light sensor unit 300) and “010” (second display / light sensor unit 300) can be designated. By adding these values, a plurality of display / light sensor units 300 can be specified at the same time. For example, when the first and second display / light sensor units 300 are specified at the same time, “011” can be specified.

ここで、表示データ処理部701は、例えば、「表示パネル」フィールドの値が第1の表示/光センサ部300であるコマンドを受信すると、第1の表示/光センサ部300に表示データを表示させるために、表示/光センサ部300の液晶パネル駆動回路304およびバックライト駆動回路308を制御するように、表示制御部601およびバックライト制御部603に指示を与える。   For example, when the display data processing unit 701 receives a command whose value of the “display panel” field is the first display / light sensor unit 300, the display data processing unit 701 displays the display data on the first display / light sensor unit 300. Therefore, an instruction is given to the display control unit 601 and the backlight control unit 603 so as to control the liquid crystal panel driving circuit 304 and the backlight driving circuit 308 of the display / light sensor unit 300.

次に、「予備」フィールドは、上述したフィールドにて指定可能な情報以外の情報をさらに指定する必要がある場合に、適宜指定されるフィールドである。   Next, the “reserved” field is a field that is appropriately specified when it is necessary to further specify information other than information that can be specified in the above-described fields.

なお、主制御部800にて実行されるアプリケーションは、コマンドを送信するにあたり、上述したフィールドを全て使用する必要はなく、使用しないフィールドには無効値(NULL値など)を設定しておけばよい。   Note that an application executed by the main control unit 800 does not need to use all the above-described fields when transmitting a command, and an invalid value (such as a NULL value) may be set for a field that is not used. .

また、ユーザが指やペンなどでタッチした位置の座標データを取得したいときは、「データ種別」フィールドに“座標”を指定したコマンドをデータ処理部700に送信することとなるが、指やペンなどは動きがあるため、さらに、当該コマンドの「データ取得タイミング」フィールドに“オール”を指定し、座標データを取得するようにすることが望ましい。また、タッチした位置の座標データが取得できればよいため、スキャンの精度は高くなくてもよい。したがって、上記コマンドの「解像度」フィールドの値は“低”を指定しておけばよい。   When the user wants to acquire coordinate data of a position touched with a finger or pen, a command specifying “coordinate” in the “data type” field is transmitted to the data processing unit 700. Therefore, it is desirable to specify “all” in the “data acquisition timing” field of the command to acquire coordinate data. Further, since it is only necessary to acquire coordinate data of the touched position, the scanning accuracy may not be high. Therefore, “low” may be specified as the value of the “resolution” field of the command.

また、コマンドの「データ種別」フィールドに“座標”を指定した場合において、例えば、ユーザが、複数の指やペンなどでセンサ内蔵液晶パネル301を同時にタッチした場合は、該タッチした位置の座標データのそれぞれを取得することができる(多点検出)。   Further, when “coordinate” is specified in the “data type” field of the command, for example, when the user touches the sensor built-in liquid crystal panel 301 with a plurality of fingers or pens at the same time, the coordinate data of the touched position is used. Can be acquired (multi-point detection).

また、原稿などの対象物の画像データを取得する場合、「データ種別」フィールドに“全体画像”を指定したコマンドをデータ処理部700に送信することとなるが、原稿などの対象物は、通常、静止させた状態でスキャンを実行することが一般的であるため、周期的にスキャンを実行する必要はない。従って、この場合は、「データ取得タイミング」フィールドに“センス”または“イベント”を指定することが望ましい。なお、原稿などの対象物をスキャンするときは、ユーザが文字を読みやすいように、スキャン精度は高い方が望ましい。したがって、「解像度」フィールドには“高”を指定することが望ましい。   When acquiring image data of an object such as a document, a command specifying “whole image” in the “data type” field is transmitted to the data processing unit 700. Since it is common to perform a scan in a stationary state, it is not necessary to periodically perform the scan. Therefore, in this case, it is desirable to designate “sense” or “event” in the “data acquisition timing” field. When scanning an object such as a document, it is desirable that the scanning accuracy is high so that the user can easily read the characters. Therefore, it is desirable to designate “high” in the “resolution” field.

(全体画像データ/部分画像データ/座標データ)
次に、図7を参照しながら、全体画像データ、部分画像データ、および座標データについて、例を挙げて説明する。図7(a)に示す画像データは、対象物がセンサ内蔵液晶パネル301上に置かれていないときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。また、図7(b)に示す画像データは、ユーザが指でセンサ内蔵液晶パネル301をタッチしているときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。
(Whole image data / Partial image data / Coordinate data)
Next, the whole image data, the partial image data, and the coordinate data will be described with reference to FIG. The image data shown in FIG. 7A is image data obtained as a result of scanning the entire sensor built-in liquid crystal panel 301 when the object is not placed on the sensor built-in liquid crystal panel 301. The image data shown in FIG. 7B is image data obtained as a result of scanning the entire sensor-equipped liquid crystal panel 301 when the user touches the sensor-equipped liquid crystal panel 301 with a finger.

ユーザが指でセンサ内蔵液晶パネル301をタッチしたとき、当該タッチした近傍の光センサ回路32が受光する光量が変化するため、当該光センサ回路32が出力する電圧に変化が生じ、その結果として、センサ制御部602が生成する画像データのうち、ユーザがタッチした部分の画素値の明度に変化が生じることとなる。   When the user touches the sensor built-in liquid crystal panel 301 with a finger, the amount of light received by the photosensor circuit 32 in the vicinity of the touch changes, so that the voltage output from the photosensor circuit 32 changes, and as a result, In the image data generated by the sensor control unit 602, the brightness of the pixel value of the portion touched by the user changes.

図7(b)に示す画像データでは、図7(a)に示す画像データと比べると、ユーザの指に該当する部分の画素値の明度が高くなっている。そして、図7(b)に示す画像データにおいて、明度が所定の閾値より大きく変化している画素値を全て含む最小の矩形領域(領域PP)が、“部分画像データ”である。   In the image data shown in FIG. 7B, the brightness of the pixel value of the portion corresponding to the user's finger is higher than that in the image data shown in FIG. In the image data shown in FIG. 7B, the smallest rectangular area (area PP) that includes all pixel values whose lightness changes more than a predetermined threshold is “partial image data”.

なお、領域APで示される画像データが、“全体画像データ”である。   The image data indicated by the area AP is “whole image data”.

また、部分画像データ(領域PP)の代表座標Zの、全体画像データ(領域AP)における座標データは(Xa,Ya)であり、部分画像データ(領域PP)における座標データは(Xp,Yp)である。   Also, the coordinate data in the whole image data (area AP) of the representative coordinates Z of the partial image data (area PP) is (Xa, Ya), and the coordinate data in the partial image data (area PP) is (Xp, Yp). It is.

(センサ内蔵液晶パネルの構成)
次に、図8を参照しながら、センサ内蔵液晶パネル301の構成、および、センサ内蔵液晶パネル301の周辺回路309の構成について説明する。図8は、表示/光センサ部300の要部、特に、センサ内蔵液晶パネル301の構成および周辺回路309の構成を示すブロック図である。
(Configuration of sensor built-in liquid crystal panel)
Next, the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309 of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 8 is a block diagram showing the main part of the display / light sensor unit 300, particularly the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309.

センサ内蔵液晶パネル301は、光透過率(輝度)を設定するための画素回路31、および、自身が受光した光の強度に応じた電圧を出力する光センサ回路32を備えている。なお、画素回路31は、赤色、緑色、青色のカラーフィルタのそれぞれに対応するR画素回路31r、G画素回路31g、B画素回路31bの総称として用いる。   The sensor built-in liquid crystal panel 301 includes a pixel circuit 31 for setting light transmittance (brightness) and an optical sensor circuit 32 that outputs a voltage corresponding to the intensity of light received by the sensor. The pixel circuit 31 is used as a general term for the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b corresponding to the red, green, and blue color filters, respectively.

画素回路31は、センサ内蔵液晶パネル301上の列方向(縦方向)にm個、行方向(横方向)に3n個配置される。そして、R画素回路31r、G画素回路31g、およびB画素回路31bの組が、行方向(横方向)に連続して配置される。この組が1つの画素を形成する。   The pixel circuits 31 are arranged on the sensor built-in liquid crystal panel 301 in the column direction (vertical direction) and 3n in the row direction (horizontal direction). A set of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b is continuously arranged in the row direction (lateral direction). This set forms one pixel.

画素回路31の光透過率を設定するには、まず、画素回路31に含まれるTFT(Thin Film Transistor)33のゲート端子に接続される走査信号線Giにハイレベル電圧(TFT33をオン状態にする電圧)を印加する。その後、R画素回路31rのTFT33のソース端子に接続されているデータ信号線SRjに、所定の電圧を印加する。同様に、G画素回路31gおよびB画素回路31bについても、光透過率を設定する。そして、これらの光透過率を設定することにより、センサ内蔵液晶パネル301上に画像が表示される。   In order to set the light transmittance of the pixel circuit 31, first, the high level voltage (TFT 33 is turned on) to the scanning signal line Gi connected to the gate terminal of the TFT (Thin Film Transistor) 33 included in the pixel circuit 31. Voltage). Thereafter, a predetermined voltage is applied to the data signal line SRj connected to the source terminal of the TFT 33 of the R pixel circuit 31r. Similarly, the light transmittance is also set for the G pixel circuit 31g and the B pixel circuit 31b. Then, by setting these light transmittances, an image is displayed on the sensor built-in liquid crystal panel 301.

次に、光センサ回路32は、一画素毎に配置される。なお、R画素回路31r、G画素回路31g、およびB画素回路31bのそれぞれの近傍に1つずつ配置されてもよい。   Next, the photosensor circuit 32 is arranged for each pixel. One pixel may be arranged in the vicinity of each of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b.

光センサ回路32にて光の強度に応じた電圧を出力させるためには、まず、コンデンサ35の一方の電極に接続されているセンサ読み出し線RWiと、フォトダイオード6のアノード端子に接続されているセンサリセット線RSiとに所定の電圧を印加する。この状態において、フォトダイオード6に光が入射されると、入射した光量に応じた電流がフォトダイオード6に流れる。そして、当該電流に応じて、コンデンサ35の他方の電極とフォトダイオード6のカソード端子との接続点(以下、接続ノードV)の電圧が低下する。そして、センサプリアンプ37のドレイン端子に接続される電圧印加線SDjに電源電圧VDDを印加すると、接続ノードVの電圧は増幅され、センサプリアンプ37のソース端子からセンシングデータ出力線SPjに出力される。そして、当該出力された電圧に基づいて、光センサ回路32が受光した光量を算出することができる。   In order for the optical sensor circuit 32 to output a voltage according to the light intensity, first, the sensor readout line RWi connected to one electrode of the capacitor 35 and the anode terminal of the photodiode 6 are connected. A predetermined voltage is applied to the sensor reset line RSi. In this state, when light is incident on the photodiode 6, a current corresponding to the amount of incident light flows through the photodiode 6. And according to the said electric current, the voltage of the connection point (henceforth connection node V) of the other electrode of the capacitor | condenser 35 and the cathode terminal of the photodiode 6 falls. When the power supply voltage VDD is applied to the voltage application line SDj connected to the drain terminal of the sensor preamplifier 37, the voltage at the connection node V is amplified and output from the source terminal of the sensor preamplifier 37 to the sensing data output line SPj. Based on the output voltage, the amount of light received by the optical sensor circuit 32 can be calculated.

次に、センサ内蔵液晶パネル301の周辺回路である、液晶パネル駆動回路304、光センサ駆動回路305、およびセンサ出力アンプ44について説明する。   Next, the liquid crystal panel drive circuit 304, the optical sensor drive circuit 305, and the sensor output amplifier 44, which are peripheral circuits of the sensor built-in liquid crystal panel 301, will be described.

液晶パネル駆動回路304は、画素回路31を駆動するための回路であり、走査信号線駆動回路3041およびデータ信号線駆動回路3042を含んでいる。   The liquid crystal panel drive circuit 304 is a circuit for driving the pixel circuit 31, and includes a scanning signal line drive circuit 3041 and a data signal line drive circuit 3042.

走査信号線駆動回路3041は、表示制御部601から受信したタイミング制御信号TC1に基づいて、1ライン時間毎に、走査信号線G1〜Gmの中から1本の走査信号線を順次選択し、該選択した走査信号線にハイレベル電圧を印加するとともに、その他の走査信号線にローレベル電圧を印加する。   The scanning signal line driving circuit 3041 sequentially selects one scanning signal line from the scanning signal lines G1 to Gm for each line time based on the timing control signal TC1 received from the display control unit 601, and A high level voltage is applied to the selected scanning signal line, and a low level voltage is applied to the other scanning signal lines.

データ信号線駆動回路3042は、表示制御部601から受信した表示データD(DR、DG、およびDB)に基づいて、1ライン時間毎に、1行分の表示データに対応する所定の電圧を、データ信号線SR1〜SRn、SG1〜SGn、SB1〜SBnに印加する(線順次方式)。なお、データ信号線駆動回路3042は、点順次方式で駆動するものであってもよい。   Based on the display data D (DR, DG, and DB) received from the display controller 601, the data signal line driver circuit 3042 generates a predetermined voltage corresponding to the display data for one row for each line time. The data signal lines SR1 to SRn, SG1 to SGn, and SB1 to SBn are applied (line sequential method). Note that the data signal line driver circuit 3042 may be driven by a dot sequential method.

光センサ駆動回路305は、光センサ回路32を駆動するための回路である。光センサ駆動回路305は、センサ制御部602から受信したタイミング制御信号TC2に基づいて、センサ読み出し信号線RW1〜RWmの中から、1ライン時間毎に1本ずつ選択したセンサ読み出し信号線に所定の読み出し用電圧を印加するとともに、その他のセンサ読み出し信号線には、所定の読み出し用電圧以外の電圧を印加する。また、同様に、タイミング制御信号TC2に基づいて、センサリセット信号線RS1〜RSmの中から、1ライン時間毎に1本ずつ選択したセンサリセット信号線に所定のリセット用電圧を印加するとともに、その他のセンサリセット信号線には、所定のリセット用電圧以外の電圧を印加する。   The optical sensor driving circuit 305 is a circuit for driving the optical sensor circuit 32. Based on the timing control signal TC2 received from the sensor control unit 602, the optical sensor driving circuit 305 selects a predetermined sensor readout signal line from the sensor readout signal lines RW1 to RWm for each line time. A read voltage is applied, and a voltage other than a predetermined read voltage is applied to the other sensor read signal lines. Similarly, based on the timing control signal TC2, a predetermined reset voltage is applied to the sensor reset signal line selected from the sensor reset signal lines RS1 to RSm for each line time, and the others. A voltage other than a predetermined reset voltage is applied to the sensor reset signal line.

センシングデータ出力信号線SP1〜SPnはp個(pは1以上n以下の整数)のグループにまとめられ、各グループに属するセンシングデータ出力信号線は、時分割で順次オン状態になるスイッチ47を介して、センサ出力アンプ44に接続される。センサ出力アンプ44は、スイッチ47により接続されたセンシングデータ出力信号線のグループからの電圧を増幅し、センサ出力信号SS(SS1〜SSp)として、信号変換回路306へ出力する。   The sensing data output signal lines SP1 to SPn are grouped into p groups (p is an integer of 1 to n), and the sensing data output signal lines belonging to each group are connected via a switch 47 that is sequentially turned on in time division. And connected to the sensor output amplifier 44. The sensor output amplifier 44 amplifies the voltage from the group of sensing data output signal lines connected by the switch 47 and outputs the amplified voltage to the signal conversion circuit 306 as sensor output signals SS (SS1 to SSp).

(入力装置のより詳細な構成)
次に、図1を参照しながら、入力装置100のより詳細な構成について説明する。なお、ここでは、説明を分かりやすくするために、主制御部800と表示/光センサ部300との間に位置するデータ処理部700および回路制御部600の動作については説明を省略する。ただし、正確には、データの表示および対象物のスキャンを行なうにあたり、主制御部800の各部が、データ処理部700にコマンドを送信し、データ処理部700がコマンドに基づいて回路制御部600を制御し、回路制御部600が表示/光センサ部300に対して信号を送信する。また、主制御部800は、データ処理部700に対して送信したコマンドに対する応答として、データ処理部700から、全体画像データ、部分画像データ、および座標データを取得する。
(More detailed configuration of input device)
Next, a more detailed configuration of the input device 100 will be described with reference to FIG. Here, in order to make the description easy to understand, the description of the operations of the data processing unit 700 and the circuit control unit 600 located between the main control unit 800 and the display / light sensor unit 300 is omitted. However, to be precise, when displaying data and scanning an object, each unit of the main control unit 800 transmits a command to the data processing unit 700, and the data processing unit 700 controls the circuit control unit 600 based on the command. Then, the circuit control unit 600 transmits a signal to the display / light sensor unit 300. Further, the main control unit 800 acquires the entire image data, the partial image data, and the coordinate data from the data processing unit 700 as a response to the command transmitted to the data processing unit 700.

図1は、入力装置100のより詳細な構成を示すブロック図である。図1に示すように、主制御部800は、入力信号生成制御部(入力信号生成制御手段)11、タブレット信号生成部(入力信号生成手段、タブレット信号生成手段)13、マウス信号生成部(入力信号生成手段、マウス信号生成手段)14、補助画像表示制御部(補助画像表示制御手段)15、スキャンデータ保持部16、基準画像処理データ保持部17、およびマウス状態保持部18を備えている。また、記憶部901は、基準画像記憶部21、および補助画像記憶部22を備えている。   FIG. 1 is a block diagram showing a more detailed configuration of the input device 100. As shown in FIG. 1, the main controller 800 includes an input signal generation controller (input signal generation controller) 11, a tablet signal generator (input signal generator, tablet signal generator) 13, and a mouse signal generator (input). A signal generation unit, a mouse signal generation unit) 14, an auxiliary image display control unit (auxiliary image display control unit) 15, a scan data holding unit 16, a reference image processing data holding unit 17, and a mouse state holding unit 18. The storage unit 901 includes a reference image storage unit 21 and an auxiliary image storage unit 22.

タブレット信号生成部13およびマウス信号生成部14はともに、入力信号を生成する入力信号生成部(入力信号生成手段)12である。タブレット信号生成部13は、対象物64の動きをタブレットに対する操作として検出して、当該操作に関連付けられた入力信号を生成するものである。また、マウス信号生成部14は、対象物64の動きをマウスの操作として検出して、当該操作に関連付けられた入力信号を生成するものである。   Both the tablet signal generation unit 13 and the mouse signal generation unit 14 are an input signal generation unit (input signal generation unit) 12 that generates an input signal. The tablet signal generation unit 13 detects the movement of the object 64 as an operation on the tablet, and generates an input signal associated with the operation. The mouse signal generator 14 detects the movement of the object 64 as a mouse operation, and generates an input signal associated with the operation.

入力信号生成制御部11は、入力信号生成部12のうちの何れかを選択して、選択した入力信号生成部12に入力信号を生成させるものである。上述したように、一実施形態において入力装置100は、タブレットモードと、マウスモードとの二つの入力モードを有しており、入力信号生成制御部11はそのいずれの入力モードを実行するかを決定し、タブレットモードを実行する場合には、タブレット信号生成部13に、マウスモードを実行する場合には、マウス信号生成部14に入力信号を生成させる。   The input signal generation control unit 11 selects any one of the input signal generation units 12 and causes the selected input signal generation unit 12 to generate an input signal. As described above, in one embodiment, the input device 100 has two input modes of the tablet mode and the mouse mode, and the input signal generation control unit 11 determines which input mode to execute. When the tablet mode is executed, the tablet signal generation unit 13 causes the mouse signal generation unit 14 to generate an input signal when the mouse mode is executed.

補助画像表示制御部15は、上記各入力モードに対応する補助画像170をセンサ内蔵液晶パネル301上に表示させるものである。   The auxiliary image display control unit 15 displays the auxiliary image 170 corresponding to each input mode on the sensor built-in liquid crystal panel 301.

スキャンデータ保持部16は、センサ内蔵液晶パネル301が読み取った対象物64のスキャンデータ(像)160を一時的に記憶するものである。   The scan data holding unit 16 temporarily stores scan data (image) 160 of the object 64 read by the sensor built-in liquid crystal panel 301.

基準画像処理データ保持部17は、後述するステップにおいて、基準画像161に加えた画像処理の内容を示すデータを一次的に記憶するものである。   The reference image processing data holding unit 17 temporarily stores data indicating the content of the image processing added to the reference image 161 in steps to be described later.

基準画像記憶部21は、入力信号生成制御部11および入力信号生成部12がスキャンデータ160を解析するために用いる基準画像161および基準画像161に関連付けられたデータを予め記憶しておくためのものである。   The reference image storage unit 21 stores in advance the reference image 161 used by the input signal generation control unit 11 and the input signal generation unit 12 to analyze the scan data 160 and data associated with the reference image 161. It is.

補助画像記憶部22は、補助画像表示制御部15がセンサ内蔵液晶パネル301上に表示させる補助画像170を予め記憶しておくためのものである。   The auxiliary image storage unit 22 stores the auxiliary image 170 that the auxiliary image display control unit 15 displays on the sensor built-in liquid crystal panel 301 in advance.

次に、図9〜20を参照しながら、入力装置100の動作の一例について詳細に説明する。   Next, an example of the operation of the input device 100 will be described in detail with reference to FIGS.

(モード切替処理)
図9は、入力装置100のモード切替処理を説明するフローチャートである。入力装置100は、例えば、起動直後、一定時間入力が途絶えたとき、後述する局面等において、モード切替処理を行なう。以下、モード切替処理の各ステップについて図面を参照して説明する。モード切替処理は、ステップS1から開始される。
(Mode switching process)
FIG. 9 is a flowchart illustrating the mode switching process of the input device 100. For example, the input device 100 performs mode switching processing in an aspect described later when input is interrupted for a certain period of time immediately after activation. Hereinafter, each step of the mode switching process will be described with reference to the drawings. The mode switching process is started from step S1.

ステップS1では、入力装置100は、対象物64のスキャンを行なう。一実施形態において、入力信号生成制御部11が、センサデータ処理部703から全体画像データを取得してスキャンデータ160としてスキャンデータ保持部16に保持させる。   In step S1, the input device 100 scans the object 64. In one embodiment, the input signal generation control unit 11 acquires the entire image data from the sensor data processing unit 703 and stores it in the scan data holding unit 16 as scan data 160.

詳しく述べれば、まず、入力信号生成制御部11は、データ処理部700に対して、「データ種別」を”全体画像データ”、「データ取得タイミング」を、”イベント”とした上記コマンドを送る。入力信号生成制御部11は、上記コマンドの応答としてセンサデータ処理部703から得られた全体画像データを、スキャンデータ160としてスキャンデータ保持部16に記憶させる。なお、入力信号生成制御部11が、データ取得のタイミングおよび取得データの変化の判定を行なう場合には、上記コマンドの「データ取得タイミング」は、”オール”または”センス”としてもよい。   Specifically, first, the input signal generation control unit 11 sends the above-mentioned command with “data type” as “whole image data” and “data acquisition timing” as “event” to the data processing unit 700. The input signal generation control unit 11 causes the scan data holding unit 16 to store the entire image data obtained from the sensor data processing unit 703 as a response to the command. When the input signal generation control unit 11 determines the data acquisition timing and the change in the acquired data, the “data acquisition timing” of the command may be “all” or “sense”.

ステップS2以降では、入力装置100は、スキャンデータ160と、各入力モードに対応する基準画像161とを順次比較することにより、実行する入力モードを選択する。   In step S2 and subsequent steps, the input device 100 selects the input mode to be executed by sequentially comparing the scan data 160 and the reference image 161 corresponding to each input mode.

一実施形態において、ステップS2では、入力信号生成制御部11が、スキャンデータ保持部16から取得したスキャンデータ160と、基準画像記憶部21から呼び出したマウスモードに対応する基準画像161とを比較する。スキャンデータ160が、マウスモードに対応する基準画像161と類似していた場合には、マウスモードを実行し、類似していなかった場合にはステップS3に移行する。マウスモードの実行処理については後述する。   In one embodiment, in step S2, the input signal generation control unit 11 compares the scan data 160 acquired from the scan data holding unit 16 with the reference image 161 corresponding to the mouse mode called from the reference image storage unit 21. . If the scan data 160 is similar to the reference image 161 corresponding to the mouse mode, the mouse mode is executed. If the scan data 160 is not similar, the process proceeds to step S3. The mouse mode execution process will be described later.

詳しく述べれば、まず、入力信号生成制御部11は、スキャンデータ保持部16からスキャンデータ160を取得する。このとき、図10(a)に示すように、マウスを握った格好の手(対象物64)が、センサ内蔵液晶パネル301上に置かれているとき、スキャンデータ160は、図10(b)に示すようなものとなる。なお、図中、灰色に塗りつぶされた領域は、対象物64とセンサ内蔵液晶パネル301とが接近しているまたは接触している接近/接触領域であり、上記スキャン方式を”反射”とした場合には、所定の閾値以上の高輝度領域であり、上記スキャン方式を”透過”とした場合には、所定の閾値以下の低輝度領域である。   More specifically, first, the input signal generation control unit 11 acquires the scan data 160 from the scan data holding unit 16. At this time, as shown in FIG. 10 (a), when the good hand (object 64) holding the mouse is placed on the sensor-equipped liquid crystal panel 301, the scan data 160 is shown in FIG. 10 (b). It will be as shown in In the figure, the shaded area is an approach / contact area where the object 64 and the sensor built-in liquid crystal panel 301 are approaching or in contact with each other, and the above-described scanning method is “reflection”. Is a high luminance region that is equal to or higher than a predetermined threshold value, and is a low luminance region that is equal to or lower than a predetermined threshold value when the scanning method is “transmission”.

ここで、マウスモードに対応する(マウス信号生成部14に関連付けられた)基準画像161として、図10(b)に類似した図11(a)に示すような画像を用意して基準画像記憶部21に予め記憶させておく。なお、マウスの握り方および手の形状は人によって異なる場合があるので、それぞれに対応した基準画像を複数枚用意して、基準画像記憶部21に予め記憶させておくことが好ましい。   Here, as the reference image 161 corresponding to the mouse mode (associated with the mouse signal generation unit 14), an image similar to that shown in FIG. 11B is prepared, and a reference image storage unit is prepared. 21 is stored in advance. In addition, since how to hold the mouse and the shape of the hand may differ depending on the person, it is preferable to prepare a plurality of reference images corresponding to each and store them in the reference image storage unit 21 in advance.

入力信号生成制御部11は、このようなマウスモードに対応する(マウス信号生成部14に関連付けられた)基準画像161を、基準画像記憶部21から順次呼び出して、スキャンデータ160と比較して、類似しているか否かを判定する。   The input signal generation control unit 11 sequentially calls the reference image 161 (associated with the mouse signal generation unit 14) corresponding to such a mouse mode from the reference image storage unit 21, compares it with the scan data 160, It is determined whether or not they are similar.

一実施形態において、スキャンデータ160と基準画像161とが類似しているとは、例えば、次のような場合を指す。すなわち、まず、スキャンデータ160と基準画像161とを重ね合わせ、上記接触/接触領域の重複率を算出する。次いで、図11(b)に示すように、基準画像161を回転させ、回転させた基準画像161とスキャンデータ160とを重ね合わせて、上記接触/接触領域の重複率を算出する。なお、予め回転させた基準画像161を基準画像記憶部21に予め記憶させておいてもよい。また、基準画像161を回転だけでなく、上下左右に移動させたもの、拡大縮小させたものに対してもスキャンデータ160と重ね合わせて、上記接触/接触領域の重複率を算出してもよい。以上の処理によって得られた上記重複率が、所定の値、例えば80%を超えた場合に、スキャンデータ160と基準画像161とが類似していると判定する。なお、上記重複率は、例えば、(重なった上記接触/接触領域の面積/基準画像161中の上記接触/接触領域の面積)といった計算式によって得ることができる。また、基準画像161の回転、移動、拡大縮小等の処理は、細かく行う必要はなく、ユーザが一般にマウスを用いる際に想定され得る範囲にて適宜設定すればよい。   In one embodiment, the similarity between the scan data 160 and the reference image 161 indicates, for example, the following case. That is, first, the scan data 160 and the reference image 161 are superimposed, and the contact / contact area overlap rate is calculated. Next, as shown in FIG. 11B, the reference image 161 is rotated, and the rotated reference image 161 and the scan data 160 are overlapped to calculate the contact / contact area overlap rate. The reference image 161 that has been rotated in advance may be stored in the reference image storage unit 21 in advance. In addition to the rotation of the reference image 161, the reference image 161 may be overlapped with the scan data 160 and the overlap ratio of the contact / contact area may be calculated even when the reference image 161 is moved up, down, left and right, and enlarged / reduced. . When the duplication rate obtained by the above processing exceeds a predetermined value, for example, 80%, it is determined that the scan data 160 and the reference image 161 are similar. The overlap rate can be obtained by a calculation formula, for example, (overlapping contact / area of contact region / area of contact / contact region in reference image 161). Further, the processing such as rotation, movement, and enlargement / reduction of the reference image 161 does not need to be performed in detail, and may be appropriately set within a range that can be assumed when the user generally uses a mouse.

ここで、図10(a)に示すように対象物64が、マウスを握った格好の手であり、スキャンデータ160が、図10(b)に示すような像であった場合には、図11(a)と殆ど重複するため、入力信号生成制御部11は、スキャンデータ160と基準画像161とが類似していると判定し、マウス信号生成部14に入力信号を生成するように指令することにより、マウスモードを実行する。スキャンデータ160と基準画像161とは類似していないと判定された場合には、ステップS3に移行する。   Here, as shown in FIG. 10A, when the object 64 is a good hand holding the mouse and the scan data 160 is an image as shown in FIG. 11 (a), the input signal generation control unit 11 determines that the scan data 160 and the reference image 161 are similar, and instructs the mouse signal generation unit 14 to generate an input signal. As a result, the mouse mode is executed. If it is determined that the scan data 160 and the reference image 161 are not similar, the process proceeds to step S3.

一実施形態において、ステップS3では、入力信号生成制御部11が、スキャンデータ保持部16から取得したスキャンデータ160と、基準画像記憶部21から呼び出したタブレットモードに対応する基準画像161とを比較する。スキャンデータ160が、タブレットモードに対応する基準画像161と類似していた場合には、タブレットモードを実行し、類似していなかった場合にはいずれの入力モードも選択せず、ステップS1に戻る。   In one embodiment, in step S <b> 3, the input signal generation control unit 11 compares the scan data 160 acquired from the scan data holding unit 16 with the reference image 161 corresponding to the tablet mode called from the reference image storage unit 21. . If the scan data 160 is similar to the reference image 161 corresponding to the tablet mode, the tablet mode is executed. If the scan data 160 is not similar, no input mode is selected, and the process returns to step S1.

詳しく述べれば、ステップS2とほぼ同様であり、入力信号生成制御部11は、スキャンデータ保持部16からスキャンデータ160を取得する。このとき、図12(a)に示すように、ペンを握った格好の手(対象物64)が、センサ内蔵液晶パネル301上に置かれているとき、スキャンデータ160は、図12(b)に示すようなものとなる。なお、図中、灰色に塗りつぶされた領域の説明は、ステップS2に準ずる。   More specifically, the input signal generation control unit 11 acquires the scan data 160 from the scan data holding unit 16 in substantially the same manner as step S2. At this time, as shown in FIG. 12A, when a good hand (object 64) holding the pen is placed on the sensor-equipped liquid crystal panel 301, the scan data 160 is shown in FIG. It will be as shown in In the drawing, the description of the grayed out area is the same as in step S2.

ここで、タブレットモードに対応する(タブレット信号生成部13に関連付けられた)基準画像161として、図12(b)に類似した図13(a)に示すような画像を用意して基準画像記憶部21に予め記憶させておく。なお、ペンの握り方および手の形状は人によって異なる場合があるので、それぞれに対応した基準画像を複数枚用意して、基準画像記憶部21に予め記憶させておくことが好ましい。   Here, as a reference image 161 corresponding to the tablet mode (associated with the tablet signal generation unit 13), an image similar to that shown in FIG. 13B is prepared, and a reference image storage unit is prepared. 21 is stored in advance. Since how to hold the pen and the shape of the hand may differ depending on the person, it is preferable to prepare a plurality of reference images corresponding to the pens and store them in the reference image storage unit 21 in advance.

入力信号生成制御部11は、このようなタブレットモードに対応する(タブレット信号生成部13に関連付けられた)基準画像161を、基準画像記憶部21から順次呼び出して、スキャンデータ160と比較して、類似しているか否かを判定する。当該類否の判定の説明は、ステップS2に準ずる。なお、参考として、回転させた、タブレットモードに対応する基準画像161を図13(b)に示す。本ステップにおける基準画像161の回転、移動、拡大縮小等の処理も、細かく行う必要はなく、ユーザが一般にペンを用いる際に想定され得る範囲にて適宜設定すればよい。   The input signal generation control unit 11 sequentially calls the reference image 161 (associated with the tablet signal generation unit 13) corresponding to such a tablet mode from the reference image storage unit 21, compares it with the scan data 160, It is determined whether or not they are similar. The description of the similarity determination is based on step S2. For reference, a rotated reference image 161 corresponding to the tablet mode is shown in FIG. Processing such as rotation, movement, and enlargement / reduction of the reference image 161 in this step does not need to be performed in detail, and may be set as appropriate within a range that a user can generally assume when using a pen.

ここで、図12(a)に示すように対象物64が、ペンを握った格好の手であり、スキャンデータ160が、図12(b)に示すような像であった場合には、図13(a)と殆ど重複するため、入力信号生成制御部11は、スキャンデータ160と基準画像161とが類似していると判定し、タブレット信号生成部13に入力信号を生成するように指令することにより、タブレットモードを実行する。スキャンデータ160と基準画像161とは類似していないと判定された場合には、ステップS1に戻る。   Here, as shown in FIG. 12A, when the object 64 is a good hand holding a pen and the scan data 160 is an image as shown in FIG. 13 (a), the input signal generation control unit 11 determines that the scan data 160 and the reference image 161 are similar, and instructs the tablet signal generation unit 13 to generate an input signal. The tablet mode is executed. If it is determined that the scan data 160 and the reference image 161 are not similar, the process returns to step S1.

(タブレットモード)
図14は、入力装置100のタブレットモードの処理を説明するフローチャートである。以下、タブレットモードの処理の各ステップについて図面を参照して説明する。タブレットモードの処理は、ステップS11から開始される。
(Tablet mode)
FIG. 14 is a flowchart illustrating tablet mode processing of the input device 100. Hereinafter, each step of the tablet mode process will be described with reference to the drawings. The tablet mode process is started from step S11.

ステップS11では、入力装置100は、センサ内蔵液晶パネル301上に、図15に示すようなグリッド画像172を表示する。一実施形態において、タブレットモードが実行されると(入力信号生成制御部11からタブレット信号生成部13へ入力信号を生成するように指令がなされると)、タブレット信号生成部13は、補助画像表示制御部15にグリッド画像172をセンサ内蔵液晶パネル301上に表示するように指令する。補助画像表示制御部15は、これを受けて、グリッド画像172のデータを補助画像記憶部22から呼び出して、センサ内蔵液晶パネル301上に表示させる。   In step S <b> 11, the input device 100 displays a grid image 172 as shown in FIG. 15 on the sensor built-in liquid crystal panel 301. In one embodiment, when the tablet mode is executed (when an instruction to generate an input signal is given from the input signal generation control unit 11 to the tablet signal generation unit 13), the tablet signal generation unit 13 displays an auxiliary image. The control unit 15 is instructed to display the grid image 172 on the sensor built-in liquid crystal panel 301. In response to this, the auxiliary image display control unit 15 calls the data of the grid image 172 from the auxiliary image storage unit 22 and displays it on the sensor built-in liquid crystal panel 301.

詳しく述べれば、タブレット信号生成部13は、入力信号生成制御部11から入力信号を生成するように指令を受けると、まず、補助画像表示制御部15にグリッド画像172をセンサ内蔵液晶パネル301上に表示するように指令する。指令を受けた補助画像表示制御部15は、グリッド画像172のデータを補助画像記憶部22から呼び出して、表示データ処理部701へ送るとともに、「表示パネル」を表示/光センサ部300とした上記コマンドをデータ処理部700に送ることで、センサ内蔵液晶パネル301上にグリッド画像を表示させる。その後、ステップS12に移行する。   Specifically, when receiving an instruction from the input signal generation control unit 11 to generate an input signal, the tablet signal generation unit 13 first places the grid image 172 on the sensor built-in liquid crystal panel 301 on the auxiliary image display control unit 15. Command to display. Upon receiving the command, the auxiliary image display control unit 15 calls the data of the grid image 172 from the auxiliary image storage unit 22 and sends the data to the display data processing unit 701, and uses the “display panel” as the display / light sensor unit 300. By sending the command to the data processing unit 700, a grid image is displayed on the sensor built-in liquid crystal panel 301. Thereafter, the process proceeds to step S12.

なお、グリッド画像172としては、例えば、図15に示すようなセンサ内蔵液晶パネル301の全体を覆うような方眼(グリッド)を用いることができるが、センサ内蔵液晶パネル301部分を覆う方眼であってもよい。また、方眼の升目の大きさは、用途等によって適宜設定すればよい。補助画像表示制御部15は、また、既にセンサ内蔵液晶パネル301上に表示している画像がある場合には、当該画像とグリッド画像172とを合成した画像をデータ処理部700に送ってもよい。   As the grid image 172, for example, a grid (grid) that covers the entire sensor-equipped liquid crystal panel 301 as shown in FIG. 15 can be used. Also good. In addition, the size of the grid of the grid may be set as appropriate depending on the application. If there is an image already displayed on the sensor built-in liquid crystal panel 301, the auxiliary image display control unit 15 may send an image obtained by combining the image and the grid image 172 to the data processing unit 700. .

ステップS12では、入力装置100は、対象物64のスキャンを行なう。一実施形態において、タブレット信号生成部13が、センサデータ処理部703から全体画像データを取得してスキャンデータ160としてスキャンデータ保持部16に保持させる。その後、ステップS13に移行する。なお、直前にモード切替処理を行っており、スキャンデータ保持部16に既に直前のスキャンデータ160が記憶されていた場合には、本ステップを省略することもできる。   In step S12, the input device 100 scans the object 64. In one embodiment, the tablet signal generation unit 13 acquires the entire image data from the sensor data processing unit 703 and stores it in the scan data holding unit 16 as scan data 160. Thereafter, the process proceeds to step S13. If the mode switching process has been performed immediately before and the previous scan data 160 has already been stored in the scan data holding unit 16, this step can be omitted.

詳しく述べれば、まず、タブレット信号生成部13は、データ処理部700に対して、「データ種別」を”全体画像データ”、「データ取得タイミング」を、”イベント”とした上記コマンドを送る。タブレット信号生成部13は、上記コマンドの応答としてセンサデータ処理部703から得られた全体画像データを、スキャンデータ160としてスキャンデータ保持部16に記憶させる。なお、タブレット信号生成部13が、データ取得のタイミングおよび取得データの変化の判定を行なう場合には、上記コマンドの「データ取得タイミング」は、”オール”または”センス”としてもよい。   More specifically, first, the tablet signal generation unit 13 sends the above-mentioned command with “data type” as “whole image data” and “data acquisition timing” as “event” to the data processing unit 700. The tablet signal generation unit 13 stores the entire image data obtained from the sensor data processing unit 703 in response to the command as scan data 160 in the scan data holding unit 16. When the tablet signal generation unit 13 determines the data acquisition timing and the change in the acquired data, the “data acquisition timing” of the command may be “all” or “sense”.

ステップS13では、入力装置100は、スキャンデータ160と、タブレットモードに対応する基準画像161とを比較することにより、モード切替処理を実行するか否かを判断する。一実施形態において、ステップS13では、タブレット信号生成部13が、スキャンデータ保持部16から取得したスキャンデータ160と、基準画像記憶部21から呼び出したタブレットモードに対応する基準画像161とを比較する。スキャンデータ160が、タブレットモードに対応する基準画像161と類似していた場合には、ステップS14に移行し、類似していなかった場合には、タブレットモードを終了し、前述のモード切替処理を実行する。   In step S13, the input apparatus 100 determines whether or not to execute the mode switching process by comparing the scan data 160 with the reference image 161 corresponding to the tablet mode. In one embodiment, in step S <b> 13, the tablet signal generation unit 13 compares the scan data 160 acquired from the scan data holding unit 16 with the reference image 161 corresponding to the tablet mode called from the reference image storage unit 21. If the scan data 160 is similar to the reference image 161 corresponding to the tablet mode, the process proceeds to step S14. If the scan data 160 is not similar, the tablet mode is terminated and the above-described mode switching process is executed. To do.

スキャンデータ160と基準画像161との比較の説明は、ステップS3に準ずるが、加えて、スキャンデータ160と上記接触/接触領域の重複率が上記所定の値を上回った基準画像161について、当該基準画像に施した移動、回転、拡大縮小等に用いたデータ(水平方向の移動距離X、垂直方向の移動距離Y、回転角度θ、拡大率M)および当該基準画像161を示す情報Pを、基準画像処理データ保持部17に記憶させておく。   The description of the comparison between the scan data 160 and the reference image 161 is based on step S3. In addition, for the reference image 161 in which the overlap ratio between the scan data 160 and the contact / contact area exceeds the predetermined value, the reference data Data (horizontal movement distance X, vertical movement distance Y, rotation angle θ, magnification M) used for movement, rotation, enlargement / reduction, and the like applied to the image and information P indicating the reference image 161 are used as a reference. It is stored in the image processing data holding unit 17.

ステップS14では、入力装置100は、ユーザが対象物64を用いて指示するペン位置を検出する。一実施形態において、タブレット信号生成部13は、基準画像処理データ保持部17および基準画像記憶部21から、ステップS13においてスキャンデータ160に類似するように処理された基準画像161に関するデータを呼び出し、当該データに基づいて上記ペン位置を算出する。   In step S <b> 14, the input device 100 detects a pen position that the user instructs using the object 64. In one embodiment, the tablet signal generation unit 13 calls data related to the reference image 161 processed to be similar to the scan data 160 in step S13 from the reference image processing data holding unit 17 and the reference image storage unit 21, and Based on the data, the pen position is calculated.

詳しく述べれば、タブレット信号生成部13は、基準画像処理データ保持部17から、当該基準画像処理データ保持部17に記憶されている水平方向の移動距離X、垂直方向の移動距離Y、回転角度θ、拡大率Mおよび情報Pを取得する。タブレット信号生成部13は、次いで、基準画像記憶部21から情報Pに示される基準画像161に関連付けられた指示座標162(PX,PY)を取得する。指示座標162は、図13に示すように、対象物64(ペンを握った手)が指示する位置(上記ペンの先が指す位置)を示す。   More specifically, the tablet signal generation unit 13 sends a horizontal movement distance X, a vertical movement distance Y, and a rotation angle θ stored in the reference image processing data holding unit 17 from the reference image processing data holding unit 17. The enlargement ratio M and information P are acquired. Next, the tablet signal generation unit 13 acquires the designated coordinates 162 (PX, PY) associated with the reference image 161 indicated by the information P from the reference image storage unit 21. As shown in FIG. 13, the designated coordinates 162 indicate a position (position pointed by the tip of the pen) indicated by the object 64 (a hand holding the pen).

タブレット信号生成部13は、これらのデータに基づいて、上記ペン位置を算出する。例えば、ペン位置の水平座標は、(PXcosθ−PYsinθ)×M+X、垂直座標は、(PXsinθ+PYcosθ)×M+Yとなる。その後、ステップS15に移行する。   The tablet signal generation unit 13 calculates the pen position based on these data. For example, the horizontal coordinate of the pen position is (PXcos θ−PY sin θ) × M + X, and the vertical coordinate is (PX sin θ + PY cos θ) × M + Y. Thereafter, the process proceeds to step S15.

ステップS15〜S18において、入力装置100はステップS14において上記ペン位置の検出が成功したか否かを判定し(ステップS15)、成功した場合、上記ペン位置にペン画像171を表示させ(ステップS16)、上記ペン位置を入力信号として出力する(ステップS17)、一方、上記ペン位置の検出が失敗であった場合には、ペン画像171を消す(ステップS18)。その後、ステップS12に戻る。一実施形態において、上記一連の動作は、タブレット信号生成部13によってなされる。また、上記ペン位置の検出が成功したか否かは、例えば、上記ペン位置が所定の領域内に存在しているか否かによって判定される。   In steps S15 to S18, the input device 100 determines whether or not the detection of the pen position is successful in step S14 (step S15), and if successful, displays the pen image 171 at the pen position (step S16). The pen position is output as an input signal (step S17). On the other hand, if the detection of the pen position fails, the pen image 171 is erased (step S18). Then, it returns to step S12. In one embodiment, the series of operations is performed by the tablet signal generation unit 13. Further, whether or not the detection of the pen position is successful is determined, for example, based on whether or not the pen position exists within a predetermined area.

詳しく述べれば、ステップS16では、タブレット信号生成部13は、補助画像表示制御部15に、ペン画像171を、上記ペン位置に表示するように指令する。補助画像表示制御部15は、ペン画像171を補助画像記憶部22から呼び出し、ペン画像171の下に表示される画面(グリッド画像172等)の上記ペン位置に合成して、表示データ処理部701へ送るとともに、「表示パネル」を表示/光センサ部300とした上記コマンドをデータ処理部700に送ることで、センサ内蔵液晶パネル301上にペン画像171を表示させる(図15参照)。   Specifically, in step S16, the tablet signal generation unit 13 instructs the auxiliary image display control unit 15 to display the pen image 171 at the pen position. The auxiliary image display control unit 15 calls the pen image 171 from the auxiliary image storage unit 22, combines the pen image 171 with the pen position on the screen (grid image 172 or the like) displayed below the pen image 171, and the display data processing unit 701. To the data processing unit 700, the pen image 171 is displayed on the sensor built-in liquid crystal panel 301 (see FIG. 15).

また、ステップS17では、タブレット信号生成部13は、補助画像表示制御部15に、ペン画像171を表示しないように指令する。補助画像表示制御部15は、ペン画像171の下に表示される画面(グリッド画像172等)のみを表示データ処理部701へ送るとともに、「表示パネル」を表示/光センサ部300とした上記コマンドをデータ処理部700に送ることで、センサ内蔵液晶パネル301上からペン画像171を消去する。   In step S <b> 17, the tablet signal generation unit 13 instructs the auxiliary image display control unit 15 not to display the pen image 171. The auxiliary image display control unit 15 sends only the screen (grid image 172 or the like) displayed below the pen image 171 to the display data processing unit 701 and uses the “display panel” as the display / light sensor unit 300. Is sent to the data processing unit 700 to erase the pen image 171 from the sensor built-in liquid crystal panel 301.

このように、入力装置100は、ユーザが手(対象物64)をペンを握る形にしたとき、タブレットモードに移行し、タブレットモードでは、実際には握られてはいないものの、タブレットペンを握っているのと同様の操作感で入力を行うことができる。入力されるペン位置は、ユーザの手によって実際に握られていた場合のペンの先が指す位置となる。このように、本発明によれば、ユーザはペンを持つことなく、快適にペンタブレットと同じ操作感を得ることができる。   As described above, when the user makes the hand (object 64) hold the pen, the input device 100 shifts to the tablet mode. In the tablet mode, the input device 100 holds the tablet pen although it is not actually held. Input can be performed with the same feeling of operation. The input pen position is a position pointed by the tip of the pen when actually held by the user's hand. Thus, according to the present invention, the user can comfortably obtain the same operational feeling as a pen tablet without having a pen.

(マウスモード)
図16は、入力装置100のマウスモードの処理を説明するフローチャートである。以下、マウスモードの処理の各ステップについて図面を参照して説明する。マウスモードの処理は、ステップS21から開始される。
(Mouse mode)
FIG. 16 is a flowchart for explaining processing in the mouse mode of the input device 100. Hereinafter, each step of the processing in the mouse mode will be described with reference to the drawings. The mouse mode process starts from step S21.

ステップS21では、入力装置100は、センサ内蔵液晶パネル301上に、図17に示すようなマウス画像174を表示する。一実施形態において、マウスモードが実行されると(入力信号生成制御部11からマウス信号生成部14へ入力信号を生成するように指令がなされると)、マウス信号生成部14は、補助画像表示制御部15にマウス画像174をセンサ内蔵液晶パネル301上のマウス位置に表示するように指令する。補助画像表示制御部15は、これを受けて、マウス画像174のデータを補助画像記憶部22から呼び出して、センサ内蔵液晶パネル301上のマウス位置に表示させる。なお、マウス位置が未定の場合には、このステップは実行されない。   In step S <b> 21, the input device 100 displays a mouse image 174 as shown in FIG. 17 on the sensor built-in liquid crystal panel 301. In one embodiment, when the mouse mode is executed (when the input signal generation control unit 11 is instructed to generate an input signal to the mouse signal generation unit 14), the mouse signal generation unit 14 displays the auxiliary image. The control unit 15 is instructed to display the mouse image 174 at the mouse position on the sensor built-in liquid crystal panel 301. In response to this, the auxiliary image display control unit 15 calls the data of the mouse image 174 from the auxiliary image storage unit 22 and displays it at the mouse position on the sensor built-in liquid crystal panel 301. Note that this step is not executed when the mouse position is not yet determined.

詳しく述べれば、マウス信号生成部14は、入力信号生成制御部11から入力信号を生成するように指令を受けると、まず、補助画像表示制御部15にマウス画像174をセンサ内蔵液晶パネル301上のマウス位置に表示するように指令する。指令を受けた補助画像表示制御部15は、マウス画像174のデータを補助画像記憶部22から呼び出して、マウス画像174の下に表示されるべき画面に、マウス画像174をマウス位置に合成した画像を表示データ処理部701へ送るとともに、「表示パネル」を表示/光センサ部300とした上記コマンドをデータ処理部700に送ることで、センサ内蔵液晶パネル301上にグリッド画像を表示させる。その後、ステップS22に移行する。   More specifically, when the mouse signal generation unit 14 receives a command to generate an input signal from the input signal generation control unit 11, first, the mouse image 174 is displayed on the auxiliary image display control unit 15 on the sensor built-in liquid crystal panel 301. Command to display at mouse position. Upon receiving the command, the auxiliary image display control unit 15 calls the data of the mouse image 174 from the auxiliary image storage unit 22 and combines the mouse image 174 with the mouse position on the screen to be displayed below the mouse image 174. Is sent to the display data processing unit 701, and the above-mentioned command with “display panel” as the display / light sensor unit 300 is sent to the data processing unit 700, thereby displaying a grid image on the sensor built-in liquid crystal panel 301. Thereafter, the process proceeds to step S22.

ステップS22では、入力装置100は、対象物64のスキャンを行なう。一実施形態において、マウス信号生成部14が、センサデータ処理部703から全体画像データを取得してスキャンデータ160としてスキャンデータ保持部16に保持させる。その後、ステップS23に移行する。なお、直前にモード切替処理を行っており、スキャンデータ保持部16に既に直前のスキャンデータ160が記憶されていた場合には、本ステップを省略することもできる。   In step S22, the input device 100 scans the object 64. In one embodiment, the mouse signal generation unit 14 acquires the entire image data from the sensor data processing unit 703 and stores it in the scan data holding unit 16 as scan data 160. Thereafter, the process proceeds to step S23. If the mode switching process has been performed immediately before and the previous scan data 160 has already been stored in the scan data holding unit 16, this step can be omitted.

詳しく述べれば、まず、マウス信号生成部14は、データ処理部700に対して、「データ種別」を”全体画像データ”、「データ取得タイミング」を、”イベント”とした上記コマンドを送る。マウス信号生成部14は、上記コマンドの応答としてセンサデータ処理部703から得られた全体画像データを、スキャンデータ160としてスキャンデータ保持部16に記憶させる。なお、マウス信号生成部14が、データ取得のタイミングおよび取得データの変化の判定を行なう場合には、上記コマンドの「データ取得タイミング」は、”オール”または”センス”としてもよい。   Specifically, first, the mouse signal generation unit 14 sends the above-mentioned command with “data type” as “whole image data” and “data acquisition timing” as “event” to the data processing unit 700. The mouse signal generation unit 14 causes the scan data holding unit 16 to store the entire image data obtained from the sensor data processing unit 703 in response to the command. When the mouse signal generation unit 14 determines the data acquisition timing and the change in the acquired data, the “data acquisition timing” of the command may be “all” or “sense”.

ステップS23〜S28では、入力装置100は、ステップS22において取得したスキャンデータ160に基づいて、対象物64の動きを検出して入力信号を生成する。一実施形態において、マウス信号生成部14は、まず、スキャンデータ保持部16から取得したスキャンデータ160と、基準画像記憶部21から呼び出したマウスモードに対応する基準画像161とを比較する。   In steps S23 to S28, the input device 100 detects the movement of the object 64 based on the scan data 160 acquired in step S22 and generates an input signal. In one embodiment, the mouse signal generation unit 14 first compares the scan data 160 acquired from the scan data holding unit 16 with the reference image 161 corresponding to the mouse mode called from the reference image storage unit 21.

スキャンデータ160と基準画像161との比較の説明は、ステップS2に準ずるが、加えて、スキャンデータ160と上記接触/接触領域の重複率が上記所定の値を上回った基準画像161について、当該基準画像に施した移動、回転、拡大縮小等に用いたデータ(水平方向の移動距離X、垂直方向の移動距離Y、回転角度θ、拡大率M)および当該基準画像161を示す情報Pを、基準画像処理データ保持部17に記憶させておく。   The description of the comparison between the scan data 160 and the reference image 161 is based on step S2. In addition, the reference image 161 in which the overlap ratio between the scan data 160 and the contact / contact area exceeds the predetermined value is related to the reference data 161. Data (horizontal movement distance X, vertical movement distance Y, rotation angle θ, magnification M) used for movement, rotation, enlargement / reduction, and the like applied to the image and information P indicating the reference image 161 are used as a reference. It is stored in the image processing data holding unit 17.

マウス信号生成部14は、スキャンデータ160が、上記マウスモードに対応する基準画像161の何れかに類似していた場合、マウス位置を算出する。すなわち、マウス信号生成部14は、基準画像処理データ保持部17から、当該基準画像処理データ保持部17に記憶されている水平方向の移動距離X、垂直方向の移動距離Y、回転角度θ、拡大率Mおよび情報Pを取得する。マウス信号生成部14は、次いで、基準画像記憶部21から情報Pに示される基準画像161に関連付けられた中央座標163(PX,PY)を取得する。中央座標163は、図17に示すように、対象物64(マウスを持った)の中央位置を示す。   The mouse signal generation unit 14 calculates the mouse position when the scan data 160 is similar to any of the reference images 161 corresponding to the mouse mode. That is, the mouse signal generation unit 14 sends from the reference image processing data holding unit 17 the horizontal movement distance X, the vertical movement distance Y, the rotation angle θ, and the magnification stored in the reference image processing data holding unit 17. Get rate M and information P. Next, the mouse signal generation unit 14 acquires the central coordinates 163 (PX, PY) associated with the reference image 161 indicated by the information P from the reference image storage unit 21. The center coordinates 163 indicate the center position of the object 64 (with the mouse) as shown in FIG.

マウス信号生成部14は、これらのデータに基づいて、上記マウス位置を算出する。例えば、マウス位置の水平座標は、(PXcosθ−PYsinθ)×M+X、垂直座標は、(PXsinθ+PYcosθ)×M+Yとなる。   The mouse signal generation unit 14 calculates the mouse position based on these data. For example, the horizontal coordinate of the mouse position is (PXcos θ−PY sin θ) × M + X, and the vertical coordinate is (PX sin θ + PY cos θ) × M + Y.

ステップS23では、算出した上記マウス位置と、予めマウス状態保持部18に記憶されているマウス位置とを比較する。変化があった場合には、変化量(移動方向、および移動量)を示す入力信号を生成して出力し、マウス状態保持部18に上記算出した上記マウス位置を記憶させ、さらにマウス表示位置を変更し(ステップS29)、ステップS21に戻る。マウス位置に変化がなかった場合には、ステップS24に移行する。   In step S23, the calculated mouse position is compared with the mouse position stored in the mouse state holding unit 18 in advance. If there is a change, an input signal indicating the amount of change (movement direction and amount of movement) is generated and output, the mouse state holding unit 18 stores the calculated mouse position, and the mouse display position is further changed. Change (step S29) and return to step S21. If there is no change in the mouse position, the process proceeds to step S24.

マウス表示位置の変更を詳しく述べれば、まず、マウス信号生成部14は、まず、補助画像表示制御部15にマウス画像174をセンサ内蔵液晶パネル301上の上記算出したマウス位置に表示するように指令する。指令を受けた補助画像表示制御部15は、マウス画像174のデータを補助画像記憶部22から呼び出して、マウス画像174の下に表示されるべき画面に、マウス画像174をマウス位置に合成した画像を表示データ処理部701へ送るとともに、「表示パネル」を表示/光センサ部300とした上記コマンドをデータ処理部700に送ることで、センサ内蔵液晶パネル301上にグリッド画像を表示させる。   Specifically, the mouse signal generation unit 14 first instructs the auxiliary image display control unit 15 to display the mouse image 174 at the calculated mouse position on the sensor built-in liquid crystal panel 301. To do. Upon receiving the command, the auxiliary image display control unit 15 calls the data of the mouse image 174 from the auxiliary image storage unit 22 and combines the mouse image 174 with the mouse position on the screen to be displayed below the mouse image 174. Is sent to the display data processing unit 701, and the above-mentioned command with “display panel” as the display / light sensor unit 300 is sent to the data processing unit 700, thereby displaying a grid image on the sensor built-in liquid crystal panel 301.

ステップS24では、対象物64が左クリック操作を行ったか否かを検出する。一実施形態において、図18に示すようなシーケンスで、スキャンデータ160が現れたときに、左クリック操作を検出する。すなわち、五本の指がすべて接触している状態から、人差し指だけが離れた状態を経て、また、五本の指がすべて接触している状態になったことを検出する。この検出は、例えば、五本の指がすべて接触している状態の基準画像161と、人差し指だけが離れた状態の基準画像161とを用意して、ともにマウスモードに対応する(マウス信号生成手段13に関連付けられた)基準画像161として基準画像記憶部21に予め記憶しておき、それぞれ上述したようにスキャンデータ160と比較させる。スキャンデータ160が、人差し指だけが離れた状態の基準画像161と類似していたとき、例えば、マウス状態として”人差し指だけが離れた”をマウス状態保持部18に記憶させる。スキャンデータ160が、五本の指がすべて接触している状態の基準画像161と類似していたとき、マウス状態保持部18に記憶されていたマウス状態が、”人差し指だけが離れた”であったならば、左クリックがあったことを示す入力信号を生成して出力し、マウス状態保持部18にマウス状態として例えば、”五本の指がすべて接触している”を記憶させ、さらにマウスの左ボタンを強調表示させ(ステップS30)、ステップS21に戻る。左クリックが検出されなかった場合には、ステップS25に移行する。   In step S24, it is detected whether or not the object 64 has performed a left click operation. In one embodiment, a left click operation is detected when scan data 160 appears in a sequence as shown in FIG. That is, it is detected that only the forefinger is separated from the state where all five fingers are in contact, and that all the five fingers are in contact. For this detection, for example, a reference image 161 in which all five fingers are in contact and a reference image 161 in which only the index finger is separated are prepared, and both correspond to the mouse mode (mouse signal generating means). 13 is stored in advance in the reference image storage unit 21 as a reference image 161 (related to 13) and compared with the scan data 160 as described above. When the scan data 160 is similar to the reference image 161 in a state where only the index finger is separated, for example, “only the index finger is separated” is stored in the mouse state holding unit 18 as the mouse state. When the scan data 160 is similar to the reference image 161 in which all five fingers are in contact, the mouse state stored in the mouse state holding unit 18 is “only the index finger is released”. If so, an input signal indicating that there has been a left click is generated and output, and the mouse state holding unit 18 stores, for example, “all five fingers are in contact” as the mouse state. Is highlighted (step S30), and the process returns to step S21. If no left click is detected, the process proceeds to step S25.

ステップS25では、対象物64が右クリック操作を行ったか否かを検出する。検出方法は、ステップS24における左クリックの検出とほぼ同様であり、図19に示すようなシーケンスで、スキャンデータ160が現れたときに、右クリック操作を検出する。すなわち、五本の指がすべて接触している状態から、中指だけが離れた状態を経て、また、五本の指がすべて接触している状態になったことを検出する。この検出は、例えば、五本の指がすべて接触している状態の基準画像161と、中指だけが離れた状態の基準画像161とを用意して、ともにマウスモードに対応する(マウス信号生成手段13に関連付けられた)基準画像161として基準画像記憶部21に予め記憶しておき、それぞれ上述したようにスキャンデータ160と比較させる。スキャンデータ160が、中指だけが離れた状態の基準画像161と類似していたとき、例えば、マウス状態として”中指だけが離れた”をマウス状態保持部18に記憶させる。スキャンデータ160が、五本の指がすべて接触している状態の基準画像161と類似していたとき、マウス状態保持部18に記憶されていたマウス状態が、”中指だけが離れた”であったならば、右クリックがあったことを示す入力信号を生成して出力し、マウス状態保持部18にマウス状態として例えば、”五本の指がすべて接触している”を記憶させ、さらにマウスの右ボタンを強調表示させ(ステップS31)、ステップS21に戻る。右クリックが検出されなかった場合には、ステップS26に移行する。   In step S25, it is detected whether or not the object 64 has performed a right click operation. The detection method is substantially the same as the detection of the left click in step S24. When the scan data 160 appears in the sequence shown in FIG. 19, the right click operation is detected. That is, it is detected that the state where all five fingers are in contact, the state where only the middle finger is separated, and the state where all five fingers are in contact is detected. For this detection, for example, a reference image 161 in which all five fingers are in contact and a reference image 161 in which only the middle finger is separated are prepared, and both correspond to the mouse mode (mouse signal generating means). 13 is stored in advance in the reference image storage unit 21 as a reference image 161 (related to 13) and compared with the scan data 160 as described above. When the scan data 160 is similar to the reference image 161 in a state where only the middle finger is separated, for example, “only the middle finger is separated” is stored in the mouse state holding unit 18 as the mouse state. When the scan data 160 is similar to the reference image 161 in a state where all five fingers are in contact, the mouse state stored in the mouse state holding unit 18 is “only the middle finger is released”. If so, an input signal indicating that there has been a right click is generated and output, and the mouse state holding unit 18 stores, for example, “all five fingers are in contact” as the mouse state, and further the mouse Is highlighted (step S31), and the process returns to step S21. If a right click is not detected, the process proceeds to step S26.

ステップS26では、対象物64がホイール操作を行ったか否かを検出する。検出方法は、ステップS24における左クリックの検出とほぼ同様であり、図20に示すようなスキャンデータ160が現れたときに、ホイール操作を検出する。すなわち、五本の指がすべて普通に接触している状態から、人差し指だけが上方または下方にずれた状態になったことを検出する。この検出は、例えば、五本の指がすべて普通に接触している状態の基準画像161と、人差し指だけがずれた状態の基準画像161とを用意して、ともにマウスモードに対応する(マウス信号生成手段13に関連付けられた)基準画像161として基準画像記憶部21に予め記憶しておき、それぞれ上述したようにスキャンデータ160と比較させる。スキャンデータ160が、人差し指だけがずれた状態の基準画像161と類似していたとき、ホイールが一回転したことを検出し、ホイール操作の量(方向、ずれた回数(回転量))を示す入力信号を生成して出力し、さらにマウスのホイールを強調表示させ(ステップS32)、ステップS21に戻る。ホイール操作が検出されなかった場合には、ステップS27に移行する。   In step S26, it is detected whether or not the object 64 has operated the wheel. The detection method is almost the same as the detection of the left click in step S24, and the wheel operation is detected when the scan data 160 as shown in FIG. 20 appears. That is, it is detected that only the index finger has shifted upward or downward from the state where all five fingers are in normal contact. For this detection, for example, a reference image 161 in which all five fingers are in normal contact and a reference image 161 in which only the index finger is displaced are prepared, and both correspond to the mouse mode (mouse signal). A reference image 161 (associated with the generation means 13) is stored in advance in the reference image storage unit 21 and compared with the scan data 160 as described above. When the scan data 160 is similar to the reference image 161 in which only the index finger is displaced, it is detected that the wheel has made one rotation, and an input indicating the amount of wheel operation (direction, number of displacement (rotation amount)). A signal is generated and output, and the mouse wheel is highlighted (step S32), and the process returns to step S21. If no wheel operation is detected, the process proceeds to step S27.

ステップS27では、スキャンデータ160に対象物64の像が含まれるか否かを判定する。もし、スキャンデータ160が何の像も含んでいないとき(上記接触/接触領域を含んでいないとき)、マウスを消去して(ステップS33)、ステップS21に戻る。何らかの像を含んでいた場合にはステップS28に移行する。   In step S <b> 27, it is determined whether or not the scan data 160 includes an image of the object 64. If the scan data 160 does not include any image (when the scan / contact area is not included), the mouse is erased (step S33), and the process returns to step S21. If any image is included, the process proceeds to step S28.

ステップS28では、スキャンデータ160と上記マウスモードに対応した基準画像161が類似しているか否かを判定する。もし、スキャンデータ160と上記マウスモードに対応した基準画像161が類似していないときには、モード切替処理に移行する。類似していた場合には、マウスを通常表示させる(ステップS34)。   In step S28, it is determined whether or not the scan data 160 and the reference image 161 corresponding to the mouse mode are similar. If the scan data 160 and the reference image 161 corresponding to the mouse mode are not similar, the process proceeds to mode switching processing. If they are similar, the mouse is normally displayed (step S34).

マウスの左ボタン、右ボタンもしくはホイールの強調表示または通常表示を詳しく述べれば、まず、マウス信号生成部14は、まず、補助画像表示制御部15にマウス画像174をセンサ内蔵液晶パネル301上の上記マウス位置に、左ボタン、右ボタンもしくはホイールを強調してまたは通常の状態で表示するように指令する。指令を受けた補助画像表示制御部15は、左ボタン、右ボタンもしくはホイールが強調されたまたは通常の状態のマウス画像174のデータを補助画像記憶部22から呼び出して、マウス画像174の下に表示されるべき画面に、マウス画像174をマウス位置に合成した画像を表示データ処理部701へ送るとともに、「表示パネル」を表示/光センサ部300とした上記コマンドをデータ処理部700に送ることで、センサ内蔵液晶パネル301上にグリッド画像を表示させる。   To describe the mouse left button, right button or wheel highlight display or normal display in detail, first, the mouse signal generation unit 14 first sends the mouse image 174 to the auxiliary image display control unit 15 on the sensor built-in liquid crystal panel 301. Instructs the mouse position to highlight the left button, right button, or wheel, or to display in the normal state. Upon receiving the command, the auxiliary image display control unit 15 calls the data of the mouse image 174 in which the left button, the right button, or the wheel is emphasized or in a normal state from the auxiliary image storage unit 22 and displays it under the mouse image 174. By sending an image obtained by synthesizing the mouse image 174 to the mouse position on the screen to be displayed to the display data processing unit 701, and sending the above command with the “display panel” as the display / light sensor unit 300 to the data processing unit 700. Then, a grid image is displayed on the sensor built-in liquid crystal panel 301.

また、マウス表示を消去する場合には、マウス信号生成部14は、補助画像表示制御部15に、マウス画像174を表示しないように指令する。補助画像表示制御部15は、マウス画像174の下に表示される画面のみを表示データ処理部701へ送るとともに、「表示パネル」を表示/光センサ部300とした上記コマンドをデータ処理部700に送ることで、センサ内蔵液晶パネル301上からマウス画像174を消去する。   When the mouse display is erased, the mouse signal generation unit 14 instructs the auxiliary image display control unit 15 not to display the mouse image 174. The auxiliary image display control unit 15 sends only the screen displayed under the mouse image 174 to the display data processing unit 701, and sends the above-described command to the data processing unit 700 using the “display panel” as the display / light sensor unit 300. By sending it, the mouse image 174 is erased from the sensor built-in liquid crystal panel 301.

このように、入力装置100は、ユーザが手(対象物64)をマウスを持つ形にしたとき、マウスモードに移行し、マウスモードでは、実際には持っていないものの、マウスを持っているのと同様の操作感で入力を行うことができる。このように、本発明によれば、ユーザはマウスを持つことなく、快適にマウスと同じ操作感を得ることができる。   Thus, the input device 100 shifts to the mouse mode when the user makes the hand (object 64) hold the mouse, and in the mouse mode, the input device 100 has the mouse although it does not actually have. Input can be performed with the same operation feeling. Thus, according to the present invention, the user can comfortably obtain the same operational feeling as the mouse without holding the mouse.

(変形例)
なお、上記では、センサ内蔵液晶パネル301は、近傍の像を検知するとともに、画像を表示することができるものであるが、単に、近傍の像を検知表示するだけのものであってもよい。そのような構成であっても、補助画像170が表示されないだけで、上述したような複数のモードによる入力と、モードの切替は実現される。
(Modification)
In the above description, the sensor built-in liquid crystal panel 301 is capable of detecting a nearby image and displaying an image. However, the sensor built-in liquid crystal panel 301 may simply be configured to detect and display a nearby image. Even with such a configuration, only the auxiliary image 170 is not displayed, and the above-described input in a plurality of modes and switching of the modes are realized.

また、補助画像170としては、上述したようなペン画像171、グリッド画像172、およびマウス画像174に限定されるものではなく、他のものであってもよい。例えば、図15に示すアイコン173および図17に示すアイコン175のように、そのときの入力モードを示すアイコンであってもよい。   Further, the auxiliary image 170 is not limited to the pen image 171, the grid image 172, and the mouse image 174 as described above, but may be other images. For example, icons such as an icon 173 shown in FIG. 15 and an icon 175 shown in FIG.

また、上述したタブレットモード、マウスモードの他のモードとして、タッチパネルモード、スクリーンキーボードモード等を備えていてもよい。その場合には、それぞれタッチパネル信号生成部およびスクリーンキーボード信号生成部が対象物64の動きに基づいて入力信号を生成する。   Further, as other modes of the tablet mode and the mouse mode described above, a touch panel mode, a screen keyboard mode, and the like may be provided. In that case, the touch panel signal generation unit and the screen keyboard signal generation unit generate input signals based on the movement of the object 64, respectively.

(プログラムおよび記録媒体)
上では、入力装置100の構成として、データ処理部700や回路制御部600を備える構成について説明したが、この構成に限定されるものではない。例えば、主制御部800が回路制御部600を直接制御し、主制御部800が全体画像データ/部分画像データ/座標データを生成するような構成であってもよい。また、主制御部800が表示/光センサ部300を直接制御するような構成であってもよい。
(Program and recording medium)
In the above, the configuration including the data processing unit 700 and the circuit control unit 600 has been described as the configuration of the input device 100. However, the configuration is not limited to this configuration. For example, the main control unit 800 may directly control the circuit control unit 600, and the main control unit 800 may generate whole image data / partial image data / coordinate data. The main control unit 800 may directly control the display / light sensor unit 300.

最後に、入力装置100の主制御部800、データ処理部700、回路制御部600は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。   Finally, the main control unit 800, the data processing unit 700, and the circuit control unit 600 of the input device 100 may be configured by hardware logic, or may be realized by software using a CPU as follows.

すなわち、入力装置100は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラム及び各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである入力装置100の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記入力装置100に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   That is, the input device 100 includes a CPU (central processing unit) that executes instructions of a control program that realizes each function, a ROM (read only memory) that stores the program, a RAM (random access memory) that expands the program, A storage device (recording medium) such as a memory for storing the program and various data is provided. An object of the present invention is to provide a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program of the input device 100, which is software that realizes the above-described functions, is recorded in a computer-readable manner. This can also be achieved by supplying the input device 100 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、入力装置100を通信ネットワークと接続可能に構成し、上記プログラムコードを、通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   The input device 100 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Also, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), IEEE802.11 radio, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.

本発明は、様々な情報機器の入力機器に使用することができるため、情報機器の製造分野において利用可能である。   Since the present invention can be used for input devices of various information devices, it can be used in the field of manufacturing information devices.

本発明の一実施形態に係る入力装置の詳細構成を示すブロック図である。It is a block diagram which shows the detailed structure of the input device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る入力装置が備えるセンサ内蔵液晶パネルの断面を示す模式図である。It is a schematic diagram which shows the cross section of the liquid crystal panel with a built-in sensor with which the input device which concerns on one Embodiment of this invention is provided. 図3(a)は、本発明の一実施形態に係る入力装置が備えるセンサ内蔵液晶パネルにて反射像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。図3(b)は、本発明の一実施形態に係る入力装置が備えるセンサ内蔵液晶パネルにて影像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。FIG. 3A is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a reflected image with a sensor-equipped liquid crystal panel included in the input device according to the embodiment of the present invention. FIG. 3B is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a shadow image with the sensor-embedded liquid crystal panel included in the input device according to the embodiment of the present invention. 本発明の一実施形態に係る入力装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the input device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る入力装置で用いられるコマンドのフレーム構造の一例を示す模式図である。It is a schematic diagram which shows an example of the frame structure of the command used with the input device which concerns on one Embodiment of this invention. 図5に示したコマンドに含まれる各フィールドに指定可能な値の一例、および、その概要を示す説明図である。It is explanatory drawing which shows an example of the value which can be designated to each field contained in the command shown in FIG. 5, and its outline. 図7(a)は、本発明の一実施形態に係る入力装置にて、対象物がセンサ内蔵液晶パネル上に置かれていないときに、センサ内蔵液晶パネル全体をスキャンした結果として得られる画像データである。図7(b)は、本発明の一実施形態に係る入力装置にて、ユーザが指でセンサ内蔵液晶パネルをタッチしているときに、スキャンした結果として得られる画像データである。FIG. 7A shows image data obtained as a result of scanning the entire liquid crystal panel with a sensor when an object is not placed on the liquid crystal panel with a sensor in the input device according to the embodiment of the present invention. It is. FIG. 7B shows image data obtained as a result of scanning when the user touches the sensor built-in liquid crystal panel with a finger in the input device according to the embodiment of the present invention. 本発明の一実施形態に係る入力装置が備えるセンサ内蔵液晶パネルの構成およびその周辺回路の構成を示すブロック図である。It is a block diagram which shows the structure of the liquid crystal panel with a sensor with which the input device which concerns on one Embodiment of this invention is provided, and the structure of its peripheral circuit. 本発明の一実施形態に係る入力装置のモード切替処理を説明するフローチャートである。It is a flowchart explaining the mode switching process of the input device which concerns on one Embodiment of this invention. 図10(a)は、面状部材上に置かれた対象物の一例を示す図であり、図10(b)は、図10(a)における上記面状部材が検知した上記対象物の像を示す図である。FIG. 10A is a diagram illustrating an example of an object placed on a planar member, and FIG. 10B is an image of the object detected by the planar member in FIG. FIG. 図11(a)は、本発明の一実施形態に係るマウス信号入力手段に関連付けられた基準画像の一例を示す図であり、図11(b)は、図11(a)で示した基準画像を回転させた結果を示す図である。FIG. 11A is a diagram showing an example of a reference image associated with mouse signal input means according to an embodiment of the present invention, and FIG. 11B is a reference image shown in FIG. It is a figure which shows the result of having rotated. 図12(a)は、面状部材上に置かれた対象物の一例を示す図であり、図12(b)は、図10(a)における上記面状部材が検知した上記対象物の像を示す図である。Fig.12 (a) is a figure which shows an example of the target object set | placed on the planar member, FIG.12 (b) is an image of the said target object which the said planar member in Fig.10 (a) detected. FIG. 図13(a)は、本発明の一実施形態に係るタブレット信号入力手段に関連付けられた基準画像の一例を示す図であり、図13(b)は、図13(a)で示した基準画像を回転させた結果を示す図である。FIG. 13A is a view showing an example of a reference image associated with the tablet signal input means according to the embodiment of the present invention, and FIG. 13B is a reference image shown in FIG. It is a figure which shows the result of having rotated. 本発明の一実施形態に係る入力装置のタブレットモードの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the tablet mode of the input device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る入力装置のタブレットモードの概略を示す模式図である。It is a schematic diagram which shows the outline of the tablet mode of the input device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る入力装置のマウスモードの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the mouse | mouth mode of the input device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る入力装置のマウスモードの概略を示す模式図である。It is a schematic diagram which shows the outline of the mouse | mouth mode of the input device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る入力装置のマウスモードにおける左クリック操作を示す模式図である。It is a schematic diagram which shows left click operation in the mouse | mouth mode of the input device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る入力装置のマウスモードにおける右クリック操作を示す模式図である。It is a schematic diagram which shows right click operation in the mouse | mouth mode of the input device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る入力装置のマウスモードにおけるホイール操作を示す模式図である。It is a schematic diagram which shows wheel operation in the mouse | mouth mode of the input device which concerns on one Embodiment of this invention.

符号の説明Explanation of symbols

6 フォトダイオード
11 入力信号生成制御部(入力信号生成制御手段)
12 入力信号生成部(入力信号生成手段)
13 タブレット信号生成部(タブレット信号生成手段)
14 マウス信号生成部(マウス信号生成手段)
15 補助画像表示制御部(補助画像表示制御手段)
16 スキャンデータ保持部
17 基準画像処理データ保持部
18 マウス状態保持部
21 基準画像記憶部
22 補助画像記憶部
64 対象物
100 入力装置
160 スキャンデータ(対象物の像)
161 基準画像
162 指示座標
163 中央座標
170 補助画像
171 ペン画像
172 グリッド画像
173 アイコン
174 マウス画像
175 アイコン
300 表示/光センサ部
301 センサ内蔵液晶パネル(面状部材)
600 回路制御部
601 表示制御部
602 センサ制御部
603 バックライト制御部
700 データ処理部
701 表示データ処理部
703 センサデータ処理部
800 主制御部
901 記憶部
6 Photodiode 11 Input signal generation control unit (input signal generation control means)
12 Input signal generator (input signal generator)
13 Tablet signal generator (tablet signal generator)
14 Mouse signal generator (mouse signal generator)
15 Auxiliary image display control unit (auxiliary image display control means)
16 Scan data holding unit 17 Reference image processing data holding unit 18 Mouse state holding unit 21 Reference image storage unit 22 Auxiliary image storage unit 64 Object 100 Input device 160 Scan data (object image)
161 Reference image 162 Pointed coordinate 163 Center coordinate 170 Auxiliary image 171 Pen image 172 Grid image 173 Icon 174 Mouse image 175 Icon 300 Display / light sensor unit 301 Sensor built-in liquid crystal panel (planar member)
600 circuit control unit 601 display control unit 602 sensor control unit 603 backlight control unit 700 data processing unit 701 display data processing unit 703 sensor data processing unit 800 main control unit 901 storage unit

Claims (10)

近傍の像を検知する面状部材と、
上記面状部材が検知した対象物の像に基づいて当該対象物の動きを検出して、当該対象物の動きに関連付けられた入力信号を生成する複数の入力信号生成手段と、
上記面状部材が検知した上記対象物の像に基づいて、上記複数の入力信号生成手段からいずれか一つの入力信号生成手段を選択して、選択した入力信号生成手段に上記入力信号を生成させる入力信号生成制御手段と
を備えていることを特徴とする入力装置。
A planar member for detecting a nearby image;
A plurality of input signal generating means for detecting the movement of the object based on the image of the object detected by the planar member and generating an input signal associated with the movement of the object;
Based on the image of the object detected by the planar member, any one input signal generation unit is selected from the plurality of input signal generation units, and the selected input signal generation unit generates the input signal. An input device comprising an input signal generation control means.
上記複数の入力信号生成手段のうちの少なくとも一つは、上記対象物が上記面状部材上の特定の位置を指示したことを検出して当該特定の位置を示す入力信号を生成するタブレット信号生成手段であることを特徴とする請求項1に記載の入力装置。   At least one of the plurality of input signal generation means detects that the object indicates a specific position on the planar member, and generates a tablet signal that generates the input signal indicating the specific position The input device according to claim 1, wherein the input device is a means. 上記複数の入力信号生成手段のうちの少なくとも一つは、上記対象物が上記面状部材上を移動したことを検出して当該移動の量を示す入力信号を生成するとともに、上記対象物の一部が上記面状部材から離れた後接近または接触したことを検出してクリック操作があったことを示す入力信号を生成するマウス信号生成手段であることを特徴とする請求項1または2に記載の入力装置。   At least one of the plurality of input signal generation means detects that the object has moved on the planar member, generates an input signal indicating the amount of the movement, and 3. The mouse signal generating means for generating an input signal indicating that a click operation has been performed by detecting that the part has approached or contacted after being separated from the planar member. Input device. 上記マウス信号生成手段が、上記対象物の一部が上記面状部材に接近または接触した状態で移動したことを検出してホイール操作があったことを示す入力信号を生成することを特徴とする請求項3に記載の入力装置。   The mouse signal generation means detects that a part of the object has moved in a state of approaching or contacting the planar member, and generates an input signal indicating that there has been a wheel operation. The input device according to claim 3. 上記入力信号生成制御手段は、上記面状部材が検知した上記対象物の像と、上記複数の入力信号生成手段のそれぞれに関連付けられた基準画像とを比較することにより、上記複数の入力信号生成手段からいずれか一つの入力信号生成手段を選択することを特徴とする請求項1から4のいずれか一項に記載の入力装置。   The input signal generation control unit compares the image of the object detected by the planar member with a reference image associated with each of the plurality of input signal generation units, thereby generating the plurality of input signal generation units. 5. The input device according to claim 1, wherein any one of the input signal generation means is selected from the means. 上記入力信号生成制御手段は、上記面状部材が検知した上記対象物の像と、ある上記基準画像に移動、回転、拡大および縮小からなる群より選ばれる一つ以上の画像処理を施した画像、または当該ある基準画像との重複率に基づいて、当該ある基準画像に関連付けられた入力信号生成手段を選択するか否かを決定することを特徴とする請求項5に記載の入力装置。   The input signal generation control means includes an image of the object detected by the planar member and an image obtained by performing one or more image processing selected from the group consisting of movement, rotation, enlargement, and reduction on the certain reference image. 6. The input device according to claim 5, wherein whether or not to select an input signal generation unit associated with the certain reference image is determined based on an overlap rate with the certain reference image. 上記面状部材が、画像を表示するものであり、
上記入力信号生成制御手段が選択した上記入力信号生成手段に関連付けられた補助画像を上記面状部材に表示させる補助画像表示制御手段をさらに備えていることを特徴とする請求項1から6のいずれか一項に記載の入力装置。
The planar member displays an image,
The auxiliary image display control means for displaying on the planar member an auxiliary image associated with the input signal generation means selected by the input signal generation control means. The input device according to claim 1.
上記補助画像が、ペン画像、マウス画像およびグリッド画像からなる群より選ばれる補助画像であることを特徴とする請求項7に記載の入力装置。   The input device according to claim 7, wherein the auxiliary image is an auxiliary image selected from the group consisting of a pen image, a mouse image, and a grid image. 近傍の像を検知する面状部材と、上記面状部材が検知した対象物の像に基づいて当該対象物の動きを検出して、当該対象物の動きに関連付けられた入力信号を生成する複数の入力信号生成手段とを備えた入力装置の制御方法であって、
上記面状部材が検知した上記対象物の像に基づいて、上記複数の入力信号生成手段からいずれか一つの上記入力信号生成手段を選択して、選択した当該入力信号生成手段に上記入力信号を生成させる入力信号生成制御工程を包含することを特徴とする入力装置の制御方法。
A planar member that detects an image in the vicinity, and a plurality of members that detect the movement of the object based on the image of the object detected by the planar member and generate an input signal associated with the movement of the object An input device control method comprising:
Based on the image of the object detected by the planar member, the input signal generating unit is selected from the plurality of input signal generating units, and the input signal is input to the selected input signal generating unit. A control method for an input device, comprising an input signal generation control step to be generated.
請求項1から8のいずれか一項に記載の入力装置を動作させるプログラムであって、コンピュータを上記の各手段として機能させるための、プログラム。   A program for operating the input device according to any one of claims 1 to 8, wherein the program causes a computer to function as each of the means.
JP2008284809A 2008-11-05 2008-11-05 Input device Expired - Fee Related JP5306780B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008284809A JP5306780B2 (en) 2008-11-05 2008-11-05 Input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008284809A JP5306780B2 (en) 2008-11-05 2008-11-05 Input device

Publications (2)

Publication Number Publication Date
JP2010113481A true JP2010113481A (en) 2010-05-20
JP5306780B2 JP5306780B2 (en) 2013-10-02

Family

ID=42302003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008284809A Expired - Fee Related JP5306780B2 (en) 2008-11-05 2008-11-05 Input device

Country Status (1)

Country Link
JP (1) JP5306780B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013015877A (en) * 2011-06-30 2013-01-24 Nakayo Telecommun Inc Data input method by virtual mouse
JP2015122124A (en) * 2015-03-31 2015-07-02 株式会社ナカヨ Information apparatus with data input function by virtual mouse
JP2015530669A (en) * 2012-09-29 2015-10-15 華為技術有限公司Huawei Technologies Co.,Ltd. Method and apparatus for controlling a terminal device by using a non-contact gesture
JP2016018518A (en) * 2014-07-11 2016-02-01 シャープ株式会社 Information processing unit
JP2016040731A (en) * 2015-11-04 2016-03-24 キヤノン株式会社 Image retrieval device, image retrieval method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003173237A (en) * 2001-09-28 2003-06-20 Ricoh Co Ltd Information input-output system, program and storage medium
JP2007299384A (en) * 2006-05-03 2007-11-15 Mitsubishi Electric Research Laboratories Inc Method and system for emulating mouse on multi-touch sensitive screen executed by computer
JP2008059254A (en) * 2006-08-31 2008-03-13 Sony Corp Display imaging apparatus, information input device, object detection program and object detection method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003173237A (en) * 2001-09-28 2003-06-20 Ricoh Co Ltd Information input-output system, program and storage medium
JP2007299384A (en) * 2006-05-03 2007-11-15 Mitsubishi Electric Research Laboratories Inc Method and system for emulating mouse on multi-touch sensitive screen executed by computer
JP2008059254A (en) * 2006-08-31 2008-03-13 Sony Corp Display imaging apparatus, information input device, object detection program and object detection method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013015877A (en) * 2011-06-30 2013-01-24 Nakayo Telecommun Inc Data input method by virtual mouse
JP2015530669A (en) * 2012-09-29 2015-10-15 華為技術有限公司Huawei Technologies Co.,Ltd. Method and apparatus for controlling a terminal device by using a non-contact gesture
JP2016018518A (en) * 2014-07-11 2016-02-01 シャープ株式会社 Information processing unit
JP2015122124A (en) * 2015-03-31 2015-07-02 株式会社ナカヨ Information apparatus with data input function by virtual mouse
JP2016040731A (en) * 2015-11-04 2016-03-24 キヤノン株式会社 Image retrieval device, image retrieval method, and program

Also Published As

Publication number Publication date
JP5306780B2 (en) 2013-10-02

Similar Documents

Publication Publication Date Title
JP5367339B2 (en) MENU DISPLAY DEVICE, MENU DISPLAY DEVICE CONTROL METHOD, AND MENU DISPLAY PROGRAM
JP2010146506A (en) Input device, method for controlling input device, program for controlling input device, computer-readable recording medium, and information terminal device
JP2010140300A (en) Display, control method, control program and recording medium
JP5095574B2 (en) Image display / image detection apparatus, image display method, image display program, and recording medium recording the program
JP5306780B2 (en) Input device
JP2010186442A (en) Input device and input control method
JP2010122972A (en) Image display/detection device, selection method, and program
JP2010108303A (en) Image detection/display device
JP5185086B2 (en) Display device, display device control method, display device control program, and computer-readable recording medium storing the program
JP2010109467A (en) Image display/image detection apparatus
JP2010204945A (en) Input device and input method
JP5254753B2 (en) Numerical input device, numerical input method, numerical input program, and computer-readable recording medium
JP2010122383A (en) Display apparatus
JP2010118018A (en) Position identifying device, position identification program, computer-readable storage medium, and position identification method
JP5567776B2 (en) Color detection / color output device, color detection / color output program, computer-readable recording medium, and color detection / color output method
JP5275754B2 (en) Process execution instruction device, electronic apparatus, and method for controlling process execution instruction device
JP2010122444A (en) Map display apparatus, method for controlling map display apparatus, program for controlling map display apparatus, and computer readable recording medium
JP2010117841A (en) Image detection device, recognition method of input position and program
JP2010256969A (en) User interface device and method for controlling the same
JP2010119064A (en) Color detection device, color detection program, computer readable recording medium, and color detection method
JP2010118016A (en) Input device, input method, input program, and computer-readable recording medium
JP2010160689A (en) Input device and method of controlling the same
JP2010092272A (en) Image display/image detection device, auxiliary image display method, and program
JP5171572B2 (en) Image display device, control method for image display device, program, and recording medium
JP5274987B2 (en) Portable electronic device, instruction input device, instruction input method, instruction input processing program, and computer-readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130626

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5306780

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees