JP2010113675A - Portable electronic appliance, instruction input device, instruction input method, instruction input processing program, and computer readable recording medium - Google Patents

Portable electronic appliance, instruction input device, instruction input method, instruction input processing program, and computer readable recording medium Download PDF

Info

Publication number
JP2010113675A
JP2010113675A JP2008287965A JP2008287965A JP2010113675A JP 2010113675 A JP2010113675 A JP 2010113675A JP 2008287965 A JP2008287965 A JP 2008287965A JP 2008287965 A JP2008287965 A JP 2008287965A JP 2010113675 A JP2010113675 A JP 2010113675A
Authority
JP
Japan
Prior art keywords
image
sensor
planar member
data
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008287965A
Other languages
Japanese (ja)
Other versions
JP5274987B2 (en
Inventor
Takahide Inoue
貴英 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2008287965A priority Critical patent/JP5274987B2/en
Publication of JP2010113675A publication Critical patent/JP2010113675A/en
Application granted granted Critical
Publication of JP5274987B2 publication Critical patent/JP5274987B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an instruction input device performing an operation instruction in the same way as conventional various single-handed operation instructions using a mouse. <P>SOLUTION: The instruction input device is provided with: an identification part 12 for identifying coordinates representing a position of an image on a planar member on the basis of the image detected by the planar member for detecting nearby images; a decision part 13 for deciding a position relation between first and second images on the planar member by comparing coordinates between the first and second images when the first image and the second image are consecutively detected in this order at different positions on the planar member; and a determination part 14 for determining content of the instruction in accordance with the position relation between the first and second images on the planar member. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、携帯型電子機器、指示入力装置、指示入力方法、指示入力処理プログラム及びコンピュータ読み取り可能な記録媒体に関し、特に、利用者による指示を簡易な操作により入力可能な携帯型電子機器、指示入力装置、指示入力方法、指示入力処理プログラム及びコンピュータ読み取り可能な記録媒体に関する。   The present invention relates to a portable electronic device, an instruction input device, an instruction input method, an instruction input processing program, and a computer-readable recording medium, and in particular, a portable electronic device capable of inputting an instruction by a user by a simple operation, an instruction The present invention relates to an input device, an instruction input method, an instruction input processing program, and a computer-readable recording medium.

従来、様々な入力装置がパーソナルコンピュータ等の電子機器への指示入力を行なう手段として用いられている。例えば、パーソナルコンピュータの入力装置としてはキーボードやマウス等が一般的である。特に、マウスは実際に移動させた方向を入力信号として出力することができるので、利用者は操作の手応えを感じながら直感的な指示入力を行なうことができる。   Conventionally, various input devices are used as means for inputting instructions to an electronic device such as a personal computer. For example, a keyboard, a mouse, etc. are common as input devices for personal computers. In particular, since the mouse can output the actually moved direction as an input signal, the user can input an intuitive instruction while feeling the response of the operation.

ところで、最近、ノート型パーソナルコンピュータの小型化、携帯化が加速し、それに伴い、マウスに代わる入力装置が新たに開発されて来ている。例えば、特許文献1には、2つのボタンを持つマウスによる操作を前提としたアプリケーションを指入力操作だけで使用することが可能な座標入力装置が記載されている。   By the way, recently, the downsizing and portability of notebook personal computers have accelerated, and accordingly, input devices that replace the mouse have been newly developed. For example, Patent Document 1 describes a coordinate input device that can use an application based on an operation with a mouse having two buttons only by a finger input operation.

この特許文献1に記載された座標入力装置では、パソコン等の端末装置に接続されたタブレット上における利用者の指による操作により2つのボタンを有するマウスと同等のデータをアプリケーションに出力することができる。   In the coordinate input device described in Patent Document 1, data equivalent to a mouse having two buttons can be output to an application by an operation with a user's finger on a tablet connected to a terminal device such as a personal computer. .

また、特許文献2には、パソコンの操作性を向上させ、マウス操作を支援するマウスパッドが記載されている。   Further, Patent Document 2 describes a mouse pad that improves the operability of a personal computer and supports mouse operations.

この特許文献2に記載されたマウスパッドでは、マウスの操作面上に任意の画像を表示可能とすることによりマウスパッド自体を自由に異なる印象の外観に変更することができる。   With the mouse pad described in Patent Document 2, it is possible to freely change the appearance of the mouse pad itself to have a different impression by enabling an arbitrary image to be displayed on the operation surface of the mouse.

さらに、特許文献3には、表示面に接触又は近接する物体に対応するオブジェクトについての位置関係、時間位置変化、及び形状のうちの少なくとも1つに基づいて、利用者の指示を認識する表示装置が記載されている。   Further, Patent Document 3 discloses a display device that recognizes a user instruction based on at least one of a positional relationship, a temporal position change, and a shape of an object corresponding to an object that is in contact with or close to the display surface. Is described.

この特許文献3に記載された表示装置では、利用者は表示画面上の指等の物体を接触又は近接させる操作を行なうことにより、マウスの指示操作を実現することができる。
特開平成7−93094号公報(平成7年4月7日公開) 特開2008−27120号公報(平成20年2月7日公開) 特開2008−97172号公報(平成20年4月24日公開)
In the display device described in Patent Document 3, a user can realize an instruction operation of a mouse by performing an operation of bringing an object such as a finger on a display screen into contact or proximity.
JP-A-7-93094 (released on April 7, 1995) JP 2008-27120 A (published February 7, 2008) JP 2008-97172 A (published April 24, 2008)

しかしながら、上記の特許文献1〜3に記載された技術では、従来のマウスを用いた、利用者の片手による指示操作を完全に実現することができず、さらなる操作性の向上が不可欠であるといった課題があった。   However, with the techniques described in the above Patent Documents 1 to 3, it is impossible to completely realize an instruction operation with one hand of a user using a conventional mouse, and further improvement in operability is indispensable. There was a problem.

上記課題に鑑み、本発明の目的は、従来のマウスを用いた利用者の片手による多様な操作指示と同様な操作指示を実現することができる携帯型電子機器、指示入力装置、指示入力方法、指示入力処理プログラム及びコンピュータ読み取り可能な記録媒体を提供することにある。   In view of the above problems, an object of the present invention is to provide a portable electronic device, an instruction input device, an instruction input method, and an operation instruction similar to various operation instructions with one hand of a user using a conventional mouse, An object of the present invention is to provide an instruction input processing program and a computer-readable recording medium.

上記目的を達成するために、本発明に係る指示入力装置は、画像を表示するとともに、近傍の像を検知する面状部材と、前記面状部材により検知された像に基づいて、当該像の前記面状部材上での位置を表わす座標を特定する特定手段と、前記面状部材上の互いに異なる位置で、第1の像と第2の像とが、この順で連続して検知されたときに、前記特定手段により特定された第1及び第2の像の座標を比較することで、前記第1及び第2の像の前記面状部材上での位置関係を判定する判定手段と、前記判定手段により判定された位置関係に応じた指示内容を決定する決定手段とを備えている。   In order to achieve the above object, an instruction input device according to the present invention displays an image, and based on a planar member that detects a nearby image, and an image detected by the planar member, The first image and the second image are successively detected in this order at a different position on the planar member, with specifying means for identifying coordinates representing a position on the planar member. And determining means for determining the positional relationship of the first and second images on the planar member by comparing the coordinates of the first and second images specified by the specifying means; Determining means for determining instruction contents according to the positional relationship determined by the determining means.

上記の指示入力装置では、互いに異なる位置で連続して検出された第1及び第2の像の座標を比較することで、第1及び第2の像の面状部材上での位置関係を判定することができるので、第1及び第2の像の面状部材上での位置関係に応じた指示内容を決定することができる。   In the above instruction input device, the positional relationship between the first and second images on the planar member is determined by comparing the coordinates of the first and second images detected successively at different positions. Therefore, it is possible to determine the instruction content corresponding to the positional relationship between the first and second images on the planar member.

このため、利用者は面状部材に2本の指を順番にタッチさせることで、従来のマウスを操作するように指示入力を行なうことができる。   For this reason, the user can input an instruction so as to operate a conventional mouse by sequentially touching the planar member with two fingers.

したがって、従来のマウスを用いた利用者の片手による多様な操作指示と同様な操作指示を実現することができる。   Therefore, it is possible to realize operation instructions similar to various operation instructions with one hand of a user using a conventional mouse.

前記第1の像の座標が特定されたときに、前記第1の像の座標に基づいて、前記第1の像の前記面状部材上での位置に表示される第1の画像と、前記第1の像と所定の位置関係にある前記第2の像の前記面状部材上での位置に表示される第2の画像と、を前記面状部材上に配置する配置手段をさらに備えていることことが好ましい。   A first image that is displayed at a position on the planar member of the first image based on the coordinates of the first image when the coordinates of the first image are specified; Arrangement means for arranging, on the planar member, a second image displayed at a position on the planar member of the second image having a predetermined positional relationship with the first image. Preferably it is.

この場合、第1の像の座標が特定されたときに、第1の像の位置に第1の画像を、第2の像が検知されるべき位置に第2の画像を、それぞれ表示することができる。   In this case, when the coordinates of the first image are specified, the first image is displayed at the position of the first image, and the second image is displayed at the position where the second image is to be detected. Can do.

このため、利用者は、第1及び第2の画像を視認することにより、従来のマウスと同様な操作感覚を持つことができる。   For this reason, the user can have an operation feeling similar to that of a conventional mouse by visually recognizing the first and second images.

前記配置手段は、前記第1の像が前記面状部材上で移動したときに、前記第1の像の座標変化に従って前記第1及び第2の画像を前記面状部材上で移動させることが好ましい。   The arrangement means may move the first and second images on the planar member according to a change in coordinates of the first image when the first image moves on the planar member. preferable.

この場合、第1の像が面状部材上で移動したときでも、第1及び第2の像の位置に第1及び第2の画像を常に配置することができる。   In this case, even when the first image moves on the planar member, the first and second images can always be arranged at the positions of the first and second images.

このため、利用者は、第1及び第2の像の移動に追従して移動する第1及び第2の画像を視認することにより、従来のマウスと同様な操作感覚をより強く持つことができる。   For this reason, the user can have the same operational feeling as a conventional mouse by visually recognizing the first and second images that move following the movement of the first and second images. .

前記第2の像は、前記面状部材上での前記第1の像の座標を含む直線の左側の領域で検知されるべき左側検知像と、前記面状部材上での前記直線の右側の領域で検知されるべき右側検知像と、を含んでおり、前記第2の画像は、前記左側検知像の前記面状部材上での位置に表示される左側画像と、前記右側検知像の前記面状部材上での位置に表示される右側画像と、を含んでいることが好ましい。   The second image includes a left detection image to be detected in a region on the left side of the straight line including the coordinates of the first image on the planar member, and a right side of the straight line on the planar member. A right detection image to be detected in a region, and the second image includes a left image displayed at a position on the planar member of the left detection image and the right detection image. And a right image displayed at a position on the planar member.

この場合、利用者が面状部材上に3本の指をタッチさせる場合でも、第1の像の位置に第1の画像を、左側検知像が検知されるべき位置に左側画像を、右側検知像が検知されるべき位置に右側画像を、それぞれ表示することができる。   In this case, even when the user touches three fingers on the planar member, the first image is positioned at the position of the first image, the left image is detected at the position where the left detection image is to be detected, and the right detection is performed. The right image can be displayed at the position where the image is to be detected.

このため、利用者は、従来からの2つボタンを有するマウスと同様な操作入力を実現することができる。   For this reason, the user can realize the same operation input as a conventional mouse having two buttons.

前記決定手段により決定される指示内容に応じた画像表示を行なうための表示データを生成する表示制御手段と、前記表示制御手段により生成される表示データに基づく画像を表示する画像表示部材とをさらに備えていることが好ましい。   A display control unit that generates display data for performing image display according to the instruction content determined by the determination unit; and an image display member that displays an image based on the display data generated by the display control unit It is preferable to provide.

この場合、第1及び第2の像の位置関係に応じた指示内容に基づく画像表示を画像表示部材に表示させることができる。   In this case, an image display based on the instruction content corresponding to the positional relationship between the first and second images can be displayed on the image display member.

前記決定手段により決定される指示内容に応じた画像表示を行なうための表示データを生成する表示制御手段をさらに備え、前記面状部材は、前記表示制御手段により生成される表示データに基づく画像を表示することが好ましい。   The image forming apparatus further includes display control means for generating display data for performing image display according to the instruction content determined by the determination means, and the planar member displays an image based on the display data generated by the display control means. It is preferable to display.

この場合、第1及び第2の像の位置関係に応じた指示内容に基づく画像表示を面状部材に表示させることができる。   In this case, an image display based on the instruction content corresponding to the positional relationship between the first and second images can be displayed on the planar member.

本発明に係る指示入力方法は、画像を表示するとともに、近傍の像を検知する面状部材を用いた指示入力方法であって、前記面状部材により検知された像に基づいて、当該像の前記面状部材上での位置を表わす座標を特定する特定ステップと、前記面状部材上の互いに異なる位置で、第1の像と第2の像とが、この順で連続して検知されたときに、前記特定ステップにて特定された第1及び第2の像の座標を比較することで、前記第1及び第2の像の前記面状部材上での位置関係を判定する判定ステップと、前記判定ステップにて判定された位置関係に応じた指示内容を決定する決定ステップとを含んでいる。   An instruction input method according to the present invention is an instruction input method using a planar member that displays an image and detects a nearby image, and based on the image detected by the planar member, A specific step of specifying coordinates representing a position on the planar member and a first image and a second image are successively detected in this order at different positions on the planar member. A determination step of determining the positional relationship of the first and second images on the planar member by comparing the coordinates of the first and second images specified in the specifying step; And a determination step for determining instruction contents according to the positional relationship determined in the determination step.

上記の指示入力方法では、互いに異なる位置で連続して検出された第1及び第2の像の座標を比較することで、第1及び第2の像の面状部材上での位置関係を判定することができるので、第1及び第2の像の面状部材上での位置関係に応じた指示内容を決定することができる。   In the above instruction input method, the positional relationship of the first and second images on the planar member is determined by comparing the coordinates of the first and second images detected successively at different positions. Therefore, it is possible to determine the instruction content corresponding to the positional relationship between the first and second images on the planar member.

このため、利用者は面状部材に2本の指を順番にタッチさせることで、従来のマウスを操作するように指示入力を行なうことができる。   For this reason, the user can input an instruction so as to operate a conventional mouse by sequentially touching the planar member with two fingers.

したがって、従来のマウスを用いた利用者の片手による多様な操作指示と同様な操作指示を実現することができる。   Therefore, it is possible to realize operation instructions similar to various operation instructions with one hand of a user using a conventional mouse.

本発明に係る携帯型電子機器は、上記の指示入力装置を備えている。   A portable electronic device according to the present invention includes the instruction input device described above.

上記の携帯型電子機器では、上記の指示入力装置を備えている電子機器が実現される。   In the portable electronic device, an electronic device including the instruction input device is realized.

また、本発明に係る指示入力装置を動作させるためのプログラムであって、コンピュータを上記の各手段として駆動させることを特徴とするプログラム及び該プログラムを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に含まれる。   Further, a program for operating the instruction input device according to the present invention, which is characterized in that a computer is driven as each of the above-mentioned means and a computer-readable recording medium on which the program is recorded. Included in the category.

本発明の指示入力装置は、画像を表示するとともに、近傍の像を検知する面状部材と、前記面状部材により検知された像に基づいて、当該像の前記面状部材上での位置を表わす座標を特定する特定手段と、前記面状部材上の互いに異なる位置で、第1の像と第2の像とが、この順で連続して検知されたときに、前記特定手段により特定された第1及び第2の像の座標を比較することで、前記第1及び第2の像の前記面状部材上での位置関係を判定する判定手段と、前記判定手段により判定された位置関係に応じた指示内容を決定する決定手段とを備えている。   The instruction input device of the present invention displays an image and detects the position of the image on the planar member based on the planar member that detects a nearby image and the image detected by the planar member. When the first image and the second image are sequentially detected in this order at different positions on the planar member, the specifying means for specifying the coordinates to represent is specified by the specifying means. A determination unit that determines the positional relationship of the first and second images on the planar member by comparing the coordinates of the first and second images, and the positional relationship determined by the determination unit. Determining means for determining the instruction content according to.

これにより、従来のマウスを用いた利用者の片手による多様な操作指示と同様な操作指示を実現することができるという効果を奏する。   Thereby, there is an effect that it is possible to realize operation instructions similar to various operation instructions with one hand of a user using a conventional mouse.

本発明の一実施形態について図1〜14に基づいて説明すると以下の通りである。   One embodiment of the present invention is described below with reference to FIGS.

まず、本実施の形態に係るデータ表示/センサ装置100が備えるセンサ内蔵液晶パネル301の概要について説明する。   First, an outline of the sensor built-in liquid crystal panel 301 provided in the data display / sensor device 100 according to the present embodiment will be described.

(センサ内蔵液晶パネルの概要)
上記データ表示/センサ装置100が備えるセンサ内蔵液晶パネル301は、データの表示に加え、対象物の画像検出が可能な液晶パネルである。ここで、対象物の画像検出とは、例えば、利用者が指やペンなどでポインティング(タッチ)した位置の検出や、印刷物等の画像の読み取り(スキャン)である。なお、表示に用いるデバイスは、液晶パネルに限定されるものではなく、有機EL(Electro Luminescence)パネルなどであってもよい。
(Outline of LCD panel with built-in sensor)
The sensor built-in liquid crystal panel 301 provided in the data display / sensor device 100 is a liquid crystal panel capable of detecting an image of an object in addition to displaying data. Here, the image detection of the object is, for example, detection of a position pointed (touched) by the user with a finger or a pen, or reading (scanning) of an image of a printed material or the like. The device used for display is not limited to a liquid crystal panel, and may be an organic EL (Electro Luminescence) panel or the like.

図2を参照しながら、センサ内蔵液晶パネル301の構造について説明する。図2は、センサ内蔵液晶パネル301の断面を模式的に示す図である。なお、ここで説明するセンサ内蔵液晶パネル301は一例であり、表示面と読取面とが共用されているものであれば、任意の構造のものが利用できる。   The structure of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 2 is a diagram schematically showing a cross section of the sensor built-in liquid crystal panel 301. The sensor built-in liquid crystal panel 301 described here is an example, and any structure can be used as long as the display surface and the reading surface are shared.

図示のとおり、センサ内蔵液晶パネル301は、背面側に配置されるアクティブマトリクス基板51Aと、表面側に配置される対向基板51Bとを備え、これら基板の間に液晶層52を挟持した構造を有している。アクティブマトリクス基板51Aには、画素電極56、データ信号線57、光センサ回路32(図示せず)、配向膜58、偏光板59などが設けられる。対向基板51Bには、カラーフィルタ53r(赤)、53g(緑)、53b(青)、遮光膜54、対向電極55、配向膜58、偏光板59などが設けられる。また、センサ内蔵液晶パネル301の背面には、バックライト307が設けられている。   As shown in the figure, the sensor built-in liquid crystal panel 301 includes an active matrix substrate 51A disposed on the back surface side and a counter substrate 51B disposed on the front surface side, and has a structure in which a liquid crystal layer 52 is sandwiched between these substrates. is doing. The active matrix substrate 51A is provided with a pixel electrode 56, a data signal line 57, an optical sensor circuit 32 (not shown), an alignment film 58, a polarizing plate 59, and the like. The counter substrate 51B is provided with color filters 53r (red), 53g (green), 53b (blue), a light shielding film 54, a counter electrode 55, an alignment film 58, a polarizing plate 59, and the like. In addition, a backlight 307 is provided on the back surface of the sensor built-in liquid crystal panel 301.

なお、光センサ回路32に含まれるフォトダイオード6は、青のカラーフィルタ53bを設けた画素電極56の近傍に設けられているが、この構成に限定されるものではない。赤のカラーフィルタ53rを設けた画素電極56の近傍に設けてもよいし、緑のカラーフィルタ53gを設けた画素電極56の近傍に設けてもよい。   The photodiode 6 included in the photosensor circuit 32 is provided in the vicinity of the pixel electrode 56 provided with the blue color filter 53b, but is not limited to this configuration. It may be provided in the vicinity of the pixel electrode 56 provided with the red color filter 53r, or may be provided in the vicinity of the pixel electrode 56 provided with the green color filter 53g.

次に、図3(a)及び図3(b)を参照しながら、利用者が、指やペンで、センサ内蔵液晶パネル301上をタッチした位置を検出する2種類の方法について説明する。   Next, with reference to FIGS. 3A and 3B, two types of methods for detecting a position where the user touches the sensor built-in liquid crystal panel 301 with a finger or a pen will be described.

図3(a)は、反射像を検知することにより、利用者がタッチした位置を検出する様子を示す模式図である。バックライト307から光63が出射されると、フォトダイオード6を含む光センサ回路32は、指などの対象物64により反射された光63を検知する。これにより、対象物64の反射像を検知することができる。このように、センサ内蔵液晶パネル301は、反射像を検知することにより、タッチした位置を検出することができる。   FIG. 3A is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a reflected image. When the light 63 is emitted from the backlight 307, the optical sensor circuit 32 including the photodiode 6 detects the light 63 reflected by the object 64 such as a finger. Thereby, the reflected image of the target object 64 can be detected. Thus, the sensor built-in liquid crystal panel 301 can detect the touched position by detecting the reflected image.

また、図3(b)は、影像を検知することにより、利用者がタッチした位置を検出する様子を示す模式図である。図3(b)に示すように、フォトダイオード6を含む光センサ回路32は、対向基板51Bなどを透過した外光61を検知する。しかしながら、ペンなどの対象物62がある場合は、外光61の入射が妨げられるので、光センサ回路32が検知する光量が減る。これにより、対象物62の影像を検知することができる。このように、センサ内蔵液晶パネル301は、影像を検知することにより、タッチした位置を検出することもできる。   FIG. 3B is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a shadow image. As shown in FIG. 3B, the optical sensor circuit 32 including the photodiode 6 detects external light 61 transmitted through the counter substrate 51B and the like. However, when there is an object 62 such as a pen, the incident of the external light 61 is hindered, so that the amount of light detected by the optical sensor circuit 32 is reduced. Thereby, a shadow image of the object 62 can be detected. Thus, the sensor built-in liquid crystal panel 301 can also detect a touched position by detecting a shadow image.

上述のように、フォトダイオード6は、バックライト307より出射された光の反射光(影像)を検知してもよいし、外光による影像を検知してもよい。また、上記2種類の検知方法を併用して、影像と反射像とを両方を同時に検知するようにしてもよい。   As described above, the photodiode 6 may detect reflected light (shadow image) of the light emitted from the backlight 307 or may detect a shadow image caused by external light. Further, the two types of detection methods may be used in combination to detect both a shadow image and a reflected image at the same time.

(データ表示/センサ装置の要部構成)
次に、図4を参照しながら、上記データ表示/センサ装置100の要部構成について説明する。図4は、データ表示/センサ装置100の要部構成を示すブロック図である。図示のように、データ表示/センサ装置100は、1または複数の表示/光センサ部300、回路制御部600、データ処理部700、主制御部800、記憶部901、一次記憶部902、操作部903、外部通信部907、音声出力部908、及び音声入力部909を備えている。ここでは、データ表示/センサ装置100は、表示/光センサ部300を2つ(第1表示/光センサ部300A及び第2表示/光センサ部300B)備えているものとして説明する。なお、第1表示/光センサ部300A及び第2表示/光センサ部300Bを区別しないときは、表示/光センサ部300と表記する。
(Data display / sensor configuration)
Next, with reference to FIG. 4, the configuration of the main part of the data display / sensor device 100 will be described. FIG. 4 is a block diagram showing a main configuration of the data display / sensor device 100. As shown in FIG. As shown, the data display / sensor device 100 includes one or more display / light sensor units 300, a circuit control unit 600, a data processing unit 700, a main control unit 800, a storage unit 901, a primary storage unit 902, and an operation unit. 903, an external communication unit 907, an audio output unit 908, and an audio input unit 909. Here, the data display / sensor device 100 will be described as including two display / light sensor units 300 (first display / light sensor unit 300A and second display / light sensor unit 300B). When the first display / light sensor unit 300A and the second display / light sensor unit 300B are not distinguished, they are referred to as the display / light sensor unit 300.

表示/光センサ部300は、いわゆる光センサ内蔵液晶表示装置である。表示/光センサ部300は、センサ内蔵液晶パネル301、バックライト307、それらを駆動するための周辺回路309を含んで構成される。   The display / light sensor unit 300 is a so-called liquid crystal display device with a built-in light sensor. The display / light sensor unit 300 includes a sensor built-in liquid crystal panel 301, a backlight 307, and a peripheral circuit 309 for driving them.

センサ内蔵液晶パネル301は、マトリクス状に配置された複数の画素回路31及び光センサ回路32を含んで構成される。センサ内蔵液晶パネル301の詳細な構成については後述する。   The sensor built-in liquid crystal panel 301 includes a plurality of pixel circuits 31 and photosensor circuits 32 arranged in a matrix. The detailed configuration of the sensor built-in liquid crystal panel 301 will be described later.

周辺回路309は、液晶パネル駆動回路304、光センサ駆動回路305、信号変換回路306、バックライト駆動回路308を含む。   The peripheral circuit 309 includes a liquid crystal panel drive circuit 304, an optical sensor drive circuit 305, a signal conversion circuit 306, and a backlight drive circuit 308.

液晶パネル駆動回路304は、回路制御部600の表示制御部601からのタイミング制御信号(TC1)及びデータ信号(D)に従って、制御信号(G)及びデータ信号(S)を出力し、画素回路31を駆動する回路である。画素回路31の駆動方法の詳細については後述する。   The liquid crystal panel drive circuit 304 outputs a control signal (G) and a data signal (S) in accordance with the timing control signal (TC1) and the data signal (D) from the display control unit 601 of the circuit control unit 600, and the pixel circuit 31. It is a circuit which drives. Details of the driving method of the pixel circuit 31 will be described later.

光センサ駆動回路305は、回路制御部600のセンサ制御部602からのタイミング制御信号(TC2)に従って、信号線(R)に電圧を印加し、光センサ回路32を駆動する回路である。光センサ回路32の駆動方法の詳細については後述する。   The optical sensor driving circuit 305 is a circuit that drives the optical sensor circuit 32 by applying a voltage to the signal line (R) in accordance with a timing control signal (TC2) from the sensor control unit 602 of the circuit control unit 600. Details of the driving method of the optical sensor circuit 32 will be described later.

信号変換回路306は、光センサ回路32から出力されるセンサ出力信号(SS)をデジタル信号(DS)に変換し、該変換後の信号をセンサ制御部602に送信する回路である。   The signal conversion circuit 306 is a circuit that converts the sensor output signal (SS) output from the optical sensor circuit 32 into a digital signal (DS) and transmits the converted signal to the sensor control unit 602.

バックライト307は、複数の白色LED(Light Emitting Diode)を含んでおり、センサ内蔵液晶パネル301の背面に配置される。そして、バックライト駆動回路308から電源電圧が印加されると、バックライト307は点灯し、センサ内蔵液晶パネル301に光を照射する。なお、バックライト307は、白色LEDに限らず、他の色のLEDを含んでいてもよい。また、バックライト307は、LEDに代えて、例えば、冷陰極管(CCFL:Cold Cathode Fluorescent Lamp)を含むものであってもよい。   The backlight 307 includes a plurality of white LEDs (Light Emitting Diodes) and is disposed on the back surface of the sensor built-in liquid crystal panel 301. When a power supply voltage is applied from the backlight drive circuit 308, the backlight 307 is turned on and irradiates the sensor built-in liquid crystal panel 301 with light. Note that the backlight 307 is not limited to white LEDs, and may include LEDs of other colors. The backlight 307 may include, for example, a cold cathode fluorescent lamp (CCFL) instead of the LED.

バックライト駆動回路308は、回路制御部600のバックライト制御部603からの制御信号(BK)がハイレベルであるときは、バックライト307に電源電圧を印加し、逆に、バックライト制御部603からの制御信号がローレベルであるときは、バックライト307に電源電圧を印加しない。   The backlight driving circuit 308 applies a power supply voltage to the backlight 307 when the control signal (BK) from the backlight control unit 603 of the circuit control unit 600 is at a high level, and conversely, the backlight control unit 603. When the control signal from is at a low level, no power supply voltage is applied to the backlight 307.

次に、回路制御部600について説明する。回路制御部600は、表示/光センサ部300の周辺回路309を制御するデバイスドライバとしての機能を備えるものである。回路制御部600は、表示制御部601、センサ制御部602、バックライト制御部603、及び表示データ記憶部604を備えている。   Next, the circuit control unit 600 will be described. The circuit control unit 600 has a function as a device driver that controls the peripheral circuit 309 of the display / light sensor unit 300. The circuit control unit 600 includes a display control unit 601, a sensor control unit 602, a backlight control unit 603, and a display data storage unit 604.

表示制御部601は、データ処理部700の表示データ処理部701から表示データを受信するとともに、表示データ処理部701からの指示に従って、表示/光センサ部300の液晶パネル駆動回路304に、タイミング制御信号(TC1)及びデータ信号(D)を送信し、上記受信した表示データをセンサ内蔵液晶パネル301に表示させる。   The display control unit 601 receives display data from the display data processing unit 701 of the data processing unit 700, and performs timing control on the liquid crystal panel driving circuit 304 of the display / light sensor unit 300 in accordance with an instruction from the display data processing unit 701. The signal (TC1) and the data signal (D) are transmitted, and the received display data is displayed on the sensor built-in liquid crystal panel 301.

なお、表示制御部601は、表示データ処理部701から受信した表示データを、表示データ記憶部604に一次記憶させる。そして、当該一次記憶させた表示データに基づいて、データ信号(D)を生成する。表示データ記憶部604は、例えば、VRAM(video random access memory)などである。   The display control unit 601 temporarily stores the display data received from the display data processing unit 701 in the display data storage unit 604. Then, a data signal (D) is generated based on the primary stored display data. The display data storage unit 604 is, for example, a video random access memory (VRAM).

センサ制御部602は、データ処理部700のセンサデータ処理部703からの指示に従って、表示/光センサ部300の光センサ駆動回路305に、タイミング制御信号(TC2)を送信し、センサ内蔵液晶パネル301にてスキャンを実行させる。   The sensor control unit 602 transmits a timing control signal (TC2) to the optical sensor driving circuit 305 of the display / optical sensor unit 300 in accordance with an instruction from the sensor data processing unit 703 of the data processing unit 700, and the sensor built-in liquid crystal panel 301. Run the scan with.

また、センサ制御部602は、信号変換回路306からデジタル信号(DS)を受信する。そして、センサ内蔵液晶パネル301に含まれる全ての光センサ回路32から出力されたセンサ出力信号(SS)に対応するデジタル信号(DS)に基づいて、画像データを生成する。つまり、センサ内蔵液晶パネル301の読み取り領域全体で読み取った画像データを生成する。そして、該生成した画像データをセンサデータ処理部703に送信する。   In addition, the sensor control unit 602 receives a digital signal (DS) from the signal conversion circuit 306. Then, image data is generated based on the digital signal (DS) corresponding to the sensor output signal (SS) output from all the optical sensor circuits 32 included in the sensor built-in liquid crystal panel 301. That is, the image data read in the entire reading area of the sensor built-in liquid crystal panel 301 is generated. Then, the generated image data is transmitted to the sensor data processing unit 703.

バックライト制御部603は、表示データ処理部701及びセンサデータ処理部703からの指示に従って、表示/光センサ部300のバックライト駆動回路308に制御信号(BK)を送信し、バックライト307を駆動させる。   The backlight control unit 603 transmits a control signal (BK) to the backlight drive circuit 308 of the display / light sensor unit 300 in accordance with instructions from the display data processing unit 701 and the sensor data processing unit 703 to drive the backlight 307. Let

なお、データ表示/センサ装置100が、複数の表示/光センサ部300を備える場合、表示制御部601は、データ処理部700から、どの表示/光センサ部300にて表示データを表示するかの指示を受けたとき、当該指示に応じた表示/光センサ部300の液晶パネル駆動回路304を制御する。また、センサ制御部602は、データ処理部700から、どの表示/光センサ部300にて対象物のスキャンを行なうかの指示を受けたとき、当該指示に応じた表示/光センサ部300の光センサ駆動回路305を制御するとともに、当該指示に応じた表示/光センサ部300の信号変換回路306からデジタル信号(DS)を受信する。   When the data display / sensor device 100 includes a plurality of display / light sensor units 300, the display control unit 601 determines which display / light sensor unit 300 displays the display data from the data processing unit 700. When an instruction is received, the liquid crystal panel drive circuit 304 of the display / light sensor unit 300 is controlled according to the instruction. When the sensor control unit 602 receives an instruction from the data processing unit 700 as to which display / light sensor unit 300 is to scan the object, The sensor drive circuit 305 is controlled and a digital signal (DS) is received from the signal conversion circuit 306 of the display / light sensor unit 300 according to the instruction.

次に、データ処理部700について説明する。データ処理部700は、主制御部800から受信する「コマンド」に基づいて、回路制御部600に指示を与えるミドルウェアとしての機能を備えるものである。なお、コマンドの詳細については後述する。   Next, the data processing unit 700 will be described. The data processing unit 700 has a function as middleware that gives an instruction to the circuit control unit 600 based on a “command” received from the main control unit 800. Details of the command will be described later.

データ処理部700は、表示データ処理部701及びセンサデータ処理部703を備えている。そして、データ処理部700が、主制御部800からコマンドを受信すると、該受信したコマンドに含まれる各フィールド(後述する)の値に応じて、表示データ処理部701及びセンサデータ処理部703の少なくとも一方が動作する。   The data processing unit 700 includes a display data processing unit 701 and a sensor data processing unit 703. When the data processing unit 700 receives a command from the main control unit 800, at least one of the display data processing unit 701 and the sensor data processing unit 703 depends on the value of each field (described later) included in the received command. One works.

表示データ処理部701は、主制御部800から表示データを受信するとともに、データ処理部700が受信したコマンドに従って、表示制御部601及びバックライト制御部603に指示を与え、上記受信した表示データをセンサ内蔵液晶パネル301に表示させる。なお、コマンドに応じた、表示データ処理部701の動作については、後述する。   The display data processing unit 701 receives display data from the main control unit 800, and gives instructions to the display control unit 601 and the backlight control unit 603 according to the command received by the data processing unit 700, and displays the received display data. The image is displayed on the sensor built-in liquid crystal panel 301. The operation of the display data processing unit 701 according to the command will be described later.

センサデータ処理部703は、データ処理部700が受信したコマンドに従って、センサ制御部602及びバックライト制御部603に指示を与える。   The sensor data processing unit 703 gives an instruction to the sensor control unit 602 and the backlight control unit 603 according to the command received by the data processing unit 700.

また、センサデータ処理部703は、センサ制御部602から画像データを受信し、当該画像データをそのまま画像データバッファ704に格納する。そして、センサデータ処理部703は、データ処理部700が受信したコマンドに従って、画像データバッファ704に記憶されている画像データに基づいて、「全体画像データ」、「部分画像データ(部分画像の座標データを含む)」、及び「座標データ」の少なくともいずれか1つを、主制御部800に送信する。なお、全体画像データ、部分画像データ、及び座標データについては、後述する。また、コマンドに応じた、センサデータ処理部703の動作については、後述する。   The sensor data processing unit 703 receives image data from the sensor control unit 602 and stores the image data in the image data buffer 704 as it is. Then, in accordance with the command received by the data processing unit 700, the sensor data processing unit 703 performs “whole image data”, “partial image data (partial image coordinate data) based on the image data stored in the image data buffer 704. At least one of “including coordinate data” and “coordinate data” is transmitted to the main control unit 800. The whole image data, partial image data, and coordinate data will be described later. The operation of the sensor data processing unit 703 according to the command will be described later.

次に、主制御部800は、アプリケーションプログラムを実行するものである。主制御部800は、記憶部901に格納されているプログラムを、例えばRAM(Random Access Memory)等で構成される一次記憶部902に読み出して実行する。   Next, the main control unit 800 executes an application program. The main control unit 800 reads the program stored in the storage unit 901 into a primary storage unit 902 configured by, for example, a RAM (Random Access Memory) and executes the program.

主制御部800で実行されるアプリケーションプログラムは、センサ内蔵液晶パネル301に表示データを表示させたり、センサ内蔵液晶パネル301にて対象物のスキャンを行なわせるために、データ処理部700に対して、コマンド及び表示データを送信する。また、コマンドに「データ種別」を指定した場合は、当該コマンドの応答として、全体画像データ、部分画像データ、及び座標データの少なくともいずれか1つを、データ処理部700から受信する。   An application program executed by the main control unit 800 causes the data processing unit 700 to display display data on the sensor built-in liquid crystal panel 301 or to scan an object on the sensor built-in liquid crystal panel 301. Send commands and display data. When “data type” is designated as a command, at least one of whole image data, partial image data, and coordinate data is received from the data processing unit 700 as a response to the command.

なお、回路制御部600、データ処理部700、及び主制御部800は、それぞれ、CPU(Central Processing Unit)及びメモリ等で構成することができる。また、データ処理部700は、ASIC(application specific integrate circuit)などの回路で構成されていてもよい。   The circuit control unit 600, the data processing unit 700, and the main control unit 800 can each be configured with a CPU (Central Processing Unit), a memory, and the like. The data processing unit 700 may be configured by a circuit such as an ASIC (application specific integrate circuit).

次に、記憶部901は、図示のように、主制御部800が実行するプログラム及びデータを格納するものである。なお、主制御部800が実行するプログラムは、アプリケーション固有のプログラムと、各アプリケーションが共用可能な汎用プログラムとに分離されていてもよい。   Next, the storage unit 901 stores programs and data executed by the main control unit 800 as shown in the figure. The program executed by the main control unit 800 may be separated into an application-specific program and a general-purpose program that can be shared by each application.

次に、操作部903は、データ表示/センサ装置100の利用者の入力操作を受けつけるものである。操作部903は、例えば、スイッチ、リモコン、マウス、キーボードなどの入力デバイスで構成される。そして、操作部903は、データ表示/センサ装置100の利用者の入力操作に応じた制御信号を生成し、該生成した制御信号を主制御部800へ送信する。   Next, the operation unit 903 receives an input operation of the user of the data display / sensor device 100. The operation unit 903 includes input devices such as a switch, a remote controller, a mouse, and a keyboard, for example. Then, the operation unit 903 generates a control signal corresponding to the input operation of the user of the data display / sensor device 100, and transmits the generated control signal to the main control unit 800.

なお、上記スイッチの例としては、筐体のヒンジ部分に設けられ、筐体の開閉状態を検出するヒンジ部スイッチ904、電源のオンとオフとを切り替える電源スイッチ905、予め所定の機能が割り当てられている利用者スイッチ906などのハードウェアスイッチを想定している。   As an example of the switch, a hinge switch 904 that is provided at the hinge portion of the housing and detects the open / closed state of the housing, a power switch 905 that switches power on and off, and a predetermined function are assigned in advance. A hardware switch such as a user switch 906 is assumed.

その他、データ表示/センサ装置100は、無線/有線通信によって外部装置と通信を行なうための外部通信部907、音声を出力するためのスピーカ等の音声出力部908、音声信号を入力するためのマイク等の音声入力部909などを適宜備えていてもよい。   In addition, the data display / sensor device 100 includes an external communication unit 907 for communicating with an external device by wireless / wired communication, an audio output unit 908 such as a speaker for outputting audio, and a microphone for inputting an audio signal. A voice input unit 909 such as the above may be provided as appropriate.

(コマンドの詳細)
次に、図5及び図6を参照しながら、主制御部800からデータ処理部700に送信されるコマンドの詳細について説明する。図5は、コマンドのフレーム構造の一例を模式的に示す図である。また、図6は、コマンドに含まれる各フィールドに指定可能な値の一例、及び、その概要を説明する図である。
(Command details)
Next, details of commands transmitted from the main control unit 800 to the data processing unit 700 will be described with reference to FIGS. 5 and 6. FIG. 5 is a diagram schematically illustrating an example of a command frame structure. FIG. 6 is a diagram for explaining an example of values that can be specified in each field included in the command and an outline thereof.

図5に示すように、コマンドは、「ヘッダ」、「データ取得タイミング」、「データ種別」、「スキャン方式」、「スキャン画像階調」、「スキャン解像度」、「スキャンパネル」、「表示パネル」、及び「予備」の各フィールドを含んでいる。そして、各フィールドには、例えば、図6に示す値が指定可能である。   As shown in FIG. 5, the commands are “header”, “data acquisition timing”, “data type”, “scan method”, “scan image gradation”, “scan resolution”, “scan panel”, “display panel”. "And" Reserve "fields. In each field, for example, values shown in FIG. 6 can be designated.

「ヘッダ」フィールドは、フレームの開始を示すフィールドである。「ヘッダ」フィールドであることが識別可能であれば、「ヘッダ」フィールドの値は、どのような値であってもよい。   The “header” field is a field indicating the start of a frame. As long as it is possible to identify the “header” field, the value of the “header” field may be any value.

次に、「データ取得タイミング」フィールドは、データを主制御部800へ送信すべきタイミングを指定するフィールドである。「データ取得タイミング」フィールドには、例えば、“00”(センス)、“01”(イベント)、及び“10”(オール)という値が指定可能である。   Next, the “data acquisition timing” field is a field for designating a timing at which data should be transmitted to the main control unit 800. In the “data acquisition timing” field, for example, values of “00” (sense), “01” (event), and “10” (all) can be specified.

ここで、“センス”は、最新のデータを直ちに送信すること指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“センス”であるコマンドを受信すると、「データ種別」フィールドにて指定されている最新のデータを、直ちに、主制御部800に送信する。   Here, “sense” specifies that the latest data is to be transmitted immediately. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “sense”, the latest data specified in the “data type” field is immediately updated to the main control unit 800. Send to.

また、“イベント”は、センサ制御部602から受信する画像データに変化が生じたタイミングで送信すること指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“イベント”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、センサ制御部602から受信する画像データに、所定の閾値より大きい変化が生じたタイミングで、主制御部800に送信する。   The “event” designates transmission at a timing when a change occurs in the image data received from the sensor control unit 602. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “event”, the image that receives the data specified in the “data type” field from the sensor control unit 602. The data is transmitted to the main control unit 800 at a timing when a change larger than a predetermined threshold occurs.

また、“オール”は、所定周期でデータを送信すること指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“オール”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、所定周期で、主制御部800に送信する。なお、上記所定周期は、光センサ回路32にてスキャンを行なう周期と一致する。   “All” designates data transmission at a predetermined cycle. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “all”, the data designated in the “data type” field is transferred to the main control unit 800 at a predetermined cycle. Send to. The predetermined period coincides with the period in which the optical sensor circuit 32 performs scanning.

次に、「データ種別」フィールドは、センサデータ処理部703から取得するデータの種別を指定するフィールドである。なお、「データ種別」フィールドには、例えば、“001”(座標)、“010”(部分画像)、及び“100”(全体画像)という値が指定可能である。さらに、これらの値を加算することによって、“座標”と、“部分画像”/“全体画像”とを、同時に指定可能である。例えば、“座標”と“部分画像”とを同時に指定する場合、“011”と指定することができる。   Next, the “data type” field is a field for designating the type of data acquired from the sensor data processing unit 703. In the “data type” field, for example, values “001” (coordinates), “010” (partial image), and “100” (entire image) can be specified. Furthermore, by adding these values, “coordinates” and “partial image” / “whole image” can be specified simultaneously. For example, when “coordinate” and “partial image” are specified at the same time, “011” can be specified.

センサデータ処理部703は、「データ種別」フィールドの値が“全体画像”であるコマンドを受信すると、画像データバッファ704に記憶している画像データそのものを主制御部800に送信する。画像データバッファ704に記憶している画像データそのものを、「全体画像データ」と称する。   When the sensor data processing unit 703 receives a command whose value of the “data type” field is “whole image”, the sensor data processing unit 703 transmits the image data itself stored in the image data buffer 704 to the main control unit 800. The image data itself stored in the image data buffer 704 is referred to as “whole image data”.

また、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信すると、センサ制御部602から受信する画像データから、所定の閾値より大きい変化が生じた部分を含む領域を抽出し、該抽出した領域の画像データを主制御部800に送信する。ここで、当該画像データを、「部分画像データ」と称する。なお、上記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出されたそれぞれの部分画像データを主制御部800に送信する。   In addition, when the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 selects a portion where a change larger than a predetermined threshold has occurred from the image data received from the sensor control unit 602. A region to be included is extracted, and image data of the extracted region is transmitted to the main control unit 800. Here, the image data is referred to as “partial image data”. When a plurality of partial image data are extracted, the sensor data processing unit 703 transmits each extracted partial image data to the main control unit 800.

さらに、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信したとき、部分画像データにおける代表座標を検出し、当該代表座標の部分画像データにおける位置を示す座標データを主制御部800に送信する。なお、上記代表座標とは、例えば、上記部分画像データの中心の座標、上記部分画像データの重心の座標などが挙げられる。   Further, when the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 detects representative coordinates in the partial image data and indicates the position of the representative coordinates in the partial image data. The coordinate data is transmitted to the main control unit 800. The representative coordinates include, for example, the coordinates of the center of the partial image data, the coordinates of the center of gravity of the partial image data, and the like.

次に、センサデータ処理部703は、「データ種別」フィールドの値が“座標”であるコマンドを受信すると、上記代表座標の全体画像データにおける位置を示す座標データを主制御部800に送信する。なお、上記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出された、それぞれの部分画像データの、全体画像データにおける代表座標を検出し、当該代表座標を示す座標データのそれぞれを主制御部800に送信する(多点検出)。   Next, when receiving a command whose value of the “data type” field is “coordinate”, the sensor data processing unit 703 transmits coordinate data indicating the position of the representative coordinate in the entire image data to the main control unit 800. When a plurality of partial image data are extracted, the sensor data processing unit 703 detects representative coordinates in the entire image data of the extracted partial image data, and the coordinate data indicating the representative coordinates is detected. Each is transmitted to the main control unit 800 (multi-point detection).

なお、全体画像データ、部分画像データ、及び座標データの具体例については、模式図を参照しながら後述する。   Specific examples of the whole image data, the partial image data, and the coordinate data will be described later with reference to schematic diagrams.

次に、「スキャン方式」フィールドは、スキャン実行時に、バックライト307を点灯するか否かを指定するフィールドである。「スキャン方式」フィールドには、例えば、“00”(反射)、“01”(透過)、及び“10”(反射/透過)という値が指定可能である。   Next, the “scan method” field is a field for designating whether or not the backlight 307 is turned on at the time of executing the scan. In the “scan method” field, for example, values “00” (reflection), “01” (transmission), and “10” (reflection / transmission) can be designated.

“反射”は、バックライト307を点灯した状態でスキャンを行なうこと指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“反射”であるコマンドを受信すると、光センサ駆動回路305とバックライト駆動回路308とが同期して動作するように、センサ制御部602とバックライト制御部603とに指示を与える。   “Reflection” specifies that scanning is performed with the backlight 307 turned on. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “reflection”, the sensor data processing unit 703 performs sensor control so that the optical sensor driving circuit 305 and the backlight driving circuit 308 operate in synchronization. An instruction is given to the unit 602 and the backlight control unit 603.

また、“透過”は、バックライト307を消灯した状態でスキャンを行なうことを指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“透過”であるコマンドを受信すると、光センサ駆動回路305を動作させ、バックライト駆動回路308と動作させないようにセンサ制御部602とバックライト制御部603とに指示を与える。なお、“反射/透過”は、“反射”と“透過”とを併用してスキャンを行なうことを指定するものである。   “Transmission” specifies that scanning is performed with the backlight 307 turned off. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “transparent”, the sensor control unit 602 operates the optical sensor driving circuit 305 and does not operate the backlight driving circuit 308. Instructions to the backlight control unit 603. Note that “reflection / transmission” specifies that scanning is performed using both “reflection” and “transmission”.

次に、「スキャン画像階調」フィールドは、部分画像データ及び全体画像データの階調を指定するフィールドである。「スキャン画像階調」フィールドには、例えば、“00”(2値)、及び“01”(多値)という値が指定可能である。   Next, the “scanned image gradation” field is a field for designating gradations of the partial image data and the entire image data. In the “scanned image gradation” field, for example, values of “00” (binary) and “01” (multivalue) can be designated.

ここで、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“2値”であるコマンドを受信すると、部分画像データ及び全体画像データをモノクロデータとして、主制御部800に送信する。   When the sensor data processing unit 703 receives a command whose “scanned image gradation” field value is “binary”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as monochrome data. .

また、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“多値”であるコマンドを受信すると、部分画像データ及び全体画像データを多階調データとして、主制御部800に送信する。   In addition, when the sensor data processing unit 703 receives a command whose “scanned image gradation” field value is “multivalued”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as multitone data. To do.

次に、「スキャン解像度」フィールドは、部分画像データ及び全体画像データの解像度を指定するフィールドである。「解像度」フィールドには、例えば、“0”(高)及び“1”(低)という値が指定可能である。   Next, the “scan resolution” field is a field for designating the resolution of the partial image data and the entire image data. In the “resolution” field, for example, values of “0” (high) and “1” (low) can be specified.

ここで、“高”は、高解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“高”であるコマンドを受信すると、部分画像データ及び全体画像データを高解像度で主制御部800に送信する。例えば、画像認識などの画像処理を行なう対象の画像データ(指紋などの画像データ)には、“高”を指定することが望ましい。   Here, “high” designates a high resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “high”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 with high resolution. For example, it is desirable to designate “high” for image data (image data such as a fingerprint) to be subjected to image processing such as image recognition.

また、“低”は、低解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“低”であるコマンドを受信すると、部分画像データ及び全体画像データを低解像度で主制御部800に送信する。例えば、タッチした位置等が分かる程度でよい画像データ(タッチした指や手の画像データなど)には、“低”を指定することが望ましい。   “Low” designates a low resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “low”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 at a low resolution. For example, it is desirable to designate “low” for image data (such as touched finger or hand image data) that only needs to be recognized.

次に、「スキャンパネル」フィールドは、どの表示/光センサ部300にて対象物のスキャンを行なうかを指定するフィールドである。「スキャンパネル」フィールドには、例えば、“001”(第1表示/光センサ部300A)、“010”(第2表示/光センサ部300B)という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、“第1表示/光センサ部300A”と“第2表示/光センサ部300B”とを同時に指定する場合、“011”と指定することができる。   Next, the “scan panel” field is a field for designating which display / light sensor unit 300 is to scan the object. In the “scan panel” field, for example, values “001” (first display / light sensor unit 300A) and “010” (second display / light sensor unit 300B) can be designated. By adding these values, a plurality of display / light sensor units 300 can be specified at the same time. For example, when “first display / light sensor unit 300A” and “second display / light sensor unit 300B” are specified at the same time, “011” can be specified.

ここで、センサデータ処理部703は、「スキャンパネル」フィールドの値が“第1表示/光センサ部300A”であるコマンドを受信すると、第1表示/光センサ部300Aの光センサ駆動回路305及びバックライト駆動回路308を制御するように、センサ制御部602及びバックライト制御部603に指示を与える。   When the sensor data processing unit 703 receives a command whose “scan panel” field value is “first display / photosensor unit 300A”, the sensor data processing unit 703 and the photosensor drive circuit 305 of the first display / photosensor unit 300A and An instruction is given to the sensor control unit 602 and the backlight control unit 603 so as to control the backlight drive circuit 308.

次に、「表示パネル」フィールドは、どの表示/光センサ部300にて表示データを表示させるかを指定するフィールドである。「スキャン画像階調」フィールドには、例えば、“001”(第1表示/光センサ部300A)、“010”(第2表示/光センサ部300B)という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、“第1表示/光センサ部300A”と“第2表示/光センサ部300B”とを同時に指定する場合、“011”と指定することができる。   Next, the “display panel” field is a field for designating which display / light sensor unit 300 displays the display data. In the “scanned image gradation” field, for example, values of “001” (first display / light sensor unit 300A) and “010” (second display / light sensor unit 300B) can be designated. By adding these values, a plurality of display / light sensor units 300 can be specified at the same time. For example, when “first display / light sensor unit 300A” and “second display / light sensor unit 300B” are specified at the same time, “011” can be specified.

ここで、表示データ処理部701は、例えば、「表示パネル」フィールドの値が“第1表示/光センサ部300A”であるコマンドを受信すると、第1表示/光センサ部300Aに表示データを表示させるために、第1表示/光センサ部300Aの液晶パネル駆動回路304及びバックライト駆動回路308を制御するように、表示制御部601及びバックライト制御部603に指示を与える。   Here, for example, when the display data processing unit 701 receives a command whose value of the “display panel” field is “first display / light sensor unit 300A”, the display data processing unit 701 displays the display data on the first display / light sensor unit 300A. In order to achieve this, an instruction is given to the display control unit 601 and the backlight control unit 603 to control the liquid crystal panel drive circuit 304 and the backlight drive circuit 308 of the first display / light sensor unit 300A.

次に、「予備」フィールドは、上述したフィールドにて指定可能な情報以外の情報をさらに指定する必要がある場合に、適宜指定されるフィールドである。   Next, the “reserved” field is a field that is appropriately specified when it is necessary to further specify information other than information that can be specified in the above-described fields.

なお、主制御部800にて実行されるアプリケーションは、コマンドを送信するにあたり、上述したフィールドを全て使用する必要はなく、使用しないフィールドには無効値(NULL値など)を設定しておけばよい。   Note that an application executed by the main control unit 800 does not need to use all the above-described fields when transmitting a command, and an invalid value (such as a NULL value) may be set for a field that is not used. .

また、利用者が指やペンなどでタッチした位置の座標データを取得したいときは、「データ種別」フィールドに“座標”を指定したコマンドをデータ処理部700に送信することとなるが、指やペンなどは動きがあるため、さらに、当該コマンドの「データ取得タイミング」フィールドに“オール”を指定し、座標データを取得するようにすることが望ましい。また、タッチした位置の座標データが取得できればよいため、スキャンの精度は高くなくてもよい。したがって、上記コマンドの「解像度」フィールドの値は“低”を指定しておけばよい。   When the user wants to acquire coordinate data of a position touched with a finger or a pen, a command specifying “coordinate” in the “data type” field is transmitted to the data processing unit 700. Since a pen or the like moves, it is further desirable to specify “all” in the “data acquisition timing” field of the command to acquire coordinate data. Further, since it is only necessary to acquire coordinate data of the touched position, the scanning accuracy may not be high. Therefore, “low” may be specified as the value of the “resolution” field of the command.

また、コマンドの「データ種別」フィールドに“座標”を指定した場合において、例えば、利用者が、複数の指やペンなどでセンサ内蔵液晶パネル301を同時にタッチした場合は、該タッチした位置の座標データのそれぞれを取得することができる(多点検出)。   In addition, when “coordinate” is specified in the “data type” field of the command, for example, when the user touches the sensor built-in liquid crystal panel 301 with a plurality of fingers or pens at the same time, the coordinates of the touched position are used. Each of the data can be acquired (multi-point detection).

また、原稿などの対象物の画像データを取得する場合、「データ種別」フィールドに“全体画像”を指定したコマンドをデータ処理部700に送信することとなるが、原稿などの対象物は、通常、静止させた状態でスキャンを実行することが一般的であるため、周期的にスキャンを実行する必要はない。従って、この場合は、「データ取得タイミング」フィールドに“センス”または“イベント”を指定することが望ましい。なお、原稿などの対象物をスキャンするときは、利用者が文字を読みやすいように、スキャン精度は高い方が望ましい。したがって、「解像度」フィールドには“高”を指定することが望ましい。   When acquiring image data of an object such as a document, a command specifying “whole image” in the “data type” field is transmitted to the data processing unit 700. Since it is common to perform a scan in a stationary state, it is not necessary to periodically perform the scan. Therefore, in this case, it is desirable to designate “sense” or “event” in the “data acquisition timing” field. When scanning an object such as a document, it is desirable that the scanning accuracy is high so that the user can easily read the characters. Therefore, it is desirable to designate “high” in the “resolution” field.

(全体画像データ/部分画像データ/座標データ)
次に、図7を参照しながら、全体画像データ、部分画像データ、及び座標データについて、例を挙げて説明する。図7(a)に示す画像データは、対象物がセンサ内蔵液晶パネル301上に置かれていないときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。また、図7(b)に示す画像データは、利用者が指でセンサ内蔵液晶パネル301をタッチしているときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。
(Whole image data / Partial image data / Coordinate data)
Next, the whole image data, the partial image data, and the coordinate data will be described with reference to FIG. The image data shown in FIG. 7A is image data obtained as a result of scanning the entire sensor built-in liquid crystal panel 301 when the object is not placed on the sensor built-in liquid crystal panel 301. The image data shown in FIG. 7B is image data obtained as a result of scanning the entire sensor-equipped liquid crystal panel 301 when the user touches the sensor-equipped liquid crystal panel 301 with a finger.

利用者が指でセンサ内蔵液晶パネル301をタッチしたとき、当該タッチした近傍の光センサ回路32が受光する光量が変化するため、当該光センサ回路32が出力する電圧に変化が生じ、その結果として、センサ制御部602が生成する画像データのうち、利用者がタッチした部分の画素値の明度に変化が生じることとなる。   When the user touches the sensor-equipped liquid crystal panel 301 with a finger, the amount of light received by the photosensor circuit 32 in the vicinity of the touch changes, so that the voltage output from the photosensor circuit 32 changes, and as a result In the image data generated by the sensor control unit 602, the brightness of the pixel value of the portion touched by the user changes.

図7(b)に示す画像データでは、図7(a)に示す画像データと比べると、利用者の指に該当する部分の画素値の明度が高くなっている。そして、図7(b)に示す画像データにおいて、明度が所定の閾値より大きく変化している画素値を全て含む最小の矩形領域(領域PP)が、“部分画像データ”である。   In the image data shown in FIG. 7B, the brightness of the pixel value of the portion corresponding to the user's finger is higher than the image data shown in FIG. In the image data shown in FIG. 7B, the smallest rectangular area (area PP) that includes all pixel values whose lightness changes more than a predetermined threshold is “partial image data”.

なお、領域APで示される画像データが、“全体画像データ”である。   The image data indicated by the area AP is “whole image data”.

また、部分画像データ(領域PP)の代表座標Zの、全体画像データ(領域AP)における座標データは(Xa,Ya)であり、部分画像データ(領域PP)における座標データは(Xp,Yp)である。   Also, the coordinate data in the whole image data (area AP) of the representative coordinates Z of the partial image data (area PP) is (Xa, Ya), and the coordinate data in the partial image data (area PP) is (Xp, Yp). It is.

(センサ内蔵液晶パネルの構成)
次に、図8を参照しながら、センサ内蔵液晶パネル301の構成、及び、センサ内蔵液晶パネル301の周辺回路309の構成について説明する。図8は、表示/光センサ部300の要部、特に、センサ内蔵液晶パネル301の構成及び周辺回路309の構成を示すブロック図である。
(Configuration of sensor built-in liquid crystal panel)
Next, the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309 of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 8 is a block diagram showing a main part of the display / light sensor unit 300, particularly the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309.

センサ内蔵液晶パネル301は、光透過率(輝度)を設定するための画素回路31、及び、自身が受光した光の強度に応じた電圧を出力する光センサ回路32を備えている。なお、画素回路31は、赤色、緑色、青色のカラーフィルタのそれぞれに対応するR画素回路31r、G画素回路31g、B画素回路31bの総称して用いる。   The sensor built-in liquid crystal panel 301 includes a pixel circuit 31 for setting a light transmittance (luminance) and an optical sensor circuit 32 that outputs a voltage corresponding to the intensity of light received by the sensor. Note that the pixel circuit 31 is a generic term for the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b corresponding to the red, green, and blue color filters, respectively.

画素回路31は、センサ内蔵液晶パネル301上の列方向(縦方向)にm個、行方向(横方向)に3n個配置される。そして、R画素回路31r、G画素回路31g、及びB画素回路31bの組が、行方向(横方向)に連続して配置される。この組が1つの画素を形成する。   The pixel circuits 31 are arranged on the sensor built-in liquid crystal panel 301 in the column direction (vertical direction) and 3n in the row direction (horizontal direction). A set of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b is continuously arranged in the row direction (lateral direction). This set forms one pixel.

画素回路31の光透過率を設定するには、まず、画素回路31に含まれるTFT(Thin Film Transistor)33のゲート端子に接続される走査信号線Giにハイレベル電圧(TFT33をオン状態にする電圧)を印加する。その後、R画素回路31rのTFT33のソース端子に接続されているデータ信号線SRjに、所定の電圧を印加する。同様に、G画素回路31g及びB画素回路31bについても、光透過率を設定する。そして、これらの光透過率を設定することにより、センサ内蔵液晶パネル301上に画像が表示される。   In order to set the light transmittance of the pixel circuit 31, first, the high level voltage (TFT 33 is turned on) to the scanning signal line Gi connected to the gate terminal of the TFT (Thin Film Transistor) 33 included in the pixel circuit 31. Voltage). Thereafter, a predetermined voltage is applied to the data signal line SRj connected to the source terminal of the TFT 33 of the R pixel circuit 31r. Similarly, the light transmittance is also set for the G pixel circuit 31g and the B pixel circuit 31b. Then, by setting these light transmittances, an image is displayed on the sensor built-in liquid crystal panel 301.

次に、光センサ回路32は、一画素毎に配置される。なお、R画素回路31r、G画素回路31g、及びB画素回路31bのそれぞれの近傍に1つずつ配置されてもよい。   Next, the photosensor circuit 32 is arranged for each pixel. One pixel may be arranged in the vicinity of each of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b.

光センサ回路32にて光の強度に応じた電圧を出力させるためには、まず、コンデンサ35の一方の電極に接続されているセンサ読み出し線RWiと、フォトダイオード36のアノード端子に接続されているセンサリセット線RSiとに所定の電圧を印加する。この状態において、フォトダイオード36に光が入射されると、入射した光量に応じた電流がフォトダイオード36に流れる。そして、当該電流に応じて、コンデンサ35の他方の電極とフォトダイオード36のカソード端子との接続点(以下、接続ノードV)の電圧が低下する。そして、センサプリアンプ37のドレイン端子に接続される電圧印加線SDjに電源電圧VDDを印加すると、接続ノードVの電圧は増幅され、センサプリアンプ37のソース端子からセンシングデータ出力線SPjに出力される。そして、当該出力された電圧に基づいて、光センサ回路32が受光した光量を算出することができる。   In order for the optical sensor circuit 32 to output a voltage corresponding to the light intensity, first, the sensor readout line RWi connected to one electrode of the capacitor 35 and the anode terminal of the photodiode 36 are connected. A predetermined voltage is applied to the sensor reset line RSi. In this state, when light is incident on the photodiode 36, a current corresponding to the amount of incident light flows through the photodiode 36. Then, according to the current, the voltage at the connection point (hereinafter referred to as connection node V) between the other electrode of the capacitor 35 and the cathode terminal of the photodiode 36 decreases. When the power supply voltage VDD is applied to the voltage application line SDj connected to the drain terminal of the sensor preamplifier 37, the voltage at the connection node V is amplified and output from the source terminal of the sensor preamplifier 37 to the sensing data output line SPj. Based on the output voltage, the amount of light received by the optical sensor circuit 32 can be calculated.

次に、センサ内蔵液晶パネル301の周辺回路である、液晶パネル駆動回路304、光センサ駆動回路305、及びセンサ出力アンプ44について説明する。   Next, the liquid crystal panel drive circuit 304, the optical sensor drive circuit 305, and the sensor output amplifier 44, which are peripheral circuits of the sensor built-in liquid crystal panel 301, will be described.

液晶パネル駆動回路304は、画素回路31を駆動するための回路であり、走査信号線駆動回路3041及びデータ信号線駆動回路3042を含んでいる。   The liquid crystal panel drive circuit 304 is a circuit for driving the pixel circuit 31, and includes a scanning signal line drive circuit 3041 and a data signal line drive circuit 3042.

走査信号線駆動回路3041は、表示制御部601から受信したタイミング制御信号TC1に基づいて、1ライン時間毎に、走査信号線G1〜Gmの中から1本の走査信号線を順次選択し、該選択した走査信号線にハイレベル電圧を印加するとともに、その他の走査信号線にローレベル電圧を印加する。   The scanning signal line driving circuit 3041 sequentially selects one scanning signal line from the scanning signal lines G1 to Gm for each line time based on the timing control signal TC1 received from the display control unit 601, and A high level voltage is applied to the selected scanning signal line, and a low level voltage is applied to the other scanning signal lines.

データ信号線駆動回路3042は、表示制御部601から受信した表示データD(DR、DG、及びDB)に基づいて、1ライン時間毎に、1行分の表示データに対応する所定の電圧を、データ信号線SR1〜SRn、SG1〜SGn、SB1〜SBnに印加する(線順次方式)。なお、データ信号線駆動回路3042は、点順次方式で駆動するものであってもよい。   Based on the display data D (DR, DG, and DB) received from the display control unit 601, the data signal line driver circuit 3042 applies a predetermined voltage corresponding to the display data for one row for each line time. The data signal lines SR1 to SRn, SG1 to SGn, and SB1 to SBn are applied (line sequential method). Note that the data signal line driver circuit 3042 may be driven by a dot sequential method.

光センサ駆動回路305は、光センサ回路32を駆動するための回路である。光センサ駆動回路305は、センサ制御部602から受信したタイミング制御信号TC2に基づいて、センサ読み出し信号線RW1〜RWmの中から、1ライン時間毎に1本ずつ選択したセンサ読み出し信号線に所定の読み出し用電圧を印加するとともに、その他のセンサ読み出し信号線には、所定の読み出し用電圧以外の電圧を印加する。また、同様に、タイミング制御信号TC2に基づいて、センサリセット信号線RS1〜RSmの中から、1ライン時間毎に1本ずつ選択したセンサリセット信号線に所定のリセット用電圧を印加するとともに、その他のセンサリセット信号線には、所定のリセット用電圧以外の電圧を印加する。   The optical sensor driving circuit 305 is a circuit for driving the optical sensor circuit 32. Based on the timing control signal TC2 received from the sensor control unit 602, the optical sensor driving circuit 305 selects a predetermined sensor readout signal line from the sensor readout signal lines RW1 to RWm for each line time. A read voltage is applied, and a voltage other than a predetermined read voltage is applied to the other sensor read signal lines. Similarly, based on the timing control signal TC2, a predetermined reset voltage is applied to the sensor reset signal line selected from the sensor reset signal lines RS1 to RSm for each line time, and the others. A voltage other than a predetermined reset voltage is applied to the sensor reset signal line.

センシングデータ出力信号線SP1〜SPnはp個(pは1以上n以下の整数)のグループにまとめられ、各グループに属するセンシングデータ出力信号線は、時分割で順次オン状態になるスイッチ47を介して、センサ出力アンプ44に接続される。センサ出力アンプ44は、スイッチ47により接続されたセンシングデータ出力信号線のグループからの電圧を増幅し、センサ出力信号SS(SS1〜SSp)として、信号変換回路306へ出力する。   The sensing data output signal lines SP1 to SPn are grouped into p groups (p is an integer of 1 to n), and the sensing data output signal lines belonging to each group are connected via a switch 47 that is sequentially turned on in time division. And connected to the sensor output amplifier 44. The sensor output amplifier 44 amplifies the voltage from the group of sensing data output signal lines connected by the switch 47 and outputs the amplified voltage to the signal conversion circuit 306 as sensor output signals SS (SS1 to SSp).

(データ表示/センサ装置を備えた電子機器)
次に、本実施の形態に係るデータ表示/センサ装置100を備えた電子機器について説明する。データ表示/センサ装置100は、小型化、携帯化された電子機器、例えば、ノート型パーソナルコンピュータに取り付けられる。もちろん、データ表示/センサ装置100の取り付けは、ノート型パーソナルコンピュータに限定されるものではなく、人によって持ち運ばれることにより移動可能な電子機器であってもよい。例えば、ゲーム機器、携帯電話、PDA等の携帯情報端末である。いずれの電子機器においても、同様の効果を奏することができる。
(Electronic equipment with data display / sensor device)
Next, an electronic apparatus provided with the data display / sensor device 100 according to the present embodiment will be described. The data display / sensor device 100 is attached to a miniaturized and portable electronic device such as a notebook personal computer. Of course, the attachment of the data display / sensor device 100 is not limited to a notebook personal computer, and may be an electronic device that can be moved by being carried by a person. For example, it is a portable information terminal such as a game machine, a mobile phone, or a PDA. In any electronic device, the same effect can be obtained.

以下、本実施の形態では、ノート型パーソナルコンピュータに取り付けられたデータ表示/センサ装置100の実施の形態として説明する。図9は、データ表示/センサ装置100を備えたノート型パーソナルコンピュータ101の外観図である。   Hereinafter, the present embodiment will be described as an embodiment of a data display / sensor device 100 attached to a notebook personal computer. FIG. 9 is an external view of a notebook personal computer 101 provided with the data display / sensor device 100.

このノート型パーソナルコンピュータ101は、図9に示すように、データ表示/センサ装置100の第1表示/光センサ部300Aで構成された入力パッド(面状部材)300Cと、データ表示/センサ装置100の第2表示/光センサ部300Bで構成された表示パネル(画像表示部材)300Dと、を備えている。   As shown in FIG. 9, the notebook personal computer 101 includes an input pad (planar member) 300 </ b> C configured by the first display / light sensor unit 300 </ b> A of the data display / sensor device 100, and the data display / sensor device 100. Display panel (image display member) 300D configured by the second display / light sensor unit 300B.

なお、ここでは、入力パッド300Cと表示パネル300Dは互いに異なる第1表示/光センサ部300Aと第2表示/光センサ部300Bで各々を実現しているが、入力パッド300Cと表示パネル300Dを第1表示/光センサ部300Aで実現しても構わない。つまり、1つの表示/光センサ部300Aが入力パッド300C及び表示パネル300Dを兼ねる構成であってもよい。   Here, the input pad 300C and the display panel 300D are realized by the first display / light sensor unit 300A and the second display / light sensor unit 300B which are different from each other. It may be realized by one display / light sensor unit 300A. In other words, one display / light sensor unit 300A may serve as the input pad 300C and the display panel 300D.

入力パッド300Cは、利用者が入力パッド300Cのセンサ内蔵液晶パネル301上を指で操作することにより、表示パネル300Dのセンサ内蔵液晶パネル301上に表示されているポインタの移動や、そのセンサ内蔵液晶パネル301上の各メニュー画面の選択操作等を可能とする。ポインタは、表示パネル300Dのセンサ内蔵液晶パネル301上において、指示や操作に対象を指し示すためのものである。   When the user operates the sensor-embedded liquid crystal panel 301 of the input pad 300C with a finger, the input pad 300C moves the pointer displayed on the sensor-embedded liquid crystal panel 301 of the display panel 300D or the sensor-embedded liquid crystal. Selection operation of each menu screen on the panel 301 is enabled. The pointer is for pointing an object to an instruction or operation on the sensor built-in liquid crystal panel 301 of the display panel 300D.

例えば、利用者の指が入力パッド300Cのセンサ内蔵液晶パネル301上をタッチしながら移動させれば、その軌跡に従って表示パネル300Dのセンサ内蔵液晶パネル301上のポインタを移動させることができる。   For example, if the user's finger moves while touching the sensor built-in liquid crystal panel 301 of the input pad 300C, the pointer on the sensor built-in liquid crystal panel 301 of the display panel 300D can be moved according to the locus.

図10は、図9に示した入力パッド300Cの周辺部の拡大図である。図10に示すように、入力パッド300Cは、データ表示/センサ装置100の操作部903に含まれるキーボードの近傍に配置されており、利用者は、例えば、キーボードの入力操作を休止したときに、入力パッド300Cを指で操作することができる。   FIG. 10 is an enlarged view of the periphery of the input pad 300C shown in FIG. As shown in FIG. 10, the input pad 300C is arranged in the vicinity of the keyboard included in the operation unit 903 of the data display / sensor device 100. For example, when the user pauses the keyboard input operation, The input pad 300C can be operated with a finger.

入力パッド300Cは、利用者が入力パッド300Cを指で操作するときに従来のマウスと同様な操作感覚を持てるよう、利用者が自身の指を配置すべき領域であると視認可能な指位置画像30を、自身のセンサ内蔵液晶パネル301上に表示する。この指位置画像30は、利用者の第1の指(第1の像)がタッチすべき領域を表わす中央画像(第1の画像)30aと、利用者の手における第1の指の左側に位置する第2の指(第2の像)がタッチすべき領域を表わす左側画像(第2の画像)30bと、利用者の手における第1の指の右側に位置する第3の指(第2の像)がタッチすべき領域を表わす右側画像(第2の画像)30cと、から成っている。すなわち、この指位置画像30は、利用者にとっては、仮想的なマウス(仮想マウス)を構成するものである。   The finger position image that the user can visually recognize that the input pad 300C is an area where the user should place his / her finger so that the user can feel the same operation feeling as a conventional mouse when the user operates the input pad 300C with a finger. 30 is displayed on its own sensor built-in liquid crystal panel 301. The finger position image 30 includes a central image (first image) 30a representing an area to be touched by the first finger (first image) of the user, and a left side of the first finger in the user's hand. A left image (second image) 30b representing an area to be touched by a second finger (second image) that is positioned, and a third finger (second image) that is positioned to the right of the first finger in the user's hand 2 image) includes a right image (second image) 30c representing an area to be touched. That is, the finger position image 30 constitutes a virtual mouse (virtual mouse) for the user.

図11は、利用者の指が指位置画像30に実際にタッチしているときの様子を示す図である。図11に示すように、例えば、利用者の右手により入力パッド300Cが操作される場合であれば、中央画像30aには利用者の中指が第1の指41としてタッチし、左側画像30bには利用者の人差指が第2の指42としてタッチし、右側画像30cには利用者の薬指が第3の指43としてタッチする。   FIG. 11 is a diagram illustrating a state when the user's finger is actually touching the finger position image 30. As shown in FIG. 11, for example, when the input pad 300C is operated by the user's right hand, the middle finger of the user touches the center image 30a as the first finger 41, and the left image 30b The user's index finger touches as the second finger 42, and the user's ring finger touches the right image 30 c as the third finger 43.

あるいは、中央画像30aに利用者の人差指が第1の指41としてタッチしたのであれば、左側画像30bには利用者の親指が第2の指42としてタッチし、右側画像30cには利用者の中指が第3の指43としてタッチすることになる。   Alternatively, if the user's index finger touches the center image 30a as the first finger 41, the user's thumb touches the left image 30b as the second finger 42, and the right image 30c shows the user's thumb. The middle finger touches as the third finger 43.

もちろん、利用者の左手により入力パッド300Cが操作される場合であれば、中央画像30a、左側画像30b及び右側画像30cへの第1の指41、第2の指42及び第3の指43のタッチは上記の場合と逆になるのは言うまでもない。   Of course, if the input pad 300C is operated by the left hand of the user, the first finger 41, the second finger 42, and the third finger 43 to the center image 30a, the left image 30b, and the right image 30c will be described. Needless to say, touch is the opposite of the above case.

利用者の指による入力パッド300Cの操作は、例えば、次のように実行される。   The operation of the input pad 300C by the user's finger is executed as follows, for example.

先ず、入力パッド300Cのセンサ内蔵液晶パネル301上における任意の位置に利用者の第1の指がタッチすると、そのタッチ位置に中央画像30aが配置されるように、指位置画像30が表示される。   First, when the first finger of the user touches an arbitrary position on the sensor-embedded liquid crystal panel 301 of the input pad 300C, the finger position image 30 is displayed so that the central image 30a is arranged at the touch position. .

そして、利用者が第1の指をタッチしたままで入力パッド300Cのセンサ内蔵液晶パネル301上を移動させると、その移動に合わせて表示パネル300Dのセンサ内蔵液晶パネル301上におけるポインタの位置を移動させることができる。   When the user moves the input pad 300C on the sensor built-in liquid crystal panel 301 while touching the first finger, the position of the pointer on the sensor built-in liquid crystal panel 301 on the display panel 300D is moved in accordance with the movement. Can be made.

この場合、入力パッド300Cのセンサ内蔵液晶パネル301上における第1の指の移動距離や方向、速度などを検知し、これに応じて表示パネル300Dのセンサ内蔵液晶パネル301上に表示されるポインタの相対的な動きを制御すればよい。なお、1つの表示/光センサ部300Aが入力パッド300C及び表示パネル300Dを兼ねる構成とした場合には、入力パッド300Cのセンサ内蔵液晶パネル301上における第1の指の座標と表示パネル300Dのセンサ内蔵液晶パネル301上におけるポインタの座標とは絶対座標により対応づけられることになる。   In this case, the movement distance, direction, speed, etc. of the first finger on the sensor built-in liquid crystal panel 301 of the input pad 300C are detected, and the pointer displayed on the sensor built-in liquid crystal panel 301 of the display panel 300D is detected accordingly. The relative movement may be controlled. When one display / light sensor unit 300A serves as both the input pad 300C and the display panel 300D, the coordinates of the first finger on the sensor built-in liquid crystal panel 301 of the input pad 300C and the sensor of the display panel 300D are used. The coordinates of the pointer on the built-in liquid crystal panel 301 are associated by absolute coordinates.

第1の指が入力パッド300Cのセンサ内蔵液晶パネル301の端で止まって、それ以上動かせなくなったときには、第1の指を入力パッド300Cのセンサ内蔵液晶パネル301の中央付近に戻して操作を続けることにより、表示パネル300Dのセンサ内蔵液晶パネル301上におけるポインタの移動を続けることができる。   When the first finger stops at the end of the sensor built-in liquid crystal panel 301 of the input pad 300C and can no longer be moved, the first finger is returned to the vicinity of the center of the sensor built-in liquid crystal panel 301 of the input pad 300C to continue the operation. Thus, the movement of the pointer on the sensor built-in liquid crystal panel 301 of the display panel 300D can be continued.

ここで、指位置画像30は、第1の指が入力パッド300Cにタッチする以前から表示させておいてもよい。この場合、利用者の第1の指が、既に表示されている指位置画像30の中央画像30a上にタッチせず、異なる位置にタッチしたときには、そのタッチ位置に中央画像30aが配置されるように、指位置画像30を移動させればよい。   Here, the finger position image 30 may be displayed before the first finger touches the input pad 300C. In this case, when the first finger of the user does not touch the center image 30a of the finger position image 30 that is already displayed and touches a different position, the center image 30a is arranged at the touch position. Then, the finger position image 30 may be moved.

また、入力パッド300Cのセンサ内蔵液晶パネル301上に第1の指のみがタッチし、第2、第3の指がタッチする以前においては、指位置画像30を表示させないようにしてもよい。この場合、後述する第2、第3の指がタッチされた後に指位置画像30を表示させればよい。   Alternatively, the finger position image 30 may not be displayed before the first finger touches the sensor built-in liquid crystal panel 301 of the input pad 300C and before the second and third fingers touch. In this case, the finger position image 30 may be displayed after the second and third fingers described later are touched.

次に、第1の指が入力パッド300Cにタッチした状態で、左側画像30b上に第2の指がタッチすると、表示パネル300Dのセンサ内蔵液晶パネル301上において、ポインタの位置にあるアイコン、ファイル等が選択される。   Next, when the second finger touches the left image 30b with the first finger touching the input pad 300C, the icon and file at the position of the pointer on the sensor built-in liquid crystal panel 301 of the display panel 300D. Etc. are selected.

そして、利用者が第1及び第2の指をタッチしたままで入力パッド300Cのセンサ内蔵液晶パネル301上を移動させると、その移動に合わせて表示パネル300Dのセンサ内蔵液晶パネル301上における、ポインタにより選択されたアイコン等を移動させることができる。   Then, when the user moves the input pad 300C on the sensor built-in liquid crystal panel 301 while touching the first and second fingers, the pointer on the sensor built-in liquid crystal panel 301 on the display panel 300D is moved accordingly. The icon or the like selected by can be moved.

さらに、第1の指がタッチした状態で、第2の指が入力パッド300Cから離れると、その移動先の位置においてアイコン等の選択状態が解除され、その位置においてアイコン等を保持することができる。   Further, when the second finger leaves the input pad 300C while being touched by the first finger, the selected state of the icon or the like is canceled at the position of the movement destination, and the icon or the like can be held at the position. .

一方、第2の指がタッチした状態で、第1の指が入力パッド300Cから離れると、その移動先の位置においてアイコン等の選択状態は維持される。そして、再び、第1の指がタッチすると、第1及び第2の指をタッチしたままで入力パッド300Cのセンサ内蔵液晶パネル301上を移動させることにより、ポインタにより選択されたアイコン等の移動を継続することができる。   On the other hand, when the first finger leaves the input pad 300C while the second finger is touched, the selected state of the icon or the like is maintained at the position of the movement destination. When the first finger touches again, the icon selected by the pointer is moved by moving the input pad 300C on the sensor-embedded liquid crystal panel 301 while touching the first and second fingers. Can continue.

同様に、第1の指が入力パッド300Cにタッチした状態で、右側画像30c上に第3の指がタッチすると、表示パネル300Dのセンサ内蔵液晶パネル301上においてポインタの位置にあるアイコン、ファイル等が選択される。   Similarly, when the third finger touches the right image 30c with the first finger touching the input pad 300C, the icon, file, etc. at the position of the pointer on the sensor built-in liquid crystal panel 301 of the display panel 300D. Is selected.

そして、利用者が第1及び第3の指をタッチしたままで入力パッド300Cのセンサ内蔵液晶パネル301上を移動させると、その移動に合わせて表示パネル300Dのセンサ内蔵液晶パネル301上における、ポインタにより選択されたアイコン等を移動させることができる。   Then, when the user moves on the sensor-embedded liquid crystal panel 301 of the input pad 300C while touching the first and third fingers, the pointer on the sensor-embedded liquid crystal panel 301 of the display panel 300D in accordance with the movement. The icon or the like selected by can be moved.

さらに、第1の指がタッチした状態で、第3の指が入力パッド300Cから離れると、その移動先の位置においてアイコン等の選択状態が解除され、その位置においてアイコン等を保持することができる。   Further, when the third finger leaves the input pad 300C while the first finger is touched, the selected state of the icon or the like is canceled at the position of the movement destination, and the icon or the like can be held at the position. .

一方、第3の指がタッチした状態で、第1の指が入力パッド300Cから離れると、その移動先の位置においてアイコン等の選択状態は維持される。そして、再び、第1の指がタッチすると、第1及び第3の指をタッチしたままで入力パッド300Cのセンサ内蔵液晶パネル301上を移動させることにより、ポインタにより選択されたアイコン等の移動を継続することができる。   On the other hand, when the first finger leaves the input pad 300C while the third finger is touched, the selected state of the icon or the like is maintained at the position of the movement destination. When the first finger touches again, the icon selected by the pointer is moved by moving the input pad 300C on the sensor built-in liquid crystal panel 301 while touching the first and third fingers. Can continue.

なお、本実施の形態における、利用者の指による入力パッド300Cの操作は、上述した内容に限られるものではない。例えば、利用者の指による入力パッド300Cの操作には、以下のものが含まれる。
(A)入力パッド300Cのセンサ内蔵液晶パネル301上に第1の指がタッチすることによりポインタで指示や操作の対象を指し示す「ポイント」操作
(B)入力パッド300Cのセンサ内蔵液晶パネル301上に第2の指が1回だけタッチする「左クリック」操作
(C)入力パッド300Cのセンサ内蔵液晶パネル301上に第3の指が1回だけタッチする「右クリック」操作
(D)入力パッド300Cのセンサ内蔵液晶パネル301上に第2の指が連続して2回タッチする「ダブルクリック」操作
(E)入力パッド300Cのセンサ内蔵液晶パネル301上を第1及び第2の指がタッチしたままで移動する「左ドラッグ」操作
(F)入力パッド300Cのセンサ内蔵液晶パネル301上を第1及び第3の指がタッチしたままで移動する「右ドラッグ」操作
(G)「左ドラッグ」操作または「右ドラッグ」操作の後に第2または第3の指が入力パッド300Cのセンサ内蔵液晶パネル301上から離脱することにより「左ドラッグ」操作または「右ドラッグ」操作中の対象が移動等を完了させる「ドロップ」操作
(主制御部及び記憶部の構成)
次に、本実施の形態に係るデータ表示/センサ装置100の主制御部800及び記憶部901の構成について説明する。ここでは、説明を分かりやすくするために、主制御部800と表示/光センサ部300との間に位置するデータ処理部700及び回路制御部600の動作については説明を省略する。
Note that the operation of the input pad 300C with the user's finger in the present embodiment is not limited to the above-described content. For example, the operation of the input pad 300C by the user's finger includes the following.
(A) “Point” operation in which an instruction or an operation target is indicated by a pointer when the first finger touches the sensor-embedded liquid crystal panel 301 of the input pad 300C. (B) On the sensor-embedded liquid crystal panel 301 of the input pad 300C. “Left click” operation in which the second finger touches only once (C) “Right click” operation in which the third finger touches the sensor built-in liquid crystal panel 301 of the input pad 300C only once (D) Input pad 300C “Double-click” operation in which the second finger touches the sensor built-in liquid crystal panel 301 twice continuously (E) The first and second fingers remain touching the sensor built-in liquid crystal panel 301 of the input pad 300C. (F) Move with the first and third fingers touching on the sensor built-in liquid crystal panel 301 of the input pad 300C. “Right drag” operation (G) After the “left drag” operation or the “right drag” operation, the second or third finger is released from the sensor built-in liquid crystal panel 301 of the input pad 300C, thereby performing the “left drag” operation or “ "Drop" operation that completes movement of the target during "Right drag" operation (Configuration of main control unit and storage unit)
Next, the configuration of the main control unit 800 and the storage unit 901 of the data display / sensor device 100 according to the present embodiment will be described. Here, in order to make the description easy to understand, the description of the operations of the data processing unit 700 and the circuit control unit 600 located between the main control unit 800 and the display / light sensor unit 300 is omitted.

ただし、正確には、データの表示及び対象物のスキャンを行なうにあたり、主制御部800の各部が、データ処理部700にコマンドを送信し、データ処理部700がコマンドに基づいて回路制御部600を制御し、回路制御部600が表示/光センサ部300に対して信号を送信する。   However, to be precise, when displaying data and scanning an object, each unit of the main control unit 800 transmits a command to the data processing unit 700, and the data processing unit 700 sets the circuit control unit 600 based on the command. Then, the circuit control unit 600 transmits a signal to the display / light sensor unit 300.

また、主制御部800は、データ処理部700に対して送信したコマンドに対する応答として、データ処理部700から、全体画像データ、部分画像データ、及び座標データを取得する。   Further, the main control unit 800 acquires the entire image data, the partial image data, and the coordinate data from the data processing unit 700 as a response to the command transmitted to the data processing unit 700.

図1は、データ表示/センサ装置100の主制御部800及び記憶部901の構成を示すブロック図である。データ表示/センサ装置100の主制御部800は、図1に示すように、データ取得部11と、特定部(特定手段)12と、判定部(判定手段)13と、決定部(決定手段)14と、配置部(配置手段)15と、表示制御部(表示制御手段)16とを有している。   FIG. 1 is a block diagram illustrating the configuration of the main control unit 800 and the storage unit 901 of the data display / sensor device 100. As shown in FIG. 1, the main control unit 800 of the data display / sensor device 100 includes a data acquisition unit 11, a specification unit (specification unit) 12, a determination unit (determination unit) 13, and a determination unit (determination unit). 14, an arrangement unit (arrangement unit) 15, and a display control unit (display control unit) 16.

また、データ表示/センサ装置(指示入力装置)100の記憶部901は、図1に示すように、座標情報記憶部21と、判定条件記憶部22と、判定結果記憶部23と、指示内容記憶部24と、を有している。   Further, as shown in FIG. 1, the storage unit 901 of the data display / sensor device (instruction input device) 100 includes a coordinate information storage unit 21, a determination condition storage unit 22, a determination result storage unit 23, and an instruction content storage. Part 24.

データ取得部11は、主制御部800からのコマンドに応じてデータ処理部700のセンサデータ処理部703が主制御部800に送信する座標データを取得する。   The data acquisition unit 11 acquires coordinate data transmitted from the sensor data processing unit 703 of the data processing unit 700 to the main control unit 800 in response to a command from the main control unit 800.

ここで、データ取得部11は、センサデータ処理部703から座標データを取得するため、主制御部800がデータ処理部700に送信するコマンドの「データ種別」フィールドに“座標”を指定する。   Here, in order to acquire coordinate data from the sensor data processing unit 703, the data acquisition unit 11 designates “coordinate” in the “data type” field of the command transmitted from the main control unit 800 to the data processing unit 700.

さらに、データ取得部11は、「データ種別」フィールドの指定に加えて、「データ取得タイミング」フィールドに“オール”を指定し、所定の周期で座標データを取得する。   Further, in addition to specifying the “data type” field, the data acquisition unit 11 specifies “all” in the “data acquisition timing” field, and acquires coordinate data at a predetermined cycle.

また、データ取得部11は、センサデータ処理部703により複数の部分画像データが抽出された場合には、各部分画像データの座標データを取得する。   Further, when a plurality of partial image data is extracted by the sensor data processing unit 703, the data acquisition unit 11 acquires coordinate data of each partial image data.

座標情報記憶部21は、データ取得部11により取得された座標データを記憶する。そして、座標情報記憶部21は、データ取得部11が複数の部分画像データの座標データを同時に取得した場合には、各部分画像データの座標データが識別可能となるように、部分画像データと座標データとを関連付けて記憶する。   The coordinate information storage unit 21 stores the coordinate data acquired by the data acquisition unit 11. Then, when the data acquisition unit 11 acquires the coordinate data of a plurality of partial image data at the same time, the coordinate information storage unit 21 stores the partial image data and the coordinates so that the coordinate data of each partial image data can be identified. Associate and store data.

特定部12は、データ取得部11により取得された座標データが入力されると、座標情報記憶部21に記憶された座標データを読み出し、データ取得部11からの座標データと比較する。そして、特定部12は、その比較結果に基づいて、座標情報記憶部21に記憶された座標データを持つ部分画像データのうち、データ取得部11により取得された座標データを持つ部分画像データと一致するものがあるか否かを特定する。   When the coordinate data acquired by the data acquisition unit 11 is input, the specifying unit 12 reads the coordinate data stored in the coordinate information storage unit 21 and compares it with the coordinate data from the data acquisition unit 11. Then, the specifying unit 12 matches the partial image data having the coordinate data acquired by the data acquiring unit 11 among the partial image data having the coordinate data stored in the coordinate information storage unit 21 based on the comparison result. Identify whether there is something to do.

ここで、座標情報記憶部21は、データ取得部11により取得された座標データを持つ部分画像データと一致する、座標情報記憶部21に記憶された座標データを持つ部分画像データがあった場合には、その特定結果に基づいて、データ取得部11により取得された座標データを、その特定された部分画像に関連付けて記憶する。   Here, the coordinate information storage unit 21 has partial image data having coordinate data stored in the coordinate information storage unit 21 that matches the partial image data having coordinate data acquired by the data acquisition unit 11. Stores the coordinate data acquired by the data acquisition unit 11 in association with the specified partial image based on the identification result.

この場合、その部分画像データに対応する、センサ内蔵液晶パネル301上における対象物は、センサ内蔵液晶パネル301上をタッチしながら移動または待機していることになる。そして、その移動または待機、並びに、移動している場合における移動量及び移動方向については、特定部12が、データ取得部11からの座標データと座標情報記憶部21からの座標データを用いて、特定することができる。   In this case, the object on the sensor built-in liquid crystal panel 301 corresponding to the partial image data is moving or waiting while touching the sensor built-in liquid crystal panel 301. And about the movement or stand-by, and the movement amount and movement direction in the case of moving, the specifying unit 12 uses the coordinate data from the data acquisition unit 11 and the coordinate data from the coordinate information storage unit 21, Can be identified.

一方、座標情報記憶部21は、データ取得部11により取得された座標データを持つ部分画像データと一致する、座標情報記憶部21に記憶された座標データを持つ部分画像データがなかった場合には、その特定結果に基づいて、データ取得部11により取得された座標データを、新たな部分画像データの座標データとして記憶する。   On the other hand, when there is no partial image data having the coordinate data stored in the coordinate information storage unit 21 that matches the partial image data having the coordinate data acquired by the data acquisition unit 11, the coordinate information storage unit 21 does not exist. Based on the identification result, the coordinate data acquired by the data acquisition unit 11 is stored as coordinate data of new partial image data.

この場合、その部分画像データに対応する、センサ内蔵液晶パネル301上における対象物は、センサ内蔵液晶パネル301上に新たにタッチしたことになる。   In this case, the object on the sensor built-in liquid crystal panel 301 corresponding to the partial image data is newly touched on the sensor built-in liquid crystal panel 301.

また、特定部12は、座標情報記憶部21に記憶された座標データを持つ部分画像データのうち、データ取得部11により取得された座標データを持つ部分画像データと一致するものがないものについては、座標情報記憶部21から削除する。   Further, the specifying unit 12 has no match with the partial image data having the coordinate data acquired by the data acquiring unit 11 among the partial image data having the coordinate data stored in the coordinate information storage unit 21. And deleted from the coordinate information storage unit 21.

この場合、その部分画像データに対応する、センサ内蔵液晶パネル301上における対象物は、センサ内蔵液晶パネル301上から離脱したことになる。   In this case, the object on the sensor built-in liquid crystal panel 301 corresponding to the partial image data is detached from the sensor built-in liquid crystal panel 301.

判定部13は、特定部12による特定結果に基づいて、利用者の指による入力パッド300Cの操作内容を判定する。具体的には、判定部13は、入力パッド300Cのセンサ内蔵液晶パネル301上に第1〜3の指がタッチしたか否か、入力パッド300Cのセンサ内蔵液晶パネル301上において第1〜3の指がタッチしたまま移動したか否か、入力パッド300Cのセンサ内蔵液晶パネル301上から第1〜第3の指が離脱したか否かを判定する。さらに、判定部13は、入力パッド300Cのセンサ内蔵液晶パネル301上において第1〜3の指がタッチしたまま移動したとの判定を行なう場合には、その移動方向及び移動量についても特定部12から取得する。   The determination unit 13 determines the operation content of the input pad 300 </ b> C by the user's finger based on the identification result by the identification unit 12. Specifically, the determination unit 13 determines whether or not the first to third fingers have touched the sensor built-in liquid crystal panel 301 of the input pad 300C, and whether or not the first to third liquid crystal panels 301 of the input pad 300C are touched. It is determined whether or not the finger has moved while touching, and whether or not the first to third fingers have been detached from the sensor built-in liquid crystal panel 301 of the input pad 300C. Further, when the determination unit 13 determines that the first to third fingers have moved while touching on the sensor built-in liquid crystal panel 301 of the input pad 300C, the specifying unit 12 also determines the movement direction and the movement amount. Get from.

また、判定部13は、利用者の指による入力パッド300Cの操作を判定する際には、後述する判定条件記憶部22にあらかじめ記憶されている判定条件を参照する。   Further, when determining the operation of the input pad 300C by the user's finger, the determination unit 13 refers to determination conditions stored in advance in a determination condition storage unit 22 described later.

判定条件記憶部22は、判定部13が利用者の指による入力パッド300Cの操作を判定する際に参照すべき判定条件をあらかじめ記憶している。この判定条件としては、例えば、次のものが挙げられる。
(A)入力パッド300Cのセンサ内蔵液晶パネル301上にタッチする指が第1の指であると判定するための条件
(B)入力パッド300Cのセンサ内蔵液晶パネル301上にタッチする指が第2の指であると判定するための条件
(C)入力パッド300Cのセンサ内蔵液晶パネル301上にタッチする指が第3の指であると判定するための条件
具体的には、上記の(A)の条件は、例えば、入力パッド300Cのセンサ内蔵液晶パネル301上に利用者の指のいずれもタッチしていない状態から新たにタッチされた指であること、である。
The determination condition storage unit 22 stores in advance determination conditions to be referred to when the determination unit 13 determines the operation of the input pad 300C by the user's finger. Examples of the determination condition include the following.
(A) Conditions for determining that the finger touching the sensor built-in liquid crystal panel 301 of the input pad 300C is the first finger. (B) The finger touching the sensor built-in liquid crystal panel 301 of the input pad 300C is the second. (C) Condition for Determining that the Finger is Touched on the Sensor Built-in Liquid Crystal Panel 301 of the Input Pad 300C Specifically, the condition for determining that the finger is the third finger (A) The condition is, for example, that the finger is newly touched from a state in which none of the user's fingers is touching the sensor built-in liquid crystal panel 301 of the input pad 300C.

上記の(B)の条件は、例えば、入力パッド300Cのセンサ内蔵液晶パネル301上に第1の指がタッチしている状態において、第1の指の左側に位置する領域に新たにタッチされた指であること、である。   The above condition (B) is that, for example, in the state where the first finger is touching the sensor-embedded liquid crystal panel 301 of the input pad 300C, a new area is touched on the left side of the first finger. Being a finger.

この(B)の条件の場合、第1の指のタッチ位置を基準とする第2の指がタッチすべき領域があらかじめ定められている。そして、この第2の指がタッチすべき領域を利用者が視認可能となるよう、この第2の指がタッチすべき領域に指位置画像30の左側画像30bが表示されることになる。   In the case of the condition (B), an area to be touched by the second finger based on the touch position of the first finger is determined in advance. Then, the left image 30b of the finger position image 30 is displayed in the area to be touched by the second finger so that the user can visually recognize the area to be touched by the second finger.

なお、この第2の指がタッチすべき領域の形状と左側画像30bの形状とが完全に一致する必要はない。要は、利用者が左側画像30bに向かって第2の指をタッチさせたときに、第2の指がタッチすべき領域にタッチできればよい。   It should be noted that the shape of the region to be touched by the second finger and the shape of the left image 30b do not have to completely match. In short, it suffices if the user can touch the area to be touched by the second finger when the user touches the second image toward the left image 30b.

また、この第2の指がタッチすべき領域は、例えば、上述したように第1の指が中指、第2の指が人差指の場合であれば、中指の位置を固定した後に人差指が通常動くことが可能と考えられる範囲に基づいて設定しておけばよい。   In addition, for example, in the case where the first finger is the middle finger and the second finger is the index finger as described above, the index finger moves normally after fixing the position of the middle finger. It may be set based on the range that is considered possible.

上記の(C)の条件は、例えば、入力パッド300Cのセンサ内蔵液晶パネル301上に第1の指がタッチしている状態において、第1の指の右側に位置する領域に新たにタッチされた指であること、である。   The above condition (C) is that, for example, when the first finger is touching the sensor built-in liquid crystal panel 301 of the input pad 300C, a new touch is made in the region located on the right side of the first finger. Being a finger.

この(C)の条件の場合、第1の指のタッチ位置を基準とする第3の指がタッチすべき領域があらかじめ定められている。そして、この第3の指がタッチすべき領域を利用者が視認可能となるよう、この第3の指がタッチすべき領域に指位置画像30の右側画像30cが表示されることになる。   In the case of the condition (C), an area to be touched by the third finger based on the touch position of the first finger is determined in advance. Then, the right image 30c of the finger position image 30 is displayed in the area to be touched by the third finger so that the user can visually recognize the area to be touched by the third finger.

なお、この第3の指がタッチすべき領域の形状と右側画像30cの形状とが完全に一致する必要はない。要は、利用者が右側画像30cに向かって第3の指をタッチさせたときに、第3の指がタッチすべき領域にタッチできればよい。   Note that the shape of the region to be touched by the third finger and the shape of the right image 30c do not have to completely match. In short, it suffices if the third finger can touch the area to be touched when the user touches the third finger toward the right image 30c.

また、この第3の指がタッチすべき領域は、例えば、上述したように第1の指が中指、第2の指が薬指の場合であれば、中指の位置を固定した後に薬指が通常動くことが可能と考えられる範囲に基づいて設定しておけばよい。   In addition, for example, when the first finger is the middle finger and the second finger is the ring finger as described above, the ring finger normally moves after fixing the position of the middle finger. It may be set based on the range that is considered possible.

判定部13は、このような判定条件記憶部22に記憶されている判定条件を参照しながら、特定部12による特定結果に基づいて、利用者の指による入力パッド300Cの操作内容を判定する。   The determination unit 13 determines the operation content of the input pad 300 </ b> C by the user's finger based on the identification result by the identification unit 12 while referring to the determination condition stored in the determination condition storage unit 22.

判定結果記憶部23は、判定部13からの判定結果を記憶する。そして、判定結果記憶部23は、自身が記憶している判定結果を後述する決定部14及び配置部15に出力する。   The determination result storage unit 23 stores the determination result from the determination unit 13. And the determination result memory | storage part 23 outputs the determination result which self has memorize | stored to the determination part 14 and the arrangement | positioning part 15 which are mentioned later.

決定部14は、判定部13からの判定結果に基づいて、表示パネル300Dのセンサ内蔵液晶パネル301上において実行すべき指示内容を決定する。そして、決定部14は、その決定された指示内容を、後述する表示制御部16に出力する。また、決定部14は、判定結果記憶部23に記憶されている過去の判定結果を参照しながら、表示パネル300Dのセンサ内蔵液晶パネル301上において実行すべき指示内容を決定する。   Based on the determination result from the determination unit 13, the determination unit 14 determines the instruction content to be executed on the sensor built-in liquid crystal panel 301 of the display panel 300D. Then, the determination unit 14 outputs the determined instruction content to the display control unit 16 described later. Further, the determination unit 14 determines the instruction content to be executed on the sensor built-in liquid crystal panel 301 of the display panel 300 </ b> D while referring to the past determination results stored in the determination result storage unit 23.

さらに、決定部14は、表示パネル300Dのセンサ内蔵液晶パネル301上において実行すべき指示内容を決定する際、後述する指示内容記憶部24にあらかじめ記憶されている指示内容のうち、判定部13からの判定結果、つまり、利用者の指による入力パッド300Cの操作内容に対応する指示内容を抽出し、その指示内容を表示制御部16に出力する。   Furthermore, when determining the instruction content to be executed on the sensor built-in liquid crystal panel 301 of the display panel 300D, the determination unit 14 determines whether the instruction content stored in advance in the instruction content storage unit 24 described later is determined from the determination unit 13. , I.e., the instruction content corresponding to the operation content of the input pad 300 </ b> C by the user's finger is extracted, and the instruction content is output to the display control unit 16.

指示内容記憶部24は、利用者の指による入力パッド300Cの操作内容に対応する指示内容をあらかじめ記憶する。この指示内容は、利用者の指による入力パッド300Cの操作に基づいて、表示パネル300Dのセンサ内蔵液晶パネル301上において実行される指示内容である。上述したように、利用者の指による入力パッド300Cの操作は、「ポイント」操作、「左クリック」操作、「右クリック」操作等が含まれるが、指示内容記憶部24は、これら操作に一対一に対応する指示内容をあらかじめ記憶している。   The instruction content storage unit 24 stores in advance instruction contents corresponding to the operation contents of the input pad 300C by the user's finger. This instruction content is an instruction content executed on the sensor built-in liquid crystal panel 301 of the display panel 300D based on the operation of the input pad 300C by the user's finger. As described above, the operation of the input pad 300C by the user's finger includes a “point” operation, a “left click” operation, a “right click” operation, and the like. The instruction content storage unit 24 performs a pair of these operations. Instruction contents corresponding to one are stored in advance.

配置部15は、判定結果記憶部23に記憶されている判定結果に基づいて、入力パッド300Cのセンサ内蔵液晶パネル301上に指位置画像30を配置する。   The placement unit 15 places the finger position image 30 on the sensor built-in liquid crystal panel 301 of the input pad 300 </ b> C based on the determination result stored in the determination result storage unit 23.

具体的には、判定結果記憶部23は、判定部13による判定結果、つまり、入力パッド300Cのセンサ内蔵液晶パネル301上に第1の指がタッチしたか否か、入力パッド300Cのセンサ内蔵液晶パネル301上において第1の指がタッチしたまま移動したか否か、及び、入力パッド300Cのセンサ内蔵液晶パネル301上から第1の指が離脱したか否か、を記憶している。配置部15は、このような判定結果に基づいて、第1の指のタッチに合わせて指位置画像30を入力パッド300Cのセンサ内蔵液晶パネル301上に表示させ、第1の指のタッチしたままの移動に合わせて指位置画像30を入力パッド300Cのセンサ内蔵液晶パネル301上を移動させ、第1の指の離脱に合わせて入力パッド300Cのセンサ内蔵液晶パネル301上における指位置画像30の表示を停止する。   Specifically, the determination result storage unit 23 determines whether or not the determination result by the determination unit 13, that is, whether or not the first finger touches the sensor-embedded liquid crystal panel 301 of the input pad 300 </ b> C, and the sensor-embedded liquid crystal of the input pad 300 </ b> C. It stores whether or not the first finger has moved while touching on the panel 301 and whether or not the first finger has detached from the sensor built-in liquid crystal panel 301 of the input pad 300C. Based on the determination result, the placement unit 15 displays the finger position image 30 on the sensor-embedded liquid crystal panel 301 of the input pad 300C in accordance with the touch of the first finger, and keeps the touch of the first finger. The finger position image 30 is moved on the sensor built-in liquid crystal panel 301 of the input pad 300C in accordance with the movement of the input pad 300C, and the finger position image 30 is displayed on the sensor built-in liquid crystal panel 301 in the input pad 300C in accordance with the release of the first finger. To stop.

また、配置部15は、このような入力パッド300Cのセンサ内蔵液晶パネル301上における指位置画像30の振る舞いを表示制御部16に指示する。   In addition, the placement unit 15 instructs the display control unit 16 on the behavior of the finger position image 30 on the sensor-embedded liquid crystal panel 301 of the input pad 300C.

表示制御部16は、決定部14及び配置部15の各々の出力に応じた表示データを生成する。具体的には、表示制御部16は、決定部14から表示パネル300Dのセンサ内蔵液晶パネル301上における指示内容を受け取った場合には、自身が生成する表示データを表示パネル300Dに出力するため、主制御部800がデータ処理部700に送信するコマンドの「表示パネル」フィールドに“010”を指定する。   The display control unit 16 generates display data corresponding to the outputs of the determination unit 14 and the arrangement unit 15. Specifically, when the display control unit 16 receives the instruction content on the sensor-embedded liquid crystal panel 301 of the display panel 300D from the determination unit 14, the display control unit 16 outputs the display data generated by the display control unit 16 to the display panel 300D. “010” is designated in the “display panel” field of the command transmitted from the main control unit 800 to the data processing unit 700.

一方、表示制御部16は、配置部15から入力パッド300Cのセンサ内蔵液晶パネル301上における指位置画像30についての指示を受け取った場合には、自身が生成する表示データを入力パッド300Cに出力するため、主制御部800がデータ処理部700に送信するコマンドの「表示パネル」フィールドに“001”を指定する。   On the other hand, when the display control unit 16 receives an instruction about the finger position image 30 on the sensor built-in liquid crystal panel 301 of the input pad 300C from the placement unit 15, the display control unit 16 outputs display data generated by itself to the input pad 300C. Therefore, “001” is designated in the “display panel” field of the command transmitted from the main control unit 800 to the data processing unit 700.

次に、図12〜14を用いて、ノート型パーソナルコンピュータ101が利用者の指による入力パッド300Cの操作に応じて行なう処理の典型例について説明する。   Next, a typical example of processing performed by the notebook personal computer 101 in response to an operation of the input pad 300C by a user's finger will be described with reference to FIGS.

図12は、利用者の第1の指による入力パッド300Cの操作に応じて行なわれる処理の手順を示すフローチャートである。   FIG. 12 is a flowchart showing a procedure of processing performed in response to the operation of the input pad 300C by the user's first finger.

図12に示すように、判定部13は、特定部12による特定結果に基づいて、入力パッド300Cのセンサ内蔵液晶パネル301上における第1の指のタッチ位置(第1の位置)を特定する(ステップS101)。本ステップS101においては、判定結果記憶部23は、この判定部13による第1の位置の特定結果を記憶する。   As illustrated in FIG. 12, the determination unit 13 specifies the touch position (first position) of the first finger on the sensor-embedded liquid crystal panel 301 of the input pad 300 </ b> C based on the specification result by the specifying unit 12 ( Step S101). In step S <b> 101, the determination result storage unit 23 stores the identification result of the first position by the determination unit 13.

配置部15は、判定結果記憶部23に記憶されている第1の位置の特定結果に基づいて、入力パッド300Cのセンサ内蔵液晶パネル301上に仮想マウスである指位置画像30を配置する(ステップS102)。   The placement unit 15 places the finger position image 30 that is a virtual mouse on the sensor built-in liquid crystal panel 301 of the input pad 300C based on the first position specifying result stored in the determination result storage unit 23 (step S30). S102).

そして、第1の位置が移動した場合には(ステップS103YES)、配置部15は、その移動に応じて仮想マウスである指位置画像30を入力パッド300Cのセンサ内蔵液晶パネル301上において移動させ(ステップS104)、再び、ステップS103に戻る。   When the first position is moved (YES in step S103), the placement unit 15 moves the finger position image 30 that is a virtual mouse on the sensor built-in liquid crystal panel 301 of the input pad 300C according to the movement (step S103 YES). Step S104), it returns to step S103 again.

一方、第1の位置が移動しない場合には(ステップS103NO)、配置部15は、仮想マウスである入力パッド300Cのセンサ内蔵液晶パネル301上において待機させることになる(ステップS105)。   On the other hand, when the first position does not move (step S103 NO), the placement unit 15 waits on the sensor built-in liquid crystal panel 301 of the input pad 300C that is a virtual mouse (step S105).

図13及び図14は、利用者の第1、第2及び第3の指による入力パッド300Cの操作に応じて行われる処理の手順を示すフローチャートである。なお、ここでは、入力パッド300Cのセンサ内蔵液晶パネル301上に第1の指が既にタッチした状態にあるものとする。   FIG. 13 and FIG. 14 are flowcharts showing a procedure of processing performed in accordance with the operation of the input pad 300C by the user's first, second and third fingers. Here, it is assumed that the first finger has already touched the sensor-embedded liquid crystal panel 301 of the input pad 300C.

図13に示すように、判定部13は、特定部12による特定結果に基づいて、入力パッド300Cのセンサ内蔵液晶パネル301上における第2または第3の指のタッチ位置(第2の位置)を特定する(ステップS201)。本ステップS201においては、判定結果記憶部23は、この判定部13による第2の位置の特定結果を記憶する。   As illustrated in FIG. 13, the determination unit 13 determines the touch position (second position) of the second or third finger on the sensor built-in liquid crystal panel 301 of the input pad 300 </ b> C based on the specification result by the specification unit 12. Specify (step S201). In step S <b> 201, the determination result storage unit 23 stores the second position specifying result by the determination unit 13.

そして、第2の位置が第1の位置の左側であれば(ステップS202左側)、決定部14は、第2の位置が第1の位置の左側である場合に対応する指示内容を指示内容記憶部24から抽出し、決定する(ステップS203)。   If the second position is the left side of the first position (the left side of step S202), the determination unit 14 stores the instruction content corresponding to the case where the second position is the left side of the first position. Extracted from the unit 24 and determined (step S203).

一方、第2の位置が第1の位置の右側であれば(ステップS202右側)、決定部14は、第2の位置が第1の位置の右側である場合に対応する指示内容を指示内容記憶部24から抽出し、決定する(ステップS204)。   On the other hand, if the second position is the right side of the first position (the right side of step S202), the determination unit 14 stores the instruction content corresponding to the case where the second position is the right side of the first position. Extracted from the unit 24 and determined (step S204).

決定部14は、上記のステップS203またはステップS204において決定された指示内容を表示制御部16に出力する。そして、表示制御部16は、決定部14から出力された指示内容に応じて表示データを生成する(ステップS205)。   The determination unit 14 outputs the instruction content determined in step S203 or step S204 to the display control unit 16. And the display control part 16 produces | generates display data according to the instruction | indication content output from the determination part 14 (step S205).

そして、第1及び第2の位置が移動しなければ(ステップS206NO)、処理が終了する。   If the first and second positions do not move (step S206 NO), the process ends.

一方、第1及び第2の位置が移動した場合には(ステップS206YES)、図14に示すように、配置部15は、その移動に応じて仮想マウスである指位置画像30を入力パッド300Cのセンサ内蔵液晶パネル301上において移動させる(ステップS301)。   On the other hand, when the first and second positions are moved (YES in step S206), as shown in FIG. 14, the placement unit 15 displays the finger position image 30 that is a virtual mouse on the input pad 300C according to the movement. The sensor is moved on the sensor built-in liquid crystal panel 301 (step S301).

そして、第1及び第2の位置のいずれも特定可能である限り(ステップS302NO)、再び、上記のステップS301に戻る。   Then, as long as both the first and second positions can be specified (NO in step S302), the process returns to step S301 again.

一方、第1または第2の位置が特定不可の場合においては(ステップS302YES)、第1の位置が特定不可であれば(ステップS303第1の位置)、配置部15は、入力パッド300Cのセンサ内蔵液晶パネル301上において仮想マウスである指位置画像30をそのまま待機させる(ステップS304)。そして、再び、判定部13は、特定部12による特定結果に基づいて、入力パッド300Cのセンサ内蔵液晶パネル301上における第1の位置を特定し(ステップS305)、再び、上記のステップS206に戻る。   On the other hand, when the first position or the second position cannot be specified (YES in step S302), if the first position cannot be specified (step S303, the first position), the placement unit 15 detects the sensor of the input pad 300C. On the built-in liquid crystal panel 301, the finger position image 30, which is a virtual mouse, is kept on standby (step S304). Then, again, the determination unit 13 specifies the first position of the input pad 300C on the sensor built-in liquid crystal panel 301 based on the specification result by the specifying unit 12 (step S305), and returns to step S206 again. .

一方、第2の位置が特定不可であれば(ステップS303第2の位置)、決定部14は、自身が決定した指示内容の実行の停止を図るべく、表示制御部16に表示データ生成の停止を指示する(ステップS306)。そして、再び、上記のステップS201に戻ることになる。   On the other hand, if the second position cannot be specified (second position in step S303), the determination unit 14 stops display data generation in the display control unit 16 in order to stop execution of the instruction content determined by itself. Is instructed (step S306). And it will return to said step S201 again.

(プログラム、コンピュータ読み取り可能な記録媒体)
また、データ表示/センサ装置100の各ブロック、特に主制御部800は、ハードウェアロジックによって構成してもよいし、次のようにコンピュータを用いてソフトウェアによって実現してもよい。
(Program, computer-readable recording medium)
Further, each block of the data display / sensor device 100, particularly the main control unit 800, may be configured by hardware logic, or may be realized by software using a computer as follows.

すなわち、主制御部800は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラム及び各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである主制御部800の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記主制御部800に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   That is, the main control unit 800 includes a CPU (central processing unit) that executes instructions of a control program for realizing each function, a ROM (read only memory) that stores the program, and a RAM (random access memory) that expands the program. And a storage device (recording medium) such as a memory for storing the program and various data. An object of the present invention is to provide a recording medium on which a program code (execution format program, intermediate code program, source program) of a control program of the main control unit 800, which is software that realizes the functions described above, is recorded so as to be readable by a computer. This can also be achieved by supplying to the main control unit 800 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、主制御部800を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   The main control unit 800 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Also, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

本発明は、様々な電子機器の指示入力装置として適用することが可能である。特に、携帯型の電子機器の入力装置として適用した場合には、片手で従来のマウスと同様の入力操作を行なうことができるので、携帯電話機、PDA(Personal Digital Assistance)、携帯型ゲーム機等に好適に適用できる。   The present invention can be applied as an instruction input device for various electronic devices. In particular, when it is applied as an input device for a portable electronic device, the same input operation as a conventional mouse can be performed with one hand, so that it can be applied to a mobile phone, a PDA (Personal Digital Assistance), a portable game machine, etc. It can be suitably applied.

本発明の一実施形態に係るデータ表示/センサ装置が備える主制御部及び記憶部の構成を示すブロック図である。It is a block diagram which shows the structure of the main control part and memory | storage part with which the data display / sensor apparatus which concerns on one Embodiment of this invention is provided. 本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルの断面を模式的に示す図である。It is a figure which shows typically the cross section of the liquid crystal panel with a built-in sensor with which the data display / sensor apparatus which concerns on one Embodiment of this invention is provided. 図3(a)は、本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルにて反射像を検知することにより、利用者がタッチした位置を検出する様子を示す模式図である。図3(b)は、本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルにて影像を検知することにより、利用者がタッチした位置を検出する様子を示す模式図である。FIG. 3A is a schematic diagram showing a state in which a position touched by a user is detected by detecting a reflected image on a sensor-embedded liquid crystal panel included in the data display / sensor device according to the embodiment of the present invention. It is. FIG. 3B is a schematic diagram illustrating a state in which a position touched by a user is detected by detecting a shadow image with a sensor built-in liquid crystal panel included in the data display / sensor device according to the embodiment of the present invention. is there. 本発明の一実施形態に係るデータ表示/センサ装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置で用いられるコマンドのフレーム構造の一例を模式的に示す図である。It is a figure which shows typically an example of the frame structure of the command used with the data display / sensor apparatus which concerns on one Embodiment of this invention. 図5に示したコマンドに含まれる各フィールドに指定可能な値の一例、及び、その概要を説明する図である。It is a figure explaining an example of the value which can be specified to each field contained in the command shown in FIG. 5, and its outline. 図7(a)は、本発明の一実施形態に係るデータ表示/センサ装置にて、対象物がセンサ内蔵液晶パネル上に置かれていないときに、センサ内蔵液晶パネル全体をスキャンした結果として得られる画像データである。図7(b)は、本発明の一実施形態に係るデータ表示/センサ装置にて、利用者が指でセンサ内蔵液晶パネルをタッチしているときに、スキャンした結果として得られる画像データである。FIG. 7A is a result of scanning the entire sensor-equipped liquid crystal panel when the object is not placed on the sensor-equipped liquid crystal panel in the data display / sensor device according to the embodiment of the present invention. Image data. FIG. 7B shows image data obtained as a result of scanning when the user touches the sensor-equipped liquid crystal panel with a finger in the data display / sensor device according to the embodiment of the present invention. . 本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルの構成及びその周辺回路の構成を示すブロック図である。It is a block diagram which shows the structure of the liquid crystal panel with a sensor with which the data display / sensor apparatus which concerns on one Embodiment of this invention is provided, and the structure of its peripheral circuit. 本発明の一実施形態に係るデータ表示/センサ装置を備えるノート型パーソナルコンピュータの外観図である。1 is an external view of a notebook personal computer including a data display / sensor device according to an embodiment of the present invention. 図9に示した入力パッドの周辺部の拡大図である。FIG. 10 is an enlarged view of a peripheral portion of the input pad shown in FIG. 9. 利用者の指が指位置画像に実際にタッチしているときの様子を示す図である。It is a figure which shows a mode when a user's finger | toe is actually touching the finger position image. 利用者の第1の指による入力パッドの操作に応じて行なわれる処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process performed according to operation of the input pad by a user's 1st finger | toe. 利用者の第1、第2及び第3の指による入力パッドの操作に応じて行われる処理の手順を示すフローチャートである(その1)。It is a flowchart which shows the procedure of the process performed according to operation of the input pad by a user's 1st, 2nd and 3rd finger | toe (the 1). 利用者の第1、第2及び第3の指による入力パッドの操作に応じて行われる処理の手順を示すフローチャートである(その2)。It is a flowchart which shows the procedure of the process performed according to operation of the input pad by a user's 1st, 2nd and 3rd finger | toe (the 2).

符号の説明Explanation of symbols

11 データ取得部
12 特定部(特定手段)
13 判定部(判定手段)
14 決定部(決定手段)
15 配置部(配置手段)
16 表示制御部(表示制御手段)
21 座標情報記憶部
22 判定条件記憶部
23 判定結果記憶部
24 指示内容記憶部
30 指位置画像
30a 中央画像(第1の画像)
30b 左側画像(第2の画像)
30c 右側画像(第1の画像)
41 第1の指(第1の像)
42 第2の指(第2の像)
43 第3の指(第2の像)
100 データ表示/センサ装置(指示入力装置)
101 ノート型パーソナルコンピュータ(携帯型電子機器)
300 表示/光センサ部
300C 入力パッド(面状部材)
300D 表示パネル(画像表示部材)
301 センサ内蔵液晶パネル
700 データ処理部
800 主制御部
901 記憶部
11 Data acquisition unit 12 Identification unit (identification means)
13 Determination part (determination means)
14. Determination part (determination means)
15 Arrangement part (arrangement means)
16 Display control unit (display control means)
21 Coordinate information storage unit 22 Judgment condition storage unit 23 Judgment result storage unit 24 Instruction content storage unit 30 Finger position image 30a Center image (first image)
30b Left image (second image)
30c Right image (first image)
41 First finger (first image)
42 Second finger (second image)
43 Third finger (second image)
100 Data display / sensor device (instruction input device)
101 Notebook personal computer (portable electronic device)
300 Display / light sensor unit 300C Input pad (planar member)
300D display panel (image display member)
301 Liquid crystal panel with built-in sensor 700 Data processing unit 800 Main control unit 901 Storage unit

Claims (10)

画像を表示するとともに、近傍の像を検知する面状部材と、
前記面状部材により検知された像に基づいて、当該像の前記面状部材上での位置を表わす座標を特定する特定手段と、
前記面状部材上の互いに異なる位置で、第1の像と第2の像とが、この順で連続して検知されたときに、前記特定手段により特定された第1及び第2の像の座標を比較することで、前記第1及び第2の像の前記面状部材上での位置関係を判定する判定手段と、
前記判定手段により判定された位置関係に応じた指示内容を決定する決定手段と
を備えていることを特徴とする指示入力装置。
A planar member for displaying an image and detecting a nearby image;
A specifying means for specifying coordinates representing a position of the image on the planar member based on the image detected by the planar member;
When the first image and the second image are successively detected in this order at different positions on the planar member, the first and second images specified by the specifying means are detected. Determining means for determining a positional relationship of the first and second images on the planar member by comparing coordinates;
An instruction input device comprising: a determination unit that determines instruction content according to the positional relationship determined by the determination unit.
前記第1の像の座標が特定されたときに、前記第1の像の座標に基づいて、前記第1の像の前記面状部材上での位置に表示される第1の画像と、前記第1の像と所定の位置関係にある前記第2の像の前記面状部材上での位置に表示される第2の画像と、を前記面状部材上に配置する配置手段をさらに備えていることを特徴とする請求項1に記載の指示入力装置。   A first image that is displayed at a position on the planar member of the first image based on the coordinates of the first image when the coordinates of the first image are specified; Arrangement means for arranging, on the planar member, a second image displayed at a position on the planar member of the second image having a predetermined positional relationship with the first image. The instruction input device according to claim 1, wherein: 前記配置手段は、前記第1の像が前記面状部材上で移動したときに、前記第1の像の座標変化に従って前記第1及び第2の画像を前記面状部材上で移動させることを特徴とする請求項2に記載の指示入力装置。   The arrangement means moves the first and second images on the planar member according to a change in coordinates of the first image when the first image moves on the planar member. The instruction input device according to claim 2, wherein: 前記第2の像は、前記面状部材上での前記第1の像の座標を含む直線の左側の領域で検知されるべき左側検知像と、前記面状部材上での前記直線の右側の領域で検知されるべき右側検知像と、を含んでおり、
前記第2の画像は、前記左側検知像の前記面状部材上での位置に表示される左側画像と、前記右側検知像の前記面状部材上での位置に表示される右側画像と、を含んでいることを特徴とする請求項2または3に記載の指示入力装置。
The second image includes a left detection image to be detected in a region on the left side of the straight line including the coordinates of the first image on the planar member, and a right side of the straight line on the planar member. Right side detection image to be detected in the area,
The second image includes a left side image displayed at a position on the planar member of the left side detection image, and a right side image displayed at a position on the planar member of the right side detection image. The instruction input device according to claim 2, comprising: an instruction input device.
前記決定手段により決定される指示内容に応じた画像表示を行なうための表示データを生成する表示制御手段と、
前記表示制御手段により生成される表示データに基づく画像を表示する画像表示部材と
をさらに備えていることを特徴とする請求項1〜4のいずれか1項に記載の指示入力装置。
Display control means for generating display data for performing image display according to the instruction content determined by the determination means;
The instruction input device according to claim 1, further comprising an image display member that displays an image based on display data generated by the display control unit.
前記決定手段により決定される指示内容に応じた画像表示を行なうための表示データを生成する表示制御手段をさらに備え、
前記面状部材は、前記表示制御手段により生成される表示データに基づく画像を表示することを特徴とする請求項1〜4のいずれか1項に記載の指示入力装置。
Display control means for generating display data for performing image display according to the instruction content determined by the determination means;
The instruction input device according to claim 1, wherein the planar member displays an image based on display data generated by the display control unit.
画像を表示するとともに、近傍の像を検知する面状部材を用いた指示入力方法であって、
前記面状部材により検知された像に基づいて、当該像の前記面状部材上での位置を表わす座標を特定する特定ステップと、
前記面状部材上の互いに異なる位置で、第1の像と第2の像とが、この順で連続して検知されたときに、前記特定ステップにて特定された第1及び第2の像の座標を比較することで、前記第1及び第2の像の前記面状部材上での位置関係を判定する判定ステップと、
前記判定ステップにて判定された位置関係に応じた指示内容を決定する決定ステップと
を含んでいることを特徴とする指示入力方法。
An instruction input method using a planar member that displays an image and detects a nearby image,
A specifying step for specifying coordinates representing a position of the image on the planar member based on the image detected by the planar member;
The first and second images specified in the specifying step when the first image and the second image are successively detected in this order at different positions on the planar member. A determination step of determining a positional relationship of the first and second images on the planar member by comparing the coordinates of
An instruction input method comprising: a determination step for determining instruction contents according to the positional relationship determined in the determination step.
請求項1〜6のいずれか1項に記載の指示入力装置を備えていることを特徴とする携帯型電子機器。   A portable electronic device comprising the instruction input device according to claim 1. 請求項1〜6のいずれか1項に記載の指示入力装置を動作させるプログラムであって、コンピュータを上記の各手段として機能させるための指示入力処理プログラム。   A program for operating the instruction input device according to any one of claims 1 to 6, wherein the instruction input processing program causes a computer to function as each of the above means. 請求項9に記載の指示入力処理プログラムを記録している、コンピュータ読み取り可能な記録媒体。   A computer-readable recording medium in which the instruction input processing program according to claim 9 is recorded.
JP2008287965A 2008-11-10 2008-11-10 Portable electronic device, instruction input device, instruction input method, instruction input processing program, and computer-readable recording medium Expired - Fee Related JP5274987B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008287965A JP5274987B2 (en) 2008-11-10 2008-11-10 Portable electronic device, instruction input device, instruction input method, instruction input processing program, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008287965A JP5274987B2 (en) 2008-11-10 2008-11-10 Portable electronic device, instruction input device, instruction input method, instruction input processing program, and computer-readable recording medium

Publications (2)

Publication Number Publication Date
JP2010113675A true JP2010113675A (en) 2010-05-20
JP5274987B2 JP5274987B2 (en) 2013-08-28

Family

ID=42302162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008287965A Expired - Fee Related JP5274987B2 (en) 2008-11-10 2008-11-10 Portable electronic device, instruction input device, instruction input method, instruction input processing program, and computer-readable recording medium

Country Status (1)

Country Link
JP (1) JP5274987B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02127720A (en) * 1988-11-08 1990-05-16 Mitsubishi Electric Corp Input device simulation system for information processor
JPH0793094A (en) * 1993-09-24 1995-04-07 Matsushita Electric Ind Co Ltd Coordinate input device
JP2008027120A (en) * 2006-07-20 2008-02-07 Seiko Epson Corp Mouse pad, program for mouse pad, recording medium, and mouse pad control method
JP2008097172A (en) * 2006-10-10 2008-04-24 Sony Corp Display and display method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02127720A (en) * 1988-11-08 1990-05-16 Mitsubishi Electric Corp Input device simulation system for information processor
JPH0793094A (en) * 1993-09-24 1995-04-07 Matsushita Electric Ind Co Ltd Coordinate input device
JP2008027120A (en) * 2006-07-20 2008-02-07 Seiko Epson Corp Mouse pad, program for mouse pad, recording medium, and mouse pad control method
JP2008097172A (en) * 2006-10-10 2008-04-24 Sony Corp Display and display method

Also Published As

Publication number Publication date
JP5274987B2 (en) 2013-08-28

Similar Documents

Publication Publication Date Title
JP5367339B2 (en) MENU DISPLAY DEVICE, MENU DISPLAY DEVICE CONTROL METHOD, AND MENU DISPLAY PROGRAM
JP2010108081A (en) Menu display device, method of controlling the menu display device, and menu display program
JP2010146506A (en) Input device, method for controlling input device, program for controlling input device, computer-readable recording medium, and information terminal device
JP2010140300A (en) Display, control method, control program and recording medium
JP5095574B2 (en) Image display / image detection apparatus, image display method, image display program, and recording medium recording the program
JP2010186442A (en) Input device and input control method
JP2010122972A (en) Image display/detection device, selection method, and program
JP2010108303A (en) Image detection/display device
JP5306780B2 (en) Input device
JP5185086B2 (en) Display device, display device control method, display device control program, and computer-readable recording medium storing the program
JP2010204945A (en) Input device and input method
JP5254753B2 (en) Numerical input device, numerical input method, numerical input program, and computer-readable recording medium
JP2010109467A (en) Image display/image detection apparatus
JP2010122383A (en) Display apparatus
JP2010118018A (en) Position identifying device, position identification program, computer-readable storage medium, and position identification method
JP5567776B2 (en) Color detection / color output device, color detection / color output program, computer-readable recording medium, and color detection / color output method
JP2010117841A (en) Image detection device, recognition method of input position and program
JP2010122444A (en) Map display apparatus, method for controlling map display apparatus, program for controlling map display apparatus, and computer readable recording medium
JP5274987B2 (en) Portable electronic device, instruction input device, instruction input method, instruction input processing program, and computer-readable recording medium
JP2010109947A (en) Processing execution command device, electronic equipment, and method of controlling processing execution command device
JP2010160689A (en) Input device and method of controlling the same
JP2010108446A (en) Information processor, control method of information processor, and information processing program
JP2010118016A (en) Input device, input method, input program, and computer-readable recording medium
JP2010092272A (en) Image display/image detection device, auxiliary image display method, and program
JP2010146394A (en) Image detector, control method, control program, and computer-readable recording medium recording the control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130515

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees