JP2010092272A - Image display/image detection device, auxiliary image display method, and program - Google Patents

Image display/image detection device, auxiliary image display method, and program Download PDF

Info

Publication number
JP2010092272A
JP2010092272A JP2008261693A JP2008261693A JP2010092272A JP 2010092272 A JP2010092272 A JP 2010092272A JP 2008261693 A JP2008261693 A JP 2008261693A JP 2008261693 A JP2008261693 A JP 2008261693A JP 2010092272 A JP2010092272 A JP 2010092272A
Authority
JP
Japan
Prior art keywords
image
display
data
sensor
planar member
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008261693A
Other languages
Japanese (ja)
Inventor
Kazumi Sawai
和美 澤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2008261693A priority Critical patent/JP2010092272A/en
Publication of JP2010092272A publication Critical patent/JP2010092272A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To smooth a dialogue between information equipment and a user. <P>SOLUTION: An image display/image detection device is provided with: a display/optical sensor 300 for displaying an image and detecting a nearby image; a specified coordinate detection part 12 for detecting a specified coordinate indicating a point ahead where an object on the display/optical sensor part 300 approaches on the basis of an image of the object detected by the display/optical sensor part 300; and an auxiliary image display control unit 13 which identifies an area on the display/optical sensor part 300 covered by the object on the basis of the image of the object detected by the display/optical sensor part 300 and displays an auxiliary image associated with the specified coordinate outside the identified area. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像表示および対象物の像の検知を行なうことができる画像表示/像検知装置ならびに該装置における補助画像の表示方法に関するものである。また、そのような画像表示/像検知装置を動作させるためのプログラム、および、そのようなプログラムを記録した記録媒体に関する。   The present invention relates to an image display / image detection apparatus capable of displaying an image and detecting an image of an object, and an auxiliary image display method in the apparatus. The present invention also relates to a program for operating such an image display / image detection apparatus, and a recording medium on which such a program is recorded.

情報化社会の発展に伴い、様々な場面において情報機器が利用される。そのため、情報機器とそのユーザとの対話を円滑化する技術は非常に重要である。例えば、特許文献1〜4には、タッチパネルを利用した、情報機器とユーザとの間の対話を円滑化する技術が開示されている。
特開平8−212005号公報(平成8年8月20日公開) 特開平10−269022号公報(平成10年10月9日公開) 特開2003−5912号公報(平成15年1月10日公開) 特開2004−302958号公報(平成16年10月28日公開)
With the development of the information society, information equipment is used in various situations. Therefore, a technique for facilitating a dialogue between an information device and its user is very important. For example, Patent Documents 1 to 4 disclose techniques for facilitating a dialogue between an information device and a user using a touch panel.
Japanese Patent Laid-Open No. 8-21205 (published on August 20, 1996) Japanese Patent Laid-Open No. 10-269022 (released on October 9, 1998) JP 2003-5912 A (published on January 10, 2003) JP 2004-302958 A (released on October 28, 2004)

しかしながら、特許文献1〜4に記載の技術では、情報機器とユーザとの間の対話は十分には円滑ではなく、さらに該対話を円滑化する技術が求められている。   However, in the technologies described in Patent Documents 1 to 4, the dialogue between the information device and the user is not sufficiently smooth, and a technology for further facilitating the dialogue is required.

本発明は、上記課題に鑑みてなされたものであり、情報機器とユーザとの間の対話を円滑化する技術を提供することを主たる目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides a technique for facilitating a dialogue between an information device and a user.

本発明に係る画像表示/像検知装置は、上記課題を解決するために、画像を表示するとともに、近傍の像を検知する面状部材と、該面状部材が検知した対象物の像に基づいて、該面状部材上の、該対象物が接近する先の点を示す指示座標を検出する指示座標検出手段と、該対象物により覆い隠された該面状部材上の領域を、該面状部材が検知した対象物の像に基づいて特定するとともに、特定した領域外に該指示座標に関連付けられた補助画像を表示させる補助画像表示制御手段と、を備えていることを特徴としている。   In order to solve the above problems, an image display / image detection apparatus according to the present invention displays an image, and based on a planar member that detects a nearby image, and an image of an object detected by the planar member. A designated coordinate detecting means for detecting designated coordinates indicating a point to which the object approaches on the planar member, and an area on the planar member that is covered by the object. And an auxiliary image display control means for specifying the auxiliary image associated with the designated coordinates outside the specified area, while specifying based on the image of the object detected by the shape member.

上記の構成によれば、上記面状部材上の点を上記対象物が指示したとき、本発明に係る画像表示/像検知装置は、上記面状部材上の該対象物により覆い隠された領域外に、該点の座標に関連付けられた補助画像を表示することができる。これにより、上記画像表示/像検知装置は、上記対象物に覆い隠されてしまい、ユーザが見え難くなってしまっている、該対象物が指示する先についての情報を、ユーザに首尾よく提示することができる。よって、上記画像表示/像検知装置とユーザとの間の対話を円滑化することができる。   According to the above configuration, when the object indicates a point on the planar member, the image display / image detection device according to the present invention is an area covered by the object on the planar member. In addition, an auxiliary image associated with the coordinates of the point can be displayed. As a result, the image display / image detection apparatus successfully presents the user with information on the destination indicated by the object that is obscured by the object and has become difficult for the user to see. be able to. Therefore, the interaction between the image display / image detection apparatus and the user can be facilitated.

本発明に係る画像表示/像検知装置では、上記面状部材に、複数の被指示画像を表示させる被指示画像表示手段を更に備えており、上記補助画像表示制御手段は、該複数の被指示画像のうち上記指示座標が示す点を包含する被指示画像に関連付けられた画像を、上記補助画像として上記面状部材に表示することが好ましい。   In the image display / image detection apparatus according to the present invention, the planar member further includes a commanded image display unit that displays a plurality of commanded images, and the auxiliary image display control unit includes the plurality of commanded images. It is preferable that an image associated with the pointed image including the point indicated by the pointed coordinates in the image is displayed on the planar member as the auxiliary image.

上記の構成によれば、任意の上記被指示画像内の点を上記対象物が指示したとき、本発明に係る画像表示/像検知装置は、該被指示画像に関連付けられた画像を上記補助画像として表示することができる。これにより、上記画像表示/像検知装置は、上記対象物が何れの上記被指示画像を指示しているのかを、ユーザに首尾よく提示することができる。よって、上記画像表示/像検知装置とユーザとの間の対話を円滑化することができる。   According to the above configuration, when the object indicates an arbitrary point in the specified image, the image display / image detection apparatus according to the present invention displays an image associated with the specified image as the auxiliary image. Can be displayed as As a result, the image display / image detection apparatus can successfully present to the user which of the indicated images the object indicates. Therefore, the interaction between the image display / image detection apparatus and the user can be facilitated.

本発明に係る画像表示/像検知装置では、上記複数の被指示画像が、それぞれ文字、数字、または記号を示しており、上記面状部材上にスクリーンキーボードを構成していてもよい。   In the image display / image detection apparatus according to the present invention, each of the plurality of designated images may indicate a character, a number, or a symbol, and a screen keyboard may be formed on the planar member.

上記の構成によれば、一般に各ボタン(被指示画像)が小さく、対象物により任意のボタンを押した際に該任意のボタンが該対象物によって覆い隠されてしまうことが多いスクリーンキーボードにおいて、ユーザが何れのボタンを押しているのかを、ユーザに首尾よく提示することができる。よって、上記画像表示/像検知装置とユーザとの間の対話を円滑化することができる。   According to the above configuration, in each of the screen keyboards, each button (instructed image) is generally small, and the arbitrary button is often obscured by the object when the arbitrary button is pressed by the object. It is possible to successfully present to the user which button the user is pressing. Therefore, the interaction between the image display / image detection apparatus and the user can be facilitated.

本発明に係る画像表示/像検知装置では、上記面状部材が、該面状部材上の各位置における受光量を検出するフォトダイオード群を備えており、該フォトダイオード群が検出した受光量の変化に基づいて上記近傍の像を検知してもよい。   In the image display / image detection apparatus according to the present invention, the planar member includes a photodiode group that detects the amount of light received at each position on the planar member, and the amount of received light detected by the photodiode group. An image in the vicinity may be detected based on the change.

上記の構成によれば、上記面状部材が首尾よく上記近傍の像を検知することができる。   According to said structure, the said planar member can detect the image of the said vicinity successfully.

本発明に係る画像表示/像検知装置では、上記補助画像表示制御手段が、上記対象物が上記面状部材に接触する前に、上記補助画像を表示させてもよい。   In the image display / image detection apparatus according to the present invention, the auxiliary image display control means may display the auxiliary image before the object contacts the planar member.

上記の構成によれば、上記対象物が指示する先についての情報を、いち早くユーザに提示することができる。よって、上記画像表示/像検知装置とユーザとの間の対話を円滑化することができる。   According to said structure, the information about the destination which the said target object points can be shown to a user immediately. Therefore, the interaction between the image display / image detection apparatus and the user can be facilitated.

本発明に係る補助画像表示方法は、画像を表示するとともに近傍の像を検知する面状部材を備えた画像表示/像検知装置が、該面状部材に補助画像を表示する補助画像表示方法であって、該面状部材が検知した対象物の像に基づいて、該面状部材上の、該対象物が接近する先の点を示す指示座標を検出する指示座標検出工程と、該対象物により覆い隠された該面状部材上の領域を、該面状部材が検知した対象物の像に基づいて特定するとともに、特定した領域外に該指示座標に関連付けられた補助画像を表示させる補助画像表示工程と、を包含することを特徴としている。   An auxiliary image display method according to the present invention is an auxiliary image display method in which an image display / image detection apparatus including a planar member that displays an image and detects a nearby image displays an auxiliary image on the planar member. An instruction coordinate detecting step for detecting an instruction coordinate indicating a point on the planar member to which the object approaches, based on an image of the object detected by the planar member; and the object The area on the planar member covered by the area is identified based on the image of the object detected by the planar member, and the auxiliary image associated with the designated coordinates is displayed outside the identified area. And an image display step.

上記の構成によれば、本発明に係る画像表示/像検知装置と同様の作用効果を奏する。   According to said structure, there exists an effect similar to the image display / image detection apparatus which concerns on this invention.

また、本発明に係る画像表示/像検知装置を動作させるためのプログラムであって、コンピュータを上記の各手段として駆動させることを特徴とするプログラムも本発明の範疇に含まれる。   Further, a program for operating the image display / image detection apparatus according to the present invention, which is characterized in that the computer is driven as each of the above means, is also included in the scope of the present invention.

本発明によれば、画像表示/像検知装置は、画像を表示するとともに、近傍の像を検知する該面状部材上の点を対象物が指示したとき、該面状部材上の該対象物により覆い隠された領域外に、該点の座標に関連付けられた補助画像を表示することができる。これにより、上記画像表示/像検知装置は、上記対象物に覆い隠されてしまい、ユーザが見え難くなってしまっている、該対象物が指示する先についての情報を、ユーザに首尾よく提示することができる。よって、上記画像表示/像検知装置とユーザとの間の対話を円滑化することができる。   According to the present invention, the image display / image detection apparatus displays an image, and when the object indicates a point on the planar member that detects a nearby image, the object on the planar member is displayed. Thus, an auxiliary image associated with the coordinates of the point can be displayed outside the area covered by. As a result, the image display / image detection apparatus successfully presents the user with information on the destination indicated by the object that is obscured by the object and has become difficult for the user to see. be able to. Therefore, the interaction between the image display / image detection apparatus and the user can be facilitated.

図1は、本発明の一実施形態に係るデータ表示/センサ装置(画像表示/像検知装置)100の外観を模式的に示す図である。図1に示すように、データ表示/センサ装置100は筐体の一面にセンサ内蔵液晶パネル(面状部材)301が配設されており、例えば、両手の親指(対象物)64によって操作される装置である。   FIG. 1 is a diagram schematically showing an appearance of a data display / sensor device (image display / image detection device) 100 according to an embodiment of the present invention. As shown in FIG. 1, the data display / sensor device 100 is provided with a sensor built-in liquid crystal panel (planar member) 301 on one surface of a housing, and is operated by, for example, thumbs (objects) 64 of both hands. Device.

図2は、データ表示/センサ装置100の動作の一例を模式的に示す図である。一例において、図2(a)に示すように、センサ内蔵液晶パネル301には、複数のボタン(被指示画像)350から構成されるスクリーンキーボード351が表示されている。   FIG. 2 is a diagram schematically illustrating an example of the operation of the data display / sensor device 100. In one example, as shown in FIG. 2A, a screen keyboard 351 including a plurality of buttons (instructed images) 350 is displayed on the sensor built-in liquid crystal panel 301.

そして、図2(b)に示すように、指64が特定のボタン350a(図2(b)の場合は「S」を示すボタン)を指示したとき、センサ内蔵液晶パネル301上に、指64がいずれのボタン350を指示しているのかを示す、ボタン350に関連付けられた補助画像352が表示される。ユーザは、補助画像352を参照することによって、指64が指示する位置がどのボタン350上にあるかを容易に知ることができ、スクリーンキーボード351を介した入力を円滑に行なうことができる。   Then, as shown in FIG. 2B, when the finger 64 indicates a specific button 350a (in the case of FIG. 2B, a button indicating “S”), the finger 64 is placed on the sensor built-in liquid crystal panel 301. An auxiliary image 352 associated with the button 350 indicating which button 350 is indicated is displayed. By referring to the auxiliary image 352, the user can easily know which button 350 the position indicated by the finger 64 is on, and can smoothly perform input via the screen keyboard 351.

補助画像352は特に限定されず、指64が指示するボタン350aに関連付けられたものであればよい。例えば、ボタン350aの拡大画像等、ボタン350aに類似する画像とすることができる。また、補助画像352には、ボタン350aの表示位置を先端とする引き出し部353を設けてもよく、これによりユーザは、補助画像352がボタン350aに関連付けられていることを容易に認識することができる。   The auxiliary image 352 is not particularly limited as long as it is associated with the button 350a indicated by the finger 64. For example, it can be an image similar to the button 350a, such as an enlarged image of the button 350a. In addition, the auxiliary image 352 may be provided with a drawer portion 353 having the display position of the button 350a as a tip, so that the user can easily recognize that the auxiliary image 352 is associated with the button 350a. it can.

本実施形態において、補助画像352は、センサ内蔵液晶パネル301上の、指64が指示した位置の近傍であって、指64が覆い隠している領域外に表示される。指64が覆い隠している領域外に補助画像352を表示することにより、ユーザは補助画像352を確実に参照することができる。このことは、詳しくは後述するが、データ表示/センサ装置100が、指64の像を検知して、指64が覆い隠している領域を特定することにより実現される。また、ユーザの目線は通常、指64によって指示する先にある。従って、補助画像352を指64が指示した位置の近傍に表示することにより、ユーザに補助画像352を容易に認識させることができる。   In the present embodiment, the auxiliary image 352 is displayed on the sensor built-in liquid crystal panel 301 in the vicinity of the position indicated by the finger 64 and outside the area covered by the finger 64. By displaying the auxiliary image 352 outside the area covered by the finger 64, the user can reliably refer to the auxiliary image 352. As will be described in detail later, this is realized by the data display / sensor device 100 detecting an image of the finger 64 and specifying an area covered by the finger 64. Also, the user's line of sight is usually at the point indicated by the finger 64. Therefore, by displaying the auxiliary image 352 in the vicinity of the position indicated by the finger 64, the user can easily recognize the auxiliary image 352.

なお、補助画像352を表示するタイミングは、例えば、ユーザによるボタン350aの選択がなされていない間としてもよい。例えば、指64を一旦センサ内蔵液晶パネル301に接触させた後、離す動作(アップ動作)によってボタン350aの選択がなされる場合、指64がセンサ内蔵液晶パネル301に接触した後、アップ動作がされるまで補助画像352を表示させてもよい。   Note that the timing for displaying the auxiliary image 352 may be, for example, when the user does not select the button 350a. For example, when the button 350a is selected by the operation of releasing the finger 64 once after touching the sensor built-in liquid crystal panel 301 (up operation), the up operation is performed after the finger 64 touches the sensor built-in liquid crystal panel 301. The auxiliary image 352 may be displayed until

また、例えば、指64を一旦センサ内蔵液晶パネル301に接触させる動作(タッチ動作)によってボタン350aの選択がなされる場合、指64がセンサ内蔵液晶パネル301に接触する前に、補助画像352を表示させてもよい。この構成では、選択され得るボタン350aの情報を示す補助画像352が、指64がセンサ内蔵液晶パネル301に接触する前に表示されるため、ユーザはいち早く該情報を得ることができ、上記入力をさらに円滑に行うことができる。   Further, for example, when the button 350a is selected by an operation (touch operation) in which the finger 64 is once brought into contact with the sensor built-in liquid crystal panel 301, the auxiliary image 352 is displayed before the finger 64 comes into contact with the sensor built-in liquid crystal panel 301. You may let them. In this configuration, since the auxiliary image 352 indicating the information of the button 350a that can be selected is displayed before the finger 64 touches the sensor built-in liquid crystal panel 301, the user can quickly obtain the information, and the above input is performed. Furthermore, it can be performed smoothly.

なお、また、ユーザは、指64の他にも、ペン等を用いてセンサ内蔵液晶パネル301上を指示してもよい。   In addition to the finger 64, the user may instruct on the sensor built-in liquid crystal panel 301 using a pen or the like.

以下、上述した機能を実現する各部材の構成について詳細に説明する。まず、上記データ表示/センサ装置100が備えるセンサ内蔵液晶パネル301の概要について説明する。   Hereinafter, the structure of each member which implement | achieves the function mentioned above is demonstrated in detail. First, an outline of the sensor built-in liquid crystal panel 301 included in the data display / sensor device 100 will be described.

(センサ内蔵液晶パネルの概要)
上記データ表示/センサ装置100が備えるセンサ内蔵液晶パネル301は、データの表示に加え、対象物の画像検出が可能な液晶パネルである。ここで、対象物の画像検出とは、例えば、ユーザが指やペンなどでポインティング(タッチ)した位置の検出や、印刷物等の画像の読み取り(スキャン)である。なお、表示に用いるデバイスは、液晶パネルに限定されるものではなく、有機EL(Electro Luminescence)パネルなどであってもよい。
(Outline of LCD panel with built-in sensor)
The sensor built-in liquid crystal panel 301 provided in the data display / sensor device 100 is a liquid crystal panel capable of detecting an image of an object in addition to displaying data. Here, the image detection of the object is, for example, detection of a position pointed (touched) by the user with a finger or a pen, or reading (scanning) of an image of a printed material. The device used for display is not limited to a liquid crystal panel, and may be an organic EL (Electro Luminescence) panel or the like.

図3を参照しながら、センサ内蔵液晶パネル301の構造について説明する。図3は、センサ内蔵液晶パネル301の断面を模式的に示す図である。なお、ここで説明するセンサ内蔵液晶パネル301は一例であり、表示面と読取面とが共用されているものであれば、任意の構造のものが利用できる。   The structure of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 3 is a diagram schematically showing a cross section of the sensor built-in liquid crystal panel 301. The sensor built-in liquid crystal panel 301 described here is an example, and any structure can be used as long as the display surface and the reading surface are shared.

図示のとおり、センサ内蔵液晶パネル301は、背面側に配置されるアクティブマトリクス基板51Aと、表面側に配置される対向基板51Bとを備え、これら基板の間に液晶層52を挟持した構造を有している。アクティブマトリクス基板51Aには、画素電極56、データ信号線57、光センサ回路32(図示せず)、配向膜58、偏光板59などが設けられる。対向基板51Bには、カラーフィルタ53r(赤)、53g(緑)、53b(青)、遮光膜54、対向電極55、配向膜58、偏光板59などが設けられる。また、センサ内蔵液晶パネル301の背面には、バックライト307が設けられている。   As shown in the figure, the sensor built-in liquid crystal panel 301 includes an active matrix substrate 51A disposed on the back surface side and a counter substrate 51B disposed on the front surface side, and has a structure in which a liquid crystal layer 52 is sandwiched between these substrates. is doing. The active matrix substrate 51A is provided with a pixel electrode 56, a data signal line 57, an optical sensor circuit 32 (not shown), an alignment film 58, a polarizing plate 59, and the like. The counter substrate 51B is provided with color filters 53r (red), 53g (green), 53b (blue), a light shielding film 54, a counter electrode 55, an alignment film 58, a polarizing plate 59, and the like. In addition, a backlight 307 is provided on the back surface of the sensor built-in liquid crystal panel 301.

なお、光センサ回路32に含まれるフォトダイオード6は、青のカラーフィルタ53bを設けた画素電極56の近傍に設けられているが、この構成に限定されるものではない。赤のカラーフィルタ53rを設けた画素電極56の近傍に設けてもよいし、緑のカラーフィルタ53gを設けた画素電極56の近傍に設けてもよい。   The photodiode 6 included in the photosensor circuit 32 is provided in the vicinity of the pixel electrode 56 provided with the blue color filter 53b, but is not limited to this configuration. It may be provided in the vicinity of the pixel electrode 56 provided with the red color filter 53r, or may be provided in the vicinity of the pixel electrode 56 provided with the green color filter 53g.

次に、図4(a)および図4(b)を参照しながら、ユーザが、指やペンで、センサ内蔵液晶パネル301上をタッチした位置を検出する2種類の方法について説明する。   Next, with reference to FIGS. 4A and 4B, two types of methods for detecting the position where the user touches the sensor built-in liquid crystal panel 301 with a finger or a pen will be described.

図4(a)は、反射像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。バックライト307から光63が出射されると、フォトダイオード6を含む光センサ回路32は、指などの対象物64により反射された光63を検知する。これにより、対象物64の反射像を検知することができる。このように、センサ内蔵液晶パネル301は、反射像を検知することにより、タッチした位置を検出することができる。   FIG. 4A is a schematic diagram showing how the position touched by the user is detected by detecting the reflected image. When the light 63 is emitted from the backlight 307, the optical sensor circuit 32 including the photodiode 6 detects the light 63 reflected by the object 64 such as a finger. Thereby, the reflected image of the target object 64 can be detected. Thus, the sensor built-in liquid crystal panel 301 can detect the touched position by detecting the reflected image.

また、図4(b)は、影像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。図4(b)に示すように、フォトダイオード6を含む光センサ回路32は、対向基板51Bなどを透過した外光61を検知する。しかしながら、ペンなどの対象物62がある場合は、外光61の入射が妨げられるので、光センサ回路32が検知する光量が減る。これにより、対象物62の影像を検知することができる。このように、センサ内蔵液晶パネル301は、影像を検知することにより、タッチした位置を検出することもできる。   FIG. 4B is a schematic diagram showing a state in which a position touched by the user is detected by detecting a shadow image. As shown in FIG. 4B, the optical sensor circuit 32 including the photodiode 6 detects the external light 61 transmitted through the counter substrate 51B and the like. However, when there is an object 62 such as a pen, the incident of the external light 61 is hindered, so that the amount of light detected by the optical sensor circuit 32 is reduced. Thereby, a shadow image of the object 62 can be detected. Thus, the sensor built-in liquid crystal panel 301 can also detect a touched position by detecting a shadow image.

上述のように、フォトダイオード6は、バックライト307より出射された光の反射光(影像)を検知してもよいし、外光による影像を検知してもよい。また、上記2種類の検知方法を併用して、影像と反射像とを両方を同時に検知するようにしてもよい。   As described above, the photodiode 6 may detect reflected light (shadow image) of the light emitted from the backlight 307 or may detect a shadow image caused by external light. Further, the two types of detection methods may be used in combination to detect both a shadow image and a reflected image at the same time.

(データ表示/センサ装置の要部構成)
次に、図5を参照しながら、上記データ表示/センサ装置100の要部構成について説明する。図5は、データ表示/センサ装置100の要部構成を示すブロック図である。図示のように、データ表示/センサ装置100は、1または複数の表示/光センサ部300、回路制御部600、データ処理部700、主制御部800、記憶部901、一次記憶部902、操作部903、外部通信部907、音声出力部908、および音声入力部909を備えている。ここでは、データ表示/センサ装置100は、単一の表示/光センサ部300を備えているものとして説明するが、複数備えていてもかまわない。
(Data display / sensor configuration)
Next, the configuration of the main part of the data display / sensor device 100 will be described with reference to FIG. FIG. 5 is a block diagram showing a main configuration of the data display / sensor device 100. As illustrated, the data display / sensor device 100 includes one or more display / light sensor units 300, a circuit control unit 600, a data processing unit 700, a main control unit 800, a storage unit 901, a primary storage unit 902, and an operation unit. 903, an external communication unit 907, an audio output unit 908, and an audio input unit 909. Here, although the data display / sensor device 100 is described as including a single display / light sensor unit 300, a plurality of data display / sensor devices 100 may be included.

表示/光センサ部300は、いわゆる光センサ内蔵液晶表示装置である。表示/光センサ部300は、センサ内蔵液晶パネル301、バックライト307、それらを駆動するための周辺回路309を含んで構成される。   The display / light sensor unit 300 is a so-called liquid crystal display device with a built-in light sensor. The display / light sensor unit 300 includes a sensor built-in liquid crystal panel 301, a backlight 307, and a peripheral circuit 309 for driving them.

センサ内蔵液晶パネル301は、マトリクス状に配置された複数の画素回路31および光センサ回路32を含んで構成される。センサ内蔵液晶パネル301の詳細な構成については後述する。   The sensor built-in liquid crystal panel 301 includes a plurality of pixel circuits 31 and photosensor circuits 32 arranged in a matrix. The detailed configuration of the sensor built-in liquid crystal panel 301 will be described later.

周辺回路309は、液晶パネル駆動回路304、光センサ駆動回路305、信号変換回路306、バックライト駆動回路308を含む。   The peripheral circuit 309 includes a liquid crystal panel drive circuit 304, an optical sensor drive circuit 305, a signal conversion circuit 306, and a backlight drive circuit 308.

液晶パネル駆動回路304は、回路制御部600の表示制御部601からのタイミング制御信号(TC1)およびデータ信号(D)に従って、制御信号(G)およびデータ信号(S)を出力し、画素回路31を駆動する回路である。画素回路31の駆動方法の詳細については後述する。   The liquid crystal panel driving circuit 304 outputs a control signal (G) and a data signal (S) in accordance with the timing control signal (TC1) and the data signal (D) from the display control unit 601 of the circuit control unit 600, and the pixel circuit 31. It is a circuit which drives. Details of the driving method of the pixel circuit 31 will be described later.

光センサ駆動回路305は、回路制御部600のセンサ制御部602からのタイミング制御信号(TC2)に従って、信号線(R)に電圧を印加し、光センサ回路32を駆動する回路である。光センサ回路32の駆動方法の詳細については後述する。   The optical sensor driving circuit 305 is a circuit that drives the optical sensor circuit 32 by applying a voltage to the signal line (R) in accordance with a timing control signal (TC2) from the sensor control unit 602 of the circuit control unit 600. Details of the driving method of the optical sensor circuit 32 will be described later.

信号変換回路306は、光センサ回路32から出力されるセンサ出力信号(SS)をデジタル信号(DS)に変換し、該変換後の信号をセンサ制御部602に送信する回路である。   The signal conversion circuit 306 is a circuit that converts the sensor output signal (SS) output from the optical sensor circuit 32 into a digital signal (DS) and transmits the converted signal to the sensor control unit 602.

バックライト307は、複数の白色LED(Light Emitting Diode)を含んでおり、センサ内蔵液晶パネル301の背面に配置される。そして、バックライト駆動回路308から電源電圧が印加されると、バックライト307は点灯し、センサ内蔵液晶パネル301に光を照射する。なお、バックライト307は、白色LEDに限らず、他の色のLEDを含んでいてもよい。また、バックライト307は、LEDに代えて、例えば、冷陰極管(CCFL:Cold Cathode Fluorescent Lamp)を含むものであってもよい。   The backlight 307 includes a plurality of white LEDs (Light Emitting Diodes) and is disposed on the back surface of the sensor built-in liquid crystal panel 301. When a power supply voltage is applied from the backlight drive circuit 308, the backlight 307 is turned on and irradiates the sensor built-in liquid crystal panel 301 with light. Note that the backlight 307 is not limited to white LEDs, and may include LEDs of other colors. The backlight 307 may include, for example, a cold cathode fluorescent lamp (CCFL) instead of the LED.

バックライト駆動回路308は、回路制御部600のバックライト制御部603からの制御信号(BK)がハイレベルであるときは、バックライト307に電源電圧を印加し、逆に、バックライト制御部603からの制御信号がローレベルであるときは、バックライト307に電源電圧を印加しない。   The backlight driving circuit 308 applies a power supply voltage to the backlight 307 when the control signal (BK) from the backlight control unit 603 of the circuit control unit 600 is at a high level, and conversely, the backlight control unit 603. When the control signal from is at a low level, no power supply voltage is applied to the backlight 307.

次に、回路制御部600について説明する。回路制御部600は、表示/光センサ部300の周辺回路309を制御するデバイスドライバとしての機能を備えるものである。回路制御部600は、表示制御部601、センサ制御部602、バックライト制御部603、および表示データ記憶部604を備えている。   Next, the circuit control unit 600 will be described. The circuit control unit 600 has a function as a device driver that controls the peripheral circuit 309 of the display / light sensor unit 300. The circuit control unit 600 includes a display control unit 601, a sensor control unit 602, a backlight control unit 603, and a display data storage unit 604.

表示制御部601は、データ処理部700の表示データ処理部701から表示データを受信するとともに、表示データ処理部701からの指示に従って、表示/光センサ部300の液晶パネル駆動回路304に、タイミング制御信号(TC1)およびデータ信号(D)を送信し、上記受信した表示データをセンサ内蔵液晶パネル301に表示させる。   The display control unit 601 receives display data from the display data processing unit 701 of the data processing unit 700, and performs timing control on the liquid crystal panel driving circuit 304 of the display / light sensor unit 300 in accordance with an instruction from the display data processing unit 701. A signal (TC1) and a data signal (D) are transmitted, and the received display data is displayed on the sensor built-in liquid crystal panel 301.

なお、表示制御部601は、表示データ処理部701から受信した表示データを、表示データ記憶部604に一次記憶させる。そして、当該一次記憶させた表示データに基づいて、データ信号(D)を生成する。表示データ記憶部604は、例えば、VRAM(video random access memory)などである。   The display control unit 601 temporarily stores the display data received from the display data processing unit 701 in the display data storage unit 604. Then, a data signal (D) is generated based on the primary stored display data. The display data storage unit 604 is, for example, a video random access memory (VRAM).

センサ制御部602は、データ処理部700のセンサデータ処理部703からの指示に従って、表示/光センサ部300の光センサ駆動回路305に、タイミング制御信号(TC2)を送信し、センサ内蔵液晶パネル301にてスキャンを実行させる。   The sensor control unit 602 transmits a timing control signal (TC2) to the optical sensor driving circuit 305 of the display / optical sensor unit 300 in accordance with an instruction from the sensor data processing unit 703 of the data processing unit 700, and the sensor built-in liquid crystal panel 301. Run the scan with.

また、センサ制御部602は、信号変換回路306からデジタル信号(DS)を受信する。そして、センサ内蔵液晶パネル301に含まれる全ての光センサ回路32から出力されたセンサ出力信号(SS)に対応するデジタル信号(DS)に基づいて、画像データを生成する。つまり、センサ内蔵液晶パネル301の読み取り領域全体で読み取った画像データを生成する。そして、該生成した画像データをセンサデータ処理部703に送信する。   In addition, the sensor control unit 602 receives a digital signal (DS) from the signal conversion circuit 306. Then, image data is generated based on the digital signal (DS) corresponding to the sensor output signal (SS) output from all the optical sensor circuits 32 included in the sensor built-in liquid crystal panel 301. That is, the image data read in the entire reading area of the sensor built-in liquid crystal panel 301 is generated. Then, the generated image data is transmitted to the sensor data processing unit 703.

バックライト制御部603は、表示データ処理部701およびセンサデータ処理部703からの指示に従って、表示/光センサ部300のバックライト駆動回路308に制御信号(BK)を送信し、バックライト307を駆動させる。   The backlight control unit 603 transmits a control signal (BK) to the backlight drive circuit 308 of the display / light sensor unit 300 in accordance with instructions from the display data processing unit 701 and the sensor data processing unit 703 to drive the backlight 307. Let

なお、データ表示/センサ装置100が、複数の表示/光センサ部300を備える場合、表示制御部601は、データ処理部700から、どの表示/光センサ部300にて表示データを表示するかの指示を受けたとき、当該指示に応じた表示/光センサ部300の液晶パネル駆動回路304を制御する。また、センサ制御部602は、データ処理部700から、どの表示/光センサ部300にて対象物のスキャンを行なうかの指示を受けたとき、当該指示に応じた表示/光センサ部300の光センサ駆動回路305を制御するとともに、当該指示に応じた表示/光センサ部300の信号変換回路306からデジタル信号(DS)を受信する。   When the data display / sensor device 100 includes a plurality of display / light sensor units 300, the display control unit 601 determines which display / light sensor unit 300 displays the display data from the data processing unit 700. When an instruction is received, the liquid crystal panel drive circuit 304 of the display / light sensor unit 300 is controlled according to the instruction. When the sensor control unit 602 receives an instruction from the data processing unit 700 as to which display / light sensor unit 300 is to scan the object, The sensor drive circuit 305 is controlled and a digital signal (DS) is received from the signal conversion circuit 306 of the display / light sensor unit 300 according to the instruction.

次に、データ処理部700について説明する。データ処理部700は、主制御部800から受信する「コマンド」に基づいて、回路制御部600に指示を与えるミドルウェアとしての機能を備えるものである。なお、コマンドの詳細については後述する。   Next, the data processing unit 700 will be described. The data processing unit 700 has a function as middleware that gives an instruction to the circuit control unit 600 based on a “command” received from the main control unit 800. Details of the command will be described later.

データ処理部700は、表示データ処理部701およびセンサデータ処理部703を備えている。そして、データ処理部700が、主制御部800からコマンドを受信すると、該受信したコマンドに含まれる各フィールド(後述する)の値に応じて、表示データ処理部701およびセンサデータ処理部703の少なくとも一方が動作する。   The data processing unit 700 includes a display data processing unit 701 and a sensor data processing unit 703. When the data processing unit 700 receives a command from the main control unit 800, at least one of the display data processing unit 701 and the sensor data processing unit 703 depends on the value of each field (described later) included in the received command. One works.

表示データ処理部701は、主制御部800から表示データを受信するとともに、データ処理部700が受信したコマンドに従って、表示制御部601およびバックライト制御部603に指示を与え、上記受信した表示データをセンサ内蔵液晶パネル301に表示させる。なお、コマンドに応じた、表示データ処理部701の動作については、後述する。   The display data processing unit 701 receives display data from the main control unit 800, and gives instructions to the display control unit 601 and the backlight control unit 603 according to the command received by the data processing unit 700, and displays the received display data. The image is displayed on the sensor built-in liquid crystal panel 301. The operation of the display data processing unit 701 according to the command will be described later.

センサデータ処理部703は、データ処理部700が受信したコマンドに従って、センサ制御部602およびバックライト制御部603に指示を与える。   The sensor data processing unit 703 gives an instruction to the sensor control unit 602 and the backlight control unit 603 according to the command received by the data processing unit 700.

また、センサデータ処理部703は、センサ制御部602から画像データを受信し、当該画像データをそのまま画像データバッファ704に格納する。そして、センサデータ処理部703は、データ処理部700が受信したコマンドに従って、画像データバッファ704に記憶されている画像データに基づいて、「全体画像データ」、「部分画像データ(部分画像の座標データを含む)」、および「座標データ」の少なくともいずれか1つを、主制御部800に送信する。なお、全体画像データ、部分画像データ、および座標データについては、後述する。また、コマンドに応じた、センサデータ処理部703の動作については、後述する。   The sensor data processing unit 703 receives image data from the sensor control unit 602 and stores the image data in the image data buffer 704 as it is. Then, in accordance with the command received by the data processing unit 700, the sensor data processing unit 703 performs “whole image data”, “partial image data (partial image coordinate data) based on the image data stored in the image data buffer 704. At least one of “including coordinate data” and “coordinate data” is transmitted to the main control unit 800. The whole image data, partial image data, and coordinate data will be described later. The operation of the sensor data processing unit 703 according to the command will be described later.

次に、主制御部800は、アプリケーションプログラムを実行するものである。主制御部800は、記憶部901に格納されているプログラムを、例えばRAM(Random Access Memory)等で構成される一次記憶部902に読み出して実行する。   Next, the main control unit 800 executes an application program. The main control unit 800 reads the program stored in the storage unit 901 into a primary storage unit 902 configured by, for example, a RAM (Random Access Memory) and executes the program.

主制御部800で実行されるアプリケーションプログラムは、センサ内蔵液晶パネル301に表示データを表示させたり、センサ内蔵液晶パネル301にて対象物のスキャンを行なわせるために、データ処理部700に対して、コマンドおよび表示データを送信する。また、コマンドに「データ種別」を指定した場合は、当該コマンドの応答として、全体画像データ、部分画像データ、および座標データの少なくともいずれか1つを、データ処理部700から受信する。   An application program executed by the main control unit 800 causes the data processing unit 700 to display display data on the sensor built-in liquid crystal panel 301 or to scan an object on the sensor built-in liquid crystal panel 301. Send commands and display data. When “data type” is designated as a command, at least one of whole image data, partial image data, and coordinate data is received from the data processing unit 700 as a response to the command.

なお、回路制御部600、データ処理部700、および主制御部800は、それぞれ、CPU(Central Processing Unit)およびメモリ等で構成することができる。また、データ処理部700は、ASIC(application specific integrate circuit)などの回路で構成されていてもよい。   The circuit control unit 600, the data processing unit 700, and the main control unit 800 can be configured by a CPU (Central Processing Unit), a memory, and the like, respectively. The data processing unit 700 may be configured by a circuit such as an ASIC (application specific integrate circuit).

次に、記憶部901は、図示のように、主制御部800が実行するプログラムおよびデータを格納するものである。なお、主制御部800が実行するプログラムは、アプリケーション固有のプログラムと、各アプリケーションが共用可能な汎用プログラムとに分離されていてもよい。   Next, the storage unit 901 stores programs and data executed by the main control unit 800 as shown in the figure. The program executed by the main control unit 800 may be separated into an application-specific program and a general-purpose program that can be shared by each application.

次に、操作部903は、データ表示/センサ装置100のユーザの入力操作を受けつけるものである。操作部903は、例えば、スイッチ、リモコン、マウス、キーボードなどの入力デバイスで構成される。そして、操作部903は、データ表示/センサ装置100のユーザの入力操作に応じた制御信号を生成し、該生成した制御信号を主制御部800へ送信する。   Next, the operation unit 903 receives an input operation of the user of the data display / sensor device 100. The operation unit 903 includes input devices such as a switch, a remote controller, a mouse, and a keyboard, for example. Then, the operation unit 903 generates a control signal corresponding to the user's input operation of the data display / sensor device 100, and transmits the generated control signal to the main control unit 800.

なお、上記スイッチの例としては、電源のオンとオフとを切り替える電源スイッチ905、予め所定の機能が割り当てられているユーザスイッチ906などのハードウェアスイッチを想定している。   As an example of the switch, a hardware switch such as a power switch 905 that switches power on and off and a user switch 906 to which a predetermined function is assigned in advance is assumed.

その他、データ表示/センサ装置100は、無線/有線通信によって外部装置と通信を行なうための外部通信部907、音声を出力するためのスピーカ等の音声出力部908、音声信号を入力するためのマイク等の音声入力部909などを適宜備えていてもよい。   In addition, the data display / sensor device 100 includes an external communication unit 907 for communicating with an external device by wireless / wired communication, an audio output unit 908 such as a speaker for outputting audio, and a microphone for inputting an audio signal. A voice input unit 909 such as the above may be provided as appropriate.

(コマンドの詳細)
次に、図6および図7を参照しながら、主制御部800からデータ処理部700に送信されるコマンドの詳細について説明する。図6は、コマンドのフレーム構造の一例を模式的に示す図である。また、図7は、コマンドに含まれる各フィールドに指定可能な値の一例、および、その概要を説明する図である。
(Command details)
Next, details of commands transmitted from the main control unit 800 to the data processing unit 700 will be described with reference to FIGS. 6 and 7. FIG. 6 is a diagram schematically illustrating an example of a command frame structure. FIG. 7 is a diagram for explaining an example of values that can be specified in each field included in the command and an outline thereof.

図6に示すように、コマンドは、「ヘッダ」、「データ取得タイミング」、「データ種別」、「スキャン方式」、「スキャン画像階調」、「スキャン解像度」、「スキャンパネル」、「表示パネル」、および「予備」の各フィールドを含んでいる。そして、各フィールドには、例えば、図7に示す値が指定可能である。   As shown in FIG. 6, the commands are “header”, “data acquisition timing”, “data type”, “scan method”, “scan image gradation”, “scan resolution”, “scan panel”, “display panel”. "And" Reserve "fields. In each field, for example, values shown in FIG. 7 can be designated.

「ヘッダ」フィールドは、フレームの開始を示すフィールドである。「ヘッダ」フィールドであることが識別可能であれば、「ヘッダ」フィールドの値は、どのような値であってもよい。   The “header” field is a field indicating the start of a frame. As long as it is possible to identify the “header” field, the value of the “header” field may be any value.

次に、「データ取得タイミング」フィールドは、データを主制御部800へ送信すべきタイミングを指定するフィールドである。「データ取得タイミング」フィールドには、例えば、“00”(センス)、“01”(イベント)、および“10”(オール)という値が指定可能である。   Next, the “data acquisition timing” field is a field for designating a timing at which data should be transmitted to the main control unit 800. In the “data acquisition timing” field, for example, values “00” (sense), “01” (event), and “10” (all) can be specified.

ここで、“センス”は、最新のデータを直ちに送信すること指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“センス”であるコマンドを受信すると、「データ種別」フィールドにて指定されている最新のデータを、直ちに、主制御部800に送信する。   Here, “sense” specifies that the latest data is to be transmitted immediately. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “sense”, the latest data specified in the “data type” field is immediately updated to the main control unit 800. Send to.

また、“イベント”は、センサ制御部602から受信する画像データに変化が生じたタイミングで送信すること指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“イベント”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、センサ制御部602から受信する画像データに、所定の閾値より大きい変化が生じたタイミングで、主制御部800に送信する。   The “event” designates transmission at a timing when a change occurs in the image data received from the sensor control unit 602. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “event”, the image that receives the data specified in the “data type” field from the sensor control unit 602. The data is transmitted to the main control unit 800 at a timing when a change larger than a predetermined threshold occurs.

また、“オール”は、所定周期でデータを送信すること指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“オール”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、所定周期で、主制御部800に送信する。なお、上記所定周期は、光センサ回路32にてスキャンを行なう周期と一致する。   “All” designates data transmission at a predetermined cycle. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “all”, the data designated in the “data type” field is transferred to the main control unit 800 at a predetermined cycle. Send to. The predetermined period coincides with the period in which the optical sensor circuit 32 performs scanning.

次に、「データ種別」フィールドは、センサデータ処理部703から取得するデータの種別を指定するフィールドである。なお、「データ種別」フィールドには、例えば、“001”(座標)、“010”(部分画像)、および“100”(全体画像)という値が指定可能である。さらに、これらの値を加算することによって、“座標”と、“部分画像”/“全体画像”とを、同時に指定可能である。例えば、“座標”と“部分画像”とを同時に指定する場合、“011”と指定することができる。   Next, the “data type” field is a field for designating the type of data acquired from the sensor data processing unit 703. In the “data type” field, for example, values of “001” (coordinates), “010” (partial image), and “100” (entire image) can be specified. Furthermore, by adding these values, “coordinates” and “partial image” / “whole image” can be specified simultaneously. For example, when “coordinate” and “partial image” are specified at the same time, “011” can be specified.

センサデータ処理部703は、「データ種別」フィールドの値が“全体画像”であるコマンドを受信すると、画像データバッファ704に記憶している画像データそのものを主制御部800に送信する。画像データバッファ704に記憶している画像データそのものを、「全体画像データ」と称する。   When the sensor data processing unit 703 receives a command whose value of the “data type” field is “whole image”, the sensor data processing unit 703 transmits the image data itself stored in the image data buffer 704 to the main control unit 800. The image data itself stored in the image data buffer 704 is referred to as “whole image data”.

また、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信すると、センサ制御部602から受信する画像データから、所定の閾値より大きい変化が生じた部分を含む領域を抽出し、該抽出した領域の画像データを主制御部800に送信する。ここで、当該画像データを、「部分画像データ」と称する。なお、上記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出されたそれぞれの部分画像データを主制御部800に送信する。   In addition, when the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 selects a portion where a change larger than a predetermined threshold has occurred from the image data received from the sensor control unit 602. A region to be included is extracted, and image data of the extracted region is transmitted to the main control unit 800. Here, the image data is referred to as “partial image data”. When a plurality of partial image data are extracted, the sensor data processing unit 703 transmits each extracted partial image data to the main control unit 800.

さらに、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信したとき、対象物が接近する先の点の座標として、部分画像データにおける代表座標を検出し、部分画像データにおける代表座標を検出し、当該代表座標の部分画像データにおける位置を示す座標データを主制御部800に送信する。なお、上記代表座標とは、例えば、上記部分画像データの中心の座標、上記部分画像データの重心の座標などが挙げられる。   Further, when the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 detects representative coordinates in the partial image data as the coordinates of the point to which the object approaches. The representative coordinates in the partial image data are detected, and coordinate data indicating the position of the representative coordinates in the partial image data is transmitted to the main control unit 800. The representative coordinates include, for example, the coordinates of the center of the partial image data, the coordinates of the center of gravity of the partial image data, and the like.

次に、センサデータ処理部703は、「データ種別」フィールドの値が“座標”であるコマンドを受信すると、上記代表座標の全体画像データにおける位置を示す座標データを主制御部800に送信する。なお、上記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出された、それぞれの部分画像データの、全体画像データにおける代表座標を検出し、当該代表座標を示す座標データのそれぞれを主制御部800に送信する(多点検出)。   Next, when receiving a command whose value of the “data type” field is “coordinate”, the sensor data processing unit 703 transmits coordinate data indicating the position of the representative coordinate in the entire image data to the main control unit 800. When a plurality of partial image data are extracted, the sensor data processing unit 703 detects representative coordinates in the entire image data of the extracted partial image data, and the coordinate data indicating the representative coordinates is detected. Each is transmitted to the main control unit 800 (multi-point detection).

なお、全体画像データ、部分画像データ、および座標データの具体例については、模式図を参照しながら後述する。   Specific examples of the whole image data, the partial image data, and the coordinate data will be described later with reference to schematic diagrams.

次に、「スキャン方式」フィールドは、スキャン実行時に、バックライト307を点灯するか否かを指定するフィールドである。「スキャン方式」フィールドには、例えば、“00”(反射)、“01”(透過)、および“10”(反射/透過)という値が指定可能である。   Next, the “scan method” field is a field for designating whether or not the backlight 307 is turned on at the time of executing the scan. In the “scan method” field, for example, values of “00” (reflection), “01” (transmission), and “10” (reflection / transmission) can be designated.

“反射”は、バックライト307を点灯した状態でスキャンを行なうこと指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“反射”であるコマンドを受信すると、光センサ駆動回路305とバックライト駆動回路308とが同期して動作するように、センサ制御部602とバックライト制御部603とに指示を与える。   “Reflection” specifies that scanning is performed with the backlight 307 turned on. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “reflection”, the sensor data processing unit 703 performs sensor control so that the optical sensor driving circuit 305 and the backlight driving circuit 308 operate in synchronization. An instruction is given to the unit 602 and the backlight control unit 603.

また、“透過”は、バックライト307を消灯した状態でスキャンを行なうことを指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“透過”であるコマンドを受信すると、光センサ駆動回路305を動作させ、バックライト駆動回路308と動作させないようにセンサ制御部602とバックライト制御部603とに指示を与える。なお、“反射/透過”は、“反射”と“透過”とを併用してスキャンを行なうことを指定するものである。   “Transmission” specifies that scanning is performed with the backlight 307 turned off. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “transparent”, the sensor control unit 602 operates the optical sensor driving circuit 305 and does not operate the backlight driving circuit 308. Instructions to the backlight control unit 603. Note that “reflection / transmission” specifies that scanning is performed using both “reflection” and “transmission”.

次に、「スキャン画像階調」フィールドは、部分画像データおよび全体画像データの階調を指定するフィールドである。「スキャン画像階調」フィールドには、例えば、“00”(2値)、および“01”(多値)という値が指定可能である。   Next, the “scanned image gradation” field is a field for designating gradations of the partial image data and the entire image data. In the “scanned image gradation” field, for example, values of “00” (binary) and “01” (multivalue) can be designated.

ここで、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“2値”であるコマンドを受信すると、部分画像データおよび全体画像データをモノクロデータとして、主制御部800に送信する。   When the sensor data processing unit 703 receives a command whose “scan image gradation” field value is “binary”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as monochrome data. .

また、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“多値”であるコマンドを受信すると、部分画像データおよび全体画像データを多階調データとして、主制御部800に送信する。   When the sensor data processing unit 703 receives a command whose “scanned image gradation” field value is “multivalued”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as multitone data. To do.

次に、「スキャン解像度」フィールドは、部分画像データおよび全体画像データの解像度を指定するフィールドである。「解像度」フィールドには、例えば、“0”(高)および“1”(低)という値が指定可能である。   Next, the “scan resolution” field is a field for designating the resolution of the partial image data and the entire image data. In the “resolution” field, for example, values of “0” (high) and “1” (low) can be designated.

ここで、“高”は、高解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“高”であるコマンドを受信すると、部分画像データおよび全体画像データを高解像度で主制御部800に送信する。例えば、画像認識などの画像処理を行なう対象の画像データ(指紋などの画像データ)には、“高”を指定することが望ましい。   Here, “high” designates a high resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “high”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 with high resolution. For example, it is desirable to designate “high” for image data (image data such as a fingerprint) to be subjected to image processing such as image recognition.

また、“低”は、低解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“低”であるコマンドを受信すると、部分画像データおよび全体画像データを低解像度で主制御部800に送信する。例えば、タッチした位置等が分かる程度でよい画像データ(タッチした指や手の画像データなど)には、“低”を指定することが望ましい。   “Low” designates a low resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “low”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 at a low resolution. For example, it is desirable to designate “low” for image data (such as touched finger or hand image data) that only needs to be recognized.

次に、「スキャンパネル」フィールドは、データ表示/センサ装置100が、複数の表示/光センサ部300を備えているときに、どの表示/光センサ部300にて対象物のスキャンを行なうかを指定するフィールドである。「スキャンパネル」フィールドには、例えば、“001”(一番目の表示/光センサ部300)、“010”(二番目の表示/光センサ部300)という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、一番目と二番目の両方の表示/光センサ部300を同時に指定する場合、“011”と指定することができる。   Next, in the “scan panel” field, when the data display / sensor device 100 includes a plurality of display / light sensor units 300, which display / light sensor unit 300 performs scanning of an object. This field is specified. In the “scan panel” field, for example, values “001” (first display / light sensor unit 300) and “010” (second display / light sensor unit 300) can be designated. By adding these values, a plurality of display / light sensor units 300 can be specified at the same time. For example, when both the first and second display / light sensor units 300 are specified at the same time, “011” can be specified.

ここで、センサデータ処理部703は、受信したコマンドの「スキャンパネル」フィールドの値に従って、指定された表示/光センサ部300の光センサ駆動回路305およびバックライト駆動回路308を制御するように、センサ制御部602およびバックライト制御部603に指示を与える。   Here, the sensor data processing unit 703 controls the photo sensor driving circuit 305 and the backlight driving circuit 308 of the designated display / light sensor unit 300 according to the value of the “scan panel” field of the received command. An instruction is given to the sensor control unit 602 and the backlight control unit 603.

次に、「表示パネル」フィールドは、データ表示/センサ装置100が、複数の表示/光センサ部300を備えているときに、どの表示/光センサ部300にて表示データを表示させるかを指定するフィールドである。「スキャン画像階調」フィールドには、例えば、“001”(一番目の表示/光センサ部300)、“010” (二番目の表示/光センサ部300)という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、一番目と二番目の両方の表示/光センサ部300を同時に指定する場合、“011”と指定することができる。   Next, the “display panel” field specifies which display / light sensor unit 300 displays the display data when the data display / sensor device 100 includes a plurality of display / light sensor units 300. It is a field to be. In the “scanned image gradation” field, for example, values of “001” (first display / light sensor unit 300) and “010” (second display / light sensor unit 300) can be designated. By adding these values, a plurality of display / light sensor units 300 can be specified at the same time. For example, when both the first and second display / light sensor units 300 are specified at the same time, “011” can be specified.

ここで、表示データ処理部701は、例えば、「表示パネル」フィールドの値が表示/光センサ部300であるコマンドを受信すると、表示/光センサ部300に表示データを表示させるために、表示/光センサ部300の液晶パネル駆動回路304およびバックライト駆動回路308を制御するように、表示制御部601およびバックライト制御部603に指示を与える。   Here, for example, when the display data processing unit 701 receives a command whose value of the “display panel” field is the display / light sensor unit 300, the display / light sensor unit 300 displays the display / light sensor unit 300 to display the display data. An instruction is given to the display control unit 601 and the backlight control unit 603 so as to control the liquid crystal panel driving circuit 304 and the backlight driving circuit 308 of the optical sensor unit 300.

次に、「予備」フィールドは、上述したフィールドにて指定可能な情報以外の情報をさらに指定する必要がある場合に、適宜指定されるフィールドである。   Next, the “reserved” field is a field that is appropriately specified when it is necessary to further specify information other than information that can be specified in the above-described fields.

なお、主制御部800にて実行されるアプリケーションは、コマンドを送信するにあたり、上述したフィールドを全て使用する必要はなく、使用しないフィールドには無効値(NULL値など)を設定しておけばよい。   Note that an application executed by the main control unit 800 does not need to use all the above-described fields when transmitting a command, and an invalid value (such as a NULL value) may be set for a field that is not used. .

また、ユーザが指やペンなどでタッチした位置の座標データを取得したいときは、「データ種別」フィールドに“座標”を指定したコマンドをデータ処理部700に送信することとなるが、指やペンなどは動きがあるため、さらに、当該コマンドの「データ取得タイミング」フィールドに“オール”を指定し、座標データを取得するようにすることが望ましい。また、タッチした位置の座標データが取得できればよいため、スキャンの精度は高くなくてもよい。したがって、上記コマンドの「解像度」フィールドの値は“低”を指定しておけばよい。   When the user wants to acquire coordinate data of a position touched with a finger or pen, a command specifying “coordinate” in the “data type” field is transmitted to the data processing unit 700. Therefore, it is desirable to specify “all” in the “data acquisition timing” field of the command to acquire coordinate data. Further, since it is only necessary to acquire coordinate data of the touched position, the scanning accuracy may not be high. Therefore, “low” may be specified as the value of the “resolution” field of the command.

また、コマンドの「データ種別」フィールドに“座標”を指定した場合において、例えば、ユーザが、複数の指やペンなどでセンサ内蔵液晶パネル301を同時にタッチした場合は、該タッチした位置の座標データのそれぞれを取得することができる(多点検出)。   Further, when “coordinate” is specified in the “data type” field of the command, for example, when the user touches the sensor built-in liquid crystal panel 301 with a plurality of fingers or pens at the same time, the coordinate data of the touched position is used. Can be acquired (multi-point detection).

また、原稿などの対象物の画像データを取得する場合、「データ種別」フィールドに“全体画像”を指定したコマンドをデータ処理部700に送信することとなるが、原稿などの対象物は、通常、静止させた状態でスキャンを実行することが一般的であるため、周期的にスキャンを実行する必要はない。従って、この場合は、「データ取得タイミング」フィールドに“センス”または“イベント”を指定することが望ましい。なお、原稿などの対象物をスキャンするときは、ユーザが文字を読みやすいように、スキャン精度は高い方が望ましい。したがって、「解像度」フィールドには“高”を指定することが望ましい。   When acquiring image data of an object such as a document, a command specifying “whole image” in the “data type” field is transmitted to the data processing unit 700. Since it is common to perform a scan in a stationary state, it is not necessary to periodically perform the scan. Therefore, in this case, it is desirable to designate “sense” or “event” in the “data acquisition timing” field. When scanning an object such as a document, it is desirable that the scanning accuracy is high so that the user can easily read the characters. Therefore, it is desirable to designate “high” in the “resolution” field.

(全体画像データ/部分画像データ/座標データ)
次に、図8を参照しながら、全体画像データ、部分画像データ、および座標データについて、例を挙げて説明する。図8(a)に示す画像データは、対象物がセンサ内蔵液晶パネル301上に置かれていないときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。また、図8(b)に示す画像データは、ユーザが指でセンサ内蔵液晶パネル301をタッチしているときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。
(Whole image data / Partial image data / Coordinate data)
Next, the whole image data, the partial image data, and the coordinate data will be described with reference to FIG. The image data shown in FIG. 8A is image data obtained as a result of scanning the entire sensor-equipped liquid crystal panel 301 when the object is not placed on the sensor-equipped liquid crystal panel 301. 8B is image data obtained as a result of scanning the entire sensor-equipped liquid crystal panel 301 when the user touches the sensor-equipped liquid crystal panel 301 with a finger.

ユーザが指でセンサ内蔵液晶パネル301をタッチしたとき、当該タッチした近傍の光センサ回路32が受光する光量が変化するため、当該光センサ回路32が出力する電圧に変化が生じ、その結果として、センサ制御部602が生成する画像データのうち、ユーザがタッチした部分の画素値の明度に変化が生じることとなる。   When the user touches the sensor built-in liquid crystal panel 301 with a finger, the amount of light received by the photosensor circuit 32 in the vicinity of the touch changes, so that the voltage output from the photosensor circuit 32 changes, and as a result, In the image data generated by the sensor control unit 602, the brightness of the pixel value of the portion touched by the user changes.

図8(b)に示す画像データでは、図8(a)に示す画像データと比べると、ユーザの指に該当する部分の画素値の明度が高くなっている。そして、図8(b)に示す画像データにおいて、明度が所定の閾値より大きく変化している画素値を全て含む最小の矩形領域(領域PP)が、“部分画像データ”である。   In the image data shown in FIG. 8B, the brightness of the pixel value of the portion corresponding to the user's finger is higher than that in the image data shown in FIG. In the image data shown in FIG. 8B, the smallest rectangular area (area PP) that includes all pixel values whose lightness changes more than a predetermined threshold value is “partial image data”.

なお、領域APで示される画像データが、“全体画像データ”である。   The image data indicated by the area AP is “whole image data”.

また、部分画像データ(領域PP)の代表座標Zの、全体画像データ(領域AP)における座標データは(Xa,Ya)であり、部分画像データ(領域PP)における座標データは(Xp,Yp)である。   Also, the coordinate data in the whole image data (area AP) of the representative coordinates Z of the partial image data (area PP) is (Xa, Ya), and the coordinate data in the partial image data (area PP) is (Xp, Yp). It is.

(センサ内蔵液晶パネルの構成)
次に、図9を参照しながら、センサ内蔵液晶パネル301の構成、および、センサ内蔵液晶パネル301の周辺回路309の構成について説明する。図9は、表示/光センサ部300の要部、特に、センサ内蔵液晶パネル301の構成および周辺回路309の構成を示すブロック図である。
(Configuration of sensor built-in liquid crystal panel)
Next, the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309 of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 9 is a block diagram showing the main part of the display / light sensor unit 300, particularly the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309.

センサ内蔵液晶パネル301は、光透過率(輝度)を設定するための画素回路31、および、自身が受光した光の強度に応じた電圧を出力する光センサ回路32を備えている。なお、画素回路31は、赤色、緑色、青色のカラーフィルタのそれぞれに対応するR画素回路31r、G画素回路31g、B画素回路31bの総称して用いる。   The sensor built-in liquid crystal panel 301 includes a pixel circuit 31 for setting light transmittance (brightness) and an optical sensor circuit 32 that outputs a voltage corresponding to the intensity of light received by the sensor. Note that the pixel circuit 31 is a generic term for the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b corresponding to the red, green, and blue color filters, respectively.

画素回路31は、センサ内蔵液晶パネル301上の列方向(縦方向)にm個、行方向(横方向)に3n個配置される。そして、R画素回路31r、G画素回路31g、およびB画素回路31bの組が、行方向(横方向)に連続して配置される。この組が1つの画素を形成する。   The pixel circuits 31 are arranged on the sensor built-in liquid crystal panel 301 in the column direction (vertical direction) and 3n in the row direction (horizontal direction). A set of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b is continuously arranged in the row direction (lateral direction). This set forms one pixel.

画素回路31の光透過率を設定するには、まず、画素回路31に含まれるTFT(Thin Film Transistor)33のゲート端子に接続される走査信号線Giにハイレベル電圧(TFT33をオン状態にする電圧)を印加する。その後、R画素回路31rのTFT33のソース端子に接続されているデータ信号線SRjに、所定の電圧を印加する。同様に、G画素回路31gおよびB画素回路31bについても、光透過率を設定する。そして、これらの光透過率を設定することにより、センサ内蔵液晶パネル301上に画像が表示される。   In order to set the light transmittance of the pixel circuit 31, first, the high level voltage (TFT 33 is turned on) to the scanning signal line Gi connected to the gate terminal of the TFT (Thin Film Transistor) 33 included in the pixel circuit 31. Voltage). Thereafter, a predetermined voltage is applied to the data signal line SRj connected to the source terminal of the TFT 33 of the R pixel circuit 31r. Similarly, the light transmittance is also set for the G pixel circuit 31g and the B pixel circuit 31b. Then, by setting these light transmittances, an image is displayed on the sensor built-in liquid crystal panel 301.

次に、光センサ回路32は、一画素毎に配置される。なお、R画素回路31r、G画素回路31g、およびB画素回路31bのそれぞれの近傍に1つずつ配置されてもよい。   Next, the photosensor circuit 32 is arranged for each pixel. One pixel may be arranged in the vicinity of each of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b.

光センサ回路32にて光の強度に応じた電圧を出力させるためには、まず、コンデンサ35の一方の電極に接続されているセンサ読み出し線RWiと、フォトダイオード6のアノード端子に接続されているセンサリセット線RSiとに所定の電圧を印加する。この状態において、フォトダイオード6に光が入射されると、入射した光量に応じた電流がフォトダイオード6に流れる。そして、当該電流に応じて、コンデンサ35の他方の電極とフォトダイオード6のカソード端子との接続点(以下、接続ノードV)の電圧が低下する。そして、センサプリアンプ37のドレイン端子に接続される電圧印加線SDjに電源電圧VDDを印加すると、接続ノードVの電圧は増幅され、センサプリアンプ37のソース端子からセンシングデータ出力線SPjに出力される。そして、当該出力された電圧に基づいて、光センサ回路32が受光した光量を算出することができる。   In order for the optical sensor circuit 32 to output a voltage according to the light intensity, first, the sensor readout line RWi connected to one electrode of the capacitor 35 and the anode terminal of the photodiode 6 are connected. A predetermined voltage is applied to the sensor reset line RSi. In this state, when light is incident on the photodiode 6, a current corresponding to the amount of incident light flows through the photodiode 6. And according to the said electric current, the voltage of the connection point (henceforth connection node V) of the other electrode of the capacitor | condenser 35 and the cathode terminal of the photodiode 6 falls. When the power supply voltage VDD is applied to the voltage application line SDj connected to the drain terminal of the sensor preamplifier 37, the voltage at the connection node V is amplified and output from the source terminal of the sensor preamplifier 37 to the sensing data output line SPj. Based on the output voltage, the amount of light received by the optical sensor circuit 32 can be calculated.

次に、センサ内蔵液晶パネル301の周辺回路である、液晶パネル駆動回路304、光センサ駆動回路305、およびセンサ出力アンプ44について説明する。   Next, the liquid crystal panel drive circuit 304, the optical sensor drive circuit 305, and the sensor output amplifier 44, which are peripheral circuits of the sensor built-in liquid crystal panel 301, will be described.

液晶パネル駆動回路304は、画素回路31を駆動するための回路であり、走査信号線駆動回路3041およびデータ信号線駆動回路3042を含んでいる。   The liquid crystal panel drive circuit 304 is a circuit for driving the pixel circuit 31, and includes a scanning signal line drive circuit 3041 and a data signal line drive circuit 3042.

走査信号線駆動回路3041は、表示制御部601から受信したタイミング制御信号TC1に基づいて、1ライン時間毎に、走査信号線G1〜Gmの中から1本の走査信号線を順次選択し、該選択した走査信号線にハイレベル電圧を印加するとともに、その他の走査信号線にローレベル電圧を印加する。   The scanning signal line driving circuit 3041 sequentially selects one scanning signal line from the scanning signal lines G1 to Gm for each line time based on the timing control signal TC1 received from the display control unit 601, and A high level voltage is applied to the selected scanning signal line, and a low level voltage is applied to the other scanning signal lines.

データ信号線駆動回路3042は、表示制御部601から受信した表示データD(DR、DG、およびDB)に基づいて、1ライン時間毎に、1行分の表示データに対応する所定の電圧を、データ信号線SR1〜SRn、SG1〜SGn、SB1〜SBnに印加する(線順次方式)。なお、データ信号線駆動回路3042は、点順次方式で駆動するものであってもよい。   Based on the display data D (DR, DG, and DB) received from the display controller 601, the data signal line driver circuit 3042 generates a predetermined voltage corresponding to the display data for one row for each line time. The data signal lines SR1 to SRn, SG1 to SGn, and SB1 to SBn are applied (line sequential method). Note that the data signal line driver circuit 3042 may be driven by a dot sequential method.

光センサ駆動回路305は、光センサ回路32を駆動するための回路である。光センサ駆動回路305は、センサ制御部602から受信したタイミング制御信号TC2に基づいて、センサ読み出し信号線RW1〜RWmの中から、1ライン時間毎に1本ずつ選択したセンサ読み出し信号線に所定の読み出し用電圧を印加するとともに、その他のセンサ読み出し信号線には、所定の読み出し用電圧以外の電圧を印加する。また、同様に、タイミング制御信号TC2に基づいて、センサリセット信号線RS1〜RSmの中から、1ライン時間毎に1本ずつ選択したセンサリセット信号線に所定のリセット用電圧を印加するとともに、その他のセンサリセット信号線には、所定のリセット用電圧以外の電圧を印加する。   The optical sensor driving circuit 305 is a circuit for driving the optical sensor circuit 32. Based on the timing control signal TC2 received from the sensor control unit 602, the optical sensor driving circuit 305 selects a predetermined sensor readout signal line from the sensor readout signal lines RW1 to RWm for each line time. A read voltage is applied, and a voltage other than a predetermined read voltage is applied to the other sensor read signal lines. Similarly, based on the timing control signal TC2, a predetermined reset voltage is applied to the sensor reset signal line selected from the sensor reset signal lines RS1 to RSm for each line time, and the others. A voltage other than a predetermined reset voltage is applied to the sensor reset signal line.

センシングデータ出力信号線SP1〜SPnはp個(pは1以上n以下の整数)のグループにまとめられ、各グループに属するセンシングデータ出力信号線は、時分割で順次オン状態になるスイッチ47を介して、センサ出力アンプ44に接続される。センサ出力アンプ44は、スイッチ47により接続されたセンシングデータ出力信号線のグループからの電圧を増幅し、センサ出力信号SS(SS1〜SSp)として、信号変換回路306へ出力する。   The sensing data output signal lines SP1 to SPn are grouped into p groups (p is an integer of 1 to n), and the sensing data output signal lines belonging to each group are connected via a switch 47 that is sequentially turned on in time division. And connected to the sensor output amplifier 44. The sensor output amplifier 44 amplifies the voltage from the group of sensing data output signal lines connected by the switch 47 and outputs the amplified voltage to the signal conversion circuit 306 as sensor output signals SS (SS1 to SSp).

(データ表示/センサ装置のより詳細な構成)
次に、図10を参照しながら、データ表示/センサ装置100のより詳細な構成について説明する。なお、ここでは、説明を分かりやすくするために、主制御部800と表示/光センサ部300との間に位置するデータ処理部700および回路制御部600の動作については説明を省略する。ただし、正確には、データの表示および対象物のスキャンを行うにあたり、主制御部800の各部が、データ処理部700にコマンドを送信し、データ処理部700がコマンドに基づいて回路制御部600を制御し、回路制御部600が表示/光センサ部300に対して信号を送信する。また、主制御部800は、データ処理部700に対して送信したコマンドに対する応答として、データ処理部700から、全体画像データ、部分画像データ、および座標データを取得する。
(Data display / more detailed configuration of sensor device)
Next, a more detailed configuration of the data display / sensor device 100 will be described with reference to FIG. Here, in order to make the description easy to understand, the description of the operations of the data processing unit 700 and the circuit control unit 600 located between the main control unit 800 and the display / light sensor unit 300 is omitted. However, to be precise, when displaying data and scanning an object, each unit of the main control unit 800 transmits a command to the data processing unit 700, and the data processing unit 700 sets the circuit control unit 600 based on the command. Then, the circuit control unit 600 transmits a signal to the display / light sensor unit 300. Further, the main control unit 800 acquires the entire image data, the partial image data, and the coordinate data from the data processing unit 700 as a response to the command transmitted to the data processing unit 700.

図10は、本実施形態に係るデータ表示/センサ装置100の構成を主制御部800および記憶部901を中心に示すブロック図である。図10に示すように、主制御部800は、被指示画面表示制御部11、指示座標検出部(指示座標検出手段)12、および補助画像表示制御部(補助画像表示制御手段)13を備えている。また、補助画像表示制御部13は、補助画像表示判定部131、補助画像決定部132、および補助画像表示位置決定部133を備えている。また、記憶部901は、被指示画面データ記憶部21、指示座標記憶部22、補助画像データ記憶部23、および像データ記憶部24を備えている。   FIG. 10 is a block diagram showing the configuration of the data display / sensor device 100 according to the present embodiment, centering on the main control unit 800 and the storage unit 901. As shown in FIG. 10, the main control unit 800 includes an instruction screen display control unit 11, an instruction coordinate detection unit (instruction coordinate detection unit) 12, and an auxiliary image display control unit (auxiliary image display control unit) 13. Yes. The auxiliary image display control unit 13 includes an auxiliary image display determination unit 131, an auxiliary image determination unit 132, and an auxiliary image display position determination unit 133. The storage unit 901 includes an instruction screen data storage unit 21, an instruction coordinate storage unit 22, an auxiliary image data storage unit 23, and an image data storage unit 24.

次に、図11および12を参照しながら、データ表示/センサ装置100の動作の一例について説明する。   Next, an example of the operation of the data display / sensor device 100 will be described with reference to FIGS.

図11は、本実施形態に係るデータ表示/センサ装置100の動作を説明するフローチャートである。   FIG. 11 is a flowchart for explaining the operation of the data display / sensor device 100 according to the present embodiment.

ステップS1では、データ表示/センサ装置100は、センサ内蔵液晶パネル301上に被指示画面を表示する。一実施形態において、被指示画面表示制御部11が、センサ内蔵液晶パネル301に、複数のボタン350によって構成されるスクリーンキーボード351を表示させる。   In step S <b> 1, the data display / sensor device 100 displays an instruction screen on the sensor built-in liquid crystal panel 301. In one embodiment, the instructed screen display control unit 11 causes the sensor built-in liquid crystal panel 301 to display a screen keyboard 351 including a plurality of buttons 350.

詳しく述べれば、まず、被指示画面表示制御部11は、被指示画面データ記憶部21からデータを呼び出して、表示すべき画像データを取得する。被指示画面データ記憶部21から呼び出すデータは、例えば、各ボタン350の座標(例えば、ボタンiの横方向の位置および縦方向の位置について、(Xbi,Ybi))、寸法(例えば、ボタンiの横方向の幅および縦方向の幅について、(Wbi,Hbi))、ならびに画像データであり、すべてのボタンの画像データをそれぞれの座標および寸法に基づいて合成することにより、表示すべき全体画像のデータを生成することができる。また、表示すべき全体画像(スクリーンキーボード351の全体画像)のデータをそのまま被指示画面データ記憶部21から呼び出してもよい。   More specifically, first, the instructed screen display control unit 11 retrieves data from the instructed screen data storage unit 21 and acquires image data to be displayed. The data to be called from the instructed screen data storage unit 21 includes, for example, the coordinates of each button 350 (for example, (Xbi, Ybi) for the horizontal position and the vertical position of the button i) and the dimensions (for example, the button i (Wbi, Hbi)) and image data for the width in the horizontal direction and the width in the vertical direction, and by combining the image data of all buttons based on the respective coordinates and dimensions, Data can be generated. Further, the data of the entire image to be displayed (the entire image of the screen keyboard 351) may be directly called from the instructed screen data storage unit 21.

次に、被指示画面表示制御部11は、上記のように得た表示すべき全体画面のデータを表示データ処理部701に送るとともに、「表示パネル」を表示/光センサ部300とした上記コマンドをデータ処理部700に送る。データ処理部700は、上述したように、表示制御部601およびバックライト制御部603を制御してセンサ内蔵液晶パネル301上にスクリーンキーボード351を表示させる。   Next, the instructed screen display control unit 11 sends the data of the entire screen to be displayed obtained as described above to the display data processing unit 701 and uses the “display panel” as the display / light sensor unit 300. Is sent to the data processing unit 700. As described above, the data processing unit 700 controls the display control unit 601 and the backlight control unit 603 to display the screen keyboard 351 on the sensor built-in liquid crystal panel 301.

なお、ステップS1は、必要に応じて開始されればよく、例えば、アプリケーションの開始とともに開始される。   Note that step S <b> 1 may be started as necessary, for example, when the application is started.

次に、ステップS2において、データ表示/センサ装置100は、センサ内蔵液晶パネル301上の、指64が指示する先の点の座標(指示座標65)を検出する。一実施形態において、指示座標検出部12が、センサデータ処理部703から、上記指示座標65を取得して指示座標記憶部22に記憶させる。   Next, in step S <b> 2, the data display / sensor device 100 detects the coordinates (indicated coordinates 65) of the previous point indicated by the finger 64 on the sensor built-in liquid crystal panel 301. In one embodiment, the designated coordinate detection unit 12 acquires the designated coordinate 65 from the sensor data processing unit 703 and stores it in the designated coordinate storage unit 22.

詳しく述べれば、指示座標検出部12は、データ処理部700に対して、「データ種別」を”座標”、「データ取得タイミング」を、”イベント”とした上記コマンドを送る。指示座標検出部12は、上記コマンドの応答としてセンサデータ処理部703から得られた上記座標を、指示座標65として指示座標記憶部22に記憶させる。なお、指示座標検出部12が、データ取得のタイミングおよび取得データの変化の判定を行なう場合には、上記コマンドの「データ取得タイミング」は、”オール”または”センス”としてもよい。指示座標検出部12は、指示座標65を指示座標記憶部22に記憶させた後、補助画像表示制御部13にステップS3を開始させる。   Specifically, the designated coordinate detection unit 12 sends the above-mentioned command with “data type” as “coordinate” and “data acquisition timing” as “event” to the data processing unit 700. The designated coordinate detection unit 12 stores the coordinate obtained from the sensor data processing unit 703 as a response to the command in the designated coordinate storage unit 22 as the designated coordinate 65. When the designated coordinate detection unit 12 determines the data acquisition timing and the change in the acquired data, the “data acquisition timing” of the command may be “all” or “sense”. The designated coordinate detection unit 12 stores the designated coordinate 65 in the designated coordinate storage unit 22, and then causes the auxiliary image display control unit 13 to start step S3.

なお、ステップS2は、ステップS1と同様、例えば、アプリケーションの開始とともに開始される。   Note that step S2 is started together with the start of the application, for example, similarly to step S1.

次に、ステップS3において、データ表示/センサ装置100は、センサ内蔵液晶パネル301上に補助画像を表示するか否かを判定する。一実施形態において、補助画像表示判定部131が、上記指示座標65が各ボタン350の何れかを指示しているときに、補助画像を表示すると決定する。   Next, in step S <b> 3, the data display / sensor device 100 determines whether to display an auxiliary image on the sensor built-in liquid crystal panel 301. In one embodiment, the auxiliary image display determination unit 131 determines to display an auxiliary image when the indicated coordinate 65 indicates any of the buttons 350.

詳しく述べれば、補助画像表示判定部131は、被指示画面データ記憶部21から各ボタン350の座標(例えば、ボタンiの横方向の位置および縦方向の位置について、(Xbi,Ybi))、ならびに寸法(例えば、ボタンiの横方向の幅および縦方向の幅について、(Wbi,Hbi))を呼び出し、指示座標記憶部22に記憶された指示座標65(Xa,Ya)によって示される点が、何れのボタン350内にあるか、すべてのボタン350の外にあるかを判定する。指示座標65(Xa,Ya)がいずれかのボタン350内にある場合(すなわち、例えば、ボタンkに対して、Xbk≦Xa≦Xbk+WbiおよびYbk≦Ya≦Ybk+Hbkが成り立つ場合)には、補助画像を表示すると決定する。補助画像表示判定部131は、補助画像を表示すると決定した場合、補助画像決定部132にステップS4を実行させる。   Specifically, the auxiliary image display determination unit 131 reads the coordinates of each button 350 from the indicated screen data storage unit 21 (for example, (Xbi, Ybi) for the horizontal position and the vertical position of the button i), and Call a dimension (for example, (Wbi, Hbi) for the horizontal width and vertical width of the button i), and the point indicated by the indicated coordinate 65 (Xa, Ya) stored in the indicated coordinate storage unit 22 is It is determined which button 350 is inside and all buttons 350 are outside. When the designated coordinate 65 (Xa, Ya) is in any one of the buttons 350 (that is, for example, when Xbk ≦ Xa ≦ Xbk + Wbi and Ybk ≦ Ya ≦ Ybk + Hbk are satisfied for the button k), the auxiliary image is displayed. Decide to display. If the auxiliary image display determination unit 131 determines to display the auxiliary image, the auxiliary image display determination unit 131 causes the auxiliary image determination unit 132 to execute step S4.

なお、一実施形態において、データ表示/センサ装置100は、”選択状態”および”非選択状態”の二つの状態を有しており、いずれかのボタン350内に上記指示座標65が示す点が存在したとしても、データ表示/センサ装置100の状態が”選択状態”のときには補助画像352を表示せず、”未選択状態”のときにのみ補助画像352を表示するようにしてもよい。   In one embodiment, the data display / sensor device 100 has two states of “selected state” and “non-selected state”, and the point indicated by the indicated coordinate 65 in one of the buttons 350 is as follows. Even if it exists, the auxiliary image 352 may not be displayed when the state of the data display / sensor device 100 is “selected”, and the auxiliary image 352 may be displayed only when “not selected”.

”選択状態”とは、ユーザがスクリーンキーボード351を介してデータ表示/センサ装置100に入力する情報が決定されている状態を指し、”未選択状態”とは、該情報が未決定の状態を指す。   “Selected state” refers to a state in which information to be input to the data display / sensor device 100 by the user via the screen keyboard 351 has been determined. “Unselected state” refers to a state in which the information has not been determined. Point to.

”未選択状態”と”選択状態”との選択は、例えば、指64がセンサ内蔵液晶パネル301と接触していない状態を”非選択状態”、接触している状態を”選択状態”とすることができる。本実施形態に係るデータ表示/センサ装置100では、指64の影、または反射光を検出することができるので、非接触状態においても、指64が指示する先の、センサ内蔵液晶パネル301の座標を検出することができる。   In the selection of “unselected state” and “selected state”, for example, a state in which the finger 64 is not in contact with the sensor built-in liquid crystal panel 301 is referred to as “non-selected state”, and a state in which the finger 64 is in contact is referred to as “selected state”. be able to. Since the data display / sensor device 100 according to the present embodiment can detect the shadow or reflected light of the finger 64, the coordinates of the sensor built-in liquid crystal panel 301 to be pointed by the finger 64 even in the non-contact state. Can be detected.

また、一度接触してから離すまでを”非選択状態”、離した後を”選択状態”とすることもできる。   In addition, it is possible to set a “non-selection state” until it is released after being contacted once, and a “selected state” after it is released.

次に、ステップS4において、データ表示/センサ装置100は、センサ内蔵液晶パネル301に表示すべき補助画像352を決定する。一実施形態において、補助画像決定部132が、記憶部901からデータを呼び出して補助画像352を決定する。   Next, in step S4, the data display / sensor device 100 determines an auxiliary image 352 to be displayed on the sensor built-in liquid crystal panel 301. In one embodiment, the auxiliary image determination unit 132 calls data from the storage unit 901 to determine the auxiliary image 352.

詳しく述べれば、補助画像決定部132は、ステップS3において検出した上記指示座標65が指示する先の点を包含するボタン350(ボタン350aとする)に関連付けられた画像を補助画像352として決定する。補助画像決定部132は、例えば、ボタン350aを示す情報を用いて、補助画像データ記憶部23からボタン350aに関連付けられた画像を呼び出してもよい。上記関連付けられた画像としては、例えば、ボタン350aを拡大した画像等を用いることができる。また、補助画像決定部132は、ボタン350aの画像データを被指示画面データ記憶部21から呼び出して加工することにより、ボタン350aに関連付けられた画像を生成してもよい。上記加工としては、拡大処理、引き出し線を付加する処理等、一般に用いられる画像装飾処理を用いることができる。補助画像決定部132は、補助画像352を決定した後、補助画像表示位置決定部133にステップS5を実行させる。   More specifically, the auxiliary image determination unit 132 determines, as the auxiliary image 352, an image associated with a button 350 (referred to as a button 350a) including the previous point indicated by the indicated coordinate 65 detected in step S3. For example, the auxiliary image determination unit 132 may call an image associated with the button 350a from the auxiliary image data storage unit 23 using information indicating the button 350a. For example, an image obtained by enlarging the button 350a can be used as the associated image. Further, the auxiliary image determination unit 132 may generate an image associated with the button 350a by calling the image data of the button 350a from the designated screen data storage unit 21 and processing it. As the processing, commonly used image decoration processing such as enlargement processing and processing for adding a lead line can be used. After determining the auxiliary image 352, the auxiliary image determination unit 132 causes the auxiliary image display position determination unit 133 to execute step S5.

次に、ステップS5において、データ表示/センサ装置100は、補助画像352のセンサ内蔵液晶パネル301に表示すべき表示位置(Xs,Ys)を決定する。一実施形態において、補助画像表示位置決定部133が、指示座標記憶部22に記憶された指示座標65、およびセンサデータ処理部703から取得した指64の像に基づいて、表示位置(Xs,Ys)を決定する。   Next, in step S5, the data display / sensor device 100 determines the display position (Xs, Ys) of the auxiliary image 352 to be displayed on the sensor built-in liquid crystal panel 301. In one embodiment, the auxiliary image display position determination unit 133 displays the display position (Xs, Ys) based on the instruction coordinates 65 stored in the instruction coordinate storage unit 22 and the image of the finger 64 acquired from the sensor data processing unit 703. ).

詳しく述べれば、まず、補助画像表示位置決定部133は、指示座標記憶部22から指示座標65を呼び出す。補助画像表示位置決定部133はまた、データ処理部700に、「データ種別」を”全体画像”、「データ取得タイミング」を、”センス”とした上記コマンドを送り、センサデータ処理部703から上記”全体画像データ”(以降、像データと称する)を取得する。そして、得られた像データを像データ記憶部24に記憶させる。なお、ステップS2において、”全体画像”を予め座標と同時に取得するようにしてもよい。   More specifically, first, the auxiliary image display position determination unit 133 calls the designated coordinates 65 from the designated coordinate storage unit 22. The auxiliary image display position determination unit 133 also sends the above-described command with “data type” as “whole image” and “data acquisition timing” as “sense” to the data processing unit 700, and the sensor data processing unit 703 sends the above-mentioned command. “Whole image data” (hereinafter referred to as image data) is acquired. Then, the obtained image data is stored in the image data storage unit 24. In step S2, the “whole image” may be acquired in advance at the same time as the coordinates.

次に、指示座標65の近傍であって、指64によって覆い隠されている領域外に補助画像352を表示させるように、補助画像352の表示位置を決定する。以下、その方法の一例を述べる。   Next, the display position of the auxiliary image 352 is determined so that the auxiliary image 352 is displayed in the vicinity of the designated coordinates 65 and outside the area covered by the finger 64. An example of the method will be described below.

補助画像表示位置決定部133は、像データ記憶部24に記憶された像データに基づいて、センサ内蔵液晶パネル301上の指64によって覆い隠されている領域を特定する。上述したように、上記像データは、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データであり、指64がセンサ内蔵液晶パネル301上を覆い隠したとき、当該覆い隠した領域の光センサ回路32が受光する光量が変化するため、当該光センサ回路32が出力する電圧に変化が生じ、その結果として、センサ制御部602が生成する画像データのうち、指64が覆い隠した領域の画素値の明度に変化が生じることとなる。すなわち、上記スキャンのための上記コマンドにおける「スキャン方式」が“00”(反射)である場合には、上記領域の明度が高くなり、該「スキャン方式」が“01”(透過)である場合には、上記領域の明度が低くなる。そこで、上記「スキャン方式」が“00”(反射)である場合には、明度が所定の閾値より高い領域を、該「スキャン方式」が“01”(透過)である場合には、明度が所定の閾値より低い領域を、指64が覆い隠した領域として特定する。特定した結果は、例えば、上記像データの各画素が上記領域に属するか否かの情報を、該像データに関連付けて像データ記憶部24に記憶すればよい。   The auxiliary image display position determination unit 133 specifies an area covered by the finger 64 on the sensor built-in liquid crystal panel 301 based on the image data stored in the image data storage unit 24. As described above, the image data is image data obtained as a result of scanning the entire sensor built-in liquid crystal panel 301. When the finger 64 covers the sensor built-in liquid crystal panel 301, the light in the covered area is displayed. Since the amount of light received by the sensor circuit 32 changes, a change occurs in the voltage output from the photosensor circuit 32. As a result, in the image data generated by the sensor control unit 602, the region of the area covered by the finger 64 is covered. A change occurs in the brightness of the pixel value. That is, when the “scan method” in the command for the scan is “00” (reflection), the brightness of the area is high, and the “scan method” is “01” (transmission). In some cases, the brightness of the region is low. Therefore, when the “scan method” is “00” (reflection), the brightness is higher than a predetermined threshold value. When the “scan method” is “01” (transmission), the brightness is An area lower than the predetermined threshold is specified as an area covered by the finger 64. As the identified result, for example, information on whether each pixel of the image data belongs to the region may be stored in the image data storage unit 24 in association with the image data.

続いて、図12に示すように、補助画像352の表示位置の候補を設定する(図中352a〜dに示される位置)。例えば、指64によって指示されている(指示座標65によって示される点を包含している)ボタン350を取り囲むように、補助画像352の候補位置A、候補位置B、候補位置C、および候補位置Dを決定する。図12に、候補位置A〜Dのそれぞれの位置に表示した場合の補助画像352a〜dを示す。ボタン350の位置を(Xb,Yb)、寸法を(Wb,Hb)とした場合、一実施形態において、候補位置Aは(Xb−Wb−3k,Yb−k)、候補位置Bは(Xb−k,Yb−Hb−3k)、候補位置Cは(Xb+Wb+2k,Yb−k)、および候補位置D(Xb−k,Yb+Hb+2k)とすることができる。なお、kは定数、補助画像の寸法は(Wb+2k,Hb+2k)となる。   Subsequently, as shown in FIG. 12, candidates for the display position of the auxiliary image 352 are set (positions indicated by 352a to 352d in the figure). For example, the candidate position A, candidate position B, candidate position C, and candidate position D of the auxiliary image 352 so as to surround the button 350 indicated by the finger 64 (including the point indicated by the indicated coordinate 65). To decide. FIG. 12 shows auxiliary images 352a to 352d when displayed at each of the candidate positions A to D. When the position of the button 350 is (Xb, Yb) and the dimensions are (Wb, Hb), in one embodiment, the candidate position A is (Xb-Wb-3k, Yb-k), and the candidate position B is (Xb- k, Yb-Hb-3k), candidate position C can be (Xb + Wb + 2k, Yb-k), and candidate position D (Xb-k, Yb + Hb + 2k). Note that k is a constant, and the dimensions of the auxiliary image are (Wb + 2k, Hb + 2k).

次に、それぞれの候補位置に表示させた場合の補助画像と、上記特定した指64が覆い隠した領域との重なりとを判定する。この判定は、例えば、それぞれの補助画像の候補が包含する画素の内、上記特定した指64が覆い隠した領域に属する画素のパーセンテージを求め、当該パーセンテージが所定の閾値以上となる場合に重なっていると判断すればよい。そして、候補位置A〜Dのうち、補助画像が指64の像と重なっていないと判定された候補位置を表示位置として決定する。例えば、図12の場合であれば、候補位置Bまたは候補位置Cを表示位置として決定する。このとき、指64の像と重なっていないと判定された複数の候補位置から上記表示位置を選択する際に、指64の方向に基づいて該表示位置を選択してもよい。すなわち、指示座標65から、指64の方向に近い方向に存在する候補位置を表示位置として選択する。指64の方向は、例えば、指示座標65から上記指64が覆い隠した領域に属する画素が多く存在する方向の逆方向として算出すればよい。補助画像表示制御部13は補助画像表示位置決定部133が上記表示位置を決定した後、被指示画面表示制御部11にステップS6を実行させる。   Next, it is determined whether the auxiliary image displayed at each candidate position overlaps the area covered by the identified finger 64. This determination is performed, for example, by calculating the percentage of pixels belonging to the area covered by the specified finger 64 among the pixels included in each auxiliary image candidate, and overlapping when the percentage is equal to or greater than a predetermined threshold. You may judge that it is. Then, among the candidate positions A to D, the candidate position determined that the auxiliary image does not overlap the image of the finger 64 is determined as the display position. For example, in the case of FIG. 12, candidate position B or candidate position C is determined as the display position. At this time, when the display position is selected from a plurality of candidate positions determined not to overlap the image of the finger 64, the display position may be selected based on the direction of the finger 64. That is, a candidate position that exists in a direction close to the direction of the finger 64 is selected as the display position from the designated coordinates 65. The direction of the finger 64 may be calculated as, for example, the direction opposite to the direction in which there are many pixels belonging to the area covered by the finger 64 from the designated coordinates 65. The auxiliary image display control unit 13 causes the instructed screen display control unit 11 to execute step S6 after the auxiliary image display position determination unit 133 determines the display position.

なお、上記候補位置の選択は、上述した位置に限られるものではなく、4つに限定されるものでもない。例えば、左右または上下の2箇所としてもよいし、60°ごとに6箇所としてもよいし、それ以上の数の箇所としてもよい。   The selection of the candidate positions is not limited to the positions described above, and is not limited to four. For example, it may be two places on the left and right or top and bottom, may be six places every 60 °, or may be more places.

次に、ステップS6において、データ表示/センサ装置100は、ステップS4において決定した補助画像352を、ステップS5において決定した表示位置に、センサ内蔵液晶パネル301に表示させる。   Next, in step S6, the data display / sensor device 100 causes the sensor built-in liquid crystal panel 301 to display the auxiliary image 352 determined in step S4 at the display position determined in step S5.

一実施形態において、被指示画面表示制御部11は、補助画像352の画像データおよび上記表示位置に基づいて、周知の画像合成技術により、従前に表示していた被指示画面(スクリーンキーボード351)に補助画像352を合成して、表示すべき全体画像のデータを生成して、表示データ処理部701に送るとともに、「表示パネル」を表示/光センサ部300とした上記コマンドをデータ処理部700に送る。データ処理部700は、上述したように、表示制御部601およびバックライト制御部603を制御してセンサ内蔵液晶パネル301上にスクリーンキーボード351とともに補助画像352を表示させる。   In one embodiment, the instructed screen display control unit 11 displays the instructed screen (screen keyboard 351) that has been displayed by a known image composition technique based on the image data of the auxiliary image 352 and the display position. The auxiliary image 352 is synthesized to generate data for the entire image to be displayed and sent to the display data processing unit 701, and the above-mentioned command using the “display panel” as the display / light sensor unit 300 is sent to the data processing unit 700. send. As described above, the data processing unit 700 controls the display control unit 601 and the backlight control unit 603 to display the auxiliary image 352 together with the screen keyboard 351 on the sensor-equipped liquid crystal panel 301.

以降は、ステップS2に戻り、ユーザの新たな指示を待つ。   Thereafter, the process returns to step S2 and waits for a new instruction from the user.

なお、ステップS1において表示する被指示画面は、スクリーンキーボード351である必要はなく、種々の画像とすることができる。例えば、それぞれ特定の機能(例えば、OKボタン、キャンセルボタン等)に対応するボタン350を表示させてもよい。この場合、ステップS1において上述のようなボタン350を表示させること以外は、ステップS1〜S6について上記と同様に実行すればよい。また、被指示画面にボタン350を表示する必要はなく、その場合、ステップS4において、補助画像350としては、指示座標65に関連付けられた画像、例えば、指示座標65が示す点の近傍を拡大した画像等にすることにより、上記実施形態に係るデータ表示/センサ装置100と同様、指64等に覆い隠されてしまい、ユーザが見え難くなってしまっている、指64が指示する先についての情報を、ユーザに首尾よく提示することができる。よって、上記画像表示/像検知装置とユーザとの間の対話を円滑化することができる。   The instructed screen displayed in step S1 does not need to be the screen keyboard 351, and can be various images. For example, buttons 350 corresponding to specific functions (for example, an OK button, a cancel button, etc.) may be displayed. In this case, what is necessary is just to perform similarly to the above about step S1-S6 except displaying the above buttons 350 in step S1. Further, it is not necessary to display the button 350 on the instructed screen. In that case, in step S4, as the auxiliary image 350, an image associated with the designated coordinate 65, for example, the vicinity of the point indicated by the designated coordinate 65 is enlarged. As with the data display / sensor device 100 according to the above-described embodiment, by making an image or the like, the information about the destination indicated by the finger 64 that is obscured by the finger 64 or the like and is difficult for the user to see. Can be successfully presented to the user. Therefore, the interaction between the image display / image detection apparatus and the user can be facilitated.

(プログラムおよび記録媒体)
最後に、データ表示/センサ装置100に含まれている回路制御部600、データ処理部700、および主制御部800は、ハードウェアロジックによって構成すればよい。または、次のように、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
(Program and recording medium)
Finally, the circuit control unit 600, the data processing unit 700, and the main control unit 800 included in the data display / sensor device 100 may be configured by hardware logic. Alternatively, it may be realized by software using a CPU (Central Processing Unit) as follows.

すなわち、回路制御部600、データ処理部700および主制御部800は、各機能を実現するプログラムの命令を実行するMPUなどのCPU、このプログラムを格納したROM(Read Only Memory)、上記プログラムを実行可能な形式に展開するRAM(Random Access Memory)、および、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)を備えている。   That is, the circuit control unit 600, the data processing unit 700, and the main control unit 800 are a CPU such as an MPU that executes instructions of a program that realizes each function, a ROM (Read Only Memory) that stores the program, and executes the program. A RAM (Random Access Memory) that expands into a possible format, and a storage device (recording medium) such as a memory that stores the program and various data are provided.

そして、本発明の目的は、回路制御部600、データ処理部700および主制御部800のプログラムメモリに固定的に担持されている場合に限らず、上記プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、または、ソースプログラム)を記録した記録媒体をデータ表示/センサ装置100に供給し、データ表示/センサ装置100が上記記録媒体に記録されている上記プログラムコードを読み出して実行することによっても、達成可能である。   The object of the present invention is not limited to the case where the program memory of the circuit control unit 600, the data processing unit 700, and the main control unit 800 is fixedly supported, but the program code of the above program (execution format program, intermediate code) Also, a recording medium in which a program or a source program is recorded is supplied to the data display / sensor device 100, and the data display / sensor device 100 reads and executes the program code recorded in the recording medium. Achievable.

上記記録媒体は、特定の構造または種類のものに限定されない。すなわちこの記録媒体は、たとえば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などとすることができる。   The recording medium is not limited to a specific structure or type. That is, the recording medium includes, for example, a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy (registered trademark) disk / hard disk, and an optical disk such as a CD-ROM / MO / MD / DVD / CD-R. System, a card system such as an IC card (including a memory card) / optical card, or a semiconductor memory system such as a mask ROM / EPROM / EEPROM / flash ROM.

また、回路制御部600、データ処理部700および主制御部800(またはデータ表示/センサ装置100)を通信ネットワークと接続可能に構成しても、本発明の目的を達成できる。この場合、上記のプログラムコードを、通信ネットワークを介して回路制御部600、データ処理部700および主制御部800に供給する。この通信ネットワークは回路制御部600、データ処理部700および主制御部800にプログラムコードを供給できるものであればよく、特定の種類または形態に限定されない。たとえばインターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等であればよい。   The object of the present invention can be achieved even if the circuit control unit 600, the data processing unit 700, and the main control unit 800 (or the data display / sensor device 100) are configured to be connectable to a communication network. In this case, the program code is supplied to the circuit control unit 600, the data processing unit 700, and the main control unit 800 via the communication network. The communication network only needs to be able to supply program codes to the circuit control unit 600, the data processing unit 700, and the main control unit 800, and is not limited to a specific type or form. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication network, etc. may be used.

この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な任意の媒体であればよく、特定の構成または種類のものに限定されない。たとえばIEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   The transmission medium constituting the communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type. For example, even with wired lines such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, infrared rays such as IrDA and remote control, Bluetooth (registered trademark), 802.11 wireless, HDR, mobile phone It can also be used by radio such as a telephone network, a satellite line, and a terrestrial digital network. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

以上、本発明を実施形態に基づいて具体的に説明したが、本発明は、上述した実施形態に限定されるものではなく、請求項に示した範囲において種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention has been specifically described above based on the embodiments. However, the present invention is not limited to the above-described embodiments, and various modifications are possible within the scope of the claims, and different implementations are possible. Embodiments obtained by appropriately combining the technical means disclosed in each form are also included in the technical scope of the present invention.

本発明は、各種情報機器において利用することができる。   The present invention can be used in various information devices.

本発明の一実施形態に係るデータ表示/センサ装置の外観を模式的に図である。1 is a diagram schematically illustrating the appearance of a data display / sensor device according to an embodiment of the present invention. 本発明の一実施形態に係るデータ表示/センサ装置の動作の一例を模式的に示す図である。It is a figure which shows typically an example of operation | movement of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルの断面を模式的に示す図である。It is a figure which shows typically the cross section of the liquid crystal panel with a built-in sensor with which the data display / sensor apparatus which concerns on one Embodiment of this invention is provided. 図4(a)は、本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルにて反射像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。図4(b)は、本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルにて影像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。FIG. 4A is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a reflected image on the sensor-equipped liquid crystal panel included in the data display / sensor device according to the embodiment of the present invention. is there. FIG. 4B is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a shadow image on the sensor-embedded liquid crystal panel included in the data display / sensor device according to the embodiment of the present invention. . 本発明の一実施形態に係るデータ表示/センサ装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置で用いられるコマンドのフレーム構造の一例を模式的に示す図である。It is a figure which shows typically an example of the frame structure of the command used with the data display / sensor apparatus which concerns on one Embodiment of this invention. 図6に示したコマンドに含まれる各フィールドに指定可能な値の一例、および、その概要を説明する図である。It is a figure explaining an example of the value which can be specified to each field contained in the command shown in FIG. 6, and its outline. 図8(a)は、本発明の一実施形態に係るデータ表示/センサ装置にて、対象物がセンサ内蔵液晶パネル上に置かれていないときに、センサ内蔵液晶パネル全体をスキャンした結果として得られる画像データである。図8(b)は、本発明の一実施形態に係るデータ表示/センサ装置にて、ユーザが指でセンサ内蔵液晶パネルをタッチしているときに、スキャンした結果として得られる画像データである。FIG. 8A is obtained as a result of scanning the entire liquid crystal panel with built-in sensor when the object is not placed on the liquid crystal panel with built-in sensor in the data display / sensor device according to one embodiment of the present invention. Image data. FIG. 8B shows image data obtained as a result of scanning when the user touches the sensor built-in liquid crystal panel with a finger in the data display / sensor device according to the embodiment of the present invention. 本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルの構成およびその周辺回路の構成を示すブロック図である。It is a block diagram which shows the structure of the liquid crystal panel with a sensor with which the data display / sensor apparatus which concerns on one Embodiment of this invention is provided, and the structure of its peripheral circuit. 本発明の一実施形態に係るデータ表示/センサ装置の構成を主制御部および記憶部を中心に示すブロック図である。It is a block diagram which shows the structure of the data display / sensor apparatus which concerns on one Embodiment of this invention centering on a main-control part and a memory | storage part. 本発明の一実施形態に係るデータ表示/センサ装置の動作の一例を説明するフローチャートである。It is a flowchart explaining an example of operation | movement of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置の動作の一例の一部を模式的に説明する図である。It is a figure which illustrates typically a part of example of operation | movement of the data display / sensor apparatus which concerns on one Embodiment of this invention.

符号の説明Explanation of symbols

6 フォトダイオード
64 指(対象物)
65 指示座標
100 データ表示/センサ装置(画像表示/像検知装置)
300 表示/光センサ部
301 センサ内蔵液晶パネル(面状部材)
350 ボタン(被指示画像)
351 スクリーンキーボード
352 補助画像
600 回路制御部
601 表示制御部
602 センサ制御部
603 バックライト制御部
700 データ処理部
701 表示データ処理部
703 センサデータ処理部
800 主制御部
901 記憶部
6 Photodiode 64 Finger (object)
65 Indicated coordinates 100 Data display / sensor device (image display / image detection device)
300 Display / light sensor unit 301 Liquid crystal panel with built-in sensor (planar member)
350 button (instructed image)
351 Screen keyboard 352 Auxiliary image 600 Circuit controller 601 Display controller 602 Sensor controller 603 Backlight controller 700 Data processor 701 Display data processor 703 Sensor data processor 800 Main controller 901 Storage unit

Claims (7)

画像を表示するとともに、近傍の像を検知する面状部材と、
該面状部材が検知した対象物の像に基づいて、該面状部材上の、該対象物が接近する先の点を示す指示座標を検出する指示座標検出手段と、
該対象物により覆い隠された該面状部材上の領域を、該面状部材が検知した対象物の像に基づいて特定するとともに、特定した領域外に該指示座標に関連付けられた補助画像を表示させる補助画像表示制御手段と、
を備えていることを特徴とする画像表示/像検知装置。
A planar member for displaying an image and detecting a nearby image;
On the basis of the image of the object detected by the planar member, indicated coordinate detection means for detecting indicated coordinates on the planar member indicating the point to which the object approaches;
An area on the planar member that is covered by the object is identified based on the image of the object detected by the planar member, and an auxiliary image associated with the designated coordinates is outside the identified area. Auxiliary image display control means for displaying;
An image display / image detection apparatus comprising:
上記面状部材に、複数の被指示画像を表示させる被指示画像表示手段を更に備えており、
上記補助画像表示制御手段は、該複数の被指示画像のうち上記指示座標が示す点を包含する被指示画像に関連付けられた画像を、上記補助画像として上記面状部材に表示することを特徴とする請求項1に記載の画像表示/像検知装置。
The sheet member further includes an instruction image display means for displaying a plurality of instruction images,
The auxiliary image display control means displays an image associated with the pointed image including the point indicated by the pointed coordinate among the plurality of pointed images as the auxiliary image on the planar member. The image display / image detection apparatus according to claim 1.
上記複数の被指示画像が、それぞれ文字、数字、または記号を示しており、上記面状部材上にスクリーンキーボードを構成していることを特徴とする請求項2に記載の画像表示/像検知装置。   3. The image display / image detection device according to claim 2, wherein each of the plurality of designated images indicates a character, a number, or a symbol, and a screen keyboard is formed on the planar member. . 上記面状部材が、該面状部材上の各位置における受光量を検出するフォトダイオード群を備えており、該フォトダイオード群が検出した受光量の変化に基づいて上記近傍の像を検知することを特徴とする請求項1から3のいずれか一項に記載の画像表示/像検知装置。   The planar member includes a photodiode group that detects the amount of light received at each position on the planar member, and detects an image in the vicinity based on a change in the amount of received light detected by the photodiode group. The image display / image detection apparatus according to claim 1, wherein 上記補助画像表示制御手段が、上記対象物が上記面状部材に接触する前に、上記補助画像を表示させることを特徴とする請求項1から4のいずれか一項に記載の画像表示/像検知装置。   The image display / image according to any one of claims 1 to 4, wherein the auxiliary image display control means displays the auxiliary image before the object contacts the planar member. Detection device. 画像を表示するとともに近傍の像を検知する面状部材を備えた画像表示/像検知装置が、該面状部材に補助画像を表示する補助画像表示方法であって、
該面状部材が検知した対象物の像に基づいて、該面状部材上の、該対象物が接近する先の点を示す指示座標を検出する指示座標検出工程と、
該対象物により覆い隠された該面状部材上の領域を、該面状部材が検知した対象物の像に基づいて特定するとともに、特定した領域外に該指示座標に関連付けられた補助画像を表示させる補助画像表示工程と
を包含することを特徴とする補助画像表示方法。
An image display / image detection apparatus provided with a planar member for displaying an image and detecting a nearby image is an auxiliary image display method for displaying an auxiliary image on the planar member,
Based on the image of the object detected by the planar member, an indicated coordinate detection step of detecting indicated coordinates on the planar member that indicate a point to which the object approaches,
An area on the planar member that is covered by the object is identified based on the image of the object detected by the planar member, and an auxiliary image associated with the designated coordinates is outside the identified area. A method for displaying an auxiliary image, comprising the step of displaying an auxiliary image.
請求項1から5のいずれか一項に記載の画像表示/像検知装置を動作させるプログラムであって、コンピュータを上記の各手段として機能させるための、プログラム。   A program for operating the image display / image detection apparatus according to any one of claims 1 to 5, wherein the program causes a computer to function as each of the means.
JP2008261693A 2008-10-08 2008-10-08 Image display/image detection device, auxiliary image display method, and program Pending JP2010092272A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008261693A JP2010092272A (en) 2008-10-08 2008-10-08 Image display/image detection device, auxiliary image display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008261693A JP2010092272A (en) 2008-10-08 2008-10-08 Image display/image detection device, auxiliary image display method, and program

Publications (1)

Publication Number Publication Date
JP2010092272A true JP2010092272A (en) 2010-04-22

Family

ID=42254920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008261693A Pending JP2010092272A (en) 2008-10-08 2008-10-08 Image display/image detection device, auxiliary image display method, and program

Country Status (1)

Country Link
JP (1) JP2010092272A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013077338A1 (en) * 2011-11-21 2013-05-30 株式会社ニコン Display device, and display control program
KR20170071122A (en) * 2015-12-15 2017-06-23 현대자동차주식회사 Navigation system for vehicle and method for controlling the same

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013077338A1 (en) * 2011-11-21 2013-05-30 株式会社ニコン Display device, and display control program
CN104054044A (en) * 2011-11-21 2014-09-17 株式会社尼康 Display device, and display control program
US20140320615A1 (en) * 2011-11-21 2014-10-30 Nikon Corporation Display device, and display control program
JPWO2013077338A1 (en) * 2011-11-21 2015-04-27 株式会社ニコン Display device, display control program
JP2018061251A (en) * 2011-11-21 2018-04-12 株式会社ニコン Control device, detection device, display system, electronic apparatus, and program
RU2658790C2 (en) * 2011-11-21 2018-06-22 Никон Корпорейшн Display device and display control program
CN110119203A (en) * 2011-11-21 2019-08-13 株式会社尼康 Display device and display control program
CN110275607A (en) * 2011-11-21 2019-09-24 株式会社尼康 Display device and display control program
US10477191B2 (en) 2011-11-21 2019-11-12 Nikon Corporation Display device, and display control program
KR20170071122A (en) * 2015-12-15 2017-06-23 현대자동차주식회사 Navigation system for vehicle and method for controlling the same
KR102267259B1 (en) * 2015-12-15 2021-06-22 현대자동차주식회사 Navigation system for vehicle and method for controlling the same

Similar Documents

Publication Publication Date Title
JP5367339B2 (en) MENU DISPLAY DEVICE, MENU DISPLAY DEVICE CONTROL METHOD, AND MENU DISPLAY PROGRAM
JP2010140300A (en) Display, control method, control program and recording medium
JP2010108081A (en) Menu display device, method of controlling the menu display device, and menu display program
JP5095574B2 (en) Image display / image detection apparatus, image display method, image display program, and recording medium recording the program
JP2010186442A (en) Input device and input control method
JP2010108303A (en) Image detection/display device
JP2010122972A (en) Image display/detection device, selection method, and program
JP5306780B2 (en) Input device
JP5185086B2 (en) Display device, display device control method, display device control program, and computer-readable recording medium storing the program
JP2010109467A (en) Image display/image detection apparatus
JP5254753B2 (en) Numerical input device, numerical input method, numerical input program, and computer-readable recording medium
JP2010204945A (en) Input device and input method
JP2010122383A (en) Display apparatus
JP2010118018A (en) Position identifying device, position identification program, computer-readable storage medium, and position identification method
JP2010092272A (en) Image display/image detection device, auxiliary image display method, and program
JP2010117841A (en) Image detection device, recognition method of input position and program
JP5275754B2 (en) Process execution instruction device, electronic apparatus, and method for controlling process execution instruction device
JP5567776B2 (en) Color detection / color output device, color detection / color output program, computer-readable recording medium, and color detection / color output method
JP2010122444A (en) Map display apparatus, method for controlling map display apparatus, program for controlling map display apparatus, and computer readable recording medium
JP2010160689A (en) Input device and method of controlling the same
JP5171572B2 (en) Image display device, control method for image display device, program, and recording medium
JP2010119064A (en) Color detection device, color detection program, computer readable recording medium, and color detection method
JP2010108446A (en) Information processor, control method of information processor, and information processing program
JP2010146394A (en) Image detector, control method, control program, and computer-readable recording medium recording the control program
JP5179325B2 (en) Image analysis apparatus, image analysis method, display apparatus, image analysis program, and recording medium