JP2010062940A - Image display/image detection apparatus - Google Patents

Image display/image detection apparatus Download PDF

Info

Publication number
JP2010062940A
JP2010062940A JP2008227336A JP2008227336A JP2010062940A JP 2010062940 A JP2010062940 A JP 2010062940A JP 2008227336 A JP2008227336 A JP 2008227336A JP 2008227336 A JP2008227336 A JP 2008227336A JP 2010062940 A JP2010062940 A JP 2010062940A
Authority
JP
Japan
Prior art keywords
image
data
display
scan
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008227336A
Other languages
Japanese (ja)
Inventor
Hidemitsu Minamida
英満 南田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2008227336A priority Critical patent/JP2010062940A/en
Publication of JP2010062940A publication Critical patent/JP2010062940A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Scanning Arrangements (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Input (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Facsimiles In General (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To detect that a casing has been folded when reading an image for detection displayed on one of two inner surfaces opposing while the casing has been folded on the other inner surface. <P>SOLUTION: An image display/image detection apparatus having the casing that is folded in two includes: an image storage section 24 for detection for correlating a prescribed image for detection with prescribed processing for storage; an image display processing section 124 for detection for displaying the image for detection on a liquid crystal panel with a built-in sensor at one display/photosensor section 300 while the casing has not been folded; and an image scan section 126 for detection for executing the prescribed processing correlated with the image for detection when the image for detection, which has been displayed on the liquid crystal panel with a built-in sensor of the other display/photosensor section 300 by the image display processing section 124 for detection, is detected while the casing has been folded. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像の表示および対象物の読み取りを同時に行うことができ、特に、簡易な操作により、文書などの対象物を読み取ることができる画像表示/像検知装置に関するものである。   The present invention relates to an image display / image detection apparatus capable of simultaneously displaying an image and reading an object, and particularly capable of reading an object such as a document by a simple operation.

従来から、文書に記載されている情報を読み取り、画像データとして電子化することができるスキャナ装置が、広く用いられている。さらに近年では、携帯型のスキャナ装置が登場している。その一例として、文字などの読み取りが可能なカメラ付き携帯電話機や、ファクシミリ装置などに備えられているハンディスキャナなどが挙げられる。   2. Description of the Related Art Conventionally, scanner devices that can read information described in documents and digitize it as image data have been widely used. In recent years, portable scanner devices have appeared. As an example, there are a mobile phone with a camera capable of reading characters and the like, a handy scanner provided in a facsimile machine, and the like.

また、ユーザの利便性を高めるため、一度の操作で文書の両面を同時に読み取ることができるスキャナ装置が従来から用いられている。そのようなスキャナ装置は、コピー機などのように、大型で据え置き型が一般的であるが、携帯型も登場している(特許文献1参照)。   In addition, in order to improve user convenience, a scanner device that can simultaneously read both sides of a document with a single operation has been used. Such a scanner device is generally large and stationary, such as a copier, but a portable type has also appeared (see Patent Document 1).

特許文献1に開示されているスキャナ装置は、2つのスキャナユニットをヒンジ部で折り畳める構造になっており、該折り畳んだスキャナユニットの間に挟んだ文書の両面を、同時に読み取ることができる。   The scanner device disclosed in Patent Document 1 has a structure in which two scanner units are folded at a hinge portion, and can simultaneously read both sides of a document sandwiched between the folded scanner units.

また、特許文献2には、文書の両面をスキャナ装置での読み取り結果を取得し、自装置の表示部に表示する画像情報処理装置が開示されている。
特開2008−66961号公報(公開日:平成20年3月21日) 特開平8−88741号公報(公開日:平成8年4月2日)
Patent Document 2 discloses an image information processing apparatus that acquires the reading result of both sides of a document by a scanner device and displays the result on a display unit of the device itself.
JP 2008-66961 A (publication date: March 21, 2008) JP-A-8-88741 (Publication date: April 2, 1996)

特許文献1に開示されているスキャナ装置は、ヒンジ部などに、スキャナユニットの折り畳みや開閉を検出するためのメカニカルなスイッチを設けており、当該スイッチがオンの状態になることをトリガとして、スキャナユニットの間に挟んだ文書などの対象物の読み取りを開始する。また、コピー機などの従来のスキャナ装置では、ユーザが読み取りを指示するボタン等を押下したことをトリガとして、文書などの対象物の読み取りを開始するのが一般的である。   The scanner device disclosed in Patent Document 1 is provided with a mechanical switch for detecting folding or opening / closing of a scanner unit in a hinge portion or the like, and the scanner is triggered when the switch is turned on. Start reading objects such as documents sandwiched between units. Further, in a conventional scanner device such as a copying machine, reading of an object such as a document is generally started when a user presses a button for instructing reading.

しかしながら、上記スイッチがオンの状態になることをトリガとして読み取りを開始する場合は、例えば、ユーザが文書などの対象物の読み取りを行うことを目的とせずに、単にスキャナユニットを折り畳んだときであっても、読み取りが開始されてしまう場合がある。   However, when reading is triggered by the switch being turned on, for example, when the user simply folds the scanner unit without aiming to read an object such as a document. However, reading may be started.

また、ユーザが読み取りを指示するボタン等を押下したことトリガとして読み取りを開始する場合は、ユーザがスキャナユニットを折り畳んでいないときであっても、読み取りが開始されてしまう場合がある。   In addition, when reading is started as a trigger when the user presses a button or the like instructing reading, reading may be started even when the user does not fold the scanner unit.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、画像表示および対象物の読み取りを同時に行うことができる、2つ折りに折り畳み可能な筐体を有する画像表示/像検知装置であって、上記筐体を折り畳んだ状態で対向する2つの内面のうち、一方の内面に表示した検知用画像を、他方の内面にて読み取ることができたとき、上記筐体が折り畳まれていることを検知することができる画像表示/像検知装置を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an image display / image detection having a housing that can be folded in two and can simultaneously perform image display and reading of an object. When the detection image displayed on one of the two inner surfaces facing each other in the folded state of the casing can be read on the other inner surface, the casing is folded. It is an object of the present invention to provide an image display / image detection apparatus that can detect the presence of the image.

上記課題を解決するために、本発明に係る画像表示/像検知装置は、2つ折りに折り畳み可能な筐体を有し、上記筐体を折り畳んだ状態で対向する2つの内面には、一方の内面に、画像を表示する第1面状部材が、他方の内面に、近傍の像を検知する第2面状部材が、互いに対向するようにそれぞれ配設された画像表示/像検知装置であって、所定の検知用画像と、自装置にて実行可能な所定の処理を示す情報とを対応付けて記憶する検知用画像記憶部と、上記第1面状部材に上記検知用画像を表示させる検知用画像表示指示手段と、上記筐体を折り畳んだ状態で、上記第2面状部材にて、上記検知用画像表示指示手段が上記第1面状部材に表示させた上記検知用画像を検知したとき、当該検知用画像に対応付けられた上記所定の処理を示す情報を、上記検知用画像記憶部から取得し、当該取得した情報で示される上記所定の処理を実行する処理実行手段とを備えることを特徴としている。   In order to solve the above problems, an image display / image detection apparatus according to the present invention has a housing that can be folded in two, and two inner surfaces facing each other in the folded state of the housing have one The image display / image detection apparatus has a first planar member for displaying an image on the inner surface and a second planar member for detecting a nearby image on the other inner surface so as to face each other. A detection image storage unit that stores a predetermined detection image and information indicating a predetermined process that can be executed by the apparatus, and the detection image is displayed on the first planar member. The detection image display instruction means and the detection image displayed on the first planar member by the detection image display instruction means are detected by the second planar member in a state where the casing is folded. Shows the predetermined processing associated with the detection image. The broadcast is acquired from the detecting image storage unit, and characterized by comprising a process execution means for executing the predetermined process shown in the acquired information.

上記の構成によれば、所定の検知用画像と、自装置にて実行する所定の処理を示す情報とを対応付けて記憶することができる。そして、上記第1面状部材に上記検知用画像を表示させることができる。そして、上記筐体を折り畳んだ状態で、上記第2面状部材にて、上記検知用画像表示指示手段が上記第1面状部材に表示させた上記検知用画像が検知されたとき、当該検知用画像に対応付けられた上記所定の処理を示す情報を、上記検知用画像記憶部から取得し、当該取得した情報で示される上記所定の処理を実行することができる。   According to the above configuration, it is possible to store a predetermined detection image and information indicating a predetermined process executed by the own apparatus in association with each other. The detection image can be displayed on the first planar member. When the detection image displayed on the first planar member by the detection image display instruction means is detected by the second planar member in a state where the casing is folded, the detection is performed. Information indicating the predetermined process associated with the image for use can be acquired from the detection image storage unit, and the predetermined process indicated by the acquired information can be executed.

よって、上記第1面状部材に上記検知用画像を表示させた状態で、ユーザが上記筐体を折り畳むことにより、上記第2面状部材にて上記検知用画像を検知させることができるとともに、上記検知用画像に対応する上記所定の処理を実行させることができる。   Therefore, the user can fold the casing in a state where the detection image is displayed on the first planar member, and the detection image can be detected by the second planar member. The predetermined process corresponding to the detection image can be executed.

したがって、いわゆるクラムシェル型の筐体を有する装置のヒンジ部分などに一般的に備えられる、上記筐体の開閉を検知することが可能なメカニカルなスイッチが設けられていなくても、ユーザが上記筐体を折り畳むことにより、上記検知用画像に対応する上記所定の処理を実行させることができるという効果を奏する。なお、上記第1面状部材に表示した上記検知用画像が上記第2面状部材にて検知されたときは、上記筐体は折り畳まれた状態であることがわかる。   Accordingly, even if a mechanical switch that is generally provided in a hinge portion of an apparatus having a so-called clamshell type housing and can detect opening and closing of the housing is not provided, the user can operate the housing. By folding the body, it is possible to execute the predetermined processing corresponding to the detection image. Note that when the detection image displayed on the first planar member is detected by the second planar member, it can be seen that the casing is in a folded state.

また、上記メカニカルなスイッチが上記筐体の開閉を検知することにより所定の処理を実行する仕組みでは、ユーザが誤って上記筐体を開閉する度に所定の処理を実行することとなるのに対して、本発明に係る画像表示/像検知装置では、ユーザが誤って上記筐体を折り畳んだときであっても、上記第1面状部材に上記検知用画像が表示されていなければ、上記第2面状部材にて上記検知用画像が検知されないので、上記所定の処理が誤って実行されることを防止することができるという効果を奏する。   Further, in the mechanism in which the mechanical switch detects the opening / closing of the housing and executes the predetermined processing, the user executes the predetermined processing every time the user accidentally opens / closes the housing. In the image display / image detection apparatus according to the present invention, even if the user accidentally folds the housing, the first image is not displayed on the first planar member. Since the detection image is not detected by the two-plane member, it is possible to prevent the predetermined process from being erroneously executed.

また、上記検知用画像に応じて上記所定の処理が対応付けられているので、ユーザは上記筐体を折り畳むだけで、上記第1面状部材に表示された上記検知用画像に応じた上記所定の処理を実行することができるという効果を奏する。   In addition, since the predetermined processing is associated with the detection image, the user simply folds the casing, and the predetermined processing according to the detection image displayed on the first planar member is performed. It is possible to execute the process.

さらに、本発明に係る画像表示/像検知装置は、上記の構成において、上記所定の処理は、上記筐体を折り畳んだ状態で、上記第1面状部材または上記第2面状部材に載置された対象物の像を、上記第2面状部材にて検知する処理である構成としてもよい。   Furthermore, in the image display / image detection apparatus according to the present invention, in the above configuration, the predetermined processing is placed on the first planar member or the second planar member in a state where the casing is folded. It is good also as a structure which is the process which detects the image of the made target object with the said 2nd planar member.

上記の構成によれば、さらに、上記所定の処理は、上記筐体を折り畳んだ状態で、上記第2面状部材にて、上記第1面状部材または上記第2面状部材に載置された対象物の像を検知する処理である。   According to the above configuration, the predetermined processing is further placed on the first planar member or the second planar member by the second planar member with the casing folded. This is a process for detecting the image of the target object.

よって、上記第1面状部材に上記検知用画像を表示させた状態で、ユーザが上記筐体を折り畳むことにより、上記第2面状部材にて、上記第1面状部材または上記第2面状部材に載置された対象物の像を検知する処理を実行させることができる。   Therefore, when the user folds the casing in a state where the detection image is displayed on the first planar member, the first planar member or the second surface is obtained by the second planar member. The process which detects the image of the target object mounted on the shaped member can be executed.

したがって、メカニカルなスイッチに依らなくとも、ユーザが上記筐体を折り畳むことにより、対象物の上記第2面状部材に面している側の像を検知する処理を実行させることができるという効果を奏する。   Therefore, even if it does not depend on a mechanical switch, the effect that the process which detects the image of the side facing the said 2nd planar member of a target object can be performed by a user folding the said housing | casing. Play.

また、本発明に係る画像表示/像検知装置では、ユーザが誤って上記筐体を折り畳んだときであっても、上記第1面状部材に上記検知用画像が表示されていなければ、上記第2面状部材にて上記検知用画像が検知されないので、対象物の像を検知する処理が誤って実行されることを防止することができるという効果を奏する。   Further, in the image display / image detection apparatus according to the present invention, even if the user accidentally folds the casing, the first image is not displayed on the first planar member unless the detection image is displayed. Since the detection image is not detected by the two-plane member, there is an effect that the process of detecting the image of the object can be prevented from being erroneously executed.

さらに、本発明に係る画像表示/像検知装置は、上記の構成において、上記第1面状部材は、さらに、近傍の像を検知するものであり、上記所定の処理は、上記筐体を折り畳んだ状態で、上記第1面状部材または上記第2面状部材に載置された上記対象物の像を、上記第1面状部材にて検知する処理である構成としてもよい。   Furthermore, in the image display / image detection apparatus according to the present invention, in the configuration described above, the first planar member further detects a nearby image, and the predetermined processing is performed by folding the casing. It is good also as a process which is the process which detects the image of the said target object mounted in the said 1st planar member or the said 2nd planar member in the said state with the said 1st planar member.

上記の構成によれば、さらに、上記第1面状部材は近傍の像を検知することができ、上記所定の処理は、上記筐体を折り畳んだ状態で、上記第1面状部材にて、上記対象物の像を検知する処理である。   According to the above configuration, the first planar member can detect a nearby image, and the predetermined processing is performed by the first planar member in a state where the casing is folded. This is processing for detecting an image of the object.

よって、上記第1面状部材に上記検知用画像を表示させた状態で、ユーザが上記筐体を折り畳むことにより、上記第1面状部材にて、上記第1面状部材または上記第2面状部材に載置された対象物の像を検知する処理を実行させることができる。   Therefore, when the user folds the casing in a state where the detection image is displayed on the first planar member, the first planar member or the second surface is obtained by the first planar member. The process which detects the image of the target object mounted on the shaped member can be executed.

したがって、メカニカルなスイッチに依らなくとも、ユーザが上記筐体を折り畳むことにより、対象物の上記第1面状部材に面している側の像を検知する処理を実行させることができるという効果を奏する。   Therefore, even if it does not depend on a mechanical switch, the effect that the process which detects the image of the side which faces the said 1st planar member of a target object can be performed by a user folding up the above-mentioned case. Play.

さらに、本発明に係る画像表示/像検知装置は、上記の構成において、上記検知用画像表示指示手段は、上記検知用画像を表示させるユーザ指示を受け付けるとともに、当該ユーザ指示に応じて、上記第1面状部材に上記検知用画像を表示させる構成としてもよい。   Further, in the image display / image detection apparatus according to the present invention, in the above configuration, the detection image display instruction unit receives a user instruction to display the detection image, and in response to the user instruction, the first display The detection image may be displayed on a single planar member.

上記の構成によれば、さらに、上記検知用画像を表示させるユーザ指示を受け付けるとともに、当該ユーザ指示に応じて、上記第1面状部材に上記検知用画像を表示させることができる。   According to said structure, while receiving the user instruction | indication which displays the said image for a detection, according to the said user instruction | indication, the said image for a detection can be displayed on the said 1st planar member.

よって、ユーザ指示があったことをトリガとして、上記検知用画像を上記第1面状部材に表示させることができる。   Therefore, the detection image can be displayed on the first planar member, triggered by a user instruction.

したがって、ユーザ指示により上記第1面状部材に上記検知用画像を表示させた後、ユーザが上記筐体を折り畳むことにより、上記第1面状部材および上記第2面状部材の少なくとも一方にて、上記第1面状部材または上記第2面状部材に載置された対象物の像を検知する処理を実行させることができるという効果を奏する。   Therefore, after the detection image is displayed on the first planar member according to a user instruction, the user folds the casing, so that at least one of the first planar member and the second planar member is used. There is an effect that it is possible to execute a process of detecting an image of an object placed on the first planar member or the second planar member.

逆に、上記第1面状部材に上記検知用画像を表示させるユーザ指示を行なわないまま、ユーザが上記筐体を折り畳んでも、上記第1面状部材または上記第2面状部材に載置された対象物の像を検知する処理は実行されない。したがって、ユーザが対象物の像の検知を目的とせずに、単に上記筐体を折り畳んだときであっても、対象物の像を検知する処理が誤って実行されることを防止することができるという効果を奏する。   On the contrary, even if the user folds the casing without giving a user instruction to display the detection image on the first planar member, the first planar member or the second planar member is placed. The process of detecting the image of the target object is not executed. Therefore, even when the user does not intend to detect the image of the object but simply folds the housing, it is possible to prevent the process of detecting the image of the object from being erroneously executed. There is an effect.

さらに、本発明に係る画像表示/像検知装置は、上記の構成において、上記所定の処理は、自装置の電源をオフする処理である構成としてもよい。   Furthermore, the image display / image detection apparatus according to the present invention may be configured such that, in the above configuration, the predetermined process is a process of turning off the power of the own apparatus.

上記の構成によれば、さらに、上記所定の処理は、自装置の電源をオフする処理である。   According to the above configuration, the predetermined process is a process of turning off the power of the own apparatus.

よって、上記第1面状部材に上記検知用画像を表示させた状態で、ユーザが上記筐体を折り畳むことにより、画像表示/像検知装置の電源をオフさせることができる。   Therefore, the power of the image display / image detection apparatus can be turned off by the user folding the casing while the detection image is displayed on the first planar member.

したがって、メカニカルなスイッチに依らなくとも、ユーザが上記筐体を折り畳むことにより、画像表示/像検知装置の電源をオフさせることができるという効果を奏する。   Therefore, there is an effect that the power of the image display / image detection apparatus can be turned off when the user folds the casing without depending on the mechanical switch.

さらに、本発明に係る画像表示/像検知装置は、上記の構成において、上記検知用画像表示指示手段は、対象物を載置する領域に、上記検知用画像を表示させる構成としてもよい。   Furthermore, the image display / image detection apparatus according to the present invention may be configured such that, in the above configuration, the detection image display instruction means displays the detection image in a region where the object is placed.

上記の構成によれば、さらに、対象物を載置する領域に、上記検知用画像を表示させることができる。   According to said structure, the said image for a detection can be further displayed on the area | region which mounts a target object.

よって、上記第1面状部材上の対象物を載置する領域に上記検知用画像を表示させた状態で、ユーザが上記筐体を折り畳むことにより、上記第2面状部材にて上記検知用画像が検知されるので、上記検知用画像に対応する上記所定の処理を実行させることができる。   Therefore, in a state where the detection image is displayed in the region on which the object on the first planar member is placed, the user folds the casing so that the detection is performed on the second planar member. Since the image is detected, the predetermined processing corresponding to the detection image can be executed.

したがって、特に、上記所定の処理が自装置の電源をオフする処理である場合、ユーザが上記筐体を折り畳んだとき、上記第2面状部材にて上記検知用画像が検知されたときは、自装置の電源をオフすることができる。つまり、ユーザが、対象物を載置する領域に対象物を載置しないまま、誤って上記筐体を折り畳んだとき、対象物の像を検知する処理を行うのではなく、自装置の電源をオフすることができるという効果を奏する。   Therefore, in particular, when the predetermined process is a process of turning off the power of the own apparatus, when the user folds the casing and the detection image is detected by the second planar member, You can turn off your device. In other words, when the user accidentally folds the housing without placing the object in the area where the object is placed, the user does not perform the process of detecting the image of the object, There is an effect that it can be turned off.

以上のように、本発明に係る画像表示/像検知装置は、2つ折りに折り畳み可能な筐体を有し、上記筐体を折り畳んだ状態で対向する2つの内面には、一方の内面に、画像を表示する第1面状部材が、他方の内面に、近傍の像を検知する第2面状部材が、互いに対向するようにそれぞれ配設された画像表示/像検知装置であって、所定の検知用画像と、自装置にて実行可能な所定の処理を示す情報とを対応付けて記憶する検知用画像記憶部と、上記第1面状部材に上記検知用画像を表示させる検知用画像表示指示手段と、上記筐体を折り畳んだ状態で、上記第2面状部材にて、上記検知用画像表示指示手段が上記第1面状部材に表示させた上記検知用画像を検知したとき、当該検知用画像に対応付けられた上記所定の処理を示す情報を、上記検知用画像記憶部から取得し、当該取得した情報で示される上記所定の処理を実行する処理実行手段とを備えている。   As described above, the image display / image detection device according to the present invention has a housing that can be folded in two, and the two inner surfaces that face each other in the folded state of the housing are arranged on one inner surface, An image display / image detection device in which a first planar member for displaying an image is disposed on the other inner surface so that a second planar member for detecting a nearby image is opposed to each other. A detection image storage unit for storing the detection image and information indicating a predetermined process executable by the apparatus in association with each other, and a detection image for displaying the detection image on the first planar member When the detection image display instruction means detects the detection image displayed on the first planar member by the second planar member with the display instruction means and the housing folded, Information indicating the predetermined process associated with the detection image is Obtained from known image storage unit, and a processing executing means for executing the predetermined process shown in the acquired information.

よって、上記第1面状部材に上記検知用画像を表示させた状態で、ユーザが上記筐体を折り畳むことにより、上記第2面状部材にて上記検知用画像を検知させることができるとともに、上記検知用画像に対応する上記所定の処理を実行させることができる。   Therefore, the user can fold the casing in a state where the detection image is displayed on the first planar member, and the detection image can be detected by the second planar member. The predetermined process corresponding to the detection image can be executed.

したがって、いわゆるクラムシェル型の筐体を有する装置のヒンジ部分などに一般的に備えられる、上記筐体の開閉を検知することが可能なメカニカルなスイッチに依らなくとも、ユーザが上記筐体を折り畳むことにより、上記検知用画像に対応する上記所定の処理を実行させることができるという効果を奏する。   Therefore, the user can fold the housing without relying on a mechanical switch that is generally provided in a hinge portion of an apparatus having a so-called clamshell housing and can detect opening and closing of the housing. As a result, the predetermined processing corresponding to the detection image can be executed.

本実施形態に係るデータ表示/センサ装置100(画像表示/像検知装置)は、2つ折りに折り畳み可能な筐体を有し、上記筐体を折り畳んだ状態で対向する2つの内面のそれぞれに、センサ内蔵液晶パネル301(第1面状部材、第2面状部材)が、互いに対向するようにそれぞれ配設され、上記筐体を折り畳んだ状態で、それぞれのセンサ内蔵液晶パネル301に含まれる光センサ回路32を駆動させることにより、2つのセンサ内蔵液晶パネル301の間に挟みこんだ、文書などの対象物の表面および裏面の少なくともいずれかをスキャンするとともに、スキャンした結果として得られる画像データを、2つのセンサ内蔵液晶パネル301の少なくともいずれかに表示することが可能な装置である。そして、データ表示/センサ装置100は、一方のセンサ内蔵液晶パネル301に検知用画像を表示し、他方のセンサ内蔵液晶パネル301にてスキャンした結果として上記検知用画像を読み取ることができたとき、当該検知用画像に対応付けられた処理(例えば、上記対象物のスキャンや、自装置の電源オフなど)を実行する。   The data display / sensor device 100 (image display / image detection device) according to the present embodiment has a housing that can be folded in two, and each of the two inner surfaces facing each other in the folded state of the housing, Sensor built-in liquid crystal panels 301 (first planar member, second planar member) are arranged so as to face each other, and the light contained in each sensor built-in liquid crystal panel 301 in a state where the casing is folded. By driving the sensor circuit 32, at least one of the front and back surfaces of an object such as a document sandwiched between two sensor-equipped liquid crystal panels 301 is scanned, and image data obtained as a result of scanning is scanned. This is a device capable of displaying on at least one of the two sensor-equipped liquid crystal panels 301. Then, the data display / sensor device 100 displays the detection image on one sensor built-in liquid crystal panel 301, and can read the detection image as a result of scanning with the other sensor built-in liquid crystal panel 301. Processing associated with the detection image (for example, scanning of the target object, power-off of the own device, etc.) is executed.

まず、以下で、上記データ表示/センサ装置100が備えるセンサ内蔵液晶パネル301の概要について説明する。   First, an outline of the sensor built-in liquid crystal panel 301 included in the data display / sensor device 100 will be described below.

(センサ内蔵液晶パネルの概要)
上記データ表示/センサ装置100が備えるセンサ内蔵液晶パネル301は、データの表示に加え、対象物の画像検出が可能な液晶パネルである。ここで、対象物の画像検出とは、例えば、ユーザが指やペンなどでポインティング(タッチ)した位置の検出や、印刷物等の画像の読み取り(スキャン)である。なお、表示に用いるデバイスは、液晶パネルに限定されるものではなく、有機EL(Electro Luminescence)パネルなどであってもよい。
(Outline of LCD panel with built-in sensor)
The sensor built-in liquid crystal panel 301 provided in the data display / sensor device 100 is a liquid crystal panel capable of detecting an image of an object in addition to displaying data. Here, the image detection of the object is, for example, detection of a position pointed (touched) by the user with a finger or a pen, or reading (scanning) of an image of a printed material. The device used for display is not limited to a liquid crystal panel, and may be an organic EL (Electro Luminescence) panel or the like.

図2を参照しながら、センサ内蔵液晶パネル301の構造について説明する。図2は、センサ内蔵液晶パネル301の断面を模式的に示す図である。なお、ここで説明するセンサ内蔵液晶パネル301は一例であり、表示面と読取面とが共用されているものであれば、任意の構造のものが利用できる。   The structure of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 2 is a diagram schematically showing a cross section of the sensor built-in liquid crystal panel 301. The sensor built-in liquid crystal panel 301 described here is an example, and any structure can be used as long as the display surface and the reading surface are shared.

図示のとおり、センサ内蔵液晶パネル301は、背面側に配置されるアクティブマトリクス基板51Aと、表面側に配置される対向基板51Bとを備え、これら基板の間に液晶層52を挟持した構造を有している。アクティブマトリクス基板51Aには、画素電極56、データ信号線57、光センサ回路32(図示せず)、配向膜58、偏光板59などが設けられる。対向基板51Bには、カラーフィルタ53r(赤)、53g(緑)、53b(青)、遮光膜54、対向電極55、配向膜58、偏光板59などが設けられる。また、センサ内蔵液晶パネル301の背面には、バックライト307が設けられている。   As shown in the figure, the sensor built-in liquid crystal panel 301 includes an active matrix substrate 51A disposed on the back surface side and a counter substrate 51B disposed on the front surface side, and has a structure in which a liquid crystal layer 52 is sandwiched between these substrates. is doing. The active matrix substrate 51A is provided with a pixel electrode 56, a data signal line 57, an optical sensor circuit 32 (not shown), an alignment film 58, a polarizing plate 59, and the like. The counter substrate 51B is provided with color filters 53r (red), 53g (green), 53b (blue), a light shielding film 54, a counter electrode 55, an alignment film 58, a polarizing plate 59, and the like. In addition, a backlight 307 is provided on the back surface of the sensor built-in liquid crystal panel 301.

なお、光センサ回路32に含まれるフォトダイオード6は、青のカラーフィルタ53bを設けた画素電極56の近傍に設けられているが、この構成に限定されるものではない。赤のカラーフィルタ53rを設けた画素電極56の近傍に設けてもよいし、緑のカラーフィルタ53gを設けた画素電極56の近傍に設けてもよい。   The photodiode 6 included in the photosensor circuit 32 is provided in the vicinity of the pixel electrode 56 provided with the blue color filter 53b, but is not limited to this configuration. It may be provided in the vicinity of the pixel electrode 56 provided with the red color filter 53r, or may be provided in the vicinity of the pixel electrode 56 provided with the green color filter 53g.

次に、図3(a)および図3(b)を参照しながら、ユーザが、指やペンで、センサ内蔵液晶パネル301上をタッチした位置を検出する2種類の方法について説明する。   Next, with reference to FIGS. 3A and 3B, two types of methods for detecting the position where the user touches the sensor built-in liquid crystal panel 301 with a finger or a pen will be described.

図3(a)は、反射像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。バックライト307から光63が出射されると、フォトダイオード6を含む光センサ回路32は、指などの対象物64により反射された光63を検知する。これにより、対象物64の反射像を検知することができる。このように、センサ内蔵液晶パネル301は、反射像を検知することにより、タッチした位置を検出することができる。   FIG. 3A is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a reflected image. When the light 63 is emitted from the backlight 307, the optical sensor circuit 32 including the photodiode 6 detects the light 63 reflected by the object 64 such as a finger. Thereby, the reflected image of the target object 64 can be detected. Thus, the sensor built-in liquid crystal panel 301 can detect the touched position by detecting the reflected image.

また、図3(b)は、影像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。図3(b)に示すように、フォトダイオード6を含む光センサ回路32は、対向基板51Bなどを透過した外光61を検知する。しかしながら、ペンなどの対象物62がある場合は、外光61の入射が妨げられるので、光センサ回路32が検知する光量が減る。これにより、対象物62の影像を検知することができる。このように、センサ内蔵液晶パネル301は、影像を検知することにより、タッチした位置を検出することもできる。   FIG. 3B is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a shadow image. As shown in FIG. 3B, the optical sensor circuit 32 including the photodiode 6 detects external light 61 transmitted through the counter substrate 51B and the like. However, when there is an object 62 such as a pen, the incident of the external light 61 is hindered, so that the amount of light detected by the optical sensor circuit 32 is reduced. Thereby, a shadow image of the object 62 can be detected. Thus, the sensor built-in liquid crystal panel 301 can also detect a touched position by detecting a shadow image.

上述のように、フォトダイオード6は、バックライト307より出射された光の反射光(影像)を検知してもよいし、外光による影像を検知してもよい。また、上記2種類の検知方法を併用して、影像と反射像とを両方を同時に検知するようにしてもよい。   As described above, the photodiode 6 may detect reflected light (shadow image) of the light emitted from the backlight 307 or may detect a shadow image caused by external light. Further, the two types of detection methods may be used in combination to detect both a shadow image and a reflected image at the same time.

(データ表示/センサ装置の要部構成)
次に、図4を参照しながら、上記データ表示/センサ装置100の要部構成について説明する。図4は、データ表示/センサ装置100の要部構成を示すブロック図である。図示のように、データ表示/センサ装置100は、1または複数の表示/光センサ部300、回路制御部600、データ処理部700、主制御部800、記憶部901、一次記憶部902、操作部903、外部通信部907、音声出力部908、および音声入力部909を備えている。ここでは、データ表示/センサ装置100は、表示/光センサ部300を2つ(第1表示/光センサ部300Aおよび第2表示/光センサ部300B)備えているものとして説明する。なお、第1表示/光センサ部300Aおよび第2表示/光センサ部300Bを区別しないときは、表示/光センサ部300と表記する。
(Data display / sensor configuration)
Next, with reference to FIG. 4, the configuration of the main part of the data display / sensor device 100 will be described. FIG. 4 is a block diagram showing a main configuration of the data display / sensor device 100. As shown in FIG. As illustrated, the data display / sensor device 100 includes one or more display / light sensor units 300, a circuit control unit 600, a data processing unit 700, a main control unit 800, a storage unit 901, a primary storage unit 902, and an operation unit. 903, an external communication unit 907, an audio output unit 908, and an audio input unit 909. Here, the data display / sensor device 100 will be described as including two display / light sensor units 300 (first display / light sensor unit 300A and second display / light sensor unit 300B). When the first display / light sensor unit 300A and the second display / light sensor unit 300B are not distinguished, they are referred to as the display / light sensor unit 300.

表示/光センサ部300は、いわゆる光センサ内蔵液晶表示装置である。表示/光センサ部300は、センサ内蔵液晶パネル301、バックライト307、それらを駆動するための周辺回路309を含んで構成される。   The display / light sensor unit 300 is a so-called liquid crystal display device with a built-in light sensor. The display / light sensor unit 300 includes a sensor built-in liquid crystal panel 301, a backlight 307, and a peripheral circuit 309 for driving them.

センサ内蔵液晶パネル301は、マトリクス状に配置された複数の画素回路31および光センサ回路32を含んで構成される。センサ内蔵液晶パネル301の詳細な構成については後述する。   The sensor built-in liquid crystal panel 301 includes a plurality of pixel circuits 31 and photosensor circuits 32 arranged in a matrix. The detailed configuration of the sensor built-in liquid crystal panel 301 will be described later.

周辺回路309は、液晶パネル駆動回路304、光センサ駆動回路305、信号変換回路306、バックライト駆動回路308を含む。   The peripheral circuit 309 includes a liquid crystal panel drive circuit 304, an optical sensor drive circuit 305, a signal conversion circuit 306, and a backlight drive circuit 308.

液晶パネル駆動回路304は、回路制御部600の表示制御部601からのタイミング制御信号(TC1)およびデータ信号(D)に従って、制御信号(G)およびデータ信号(S)を出力し、画素回路31を駆動する回路である。画素回路31の駆動方法の詳細については後述する。   The liquid crystal panel driving circuit 304 outputs a control signal (G) and a data signal (S) in accordance with the timing control signal (TC1) and the data signal (D) from the display control unit 601 of the circuit control unit 600, and the pixel circuit 31. It is a circuit which drives. Details of the driving method of the pixel circuit 31 will be described later.

光センサ駆動回路305は、回路制御部600のセンサ制御部602からのタイミング制御信号(TC2)に従って、信号線(R)に電圧を印加し、光センサ回路32を駆動する回路である。光センサ回路32の駆動方法の詳細については後述する。   The optical sensor driving circuit 305 is a circuit that drives the optical sensor circuit 32 by applying a voltage to the signal line (R) in accordance with a timing control signal (TC2) from the sensor control unit 602 of the circuit control unit 600. Details of the driving method of the optical sensor circuit 32 will be described later.

信号変換回路306は、光センサ回路32から出力されるセンサ出力信号(SS)をデジタル信号(DS)に変換し、該変換後の信号をセンサ制御部602に送信する回路である。   The signal conversion circuit 306 is a circuit that converts the sensor output signal (SS) output from the optical sensor circuit 32 into a digital signal (DS) and transmits the converted signal to the sensor control unit 602.

バックライト307は、複数の白色LED(Light Emitting Diode)を含んでおり、センサ内蔵液晶パネル301の背面に配置される。そして、バックライト駆動回路308から電源電圧が印加されると、バックライト307は点灯し、センサ内蔵液晶パネル301に光を照射する。なお、バックライト307は、白色LEDに限らず、他の色のLEDを含んでいてもよい。また、バックライト307は、LEDに代えて、例えば、冷陰極管(CCFL:Cold Cathode Fluorescent Lamp)を含むものであってもよい。   The backlight 307 includes a plurality of white LEDs (Light Emitting Diodes) and is disposed on the back surface of the sensor built-in liquid crystal panel 301. When a power supply voltage is applied from the backlight drive circuit 308, the backlight 307 is turned on and irradiates the sensor built-in liquid crystal panel 301 with light. Note that the backlight 307 is not limited to white LEDs, and may include LEDs of other colors. The backlight 307 may include, for example, a cold cathode fluorescent lamp (CCFL) instead of the LED.

バックライト駆動回路308は、回路制御部600のバックライト制御部603からの制御信号(BK)がハイレベルであるときは、バックライト307に電源電圧を印加し、逆に、バックライト制御部603からの制御信号がローレベルであるときは、バックライト307に電源電圧を印加しない。   The backlight driving circuit 308 applies a power supply voltage to the backlight 307 when the control signal (BK) from the backlight control unit 603 of the circuit control unit 600 is at a high level, and conversely, the backlight control unit 603. When the control signal from is at a low level, no power supply voltage is applied to the backlight 307.

次に、回路制御部600について説明する。回路制御部600は、表示/光センサ部300の周辺回路309を制御するデバイスドライバとしての機能を備えるものである。回路制御部600は、表示制御部601、センサ制御部602、バックライト制御部603、および表示データ記憶部604を備えている。   Next, the circuit control unit 600 will be described. The circuit control unit 600 has a function as a device driver that controls the peripheral circuit 309 of the display / light sensor unit 300. The circuit control unit 600 includes a display control unit 601, a sensor control unit 602, a backlight control unit 603, and a display data storage unit 604.

表示制御部601は、データ処理部700の表示データ処理部701から表示データを受信するとともに、表示データ処理部701からの指示に従って、表示/光センサ部300の液晶パネル駆動回路304に、タイミング制御信号(TC1)およびデータ信号(D)を送信し、上記受信した表示データをセンサ内蔵液晶パネル301に表示させる。   The display control unit 601 receives display data from the display data processing unit 701 of the data processing unit 700, and performs timing control on the liquid crystal panel driving circuit 304 of the display / light sensor unit 300 in accordance with an instruction from the display data processing unit 701. A signal (TC1) and a data signal (D) are transmitted, and the received display data is displayed on the sensor built-in liquid crystal panel 301.

なお、表示制御部601は、表示データ処理部701から受信した表示データを、表示データ記憶部604に一次記憶させる。そして、当該一次記憶させた表示データに基づいて、データ信号(D)を生成する。表示データ記憶部604は、例えば、VRAM(video random access memory)などである。   The display control unit 601 temporarily stores the display data received from the display data processing unit 701 in the display data storage unit 604. Then, a data signal (D) is generated based on the primary stored display data. The display data storage unit 604 is, for example, a video random access memory (VRAM).

センサ制御部602は、データ処理部700のセンサデータ処理部703からの指示に従って、表示/光センサ部300の光センサ駆動回路305に、タイミング制御信号(TC2)を送信し、センサ内蔵液晶パネル301にてスキャンを実行させる。   The sensor control unit 602 transmits a timing control signal (TC2) to the optical sensor driving circuit 305 of the display / optical sensor unit 300 in accordance with an instruction from the sensor data processing unit 703 of the data processing unit 700, and the sensor built-in liquid crystal panel 301. Run the scan with.

また、センサ制御部602は、信号変換回路306からデジタル信号(DS)を受信する。そして、センサ内蔵液晶パネル301に含まれる全ての光センサ回路32から出力されたセンサ出力信号(SS)に対応するデジタル信号(DS)に基づいて、画像データを生成する。つまり、センサ内蔵液晶パネル301の読み取り領域全体で読み取った画像データを生成する。そして、該生成した画像データをセンサデータ処理部703に送信する。   In addition, the sensor control unit 602 receives a digital signal (DS) from the signal conversion circuit 306. Then, image data is generated based on the digital signal (DS) corresponding to the sensor output signal (SS) output from all the optical sensor circuits 32 included in the sensor built-in liquid crystal panel 301. That is, the image data read in the entire reading area of the sensor built-in liquid crystal panel 301 is generated. Then, the generated image data is transmitted to the sensor data processing unit 703.

バックライト制御部603は、表示データ処理部701およびセンサデータ処理部703からの指示に従って、表示/光センサ部300のバックライト駆動回路308に制御信号(BK)を送信し、バックライト307を駆動させる。   The backlight control unit 603 transmits a control signal (BK) to the backlight drive circuit 308 of the display / light sensor unit 300 in accordance with instructions from the display data processing unit 701 and the sensor data processing unit 703 to drive the backlight 307. Let

なお、データ表示/センサ装置100が、複数の表示/光センサ部300を備える場合、表示制御部601は、データ処理部700から、どの表示/光センサ部300にて表示データを表示するかの指示を受けたとき、当該指示に応じた表示/光センサ部300の液晶パネル駆動回路304を制御する。また、センサ制御部602は、データ処理部700から、どの表示/光センサ部300にて対象物のスキャンを行なうかの指示を受けたとき、当該指示に応じた表示/光センサ部300の光センサ駆動回路305を制御するとともに、当該指示に応じた表示/光センサ部300の信号変換回路306からデジタル信号(DS)を受信する。   When the data display / sensor device 100 includes a plurality of display / light sensor units 300, the display control unit 601 determines which display / light sensor unit 300 displays the display data from the data processing unit 700. When an instruction is received, the liquid crystal panel drive circuit 304 of the display / light sensor unit 300 is controlled according to the instruction. When the sensor control unit 602 receives an instruction from the data processing unit 700 as to which display / light sensor unit 300 is to scan the object, The sensor drive circuit 305 is controlled and a digital signal (DS) is received from the signal conversion circuit 306 of the display / light sensor unit 300 according to the instruction.

次に、データ処理部700について説明する。データ処理部700は、主制御部800から受信する「コマンド」に基づいて、回路制御部600に指示を与えるミドルウェアとしての機能を備えるものである。なお、コマンドの詳細については後述する。   Next, the data processing unit 700 will be described. The data processing unit 700 has a function as middleware that gives an instruction to the circuit control unit 600 based on a “command” received from the main control unit 800. Details of the command will be described later.

データ処理部700は、表示データ処理部701およびセンサデータ処理部703を備えている。そして、データ処理部700が、主制御部800からコマンドを受信すると、該受信したコマンドに含まれる各フィールド(後述する)の値に応じて、表示データ処理部701およびセンサデータ処理部703の少なくとも一方が動作する。   The data processing unit 700 includes a display data processing unit 701 and a sensor data processing unit 703. When the data processing unit 700 receives a command from the main control unit 800, at least one of the display data processing unit 701 and the sensor data processing unit 703 depends on the value of each field (described later) included in the received command. One works.

表示データ処理部701は、主制御部800から表示データを受信するとともに、データ処理部700が受信したコマンドに従って、表示制御部601およびバックライト制御部603に指示を与え、上記受信した表示データをセンサ内蔵液晶パネル301に表示させる。なお、コマンドに応じた、表示データ処理部701の動作については、後述する。   The display data processing unit 701 receives display data from the main control unit 800, and gives instructions to the display control unit 601 and the backlight control unit 603 according to the command received by the data processing unit 700, and displays the received display data. The image is displayed on the sensor built-in liquid crystal panel 301. The operation of the display data processing unit 701 according to the command will be described later.

センサデータ処理部703は、データ処理部700が受信したコマンドに従って、センサ制御部602およびバックライト制御部603に指示を与える。   The sensor data processing unit 703 gives an instruction to the sensor control unit 602 and the backlight control unit 603 according to the command received by the data processing unit 700.

また、センサデータ処理部703は、センサ制御部602から画像データを受信し、当該画像データをそのまま画像データバッファ704に格納する。そして、センサデータ処理部703は、データ処理部700が受信したコマンドに従って、画像データバッファ704に記憶されている画像データに基づいて、「全体画像データ」、「部分画像データ(部分画像の座標データを含む)」、および「座標データ」の少なくともいずれか1つを、主制御部800に送信する。なお、全体画像データ、部分画像データ、および座標データについては、後述する。また、コマンドに応じた、センサデータ処理部703の動作については、後述する。   The sensor data processing unit 703 receives image data from the sensor control unit 602 and stores the image data in the image data buffer 704 as it is. Then, in accordance with the command received by the data processing unit 700, the sensor data processing unit 703 performs “whole image data”, “partial image data (partial image coordinate data) based on the image data stored in the image data buffer 704. At least one of “including coordinate data” and “coordinate data” is transmitted to the main control unit 800. The whole image data, partial image data, and coordinate data will be described later. The operation of the sensor data processing unit 703 according to the command will be described later.

次に、主制御部800は、アプリケーションプログラムを実行するものである。主制御部800は、記憶部901に格納されているプログラムを、例えばRAM(Random Access Memory)等で構成される一次記憶部902に読み出して実行する。   Next, the main control unit 800 executes an application program. The main control unit 800 reads the program stored in the storage unit 901 into a primary storage unit 902 configured by, for example, a RAM (Random Access Memory) and executes the program.

主制御部800で実行されるアプリケーションプログラムは、センサ内蔵液晶パネル301に表示データを表示させたり、センサ内蔵液晶パネル301にて対象物のスキャンを行わせるために、データ処理部700に対して、コマンドおよび表示データを送信する。また、コマンドに「データ種別」を指定した場合は、当該コマンドの応答として、全体画像データ、部分画像データ、および座標データの少なくともいずれか1つを、データ処理部700から受信する。   An application program executed by the main control unit 800 causes the data processing unit 700 to display display data on the sensor built-in liquid crystal panel 301 or to scan an object on the sensor built-in liquid crystal panel 301. Send commands and display data. When “data type” is designated as a command, at least one of whole image data, partial image data, and coordinate data is received from the data processing unit 700 as a response to the command.

なお、回路制御部600、データ処理部700、および主制御部800は、それぞれ、CPU(Central Processing Unit)およびメモリ等で構成することができる。また、データ処理部700は、ASIC(application specific integrate circuit)などの回路で構成されていてもよい。   The circuit control unit 600, the data processing unit 700, and the main control unit 800 can be configured by a CPU (Central Processing Unit), a memory, and the like, respectively. The data processing unit 700 may be configured by a circuit such as an ASIC (application specific integrate circuit).

次に、記憶部901は、図示のように、主制御部800が実行するプログラムおよびデータを格納するものである。なお、主制御部800が実行するプログラムは、アプリケーション固有のプログラムと、各アプリケーションが共用可能な汎用プログラムとに分離されていてもよい。   Next, the storage unit 901 stores programs and data executed by the main control unit 800 as shown in the figure. The program executed by the main control unit 800 may be separated into an application-specific program and a general-purpose program that can be shared by each application.

次に、操作部903は、データ表示/センサ装置100のユーザの入力操作を受けつけるものである。操作部903は、例えば、スイッチ、リモコン、マウス、キーボードなどの入力デバイスで構成される。そして、操作部903は、データ表示/センサ装置100のユーザの入力操作に応じた制御信号を生成し、該生成した制御信号を主制御部800へ送信する。   Next, the operation unit 903 receives an input operation of the user of the data display / sensor device 100. The operation unit 903 includes input devices such as a switch, a remote controller, a mouse, and a keyboard, for example. Then, the operation unit 903 generates a control signal corresponding to the user's input operation of the data display / sensor device 100, and transmits the generated control signal to the main control unit 800.

なお、上記スイッチの例としては、筐体のヒンジ部分に設けられ、筐体の開閉状態を検出するヒンジ部スイッチ904、電源のオンとオフとを切り替える電源スイッチ905、予め所定の機能が割り当てられているユーザスイッチ906などのハードウェアスイッチを想定している。   As an example of the switch, a hinge switch 904 that is provided at the hinge portion of the housing and detects the open / closed state of the housing, a power switch 905 that switches power on and off, and a predetermined function are assigned in advance. A hardware switch such as a user switch 906 is assumed.

その他、データ表示/センサ装置100は、無線/有線通信によって外部装置と通信を行なうための外部通信部907、音声を出力するためのスピーカ等の音声出力部908、音声信号を入力するためのマイク等の音声入力部909などを適宜備えていてもよい。   In addition, the data display / sensor device 100 includes an external communication unit 907 for communicating with an external device by wireless / wired communication, an audio output unit 908 such as a speaker for outputting audio, and a microphone for inputting an audio signal. A voice input unit 909 such as the above may be provided as appropriate.

(コマンドの詳細)
次に、図5および図6を参照しながら、主制御部800からデータ処理部700に送信されるコマンドの詳細について説明する。図5は、コマンドのフレーム構造の一例を模式的に示す図である。また、図6は、コマンドに含まれる各フィールドに指定可能な値の一例、および、その概要を説明する図である。
(Command details)
Next, details of commands transmitted from the main control unit 800 to the data processing unit 700 will be described with reference to FIGS. 5 and 6. FIG. 5 is a diagram schematically illustrating an example of a command frame structure. FIG. 6 is a diagram for explaining an example of values that can be specified for each field included in the command and an outline thereof.

図5に示すように、コマンドは、「ヘッダ」、「データ取得タイミング」、「データ種別」、「スキャン方式」、「スキャン画像階調」、「スキャン解像度」、「スキャンパネル」、「表示パネル」、および「予備」の各フィールドを含んでいる。そして、各フィールドには、例えば、図6に示す値が指定可能である。   As shown in FIG. 5, the commands are “header”, “data acquisition timing”, “data type”, “scan method”, “scan image gradation”, “scan resolution”, “scan panel”, “display panel”. "And" Reserve "fields. In each field, for example, values shown in FIG. 6 can be designated.

「ヘッダ」フィールドは、フレームの開始を示すフィールドである。「ヘッダ」フィールドであることが識別可能であれば、「ヘッダ」フィールドの値は、どのような値であってもよい。   The “header” field is a field indicating the start of a frame. As long as it is possible to identify the “header” field, the value of the “header” field may be any value.

次に、「データ取得タイミング」フィールドは、データを主制御部800へ送信すべきタイミングを指定するフィールドである。「データ取得タイミング」フィールドには、例えば、“00”(センス)、“01”(イベント)、および“10”(オール)という値が指定可能である。   Next, the “data acquisition timing” field is a field for designating a timing at which data should be transmitted to the main control unit 800. In the “data acquisition timing” field, for example, values “00” (sense), “01” (event), and “10” (all) can be specified.

ここで、“センス”は、最新のデータを直ちに送信すること指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“センス”であるコマンドを受信すると、「データ種別」フィールドにて指定されている最新のデータを、直ちに、主制御部800に送信する。   Here, “sense” specifies that the latest data is to be transmitted immediately. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “sense”, the latest data specified in the “data type” field is immediately updated to the main control unit 800. Send to.

また、“イベント”は、センサ制御部602から受信する画像データに変化が生じたタイミングで送信すること指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“イベント”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、センサ制御部602から受信する画像データに、所定の閾値より大きい変化が生じたタイミングで、主制御部800に送信する。   The “event” designates transmission at a timing when a change occurs in the image data received from the sensor control unit 602. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “event”, the image that receives the data specified in the “data type” field from the sensor control unit 602. The data is transmitted to the main control unit 800 at a timing when a change larger than a predetermined threshold occurs.

また、“オール”は、所定周期でデータを送信すること指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“オール”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、所定周期で、主制御部800に送信する。なお、上記所定周期は、光センサ回路32にてスキャンを行なう周期と一致する。   “All” designates data transmission at a predetermined cycle. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “all”, the data designated in the “data type” field is transferred to the main control unit 800 at a predetermined cycle. Send to. The predetermined period coincides with the period in which the optical sensor circuit 32 performs scanning.

次に、「データ種別」フィールドは、センサデータ処理部703から取得するデータの種別を指定するフィールドである。なお、「データ種別」フィールドには、例えば、“001”(座標)、“010”(部分画像)、および“100”(全体画像)という値が指定可能である。さらに、これらの値を加算することによって、“座標”と、“部分画像”/“全体画像”とを、同時に指定可能である。例えば、“座標”と“部分画像”とを同時に指定する場合、“011”と指定することができる。   Next, the “data type” field is a field for designating the type of data acquired from the sensor data processing unit 703. In the “data type” field, for example, values of “001” (coordinates), “010” (partial image), and “100” (entire image) can be specified. Furthermore, by adding these values, “coordinates” and “partial image” / “whole image” can be specified simultaneously. For example, when “coordinate” and “partial image” are specified at the same time, “011” can be specified.

センサデータ処理部703は、「データ種別」フィールドの値が“全体画像”であるコマンドを受信すると、画像データバッファ704に記憶している画像データそのものを主制御部800に送信する。画像データバッファ704に記憶している画像データそのものを、「全体画像データ」と称する。   When the sensor data processing unit 703 receives a command whose value of the “data type” field is “whole image”, the sensor data processing unit 703 transmits the image data itself stored in the image data buffer 704 to the main control unit 800. The image data itself stored in the image data buffer 704 is referred to as “whole image data”.

また、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信すると、センサ制御部602から受信する画像データから、所定の閾値より大きい変化が生じた部分を含む領域を抽出し、該抽出した領域の画像データを主制御部800に送信する。ここで、当該画像データを、「部分画像データ」と称する。なお、上記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出されたそれぞれの部分画像データを主制御部800に送信する。   In addition, when the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 selects a portion where a change larger than a predetermined threshold has occurred from the image data received from the sensor control unit 602. A region to be included is extracted, and image data of the extracted region is transmitted to the main control unit 800. Here, the image data is referred to as “partial image data”. When a plurality of partial image data are extracted, the sensor data processing unit 703 transmits each extracted partial image data to the main control unit 800.

さらに、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信したとき、部分画像データにおける代表座標を検出し、当該代表座標の部分画像データにおける位置を示す座標データを主制御部800に送信する。なお、上記代表座標とは、例えば、上記部分画像データの中心の座標、上記部分画像データの重心の座標などが挙げられる。   Further, when the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 detects representative coordinates in the partial image data and indicates the position of the representative coordinates in the partial image data. The coordinate data is transmitted to the main control unit 800. The representative coordinates include, for example, the coordinates of the center of the partial image data, the coordinates of the center of gravity of the partial image data, and the like.

次に、センサデータ処理部703は、「データ種別」フィールドの値が“座標”であるコマンドを受信すると、上記代表座標の全体画像データにおける位置を示す座標データを主制御部800に送信する。なお、上記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出された、それぞれの部分画像データの、全体画像データにおける代表座標を検出し、当該代表座標を示す座標データのそれぞれを主制御部800に送信する(多点検出)。   Next, when receiving a command whose value of the “data type” field is “coordinate”, the sensor data processing unit 703 transmits coordinate data indicating the position of the representative coordinate in the entire image data to the main control unit 800. When a plurality of partial image data are extracted, the sensor data processing unit 703 detects representative coordinates in the entire image data of the extracted partial image data, and the coordinate data indicating the representative coordinates is detected. Each is transmitted to the main control unit 800 (multi-point detection).

なお、全体画像データ、部分画像データ、および座標データの具体例については、模式図を参照しながら後述する。   Specific examples of the whole image data, the partial image data, and the coordinate data will be described later with reference to schematic diagrams.

次に、「スキャン方式」フィールドは、スキャン実行時に、バックライト307を点灯するか否かを指定するフィールドである。「スキャン方式」フィールドには、例えば、“00”(反射)、“01”(透過)、および“10”(反射/透過)という値が指定可能である。   Next, the “scan method” field is a field for designating whether or not the backlight 307 is turned on at the time of executing the scan. In the “scan method” field, for example, values of “00” (reflection), “01” (transmission), and “10” (reflection / transmission) can be designated.

“反射”は、バックライト307を点灯した状態でスキャンを行なうこと指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“反射”であるコマンドを受信すると、光センサ駆動回路305とバックライト駆動回路308とが同期して動作するように、センサ制御部602とバックライト制御部603とに指示を与える。   “Reflection” specifies that scanning is performed with the backlight 307 turned on. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “reflection”, the sensor data processing unit 703 performs sensor control so that the optical sensor driving circuit 305 and the backlight driving circuit 308 operate in synchronization. An instruction is given to the unit 602 and the backlight control unit 603.

また、“透過”は、バックライト307を消灯した状態でスキャンを行なうことを指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“透過”であるコマンドを受信すると、光センサ駆動回路305を動作させ、バックライト駆動回路308と動作させないようにセンサ制御部602とバックライト制御部603とに指示を与える。なお、“反射/透過”は、“反射”と“透過”とを併用してスキャンを行なうことを指定するものである。   “Transmission” specifies that scanning is performed with the backlight 307 turned off. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “transparent”, the sensor control unit 602 operates the optical sensor driving circuit 305 and does not operate the backlight driving circuit 308. Instructions to the backlight control unit 603. Note that “reflection / transmission” specifies that scanning is performed using both “reflection” and “transmission”.

次に、「スキャン画像階調」フィールドは、部分画像データおよび全体画像データの階調を指定するフィールドである。「スキャン画像階調」フィールドには、例えば、“00”(2値)、および“01”(多値)という値が指定可能である。   Next, the “scanned image gradation” field is a field for designating gradations of the partial image data and the entire image data. In the “scanned image gradation” field, for example, values of “00” (binary) and “01” (multivalue) can be designated.

ここで、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“2値”であるコマンドを受信すると、部分画像データおよび全体画像データをモノクロデータとして、主制御部800に送信する。   When the sensor data processing unit 703 receives a command whose “scan image gradation” field value is “binary”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as monochrome data. .

また、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“多値”であるコマンドを受信すると、部分画像データおよび全体画像データを多階調データとして、主制御部800に送信する。   When the sensor data processing unit 703 receives a command whose “scanned image gradation” field value is “multivalued”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as multitone data. To do.

次に、「スキャン解像度」フィールドは、部分画像データおよび全体画像データの解像度を指定するフィールドである。「解像度」フィールドには、例えば、“0”(高)および“1”(低)という値が指定可能である。   Next, the “scan resolution” field is a field for designating the resolution of the partial image data and the entire image data. In the “resolution” field, for example, values of “0” (high) and “1” (low) can be designated.

ここで、“高”は、高解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“高”であるコマンドを受信すると、部分画像データおよび全体画像データを高解像度で主制御部800に送信する。例えば、画像認識などの画像処理を行なう対象の画像データ(指紋などの画像データ)には、“高”を指定することが望ましい。   Here, “high” designates a high resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “high”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 with high resolution. For example, it is desirable to designate “high” for image data (image data such as a fingerprint) to be subjected to image processing such as image recognition.

また、“低”は、低解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“低”であるコマンドを受信すると、部分画像データおよび全体画像データを低解像度で主制御部800に送信する。例えば、タッチした位置等が分かる程度でよい画像データ(タッチした指や手の画像データなど)には、“低”を指定することが望ましい。   “Low” designates a low resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “low”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 at a low resolution. For example, it is desirable to designate “low” for image data (such as touched finger or hand image data) that only needs to be recognized.

次に、「スキャンパネル」フィールドは、どの表示/光センサ部300にて対象物のスキャンを行なうかを指定するフィールドである。「スキャンパネル」フィールドには、例えば、“001”(第1表示/光センサ部300A)、“010”(第2表示/光センサ部300B)という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、“第1表示/光センサ部300A”と“第2表示/光センサ部300B”とを同時に指定する場合、“011”と指定することができる。   Next, the “scan panel” field is a field for designating which display / light sensor unit 300 is to scan the object. In the “scan panel” field, for example, values “001” (first display / light sensor unit 300A) and “010” (second display / light sensor unit 300B) can be designated. Note that by adding these values, a plurality of display / light sensor units 300 can be specified simultaneously. For example, when “first display / light sensor unit 300A” and “second display / light sensor unit 300B” are specified at the same time, “011” can be specified.

ここで、センサデータ処理部703は、「スキャンパネル」フィールドの値が“第1表示/光センサ部300A”であるコマンドを受信すると、第1表示/光センサ部300Aの光センサ駆動回路305およびバックライト駆動回路308を制御するように、センサ制御部602およびバックライト制御部603に指示を与える。   When the sensor data processing unit 703 receives a command whose “scan panel” field value is “first display / photosensor unit 300A”, the sensor data processing unit 703 and the photosensor drive circuit 305 of the first display / photosensor unit 300A and An instruction is given to the sensor control unit 602 and the backlight control unit 603 so as to control the backlight drive circuit 308.

次に、「表示パネル」フィールドは、どの表示/光センサ部300にて表示データを表示させるかを指定するフィールドである。「スキャン画像階調」フィールドには、例えば、“001”(第1表示/光センサ部300A)、“010”(第2表示/光センサ部300B)という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、“第1表示/光センサ部300A”と“第2表示/光センサ部300B”とを同時に指定する場合、“011”と指定することができる。   Next, the “display panel” field is a field for designating which display / light sensor unit 300 displays the display data. In the “scanned image gradation” field, for example, values of “001” (first display / light sensor unit 300A) and “010” (second display / light sensor unit 300B) can be designated. By adding these values, a plurality of display / light sensor units 300 can be specified at the same time. For example, when “first display / light sensor unit 300A” and “second display / light sensor unit 300B” are specified at the same time, “011” can be specified.

ここで、表示データ処理部701は、例えば、「表示パネル」フィールドの値が“第1表示/光センサ部300A”であるコマンドを受信すると、第1表示/光センサ部300Aに表示データを表示させるために、第1表示/光センサ部300Aの液晶パネル駆動回路304およびバックライト駆動回路308を制御するように、表示制御部601およびバックライト制御部603に指示を与える。   Here, for example, when the display data processing unit 701 receives a command whose value of the “display panel” field is “first display / light sensor unit 300A”, the display data processing unit 701 displays the display data on the first display / light sensor unit 300A. Therefore, an instruction is given to the display control unit 601 and the backlight control unit 603 to control the liquid crystal panel driving circuit 304 and the backlight driving circuit 308 of the first display / light sensor unit 300A.

次に、「予備」フィールドは、上述したフィールドにて指定可能な情報以外の情報をさらに指定する必要がある場合に、適宜指定されるフィールドである。   Next, the “reserved” field is a field that is appropriately specified when it is necessary to further specify information other than information that can be specified in the above-described fields.

なお、主制御部800にて実行されるアプリケーションは、コマンドを送信するにあたり、上述したフィールドを全て使用する必要はなく、使用しないフィールドには無効値(NULL値など)を設定しておけばよい。   Note that an application executed by the main control unit 800 does not need to use all the above-described fields when transmitting a command, and an invalid value (such as a NULL value) may be set for a field that is not used. .

また、ユーザが指やペンなどでタッチした位置の座標データを取得したいときは、「データ種別」フィールドに“座標”を指定したコマンドをデータ処理部700に送信することとなるが、指やペンなどは動きがあるため、さらに、当該コマンドの「データ取得タイミング」フィールドに“オール”を指定し、座標データを取得するようにすることが望ましい。また、タッチした位置の座標データが取得できればよいため、スキャンの精度は高くなくてもよい。したがって、上記コマンドの「解像度」フィールドの値は“低”を指定しておけばよい。   When the user wants to acquire coordinate data of a position touched with a finger or pen, a command specifying “coordinate” in the “data type” field is transmitted to the data processing unit 700. Therefore, it is desirable to specify “all” in the “data acquisition timing” field of the command to acquire coordinate data. Further, since it is only necessary to acquire coordinate data of the touched position, the scanning accuracy may not be high. Therefore, “low” may be specified as the value of the “resolution” field of the command.

また、コマンドの「データ種別」フィールドに“座標”を指定した場合において、例えば、ユーザが、複数の指やペンなどでセンサ内蔵液晶パネル301を同時にタッチした場合は、該タッチした位置の座標データのそれぞれを取得することができる(多点検出)。   Further, when “coordinate” is specified in the “data type” field of the command, for example, when the user touches the sensor built-in liquid crystal panel 301 with a plurality of fingers or pens at the same time, the coordinate data of the touched position is used. Can be acquired (multi-point detection).

また、原稿などの対象物の画像データを取得する場合、「データ種別」フィールドに“全体画像”を指定したコマンドをデータ処理部700に送信することとなるが、原稿などの対象物は、通常、静止させた状態でスキャンを実行することが一般的であるため、周期的にスキャンを実行する必要はない。従って、この場合は、「データ取得タイミング」フィールドに“センス”または“イベント”を指定することが望ましい。なお、原稿などの対象物をスキャンするときは、ユーザが文字を読みやすいように、スキャン精度は高い方が望ましい。したがって、「解像度」フィールドには“高”を指定することが望ましい。   When acquiring image data of an object such as a document, a command specifying “whole image” in the “data type” field is transmitted to the data processing unit 700. Since it is common to perform a scan in a stationary state, it is not necessary to periodically perform the scan. Therefore, in this case, it is desirable to designate “sense” or “event” in the “data acquisition timing” field. When scanning an object such as a document, it is desirable that the scanning accuracy is high so that the user can easily read the characters. Therefore, it is desirable to designate “high” in the “resolution” field.

(全体画像データ/部分画像データ/座標データ)
次に、図7を参照しながら、全体画像データ、部分画像データ、および座標データについて、例を挙げて説明する。図7(a)に示す画像データは、対象物がセンサ内蔵液晶パネル301上に置かれていないときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。また、図7(b)に示す画像データは、ユーザが指でセンサ内蔵液晶パネル301をタッチしているときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。
(Whole image data / Partial image data / Coordinate data)
Next, the whole image data, the partial image data, and the coordinate data will be described with reference to FIG. The image data shown in FIG. 7A is image data obtained as a result of scanning the entire sensor built-in liquid crystal panel 301 when the object is not placed on the sensor built-in liquid crystal panel 301. The image data shown in FIG. 7B is image data obtained as a result of scanning the entire sensor-equipped liquid crystal panel 301 when the user touches the sensor-equipped liquid crystal panel 301 with a finger.

ユーザが指でセンサ内蔵液晶パネル301をタッチしたとき、当該タッチした近傍の光センサ回路32が受光する光量が変化するため、当該光センサ回路32が出力する電圧に変化が生じ、その結果として、センサ制御部602が生成する画像データのうち、ユーザがタッチした部分の画素値の明度に変化が生じることとなる。   When the user touches the sensor built-in liquid crystal panel 301 with a finger, the amount of light received by the photosensor circuit 32 in the vicinity of the touch changes, so that the voltage output from the photosensor circuit 32 changes, and as a result, In the image data generated by the sensor control unit 602, the brightness of the pixel value of the portion touched by the user changes.

図7(b)に示す画像データでは、図7(a)に示す画像データと比べると、ユーザの指に該当する部分の画素値の明度が高くなっている。そして、図7(b)に示す画像データにおいて、明度が所定の閾値より大きく変化している画素値を全て含む最小の矩形領域(領域PP)が、“部分画像データ”である。   In the image data shown in FIG. 7B, the brightness of the pixel value of the portion corresponding to the user's finger is higher than that in the image data shown in FIG. In the image data shown in FIG. 7B, the smallest rectangular area (area PP) that includes all pixel values whose lightness changes more than a predetermined threshold is “partial image data”.

なお、領域APで示される画像データが、“全体画像データ”である。   The image data indicated by the area AP is “whole image data”.

また、部分画像データ(領域PP)の代表座標Zの、全体画像データ(領域AP)における座標データは(Xa,Ya)であり、部分画像データ(領域PP)における座標データは(Xp,Yp)である。   Also, the coordinate data in the whole image data (area AP) of the representative coordinates Z of the partial image data (area PP) is (Xa, Ya), and the coordinate data in the partial image data (area PP) is (Xp, Yp). It is.

(センサ内蔵液晶パネルの構成)
次に、図8を参照しながら、センサ内蔵液晶パネル301の構成、および、センサ内蔵液晶パネル301の周辺回路309の構成について説明する。図8は、表示/光センサ部300の要部、特に、センサ内蔵液晶パネル301の構成および周辺回路309の構成を示すブロック図である。
(Configuration of sensor built-in liquid crystal panel)
Next, the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309 of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 8 is a block diagram showing the main part of the display / light sensor unit 300, particularly the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309.

センサ内蔵液晶パネル301は、光透過率(輝度)を設定するための画素回路31、および、自身が受光した光の強度に応じた電圧を出力する光センサ回路32を備えている。なお、画素回路31は、赤色、緑色、青色のカラーフィルタのそれぞれに対応するR画素回路31r、G画素回路31g、B画素回路31bの総称して用いる。   The sensor built-in liquid crystal panel 301 includes a pixel circuit 31 for setting light transmittance (brightness) and an optical sensor circuit 32 that outputs a voltage corresponding to the intensity of light received by the sensor. Note that the pixel circuit 31 is a generic term for the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b corresponding to the red, green, and blue color filters, respectively.

画素回路31は、センサ内蔵液晶パネル301上の列方向(縦方向)にm個、行方向(横方向)に3n個配置される。そして、R画素回路31r、G画素回路31g、およびB画素回路31bの組が、行方向(横方向)に連続して配置される。この組が1つの画素を形成する。   The pixel circuits 31 are arranged on the sensor built-in liquid crystal panel 301 in the column direction (vertical direction) and 3n in the row direction (horizontal direction). A set of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b is continuously arranged in the row direction (lateral direction). This set forms one pixel.

画素回路31の光透過率を設定するには、まず、画素回路31に含まれるTFT(Thin Film Transistor)33のゲート端子に接続される走査信号線Giにハイレベル電圧(TFT33をオン状態にする電圧)を印加する。その後、R画素回路31rのTFT33のソース端子に接続されているデータ信号線SRjに、所定の電圧を印加する。同様に、G画素回路31gおよびB画素回路31bについても、光透過率を設定する。そして、これらの光透過率を設定することにより、センサ内蔵液晶パネル301上に画像が表示される。   In order to set the light transmittance of the pixel circuit 31, first, the high level voltage (TFT 33 is turned on) to the scanning signal line Gi connected to the gate terminal of the TFT (Thin Film Transistor) 33 included in the pixel circuit 31. Voltage). Thereafter, a predetermined voltage is applied to the data signal line SRj connected to the source terminal of the TFT 33 of the R pixel circuit 31r. Similarly, the light transmittance is also set for the G pixel circuit 31g and the B pixel circuit 31b. Then, by setting these light transmittances, an image is displayed on the sensor built-in liquid crystal panel 301.

次に、光センサ回路32は、一画素毎に配置される。なお、R画素回路31r、G画素回路31g、およびB画素回路31bのそれぞれの近傍に1つずつ配置されてもよい。   Next, the photosensor circuit 32 is arranged for each pixel. One pixel may be arranged in the vicinity of each of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b.

光センサ回路32にて光の強度に応じた電圧を出力させるためには、まず、コンデンサ35の一方の電極に接続されているセンサ読み出し線RWiと、フォトダイオード36のアノード端子に接続されているセンサリセット線RSiとに所定の電圧を印加する。この状態において、フォトダイオード36に光が入射されると、入射した光量に応じた電流がフォトダイオード36に流れる。そして、当該電流に応じて、コンデンサ35の他方の電極とフォトダイオード36のカソード端子との接続点(以下、接続ノードV)の電圧が低下する。そして、センサプリアンプ37のドレイン端子に接続される電圧印加線SDjに電源電圧VDDを印加すると、接続ノードVの電圧は増幅され、センサプリアンプ37のソース端子からセンシングデータ出力信号線SPjに出力される。そして、当該出力された電圧に基づいて、光センサ回路32が受光した光量を算出することができる。   In order for the optical sensor circuit 32 to output a voltage corresponding to the light intensity, first, the sensor readout line RWi connected to one electrode of the capacitor 35 and the anode terminal of the photodiode 36 are connected. A predetermined voltage is applied to the sensor reset line RSi. In this state, when light is incident on the photodiode 36, a current corresponding to the amount of incident light flows through the photodiode 36. Then, according to the current, the voltage at the connection point (hereinafter referred to as connection node V) between the other electrode of the capacitor 35 and the cathode terminal of the photodiode 36 decreases. When the power supply voltage VDD is applied to the voltage application line SDj connected to the drain terminal of the sensor preamplifier 37, the voltage at the connection node V is amplified and output from the source terminal of the sensor preamplifier 37 to the sensing data output signal line SPj. . Based on the output voltage, the amount of light received by the optical sensor circuit 32 can be calculated.

次に、センサ内蔵液晶パネル301の周辺回路である、液晶パネル駆動回路304、光センサ駆動回路305、およびセンサ出力アンプ44について説明する。   Next, the liquid crystal panel drive circuit 304, the optical sensor drive circuit 305, and the sensor output amplifier 44, which are peripheral circuits of the sensor built-in liquid crystal panel 301, will be described.

液晶パネル駆動回路304は、画素回路31を駆動するための回路であり、走査信号線駆動回路3041およびデータ信号線駆動回路3042を含んでいる。   The liquid crystal panel drive circuit 304 is a circuit for driving the pixel circuit 31, and includes a scanning signal line drive circuit 3041 and a data signal line drive circuit 3042.

走査信号線駆動回路3041は、表示制御部601から受信したタイミング制御信号TC1に基づいて、1ライン時間毎に、走査信号線G1〜Gmの中から1本の走査信号線を順次選択し、該選択した走査信号線にハイレベル電圧を印加するとともに、その他の走査信号線にローレベル電圧を印加する。   The scanning signal line driving circuit 3041 sequentially selects one scanning signal line from the scanning signal lines G1 to Gm for each line time based on the timing control signal TC1 received from the display control unit 601, and A high level voltage is applied to the selected scanning signal line, and a low level voltage is applied to the other scanning signal lines.

データ信号線駆動回路3042は、表示制御部601から受信した表示データD(DR、DG、およびDB)に基づいて、1ライン時間毎に、1行分の表示データに対応する所定の電圧を、データ信号線SR1〜SRn、SG1〜SGn、SB1〜SBnに印加する(線順次方式)。なお、データ信号線駆動回路3042は、点順次方式で駆動するものであってもよい。   Based on the display data D (DR, DG, and DB) received from the display controller 601, the data signal line driver circuit 3042 generates a predetermined voltage corresponding to the display data for one row for each line time. The data signal lines SR1 to SRn, SG1 to SGn, and SB1 to SBn are applied (line sequential method). Note that the data signal line driver circuit 3042 may be driven by a dot sequential method.

光センサ駆動回路305は、光センサ回路32を駆動するための回路である。光センサ駆動回路305は、センサ制御部602から受信したタイミング制御信号TC2に基づいて、センサ読み出し信号線RW1〜RWmの中から、1ライン時間毎に1本ずつ選択したセンサ読み出し信号線に所定の読み出し用電圧を印加するとともに、その他のセンサ読み出し信号線には、所定の読み出し用電圧以外の電圧を印加する。また、同様に、タイミング制御信号TC2に基づいて、センサリセット信号線RS1〜RSmの中から、1ライン時間毎に1本ずつ選択したセンサリセット信号線に所定のリセット用電圧を印加するとともに、その他のセンサリセット信号線には、所定のリセット用電圧以外の電圧を印加する。   The optical sensor driving circuit 305 is a circuit for driving the optical sensor circuit 32. Based on the timing control signal TC2 received from the sensor control unit 602, the optical sensor driving circuit 305 selects a predetermined sensor readout signal line from the sensor readout signal lines RW1 to RWm for each line time. A read voltage is applied, and a voltage other than a predetermined read voltage is applied to the other sensor read signal lines. Similarly, based on the timing control signal TC2, a predetermined reset voltage is applied to the sensor reset signal line selected from the sensor reset signal lines RS1 to RSm for each line time, and the others. A voltage other than a predetermined reset voltage is applied to the sensor reset signal line.

センシングデータ出力信号線SP1〜SPnはp個(pは1以上n以下の整数)のグループにまとめられ、各グループに属するセンシングデータ出力信号線は、時分割で順次オン状態になるスイッチ47を介して、センサ出力アンプ44に接続される。センサ出力アンプ44は、スイッチ47により接続されたセンシングデータ出力信号線のグループからの電圧を増幅し、センサ出力信号SS(SS1〜SSp)として、信号変換回路306へ出力する。   The sensing data output signal lines SP1 to SPn are grouped into p groups (p is an integer of 1 to n), and the sensing data output signal lines belonging to each group are connected via a switch 47 that is sequentially turned on in time division. And connected to the sensor output amplifier 44. The sensor output amplifier 44 amplifies the voltage from the group of sensing data output signal lines connected by the switch 47 and outputs the amplified voltage to the signal conversion circuit 306 as sensor output signals SS (SS1 to SSp).

(データ表示/センサ装置の筐体)
次に、図9(a)および図9(b)を参照しながら、本発明に係るデータ表示/センサ装置100の筐体について説明する。図9(a)および図9(b)は、データ表示/センサ装置100の筐体を示す概要図である。図示のとおり、データ表示/センサ装置100は、第1表示/光センサ部300Aと第2表示/光センサ部300Bとが向き合うように、ヒンジ部Hで折り畳むことができる、いわゆるクラムシェル型の筐体を有している。
図9(a)は、データ表示/センサ装置100の筐体を開いた(つまり、折り畳んでいない)様子を示す図であり、図9(b)は、データ表示/センサ装置100の筐体を閉じた(つまり、折り畳んだ)様子を示す図である。
(Data display / sensor device housing)
Next, the housing of the data display / sensor device 100 according to the present invention will be described with reference to FIGS. 9 (a) and 9 (b). FIG. 9A and FIG. 9B are schematic views showing the housing of the data display / sensor device 100. FIG. As shown in the figure, the data display / sensor device 100 is a so-called clamshell type housing that can be folded at the hinge portion H so that the first display / light sensor portion 300A and the second display / light sensor portion 300B face each other. Have a body.
FIG. 9A is a diagram illustrating a state in which the housing of the data display / sensor device 100 is opened (that is, not folded), and FIG. 9B is a diagram illustrating the housing of the data display / sensor device 100. It is a figure which shows a mode that it closed (that is, it folded).

図9(a)に示すとおり、データ表示/センサ装置100の筐体を開いたとき、第1表示/光センサ部300Aのセンサ内蔵液晶パネル301と、第2表示/光センサ部300Bのセンサ内蔵液晶パネル301との少なくとも一方がユーザに見える状態となり、データ表示およびユーザ入力が可能となる。   As shown in FIG. 9A, when the housing of the data display / sensor device 100 is opened, the sensor built-in liquid crystal panel 301 of the first display / light sensor unit 300A and the sensor of the second display / light sensor unit 300B are built. At least one of the liquid crystal panel 301 can be seen by the user, and data display and user input are possible.

また、図9(b)に示すとおり、データ表示/センサ装置100の筐体を閉じたとき、第1表示/光センサ部300Aのセンサ内蔵液晶パネル301と、第2表示/光センサ部300Bのセンサ内蔵液晶パネル301とは向き合う状態となるので、両方のセンサ内蔵液晶パネル301の間に、文書P1などの対象物を挟むことにより、当該対象物の片面または両面をスキャンすることが可能となる。   Further, as shown in FIG. 9B, when the housing of the data display / sensor device 100 is closed, the sensor built-in liquid crystal panel 301 of the first display / light sensor unit 300A and the second display / light sensor unit 300B Since the sensor-equipped liquid crystal panel 301 faces the sensor-incorporated liquid crystal panel 301, it is possible to scan one or both sides of the object by sandwiching the object such as the document P1 between both the sensor-incorporated liquid crystal panels 301. .

なお、データ表示/センサ装置100の筐体を閉じた状態では、図9(b)に示すとおり、第1表示/光センサ部300Aおよび第2表示/光センサ部300Bのいずれか一方が上側にあり、他方が下側にあると言える。そこで、以降では、説明の便宜上、第1表示/光センサ部300Aを「上画面」とも称し、また、第2表示/光センサ部300Bを「下画面」とも称する。また、スキャンを実行する表示/光センサ部300を「スキャン実行面」とも称する。   When the housing of the data display / sensor device 100 is closed, as shown in FIG. 9B, either the first display / light sensor unit 300A or the second display / light sensor unit 300B is on the upper side. Yes, the other is on the lower side. Therefore, hereinafter, for convenience of explanation, the first display / light sensor unit 300A is also referred to as an “upper screen”, and the second display / light sensor unit 300B is also referred to as a “lower screen”. The display / light sensor unit 300 that executes scanning is also referred to as a “scanning execution surface”.

また、図9(a)に示すとおり、ユーザは、通常、下画面である第2表示/光センサ部300Bのセンサ内蔵液晶パネル301上に、文書P1などの対象物を置くものとして説明する。   Further, as shown in FIG. 9A, the description will be made assuming that the user usually places an object such as a document P1 on the sensor built-in liquid crystal panel 301 of the second display / light sensor unit 300B which is the lower screen.

なお、以降では、第1表示/光センサ部300Aのセンサ内蔵液晶パネル301を、センサ内蔵液晶パネル301Aと表記し、第2表示/光センサ部300Bのセンサ内蔵液晶パネル301を、センサ内蔵液晶パネル301Bと表記する。センサ内蔵液晶パネル301Aおよびセンサ内蔵液晶パネル301Bを区別しないときは、センサ内蔵液晶パネル301と表記する。   Hereinafter, the sensor built-in liquid crystal panel 301 of the first display / light sensor unit 300A is referred to as a sensor built-in liquid crystal panel 301A, and the sensor built-in liquid crystal panel 301 of the second display / light sensor unit 300B is referred to as a sensor built-in liquid crystal panel. This is expressed as 301B. When the sensor built-in liquid crystal panel 301A and the sensor built-in liquid crystal panel 301B are not distinguished, they are referred to as a sensor built-in liquid crystal panel 301.

また、以降では、単に“表示する(または、表示させる)”と表記している場合は、センサ内蔵液晶パネル301に表示する(または、表示させる)ものとする。   Further, hereinafter, when simply “display (or display)” is described, it is displayed (or displayed) on the sensor built-in liquid crystal panel 301.

(発明の要点)
本発明の主な特徴は、データ表示/センサ装置100のセンサ内蔵液晶パネル301Aおよびセンサ内蔵液晶パネル301Bのいずれか一方に、所定の画像(例えば、所定のマークやパターン画像など)を表示させた状態で、当該所定の画像を表示させていない側のセンサ内蔵液晶パネル301にて上記所定の画像を読み取ることができた場合、筐体が閉じられていると判定し、上記所定の画像に予め対応付けられた処理を実行することである。以下では、上記所定の画像を「検知用画像」と称する。
(Key points of the invention)
A main feature of the present invention is that a predetermined image (for example, a predetermined mark or a pattern image) is displayed on one of the sensor built-in liquid crystal panel 301A and the sensor built-in liquid crystal panel 301B of the data display / sensor device 100. In the state, when the predetermined image can be read by the sensor built-in liquid crystal panel 301 on the side on which the predetermined image is not displayed, it is determined that the casing is closed, and the predetermined image is displayed in advance. It is to execute the associated processing. Hereinafter, the predetermined image is referred to as a “detection image”.

例えば、検知用画像に、対象物のスキャンを実行する処理が予め対応づけられているケースについて説明する。このケースでは、当該検知用画像を、例えばセンサ内蔵液晶パネル301Aに表示させた状態で、センサ内蔵液晶パネル301Bにて上記検知用画像を読み取ることができた場合、センサ内蔵液晶パネル301Aとセンサ内蔵液晶パネル301Bとの間に挟みこんだ対象物のスキャンを、センサ内蔵液晶パネル301Aおよびセンサ内蔵液晶パネル301Bの少なくとも一方に実行させる。   For example, a case will be described in which processing for executing scanning of an object is associated in advance with a detection image. In this case, for example, when the detection image can be read by the sensor built-in liquid crystal panel 301B in a state where the detection image is displayed on the sensor built-in liquid crystal panel 301A, the sensor built-in liquid crystal panel 301A and the sensor built-in The scanning of the object sandwiched between the liquid crystal panel 301B is executed by at least one of the sensor built-in liquid crystal panel 301A and the sensor built-in liquid crystal panel 301B.

なお、データ表示/センサ装置100の筐体が閉じられているとき、センサ内蔵液晶パネル301Aおよびセンサ内蔵液晶パネル301Bは、互いに対向して接する状態にあるため、例えば、センサ内蔵液晶パネル301Aにてスキャンを行うと、当該スキャンの結果として、センサ内蔵液晶パネル301Bに表示されている画像を含む画像データを取得することが可能となる。逆に言えば、センサ内蔵液晶パネル301Aにてスキャンした結果、センサ内蔵液晶パネル301Bに表示されている画像を含む画像データを取得することができたときは、データ表示/センサ装置100の筐体が閉じられていると判定することができる。   When the housing of the data display / sensor device 100 is closed, the sensor built-in liquid crystal panel 301A and the sensor built-in liquid crystal panel 301B are in contact with each other. When scanning is performed, as a result of the scanning, it is possible to acquire image data including an image displayed on the sensor built-in liquid crystal panel 301B. In other words, when image data including an image displayed on the sensor built-in liquid crystal panel 301B can be acquired as a result of scanning with the sensor built-in liquid crystal panel 301A, the housing of the data display / sensor device 100 is displayed. Can be determined to be closed.

よって、上記検知用画像を読み取ることができた場合、データ表示/センサ装置100の筐体は閉じられていると判断してよい。   Therefore, when the detection image can be read, it may be determined that the housing of the data display / sensor device 100 is closed.

したがって、例えばヒンジ部スイッチ904などのメカニカルなスイッチに依らなくても、上記筐体を閉じられたことを検出することができ、上記対象物のスキャンを実行させることができる。   Therefore, it is possible to detect that the casing is closed without depending on a mechanical switch such as the hinge switch 904, and to scan the object.

さらに、上記検知用画像をセンサ内蔵液晶パネル301に表示させるか否かを、ユーザが指示できるようにしておけば、ユーザが、上記検知用画像をセンサ内蔵液晶パネル301に表示させる指示を行なってから上記筐体を閉じたときのみ、上記対象物のスキャンを実行させることが可能となる。言い換えれば、ユーザが、上記検知用画像をセンサ内蔵液晶パネル301に表示させる指示を行なわずに上記筐体を閉じれば、データ表示/センサ装置100に上記対象物のスキャンを実行させないようにすることが可能となる。つまり、ユーザが、単に上記筐体を閉じただけでは、上記対象物のスキャンは実行されないことから、ユーザが上記筐体を閉じたことによって誤ってスキャンが実行されてしまうという事態を防止することができる。   Further, if the user can instruct whether or not to display the detection image on the sensor built-in liquid crystal panel 301, the user gives an instruction to display the detection image on the sensor built-in liquid crystal panel 301. The object can be scanned only when the casing is closed. In other words, if the user closes the housing without giving an instruction to display the detection image on the sensor built-in liquid crystal panel 301, the data display / sensor device 100 is prevented from executing scanning of the object. Is possible. In other words, since the scan of the object is not executed when the user simply closes the casing, the situation where the scan is erroneously executed by the user closing the casing is prevented. Can do.

次に、検知用画像に、データ表示/センサ装置100の電源をオフにする処理が予め対応づけられているケースについて説明する。このケースでは、当該検知用画像を、例えばセンサ内蔵液晶パネル301Aに表示させた状態で、センサ内蔵液晶パネル301Bにて上記検知用画像を読み取ることができた場合、データ表示/センサ装置100の電源をオフにする。   Next, a case where processing for turning off the power of the data display / sensor device 100 is associated with the detection image in advance will be described. In this case, when the detection image can be read by the sensor built-in liquid crystal panel 301B in a state where the detection image is displayed on the sensor built-in liquid crystal panel 301A, for example, the power source of the data display / sensor device 100 Turn off.

したがって、例えば、(a)ユーザが、センサ内蔵液晶パネル301A上の、上記検知用画像と重なる位置に対象物の載置した状態で上記筐体を閉じた場合、上記検知用画像の全体を読み取ることができないので、データ表示/センサ装置100の電源をオフにせず、(b)ユーザが、上記検知用画像を表示させているセンサ内蔵液晶パネル301A上に、対象物の載置しない状態で上記筐体を閉じた場合、上記検知用画像の全体を読み取ることができるので、データ表示/センサ装置100の電源をオフにするということができる。   Therefore, for example, (a) when the user closes the casing with the object placed on the sensor-embedded liquid crystal panel 301A so as to overlap the detection image, the entire detection image is read. Therefore, the data display / sensor device 100 is not turned off. (B) The user does not place the object on the sensor-equipped liquid crystal panel 301A displaying the detection image. When the casing is closed, the entire detection image can be read, so that the data display / sensor device 100 can be turned off.

また、例えばヒンジ部スイッチ904などのメカニカルなスイッチにて上記筐体を閉じられたことを検出したときにスキャンを実行する方式と比べて、単に上記筐体を閉じただけでは、上記対象物のスキャンは実行されないことから、不必要なスキャンを防止することができる。   In addition, compared to a method of performing a scan when detecting that the casing is closed by a mechanical switch such as a hinge switch 904, simply closing the casing causes the object to be Since scanning is not executed, unnecessary scanning can be prevented.

〔実施の形態1〕
まず、検知用画像を読み取ることによって対象物のスキャンを実行する形態について説明する。本発明の一実施形態について図1、および図10から図18に基づいて説明すると以下の通りである。
[Embodiment 1]
First, the form which performs the scan of a target object by reading the image for a detection is demonstrated. One embodiment of the present invention is described below with reference to FIG. 1 and FIGS. 10 to 18.

(検知用画像を読み取ることによって対象物のスキャンを実行する様子)
図10(a)から図10(e)を参照しながら、検知用画像を読み取ることよって対象物のスキャンを実行する処理の典型例について説明する。なお、ここでは、処理の概要について説明し、各処理の詳細については後述する。
(Scanning the object by reading the detection image)
A typical example of processing for executing scanning of an object by reading a detection image will be described with reference to FIGS. 10 (a) to 10 (e). Here, an outline of the processing will be described, and details of each processing will be described later.

まず、図10(a)は、データ表示/センサ装置100が、ユーザに対してスキャンの準備を促すメッセージなどを表示している様子を示す図である。ここでは、下画面のセンサ内蔵液晶パネル301Bに、スキャンを行うにあたり対象物を載置する領域(以下、載置領域)R1を表示するとともに、上画面のセンサ内蔵液晶パネル301Aに、ユーザに対するメッセージM1を表示している。   First, FIG. 10A is a diagram illustrating a state in which the data display / sensor device 100 displays a message that prompts the user to prepare for scanning. Here, a region (hereinafter referred to as a placement region) R1 on which an object is placed for scanning is displayed on the sensor built-in liquid crystal panel 301B on the lower screen and a message to the user is displayed on the sensor built-in liquid crystal panel 301A on the upper screen. M1 is displayed.

次に、図10(b)は、対象物である文書P2(例えば、名刺)が下画面のセンサ内蔵液晶パネル301B上に置かれた様子を示す図である。このとき、センサ内蔵液晶パネル301Bが、載置領域R1内に文書P2が置かれたことを検出すると、センサ内蔵液晶パネル301Bにユーザ操作可能なボタンBT1を表示するとともに、センサ内蔵液晶パネル301Aに新たなメッセージM2を表示する。   Next, FIG. 10B is a diagram showing a state in which a document P2 (for example, a business card) as an object is placed on the sensor built-in liquid crystal panel 301B on the lower screen. At this time, when the sensor built-in liquid crystal panel 301B detects that the document P2 is placed in the placement area R1, the button BT1 operable by the user is displayed on the sensor built-in liquid crystal panel 301B, and the sensor built-in liquid crystal panel 301A is displayed. A new message M2 is displayed.

ここで、ボタンBT1は、後述する検知用画像J1の表示指示をユーザから受け付けるためのボタンである。なお、図(b)では、ボタンBT1には、“Ready?”という文字列が表示されており、当該文字列およびメッセージM2によって、ユーザに、スキャンの準備ができたらボタンBT1にタッチすることを促している。なお、ボタンBT1の表示位置は、載置領域R1の周辺であって、かつ、載置領域R1とは重ならない位置であることが望ましい。ボタンBT1は、上画面のセンサ内蔵液晶パネル301Aに表示してもよい。   Here, the button BT1 is a button for receiving an instruction to display a detection image J1 described later from the user. In FIG. 5B, a character string “Ready?” Is displayed on the button BT1, and the user touches the button BT1 when scanning is ready by the character string and the message M2. Urging. It should be noted that the display position of the button BT1 is desirably a position that is in the vicinity of the placement area R1 and does not overlap the placement area R1. The button BT1 may be displayed on the sensor built-in liquid crystal panel 301A on the upper screen.

なお、ユーザがボタンBT1をタッチすることにより、データ表示/センサ装置100は、センサ内蔵液晶パネル301Aおよびセンサ内蔵液晶パネル301Bにて対象物のスキャンを実行する処理が対応づけられた検知用画像J1をセンサ内蔵液晶パネル301Bに表示するものとする。   Note that when the user touches the button BT1, the data display / sensor device 100 causes the detection-use image J1 associated with the process of executing the scan of the object in the sensor-containing liquid crystal panel 301A and the sensor-containing liquid crystal panel 301B. Is displayed on the sensor built-in liquid crystal panel 301B.

次に、図10(c)は、図10(b)で示す状態において、ユーザがボタンBT1をタッチした後の様子を示す図である。このとき、データ表示/センサ装置100は、ボタンBT1に代えて、センサ内蔵液晶パネル301Bに検知用画像J1を表示するとともに、センサ内蔵液晶パネル301Aに新たなメッセージM3を表示している。なお、図(c)では、検知用画像J1には、“Go!”という文字列が表示されており、当該文字列およびメッセージM3によって、ユーザに、データ表示/センサ装置100の筐体を閉じることを促している。   Next, FIG.10 (c) is a figure which shows the mode after a user touches button BT1 in the state shown in FIG.10 (b). At this time, instead of the button BT1, the data display / sensor device 100 displays the detection image J1 on the sensor built-in liquid crystal panel 301B and also displays a new message M3 on the sensor built-in liquid crystal panel 301A. In FIG. 3C, a character string “Go!” Is displayed in the detection image J1, and the casing of the data display / sensor device 100 is closed to the user by the character string and the message M3. I encourage you to.

なお、検知用画像J1の形状および色彩は、それぞれ、ボタンBT1の形状および色彩と異なるものであること望ましく、また、検知用画像J1は、ボタンBT1が表示されていた位置に表示することが望ましい。ボタンBT1の代わりに検知用画像J1が表示されたことを、ユーザに視認しやすくするためである。   The shape and color of the detection image J1 are preferably different from the shape and color of the button BT1, respectively, and the detection image J1 is preferably displayed at the position where the button BT1 was displayed. . This is to make it easier for the user to visually recognize that the detection image J1 is displayed instead of the button BT1.

次に、図10(d)は、図10(c)で示す状態において、データ表示/センサ装置100の筐体が閉じられた様子を示す図である。このとき、センサ内蔵液晶パネル301Aは、検知用画像J1を読み取るために、スキャンを実行している。そして、スキャンの結果として得られる画像データに、検知用画像J1に該当する領域が含まれていることを検知すると、データ表示/センサ装置100は、筐体が閉じられていると判定する。なお、検知用画像J1の形状および色彩は、上記スキャンの結果として得られる画像データに、検知用画像J1に該当する領域が含まれていることを検知しやすいものであることが望ましい。   Next, FIG. 10D is a diagram illustrating a state in which the housing of the data display / sensor device 100 is closed in the state illustrated in FIG. At this time, the sensor built-in liquid crystal panel 301A performs scanning in order to read the detection image J1. When it is detected that the image data obtained as a result of the scan includes an area corresponding to the detection image J1, the data display / sensor device 100 determines that the casing is closed. It is desirable that the shape and color of the detection image J1 be easy to detect that the image data obtained as a result of the scan includes a region corresponding to the detection image J1.

そして、データ表示/センサ装置100の筐体が閉じられていると判定した場合、検知用画像J1に対応付けられている処理として、上画面のセンサ内蔵液晶パネル301Aにて文書P2の表面をスキャンするとともに、下画面のセンサ内蔵液晶パネル301Bにて文書P2の裏面をスキャンする。そして、スキャンが完了すると、スキャンが完了した旨をユーザに通知する(例えば、所定の音声を出力したり、所定のランプが点灯する等)。   If it is determined that the housing of the data display / sensor device 100 is closed, the surface of the document P2 is scanned by the sensor built-in liquid crystal panel 301A on the upper screen as processing associated with the detection image J1. At the same time, the back side of the document P2 is scanned by the sensor built-in liquid crystal panel 301B on the lower screen. When the scan is completed, the user is notified that the scan is complete (for example, a predetermined sound is output or a predetermined lamp is lit).

次に、図10(e)は、図10(d)で示す状態においてスキャンが実行された後、データ表示/センサ装置100の筐体が開かれた様子を示す図である。なお、文書P2は、図示のように、下画面のセンサ内蔵液晶パネル301上から取り除いている。そして、上画面のセンサ内蔵液晶パネル301Aは、センサ内蔵液晶パネル301Aにてスキャンした結果として得られる画像データのうち、文書P2の表面に該当する部分であるスキャンデータSCD1を、180度回転した状態で表示する。また、下画面のセンサ内蔵液晶パネル301Bは、センサ内蔵液晶パネル301Bにてスキャンした結果として得られる画像データのうち、文書P2の裏面に該当する部分であるスキャンデータSCD2を表示する。   Next, FIG. 10E is a diagram illustrating a state in which the housing of the data display / sensor device 100 is opened after the scan is executed in the state illustrated in FIG. The document P2 is removed from the sensor built-in liquid crystal panel 301 on the lower screen as shown in the figure. Then, the sensor built-in liquid crystal panel 301A on the upper screen is a state in which the scan data SCD1, which is a portion corresponding to the surface of the document P2, among the image data obtained as a result of scanning with the sensor built-in liquid crystal panel 301A is rotated 180 degrees Is displayed. Further, the sensor built-in liquid crystal panel 301B on the lower screen displays scan data SCD2, which is a portion corresponding to the back side of the document P2, among the image data obtained as a result of scanning with the sensor built-in liquid crystal panel 301B.

なお、ユーザ操作により、スキャンデータSCD1およびSCD2の表示向きや表示位置などを変更したり、記憶部901に格納したり、スキャンデータSCD1およびSCD2に含まれる文字を認識するために、文字認識機能を起動してもよい。上記ユーザ操作は、図示していないメニューをタッチ等したり、スキャンデータSCD1およびSCD2を直接タッチ等することにより行われる。   It should be noted that a character recognition function is provided in order to change the display orientation and display position of the scan data SCD1 and SCD2 by the user operation, store the scan data SCD1 and SCD2 in the storage unit 901, and recognize the characters included in the scan data SCD1 and SCD2. It may be activated. The user operation is performed by touching a menu (not shown) or directly touching the scan data SCD1 and SCD2.

なお、図10(e)では、載置領域R1および検知用画像J1を表示しないようにしているが、表示したままであってもよい。これにより、新たな文書を載置領域R1上に載置して、データ表示/センサ装置100の筐体を閉じるだけで、上記新たな文書のスキャンを行うことができる。つまり、スキャンの対象物である文書を載置領域R1上に載置する操作、および、データ表示/センサ装置100の筐体を開閉する操作を繰り返すだけで、複数の文書のスキャンを連続して行うことができる。   In FIG. 10E, the placement region R1 and the detection image J1 are not displayed, but may remain displayed. Thus, the new document can be scanned simply by placing the new document on the placement area R1 and closing the housing of the data display / sensor device 100. That is, the scanning of a plurality of documents is continuously performed only by repeating the operation of placing the document that is the object of scanning on the placement region R1 and the operation of opening and closing the housing of the data display / sensor device 100. It can be carried out.

また、上述では、ボタンBT1をユーザがタッチすることにより検知用画像J1を表示する例を説明したが、ボタンBT1を表示せずに、ユーザがセンサ内蔵液晶パネル301の所定領域をタッチすることにより検知用画像J1を表示するようにしてもよい。   In the above description, the example in which the detection image J1 is displayed by the user touching the button BT1 has been described. However, when the user touches a predetermined area of the sensor built-in liquid crystal panel 301 without displaying the button BT1. The detection image J1 may be displayed.

なお、以下では、対象物をスキャンした結果として得られる画像データのうち、対象物に該当する部分を「スキャンデータ」と称する。   In the following description, a portion corresponding to the object in the image data obtained as a result of scanning the object is referred to as “scan data”.

(データ表示/センサ装置のより詳細な構成)
次に、図1を参照しながら、データ表示/センサ装置100のより詳細な構成について説明する。なお、ここでは、説明を分かりやすくするために、主制御部800と表示/光センサ部300との間に位置するデータ処理部700および回路制御部600の動作については説明を省略する。ただし、正確には、データの表示および対象物のスキャンを行うにあたり、主制御部800の各部が、データ処理部700にコマンドを送信し、データ処理部700がコマンドに基づいて回路制御部600を制御し、回路制御部600が表示/光センサ部300に対して信号を送信する。また、主制御部800は、データ処理部700に対して送信したコマンドに対する応答として、データ処理部700から、全体画像データ、部分画像データ、および座標データを取得する。
(Data display / more detailed configuration of sensor device)
Next, a more detailed configuration of the data display / sensor device 100 will be described with reference to FIG. Here, in order to make the description easy to understand, the description of the operations of the data processing unit 700 and the circuit control unit 600 located between the main control unit 800 and the display / light sensor unit 300 is omitted. However, to be precise, when displaying data and scanning an object, each unit of the main control unit 800 transmits a command to the data processing unit 700, and the data processing unit 700 sets the circuit control unit 600 based on the command. Then, the circuit control unit 600 transmits a signal to the display / light sensor unit 300. Further, the main control unit 800 acquires the entire image data, the partial image data, and the coordinate data from the data processing unit 700 as a response to the command transmitted to the data processing unit 700.

図1は、データ表示/センサ装置100のより詳細な構成を示すブロック図である。図示のように、記憶部901は、メニュー記憶部21、スキャン属性情報記憶部22、画像データ記憶部23、および検知用画像記憶部24を含んでいる。   FIG. 1 is a block diagram showing a more detailed configuration of the data display / sensor device 100. As illustrated, the storage unit 901 includes a menu storage unit 21, a scan attribute information storage unit 22, an image data storage unit 23, and a detection image storage unit 24.

メニュー記憶部21は、センサ内蔵液晶パネル301上に表示するメニューに関する情報を記憶するものである。メニューは、ユーザ選択可能な複数のメニュー項目によって構成されるリストである。なお、メニュー項目は、ユーザ選択された際に実行する処理と対応付けられている。   The menu storage unit 21 stores information related to a menu displayed on the sensor built-in liquid crystal panel 301. The menu is a list composed of a plurality of menu items that can be selected by the user. The menu item is associated with a process to be executed when a user is selected.

なお、メニュー記憶部21は、データ表示/センサ装置100の動作状態に応じたメニューを記憶する。例えば、データ表示/センサ装置100の起動直後に、センサ内蔵液晶パネル301上に表示されるメニューとして、スキャン処理と対応付けられているメニュー項目である「画像スキャン」、記憶部に格納している画像データをセンサ内蔵液晶パネル301上に表示する処理と対応付けられているメニュー項目である「画像表示」、アドレス帳のアプリケーションを起動する処理と対応付けられているメニュー項目である「アドレス帳」などを含むメニューを記憶している。   The menu storage unit 21 stores a menu corresponding to the operation state of the data display / sensor device 100. For example, immediately after the data display / sensor device 100 is started, as a menu displayed on the sensor built-in liquid crystal panel 301, the menu item “image scan” associated with the scan process is stored in the storage unit. “Image display”, which is a menu item associated with a process for displaying image data on the sensor-equipped liquid crystal panel 301, and “Address book”, a menu item associated with a process for starting an address book application The menu that contains etc. is memorized.

また、例えば、センサ内蔵液晶パネル301上に画像データを表示している状態において、センサ内蔵液晶パネル301上に表示されるメニューとして、「拡大/縮小」、「全画面表示」、「回転/反転」、「上下表示入れ替え」、「編集」、「文字認識」、「外部記憶域へ保存」、「各種設定」、「終了」などのメニュー項目を含むメニューを記憶している。   In addition, for example, in a state where image data is displayed on the sensor built-in liquid crystal panel 301, menus displayed on the sensor built-in liquid crystal panel 301 include “enlarge / reduce”, “full screen display”, “rotate / invert” ”,“ Upper / Lower Display Swap ”,“ Edit ”,“ Character Recognition ”,“ Save to External Storage ”,“ Various Settings ”,“ Exit ”, and other menu items are stored.

なお、メニュー項目は、さらにサブメニュー項目と対応付けられていてもよい。例えば、上記「編集」メニュー項目は、サブメニュー項目として「コメントの追加」、「表示範囲の変更」、「蛍光ペン」、「白黒反転」などと対応付けられていてもよい。   The menu item may be further associated with a sub menu item. For example, the “edit” menu item may be associated with “add comment”, “change display range”, “highlight pen”, “black / white reversal”, and the like as submenu items.

スキャン属性情報記憶部22は、スキャン処理部12が、センサ内蔵液晶パネル301上に置かれた対象物のスキャンを行うために用いる各種情報を記憶するものである。スキャン属性情報記憶部22は、表示メッセージ記憶部221、スキャンパターン記憶部222、およびスキャンモード記憶部223を含んでいる。   The scan attribute information storage unit 22 stores various types of information used by the scan processing unit 12 to scan an object placed on the sensor built-in liquid crystal panel 301. The scan attribute information storage unit 22 includes a display message storage unit 221, a scan pattern storage unit 222, and a scan mode storage unit 223.

表示メッセージ記憶部221は、(1)ユーザに提示する所定のメッセージ、(2)該メッセージを、センサ内蔵液晶パネル301Aおよびセンサ内蔵液晶パネル301Bのいずれに表示するかを示す情報(以下、メッセージ表示面情報)、および、(3)センサ内蔵液晶パネル301上において上記メッセージを表示する領域を示す情報(座標データなど)(以下、メッセージ表示領域情報)の組を、読み出し可能な状態で記憶する。以下、表示メッセージ記憶部221で記憶する組を、メッセージ情報と称する。   The display message storage unit 221 includes (1) a predetermined message to be presented to the user, and (2) information indicating which of the sensor built-in liquid crystal panel 301A and the sensor built-in liquid crystal panel 301B is to be displayed (hereinafter, message display). And (3) a set of information (coordinate data etc.) (hereinafter, message display area information) indicating an area for displaying the message on the sensor built-in liquid crystal panel 301 is stored in a readable state. Hereinafter, the group stored in the display message storage unit 221 is referred to as message information.

ユーザに提示する所定のメッセージとしては、例えば、対象物の準備を促すためのメッセージである「用紙をスキャン位置に置いてください」、対象物の準備ができたら画面上のボタンをタッチすることを促すためメッセージである「準備ができたら画面上のボタンをタッチしてください」、筐体を閉じることを促すためのメッセージである「蓋を閉じてください」、スキャン結果の確認を促すためのメッセージである「スキャン結果を確認してください」などの文字データが挙げられる。なお、上記メッセージは、文字データに限定されるものではなく、画像データなどであってもよい。   As a predetermined message to be presented to the user, for example, “Place paper at the scan position”, which is a message for prompting preparation of the object, and touching a button on the screen when the object is ready. “Please touch the button on the screen when ready” message to prompt, “Please close the lid” message to prompt the user to close the case, message to prompt confirmation of the scan result Character data such as “Please check the scan result” can be mentioned. The message is not limited to character data but may be image data.

次に、スキャンパターン記憶部222は、(1)載置領域を示す情報(以下、載置領域情報)、(2)第1表示/光センサ部300Aおよび第2表示/光センサ部300Bのいずれの面でスキャンを実行するかを示す情報(以下、スキャン実行面情報)、および(3)スキャンデータを第1表示/光センサ部300Aおよび第2表示/光センサ部300Bのいずれに表示するかを示す情報(以下、スキャンデータ表示面情報)の組を、読み出し可能な状態で記憶する。以下、スキャンパターン記憶部222で記憶する上記組を、スキャンパターン情報とも称する。   Next, the scan pattern storage unit 222 includes (1) information indicating a placement area (hereinafter, placement area information), and (2) any of the first display / light sensor unit 300A and the second display / light sensor unit 300B. (3) whether the scan data is displayed on the first display / light sensor unit 300A or the second display / light sensor unit 300B. A set of information (hereinafter referred to as scan data display surface information) is stored in a readable state. Hereinafter, the set stored in the scan pattern storage unit 222 is also referred to as scan pattern information.

なお、スキャンパターン情報に含まれる上記(1)から(3)の情報は、工場出荷時などの時点で予め設定されていてもよいし、スキャン属性情報設定部138を介してユーザが設定可能になっていてもよい。   The information (1) to (3) included in the scan pattern information may be set in advance at the time of factory shipment or can be set by the user via the scan attribute information setting unit 138. It may be.

また、スキャンパターン記憶部222の格納されているスキャンパターン情報のいずれかが、スキャン処理部12に参照される。いずれのスキャンパターン情報が参照対象となるかは、工場出荷時などの時点で予め設定されていてもよいし、スキャン属性情報設定部138を介してユーザが設定可能になっていてもよい。   Also, any one of the scan pattern information stored in the scan pattern storage unit 222 is referred to by the scan processing unit 12. Which scan pattern information is to be referred to may be set in advance at the time of factory shipment or the like, or may be set by the user via the scan attribute information setting unit 138.

スキャンパターン記憶部222は、例えば下記の表1に示すようなデータ構造とすることができる。表1は、スキャンパターン記憶部222のデータ構造の一例を示す表である。   The scan pattern storage unit 222 can have a data structure as shown in Table 1 below, for example. Table 1 is a table showing an example of the data structure of the scan pattern storage unit 222.

Figure 2010062940
Figure 2010062940

表1に示すように、スキャンパターン記憶部222は、「載置領域」、「スキャン実行面」、および「スキャンデータ表示面」の組を記憶する。   As shown in Table 1, the scan pattern storage unit 222 stores a set of “placement area”, “scan execution surface”, and “scan data display surface”.

「載置領域」は、載置領域情報を格納するカラムである。上述したように、ここでは、下画面のセンサ内蔵液晶パネル301上に対象物を置くものとしている。したがって、表1の例では、下画面のセンサ内蔵液晶パネル301における、左上の座標が(x3,y3)であり、右下の座標が(x4,y4)で表わされる矩形の領域を、載置領域として記憶している。   The “placement area” is a column that stores placement area information. As described above, here, the object is placed on the sensor built-in liquid crystal panel 301 on the lower screen. Therefore, in the example of Table 1, in the sensor built-in liquid crystal panel 301 on the lower screen, a rectangular area in which the upper left coordinate is (x3, y3) and the lower right coordinate is (x4, y4) is placed. It is stored as an area.

「スキャン実行面」は、スキャン実行面情報を格納するカラムである。したがって、表1の1つ目のレコードのように、「スキャン実行面」が“上画面”である場合は、センサ内蔵液晶パネル301Aがスキャンを実行することを意味する。また、表1の2つ目のレコードのように、「スキャン実行面」が“下画面”である場合は、センサ内蔵液晶パネル301Bがスキャンを実行することを意味する。また、表1の3つ目のレコードのように、「スキャン実行面」が“上画面”かつ“下画面”である場合は、センサ内蔵液晶パネル301Aおよびセンサ内蔵液晶パネル301Bの両方がスキャンを実行することを意味する。   The “scan execution surface” is a column for storing scan execution surface information. Therefore, as shown in the first record in Table 1, when the “scan execution surface” is “upper screen”, this means that the sensor built-in liquid crystal panel 301A executes the scan. Further, as in the second record in Table 1, when the “scan execution surface” is “lower screen”, this means that the sensor built-in liquid crystal panel 301B executes the scan. As shown in the third record of Table 1, when the “scan execution surface” is “upper screen” and “lower screen”, both the sensor built-in liquid crystal panel 301A and the sensor built-in liquid crystal panel 301B perform scanning. It means to execute.

「スキャンデータ表示面」は、スキャンデータ表示面情報を格納するカラムである。したがって、表1の1つ目のレコードのように、「表示面」が“上画面”である場合は、第1表示/光センサ部300Aにスキャンデータを表示することを意味する。複数の対象物が載置領域上に置かれた結果、スキャンデータが複数得られた場合でも、それらスキャンデータをすべて上画面に表示する。   The “scan data display surface” is a column for storing scan data display surface information. Therefore, as shown in the first record of Table 1, when the “display surface” is “upper screen”, this means that the scan data is displayed on the first display / light sensor unit 300A. Even when a plurality of scan data is obtained as a result of placing a plurality of objects on the placement area, all the scan data is displayed on the upper screen.

なお、スキャンデータを表示しない場合は、「スキャンデータ表示面」カラムの値をNULL値等に設定しておけばよい。   If the scan data is not displayed, the “scan data display surface” column value may be set to a NULL value or the like.

ここで、表1に格納されているスキャンパターン情報をレコード毎に説明する。表1の1つ目のレコードは、(1)載置領域が、下画面における左上の座標が(x3,y3)であって右下の座標が(x4,y4)で示される矩形領域であり、(2)上画面でスキャンを実行させ、(3)スキャンデータを上画面に表示する、というスキャンパターン情報を記憶している。   Here, the scan pattern information stored in Table 1 will be described for each record. The first record in Table 1 is: (1) The placement area is a rectangular area whose upper left coordinates are (x3, y3) and lower right coordinates are (x4, y4) on the lower screen. , (2) scan pattern information is stored in which scanning is executed on the upper screen, and (3) scan data is displayed on the upper screen.

次に、表1の2つ目のレコードは、(1)載置領域が、下画面における左上の座標が(x3,y3)であって右下の座標が(x4,y4)で示される矩形領域であり、(2)下画面でスキャンを実行させ、(3)スキャンデータを上画面に表示する、というスキャンパターン情報を記憶している。   Next, the second record in Table 1 shows that (1) the loading area is a rectangle whose upper left coordinates are (x3, y3) and lower right coordinates are (x4, y4) on the lower screen. This area stores scan pattern information that (2) scan is executed on the lower screen, and (3) scan data is displayed on the upper screen.

次に、表1の3つ目のレコードは、(1)載置領域が、下画面における左上の座標が(x3,y3)であって右下の座標が(x4,y4)で示される矩形領域であり、(2)上画面および下画面でスキャンを実行させ、(3)いずれのスキャンデータも上画面に表示する、というスキャンパターン情報を記憶している。   Next, the third record in Table 1 shows that (1) the loading area is a rectangle whose upper left coordinates on the lower screen are (x3, y3) and whose lower right coordinates are (x4, y4). This area stores scan pattern information in which (2) scanning is executed on the upper screen and lower screen, and (3) any scan data is displayed on the upper screen.

最後に、表1の4つ目のレコードは、(1)載置領域が、下画面における左上の座標が(x3,y3)であって右下の座標が(x4,y4)で示される矩形領域であり、(2)上画面および下画面でスキャンを実行させ、(3)上画面でスキャンした結果として得られるスキャンデータを上画面に表示するとともに、下画面でスキャンした結果として得られるスキャンデータを下画面に表示する、というスキャンパターン情報を記憶している。   Finally, the fourth record in Table 1 shows that (1) the loading area is a rectangle whose upper left coordinates are (x3, y3) and lower right coordinates are (x4, y4) on the lower screen. (2) Scan on the upper screen and lower screen, (3) Scan data obtained as a result of scanning on the upper screen is displayed on the upper screen, and scan obtained as a result of scanning on the lower screen Scan pattern information for displaying data on the lower screen is stored.

なお、「載置領域」に記憶される領域の形状は矩形に限定されるものではなく、例えば円形などであってもよい。また、領域を示す情報は座標に限定されるものではない。   Note that the shape of the area stored in the “mounting area” is not limited to a rectangle, and may be, for example, a circle. Further, the information indicating the area is not limited to the coordinates.

次に、スキャンモード記憶部223は、スキャンを連続して実行するか否かを示す情報(以下、スキャンモード情報)を記憶する。なお、スキャンを連続的に実行する旨が記憶されている場合、所定のユーザ操作(例えば、データ表示/センサ装置100の筐体の開閉操作など)をトリガとして、連続的にスキャンが実行されるものとする。   Next, the scan mode storage unit 223 stores information (hereinafter referred to as scan mode information) indicating whether or not to continuously perform scanning. When it is stored that scanning is continuously executed, scanning is continuously executed with a predetermined user operation (for example, data display / opening / closing operation of the housing of the sensor device 100) as a trigger. Shall.

次に、画像データ記憶部23は、スキャンデータなどの画像データを、読み出し可能な状態で記憶するものである。ユーザが入力したコメントなどを画像データに対応付けて記憶してもよい。   Next, the image data storage unit 23 stores image data such as scan data in a readable state. A comment input by the user may be stored in association with the image data.

次に、検知用画像記憶部24は、検知用画像を読み出し可能な状態で記憶するものである。また、検知用画像記憶部24は、検知用画像と、検知用画像が読み取られたときに自装置で実行すべき処理を示す処理指定情報とを対応付けて記憶する。当該実行すべき処理とは、例えば、(1)対象物のスキャン、(2)データ表示/センサ装置100の電源のオフ、などが挙げられる。上記(1)は、さらに、対象物の両面スキャン/片面スキャン、対象物の特定色以外の文字のみのスキャン、などがパラメータとして指定されていてもよい。   Next, the detection image storage unit 24 stores the detection image in a readable state. Further, the detection image storage unit 24 stores the detection image and processing designation information indicating processing to be executed by the own apparatus when the detection image is read in association with each other. Examples of the process to be executed include (1) scanning of an object, (2) turning off the power of the data display / sensor device 100, and the like. In the above (1), double-sided scanning / single-sided scanning of an object, scanning of only characters other than a specific color of the object, and the like may be specified as parameters.

上記対応付けは、例えば、下記の表2に示すテーブル構造を用いて記憶すればよい。表2は、検知用画像と処理指定情報とを対応付けて記憶するためのテーブル構造の一例を示す表である。表2では、検知用画像を識別するファイル名と、処理指定情報とが対応付けられている。例えば、“mark001.jpg”というファイル名で識別される検知用画像に、センサ内蔵液晶パネル301にてスキャンを実行させる処理を示す情報である“対象物のスキャン”という処理指定情報が対応付けられている。また、mark002.jpg”というファイル名で識別される検知用画像に、データ表示/センサ装置100の電源をオフにさせる処理を示す情報である“電源のオフ” という処理指定情報が対応付けられている。   The association may be stored using, for example, the table structure shown in Table 2 below. Table 2 is an example of a table structure for storing the detection image and the processing designation information in association with each other. In Table 2, the file name for identifying the detection image is associated with the processing designation information. For example, the detection designation identified by the file name “mark001.jpg” is associated with processing designation information “scanning object” that is information indicating processing for executing scanning by the sensor built-in liquid crystal panel 301. ing. In addition, the detection image identified by the file name “mark002.jpg” is associated with processing designation information “power off”, which is information indicating processing for turning off the power of the data display / sensor device 100. Yes.

なお、検知用画像と、処理指定情報との対応付けは、工場出荷時などの時点で予め設定されていてもよいし、ユーザ設定可能になっていてもよい。   The association between the detection image and the processing designation information may be set in advance at the time of factory shipment or may be set by the user.

Figure 2010062940
Figure 2010062940

次に、主制御部800について説明する。図示のように、主制御部800は、メニュー表示制御部11、スキャン処理部12、画像表示処理部18、および電源管理部19(処理実行手段)を含んでいる。画像表示処理を行わない場合には、画像表示処理部18を含まなくてもよい。   Next, the main control unit 800 will be described. As illustrated, the main control unit 800 includes a menu display control unit 11, a scan processing unit 12, an image display processing unit 18, and a power management unit 19 (processing execution unit). When image display processing is not performed, the image display processing unit 18 may not be included.

メニュー表示制御部11は、データ表示/センサ装置100の動作状態に応じたメニューやボタンを、メニュー記憶部21から読み出し、該読み出したメニューやボタンをセンサ内蔵液晶パネル301上に表示させる。   The menu display control unit 11 reads menus and buttons corresponding to the operation state of the data display / sensor device 100 from the menu storage unit 21 and displays the read menus and buttons on the sensor built-in liquid crystal panel 301.

そして、ユーザが、センサ内蔵液晶パネル301上を指やペンなどで操作(タッチ)したとき、光センサ回路32が、指やペンなどの影像および反射像の少なくともいずれかを検知するので、その結果として、メニュー表示制御部11は、タッチした位置を示す座標データを取得することができる。   When the user operates (touches) the sensor built-in liquid crystal panel 301 with a finger or a pen, the optical sensor circuit 32 detects at least one of a shadow image and a reflected image of the finger and the pen. The menu display control unit 11 can acquire coordinate data indicating the touched position.

したがって、上記得られた座標データで示される位置が、センサ内蔵液晶パネル301にメニューやボタンを表示した領域内である場合、メニュー表示制御部11は、ユーザが、当該メニューやボタンを操作したものと判定することができる。   Therefore, when the position indicated by the obtained coordinate data is within the area where the menu or button is displayed on the sensor built-in liquid crystal panel 301, the menu display control unit 11 is the one in which the user operates the menu or button. Can be determined.

したがって、上記取得した座標データが、メニュー項目を表示している位置に対応する座標データであるとき、メニュー表示制御部11は、当該メニュー項目に対応づけられている処理を実行する。例えば、「画像スキャン」というメニュー項目を表示している位置に対応する座標データを受信したとき、スキャン処理部12を起動し、スキャン処理を実行させる。また、「画像表示」というメニュー項目を表示している位置に対応する座標データを受信したとき、画像表示処理部18を起動し、画像表示処理を実行させる。   Therefore, when the acquired coordinate data is the coordinate data corresponding to the position where the menu item is displayed, the menu display control unit 11 executes a process associated with the menu item. For example, when the coordinate data corresponding to the position where the menu item “image scan” is displayed is received, the scan processing unit 12 is activated to perform the scan process. When the coordinate data corresponding to the position where the menu item “image display” is displayed is received, the image display processing unit 18 is activated to execute the image display processing.

次に、スキャン処理部12は、センサ内蔵液晶パネル301上に置かれた対象物の片面または両面のスキャンを行う。そのために、スキャン処理部12は、スキャン前処理部121、検知用画像スキャン部126(処理実行手段)、対象物スキャン実行部131(処理実行手段)、およびスキャン属性情報設定部138を含んでいる。   Next, the scan processing unit 12 scans one or both sides of the object placed on the sensor built-in liquid crystal panel 301. For this purpose, the scan processing unit 12 includes a pre-scan processing unit 121, a detection image scanning unit 126 (processing execution unit), an object scan execution unit 131 (processing execution unit), and a scan attribute information setting unit 138. .

スキャン前処理部121は、ユーザにスキャンの準備を促したり、対象物が載置領域に置かれているか否かを判定する処理を行うものである。また、センサ内蔵液晶パネル301上に検知用画像を表示する処理を行うものである。そのために、スキャン前処理部121は、載置領域情報提示部122、対象物有無判定部123、および検知用画像表示処理部124(検知用画像表示指示手段)を含んでいる。   The pre-scan processing unit 121 performs processing for prompting the user to prepare for scanning and determining whether or not the object is placed in the placement area. In addition, processing for displaying a detection image on the sensor built-in liquid crystal panel 301 is performed. For this purpose, the pre-scan processing unit 121 includes a placement area information presentation unit 122, an object presence / absence determination unit 123, and a detection image display processing unit 124 (detection image display instruction unit).

載置領域情報提示部122は、載置領域をユーザに提示するとともに、対象物の準備を促すためのメッセージをユーザに提示する。そのために、載置領域情報提示部122は、スキャンパターン記憶部222から、参照対象のスキャンパターン情報に含まれる載置領域情報を読み出し、下画面のセンサ内蔵液晶パネル301における、上記読み出した載置領域情報で示される領域に、例えば所定のパターン画像を表示させる。   The placement area information presentation unit 122 presents the placement area to the user and presents a message for prompting the preparation of the object to the user. For this purpose, the placement area information presentation unit 122 reads the placement area information included in the scan pattern information to be referenced from the scan pattern storage unit 222, and the above-described placement in the sensor built-in liquid crystal panel 301 on the lower screen. For example, a predetermined pattern image is displayed in the area indicated by the area information.

なお、所定のパターン画像は点滅表示させることが望ましい。点滅表示させることにより、ユーザに対して、データ表示/センサ装置100がスキャン処理を実行可能状態にあることを知らせることができるとともに、載置領域の位置を知らせることができる。   Note that it is desirable to blink the predetermined pattern image. By blinking the display, it is possible to notify the user that the data display / sensor device 100 is ready to execute the scanning process and to notify the position of the placement area.

また、載置領域情報提示部122は、表示メッセージ記憶部221を参照し、対象物の準備をユーザに促すためのメッセージを含むメッセージ情報を取得する。そして、該メッセージをセンサ内蔵液晶パネル301に表示させる。   Further, the placement area information presentation unit 122 refers to the display message storage unit 221 and acquires message information including a message for prompting the user to prepare the target object. Then, the message is displayed on the sensor built-in liquid crystal panel 301.

次に、対象物有無判定部123は、対象物が載置領域に置かれたか否かを判定する。そのために、対象物有無判定部123は、データ処理部700から、少なくとも対象物が置かれた位置を示す座標データを取得する。さらに、対象物の領域を示す部分画像データ(部分画像における座標データを含む)を取得してもよい。   Next, the object presence / absence determination unit 123 determines whether or not the object is placed in the placement area. For this purpose, the object presence / absence determination unit 123 acquires coordinate data indicating at least a position where the object is placed from the data processing unit 700. Furthermore, partial image data (including coordinate data in the partial image) indicating the region of the object may be acquired.

なお、対象物がセンサ内蔵液晶パネル301上に置かれたとき、光センサ回路32が、対象物の影像および反射像の少なくともいずれかを検知し、その結果、データ処理部700のセンサデータ処理部703がセンサ制御部602から受信する画像データに変化が生じる。その結果、対象物有無判定部123は、対象物が置かれた位置を示す座標データ、および、対象物の領域を示す部分画像データ(部分画像における座標データを含む)を、データ処理部700から取得することができる。   When the object is placed on the sensor built-in liquid crystal panel 301, the optical sensor circuit 32 detects at least one of a shadow image and a reflected image of the object, and as a result, a sensor data processing unit of the data processing unit 700 is detected. A change occurs in the image data received by the sensor control unit 602 in step 703. As a result, the object presence / absence determining unit 123 receives coordinate data indicating the position where the object is placed and partial image data (including coordinate data in the partial image) indicating the area of the object from the data processing unit 700. Can be acquired.

したがって、対象物有無判定部123は、上記取得した座標データで示される座標位置が、載置領域内に含まれるか否かを調べる。これにより、対象物有無判定部123は、対象物が載置領域に置かれているか否かを判定する。さらに、部分画像データ(部分画像における座標データを含む)を取得している場合は、センサ内蔵液晶パネル301上における対象物の位置する領域が、載置領域内にあるか否か(または、載置領域と重なっているか否か)を調べることによって、対象物が載置領域に置かれているか否かを判定してもよい。   Therefore, the object presence / absence determination unit 123 checks whether the coordinate position indicated by the acquired coordinate data is included in the placement area. Thereby, the object presence / absence determination unit 123 determines whether or not the object is placed in the placement area. Further, when partial image data (including coordinate data in the partial image) is acquired, whether or not the area where the object is located on the liquid crystal panel with a built-in sensor 301 is within the placement area (or the placement area). Whether or not the object is placed in the placement area may be determined by examining whether or not the placement area overlaps the placement area.

そして、載置領域に対象物が置かれていると判定した場合、対象物有無判定部123は、表示メッセージ記憶部221を参照し、検知用画像の表示を指示する旨をユーザに促すためのメッセージ(例えば、“準備ができたら画面をタッチしてください”や“準備ができたら画面上のボタンをタッチしてください”など)を含むメッセージ情報を取得する。そして、該メッセージをセンサ内蔵液晶パネル301に表示させる。   When it is determined that the object is placed in the placement area, the object presence / absence determination unit 123 refers to the display message storage unit 221 to prompt the user to instruct display of the detection image. Acquire message information including a message (for example, “Touch the screen when ready” or “Touch a button on the screen when ready”). Then, the message is displayed on the sensor built-in liquid crystal panel 301.

次に、検知用画像表示処理部124は、検知用画像記憶部24から検知用画像を読み出し、該読み出した検知用画像をセンサ内蔵液晶パネル301に表示させる。なお、検知用画像は、ユーザが視認しやすいように、データ表示/センサ装置100の筐体が閉じられていないときに(折り畳まれていない状態のときに)、表示させるのが望ましい。検知用画像を表示させるタイミングとして、例えば、対象物有無判定部123が載置領域に対象物が置かれていると判定したときなどが挙げられる。   Next, the detection image display processing unit 124 reads the detection image from the detection image storage unit 24 and displays the read detection image on the sensor built-in liquid crystal panel 301. Note that the detection image is desirably displayed when the casing of the data display / sensor device 100 is not closed (when the data display / sensor device 100 is not folded) so that the user can easily recognize the image. Examples of the timing for displaying the detection image include when the object presence / absence determining unit 123 determines that the object is placed in the placement area.

また、検知用画像表示処理部124は、ユーザ操作を受け付け、当該受け付けたユーザ操作をトリガとして、検知用画像記憶部24から検知用画像を読み出し、該読み出した検知用画像をセンサ内蔵液晶パネル301に表示させるようにしてもよい。上記ユーザ操作とは、例えば、ユーザが、センサ内蔵液晶パネル301に表示している所定のボタン等をタッチする操作や、センサ内蔵液晶パネル301のボタン等が表示されていない所定領域をユーザがタッチ等する操作を想定している。   The detection image display processing unit 124 receives a user operation, reads out the detection image from the detection image storage unit 24 using the received user operation as a trigger, and reads the read detection image into the sensor built-in liquid crystal panel 301. You may make it display on. The user operation is, for example, an operation in which the user touches a predetermined button or the like displayed on the sensor built-in liquid crystal panel 301, or a user touches a predetermined area in which the button or the like of the sensor built-in liquid crystal panel 301 is not displayed. It is assumed that the operations are equal.

また、検知用画像は、予め定められたものを検知用画像記憶部24から読み出してもよいし、検知用画像記憶部24に記憶されているものの中からユーザが選択可能になっていてもよい。   In addition, a predetermined detection image may be read from the detection image storage unit 24 or may be selectable by the user from those stored in the detection image storage unit 24. .

ユーザ操作をトリガとして、予め定められた検知用画像を表示させる例としては、図10(b)にて説明したように、センサ内蔵液晶パネル301上に、検知用画像の表示指示を受けるためのボタンBT1を表示し、ユーザが当該ボタンBT1をタッチすることによって、当該ボタンBT1に対応づけられた検知用画像J1を表示させるケースが考えられる。この場合、検知用画像表示処理部124は、対象物有無判定部123が、載置領域に対象物が置かれていると判定したことをトリガとして、センサ内蔵液晶パネル301上にボタンBT1を表示させるとともに、ユーザが当該ボタンBT1をタッチしたことを検出すると、ボタンBT1に代えて検知用画像J1を表示させる。   As an example of displaying a predetermined detection image using a user operation as a trigger, as described in FIG. 10B, for receiving an instruction to display a detection image on the sensor built-in liquid crystal panel 301. A case where the button BT1 is displayed and the user touches the button BT1 to display the detection image J1 associated with the button BT1 can be considered. In this case, the detection image display processing unit 124 displays the button BT1 on the sensor built-in liquid crystal panel 301 when the target object presence / absence determination unit 123 determines that the target object is placed in the placement area. When detecting that the user touches the button BT1, the detection image J1 is displayed instead of the button BT1.

なお、検知用画像表示処理部124がセンサ内蔵液晶パネル301に表示させた検知用画像の表示位置や表示サイズは、ユーザ操作により変更できるようになっていてもよい。この場合、上記ユーザ操作は、例えば、検知用画像を直接タッチ等することにより行われる。   Note that the display position and display size of the detection image displayed on the sensor built-in liquid crystal panel 301 by the detection image display processing unit 124 may be changed by a user operation. In this case, the user operation is performed, for example, by directly touching the detection image.

次に、検知用画像スキャン部126は、まず、センサ内蔵液晶パネル301Aおよびセンサ内蔵液晶パネル301Bの少なくとも一方にてスキャンを実行する。具体的には、検知用画像スキャン部126は、センサ内蔵液晶パネル301の少なくともいずれか一方に検知用画像が表示された後、当該検知用画像が表示されていない側のセンサ内蔵液晶パネル301にてスキャンを実行させた結果として得られる画像データに、検知用画像に相当する領域が含まれるか否かを判定する。   Next, the detection image scanning unit 126 first performs scanning with at least one of the sensor built-in liquid crystal panel 301A and the sensor built-in liquid crystal panel 301B. Specifically, after the detection image is displayed on at least one of the sensor built-in liquid crystal panels 301, the detection image scanning unit 126 applies the detection image scanning unit 126 to the sensor built-in liquid crystal panel 301 on the side where the detection images are not displayed. Then, it is determined whether or not the image data obtained as a result of executing the scan includes a region corresponding to the detection image.

ここで、検知用画像スキャン部126がスキャンの結果として取得する画像データが全体画像データである場合、一般的な画像処理によって当該全体画像データから抽出した領域と検知用画像とのマッチングを行なうことにより、当該全体画像データに検知用画像に相当する領域が含まれるか否かを判定すればよい。また、検知用画像スキャン部126がスキャンの結果として取得する画像データが1または複数の部分画像データである場合は、当該部分画像データと検知用画像とのマッチングを行なうことにより、当該部分画像データが検知用画像に相当する領域であるか否かを判定すればよい。   Here, when the image data acquired as a result of scanning by the detection image scanning unit 126 is the entire image data, the region extracted from the entire image data by general image processing is matched with the detection image. Thus, it may be determined whether or not the entire image data includes an area corresponding to the detection image. When the image data acquired as a result of scanning by the detection image scanning unit 126 is one or a plurality of partial image data, the partial image data is matched by matching the partial image data with the detection image. Whether or not is an area corresponding to the detection image may be determined.

なお、上記マッチングは、当該マッチングの対象となる画像(センサ内蔵液晶パネル301に表示された検知用画像、および、スキャンの結果として取得する画像データにおける検知用画像に相当する領域)の形状、模様、座標位置などの特徴量に基づいて、一般的に知られているマッチング手法を用いて行なえばよい。   Note that the above-mentioned matching is the shape or pattern of the image to be matched (the area corresponding to the detection image displayed on the sensor built-in liquid crystal panel 301 and the detection image in the image data acquired as a result of scanning). Based on the feature amount such as the coordinate position, a generally known matching method may be used.

そして、検知用画像スキャン部126は、上記スキャンの結果として得られる画像データに、検知用画像に相当する領域が含まれると判定した場合、検知用画像記憶部24に記憶されている、当該検知用画像に対応付けられている処理指定情報で示される処理を実行させる。具体的には、上記検知用画像に対応付けられている処理指定情報が、対象物のスキャンを実行させる旨であれば、対象物スキャン実行部131を駆動する指示を与える。また、上記検知用画像に対応付けられている処理が、データ表示/センサ装置100の電源のオフを実行させる旨であれば、電源管理部19に電源をオフさせる指示を与える。   When the detection image scanning unit 126 determines that the image data obtained as a result of the scan includes a region corresponding to the detection image, the detection image storage unit 24 stores the detection. The process indicated by the process designation information associated with the image for use is executed. Specifically, if the processing designation information associated with the detection image is to execute scanning of an object, an instruction to drive the object scan execution unit 131 is given. Further, if the processing associated with the detection image is to turn off the power of the data display / sensor device 100, the power management unit 19 is instructed to turn off the power.

なお、データ表示/センサ装置100の筐体が閉じられているとき、センサ内蔵液晶パネル301Aおよびセンサ内蔵液晶パネル301Bは、互いに対向して接する状態にあるため、例えば、センサ内蔵液晶パネル301Aにてスキャンを行うと、当該スキャンの結果として、センサ内蔵液晶パネル301Bに表示されている画像を含む画像データを取得することが可能となる。逆に言えば、センサ内蔵液晶パネル301Aにてスキャンした結果、センサ内蔵液晶パネル301Bに表示されている画像を含む画像データを取得することができたときは、データ表示/センサ装置100の筐体が閉じられていると判断してよい。よって、センサ内蔵液晶パネル301の少なくともいずれか一方にて上記検知用画像を読み取ることができた場合、検知用画像スキャン部126は、データ表示/センサ装置100の筐体は閉じられている(折り畳まれている状態である)と判定する。   When the housing of the data display / sensor device 100 is closed, the sensor built-in liquid crystal panel 301A and the sensor built-in liquid crystal panel 301B are in contact with each other. When scanning is performed, as a result of the scanning, it is possible to acquire image data including an image displayed on the sensor built-in liquid crystal panel 301B. In other words, when image data including an image displayed on the sensor built-in liquid crystal panel 301B can be acquired as a result of scanning with the sensor built-in liquid crystal panel 301A, the housing of the data display / sensor device 100 is displayed. May be determined to be closed. Therefore, when the detection image can be read by at least one of the sensor built-in liquid crystal panels 301, the detection image scanning unit 126 closes the casing of the data display / sensor device 100 (folded). Is determined).

また、上記スキャンの結果として得られる画像データに、検知用画像に相当する領域が含まれると判定した場合、その旨をユーザに通知してもよい(例えば、所定の音声を出力したり、所定のランプが点灯する等)。   In addition, when it is determined that the image data obtained as a result of the scan includes an area corresponding to the detection image, the user may be notified of this (for example, a predetermined sound is output or a predetermined sound is output). The lamp lights up).

また、上記スキャンの結果として得られる画像データに、検知用画像に相当する領域が含まれない場合、または、検知用画像に相当しない領域のみが含まれる場合は、検知用画像スキャン部126は予め定められた所定の動作を行ってもよいし、ユーザ操作があるまで何も動作しなくてもよい。   If the image data obtained as a result of the scan does not include an area corresponding to the detection image, or includes only an area not corresponding to the detection image, the detection image scanning unit 126 is previously stored. A predetermined operation may be performed, or nothing may be performed until a user operation is performed.

次に、対象物スキャン実行部131は、センサ内蔵液晶パネル301にスキャンを実行させた結果として、全体画像データを取得し、該取得した全体画像データからスキャンデータを抽出して、当該スキャンデータを記憶部に格納するものである。そのために、対象物スキャン実行部131は、スキャン実行指示部132、スキャンデータ生成部133、スキャンデータ表示指示部135、およびスキャンデータ格納部137を含んでいる。   Next, the object scan execution unit 131 acquires the entire image data as a result of causing the sensor built-in liquid crystal panel 301 to execute the scan, extracts the scan data from the acquired entire image data, and extracts the scan data. It is stored in the storage unit. For this purpose, the object scan execution unit 131 includes a scan execution instruction unit 132, a scan data generation unit 133, a scan data display instruction unit 135, and a scan data storage unit 137.

スキャン実行指示部132は、対象物のスキャンを実行するために、センサ内蔵液晶パネル301にスキャンを実行させる。このとき、スキャン実行指示部132は、スキャンパターン記憶部222から、参照対象のスキャンパターン情報を読み出し、該読み出したスキャンパターン情報に含まれる、スキャン実行面情報に基づいて、スキャンを実行させるセンサ内蔵液晶パネル301を決定する。そして、スキャン実行指示部132は、上記決定したセンサ内蔵液晶パネル301にて、スキャンを実行させる。   The scan execution instructing unit 132 causes the sensor built-in liquid crystal panel 301 to execute a scan in order to execute a scan of the object. At this time, the scan execution instructing unit 132 reads the reference scan pattern information from the scan pattern storage unit 222, and incorporates a sensor that executes the scan based on the scan execution surface information included in the read scan pattern information. The liquid crystal panel 301 is determined. Then, the scan execution instruction unit 132 causes the sensor built-in liquid crystal panel 301 to execute a scan.

次に、スキャンデータ生成部133は、スキャンの結果として全体画像データを取得すると、上記取得した全体画像データから、対象物の領域を、スキャンデータとして抽出する。複数の対象物をスキャンした場合は、それぞれの対象物に対応する領域を、スキャンデータとして抽出する。   Next, when the scan data generation unit 133 acquires the entire image data as a result of the scan, the scan data generation unit 133 extracts a region of the target object as scan data from the acquired entire image data. When a plurality of objects are scanned, an area corresponding to each object is extracted as scan data.

ここで、対象物の領域を抽出する方法としては、例えば、上記取得した全体画像データに対して、一般的な画像処理によって、対象物の領域と対象物でない部分の領域とを判別し、対象物の領域をスキャンデータとして抽出する方法がある。なお、上記取得した全体画像データにおける、対象物の領域と対象物でない部分の領域とは、画素値の明度等に差異があり、判別することができるものとする。   Here, as a method for extracting the region of the target object, for example, the target image region and the non-target object region are discriminated by general image processing on the acquired entire image data. There is a method of extracting an object area as scan data. In the acquired whole image data, the area of the object and the area of the part that is not the object are different in the brightness of the pixel value, and can be distinguished.

また、対象物有無判定部123が、対象物が置かれた位置を示す座標データ、および、対象物の領域を示す部分画像データ(部分画像における座標データを含む)を取得している場合、スキャンデータ生成部133は、上記取得した全体画像データにおける、対象物の領域を算出し、上記取得した全体画像データから当該領域をスキャンデータとして抽出してもよい。具体的には、対象物有無判定部123が取得している座標データおよび部分画像における座標データに基づいて、対象物有無判定部123が取得している部分画像データの、全体画像データにおける位置を決定し、スキャンの結果として取得した全体画像データから、上記決定した位置における部分画像データに相当する領域を、スキャンデータとして抽出する。   Further, when the object presence / absence determination unit 123 acquires coordinate data indicating the position where the object is placed and partial image data (including coordinate data in the partial image) indicating the area of the object, scanning is performed. The data generation unit 133 may calculate a region of the object in the acquired entire image data and extract the region as scan data from the acquired entire image data. Specifically, based on the coordinate data acquired by the object presence / absence determination unit 123 and the coordinate data in the partial image, the position of the partial image data acquired by the object presence / absence determination unit 123 in the entire image data is determined. A region corresponding to the partial image data at the determined position is extracted as scan data from the entire image data determined and acquired as a result of scanning.

なお、下画面にて対象物が置かれている領域と、上画面にて対象物をスキャンした領域とは、対向した位置にある(鏡像の関係にある)ので、上画面においてスキャンした結果として得られる画像データにおける対象物の領域は、下画面にてスキャンした結果として得られる画像データにおける対象物の領域に基づいて算出することができる。よって、スキャンデータ生成部133は、対象物が置かれた位置を示す座標データ、および、対象物の領域を示す部分画像データ(部分画像における座標データを含む)に基づいて、上画面にてスキャンした結果として得られる全体画像データからも、対象物の領域をスキャンデータとして抽出することができる。   Note that the area where the object is placed on the lower screen and the area where the object is scanned on the upper screen are in opposite positions (in a mirror image relationship). The area of the object in the obtained image data can be calculated based on the area of the object in the image data obtained as a result of scanning on the lower screen. Therefore, the scan data generation unit 133 scans on the upper screen based on the coordinate data indicating the position where the object is placed and the partial image data (including the coordinate data in the partial image) indicating the area of the object. The region of the object can be extracted as scan data also from the entire image data obtained as a result.

また、スキャンデータ生成部133は、(1)上画面のバックライト307を消灯し、下画面のバックライト307を点灯させつつ、上画面でスキャンを実行させ、また、(2)下画面のバックライト307を消灯し、上画面のバックライト307を点灯させつつ、下画面でスキャンを実行させることによって、対象物が置かれた位置を示す座標データ、および、対象物の領域を示す部分画像データ(部分画像における座標データを含む)を取得してもよい。   Further, the scan data generation unit 133 (1) turns off the backlight 307 on the upper screen, turns on the backlight 307 on the lower screen, performs scanning on the upper screen, and (2) backs the lower screen. By turning off the light 307 and turning on the backlight 307 on the upper screen while executing scanning on the lower screen, coordinate data indicating the position where the object is placed and partial image data indicating the area of the object (Including coordinate data in the partial image) may be acquired.

また、対象物の領域を認識することができない場合は、スキャンパターン記憶部222から読み出したスキャンパターン情報に含まれるスキャンデータ領域情報に基づいて、上記取得した全体画像データからスキャンデータを抽出してもよい。   If the area of the object cannot be recognized, scan data is extracted from the acquired whole image data based on the scan data area information included in the scan pattern information read from the scan pattern storage unit 222. Also good.

なお、筐体を閉じたとき、上画面の光センサ回路32が、対象物の影像および反射像の少なくともいずれかを検知し、その結果、データ処理部700のセンサデータ処理部703がセンサ制御部602から受信する画像データに変化が生じる。したがって、上画面にてスキャンされた対象物の位置を示す座標データ、および、当該対象物の領域を示す部分画像データ(部分画像における座標データを含む)を、データ処理部700から取得することも可能である。この場合、上記取得した部分画像データは、上画面でスキャンした結果としてのスキャンデータである。そして、この場合、スキャンデータ生成部133は、当該座標データおよび部分画像データ(部分画像における座標データを含む)に基づいて、下画面にてスキャンした結果として得られる全体画像データから、対象物の領域をスキャンデータとして抽出することができる。   When the casing is closed, the optical sensor circuit 32 on the upper screen detects at least one of a shadow image and a reflected image of the object, and as a result, the sensor data processing unit 703 of the data processing unit 700 performs the sensor control unit. A change occurs in the image data received from 602. Therefore, the coordinate data indicating the position of the object scanned on the upper screen and the partial image data (including the coordinate data in the partial image) indicating the area of the object may be acquired from the data processing unit 700. Is possible. In this case, the acquired partial image data is scan data as a result of scanning on the upper screen. In this case, the scan data generation unit 133 calculates the target object from the entire image data obtained as a result of scanning on the lower screen based on the coordinate data and the partial image data (including the coordinate data in the partial image). An area can be extracted as scan data.

次に、スキャンデータ生成部133は、上記抽出したスキャンデータを、スキャンデータ保持部136に一次保存する。   Next, the scan data generation unit 133 primarily stores the extracted scan data in the scan data holding unit 136.

なお、対象物スキャン実行部131は、スキャンデータ生成部133がスキャンデータをスキャンデータ保持部136に一次保存した後、スキャンが終了した旨をユーザに通知するために、音声出力部908に所定の音声データを出力する。   Note that the object scan execution unit 131 temporarily stores the scan data in the scan data holding unit 136 after the scan data generation unit 133 temporarily stores the scan data, and then notifies the audio output unit 908 that the scan has ended. Output audio data.

次に、スキャンデータ表示指示部135は、スキャンデータ保持部136に一次保存されているスキャンデータを読み出し、センサ内蔵液晶パネル301に表示させる。   Next, the scan data display instruction unit 135 reads the scan data temporarily stored in the scan data holding unit 136 and displays it on the sensor built-in liquid crystal panel 301.

なお、スキャンデータを表示させるにあたり、スキャンデータ表示指示部135は、スキャンパターン記憶部222から、参照対象のスキャンパターン情報を読み出し、該読み出したスキャンパターン情報に含まれる、スキャンデータ表示面情報に基づいて、スキャンデータを表示させるセンサ内蔵液晶パネル301を決定し、該決定したセンサ内蔵液晶パネル301にスキャンデータを表示させる。   In displaying the scan data, the scan data display instruction unit 135 reads the scan pattern information to be referenced from the scan pattern storage unit 222, and based on the scan data display surface information included in the read scan pattern information. Then, the sensor built-in liquid crystal panel 301 for displaying the scan data is determined, and the scan data is displayed on the determined sensor built-in liquid crystal panel 301.

なお、スキャンデータ表示指示部135は、例えば、ヒンジ部スイッチ904が、筐体を開いたことを検出したことをトリガとして、表示メッセージ記憶部221を参照し、スキャンが完了したことをユーザに通知する旨のメッセージ(例えば、“スキャンが完了しました”など)を読み出し、該読み出したメッセージをセンサ内蔵液晶パネル301に表示させる。   For example, the scan data display instruction unit 135 refers to the display message storage unit 221 with the detection that the hinge unit switch 904 has opened the housing as a trigger, and notifies the user that the scan has been completed. A message to the effect (for example, “scanning is completed”) is read, and the read message is displayed on the sensor built-in liquid crystal panel 301.

なお、下画面に置かれた対象物を上画面でスキャンした結果として得られるスキャンデータをそのまま表示すると、上下が逆の状態で表示されることとなる。したがって、上画面でスキャンを実行した結果として得られるスキャンデータを表示させる際は、180度回転させた状態で表示させることが望ましい。この場合、スキャン実行指示部132が、スキャンデータを180度回転させる画像処理を行い、画像処理された後のスキャンデータをセンサ内蔵液晶パネル301に表示させればよい。   In addition, if the scan data obtained as a result of scanning the object placed on the lower screen on the upper screen is displayed as it is, the image is displayed in an upside down state. Therefore, when displaying the scan data obtained as a result of executing the scan on the upper screen, it is desirable to display it in a state rotated by 180 degrees. In this case, the scan execution instruction unit 132 may perform image processing for rotating the scan data by 180 degrees, and display the scan data after the image processing on the sensor built-in liquid crystal panel 301.

また、ユーザが、スキャンデータ表示領域に表示したスキャンデータ自体を操作したり、所定のメニューやボタンを操作することによって、スキャンデータを表示するスキャンデータ表示面およびスキャンデータ表示領域を変更可能としたり、表示の向きを変更可能としてもよい。   Also, the user can change the scan data display surface and the scan data display area for displaying the scan data by operating the scan data itself displayed in the scan data display area, or by operating a predetermined menu or button. The display orientation may be changeable.

次に、スキャンデータ格納部137は、ユーザがスキャンデータの格納操作を行なうか、または、スキャン処理部12がスキャンモード情報を参照することによって、スキャンを連続的に実行することが設定されていることがわかると、スキャンデータ保持部136に一次保存されているスキャンデータを、画像データ記憶部23に格納する。このとき、当該スキャンデータと、シーケンシャルな識別情報とを対応付けて格納する。シーケンシャルな識別情報とは、画像データ記憶部23に格納するデータを一意に識別するものであればよく、例えば、格納日時などが挙げられる。   Next, the scan data storage unit 137 is set to continuously execute scans by the user performing scan data storage operations or by the scan processing unit 12 referring to the scan mode information. If it is found, the scan data temporarily stored in the scan data holding unit 136 is stored in the image data storage unit 23. At this time, the scan data and sequential identification information are stored in association with each other. The sequential identification information only needs to uniquely identify data stored in the image data storage unit 23, and examples thereof include storage date and time.

なお、スキャンデータ保持部136に、スキャンデータが対応付けられた状態で一次保存されている場合は、当該スキャンデータを対応付けた状態のまま、画像データ記憶部23に格納する。   If the scan data is temporarily stored in the scan data holding unit 136 in a state of being associated with each other, the scan data is stored in the image data storage unit 23 in a state of being associated with the scan data.

なお、スキャンデータの格納操作とは、例えば、スキャンデータの格納処理が対応付けられているメニュー項目に対するユーザ操作などが挙げられる。この場合、メニュー表示制御部11が、当該メニュー項目を表示している位置に対応する座標データを受信することにより、ユーザがスキャンデータの格納操作を行ったことがわかる。   The scan data storage operation includes, for example, a user operation on a menu item associated with scan data storage processing. In this case, when the menu display control unit 11 receives the coordinate data corresponding to the position where the menu item is displayed, it can be seen that the user has performed an operation of storing the scan data.

次に、スキャン属性情報設定部138は、ユーザがスキャン属性情報の設定操作を行ったことをトリガとして、スキャン属性情報記憶部22に格納されている各種情報を更新するための入力インタフェース(ソフトウェアキーボードなど)をセンサ内蔵液晶パネル301上に表示させる。なお、スキャン属性情報の設定操作とは、例えば、スキャン属性情報の設定処理が対応付けられているメニュー項目に対するユーザ操作などが挙げられる。この場合、メニュー表示制御部11が、当該メニュー項目を表示している位置に対応する座標データを受信することにより、ユーザがスキャン属性情報の設定操作を行ったことがわかる。   Next, the scan attribute information setting unit 138 uses an input interface (software keyboard) for updating various types of information stored in the scan attribute information storage unit 22 triggered by the user performing a scan attribute information setting operation. Etc.) are displayed on the liquid crystal panel 301 with a built-in sensor. The scan attribute information setting operation includes, for example, a user operation on a menu item associated with scan attribute information setting processing. In this case, when the menu display control unit 11 receives the coordinate data corresponding to the position where the menu item is displayed, it can be seen that the user has performed the setting operation of the scan attribute information.

そして、スキャン属性情報設定部138は、上記入力インタフェースにてユーザ入力された内容に基づいて、スキャン属性情報記憶部22に格納されている各種情報を変更する。なお、上記入力インタフェースがソフトウェアキーボードである場合、受信した座標データで示される位置に表示しているキーを判定することにより、ユーザ入力された内容を得ることができる。   Then, the scan attribute information setting unit 138 changes various information stored in the scan attribute information storage unit 22 based on the contents input by the user through the input interface. When the input interface is a software keyboard, the user input content can be obtained by determining the key displayed at the position indicated by the received coordinate data.

なお、スキャン処理部12は、スキャンモード記憶部223に記憶されているスキャンモード情報を参照し、スキャンを連続的に実行する旨が記憶されている場合は、所定のユーザ操作(例えば、データ表示/センサ装置100の筐体の開閉操作)をトリガとして、連続的にスキャンを実行する。すなわち、スキャン前処理部121および対象物スキャン実行部131の組を、連続して起動させる。   The scan processing unit 12 refers to the scan mode information stored in the scan mode storage unit 223, and when it is stored that the scan is continuously executed, a predetermined user operation (for example, data display) / Opening / closing operation of the housing of the sensor device 100) is used as a trigger to continuously scan. That is, the set of the scan preprocessing unit 121 and the target object scan execution unit 131 is activated continuously.

次に、画像表示処理部18は、画像データ記憶部23に格納されている画像データを、センサ内蔵液晶パネル301上に表示するものである。よって、画像表示処理部18は、画像データ記憶部23を参照して画像データを取得し、該取得した画像データをセンサ内蔵液晶パネル301に表示させる。このとき、画像データ記憶部23に、2つのスキャンデータ(対象物の表面のスキャンデータおよび裏面のスキャンデータ)が関連付けられた状態で記憶されている場合は、当該2つのスキャンデータを同時に表示させてもよい。また、複数の対象物の表面のスキャンデータのみを同時に表示してもよいし、複数の対象物の裏面のスキャンデータのみを同時に表示してもよい。   Next, the image display processing unit 18 displays the image data stored in the image data storage unit 23 on the sensor built-in liquid crystal panel 301. Therefore, the image display processing unit 18 refers to the image data storage unit 23 to acquire image data, and displays the acquired image data on the sensor built-in liquid crystal panel 301. At this time, if two pieces of scan data (scan data on the front surface of the object and scan data on the back surface) are stored in association with each other in the image data storage unit 23, the two scan data are displayed simultaneously. May be. Also, only the scan data of the front surfaces of the plurality of objects may be displayed simultaneously, or only the scan data of the back surfaces of the plurality of objects may be displayed simultaneously.

また、画像表示処理部18は、当該表示させる画像データに対して編集等の処理を行うためのメニューやボタンをセンサ内蔵液晶パネル301上に表示させる。   Further, the image display processing unit 18 displays a menu and buttons for performing processing such as editing on the image data to be displayed on the sensor built-in liquid crystal panel 301.

また、画像表示処理部18は、画像データ、メニュー、ボタンなどを表示している状態において、センサ内蔵液晶パネル301A上の、画像データ、メニュー、ボタンなどが表示されていない領域がタッチされたことをトリガとして、画像データ記憶部23を参照し、現在表示している画像データより1つ後ろの順番で格納されている画像データを取得し、センサ内蔵液晶パネル301に表示してもよい。同様に、画像表示処理部18は、画像データ、メニュー、ボタンなどを表示している状態において、センサ内蔵液晶パネル301B上の、画像データ、メニュー、ボタンなどが表示されていない領域がタッチされたことをトリガとして、画像データ記憶部23を参照し、現在表示している画像データより1つ前の順番で格納されている画像データを取得し、センサ内蔵液晶パネル301に表示してもよい。   Further, the image display processing unit 18 has touched an area on the sensor built-in liquid crystal panel 301A in which no image data, menus, buttons, etc. are displayed, while displaying image data, menus, buttons, etc. May be used as a trigger to refer to the image data storage unit 23 to acquire the image data stored in the order one after the currently displayed image data and display it on the sensor built-in liquid crystal panel 301. Similarly, the image display processing unit 18 touches a region on the sensor built-in liquid crystal panel 301B where no image data, menus, buttons, etc. are displayed, while displaying image data, menus, buttons, etc. With this as a trigger, the image data storage unit 23 may be referred to, and the image data stored in the order immediately before the currently displayed image data may be acquired and displayed on the sensor built-in liquid crystal panel 301.

次に、電源管理部19は、検知用画像スキャン部126やヒンジ部スイッチ904などによって駆動され、データ表示/センサ装置100の電源をオンまたはオフにする。電源をオンにする場合は、データ表示/センサ装置100が備える機能全てに電力を供給する。一方、電源をオフにする場合は、データ表示/センサ装置100が備える機能全てに電力を供給を行なわないようにする。   Next, the power management unit 19 is driven by the detection image scanning unit 126, the hinge unit switch 904, and the like, and turns on or off the power of the data display / sensor device 100. When the power is turned on, power is supplied to all functions provided in the data display / sensor device 100. On the other hand, when the power is turned off, power is not supplied to all the functions of the data display / sensor device 100.

なお、上述の説明において、センサ内蔵液晶パネル301上に表示したメニューやボタンなどをユーザが操作することによりユーザ入力が行われる旨を記載したが、操作部903(スイッチ、リモコン、マウス、キーボードなどの入力デバイス)をユーザが操作することによりユーザ入力が行われてもよい。   In the above description, it is described that user input is performed by a user operating a menu or button displayed on the sensor built-in liquid crystal panel 301. However, the operation unit 903 (switch, remote control, mouse, keyboard, etc.) User input may be performed by a user operating the input device.

(主制御部の動作例)
次に、再び図10を参照しながら、主制御部800の動作例について、主制御部800からデータ処理部700に送信されるコマンドに触れながら、説明する。なお、ここでは、両面スキャンを実行する際の、主制御部800の動作例について説明する。また、スキャンパターン記憶部222の「スキャン実行面」には、“上画面”および“下画面”が設定されており、また、上画面でスキャンした結果得られるスキャンデータは上画面に表示し、下画面でスキャンした結果得られるスキャンデータは下画面に表示するように、スキャンパターン記憶部222の「スキャンデータ表示面」が設定されているものとする。また、ユーザに提示するメッセージは、上画面に表示するものとする。また、検知用画像J1に対応付けられている処理は、対象物のスキャン処理であるものとする。
(Operation example of the main control unit)
Next, referring to FIG. 10 again, an operation example of the main control unit 800 will be described while touching commands transmitted from the main control unit 800 to the data processing unit 700. Here, an operation example of the main control unit 800 when performing double-sided scanning will be described. In addition, “upper screen” and “lower screen” are set in the “scan execution surface” of the scan pattern storage unit 222, and the scan data obtained as a result of scanning on the upper screen is displayed on the upper screen, It is assumed that the “scan data display surface” of the scan pattern storage unit 222 is set so that scan data obtained as a result of scanning on the lower screen is displayed on the lower screen. The message presented to the user is displayed on the upper screen. In addition, it is assumed that the process associated with the detection image J1 is a scan process for an object.

まず、図10(a)は、下画面に載置領域R1を表示するとともに、上画面にメッセージM1を表示している様子を示す図である。上記表示を行うために、まず、載置領域情報提示部122は、載置領域R1を表すための所定のパターン画像を含む表示データを生成し、該生成した表示データをデータ処理部700に送信する。併せて、載置領域情報提示部122は、「表示パネル」フィールドの値として下画面(“010”)を指定したコマンドを、データ処理部700に送信する。   First, FIG. 10A is a diagram showing a state in which the placement area R1 is displayed on the lower screen and the message M1 is displayed on the upper screen. In order to perform the display, first, the placement area information presentation unit 122 generates display data including a predetermined pattern image for representing the placement area R1, and transmits the generated display data to the data processing unit 700. To do. In addition, the placement area information presentation unit 122 transmits a command specifying the lower screen (“010”) as the value of the “display panel” field to the data processing unit 700.

さらに、載置領域情報提示部122は、メッセージM1を含む表示データを生成し、該生成した表示データをデータ処理部700に送信する。併せて、載置領域情報提示部122は、「表示パネル」フィールドの値として上画面(“001”)を指定したコマンドを、データ処理部700に送信する。   Further, the placement area information presentation unit 122 generates display data including the message M1 and transmits the generated display data to the data processing unit 700. In addition, the placement area information presentation unit 122 transmits a command specifying the upper screen (“001”) as the value of the “display panel” field to the data processing unit 700.

次に、図10(b)は、対象物である文書P2が置かれた様子を示す図である。ここでは、データ表示/センサ装置100は、載置領域R1内に文書P2が置かれたことを検出すると、センサ内蔵液晶パネル301Bにユーザ操作可能なボタンBT1を表示するとともに、センサ内蔵液晶パネル301Aに新たなメッセージM2を表示する。   Next, FIG. 10B is a diagram illustrating a state in which the document P2, which is the object, is placed. Here, when the data display / sensor device 100 detects that the document P2 is placed in the placement area R1, the data display / sensor device 100 displays the button BT1 that can be operated by the user on the sensor built-in liquid crystal panel 301B and the sensor built-in liquid crystal panel 301A. Displays a new message M2.

まず、上記検出を行うために、対象物有無判定部123は、「データ取得タイミング」フィールドに、“イベント”または“オール”を指定し、「データ種別」フィールドに、“座標”または“部分画像”を指定したコマンドを、データ処理部700に送信する。なお、座標データおよび部分画像データ(部分画像における座標データを含む)の両方を取得したい場合は、「データ種別」フィールドに、“座標”および“部分画像”の両方を指定する(“011”を指定する)。   First, in order to perform the above detection, the object presence / absence determination unit 123 designates “event” or “all” in the “data acquisition timing” field, and “coordinates” or “partial image” in the “data type” field. A command designating “” is transmitted to the data processing unit 700. When both coordinate data and partial image data (including coordinate data in a partial image) are to be acquired, specify both “coordinate” and “partial image” in the “data type” field (set “011”). specify).

そして、対象物がセンサ内蔵液晶パネル301上に置かれたとき、光センサ回路32が、対象物の影像および反射像の少なくともいずれかを検知するので、その結果、データ処理部700がセンサ制御部602から受信する画像データに変化が生じる。   When the object is placed on the sensor built-in liquid crystal panel 301, the optical sensor circuit 32 detects at least one of a shadow image and a reflected image of the object. As a result, the data processing unit 700 detects the sensor control unit. A change occurs in the image data received from 602.

したがって、データ処理部700は、上述したコマンドの応答として、座標データまたは部分画像データ(部分画像における座標データを含む)を対象物有無判定部123に送信する。   Therefore, the data processing unit 700 transmits coordinate data or partial image data (including coordinate data in the partial image) to the target presence / absence determination unit 123 as a response to the above-described command.

そして、対象物有無判定部123は、データ処理部700から、座標データ、または、対象物の領域を示す部分画像データを受信したとき、当該部分画像データが、載置領域内に位置するものであるか否かを調べることによって、対象物が載置領域に置かれたか否かを判定することができる。   When the object presence / absence determination unit 123 receives coordinate data or partial image data indicating the region of the object from the data processing unit 700, the partial image data is located in the placement region. By examining whether or not there is an object, it can be determined whether or not the object has been placed in the placement area.

次に、対象物が載置領域R1に置かれていると判定すると、対象物有無判定部123は、メッセージM2を含む表示データを生成し、該生成した表示データをデータ処理部700に送信する。併せて、対象物有無判定部123は、「表示パネル」フィールドの値として上画面を指定したコマンドを、データ処理部700に送信する。   Next, when it is determined that the object is placed in the placement region R1, the object presence / absence determination unit 123 generates display data including the message M2, and transmits the generated display data to the data processing unit 700. . In addition, the object presence / absence determining unit 123 transmits a command specifying the upper screen as the value of the “display panel” field to the data processing unit 700.

さらに、対象物有無判定部123が、載置領域R1に対象物が置かれていると判定すると、検知用画像表示処理部124は、載置領域R1を表すための所定のパターン画像に加えてボタンBT1を含む表示データを生成し、該生成した表示データをデータ処理部700に送信する。併せて、対象物有無判定部123は、「表示パネル」フィールドの値として下画面を指定したコマンドを、データ処理部700に送信する。   Further, when the object presence / absence determining unit 123 determines that the object is placed in the placement region R1, the detection image display processing unit 124 adds to the predetermined pattern image for representing the placement region R1. Display data including the button BT1 is generated, and the generated display data is transmitted to the data processing unit 700. At the same time, the object presence / absence determining unit 123 transmits a command specifying the lower screen as the value of the “display panel” field to the data processing unit 700.

次に、図10(c)は、図10(b)で示す状態において、ユーザがボタンBT1をタッチした後の様子を示す図である。   Next, FIG.10 (c) is a figure which shows the mode after a user touches button BT1 in the state shown in FIG.10 (b).

ユーザがボタンBT1をタッチしたことを検出するために、検知用画像表示処理部124は、「データ取得タイミング」フィールドに、“イベント”または“オール”を指定し、「データ種別」フィールドに、“座標”または“部分画像”を指定したコマンドを、データ処理部700に送信する。なお、座標データおよび部分画像データ(部分画像における座標データを含む)の両方を取得したい場合は、「データ種別」フィールドに、“座標”および“部分画像”の両方を指定する。   In order to detect that the user has touched the button BT1, the detection image display processing unit 124 designates “event” or “all” in the “data acquisition timing” field, and sets “data type” field to “ A command specifying “coordinate” or “partial image” is transmitted to the data processing unit 700. If both coordinate data and partial image data (including coordinate data in a partial image) are desired, both “coordinate” and “partial image” are specified in the “data type” field.

そして、ユーザがボタンBT1をタッチしたとき、センサ内蔵液晶パネル301Bの光センサ回路32が、ユーザのタッチした指やペンなどの影像および反射像の少なくともいずれかを検知するので、その結果、データ処理部700がセンサ制御部602から受信する画像データに変化が生じる。   When the user touches the button BT1, the optical sensor circuit 32 of the sensor built-in liquid crystal panel 301B detects at least one of a shadow image and a reflection image of a finger, a pen, etc. touched by the user. The image data received by the unit 700 from the sensor control unit 602 changes.

したがって、データ処理部700は、上述したコマンドの応答として、座標データまたは部分画像データ(部分画像における座標データを含む)を検知用画像表示処理部124に送信する。   Therefore, the data processing unit 700 transmits coordinate data or partial image data (including coordinate data in the partial image) to the detection image display processing unit 124 as a response to the above-described command.

そして、検知用画像表示処理部124は、データ処理部700から受信した座標データ、または、対象物の領域を示す部分画像データが、ボタンBT1の領域内に位置するものであるか否かを調べることによって、ユーザがボタンBT1をタッチしたか否かを判定することができる。   Then, the detection image display processing unit 124 checks whether the coordinate data received from the data processing unit 700 or the partial image data indicating the region of the object is located within the region of the button BT1. Thus, it can be determined whether or not the user has touched the button BT1.

次に、ユーザがボタンBT1をタッチしたことを検出すると、検知用画像表示処理部124は、センサ内蔵液晶パネル301Bに検知用画像J1を表示させるために、検知用画像J1を含む表示データを生成し、該生成した表示データをデータ処理部700に送信する。併せて、検知用画像表示処理部124は、「表示パネル」フィールドの値として下画面を指定したコマンドを、データ処理部700に送信する。   Next, when it is detected that the user touches the button BT1, the detection image display processing unit 124 generates display data including the detection image J1 in order to display the detection image J1 on the sensor built-in liquid crystal panel 301B. Then, the generated display data is transmitted to the data processing unit 700. At the same time, the detection image display processing unit 124 transmits a command specifying the lower screen as the value of the “display panel” field to the data processing unit 700.

検知用画像J1を表示させた後、検知用画像スキャン部126は、データ表示/センサ装置100の筐体が閉じられているか否かを判定するために、センサ内蔵液晶パネル301Bにスキャンを実行させる。そのために、「データ取得タイミング」フィールドに、“イベント”または“オール”を指定し、「データ種別」フィールドに、“全体画像”または“部分画像”を指定したコマンドを、データ処理部700に送信する。なお、全体画像データおよび部分画像データの両方を取得したい場合は、「データ種別」フィールドに、“全体画像”および“部分画像”の両方を指定する。   After displaying the detection image J1, the detection image scanning unit 126 causes the sensor built-in liquid crystal panel 301B to perform a scan in order to determine whether or not the housing of the data display / sensor device 100 is closed. . For this purpose, a command in which “event” or “all” is specified in the “data acquisition timing” field and “whole image” or “partial image” is specified in the “data type” field is transmitted to the data processing unit 700. To do. If it is desired to acquire both the entire image data and the partial image data, both “entire image” and “partial image” are designated in the “data type” field.

次に、図10(d)は、データ表示/センサ装置100の筐体が閉じられた様子を示す図である。データ表示/センサ装置100の筐体が閉じられたとき、センサ内蔵液晶パネル301Bの光センサ回路32が、センサ内蔵液晶パネル301Aに表示した画像の影像および反射像の少なくともいずれかを検知するので、その結果、データ処理部700がセンサ制御部602から受信する画像データに変化が生じる。   Next, FIG. 10D is a diagram showing a state in which the housing of the data display / sensor device 100 is closed. When the housing of the data display / sensor device 100 is closed, the optical sensor circuit 32 of the sensor built-in liquid crystal panel 301B detects at least one of a shadow image and a reflected image of the image displayed on the sensor built-in liquid crystal panel 301A. As a result, the image data received by the data processing unit 700 from the sensor control unit 602 changes.

したがって、データ処理部700は、上述したコマンドの応答として、全体画像データまたは部分画像データ(部分画像における座標データを含む)を検知用画像スキャン部126に送信する。   Therefore, the data processing unit 700 transmits the entire image data or the partial image data (including the coordinate data in the partial image) to the detection image scanning unit 126 as a response to the above-described command.

そして、検知用画像スキャン部126は、データ処理部700から受信した全体画像データまたは部分画像データに、検知用画像に相当する領域が含まれるか否かを調べる。   Then, the detection image scanning unit 126 checks whether the entire image data or the partial image data received from the data processing unit 700 includes an area corresponding to the detection image.

そして、検知用画像に相当する領域が含まれる場合、対象物スキャン実行部131が駆動されることにより、スキャン実行指示部132が、両面スキャンを実行する旨をデータ処理部700に指示するために、「スキャン方式」フィールドおよび「スキャンパネル」フィールドを指定したコマンドを生成し、該生成したコマンドをデータ処理部700に送信する。なお、スキャン実行指示部132は、スキャンパターン記憶部222から読み出したスキャンパターン情報に含まれるスキャン実行面情報に基づいて、「スキャンパネル」フィールドの値を指定する。ここでは、“上画面”および“下画面”を示す“011”を指定する。また、「スキャン方式」フィールドには、“反射”を指定する。   When an area corresponding to the detection image is included, the object scan execution unit 131 is driven so that the scan execution instruction unit 132 instructs the data processing unit 700 to execute double-sided scanning. A command specifying the “scan method” field and the “scan panel” field is generated, and the generated command is transmitted to the data processing unit 700. Note that the scan execution instructing unit 132 specifies the value of the “scan panel” field based on the scan execution surface information included in the scan pattern information read from the scan pattern storage unit 222. Here, “011” indicating “upper screen” and “lower screen” is designated. Further, “reflection” is designated in the “scan method” field.

さらに、スキャン実行指示部132は、データ処理部700から、スキャンの実行結果として全体画像データを取得するために、上記コマンドの「データ取得タイミング」フィールドに“センス”を指定し、「データ種別」フィールドに“全体画像”を指定する。これにより、スキャンした結果として、光センサ回路32からセンサ制御部602を介して得られる画像データの全体を、データ処理部700から取得することができる。ここでは、上画面でスキャンした結果として得られる画像データと、下画面でスキャンした結果として得られる画像データとを取得することができる。   Further, the scan execution instructing unit 132 designates “sense” in the “data acquisition timing” field of the command and acquires “data type” in order to acquire the entire image data as the scan execution result from the data processing unit 700. Specify "Entire image" in the field. Accordingly, the entire image data obtained from the optical sensor circuit 32 via the sensor control unit 602 can be acquired from the data processing unit 700 as a result of scanning. Here, it is possible to acquire image data obtained as a result of scanning on the upper screen and image data obtained as a result of scanning on the lower screen.

なお、スキャンデータ生成部133は、上記取得した全体画像データからスキャンデータを抽出する。ここでは、上画面をスキャンして得られた全体画像データから、文書P2の表面のスキャンデータSCD1を抽出するとともに、下画面をスキャンして得られた全体画像データから、文書P2の裏面のスキャンデータSCD2を抽出する。   Note that the scan data generation unit 133 extracts scan data from the acquired entire image data. Here, the scan data SCD1 of the front surface of the document P2 is extracted from the entire image data obtained by scanning the upper screen, and the back surface of the document P2 is scanned from the entire image data obtained by scanning the lower screen. Data SCD2 is extracted.

次に、図10(e)は、スキャンを実行した後、データ表示/センサ装置100の筐体が開かれた様子を示す図である。ここでは、上画面に、メッセージM3を表示するとともに、上画面にスキャンデータSCD1を表示し、下画面にスキャンデータSCD2を表示している。   Next, FIG. 10E is a diagram illustrating a state in which the housing of the data display / sensor device 100 is opened after the scan is executed. Here, the message M3 is displayed on the upper screen, the scan data SCD1 is displayed on the upper screen, and the scan data SCD2 is displayed on the lower screen.

筐体が開かれると、スキャンデータ表示指示部135は、メッセージM3を含む表示データを生成し、該生成した表示データをデータ処理部700に送信する。併せて、スキャン実行指示部132は、「表示パネル」フィールドの値として上画面を指定したコマンドを、データ処理部700に送信する。   When the housing is opened, the scan data display instruction unit 135 generates display data including the message M3, and transmits the generated display data to the data processing unit 700. At the same time, the scan execution instructing unit 132 transmits a command specifying the upper screen as the value of the “display panel” field to the data processing unit 700.

さらに、スキャンデータ表示指示部135は、スキャンデータSCD1を含む表示データを生成し、該生成した表示データをデータ処理部700に送信する。併せて、スキャンデータ表示指示部135は、「表示パネル」フィールドの値として上画面を指定したコマンドを、データ処理部700に送信する。このとき、スキャンデータ表示指示部135は、スキャンパターン記憶部222の「スキャンデータ表示面」を参照して、「表示パネル」フィールドの値を決定する。   Further, the scan data display instruction unit 135 generates display data including the scan data SCD1, and transmits the generated display data to the data processing unit 700. At the same time, the scan data display instruction unit 135 transmits a command designating the upper screen as the value of the “display panel” field to the data processing unit 700. At this time, the scan data display instruction unit 135 refers to the “scan data display surface” of the scan pattern storage unit 222 and determines the value of the “display panel” field.

また、スキャンデータ表示指示部135は、スキャンデータSCD2を含む表示データを生成し、該生成した表示データをデータ処理部700に送信する。併せて、スキャンデータ表示指示部135は、「表示パネル」フィールドの値として下画面を指定したコマンドを、データ処理部700に送信する。このとき、スキャンデータ表示指示部135は、スキャンパターン記憶部222の「スキャンデータ表示面」を参照して、「表示パネル」フィールドの値を決定する。   In addition, the scan data display instruction unit 135 generates display data including the scan data SCD2, and transmits the generated display data to the data processing unit 700. In addition, the scan data display instruction unit 135 transmits a command specifying the lower screen as the value of the “display panel” field to the data processing unit 700. At this time, the scan data display instruction unit 135 refers to the “scan data display surface” of the scan pattern storage unit 222 and determines the value of the “display panel” field.

(データ表示/センサ装置における処理の流れ)
次に、図11から図12を参照しながら、データ表示/センサ装置100において、スキャン処理を行う際の処理の流れについて説明する。まず、図11は、データ表示/センサ装置100において、データ表示/センサ装置100の起動直後に、ユーザがメニューを選択する処理の流れを示すフローチャートである。
(Processing of data display / sensor device)
Next, the flow of processing when performing scan processing in the data display / sensor device 100 will be described with reference to FIGS. First, FIG. 11 is a flowchart showing a flow of processing in which the user selects a menu in the data display / sensor device 100 immediately after the data display / sensor device 100 is activated.

まず、データ表示/センサ装置100の電源がオフの状態にあるとき、ユーザがデータ表示/センサ装置100の筐体を開くと(ステップS11)、例えば、筐体が開いたことをヒンジ部スイッチ904が検出し、データ表示/センサ装置100の電源をオンにする(ステップS12)。他の操作によって電源がオンとなってもよい。   First, when the user opens the housing of the data display / sensor device 100 while the power of the data display / sensor device 100 is off (step S11), for example, the hinge switch 904 indicates that the housing has opened. Is detected, and the data display / sensor device 100 is turned on (step S12). The power may be turned on by other operations.

そして、メニュー表示制御部11が、ユーザ選択可能なメニューを、少なくとも一方のセンサ内蔵液晶パネル301に表示させる(ステップS13)。   Then, the menu display control unit 11 displays a user selectable menu on at least one sensor-embedded liquid crystal panel 301 (step S13).

そして、ユーザのメニュー操作を受け付け(ステップS14)、メニュー操作に応じた処理を行う。ここでは、ユーザが、表示されているメニューのうち、“画像スキャン”、“画像表示”、および“アドレス帳表示”というメニュー項目のいずれかを選択することを想定したフローを記載している。“画像スキャン”を選択した場合の処理の流れは、後述する。“アドレス帳表示”を選択した場合は、記憶部901に記憶しているアドレス帳を表示し(ステップS15)、“画像表示”を選択した場合は、記憶部901に記憶している画像データを表示するが(ステップS16)、それ以降の処理の流れについては発明の本質的部分ではないので、説明を省略する。   Then, the menu operation of the user is accepted (step S14), and processing corresponding to the menu operation is performed. Here, a flow is described in which it is assumed that the user selects one of the menu items of “image scan”, “image display”, and “address book display” from the displayed menu. The process flow when “image scan” is selected will be described later. If “display address book” is selected, the address book stored in the storage unit 901 is displayed (step S15). If “display image” is selected, the image data stored in the storage unit 901 is displayed. Although displayed (step S16), the flow of the subsequent processing is not an essential part of the invention, and a description thereof will be omitted.

次に、図12は、データ表示/センサ装置100において、検知用画像を読み取ることによって対象物のスキャンを行う処理の流れを示すフローチャートである。なお、図11で示したフローチャートにおけるステップS14にて“画像スキャン”を選択した場合には、図12で示すフローチャートで示される処理が開始される。   Next, FIG. 12 is a flowchart showing a flow of processing for scanning an object by reading a detection image in the data display / sensor device 100. When “image scan” is selected in step S14 in the flowchart shown in FIG. 11, the process shown in the flowchart shown in FIG. 12 is started.

まず、載置領域情報提示部122により、センサ内蔵液晶パネル301に、載置領域、および、対象物を置くことを促す旨のメッセージを表示させる(ステップS21)。   First, the placement area information presentation unit 122 displays a message prompting the placement area and the object to be placed on the sensor built-in liquid crystal panel 301 (step S21).

次に、ユーザが対象物を載置領域に置くと(ステップS22)、対象物有無判定部123が、載置領域に対象物が置かれたことを判定する(ステップS23にてYES)。   Next, when the user places an object in the placement area (step S22), the object presence / absence determination unit 123 determines that the object has been placed in the placement area (YES in step S23).

そして、検知用画像表示処理部124は、センサ内蔵液晶パネル301上に、検知用画像の表示指示を受け付けるためのボタンを表示する(ステップS24)。   Then, the detection image display processing unit 124 displays a button for receiving an instruction to display the detection image on the sensor-equipped liquid crystal panel 301 (step S24).

次に、ユーザが検知用画像の表示指示を行なうと(例えば、上記ボタンをタッチすると)(ステップS25)、検知用画像表示処理部124が、検知用画像の表示指示があったことを検出し(ステップS26にてYES)、センサ内蔵液晶パネル301に、検知用画像を表示させる(ステップS27)。   Next, when the user instructs to display the detection image (for example, when the button is touched) (step S25), the detection image display processing unit 124 detects that the detection image display instruction has been issued. (YES in step S26), an image for detection is displayed on the sensor built-in liquid crystal panel 301 (step S27).

次に、ユーザが、データ表示/センサ装置100の筐体を閉じることによって(ステップS28)、上記検知用画像読み取ることができた場合(ステップS29にてYES)、検知用画像スキャン部126は、対象物スキャン実行部131を駆動することによって、センサ内蔵液晶パネル301にスキャンを実行させる(ステップS30)。   Next, when the user can read the detection image (YES in step S29) by closing the housing of the data display / sensor device 100 (step S28), the detection image scanning unit 126 Driving the object scan execution unit 131 causes the sensor built-in liquid crystal panel 301 to execute a scan (step S30).

つまり、データ処理部700がセンサ制御部602を介して光センサ回路32にスキャンを実行させ、その結果として得られる画像データを、データ処理部700が対象物スキャン実行部131に送信する。   That is, the data processing unit 700 causes the optical sensor circuit 32 to execute scanning via the sensor control unit 602, and the data processing unit 700 transmits image data obtained as a result to the object scan execution unit 131.

そして、スキャンデータ生成部133が、上記画像データからスキャンデータを抽出する。そして、スキャンデータ生成部133は、当該スキャンデータをスキャンデータ保持部136に一次保持する(ステップS31)。   Then, the scan data generation unit 133 extracts scan data from the image data. Then, the scan data generation unit 133 primarily holds the scan data in the scan data holding unit 136 (step S31).

その後、対象物スキャン実行部131は、スキャンが終了した旨をユーザに通知する(ステップS32)。ここでは、音声出力部908に所定の音声データを出力し、音声によりユーザに通知する。   Thereafter, the object scan execution unit 131 notifies the user that the scan has been completed (step S32). Here, predetermined audio data is output to the audio output unit 908 and notified to the user by audio.

そして、ユーザが、データ表示/センサ装置100の筐体を開くと(ステップS33)、スキャンデータ表示指示部135が、スキャンが完了したことをユーザに通知する旨のメッセージを、センサ内蔵液晶パネル301に表示させる(ステップS34)。そして、スキャンデータ表示指示部135が、スキャンデータ保持部136に保持しているスキャンデータを表示させる(ステップS35)。これにより、ユーザが、センサ内蔵液晶パネル301にてスキャンデータを確認することができる。   When the user opens the housing of the data display / sensor device 100 (step S33), the scan data display instruction unit 135 displays a message to notify the user that the scan is completed, and the sensor built-in liquid crystal panel 301. (Step S34). Then, the scan data display instruction unit 135 displays the scan data held in the scan data holding unit 136 (step S35). As a result, the user can check the scan data on the sensor built-in liquid crystal panel 301.

次に、スキャン処理部12が、スキャンモード記憶部223に記憶されているスキャンモード情報を参照することによって、スキャンを連続的に実行することがわかると(ステップ36にてYES)、スキャンデータ格納部137は、スキャンデータ保持部136に一次保存されているスキャンデータを、画像データ記憶部23に格納する(ステップS37)。なお、スキャンデータが対応付けられた状態でスキャンデータ保持部136に一次保存されている場合は、当該スキャンデータを対応付けた状態のまま、画像データ記憶部23に格納する。   Next, when the scan processing unit 12 finds that the scan is continuously executed by referring to the scan mode information stored in the scan mode storage unit 223 (YES in step 36), the scan data is stored. The unit 137 stores the scan data temporarily stored in the scan data holding unit 136 in the image data storage unit 23 (step S37). If the scan data is temporarily stored in the scan data holding unit 136 in a state where the scan data is associated, the scan data is stored in the image data storage unit 23 while being associated.

そして、続いて新たなスキャンを行うために、センサ内蔵液晶パネル301に、載置領域、および、対象物を置くことを促す旨のメッセージを表示させる(ステップS21)。   Subsequently, in order to perform a new scan, a message prompting the user to place the placement area and the object is displayed on the sensor-equipped liquid crystal panel 301 (step S21).

一方、スキャンを連続的に実行しないことがわかると(ステップS36にてNO)、ユーザの操作を受け付け(ステップS37)、受け付けた操作に応じた処理を行う。例えば、ユーザが、表示されているメニューのうち、“表示位置変更”、“回転”、“保存”、および“文字認識”というメニュー項目のいずれかを選択することを想定したフローを記載している。   On the other hand, if it is found that the scan is not continuously executed (NO in step S36), a user operation is accepted (step S37), and a process corresponding to the accepted operation is performed. For example, a flow is described assuming that the user selects one of the menu items “display position change”, “rotate”, “save”, and “character recognition” from the displayed menu. Yes.

“表示位置変更”または“回転”を選択した場合は、それぞれ、スキャンデータの表示位置を変更する処理(ステップS39)、および、スキャンデータの表示を例えば90度左回転させて表示する処理(ステップS40)を行い、再びユーザのメニュー操作を受け付ける(ステップS38)。   When “display position change” or “rotation” is selected, the process of changing the display position of the scan data (step S39) and the process of displaying the scan data by rotating it to the left by 90 degrees, for example (step S39) S40) is performed, and the user's menu operation is accepted again (step S38).

また、“保存”を選択した場合は、スキャンデータ格納部137が、スキャンデータ保持部136に一次保存されているスキャンデータを、画像データ記憶部23に格納し(ステップS41)、処理を終了する。   If “save” is selected, the scan data storage unit 137 stores the scan data temporarily stored in the scan data holding unit 136 in the image data storage unit 23 (step S41), and the process ends. .

また、“文字認識”を選択した場合は、表示しているスキャンデータに対して文字認識処理を実行する(ステップS42)。文字認識処理は、発明の本質的部分ではないので、ここでは詳細な説明は省略するが、文字認識処理では、スキャンデータに含まれる文字を認識し、文字データを生成し、該生成した文字データを記憶部901に記憶する。また、名前、電話番号、住所などを関連付けて管理する、アドレス帳などのアプリケーションで用いられるデータ構造の形式で、上記文字データを記憶部901に記憶させてもよい。   If “character recognition” is selected, a character recognition process is executed on the displayed scan data (step S42). Since the character recognition process is not an essential part of the invention, a detailed description is omitted here. However, in the character recognition process, characters included in the scan data are recognized, character data is generated, and the generated character data is generated. Is stored in the storage unit 901. In addition, the character data may be stored in the storage unit 901 in a data structure format used in an application such as an address book that manages names, telephone numbers, and addresses in association with each other.

なお、ステップS29にて検知用画像を読み取ることができなかった場合(ステップS29にてNO)、ユーザが、データ表示/センサ装置100の筐体を開くと(ステップS43)、例えば、スキャンを実行しなかった旨のメッセージなどをセンサ内蔵液晶パネル301に表示させる(ステップS44)。   If the detection image cannot be read in step S29 (NO in step S29), when the user opens the housing of the data display / sensor device 100 (step S43), for example, a scan is executed. A message indicating that it has not been displayed is displayed on the sensor built-in liquid crystal panel 301 (step S44).

(変形例)
上述では、検知用画像表示処理部124がセンサ内蔵液晶パネル301に検知用画像を表示させるにあたり、ユーザが、当該検知用画像の表示指示を受け付けるためのボタンをタッチしたことをトリガとして、検知用画像を表示させる例について説明したが、これに限定されるものではない。検知用画像の表示指示を受け付けるためのボタンは表示せず、単に、ユーザがセンサ内蔵液晶パネル301上の所定領域をタッチしたことをトリガとして、検知用画像を表示させてもよい。
(Modification)
In the above description, when the detection image display processing unit 124 displays the detection image on the sensor built-in liquid crystal panel 301, the detection is triggered by the user touching a button for receiving an instruction to display the detection image. Although an example in which an image is displayed has been described, the present invention is not limited to this. A button for accepting an instruction to display a detection image may not be displayed, and the detection image may be displayed simply by triggering that the user touches a predetermined area on the sensor built-in liquid crystal panel 301.

図13から図18を参照しながら、データ表示/センサ装置100を用いて、検知用画像の表示指示を受け付けるためのボタンを表示しない例について説明する。   An example in which a button for receiving a detection image display instruction is not displayed using the data display / sensor device 100 will be described with reference to FIGS. 13 to 18.

図13は、下画面のセンサ内蔵液晶パネル301Bに表示された載置領域R1内に、対象物である名刺P3を、表面がユーザに見える状態で置いた様子を示す図である。なお、名刺P3の表面には、「奈良県 南田」という文字が表記されている。   FIG. 13 is a diagram illustrating a state in which a business card P3, which is an object, is placed in a placement region R1 displayed on the sensor built-in liquid crystal panel 301B on the lower screen in a state where the surface is visible to the user. In addition, on the surface of the business card P3, characters "Nara Prefecture Nanda" are written.

なお、図13では、ユーザに操作方法を知らせるため、対象物を載置した後でセンサ内蔵液晶パネル301をタッチすることをユーザに促すメッセージM5を表示している。   In FIG. 13, in order to inform the user of the operation method, a message M5 prompting the user to touch the sensor built-in liquid crystal panel 301 after placing the object is displayed.

次に、図14は、図13の状態において、ユーザが、指F1で下画面のセンサ内蔵液晶パネル301Bをタッチして、下画面のセンサ内蔵液晶パネル301Bに検知用画像J1を表示させた様子を示す図である。このように、検知用画像の表示指示を受け付けるためのボタンは表示せず、ユーザがセンサ内蔵液晶パネル301をタッチした位置に、検知用画像を表示させるようにしてもよい。   Next, FIG. 14 shows a state in which the user touches the sensor built-in liquid crystal panel 301B on the lower screen with the finger F1 to display the detection image J1 on the sensor built-in liquid crystal panel 301B in the lower screen in the state of FIG. FIG. As described above, the detection image may be displayed at a position where the user touches the sensor-equipped liquid crystal panel 301 without displaying the button for receiving the detection image display instruction.

そして、この状態から、ユーザがデータ表示/センサ装置100の筐体を閉じると、上画面のセンサ内蔵液晶パネル301Aにてスキャンを実行した結果として検知用画像J1を読み取ることができるので、対象物スキャン実行部131により、上画面で名刺P3のスキャンを実行する。   From this state, when the user closes the housing of the data display / sensor device 100, the detection image J1 can be read as a result of scanning with the sensor built-in liquid crystal panel 301A on the upper screen. The scan execution unit 131 scans the business card P3 on the upper screen.

次に、図15は、上記スキャンを実行した後、ユーザが、データ表示/センサ装置100の筐体を開いた様子を示す図である。図示のとおり、対象物スキャン実行部131によって、上画面でスキャンされた名刺P3の表面のスキャンデータSCD3が、下画面のセンサ内蔵液晶パネル301Bに表示されている。   Next, FIG. 15 is a diagram illustrating a state in which the user opens the housing of the data display / sensor device 100 after executing the scan. As shown in the figure, the scan data SCD3 of the surface of the business card P3 scanned on the upper screen by the object scan execution unit 131 is displayed on the sensor built-in liquid crystal panel 301B on the lower screen.

なお、この例では、検知用画像J1を表示していた位置に、検知用画像J1に代えてスキャンデータSCD3を表示している。このように、スキャンパターン記憶部222に記憶されているスキャンデータ表示面情報に関わらず、検知用画像を表示していた位置に、スキャンデータを表示してもよい。したがって、図16に示すように、ユーザが、上画面のセンサ内蔵液晶パネル301Aをタッチして、上画面のセンサ内蔵液晶パネル301Aに検知用画像J1を表示させた場合、名刺P3のスキャンを実行した結果として得られるスキャンデータSCD3を、図17に示すように、上画面のセンサ内蔵液晶パネル301Aにおける、検知用画像J1を表示していた位置に表示するようにしてもよい。   In this example, scan data SCD3 is displayed instead of the detection image J1 at the position where the detection image J1 was displayed. As described above, the scan data may be displayed at the position where the detection image is displayed regardless of the scan data display surface information stored in the scan pattern storage unit 222. Accordingly, as shown in FIG. 16, when the user touches the upper sensor liquid crystal panel 301A on the upper screen to display the detection image J1 on the upper sensor liquid crystal panel 301A, the business card P3 is scanned. As shown in FIG. 17, the scan data SCD3 obtained as a result may be displayed at the position where the detection image J1 was displayed on the sensor built-in liquid crystal panel 301A on the upper screen.

なお、図18は、ユーザが検知用画像J1を表示させずに(指F1でセンサ内蔵液晶パネル301をタッチせずに)、データ表示/センサ装置100の筐体を閉めた後、データ表示/センサ装置100の筐体を開いた様子を示す図である。この場合、検知用画像J1を表示していないので、センサ内蔵液晶パネル301にてスキャンを実行した結果として検知用画像J1を読み取ることができない。よって、対象物スキャン実行部131は、スキャンを実行させない。したがって、この場合、スキャンデータSCD3を得られないので、図示のとおり、センサ内蔵液晶パネル301には、スキャンデータSCD3は表示されない。なお、この例では、スキャンを実行しなかった旨をユーザに知らせるためのメッセージM6を表示している。   In FIG. 18, the user does not display the detection image J1 (without touching the sensor-equipped liquid crystal panel 301 with the finger F1), and then closes the housing of the data display / sensor device 100, and then the data display / It is a figure which shows a mode that the housing | casing of the sensor apparatus 100 was opened. In this case, since the detection image J1 is not displayed, the detection image J1 cannot be read as a result of the scan performed by the sensor built-in liquid crystal panel 301. Therefore, the object scan execution unit 131 does not execute the scan. Therefore, in this case, since the scan data SCD3 cannot be obtained, the scan data SCD3 is not displayed on the sensor built-in liquid crystal panel 301 as illustrated. In this example, a message M6 for notifying the user that the scan has not been executed is displayed.

〔実施の形態2〕
次に、検知用画像を読み取ることによってデータ表示/センサ装置100の電源をオフにする形態について説明する。本実施の形態では、検知用画像を、対象物の載置領域を示す画像と表示する場合を例に挙げて説明する。本実施形態について図19および図20に基づいて説明すると以下の通りである。
[Embodiment 2]
Next, a mode in which the data display / sensor device 100 is turned off by reading the detection image will be described. In the present embodiment, a case where the detection image is displayed as an image showing the placement area of the target object will be described as an example. This embodiment will be described below with reference to FIGS. 19 and 20.

なお、説明の便宜上、実施の形態1にて示した各部材と同一の機能を有する部材には、同一の符号を付記し、その説明を省略する。また、実施の形態1にて説明した処理と同一に処理については、その説明を省略する。   For convenience of explanation, members having the same functions as those shown in the first embodiment are denoted by the same reference numerals, and description thereof is omitted. Further, the description of the same processing as that described in Embodiment 1 is omitted.

(検知用画像を読み取ることによってデータ表示/センサ装置100の電源をオフにする様子)
まず、図19(a)から図19(c)を参照しながら、検知用画像を読み取ることよって、データ表示/センサ装置100の電源をオフにする処理の典型例について説明する。
(How to turn off the power of the data display / sensor device 100 by reading the detection image)
First, a typical example of processing for turning off the power of the data display / sensor device 100 by reading a detection image will be described with reference to FIGS. 19 (a) to 19 (c).

まず、図19(a)は、図10(a)と同様に、ユーザに対してスキャンの準備を促すメッセージなどを表示している様子を示す図である。下画面のセンサ内蔵液晶パネル301B上に、スキャンの対象物の載置領域を示す画像として検知用画像J2を表示するとともに、上画面のセンサ内蔵液晶パネル301Aに、ユーザに対するメッセージM1を表示している。   First, FIG. 19A is a diagram showing a state in which a message prompting the user to prepare for scanning is displayed, as in FIG. 10A. A detection image J2 is displayed as an image indicating the placement area of the object to be scanned on the lower-sensor liquid crystal panel 301B, and a message M1 to the user is displayed on the upper-sensor liquid crystal panel 301A. Yes.

次に、図19(b)は、図19(a)で示す状態において、ユーザが対象物を載置せずに、データ表示/センサ装置100の筐体を閉じた様子を示す図である。このとき、センサ内蔵液晶パネル301Aは、検知用画像J2を読み取るために、スキャンを実行している。そして、スキャンの結果として得られる画像データに、検知用画像J2に該当する領域が含まれていることが分かると、検知用画像J2に対応付けられている処理として、データ表示/センサ装置100は電源をオフにする。   Next, FIG. 19B is a diagram illustrating a state in which the user closes the housing of the data display / sensor device 100 without placing an object in the state illustrated in FIG. At this time, the sensor built-in liquid crystal panel 301A performs scanning in order to read the detection image J2. When it is found that the image data obtained as a result of the scan includes an area corresponding to the detection image J2, the data display / sensor device 100 performs processing associated with the detection image J2. Turn off the power.

図19(c)は、図19(b)にてスキャンが実行された後、データ表示/センサ装置100の筐体が開かれた様子を示す図である。上述のとおり、データ表示/センサ装置100の電源がオフされたため、図示のとおり、センサ内蔵液晶パネル301には何も表示されていない。   FIG. 19C is a diagram showing a state where the housing of the data display / sensor device 100 is opened after the scan is executed in FIG. As described above, since the power of the data display / sensor device 100 is turned off, nothing is displayed on the sensor built-in liquid crystal panel 301 as illustrated.

なお、ユーザが、検知用画像J2の上に対象物を載置し、データ表示/センサ装置100の筐体を閉じた場合は、センサ内蔵液晶パネル301Aにてスキャンした結果として得られる画像データに、検知用画像J2に該当する領域が含まれていることを検知できないので、データ表示/センサ装置100は電源をオフにしない。   When the user places an object on the detection image J2 and closes the housing of the data display / sensor device 100, the image data obtained as a result of scanning with the sensor built-in liquid crystal panel 301A is displayed. Since it cannot be detected that the corresponding area is included in the detection image J2, the data display / sensor device 100 does not turn off the power.

(主制御部800および記憶部901の構成)
本実施の形態に係るデータ表示/センサ装置100の主制御部800および記憶部901の構成は、載置領域情報提示部122を除き、実施の形態1で説明した構成と同様である。
(Configuration of main control unit 800 and storage unit 901)
The configurations of the main control unit 800 and the storage unit 901 of the data display / sensor device 100 according to the present embodiment are the same as those described in the first embodiment except for the placement area information presentation unit 122.

そして、本実施の形態では、対象物の載置領域を示す画像として検知用画像を用いるため、本実施の形態に係る載置領域情報提示部122は、スキャンパターン記憶部222から、参照対象のスキャンパターン情報に含まれる載置領域情報を読み出すとともに、当該載置領域情報で示される領域に表示するための所定の検知用画像を検知用画像記憶部24から読み出し、下画面のセンサ内蔵液晶パネル301における、上記読み出した載置領域情報で示される領域に、上記読み出した検知用画像を表示させる。   In this embodiment, since the detection image is used as an image indicating the placement area of the target object, the placement area information presentation unit 122 according to this embodiment receives the reference target from the scan pattern storage unit 222. The placement area information included in the scan pattern information is read, and a predetermined detection image to be displayed in the area indicated by the placement area information is read from the detection image storage unit 24, and the sensor built-in liquid crystal panel on the lower screen In 301, the read detection image is displayed in the area indicated by the read placement area information.

なお、上記検知用画像には、データ表示/センサ装置100の電源をオフする処理が対応付けられているものとする。   It should be noted that processing for turning off the power of the data display / sensor device 100 is associated with the detection image.

(データ表示/センサ装置における処理の流れ)
次に、図20を参照しながら、本実施形態に係るデータ表示/センサ装置100において、検知用画像を読み取ることによって電源をオフにする際の処理の流れについて説明する。なお、図11で示したフローチャートにおけるステップS14にて“画像スキャン”を選択した場合には、図20で示すフローチャートで示される処理が開始される。
(Processing of data display / sensor device)
Next, the flow of processing when the power is turned off by reading the detection image in the data display / sensor device 100 according to the present embodiment will be described with reference to FIG. When “image scan” is selected in step S14 in the flowchart shown in FIG. 11, the processing shown in the flowchart shown in FIG. 20 is started.

まず、載置領域情報提示部122により、センサ内蔵液晶パネル301に、載置領域、および、対象物を置くことを促す旨のメッセージを表示させる(ステップS51)。このとき、載置領域には、検知用画像記憶部24から読み出した検知用画像を表示させる。この場合、検知用画像は、例えば、所定のパターン画像などを想定している。   First, the placement area information presentation unit 122 displays a message for prompting the placement area and the object to be placed on the sensor built-in liquid crystal panel 301 (step S51). At this time, the detection image read from the detection image storage unit 24 is displayed in the placement area. In this case, the detection image is assumed to be a predetermined pattern image, for example.

次に、ユーザが、データ表示/センサ装置100の筐体を閉じると(ステップS52)、検知用画像スキャン部126が、上記検知用画像が表示されていない側のセンサ内蔵液晶パネル301にてスキャンを実行させる。そして、画像を読み取ることができた場合であって(ステップS53にてYES)、当該読み取った画像が上記検知用画像である場合(ステップS54にてYES)、検知用画像スキャン部126が所定のエラー音声を出力し(ステップS55)、そして、上記検知用画像に対応付けられている処理が、データ表示/センサ装置100の電源をオフする処理であるから(ステップ56にてYES)、電源管理部19を駆動することによってデータ表示/センサ装置100の電源をオフさせる(ステップS57)。   Next, when the user closes the housing of the data display / sensor device 100 (step S52), the detection image scanning unit 126 scans with the sensor built-in liquid crystal panel 301 on the side where the detection image is not displayed. Is executed. If the image can be read (YES in step S53), and the read image is the detection image (YES in step S54), the detection image scanning unit 126 performs a predetermined process. Since the error voice is output (step S55) and the process associated with the detection image is a process of turning off the power of the data display / sensor device 100 (YES in step 56), power management The power of the data display / sensor device 100 is turned off by driving the unit 19 (step S57).

なお、上記検知用画像ではない画像を読み取ることができた場合(ステップS54にてNO)、例えば、図11に示したステップS31に移る。また、画像を読み取ることができなかった場合(ステップS53にてNO)、ステップS53に戻る。   If an image that is not the detection image can be read (NO in step S54), for example, the process proceeds to step S31 shown in FIG. If the image cannot be read (NO in step S53), the process returns to step S53.

〔変形例〕
上述の各実施の形態では、検知用画像を読み取ることによって、当該検知用画像に対応付けられている処理を実行する流れについて説明したが、ユーザがセンサ内蔵液晶パネル301上を指やペン等でなぞった跡をマーキングし、当該マーキングがなされていない側のセンサ内蔵液晶パネル301にて上記マーキングを読み取ることができた場合、上記マーキングに対応付けられている所定処理を実行してもよい。
[Modification]
In each of the above-described embodiments, the flow of executing the processing associated with the detection image by reading the detection image has been described. However, the user moves the sensor built-in liquid crystal panel 301 with a finger, a pen, or the like. When the trace is marked, and the marking can be read by the sensor built-in liquid crystal panel 301 on the side where the marking is not performed, a predetermined process associated with the marking may be executed.

上記所定処理とは、例えば、(1)対象物のスキャン処理、(2)対象物のスキャンを行うとともに、スキャンした結果として得られる画像データのマスク処理、(3)対象物のスキャンを行うとともに、スキャンデータに情報を付加する処理、などが挙げられる。   The predetermined processing includes, for example, (1) scan processing of an object, (2) scan of the object, mask processing of image data obtained as a result of scanning, and (3) scan of the object. And processing for adding information to scan data.

上記(1)は、さらに、対象物の両面スキャン/片面スキャン、対象物の特定色以外の文字のみのスキャン、などが指定されていてもよい。また、上記(2)は、例えば、対象物をスキャンした結果として得られる画像データのうち、上記マーキングした範囲内のみをマスクした画像データを生成する処理が挙げられる。また、上記(3)は、例えば、(a)対象物のスキャンデータを分類するために、上記マーキングに応じたカテゴリ(例えば、“仕事”や“プライベート”など)を識別する情報を付加する処理、(b)対象物のスキャンデータに、上記マーキングをメモや落書きとして付加する処理(例えば、対象物のスキャンデータと上記マーキングとを一般的な画像処理にて合成する処理)などが挙げられる。   In the above (1), double-sided scanning / single-sided scanning of an object, scanning only of characters other than a specific color of the object, and the like may be designated. The above (2) includes, for example, a process of generating image data in which only the marked range is masked out of image data obtained as a result of scanning an object. In (3) above, for example, (a) processing for adding information for identifying a category (for example, “work” or “private”) according to the marking in order to classify scan data of an object (B) A process of adding the marking as a memo or graffiti to the scan data of the object (for example, a process of combining the scan data of the object and the marking by general image processing).

なお、(1)どの所定処理を実行させるかをユーザが予め選択した上で、センサ内蔵液晶パネル301上を指やペン等でなぞり、マーキングを行なってもよいし、(2)上記所定処理が対応付けられたマーキングの種別(例えば、色、形状、線の太さ、など)をユーザが予め選択した上で、センサ内蔵液晶パネル301上を指やペン等でなぞり、マーキングを行なってもよい。上記(1)における所定処理の選択や、上記(2)におけるマーキングの種別の選択は、例えば、メニュー表示制御部11が表示させるメニューなどをユーザがタッチ等することにより行なえばよい。なお、マーキングの種別と所定処理との対応付けは、工場出荷時などの時点で予め設定されていてもよいし、ユーザ設定可能になっていてもよい。   The user may select (1) which predetermined process is to be executed in advance and then perform marking by tracing the sensor built-in liquid crystal panel 301 with a finger, a pen, or the like. Marking may be performed by tracing the sensor-equipped liquid crystal panel 301 with a finger or a pen after the user preselects the associated marking type (for example, color, shape, line thickness, etc.). . The selection of the predetermined process in the above (1) and the selection of the marking type in the above (2) may be performed by, for example, the user touching a menu displayed by the menu display control unit 11 or the like. The association between the marking type and the predetermined process may be set in advance at the time of factory shipment or may be set by the user.

また、同じ種類のマーキングを所定の複数個読み取ることができた場合のみ、当該マーキングに対応付けられている処理を実行してもよい。これにより、ユーザが誤ってマーキングした場合における誤使用を防止することができる。   Further, only when a predetermined number of markings of the same type can be read, the process associated with the marking may be executed. Thereby, the misuse when a user marks by mistake can be prevented.

(主制御部800および記憶部901の構成)
ユーザが指やペン等でなぞった跡のマーキングを読み取り、当該マーキングの種類に対応付けられている所定処理を実行する場合における、データ表示/センサ装置100の主制御部800および記憶部901の構成は、検知用画像表示処理部124および対象物スキャン実行部131を除き、実施の形態1で説明した構成と同様である。
(Configuration of main control unit 800 and storage unit 901)
Configuration of main control unit 800 and storage unit 901 of data display / sensor device 100 when a user reads a marking of a trace traced with a finger or a pen and executes a predetermined process associated with the type of marking Is the same as the configuration described in the first embodiment except for the detection image display processing unit 124 and the object scan execution unit 131.

ただし、検知用画像表示処理部124は、ユーザがセンサ内蔵液晶パネル301を指やペン等でなぞった位置の座標データを取得し、当該座標データで示される位置に、予め設定されているマーキングの種類に応じた所定の画像を表示させる。   However, the detection image display processing unit 124 acquires coordinate data of a position where the user traces the sensor built-in liquid crystal panel 301 with a finger or a pen, and the marking marking set in advance at the position indicated by the coordinate data. A predetermined image corresponding to the type is displayed.

また、対象物スキャン実行部131は、上記所定処理に応じて、例えば、(1)対象物のスキャン処理、(2)対象物をスキャンした結果として得られる画像データのマスク処理、(3)対象物のスキャンデータに情報を付加する処理、などを行う。特に、上記(2)の場合、スキャンデータ生成部133が、データ処理部700から取得する、対象物をスキャンした結果として得られる画像データのうち、マーキングした範囲のみをマスクした画像データを生成する。また、上記(3)の場合、スキャンデータ生成部133が、スキャンデータにカテゴリを示すデータを付加したり、スキャンデータにマーキングを合成する処理を行う。   In addition, the object scan execution unit 131 may, for example, (1) scan the object, (2) mask the image data obtained as a result of scanning the object, Processing to add information to the scan data of the object is performed. In particular, in the case of (2) above, the scan data generation unit 133 generates image data obtained by masking only the marked range from the image data obtained as a result of scanning the object acquired from the data processing unit 700. . In the case of (3) above, the scan data generation unit 133 performs a process of adding data indicating a category to the scan data or combining the marking with the scan data.

(処理の流れ)
図21を参照しながら、ユーザが指やペン等でなぞった跡のマーキングを読み取ることによって、当該マーキングの種類に対応付けられている所定処理を実行する際の処理の流れについて説明する。ここでは、どの所定処理を実行させるかをユーザが予め選択した上で、センサ内蔵液晶パネル301上を指やペン等でなぞり、マーキングを行なうケースについて説明する。なお、図11で示したフローチャートにおけるステップS14にて“画像スキャン”を選択した場合には、図21で示すフローチャートで示される処理が開始される。
(Process flow)
With reference to FIG. 21, the flow of processing when executing a predetermined processing associated with the type of marking by reading the marking of the trace traced by the user with a finger or a pen will be described. Here, a case will be described in which marking is performed by the user selecting in advance which predetermined process is to be executed, and tracing the sensor-equipped liquid crystal panel 301 with a finger, a pen, or the like. If “image scan” is selected in step S14 in the flowchart shown in FIG. 11, the process shown in the flowchart shown in FIG. 21 is started.

そして、ステップS23にて、載置領域に対象物が置かれたことを判定した後、ユーザがセンサ内蔵液晶パネル301を指やペン等でなぞると(ステップS61)、検知用画像表示処理部124が、当該なぞった座標位置に、マーキングとしての所定の画像(以下、マーキング画像)を表示させる(ステップS62)。   Then, after determining in step S23 that the object has been placed on the placement area, if the user traces the sensor built-in liquid crystal panel 301 with a finger or a pen (step S61), the detection image display processing unit 124 is displayed. However, a predetermined image as a marking (hereinafter referred to as a marking image) is displayed at the traced coordinate position (step S62).

次に、ユーザが、データ表示/センサ装置100の筐体を閉じると(ステップS63)、検知用画像スキャン部126が、上記マーキング画像が表示されていない側のセンサ内蔵液晶パネル301にてスキャンを実行させる。そして、上記マーキング画像を読み取ることができた場合(ステップS64にてYES)、検知用画像スキャン部126は、マーキングに応じた所定処理を実行する(ステップS65)。   Next, when the user closes the housing of the data display / sensor device 100 (step S63), the detection image scanning unit 126 scans with the sensor built-in liquid crystal panel 301 on the side where the marking image is not displayed. Let it run. If the marking image can be read (YES in step S64), the detection image scanning unit 126 executes a predetermined process corresponding to the marking (step S65).

所定処理が、対象物のスキャン処理であれば、対象物スキャン実行部131が、例えば、対象物の両面スキャン/片面スキャン、対象物の特定色以外の文字のみのスキャンなどのスキャンを実行する(ステップS66)。   If the predetermined process is an object scan process, the object scan execution unit 131 executes a scan such as a double-sided scan / single-sided scan of the object, or a scan of only characters other than a specific color of the object (for example). Step S66).

また、所定処理が、対象物をスキャンした結果として得られる画像データのマスク処理であれば、対象物スキャン実行部131が、センサ内蔵液晶パネル301にスキャンを実行させ(ステップS67)、そして、スキャンデータ生成部133が、データ処理部700から取得した画像データのうち、マーキング画像に対応する部分をマスクしたスキャンデータを生成する(ステップS68)。   If the predetermined process is a masking process of image data obtained as a result of scanning the object, the object scan execution unit 131 causes the sensor built-in liquid crystal panel 301 to perform the scan (step S67), and the scan The data generation unit 133 generates scan data that masks a portion corresponding to the marking image in the image data acquired from the data processing unit 700 (step S68).

また、所定処理が、対象物のスキャンデータに情報を付加する処理であれば、対象物スキャン実行部131が、センサ内蔵液晶パネル301にスキャンを実行させ(ステップS69)、そして、スキャンデータ生成部133が、データ処理部700から取得した画像データに、マーキング画像を合成したスキャンデータを生成する(ステップS70)。   If the predetermined process is a process of adding information to the scan data of the object, the object scan execution unit 131 causes the sensor built-in liquid crystal panel 301 to perform a scan (step S69), and the scan data generation unit 133 generates scan data in which the marking image is combined with the image data acquired from the data processing unit 700 (step S70).

(付記事項)
上述では、1つの検知用画像をセンサ内蔵液晶パネル301に表示し、当該検知用画像を表示していない側のセンサ内蔵液晶パネル301にて、当該検知用画像を読み取ることにより、当該検知用画像に対応付けられている所定処理を実行する形態について説明したが、予め定められた複数の検知用画像をセンサ内蔵液晶パネル301に表示し、当該複数の検知用画像を読み取ることにより、当該検知用画像に対応付けられている所定処理を実行するようにしてもよい。これにより、例えば、上記所定処理が対象物のスキャンである場合、ユーザが1つの検知用画像しか表示させていなければ、対象物のスキャンは実行されない。つまり、ユーザが、意識的に、予め定められた複数の検知用画像を表示させなければ対象物のスキャンは実行されないので、ユーザが誤って所定処理を実行させるということを防止することができる。
(Additional notes)
In the above description, one detection image is displayed on the sensor built-in liquid crystal panel 301, and the detection image is read by the sensor built-in liquid crystal panel 301 on the side where the detection image is not displayed. In the above description, the predetermined process associated with the image is executed. However, a plurality of predetermined detection images are displayed on the sensor built-in liquid crystal panel 301, and the plurality of detection images are read to thereby detect the detection. You may make it perform the predetermined process matched with the image. Thereby, for example, when the predetermined process is a scan of an object, the scan of the object is not executed unless the user displays only one detection image. That is, since the scan of the object is not executed unless the user consciously displays a plurality of predetermined detection images, it is possible to prevent the user from executing the predetermined process by mistake.

上述では、データ表示/センサ装置100の構成として、データ処理部700や回路制御部600を備える構成について説明したが、この構成に限定されるものではない。例えば、主制御部800が回路制御部600を直接制御し、主制御部800が全体画像データ/部分画像データ/座標データを生成するような構成であってもよい。また、主制御部800が表示/光センサ部300を直接制御するような構成であってもよい。   In the above description, the configuration including the data processing unit 700 and the circuit control unit 600 has been described as the configuration of the data display / sensor device 100. However, the configuration is not limited to this configuration. For example, the main control unit 800 may directly control the circuit control unit 600, and the main control unit 800 may generate whole image data / partial image data / coordinate data. The main control unit 800 may directly control the display / light sensor unit 300.

最後に、データ表示/センサ装置100の主制御部800、データ処理部700、回路制御部600は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。   Finally, the main control unit 800, the data processing unit 700, and the circuit control unit 600 of the data display / sensor device 100 may be configured by hardware logic, or realized by software using a CPU as follows. Also good.

すなわち、データ表示/センサ装置100は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラム及び各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるデータ表示/センサ装置100の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記データ表示/センサ装置100に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   That is, the data display / sensor device 100 includes a CPU (central processing unit) that executes instructions of a control program for realizing each function, a ROM (read only memory) that stores the program, and a RAM (random access) that expands the program. memory), a storage device (recording medium) such as a memory for storing the program and various data. An object of the present invention is a record in which a program code (execution format program, intermediate code program, source program) of a control program for the data display / sensor device 100, which is software for realizing the functions described above, is recorded so as to be readable by a computer. This can also be achieved by supplying a medium to the data display / sensor device 100 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、データ表示/センサ装置100を通信ネットワークと接続可能に構成し、上記プログラムコードを、通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   Further, the data display / sensor device 100 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Also, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), IEEE802.11 radio, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.

本発明は、データの表示処理およびスキャン処理を行う装置に適用できる。特に、2枚のセンサ内蔵液晶パネルが互いに向き合う筐体を備えるデータ表示/センサ装置に好適に適用できる。   The present invention can be applied to an apparatus that performs data display processing and scan processing. In particular, the present invention can be suitably applied to a data display / sensor device having a housing in which two liquid crystal panels with built-in sensors face each other.

本発明の一実施形態に係るデータ表示/センサ装置の詳細構成を示すブロック図である。It is a block diagram which shows the detailed structure of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルの断面を示す模式図である。It is a schematic diagram which shows the cross section of the liquid crystal panel with a built-in sensor with which the data display / sensor apparatus which concerns on one Embodiment of this invention is provided. 図3(a)は、本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルにて反射像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。図3(b)は、本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルにて影像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。FIG. 3A is a schematic diagram showing a state in which a position touched by a user is detected by detecting a reflected image on a sensor built-in liquid crystal panel included in the data display / sensor device according to the embodiment of the present invention. is there. FIG. 3B is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a shadow image on the sensor built-in liquid crystal panel included in the data display / sensor device according to the embodiment of the present invention. . 本発明の一実施形態に係るデータ表示/センサ装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置で用いられるコマンドのフレーム構造の一例を示す模式図である。It is a schematic diagram which shows an example of the frame structure of the command used with the data display / sensor apparatus which concerns on one Embodiment of this invention. 図5に示したコマンドに含まれる各フィールドに指定可能な値の一例、および、その概要を示す説明図である。It is explanatory drawing which shows an example of the value which can be designated to each field contained in the command shown in FIG. 5, and its outline. 図7(a)は、本発明の一実施形態に係るデータ表示/センサ装置にて、対象物がセンサ内蔵液晶パネル上に置かれていないときに、センサ内蔵液晶パネル全体をスキャンした結果として得られる画像データである。図7(b)は、本発明の一実施形態に係るデータ表示/センサ装置にて、ユーザが指でセンサ内蔵液晶パネルをタッチしているときに、スキャンした結果として得られる画像データである。FIG. 7A is a result of scanning the entire sensor-equipped liquid crystal panel when the object is not placed on the sensor-equipped liquid crystal panel in the data display / sensor device according to the embodiment of the present invention. Image data. FIG. 7B shows image data obtained as a result of scanning when the user is touching the sensor-equipped liquid crystal panel with a finger in the data display / sensor device according to the embodiment of the present invention. 本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルの構成およびその周辺回路の構成を示すブロック図である。It is a block diagram which shows the structure of the liquid crystal panel with a sensor with which the data display / sensor apparatus which concerns on one Embodiment of this invention is provided, and the structure of its peripheral circuit. 図9(a)は、本発明の一実施形態に係るデータ表示/センサ装置の筐体を開いた様子を示す説明図である。図9(b)は、本発明の一実施形態に係るデータ表示/センサ装置の筐体を閉じた様子を示す説明図である。FIG. 9A is an explanatory diagram showing a state in which the housing of the data display / sensor device according to the embodiment of the present invention is opened. FIG. 9B is an explanatory diagram showing a state in which the housing of the data display / sensor device according to the embodiment of the present invention is closed. 図10(a)は、本発明の一実施形態に係るデータ表示/センサ装置が、スキャンを実行可能な状態において、ユーザに対してスキャンの準備を促すメッセージなどを表示している様子を示す図である。図10(b)は、対象物である文書が、本発明の一実施形態に係るデータ表示/センサ装置に置かれた様子を示す図である。図10(c)は、図10(b)で示す状態から、ユーザが、検知用画像の表示指示を行なった(ボタンをタッチした)様子を示す図である。図10(d)は、図10(c)で示す状態において、データ表示/センサ装置100の筐体が閉じられた様子を示す図である。図10(e)は、図10(d)で示す状態においてスキャンが実行された後、データ表示/センサ装置の筐体が開かれた様子を示す説明図である。FIG. 10A is a diagram illustrating a state in which the data display / sensor device according to the embodiment of the present invention displays a message that prompts the user to prepare for scanning in a state where scanning can be performed. It is. FIG. 10B is a diagram illustrating a state in which a document that is an object is placed on the data display / sensor device according to the embodiment of the present invention. FIG. 10C is a diagram illustrating a state in which the user has issued a detection image display instruction (touched a button) from the state illustrated in FIG. FIG. 10D is a diagram illustrating a state in which the housing of the data display / sensor device 100 is closed in the state illustrated in FIG. FIG. 10E is an explanatory diagram showing a state in which the housing of the data display / sensor device is opened after the scan is executed in the state shown in FIG. 本発明の一実施形態に係るデータ表示/センサ装置おいて、データ表示/センサ装置の起動直後に、ユーザがメニューを選択する処理の流れを示すフローチャートである。6 is a flowchart showing a flow of processing in which a user selects a menu immediately after activation of the data display / sensor device in the data display / sensor device according to the embodiment of the present invention. 本発明の一実施形態に係るデータ表示/センサ装置において、検知用画像を読み取ることによって対象物のスキャンを行う処理の流れを示すフローチャートである。6 is a flowchart showing a flow of processing for scanning an object by reading a detection image in the data display / sensor device according to the embodiment of the present invention. 本発明の一実施形態に係るデータ表示/センサ装置の第2表示/光センサ部のセンサ内蔵液晶パネル上に表示された載置領域内に名刺を置いた様子を示す説明図である。It is explanatory drawing which shows a mode that the business card was put in the mounting area | region displayed on the sensor built-in liquid crystal panel of the 2nd display / light sensor part of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置の第2表示/光センサ部のセンサ内蔵液晶パネル上をユーザが指でタッチした様子を示す説明図である。It is explanatory drawing which shows a mode that the user touched on the liquid crystal panel with a built-in sensor of the 2nd display / light sensor part of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置にて対象物のスキャンを実行した後、ユーザが、当該装置の筐体を開いた様子を示す説明図である。It is explanatory drawing which shows a mode that the user opened the housing | casing of the said apparatus after performing the scan of the target object in the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置の第1表示/光センサ部のセンサ内蔵液晶パネル上をユーザが指でタッチした様子を示す説明図である。It is explanatory drawing which shows a mode that the user touched on the liquid crystal panel with a built-in sensor of the 1st display / light sensor part of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置にて対象物のスキャンを実行した後、ユーザが、当該装置の筐体を開いた様子を示す説明図である。It is explanatory drawing which shows a mode that the user opened the housing | casing of the said apparatus after performing the scan of the target object in the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置の表示/光センサ部のセンサ内蔵液晶パネル上をユーザが指でタッチせずに、対象物のスキャンを実行した後、ユーザが、当該装置の筐体を開いた様子を示す説明図である。After a user scans an object without touching a finger on the sensor built-in liquid crystal panel of the data display / sensor device of the data display / sensor device according to an embodiment of the present invention, It is explanatory drawing which shows a mode that the housing | casing was opened. 図19(a)は、本発明の他の実施形態に係るデータ表示/センサ装置が、スキャンを実行可能な状態において、載置領域、および、ユーザに対してスキャンの準備を促すメッセージなどを表示している様子を示す図である。図19(b)は、図19(a)で示す状態から、データ表示/センサ装置の筐体が閉じられた様子を示す図である。図19(c)は、図19(b)で示す状態において電源がオフされた後、データ表示/センサ装置の筐体が開かれた様子を示す説明図である。FIG. 19A shows a placement area and a message prompting the user to prepare for scanning in a state where the data display / sensor device according to another embodiment of the present invention can execute scanning. It is a figure which shows a mode that is doing. FIG. 19B is a diagram illustrating a state in which the housing of the data display / sensor device is closed from the state illustrated in FIG. FIG. 19C is an explanatory diagram showing a state in which the housing of the data display / sensor device is opened after the power is turned off in the state shown in FIG. 本発明の他の一実施形態に係るデータ表示/センサ装置おいて、検知用画像を読み取ることによって電源をオフにする処理の流れを示すフローチャートである。6 is a flowchart showing a flow of processing for turning off a power supply by reading a detection image in a data display / sensor device according to another embodiment of the present invention. 本発明の他の一実施形態に係るデータ表示/センサ装置おいて、ユーザが指やペン等でなぞった跡のマーキングを読み取ることによって、当該マーキングの種類に対応付けられている所定処理を実行する際の処理の流れを示すフローチャートである。In a data display / sensor device according to another embodiment of the present invention, a predetermined process associated with the type of marking is executed by reading a marking of a trace traced by a user with a finger or a pen. It is a flowchart which shows the flow of the process at the time.

符号の説明Explanation of symbols

24 検知用画像記憶部
19 電源管理部(処理実行手段)
100 データ表示/センサ装置(画像表示/像検知装置)
123 対象物有無判定部
124 検知用画像表示処理部(検知用画像表示指示手段)
126 検知用画像スキャン部(処理実行手段)
131 対象物スキャン実行部(処理実行手段)
132 スキャン実行指示部
133 スキャンデータ生成部
135 スキャンデータ表示指示部
300 表示/光センサ部
301 センサ内蔵液晶パネル(第1面状部材、第2面状部材)
301A センサ内蔵液晶パネル(第1面状部材または第2面状部材)
301B センサ内蔵液晶パネル(第1面状部材または第2面状部材)
J1 検知用画像
J2 検知用画像
P1 文書(対象物)
P2 文書(対象物)
P3 名刺(対象物)
R1 載置領域
24 Image storage unit for detection 19 Power supply management unit (processing execution means)
100 Data display / sensor device (image display / image detection device)
123 Object presence / absence determination unit 124 Image display processing unit for detection (image display instruction unit for detection)
126 Image scanning unit for detection (processing execution means)
131 Object scan execution unit (process execution means)
132 Scan execution instruction unit 133 Scan data generation unit 135 Scan data display instruction unit 300 Display / light sensor unit 301 Sensor built-in liquid crystal panel (first planar member, second planar member)
301A Liquid crystal panel with built-in sensor (first planar member or second planar member)
301B Liquid crystal panel with built-in sensor (first planar member or second planar member)
J1 Image for detection J2 Image for detection P1 Document (object)
P2 Document (object)
P3 Business card (object)
R1 placement area

Claims (6)

2つ折りに折り畳み可能な筐体を有し、
上記筐体を折り畳んだ状態で対向する2つの内面には、一方の内面に、画像を表示する第1面状部材が、他方の内面に、近傍の像を検知する第2面状部材が、互いに対向するようにそれぞれ配設された画像表示/像検知装置であって、
所定の検知用画像と、自装置にて実行可能な所定の処理を示す情報とを対応付けて記憶する検知用画像記憶部と、
上記第1面状部材に上記検知用画像を表示させる検知用画像表示指示手段と、
上記筐体を折り畳んだ状態で、上記第2面状部材にて、上記検知用画像表示指示手段が上記第1面状部材に表示させた上記検知用画像を検知したとき、当該検知用画像に対応付けられた上記所定の処理を示す情報を、上記検知用画像記憶部から取得し、当該取得した情報で示される上記所定の処理を実行する処理実行手段とを備えることを特徴とする画像表示/像検知装置。
A housing that can be folded in half;
The two inner surfaces facing each other in a folded state of the casing include a first planar member that displays an image on one inner surface, and a second planar member that detects a nearby image on the other inner surface, Image display / image detection devices respectively arranged to face each other,
A detection image storage unit that stores a predetermined detection image and information indicating a predetermined process that can be executed by the device in association with each other;
Detection image display instruction means for displaying the detection image on the first planar member;
When the detection image display instruction means detects the detection image displayed on the first planar member on the second planar member in a state where the casing is folded, the detection image is displayed. Image display comprising: process execution means for acquiring information indicating the associated predetermined process from the detection image storage unit and executing the predetermined process indicated by the acquired information / Image detection device.
上記所定の処理は、上記筐体を折り畳んだ状態で、上記第1面状部材または上記第2面状部材に載置された対象物の像を、上記第2面状部材にて検知する処理であることを特徴とする請求項1に記載の画像表示/像検知装置。   The predetermined process is a process of detecting an image of an object placed on the first planar member or the second planar member with the second planar member in a state where the casing is folded. The image display / image detection apparatus according to claim 1, wherein: 上記第1面状部材は、さらに、近傍の像を検知するものであり、
上記所定の処理は、上記筐体を折り畳んだ状態で、上記第1面状部材または上記第2面状部材に載置された上記対象物の像を、上記第1面状部材にて検知する処理であることを特徴とする請求項1または2に記載の画像表示/像検知装置。
The first planar member further detects a nearby image,
In the predetermined process, the image of the object placed on the first planar member or the second planar member is detected by the first planar member in a state where the casing is folded. The image display / image detection apparatus according to claim 1, wherein the image display / image detection apparatus is a process.
上記検知用画像表示指示手段は、上記検知用画像を表示させるユーザ指示を受け付けるとともに、当該ユーザ指示に応じて、上記第1面状部材に上記検知用画像を表示させることを特徴とする請求項1から3のいずれか1項に記載の画像表示/像検知装置。   The detection image display instruction means receives a user instruction to display the detection image and displays the detection image on the first planar member in response to the user instruction. The image display / image detection apparatus according to any one of 1 to 3. 上記所定の処理は、自装置の電源をオフする処理であることを特徴とする請求項1に記載の画像表示/像検知装置。   The image display / image detection apparatus according to claim 1, wherein the predetermined process is a process of turning off the power of the own apparatus. 上記検知用画像表示指示手段は、対象物を載置する領域に、上記検知用画像を表示させることを特徴とする請求項1または5に記載の画像表示/像検知装置。   6. The image display / image detection apparatus according to claim 1, wherein the detection image display instruction means displays the detection image in a region where an object is placed.
JP2008227336A 2008-09-04 2008-09-04 Image display/image detection apparatus Pending JP2010062940A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008227336A JP2010062940A (en) 2008-09-04 2008-09-04 Image display/image detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008227336A JP2010062940A (en) 2008-09-04 2008-09-04 Image display/image detection apparatus

Publications (1)

Publication Number Publication Date
JP2010062940A true JP2010062940A (en) 2010-03-18

Family

ID=42189239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008227336A Pending JP2010062940A (en) 2008-09-04 2008-09-04 Image display/image detection apparatus

Country Status (1)

Country Link
JP (1) JP2010062940A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10523828B2 (en) 2017-01-19 2019-12-31 Sharp Kabushiki Kaisha Image forming apparatus including a housing used as paper output tray

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10523828B2 (en) 2017-01-19 2019-12-31 Sharp Kabushiki Kaisha Image forming apparatus including a housing used as paper output tray

Similar Documents

Publication Publication Date Title
JP5367339B2 (en) MENU DISPLAY DEVICE, MENU DISPLAY DEVICE CONTROL METHOD, AND MENU DISPLAY PROGRAM
JP2010108081A (en) Menu display device, method of controlling the menu display device, and menu display program
JP2010146506A (en) Input device, method for controlling input device, program for controlling input device, computer-readable recording medium, and information terminal device
JP5095574B2 (en) Image display / image detection apparatus, image display method, image display program, and recording medium recording the program
JP5185086B2 (en) Display device, display device control method, display device control program, and computer-readable recording medium storing the program
JP2010122972A (en) Image display/detection device, selection method, and program
JP5306780B2 (en) Input device
JP5254753B2 (en) Numerical input device, numerical input method, numerical input program, and computer-readable recording medium
JP2010204945A (en) Input device and input method
JP2010109467A (en) Image display/image detection apparatus
JP2010122383A (en) Display apparatus
JP2010062938A (en) Image display/image detection apparatus
JP2010062940A (en) Image display/image detection apparatus
JP2010062939A (en) Image display/image detection apparatus
WO2010050567A1 (en) Data transmission support device, electronic equipment and data transmission support device control method
JP2010118018A (en) Position identifying device, position identification program, computer-readable storage medium, and position identification method
JP2010108446A (en) Information processor, control method of information processor, and information processing program
JP5567776B2 (en) Color detection / color output device, color detection / color output program, computer-readable recording medium, and color detection / color output method
JP2010230909A (en) Image display device and image display control method
JP2010256969A (en) User interface device and method for controlling the same
JP2010117841A (en) Image detection device, recognition method of input position and program
JP2010140410A (en) Mobile apparatus and method of controlling the same
JP2010118016A (en) Input device, input method, input program, and computer-readable recording medium
JP2010122444A (en) Map display apparatus, method for controlling map display apparatus, program for controlling map display apparatus, and computer readable recording medium
JP2010146394A (en) Image detector, control method, control program, and computer-readable recording medium recording the control program