JP2010109467A - Image display/image detection apparatus - Google Patents

Image display/image detection apparatus Download PDF

Info

Publication number
JP2010109467A
JP2010109467A JP2008277031A JP2008277031A JP2010109467A JP 2010109467 A JP2010109467 A JP 2010109467A JP 2008277031 A JP2008277031 A JP 2008277031A JP 2008277031 A JP2008277031 A JP 2008277031A JP 2010109467 A JP2010109467 A JP 2010109467A
Authority
JP
Japan
Prior art keywords
image
display
data
sensor
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008277031A
Other languages
Japanese (ja)
Inventor
Kenji Akitomo
謙二 秋友
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2008277031A priority Critical patent/JP2010109467A/en
Publication of JP2010109467A publication Critical patent/JP2010109467A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimiles In General (AREA)
  • Color Image Communication Systems (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To read out a document or the like set on a display screen at high accuracy in a state that an image is still displayed on the whole display screen. <P>SOLUTION: An image display/image detection apparatus includes: a display/optical sensor unit 300 for displaying an image and reading out a nearby image; a display data generation unit 15 for displaying an image on the display/optical sensor unit 300; an object detection unit 131 for detecting a setting area on which an object is set in the display/optical sensor unit 300; and a monochromatic display control unit 133 which, when object reading is instructed during the display of the image on the display/optical sensor unit 300, instructs the display data generation part 15 to display the setting area on which the object is set by a predetermined monochromatic color. In the state that the setting area is displayed by the monochromatic color, the display/optical sensor unit 300 reads out an image of the object on the setting area. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像の表示および対象物の読み取りを同時に行うことができる画像表示/像検知装置に関するものである。   The present invention relates to an image display / image detection apparatus capable of simultaneously displaying an image and reading an object.

従来から、画像の表示と、原稿等の読み取りとを同じ画面にて行なうことができる装置が知られている。特許文献1では、表示画面内に、画像表示のための複数の発光素子と、表示画面に載置された原稿等を読み取るための複数の受光素子とが配置された表示装置が開示されている。
特開平11−282411号公報(公開日:平成11年10月15日)
2. Description of the Related Art Conventionally, an apparatus that can display an image and read a document or the like on the same screen is known. Patent Document 1 discloses a display device in which a plurality of light emitting elements for displaying an image and a plurality of light receiving elements for reading a document or the like placed on the display screen are arranged in a display screen. .
Japanese Patent Laid-Open No. 11-282411 (Publication date: October 15, 1999)

画像の表示と原稿等の読み取りとを同じ画面にて行なう装置において、原稿等の読み取りを高い精度で行なう場合、画像を表示するための発光の映り込みを防止または除去する必要がある。特許文献1に開示されている表示装置は、原稿等を読み取る場合、全ての発光素子を発光させた状態で、受光素子が原稿等からの反射光を受光し、該受光した反射光を電気信号に変換することによって、原稿の領域を検出した後、原稿領域とみなした近傍の発光素子のみを再び発光させることにより、原稿等の読み取りを行なう。つまり、この表示装置では、読み取り期間には、原稿領域近傍以外の発光素子は発光を一旦中止している。そのため、画像を表示するための発光の反射光を受光素子が受光しないため、原稿等の読み取り精度を高めることができる。   In an apparatus that displays an image and reads an original on the same screen, when the original is read with high accuracy, it is necessary to prevent or eliminate the reflection of light emission for displaying the image. In the display device disclosed in Patent Document 1, when reading a document or the like, the light receiving element receives reflected light from the document or the like in a state where all the light emitting elements emit light, and the received reflected light is converted into an electric signal. Thus, after detecting the area of the original, only the light emitting element in the vicinity regarded as the original area is caused to emit light again, thereby reading the original or the like. That is, in this display device, the light emitting elements other than those in the vicinity of the document area temporarily stop emitting light during the reading period. For this reason, since the light receiving element does not receive the reflected light emitted to display the image, the reading accuracy of the document or the like can be improved.

しかしながら、上記表示装置では、表示画面に画像を表示したままの状態で、表示画面に載置された原稿等の読み取りを行なうことができないので、原稿領域の検出を含め読み取りの度に表示画面全体の画像を消去する必要があるという問題がある。   However, in the above display device, it is impossible to read a document or the like placed on the display screen while an image is displayed on the display screen. There is a problem that it is necessary to erase the image.

また、表示画面に画像を表示したままの状態で、表示画面に載置された原稿等の読み取りを行なう場合は、読み取った画像から、原稿等が載置された領域に表示されていた画像を、一般的な画像処理により差し引く(減算する)といった手法を用いることにより、画像を表示するための発光の映り込みを除去することが考えられる。   In addition, when reading a document placed on the display screen while the image is displayed on the display screen, the image displayed in the region where the document is placed is read from the read image. It is conceivable to remove the reflection of light emission for displaying an image by using a method of subtracting (subtracting) by general image processing.

しかしながら、上記画像処理を施しても映り込みが完全に除去されない場合があったり、上記画像処理を行うCPU(Central Processing Unit)の負荷が高くなるという問題がある。   However, there are cases in which the reflection is not completely removed even when the image processing is performed, and there is a problem that a load on a CPU (Central Processing Unit) that performs the image processing becomes high.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、表示画面に画像を表示したままの状態で、表示画面に載置された原稿等の読み取りを高い精度で行なうことができる画像表示/像検知装置を提供することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to read a document or the like placed on a display screen with high accuracy while an image is displayed on the display screen. An object of the present invention is to provide an image display / image detection apparatus capable of

上記課題を解決するために、本発明に係る画像表示/像検知装置は、画像を表示するとともに、近傍の像を読み取る面状部材を備える画像表示/像検知装置であって、上記面状部材に画像を表示させる画像表示制御手段と、上記面状部材に対して対象物が載置された載置領域を検知する対象物検知手段と、上記画像表示制御手段が上記面状部材に上記画像を表示させているとき、上記対象物の読み取りが指示された場合、上記対象物が載置された載置領域を所定の単一色で表示させるように上記画像表示制御手段に指示する表示色制御手段とを備え、上記載置領域が上記単一色で表示されている状態で、上記面状部材は、上記載置領域にて上記対象物の像を読み取ることを特徴としている。   In order to solve the above-described problems, an image display / image detection device according to the present invention is an image display / image detection device including a planar member that displays an image and reads a nearby image. Image display control means for displaying an image on the sheet, object detection means for detecting a placement area where the object is placed on the planar member, and the image display control means on the planar member for the image When the reading of the object is instructed, the display color control that instructs the image display control means to display the placement area on which the object is placed in a predetermined single color And the planar member reads an image of the object in the placement area in a state where the placement area is displayed in the single color.

上記の構成によれば、上記面状部材に画像を表示させることができる。そして、上記面状部材に対して対象物が載置された載置領域を検知することができる。そして、上記面状部材に上記画像を表示させているとき、上記対象物の読み取りが指示された場合、上記対象物が載置された載置領域を所定の単一色で表示させることができる。そして、上記載置領域が上記単一色で表示されている状態で、上記載置領域にて上記対象物の像を読み取ることができる。   According to said structure, an image can be displayed on the said planar member. And the mounting area | region where the target object was mounted with respect to the said planar member is detectable. When the image is displayed on the planar member and the reading of the object is instructed, the placement area on which the object is placed can be displayed in a predetermined single color. And the image of the said target object can be read in the above-mentioned placement area in the state where the above-mentioned placement area is displayed by the above-mentioned single color.

よって、上記面状部材に上記画像を表示させているとき、上記面状部材に上記対象物を載置した後、上記対象物が載置された領域を所定の単一色で表示させた上で、上記対象物の像を読み取ることができる。   Therefore, when the image is displayed on the planar member, after the object is placed on the planar member, the area where the object is placed is displayed in a predetermined single color. The image of the object can be read.

したがって、ユーザは、上記面状部材に表示させた画像を見ながら、対象物の像を読み取ることができるという効果を奏する。   Therefore, the user can read the image of the object while viewing the image displayed on the planar member.

さらに、上記対象物が載置された領域を所定の単一色に表示させた状態で対象物の像を読み取るため、上記対象物が載置された領域に表示させていた画像の映り込みを防ぐことができ、その結果、対象物の像を読み取る精度を高めることができるという効果を奏する。   Furthermore, since the image of the object is read in a state where the area where the object is placed is displayed in a predetermined single color, the image displayed on the area where the object is placed is prevented from being reflected. As a result, the accuracy of reading the image of the object can be improved.

さらに、上記対象物が載置された領域のみを所定の単一色で表示するため、他の視認可能な表示領域に影響を与えることが無いという効果を奏する。   Furthermore, since only the area where the object is placed is displayed in a predetermined single color, there is an effect that other visible display areas are not affected.

さらに、本発明に係る画像表示/像検知装置は、上記の構成において、上記載置領域の外縁の近傍を上記単一色で表示させるように上記画像表示制御手段に指示する構成としてもよい。   Furthermore, the image display / image detection apparatus according to the present invention may be configured to instruct the image display control means to display the vicinity of the outer edge of the placement area in the single color in the above configuration.

上記の構成によれば、さらに、上記載置領域の外縁の近傍を上記単一色で表示させることができる。   According to said structure, the vicinity of the outer edge of the said mounting area | region can be further displayed with the said single color.

よって、上記面状部材に上記画像を表示させているとき、上記面状部材に上記対象物を載置した後、上記対象物が載置された領域および上記近傍を所定の単一色で表示させた上で、上記対象物の像を読み取ることができる。   Therefore, when the image is displayed on the planar member, after the object is placed on the planar member, the area where the object is placed and the vicinity are displayed in a predetermined single color. In addition, the image of the object can be read.

したがって、上記対象物が載置された領域の近傍に表示させていた画像についても、映り込みを防ぐことができ、その結果、対象物の像を読み取る精度を、より高めることができるという効果を奏する。   Therefore, the image displayed near the area where the object is placed can be prevented from being reflected, and as a result, the accuracy of reading the image of the object can be further improved. Play.

さらに、本発明に係る画像表示/像検知装置は、上記の構成において、上記対象物検知手段は、さらに、上記面状部材に対象物が載置されていないことを検知するものであり、上記対象物検知手段が上記面状部材に対象物が載置されていないことを検知したとき、上記表示色制御手段は、上記単一色での表示を中止して上記画像を表示するように上記画像表示制御手段に指示する構成としてもよい。   Furthermore, in the image display / image detection apparatus according to the present invention, in the above configuration, the object detection unit further detects that the object is not placed on the planar member. When the object detection means detects that the object is not placed on the planar member, the display color control means stops the display in the single color and displays the image. It may be configured to instruct the display control means.

上記の構成によれば、さらに、上記面状部材に対象物が載置されていないことを検知することができる。そして、上記面状部材に対象物が載置されていないことを検知したとき、上記単一色での表示を中止して上記画像を表示させることができる。   According to said structure, it can further detect that the target object is not mounted in the said planar member. And when it detects that the target object is not mounted in the said planar member, the display in the said single color can be stopped and the said image can be displayed.

よって、対象物が上記面状部材から取り除かれたとき、対象物を載置する前の状態(上記面状部材に画像が表示されている状態)に戻すことができる。   Therefore, when the object is removed from the planar member, it is possible to return to a state before the object is placed (a state where an image is displayed on the planar member).

したがって、ユーザは、対象物を上記面状部材から取り除いたとき、対象物を載置する前と同じ状態で、上記面状部材に表示させている画像を見ることができるという効果を奏する。   Therefore, when the user removes the object from the planar member, the user can see the image displayed on the planar member in the same state as before placing the object.

さらに、本発明に係る画像表示/像検知装置は、上記の構成において、上記面状部材にて、上記対象物の像の読み取りが完了したとき、上記表示色制御手段は、上記単一色での表示を中止して上記画像を表示するように上記画像表示制御手段に指示する構成としてもよい。   Furthermore, in the image display / image detection apparatus according to the present invention, in the above configuration, when the reading of the image of the object is completed by the planar member, the display color control unit is The image display control means may be instructed to stop the display and display the image.

上記の構成によれば、さらに、上記面状部材にて、上記対象物の像の読み取りが完了したとき、上記単一色での表示を中止して上記画像を表示させることができる。   According to said structure, when reading of the image of the said target object is completed with the said planar member, the display in the said single color can be stopped and the said image can be displayed.

よって、上記対象物の像の読み取りが完了したとき、対象物を載置する前の状態(上記面状部材に画像が表示されている状態)に戻すことができる。   Therefore, when the reading of the image of the object is completed, it is possible to return to the state before the object is placed (the state where the image is displayed on the planar member).

したがって、特に、ユーザは、上記対象物が載置されていた領域に表示させている画像を見ることができるという効果を奏する。   Therefore, in particular, the user can see the image displayed in the area where the object is placed.

さらに、本発明に係る画像表示/像検知装置は、上記の構成において、上記面状部材にて読み取った上記対象物の像の画像を、鏡像反転した状態で、記憶部に格納する検知画像格納部を備える構成としてもよい。   Furthermore, the image display / image detection apparatus according to the present invention is a detection image storage that stores the image of the object image read by the planar member in the storage unit in a state where the image is mirror-inverted in the above configuration. It is good also as a structure provided with a part.

上記の構成によれば、さらに、上記面状部材にて読み取った上記対象物の像の画像を、鏡像反転した状態で、記憶部に格納することができる。   According to said structure, the image of the said target object read with the said planar member can be further stored in a memory | storage part in the state which reversed the mirror image.

よって、上記対象物の像の画像の向きが正規な状態で、上記記憶部に記憶させることができる。   Therefore, the image of the object can be stored in the storage unit in a normal state.

したがって、別途、上記記憶部から上記対象物の像の画像を読み出し、当該読み出した画像を用いて所望の処理を実行させることができるという効果を奏する。   Therefore, it is possible to separately read an image of the object image from the storage unit and execute a desired process using the read image.

しかも、対象物の像の画像は、鏡像反転した状態で記憶部に記憶するので、対象物の像の画像そのままの状態で(鏡像反転された状態で)読み出されることを防止することができる。   In addition, since the image of the object image is stored in the storage unit in a mirror image inverted state, it can be prevented from being read out in the state of the image of the object as it is (in a mirror image inverted state).

さらに、本発明に係る画像表示/像検知装置は、上記の構成において、上記画像表示制御手段が上記面状部材に画像を表示させているとき、上記面状部材にて読み取った上記対象物の像の画像を、鏡像反転した状態で、上記面状部材に表示させるように上記画像表示制御手段に指示する像表示制御手段を備える構成としてもよい。   Further, in the image display / image detection apparatus according to the present invention, in the above configuration, when the image display control unit displays an image on the planar member, the object displayed by the planar member is read. An image display control unit that instructs the image display control unit to display an image of the image on the planar member in a mirror image inverted state may be provided.

上記の構成によれば、さらに、上記画像表示制御手段が上記面状部材に、上記面状部材にて読み取った上記対象物の像の画像を、鏡像反転した状態で、上記面状部材に表示させることができる。   According to the above configuration, the image display control means further displays an image of the image of the object read by the planar member on the planar member on the planar member in a mirror image inverted state. Can be made.

よって、上記面状部材に表示した画像の表示を中断または中止せずに、対象物の像の画像を表示させることができる。   Therefore, the image of the object can be displayed without interrupting or stopping the display of the image displayed on the planar member.

したがって、ユーザは、上記面状部材に表示した画像を見ながら、対象物の像の画像を確認することができるという効果を奏する。   Therefore, the user can confirm the image of the object while viewing the image displayed on the planar member.

しかも、対象物の像の画像は、鏡像反転した状態で表示するので、対象物の像の画像そのままの状態で(鏡像反転された状態で)表示されることを防止することができる。   In addition, since the image of the object is displayed in a mirror-inverted state, it can be prevented from being displayed as it is (in the state of being mirror-inverted) as it is.

さらに、本発明に係る画像表示/像検知装置は、上記の構成において、上記面状部材にて、当該面状部材に表示している上記対象物の像の画像の表示位置を移動させるユーザ操作を検知したとき、上記像表示制御手段は、上記表示している上記対象物の像の画像を、上記ユーザ操作に応じた位置に移動させて表示するように上記画像表示制御手段に指示する構成としてもよい。   Furthermore, in the image display / image detection apparatus according to the present invention, in the above configuration, a user operation for moving the display position of the image of the object displayed on the planar member by the planar member. The image display control means instructs the image display control means to move and display the displayed image of the object image to a position corresponding to the user operation. It is good.

上記の構成によれば、さらに、上記面状部材に表示している上記対象物の像の画像の表示位置を移動させるユーザ操作を検知したとき、上記表示している対象物の像の画像を、上記ユーザ操作に応じた位置に移動させて表示させることができる。   According to said structure, when the user operation which moves the display position of the image of the said object displayed on the said planar member is detected further, the image of the said image of the displayed object is detected. , It can be moved to a position corresponding to the user operation and displayed.

よって、ユーザ操作に応じて、上記対象物の像の画像の表示位置を変更することができる。   Therefore, the display position of the image of the object can be changed according to the user operation.

したがって、ユーザは、上記面状部材に表示した画像におけるユーザが注視したい領域と、上記面状部材に表示した対象物の像の画像とが、重ならないようにすることができるという効果を奏する。   Therefore, the user has an effect that the region that the user wants to watch in the image displayed on the planar member and the image of the object image displayed on the planar member can be prevented from overlapping each other.

なお、上記画像表示/像検知装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各手段として動作させることにより上記画像表示/像検知装置をコンピュータにて実現させる上記画像表示/像検知装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The image display / image detection device may be realized by a computer. In this case, the image display / image detection device is realized by the computer by operating the computer as each of the above-described means. A control program for the image detection apparatus and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.

以上のように、本発明に係る画像表示/像検知装置は、画像を表示するとともに、近傍の像を読み取る面状部材を備える画像表示/像検知装置であって、上記面状部材に画像を表示させる画像表示制御手段と、上記面状部材に対して対象物が載置された載置領域を検知する対象物検知手段と、上記画像表示制御手段が上記面状部材に上記画像を表示させているとき、上記対象物の読み取りが指示された場合、上記対象物が載置された載置領域を所定の単一色で表示させるように上記画像表示制御手段に指示する表示色制御手段とを備え、上記載置領域が上記単一色で表示されている状態で、上記面状部材は、上記載置領域にて上記対象物の像を読み取る。   As described above, the image display / image detection apparatus according to the present invention is an image display / image detection apparatus including a planar member that displays an image and reads a nearby image, and displays an image on the planar member. Image display control means for displaying, object detection means for detecting a placement area where the object is placed on the planar member, and the image display control means for displaying the image on the planar member. Display color control means for instructing the image display control means to display a placement area on which the object is placed in a predetermined single color when reading of the object is instructed. The planar member reads an image of the object in the placement area in a state where the placement area is displayed in the single color.

よって、上記面状部材に上記画像を表示させているとき、上記面状部材に上記対象物を載置した後、上記対象物が載置された領域を所定の単一色で表示させた上で、上記対象物の像を読み取ることができる。   Therefore, when the image is displayed on the planar member, after the object is placed on the planar member, the area where the object is placed is displayed in a predetermined single color. The image of the object can be read.

したがって、ユーザは、上記面状部材に表示させた画像を見ながら、対象物の像を読み取ることができるという効果を奏する。   Therefore, the user can read the image of the object while viewing the image displayed on the planar member.

さらに、上記対象物が載置された領域を所定の単一色に表示させた状態で対象物の像を読み取るため、上記対象物が載置された領域に表示させていた画像の映り込みを防ぐことができ、その結果、対象物の像を読み取る精度を高めることができるという効果を奏する。   Furthermore, since the image of the object is read in a state where the area where the object is placed is displayed in a predetermined single color, the image displayed on the area where the object is placed is prevented from being reflected. As a result, the accuracy of reading the image of the object can be improved.

さらに、上記対象物が載置された領域のみを所定の単一色で表示するため、他の視認可能な表示領域に影響を与えることが無いという効果を奏する。   Furthermore, since only the area where the object is placed is displayed in a predetermined single color, there is an effect that other visible display areas are not affected.

本発明に係るデータ表示/センサ装置(画像表示/像検知装置)100は、概略的に言えば、画像を表示するとともに、近傍の像を検知することができるセンサ内蔵液晶パネル(面状部材)301(後述する)を備えており、センサ内蔵液晶パネル301にて映像等を表示している状態で、対象物の像の読み取りを行なうことができる装置である。   The data display / sensor device (image display / image detection device) 100 according to the present invention can be broadly described as a sensor built-in liquid crystal panel (planar member) capable of displaying an image and detecting a nearby image. 301 (which will be described later) is an apparatus capable of reading an image of an object while displaying an image or the like on the sensor built-in liquid crystal panel 301.

なお、本明細書において、対象物とは、読み取り対象となる物体を指している。具体的には、文字や画像などが記された文書などを想定している。例えば、名刺、各種資料、書籍、カード、チラシなどが対象物に該当する。   In the present specification, the object refers to an object to be read. Specifically, a document in which characters, images, and the like are written is assumed. For example, business cards, various materials, books, cards, flyers, and the like correspond to the objects.

また、対象物の像の読み取りを、以下では、スキャンとも称する。   In addition, reading of an image of an object is also referred to as a scan below.

(発明の要点)
データ表示/センサ装置100の主要な特徴は、動画像や静止画像などの画像を表示しているセンサ内蔵液晶パネル301に載置した対象物のスキャンを行なうにあたり、センサ内蔵液晶パネル301における載置領域を、所定の単一色で表示した状態で、対象物のスキャンを行なうことである。このとき、載置領域以外の領域は、上記画像を表示したままの状態である。
(Key points of the invention)
The main feature of the data display / sensor device 100 is that when the object placed on the sensor built-in liquid crystal panel 301 displaying an image such as a moving image or a still image is scanned, the object is placed on the sensor built-in liquid crystal panel 301. The object is scanned while the area is displayed in a predetermined single color. At this time, the area other than the placement area is in a state where the image is displayed.

上記特徴により、ユーザは、上記画像を見ながら、対象物のスキャンを行なうことができる。さらに、載置領域およびその近傍を単一色で表示した状態で対象物のスキャンを行なうため、センサ内蔵液晶パネル301にて表示している上記画像の影響を受けずに対象物のスキャンを行なうことができる。つまり、スキャン時に、上記画像が映り込むことを防ぐことができるので、スキャン精度を高めることができる。   With the above feature, the user can scan the object while viewing the image. Further, since the object is scanned in a state where the placement area and its vicinity are displayed in a single color, the object is scanned without being affected by the image displayed on the sensor-equipped liquid crystal panel 301. Can do. That is, since the image can be prevented from being reflected during scanning, the scanning accuracy can be improved.

なお、載置領域に上記画像を表示したまま対象物のスキャンを行なった場合、上記画像の光が対象物によって反射され、スキャンデータに上記画像が映り込む場合があり、一般的にスキャン精度は低くなる。   Note that when the object is scanned while the image is displayed on the placement area, the light of the image may be reflected by the object, and the image may be reflected in the scan data. Lower.

また、上述のように、載置領域のみを単一色で表示してもよいが、載置領域およびその近傍を単一色で表示することが望ましい。これにより、載置領域の近傍に表示される上記画像の映り込みについても防止することができ、スキャン精度をより高めることができるからである。   Further, as described above, only the placement area may be displayed in a single color, but it is desirable to display the placement area and its vicinity in a single color. This is because the reflection of the image displayed in the vicinity of the placement area can be prevented, and the scanning accuracy can be further improved.

なお、上記近傍とは、載置領域の外側の領域であって、載置領域の外縁から所定範囲の領域である。また、上記所定範囲の領域とは、載置領域にてスキャンを行なう際に、映像等の映りこみを防止することが可能な大きさの領域である。   Note that the above-mentioned vicinity is a region outside the placement region and is a region within a predetermined range from the outer edge of the placement region. Further, the area of the predetermined range is an area having a size capable of preventing the reflection of an image or the like when scanning in the placement area.

また、データ表示/センサ装置100のさらなる特徴は、対象物をセンサ内蔵液晶パネル301から取り除いたとき、または、対象物のスキャンが終了したときは、載置領域およびその近傍の単一色での表示を中止し、単一色を表示する前に表示していた上記画像を表示することである。   Further, the data display / sensor device 100 is further characterized in that when the object is removed from the sensor built-in liquid crystal panel 301 or when the object scan is completed, the placement area and its vicinity are displayed in a single color. Is displayed, and the image displayed before displaying a single color is displayed.

そのため、特に、対象物を取り除いた後、ユーザは、対象物を載置する前の状態(動画像や静止画像などの画像が表示されている状態)で、引き続き上記画像を見ることができる。   Therefore, in particular, after removing the object, the user can continue to see the image in a state before placing the object (a state where an image such as a moving image or a still image is displayed).

また、以上のように、対象物のスキャンを行なうときは載置領域およびその近傍を単一色で表示するとともに、対象物を取り除いたとき、または、対象物のスキャンが終了したときは、載置領域およびその近傍の単一色での表示を中止するため、対象物のスキャンを行なうために単一色に表示にした領域を常時設けておく必要がなく、上記画像の表示領域が制限されることはない。   In addition, as described above, when the object is scanned, the placement area and its vicinity are displayed in a single color, and when the object is removed or when the object scan is finished, the placement area is displayed. Since the display in a single color in the area and its vicinity is stopped, it is not necessary to always provide a single color display area for scanning the object, and the display area of the image is limited. Absent.

また、対象物のスキャンデータを、センサ内蔵液晶パネル301上の、載置領域と重ならない位置に、上記画像に重畳して表示させてもよい。これにより、ユーザは、上記画像を見ながら、スキャンデータを確認することができる。   Further, the scan data of the object may be displayed superimposed on the image at a position on the sensor built-in liquid crystal panel 301 that does not overlap the placement area. Thereby, the user can confirm the scan data while viewing the image.

さらに、上記表示させたスキャンデータは、ユーザ操作により、表示位置を移動できてもよい。これにより、ユーザは、上記画像におけるユーザが注視したい領域と、スキャンデータとが、重ならないようにすることができる。なお、上記ユーザ操作は、ユーザがスキャンデータを指やペンなどでタッチした状態から、センサ内蔵液晶パネル301上を指やペンなどでなぞる(ドラッグする)ことによって行なうことを想定している。   Furthermore, the display position of the displayed scan data may be moved by a user operation. Accordingly, the user can prevent the scan data from overlapping the area in the image that the user wants to watch. It is assumed that the user operation is performed by dragging the sensor built-in liquid crystal panel 301 with a finger or a pen from a state in which the user touches the scan data with a finger or a pen.

(センサ内蔵液晶パネルの概要)
上記データ表示/センサ装置100が備えるセンサ内蔵液晶パネル301は、データの表示に加え、対象物の画像検出が可能な液晶パネルである。ここで、対象物の画像検出とは、例えば、ユーザが指やペンなどでポインティング(タッチ)した位置の検出や、印刷物等の画像の読み取り(スキャン)である。なお、表示に用いるデバイスは、液晶パネルに限定されるものではなく、有機EL(Electro Luminescence)パネルなどであってもよい。
(Outline of LCD panel with built-in sensor)
The sensor built-in liquid crystal panel 301 provided in the data display / sensor device 100 is a liquid crystal panel capable of detecting an image of an object in addition to displaying data. Here, the image detection of the object is, for example, detection of a position pointed (touched) by the user with a finger or a pen, or reading (scanning) of an image of a printed material. The device used for display is not limited to a liquid crystal panel, and may be an organic EL (Electro Luminescence) panel or the like.

図2を参照しながら、センサ内蔵液晶パネル301の構造について説明する。図2は、センサ内蔵液晶パネル301の断面を模式的に示す図である。なお、ここで説明するセンサ内蔵液晶パネル301は一例であり、表示面と読取面とが共用されているものであれば、任意の構造のものが利用できる。   The structure of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 2 is a diagram schematically showing a cross section of the sensor built-in liquid crystal panel 301. The sensor built-in liquid crystal panel 301 described here is an example, and any structure can be used as long as the display surface and the reading surface are shared.

図示のとおり、センサ内蔵液晶パネル301は、背面側に配置されるアクティブマトリクス基板51Aと、表面側に配置される対向基板51Bとを備え、これら基板の間に液晶層52を挟持した構造を有している。アクティブマトリクス基板51Aには、画素電極56、データ信号線57、光センサ回路32(図示せず)、配向膜58、偏光板59などが設けられる。対向基板51Bには、カラーフィルタ53r(赤)、53g(緑)、53b(青)、遮光膜54、対向電極55、配向膜58、偏光板59などが設けられる。また、センサ内蔵液晶パネル301の背面には、バックライト307が設けられている。   As shown in the figure, the sensor built-in liquid crystal panel 301 includes an active matrix substrate 51A disposed on the back surface side and a counter substrate 51B disposed on the front surface side, and has a structure in which a liquid crystal layer 52 is sandwiched between these substrates. is doing. The active matrix substrate 51A is provided with a pixel electrode 56, a data signal line 57, an optical sensor circuit 32 (not shown), an alignment film 58, a polarizing plate 59, and the like. The counter substrate 51B is provided with color filters 53r (red), 53g (green), 53b (blue), a light shielding film 54, a counter electrode 55, an alignment film 58, a polarizing plate 59, and the like. In addition, a backlight 307 is provided on the back surface of the sensor built-in liquid crystal panel 301.

なお、光センサ回路32に含まれるフォトダイオード6は、青のカラーフィルタ53bを設けた画素電極56の近傍に設けられているが、この構成に限定されるものではない。赤のカラーフィルタ53rを設けた画素電極56の近傍に設けてもよいし、緑のカラーフィルタ53gを設けた画素電極56の近傍に設けてもよい。   The photodiode 6 included in the photosensor circuit 32 is provided in the vicinity of the pixel electrode 56 provided with the blue color filter 53b, but is not limited to this configuration. It may be provided in the vicinity of the pixel electrode 56 provided with the red color filter 53r, or may be provided in the vicinity of the pixel electrode 56 provided with the green color filter 53g.

次に、図3(a)および図3(b)を参照しながら、ユーザが、指やペンで、センサ内蔵液晶パネル301上をタッチした位置を検出する2種類の方法について説明する。   Next, with reference to FIGS. 3A and 3B, two types of methods for detecting the position where the user touches the sensor built-in liquid crystal panel 301 with a finger or a pen will be described.

図3(a)は、反射像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。バックライト307から光63が出射されると、フォトダイオード6を含む光センサ回路32は、指などの対象物64により反射された光63を検知する。これにより、対象物64の反射像を検知することができる。このように、センサ内蔵液晶パネル301は、反射像を検知することにより、タッチした位置を検出することができる。   FIG. 3A is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a reflected image. When the light 63 is emitted from the backlight 307, the optical sensor circuit 32 including the photodiode 6 detects the light 63 reflected by the object 64 such as a finger. Thereby, the reflected image of the target object 64 can be detected. Thus, the sensor built-in liquid crystal panel 301 can detect the touched position by detecting the reflected image.

また、図3(b)は、影像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。図3(b)に示すように、フォトダイオード6を含む光センサ回路32は、対向基板51Bなどを透過した外光61を検知する。しかしながら、ペンなどの対象物62がある場合は、外光61の入射が妨げられるので、光センサ回路32が検知する光量が減る。これにより、対象物62の影像を検知することができる。このように、センサ内蔵液晶パネル301は、影像を検知することにより、タッチした位置を検出することもできる。   FIG. 3B is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a shadow image. As shown in FIG. 3B, the optical sensor circuit 32 including the photodiode 6 detects external light 61 transmitted through the counter substrate 51B and the like. However, when there is an object 62 such as a pen, the incident of the external light 61 is hindered, so that the amount of light detected by the optical sensor circuit 32 is reduced. Thereby, a shadow image of the object 62 can be detected. Thus, the sensor built-in liquid crystal panel 301 can also detect a touched position by detecting a shadow image.

上述のように、フォトダイオード6は、バックライト307より出射された光の反射光(影像)を検知してもよいし、外光による影像を検知してもよい。また、上記2種類の検知方法を併用して、影像と反射像とを両方を同時に検知するようにしてもよい。   As described above, the photodiode 6 may detect reflected light (shadow image) of the light emitted from the backlight 307 or may detect a shadow image caused by external light. Further, the two types of detection methods may be used in combination to detect both a shadow image and a reflected image at the same time.

(データ表示/センサ装置の要部構成)
次に、図4を参照しながら、上記データ表示/センサ装置100の要部構成について説明する。図4は、データ表示/センサ装置100の要部構成を示すブロック図である。図示のように、データ表示/センサ装置100は、1または複数の表示/光センサ部300、回路制御部600、データ処理部700、主制御部800、記憶部901、一次記憶部902、操作部903、外部通信部907、音声出力部908、および音声入力部909を備えている。
(Data display / sensor configuration)
Next, with reference to FIG. 4, the configuration of the main part of the data display / sensor device 100 will be described. FIG. 4 is a block diagram showing a main configuration of the data display / sensor device 100. As shown in FIG. As illustrated, the data display / sensor device 100 includes one or more display / light sensor units 300, a circuit control unit 600, a data processing unit 700, a main control unit 800, a storage unit 901, a primary storage unit 902, and an operation unit. 903, an external communication unit 907, an audio output unit 908, and an audio input unit 909.

表示/光センサ部300は、いわゆる光センサ内蔵液晶表示装置である。表示/光センサ部300は、センサ内蔵液晶パネル301、バックライト307、それらを駆動するための周辺回路309を含んで構成される。   The display / light sensor unit 300 is a so-called liquid crystal display device with a built-in light sensor. The display / light sensor unit 300 includes a sensor built-in liquid crystal panel 301, a backlight 307, and a peripheral circuit 309 for driving them.

センサ内蔵液晶パネル301は、マトリクス状に配置された複数の画素回路31および光センサ回路32を含んで構成される。センサ内蔵液晶パネル301の詳細な構成については後述する。   The sensor built-in liquid crystal panel 301 includes a plurality of pixel circuits 31 and photosensor circuits 32 arranged in a matrix. The detailed configuration of the sensor built-in liquid crystal panel 301 will be described later.

周辺回路309は、液晶パネル駆動回路304、光センサ駆動回路305、信号変換回路306、バックライト駆動回路308を含む。   The peripheral circuit 309 includes a liquid crystal panel drive circuit 304, an optical sensor drive circuit 305, a signal conversion circuit 306, and a backlight drive circuit 308.

液晶パネル駆動回路304は、回路制御部600の表示制御部601からのタイミング制御信号(TC1)およびデータ信号(D)に従って、制御信号(G)およびデータ信号(S)を出力し、画素回路31を駆動する回路である。画素回路31の駆動方法の詳細については後述する。   The liquid crystal panel driving circuit 304 outputs a control signal (G) and a data signal (S) in accordance with the timing control signal (TC1) and the data signal (D) from the display control unit 601 of the circuit control unit 600, and the pixel circuit 31. It is a circuit which drives. Details of the driving method of the pixel circuit 31 will be described later.

光センサ駆動回路305は、回路制御部600のセンサ制御部602からのタイミング制御信号(TC2)に従って、信号線(R)に電圧を印加し、光センサ回路32を駆動する回路である。光センサ回路32の駆動方法の詳細については後述する。   The optical sensor driving circuit 305 is a circuit that drives the optical sensor circuit 32 by applying a voltage to the signal line (R) in accordance with a timing control signal (TC2) from the sensor control unit 602 of the circuit control unit 600. Details of the driving method of the optical sensor circuit 32 will be described later.

信号変換回路306は、光センサ回路32から出力されるセンサ出力信号(SS)をデジタル信号(DS)に変換し、該変換後の信号をセンサ制御部602に送信する回路である。   The signal conversion circuit 306 is a circuit that converts the sensor output signal (SS) output from the optical sensor circuit 32 into a digital signal (DS) and transmits the converted signal to the sensor control unit 602.

バックライト307は、複数の白色LED(Light Emitting Diode)を含んでおり、センサ内蔵液晶パネル301の背面に配置される。そして、バックライト駆動回路308から電源電圧が印加されると、バックライト307は点灯し、センサ内蔵液晶パネル301に光を照射する。なお、バックライト307は、白色LEDに限らず、他の色のLEDを含んでいてもよい。また、バックライト307は、LEDに代えて、例えば、冷陰極管(CCFL:Cold Cathode Fluorescent Lamp)を含むものであってもよい。   The backlight 307 includes a plurality of white LEDs (Light Emitting Diodes) and is disposed on the back surface of the sensor built-in liquid crystal panel 301. When a power supply voltage is applied from the backlight drive circuit 308, the backlight 307 is turned on and irradiates the sensor built-in liquid crystal panel 301 with light. Note that the backlight 307 is not limited to white LEDs, and may include LEDs of other colors. The backlight 307 may include, for example, a cold cathode fluorescent lamp (CCFL) instead of the LED.

バックライト駆動回路308は、回路制御部600のバックライト制御部603からの制御信号(BK)がハイレベルであるときは、バックライト307に電源電圧を印加し、逆に、バックライト制御部603からの制御信号がローレベルであるときは、バックライト307に電源電圧を印加しない。   The backlight driving circuit 308 applies a power supply voltage to the backlight 307 when the control signal (BK) from the backlight control unit 603 of the circuit control unit 600 is at a high level, and conversely, the backlight control unit 603. When the control signal from is at a low level, no power supply voltage is applied to the backlight 307.

次に、回路制御部600について説明する。回路制御部600は、表示/光センサ部300の周辺回路309を制御するデバイスドライバとしての機能を備えるものである。回路制御部600は、表示制御部601、センサ制御部602、バックライト制御部603、および表示データ記憶部604を備えている。   Next, the circuit control unit 600 will be described. The circuit control unit 600 has a function as a device driver that controls the peripheral circuit 309 of the display / light sensor unit 300. The circuit control unit 600 includes a display control unit 601, a sensor control unit 602, a backlight control unit 603, and a display data storage unit 604.

表示制御部601は、データ処理部700の表示データ処理部701から表示データを受信するとともに、表示データ処理部701からの指示に従って、表示/光センサ部300の液晶パネル駆動回路304に、タイミング制御信号(TC1)およびデータ信号(D)を送信し、上記受信した表示データをセンサ内蔵液晶パネル301に表示させる。   The display control unit 601 receives display data from the display data processing unit 701 of the data processing unit 700, and performs timing control on the liquid crystal panel driving circuit 304 of the display / light sensor unit 300 in accordance with an instruction from the display data processing unit 701. A signal (TC1) and a data signal (D) are transmitted, and the received display data is displayed on the sensor built-in liquid crystal panel 301.

なお、表示制御部601は、表示データ処理部701から受信した表示データを、表示データ記憶部604に一次記憶させる。そして、当該一次記憶させた表示データに基づいて、データ信号(D)を生成する。表示データ記憶部604は、例えば、VRAM(video random access memory)などである。   The display control unit 601 temporarily stores the display data received from the display data processing unit 701 in the display data storage unit 604. Then, a data signal (D) is generated based on the primary stored display data. The display data storage unit 604 is, for example, a video random access memory (VRAM).

センサ制御部602は、データ処理部700のセンサデータ処理部703からの指示に従って、表示/光センサ部300の光センサ駆動回路305に、タイミング制御信号(TC2)を送信し、センサ内蔵液晶パネル301にてスキャンを実行させる。   The sensor control unit 602 transmits a timing control signal (TC2) to the optical sensor driving circuit 305 of the display / optical sensor unit 300 in accordance with an instruction from the sensor data processing unit 703 of the data processing unit 700, and the sensor built-in liquid crystal panel 301. Run the scan with.

また、センサ制御部602は、信号変換回路306からデジタル信号(DS)を受信する。そして、センサ内蔵液晶パネル301に含まれる全ての光センサ回路32から出力されたセンサ出力信号(SS)に対応するデジタル信号(DS)に基づいて、画像データを生成する。つまり、センサ内蔵液晶パネル301の読み取り領域全体で読み取った画像データを生成する。そして、該生成した画像データをセンサデータ処理部703に送信する。   In addition, the sensor control unit 602 receives a digital signal (DS) from the signal conversion circuit 306. Then, image data is generated based on the digital signal (DS) corresponding to the sensor output signal (SS) output from all the optical sensor circuits 32 included in the sensor built-in liquid crystal panel 301. That is, the image data read in the entire reading area of the sensor built-in liquid crystal panel 301 is generated. Then, the generated image data is transmitted to the sensor data processing unit 703.

バックライト制御部603は、表示データ処理部701およびセンサデータ処理部703からの指示に従って、表示/光センサ部300のバックライト駆動回路308に制御信号(BK)を送信し、バックライト307を駆動させる。   The backlight control unit 603 transmits a control signal (BK) to the backlight drive circuit 308 of the display / light sensor unit 300 in accordance with instructions from the display data processing unit 701 and the sensor data processing unit 703 to drive the backlight 307. Let

なお、データ表示/センサ装置100が、複数の表示/光センサ部300を備える場合、表示制御部601は、データ処理部700から、どの表示/光センサ部300にて表示データを表示するかの指示を受けたとき、当該指示に応じた表示/光センサ部300の液晶パネル駆動回路304を制御する。また、センサ制御部602は、データ処理部700から、どの表示/光センサ部300にて対象物のスキャンを行なうかの指示を受けたとき、当該指示に応じた表示/光センサ部300の光センサ駆動回路305を制御するとともに、当該指示に応じた表示/光センサ部300の信号変換回路306からデジタル信号(DS)を受信する。   When the data display / sensor device 100 includes a plurality of display / light sensor units 300, the display control unit 601 determines which display / light sensor unit 300 displays the display data from the data processing unit 700. When an instruction is received, the liquid crystal panel drive circuit 304 of the display / light sensor unit 300 is controlled according to the instruction. When the sensor control unit 602 receives an instruction from the data processing unit 700 as to which display / light sensor unit 300 is to scan the object, The sensor drive circuit 305 is controlled and a digital signal (DS) is received from the signal conversion circuit 306 of the display / light sensor unit 300 according to the instruction.

次に、データ処理部700について説明する。データ処理部700は、主制御部800から受信する「コマンド」に基づいて、回路制御部600に指示を与えるミドルウェアとしての機能を備えるものである。なお、コマンドの詳細については後述する。   Next, the data processing unit 700 will be described. The data processing unit 700 has a function as middleware that gives an instruction to the circuit control unit 600 based on a “command” received from the main control unit 800. Details of the command will be described later.

データ処理部700は、表示データ処理部701およびセンサデータ処理部703を備えている。そして、データ処理部700が、主制御部800からコマンドを受信すると、該受信したコマンドに含まれる各フィールド(後述する)の値に応じて、表示データ処理部701およびセンサデータ処理部703の少なくとも一方が動作する。   The data processing unit 700 includes a display data processing unit 701 and a sensor data processing unit 703. When the data processing unit 700 receives a command from the main control unit 800, at least one of the display data processing unit 701 and the sensor data processing unit 703 depends on the value of each field (described later) included in the received command. One works.

表示データ処理部701は、主制御部800から表示データを受信するとともに、データ処理部700が受信したコマンドに従って、表示制御部601およびバックライト制御部603に指示を与え、上記受信した表示データをセンサ内蔵液晶パネル301に表示させる。なお、コマンドに応じた、表示データ処理部701の動作については、後述する。   The display data processing unit 701 receives display data from the main control unit 800, and gives instructions to the display control unit 601 and the backlight control unit 603 according to the command received by the data processing unit 700, and displays the received display data. The image is displayed on the sensor built-in liquid crystal panel 301. The operation of the display data processing unit 701 according to the command will be described later.

センサデータ処理部703は、データ処理部700が受信したコマンドに従って、センサ制御部602およびバックライト制御部603に指示を与える。   The sensor data processing unit 703 gives an instruction to the sensor control unit 602 and the backlight control unit 603 according to the command received by the data processing unit 700.

また、センサデータ処理部703は、センサ制御部602から画像データを受信し、当該画像データをそのまま画像データバッファ704に格納する。そして、センサデータ処理部703は、データ処理部700が受信したコマンドに従って、画像データバッファ704に記憶されている画像データに基づいて、「全体画像データ」、「部分画像データ(部分画像の座標データを含む)」、および「座標データ」の少なくともいずれか1つを、主制御部800に送信する。なお、全体画像データ、部分画像データ、および座標データについては、後述する。また、コマンドに応じた、センサデータ処理部703の動作については、後述する。   The sensor data processing unit 703 receives image data from the sensor control unit 602 and stores the image data in the image data buffer 704 as it is. Then, in accordance with the command received by the data processing unit 700, the sensor data processing unit 703 performs “whole image data”, “partial image data (partial image coordinate data) based on the image data stored in the image data buffer 704. At least one of “including coordinate data” and “coordinate data” is transmitted to the main control unit 800. The whole image data, partial image data, and coordinate data will be described later. The operation of the sensor data processing unit 703 according to the command will be described later.

次に、主制御部800は、アプリケーションプログラムを実行するものである。主制御部800は、記憶部901に格納されているプログラムを、例えばRAM(Random Access Memory)等で構成される一次記憶部902に読み出して実行する。   Next, the main control unit 800 executes an application program. The main control unit 800 reads the program stored in the storage unit 901 into a primary storage unit 902 configured by, for example, a RAM (Random Access Memory) and executes the program.

主制御部800で実行されるアプリケーションプログラムは、センサ内蔵液晶パネル301に表示データを表示させたり、センサ内蔵液晶パネル301にて対象物のスキャンを行なわせるために、データ処理部700に対して、コマンドおよび表示データを送信する。また、コマンドに「データ種別」を指定した場合は、当該コマンドの応答として、全体画像データ、部分画像データ、および座標データの少なくともいずれか1つを、データ処理部700から受信する。   An application program executed by the main control unit 800 causes the data processing unit 700 to display display data on the sensor built-in liquid crystal panel 301 or to scan an object on the sensor built-in liquid crystal panel 301. Send commands and display data. When “data type” is designated as a command, at least one of whole image data, partial image data, and coordinate data is received from the data processing unit 700 as a response to the command.

なお、回路制御部600、データ処理部700、および主制御部800は、それぞれ、CPU(Central Processing Unit)およびメモリ等で構成することができる。また、データ処理部700は、ASIC(application specific integrate circuit)などの回路で構成されていてもよい。   The circuit control unit 600, the data processing unit 700, and the main control unit 800 can be configured by a CPU (Central Processing Unit), a memory, and the like, respectively. The data processing unit 700 may be configured by a circuit such as an ASIC (application specific integrate circuit).

次に、記憶部901は、図示のように、主制御部800が実行するプログラムおよびデータを格納するものである。なお、主制御部800が実行するプログラムは、アプリケーション固有のプログラムと、各アプリケーションが共用可能な汎用プログラムとに分離されていてもよい。   Next, the storage unit 901 stores programs and data executed by the main control unit 800 as shown in the figure. The program executed by the main control unit 800 may be separated into an application-specific program and a general-purpose program that can be shared by each application.

次に、操作部903は、データ表示/センサ装置100のユーザの入力操作を受けつけるものである。操作部903は、例えば、スイッチ、リモコン、マウス、キーボードなどの入力デバイスで構成される。そして、操作部903は、データ表示/センサ装置100のユーザの入力操作に応じた制御信号を生成し、該生成した制御信号を主制御部800へ送信する。   Next, the operation unit 903 receives an input operation of the user of the data display / sensor device 100. The operation unit 903 includes input devices such as a switch, a remote controller, a mouse, and a keyboard, for example. Then, the operation unit 903 generates a control signal corresponding to the user's input operation of the data display / sensor device 100, and transmits the generated control signal to the main control unit 800.

なお、上記スイッチの例としては、電源のオンとオフとを切り替える電源スイッチ905、予め所定の機能が割り当てられているユーザスイッチ906などのハードウェアスイッチを想定している。   As an example of the switch, a hardware switch such as a power switch 905 that switches power on and off and a user switch 906 to which a predetermined function is assigned in advance is assumed.

その他、データ表示/センサ装置100は、無線/有線通信によって外部装置と通信を行なうための外部通信部907、音声を出力するためのスピーカ等の音声出力部908、音声信号を入力するためのマイク等の音声入力部909などを適宜備えていてもよい。   In addition, the data display / sensor device 100 includes an external communication unit 907 for communicating with an external device by wireless / wired communication, an audio output unit 908 such as a speaker for outputting audio, and a microphone for inputting an audio signal. A voice input unit 909 such as the above may be provided as appropriate.

(コマンドの詳細)
次に、図5および図6を参照しながら、主制御部800からデータ処理部700に送信されるコマンドの詳細について説明する。図5は、コマンドのフレーム構造の一例を模式的に示す図である。また、図6は、コマンドに含まれる各フィールドに指定可能な値の一例、および、その概要を説明する図である。
(Command details)
Next, details of commands transmitted from the main control unit 800 to the data processing unit 700 will be described with reference to FIGS. 5 and 6. FIG. 5 is a diagram schematically illustrating an example of a command frame structure. FIG. 6 is a diagram for explaining an example of values that can be specified for each field included in the command and an outline thereof.

図5に示すように、コマンドは、「ヘッダ」、「データ取得タイミング」、「データ種別」、「スキャン方式」、「スキャン画像階調」、「スキャン解像度」、「スキャンパネル」、「表示パネル」、および「予備」の各フィールドを含んでいる。そして、各フィールドには、例えば、図6に示す値が指定可能である。   As shown in FIG. 5, the commands are “header”, “data acquisition timing”, “data type”, “scan method”, “scan image gradation”, “scan resolution”, “scan panel”, “display panel”. "And" Reserve "fields. In each field, for example, values shown in FIG. 6 can be designated.

「ヘッダ」フィールドは、フレームの開始を示すフィールドである。「ヘッダ」フィールドであることが識別可能であれば、「ヘッダ」フィールドの値は、どのような値であってもよい。   The “header” field is a field indicating the start of a frame. As long as it is possible to identify the “header” field, the value of the “header” field may be any value.

次に、「データ取得タイミング」フィールドは、データを主制御部800へ送信すべきタイミングを指定するフィールドである。「データ取得タイミング」フィールドには、例えば、“00”(センス)、“01”(イベント)、および“10”(オール)という値が指定可能である。   Next, the “data acquisition timing” field is a field for designating a timing at which data should be transmitted to the main control unit 800. In the “data acquisition timing” field, for example, values “00” (sense), “01” (event), and “10” (all) can be specified.

ここで、“センス”は、最新のデータを直ちに送信すること指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“センス”であるコマンドを受信すると、「データ種別」フィールドにて指定されている最新のデータを、直ちに、主制御部800に送信する。   Here, “sense” specifies that the latest data is to be transmitted immediately. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “sense”, the latest data specified in the “data type” field is immediately updated to the main control unit 800. Send to.

また、“イベント”は、センサ制御部602から受信する画像データに変化が生じたタイミングで送信すること指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“イベント”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、センサ制御部602から受信する画像データに、所定の閾値より大きい変化が生じたタイミングで、主制御部800に送信する。   The “event” designates transmission at a timing when a change occurs in the image data received from the sensor control unit 602. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “event”, the image that receives the data specified in the “data type” field from the sensor control unit 602. The data is transmitted to the main control unit 800 at a timing when a change larger than a predetermined threshold occurs.

また、“オール”は、所定周期でデータを送信すること指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“オール”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、所定周期で、主制御部800に送信する。なお、上記所定周期は、光センサ回路32にてスキャンを行なう周期と一致する。   “All” designates data transmission at a predetermined cycle. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “all”, the data designated in the “data type” field is transferred to the main control unit 800 at a predetermined cycle. Send to. The predetermined period coincides with the period in which the optical sensor circuit 32 performs scanning.

次に、「データ種別」フィールドは、センサデータ処理部703から取得するデータの種別を指定するフィールドである。なお、「データ種別」フィールドには、例えば、“001”(座標)、“010”(部分画像)、および“100”(全体画像)という値が指定可能である。さらに、これらの値を加算することによって、“座標”と、“部分画像”/“全体画像”とを、同時に指定可能である。例えば、“座標”と“部分画像”とを同時に指定する場合、“011”と指定することができる。   Next, the “data type” field is a field for designating the type of data acquired from the sensor data processing unit 703. In the “data type” field, for example, values of “001” (coordinates), “010” (partial image), and “100” (entire image) can be specified. Furthermore, by adding these values, “coordinates” and “partial image” / “whole image” can be specified simultaneously. For example, when “coordinate” and “partial image” are specified at the same time, “011” can be specified.

センサデータ処理部703は、「データ種別」フィールドの値が“全体画像”であるコマンドを受信すると、画像データバッファ704に記憶している画像データそのものを主制御部800に送信する。画像データバッファ704に記憶している画像データそのものを、「全体画像データ」と称する。   When the sensor data processing unit 703 receives a command whose value of the “data type” field is “whole image”, the sensor data processing unit 703 transmits the image data itself stored in the image data buffer 704 to the main control unit 800. The image data itself stored in the image data buffer 704 is referred to as “whole image data”.

また、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信すると、センサ制御部602から受信する画像データから、所定の閾値より大きい変化が生じた部分を含む領域を抽出し、該抽出した領域の画像データを主制御部800に送信する。ここで、当該画像データを、「部分画像データ」と称する。なお、上記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出されたそれぞれの部分画像データを主制御部800に送信する。   In addition, when the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 selects a portion where a change larger than a predetermined threshold has occurred from the image data received from the sensor control unit 602. A region to be included is extracted, and image data of the extracted region is transmitted to the main control unit 800. Here, the image data is referred to as “partial image data”. When a plurality of partial image data are extracted, the sensor data processing unit 703 transmits each extracted partial image data to the main control unit 800.

さらに、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信したとき、部分画像データにおける代表座標を検出し、当該代表座標の部分画像データにおける位置を示す座標データを主制御部800に送信する。なお、上記代表座標とは、例えば、上記部分画像データの中心の座標、上記部分画像データの重心の座標などが挙げられる。   Further, when the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 detects representative coordinates in the partial image data and indicates the position of the representative coordinates in the partial image data. The coordinate data is transmitted to the main control unit 800. The representative coordinates include, for example, the coordinates of the center of the partial image data, the coordinates of the center of gravity of the partial image data, and the like.

次に、センサデータ処理部703は、「データ種別」フィールドの値が“座標”であるコマンドを受信すると、上記代表座標の全体画像データにおける位置を示す座標データを主制御部800に送信する。なお、上記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出された、それぞれの部分画像データの、全体画像データにおける代表座標を検出し、当該代表座標を示す座標データのそれぞれを主制御部800に送信する(多点検出)。   Next, when receiving a command whose value of the “data type” field is “coordinate”, the sensor data processing unit 703 transmits coordinate data indicating the position of the representative coordinate in the entire image data to the main control unit 800. When a plurality of partial image data are extracted, the sensor data processing unit 703 detects representative coordinates in the entire image data of the extracted partial image data, and the coordinate data indicating the representative coordinates is detected. Each is transmitted to the main control unit 800 (multi-point detection).

なお、全体画像データ、部分画像データ、および座標データの具体例については、模式図を参照しながら後述する。   Specific examples of the whole image data, the partial image data, and the coordinate data will be described later with reference to schematic diagrams.

次に、「スキャン方式」フィールドは、スキャン実行時に、バックライト307を点灯するか否かを指定するフィールドである。「スキャン方式」フィールドには、例えば、“00”(反射)、“01”(透過)、および“10”(反射/透過)という値が指定可能である。   Next, the “scan method” field is a field for designating whether or not the backlight 307 is turned on at the time of executing the scan. In the “scan method” field, for example, values of “00” (reflection), “01” (transmission), and “10” (reflection / transmission) can be designated.

“反射”は、バックライト307を点灯した状態でスキャンを行なうこと指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“反射”であるコマンドを受信すると、光センサ駆動回路305とバックライト駆動回路308とが同期して動作するように、センサ制御部602とバックライト制御部603とに指示を与える。   “Reflection” specifies that scanning is performed with the backlight 307 turned on. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “reflection”, the sensor data processing unit 703 performs sensor control so that the optical sensor driving circuit 305 and the backlight driving circuit 308 operate in synchronization. An instruction is given to the unit 602 and the backlight control unit 603.

また、“透過”は、バックライト307を消灯した状態でスキャンを行なうことを指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“透過”であるコマンドを受信すると、光センサ駆動回路305を動作させ、バックライト駆動回路308と動作させないようにセンサ制御部602とバックライト制御部603とに指示を与える。なお、“反射/透過”は、“反射”と“透過”とを併用してスキャンを行なうことを指定するものである。   “Transmission” specifies that scanning is performed with the backlight 307 turned off. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “transparent”, the sensor control unit 602 operates the optical sensor driving circuit 305 and does not operate the backlight driving circuit 308. Instructions to the backlight control unit 603. Note that “reflection / transmission” specifies that scanning is performed using both “reflection” and “transmission”.

次に、「スキャン画像階調」フィールドは、部分画像データおよび全体画像データの階調を指定するフィールドである。「スキャン画像階調」フィールドには、例えば、“00”(2値)、および“01”(多値)という値が指定可能である。   Next, the “scanned image gradation” field is a field for designating gradations of the partial image data and the entire image data. In the “scanned image gradation” field, for example, values of “00” (binary) and “01” (multivalue) can be designated.

ここで、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“2値”であるコマンドを受信すると、部分画像データおよび全体画像データをモノクロデータとして、主制御部800に送信する。   When the sensor data processing unit 703 receives a command whose “scan image gradation” field value is “binary”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as monochrome data. .

また、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“多値”であるコマンドを受信すると、部分画像データおよび全体画像データを多階調データとして、主制御部800に送信する。   When the sensor data processing unit 703 receives a command whose “scanned image gradation” field value is “multivalued”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as multitone data. To do.

次に、「スキャン解像度」フィールドは、部分画像データおよび全体画像データの解像度を指定するフィールドである。「解像度」フィールドには、例えば、“0”(高)および“1”(低)という値が指定可能である。   Next, the “scan resolution” field is a field for designating the resolution of the partial image data and the entire image data. In the “resolution” field, for example, values of “0” (high) and “1” (low) can be designated.

ここで、“高”は、高解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“高”であるコマンドを受信すると、部分画像データおよび全体画像データを高解像度で主制御部800に送信する。例えば、画像認識などの画像処理を行なう対象の画像データ(指紋などの画像データ)には、“高”を指定することが望ましい。   Here, “high” designates a high resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “high”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 with high resolution. For example, it is desirable to designate “high” for image data (image data such as a fingerprint) to be subjected to image processing such as image recognition.

また、“低”は、低解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“低”であるコマンドを受信すると、部分画像データおよび全体画像データを低解像度で主制御部800に送信する。例えば、タッチした位置等が分かる程度でよい画像データ(タッチした指や手の画像データなど)には、“低”を指定することが望ましい。   “Low” designates a low resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “low”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 at a low resolution. For example, it is desirable to designate “low” for image data (such as touched finger or hand image data) that only needs to be recognized.

次に、「スキャンパネル」フィールドは、どの表示/光センサ部300にて対象物のスキャンを行なうかを指定するフィールドである。「スキャンパネル」フィールドには、例えば、“001”(第1の表示/光センサ部300)、“010”(第2の表示/光センサ部300)という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、第1および第2の表示/光センサ部300を同時に指定する場合、“011”と指定することができる。   Next, the “scan panel” field is a field for designating which display / light sensor unit 300 is to scan the object. In the “scan panel” field, for example, values of “001” (first display / light sensor unit 300) and “010” (second display / light sensor unit 300) can be designated. By adding these values, a plurality of display / light sensor units 300 can be specified at the same time. For example, when the first and second display / light sensor units 300 are specified at the same time, “011” can be specified.

ここで、センサデータ処理部703は、受信したコマンドの「スキャンパネル」フィールドに指定された表示/光センサ部300の光センサ駆動回路305およびバックライト駆動回路308を制御するように、センサ制御部602およびバックライト制御部603に指示を与える。   Here, the sensor data processing unit 703 controls the light sensor driving circuit 305 and the backlight driving circuit 308 of the display / light sensor unit 300 specified in the “scan panel” field of the received command. An instruction is given to 602 and the backlight control unit 603.

次に、「表示パネル」フィールドは、どの表示/光センサ部300にて表示データを表示させるかを指定するフィールドである。「スキャン画像階調」フィールドには、例えば、“001”(第1の表示/光センサ部300)、“010” (第2の表示/光センサ部300)という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、第1および第2の表示/光センサ部300を同時に指定する場合、“011”と指定することができる。   Next, the “display panel” field is a field for designating which display / light sensor unit 300 displays the display data. In the “scanned image gradation” field, for example, values of “001” (first display / light sensor unit 300) and “010” (second display / light sensor unit 300) can be designated. By adding these values, a plurality of display / light sensor units 300 can be specified at the same time. For example, when the first and second display / light sensor units 300 are specified at the same time, “011” can be specified.

ここで、表示データ処理部701は、例えば、「表示パネル」フィールドの値が第1の表示/光センサ部300であるコマンドを受信すると、第1の表示/光センサ部300に表示データを表示させるために、表示/光センサ部300の液晶パネル駆動回路304およびバックライト駆動回路308を制御するように、表示制御部601およびバックライト制御部603に指示を与える。   For example, when the display data processing unit 701 receives a command whose value of the “display panel” field is the first display / light sensor unit 300, the display data processing unit 701 displays the display data on the first display / light sensor unit 300. Therefore, an instruction is given to the display control unit 601 and the backlight control unit 603 so as to control the liquid crystal panel driving circuit 304 and the backlight driving circuit 308 of the display / light sensor unit 300.

次に、「予備」フィールドは、上述したフィールドにて指定可能な情報以外の情報をさらに指定する必要がある場合に、適宜指定されるフィールドである。   Next, the “reserved” field is a field that is appropriately specified when it is necessary to further specify information other than information that can be specified in the above-described fields.

なお、主制御部800にて実行されるアプリケーションは、コマンドを送信するにあたり、上述したフィールドを全て使用する必要はなく、使用しないフィールドには無効値(NULL値など)を設定しておけばよい。   Note that an application executed by the main control unit 800 does not need to use all the above-described fields when transmitting a command, and an invalid value (such as a NULL value) may be set for a field that is not used. .

また、ユーザが指やペンなどでタッチした位置の座標データを取得したいときは、「データ種別」フィールドに“座標”を指定したコマンドをデータ処理部700に送信することとなるが、指やペンなどは動きがあるため、さらに、当該コマンドの「データ取得タイミング」フィールドに“オール”を指定し、座標データを取得するようにすることが望ましい。また、タッチした位置の座標データが取得できればよいため、スキャンの精度は高くなくてもよい。したがって、上記コマンドの「解像度」フィールドの値は“低”を指定しておけばよい。   When the user wants to acquire coordinate data of a position touched with a finger or pen, a command specifying “coordinate” in the “data type” field is transmitted to the data processing unit 700. Therefore, it is desirable to specify “all” in the “data acquisition timing” field of the command to acquire coordinate data. Further, since it is only necessary to acquire coordinate data of the touched position, the scanning accuracy may not be high. Therefore, “low” may be specified as the value of the “resolution” field of the command.

また、コマンドの「データ種別」フィールドに“座標”を指定した場合において、例えば、ユーザが、複数の指やペンなどでセンサ内蔵液晶パネル301を同時にタッチした場合は、該タッチした位置の座標データのそれぞれを取得することができる(多点検出)。   Further, when “coordinate” is specified in the “data type” field of the command, for example, when the user touches the sensor built-in liquid crystal panel 301 with a plurality of fingers or pens at the same time, the coordinate data of the touched position is used. Can be acquired (multi-point detection).

また、原稿などの対象物の画像データを取得する場合、「データ種別」フィールドに“全体画像”を指定したコマンドをデータ処理部700に送信することとなるが、原稿などの対象物は、通常、静止させた状態でスキャンを実行することが一般的であるため、周期的にスキャンを実行する必要はない。従って、この場合は、「データ取得タイミング」フィールドに“センス”または“イベント”を指定することが望ましい。なお、原稿などの対象物をスキャンするときは、ユーザが文字を読みやすいように、スキャン精度は高い方が望ましい。したがって、「解像度」フィールドには“高”を指定することが望ましい。   When acquiring image data of an object such as a document, a command specifying “whole image” in the “data type” field is transmitted to the data processing unit 700. Since it is common to perform a scan in a stationary state, it is not necessary to periodically perform the scan. Therefore, in this case, it is desirable to designate “sense” or “event” in the “data acquisition timing” field. When scanning an object such as a document, it is desirable that the scanning accuracy is high so that the user can easily read the characters. Therefore, it is desirable to designate “high” in the “resolution” field.

(全体画像データ/部分画像データ/座標データ)
次に、図7を参照しながら、全体画像データ、部分画像データ、および座標データについて、例を挙げて説明する。図7(a)に示す画像データは、対象物がセンサ内蔵液晶パネル301上に置かれていないときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。また、図7(b)に示す画像データは、ユーザが指でセンサ内蔵液晶パネル301をタッチしているときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。
(Whole image data / Partial image data / Coordinate data)
Next, the whole image data, the partial image data, and the coordinate data will be described with reference to FIG. The image data shown in FIG. 7A is image data obtained as a result of scanning the entire sensor built-in liquid crystal panel 301 when the object is not placed on the sensor built-in liquid crystal panel 301. The image data shown in FIG. 7B is image data obtained as a result of scanning the entire sensor-equipped liquid crystal panel 301 when the user touches the sensor-equipped liquid crystal panel 301 with a finger.

ユーザが指でセンサ内蔵液晶パネル301をタッチしたとき、当該タッチした近傍の光センサ回路32が受光する光量が変化するため、当該光センサ回路32が出力する電圧に変化が生じ、その結果として、センサ制御部602が生成する画像データのうち、ユーザがタッチした部分の画素値の明度に変化が生じることとなる。   When the user touches the sensor built-in liquid crystal panel 301 with a finger, the amount of light received by the photosensor circuit 32 in the vicinity of the touch changes, so that the voltage output from the photosensor circuit 32 changes, and as a result, In the image data generated by the sensor control unit 602, the brightness of the pixel value of the portion touched by the user changes.

図7(b)に示す画像データでは、図7(a)に示す画像データと比べると、ユーザの指に該当する部分の画素値の明度が高くなっている。そして、図7(b)に示す画像データにおいて、明度が所定の閾値より大きく変化している画素値を全て含む最小の矩形領域(領域PP)が、“部分画像データ”である。   In the image data shown in FIG. 7B, the brightness of the pixel value of the portion corresponding to the user's finger is higher than that in the image data shown in FIG. In the image data shown in FIG. 7B, the smallest rectangular area (area PP) that includes all pixel values whose lightness changes more than a predetermined threshold is “partial image data”.

なお、領域APで示される画像データが、“全体画像データ”である。   The image data indicated by the area AP is “whole image data”.

また、部分画像データ(領域PP)の代表座標Zの、全体画像データ(領域AP)における座標データは(Xa,Ya)であり、部分画像データ(領域PP)における座標データは(Xp,Yp)である。   Also, the coordinate data in the whole image data (area AP) of the representative coordinates Z of the partial image data (area PP) is (Xa, Ya), and the coordinate data in the partial image data (area PP) is (Xp, Yp). It is.

(センサ内蔵液晶パネルの構成)
次に、図8を参照しながら、センサ内蔵液晶パネル301の構成、および、センサ内蔵液晶パネル301の周辺回路309の構成について説明する。図8は、表示/光センサ部300の要部、特に、センサ内蔵液晶パネル301の構成および周辺回路309の構成を示すブロック図である。
(Configuration of sensor built-in liquid crystal panel)
Next, the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309 of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 8 is a block diagram showing the main part of the display / light sensor unit 300, particularly the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309.

センサ内蔵液晶パネル301は、光透過率(輝度)を設定するための画素回路31、および、自身が受光した光の強度に応じた電圧を出力する光センサ回路32を備えている。なお、画素回路31は、赤色、緑色、青色のカラーフィルタのそれぞれに対応するR画素回路31r、G画素回路31g、B画素回路31bの総称して用いる。   The sensor built-in liquid crystal panel 301 includes a pixel circuit 31 for setting light transmittance (brightness) and an optical sensor circuit 32 that outputs a voltage corresponding to the intensity of light received by the sensor. Note that the pixel circuit 31 is a generic term for the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b corresponding to the red, green, and blue color filters, respectively.

画素回路31は、センサ内蔵液晶パネル301上の列方向(縦方向)にm個、行方向(横方向)に3n個配置される。そして、R画素回路31r、G画素回路31g、およびB画素回路31bの組が、行方向(横方向)に連続して配置される。この組が1つの画素を形成する。   The pixel circuits 31 are arranged on the sensor built-in liquid crystal panel 301 in the column direction (vertical direction) and 3n in the row direction (horizontal direction). A set of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b is continuously arranged in the row direction (lateral direction). This set forms one pixel.

画素回路31の光透過率を設定するには、まず、画素回路31に含まれるTFT(Thin Film Transistor)33のゲート端子に接続される走査信号線Giにハイレベル電圧(TFT33をオン状態にする電圧)を印加する。その後、R画素回路31rのTFT33のソース端子に接続されているデータ信号線SRjに、所定の電圧を印加する。同様に、G画素回路31gおよびB画素回路31bについても、光透過率を設定する。そして、これらの光透過率を設定することにより、センサ内蔵液晶パネル301上に画像が表示される。   In order to set the light transmittance of the pixel circuit 31, first, the high level voltage (TFT 33 is turned on) to the scanning signal line Gi connected to the gate terminal of the TFT (Thin Film Transistor) 33 included in the pixel circuit 31. Voltage). Thereafter, a predetermined voltage is applied to the data signal line SRj connected to the source terminal of the TFT 33 of the R pixel circuit 31r. Similarly, the light transmittance is also set for the G pixel circuit 31g and the B pixel circuit 31b. Then, by setting these light transmittances, an image is displayed on the sensor built-in liquid crystal panel 301.

次に、光センサ回路32は、一画素毎に配置される。なお、R画素回路31r、G画素回路31g、およびB画素回路31bのそれぞれの近傍に1つずつ配置されてもよい。   Next, the photosensor circuit 32 is arranged for each pixel. One pixel may be arranged in the vicinity of each of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b.

光センサ回路32にて光の強度に応じた電圧を出力させるためには、まず、コンデンサ35の一方の電極に接続されているセンサ読み出し線RWiと、フォトダイオード36のアノード端子に接続されているセンサリセット線RSiとに所定の電圧を印加する。この状態において、フォトダイオード36に光が入射されると、入射した光量に応じた電流がフォトダイオード36に流れる。そして、当該電流に応じて、コンデンサ35の他方の電極とフォトダイオード36のカソード端子との接続点(以下、接続ノードV)の電圧が低下する。そして、センサプリアンプ37のドレイン端子に接続される電圧印加線SDjに電源電圧VDDを印加すると、接続ノードVの電圧は増幅され、センサプリアンプ37のソース端子からセンシングデータ出力線SPjに出力される。そして、当該出力された電圧に基づいて、光センサ回路32が受光した光量を算出することができる。   In order for the optical sensor circuit 32 to output a voltage corresponding to the light intensity, first, the sensor readout line RWi connected to one electrode of the capacitor 35 and the anode terminal of the photodiode 36 are connected. A predetermined voltage is applied to the sensor reset line RSi. In this state, when light is incident on the photodiode 36, a current corresponding to the amount of incident light flows through the photodiode 36. Then, according to the current, the voltage at the connection point (hereinafter referred to as connection node V) between the other electrode of the capacitor 35 and the cathode terminal of the photodiode 36 decreases. When the power supply voltage VDD is applied to the voltage application line SDj connected to the drain terminal of the sensor preamplifier 37, the voltage at the connection node V is amplified and output from the source terminal of the sensor preamplifier 37 to the sensing data output line SPj. Based on the output voltage, the amount of light received by the optical sensor circuit 32 can be calculated.

次に、センサ内蔵液晶パネル301の周辺回路である、液晶パネル駆動回路304、光センサ駆動回路305、およびセンサ出力アンプ44について説明する。   Next, the liquid crystal panel drive circuit 304, the optical sensor drive circuit 305, and the sensor output amplifier 44, which are peripheral circuits of the sensor built-in liquid crystal panel 301, will be described.

液晶パネル駆動回路304は、画素回路31を駆動するための回路であり、走査信号線駆動回路3041およびデータ信号線駆動回路3042を含んでいる。   The liquid crystal panel drive circuit 304 is a circuit for driving the pixel circuit 31, and includes a scanning signal line drive circuit 3041 and a data signal line drive circuit 3042.

走査信号線駆動回路3041は、表示制御部601から受信したタイミング制御信号TC1に基づいて、1ライン時間毎に、走査信号線G1〜Gmの中から1本の走査信号線を順次選択し、該選択した走査信号線にハイレベル電圧を印加するとともに、その他の走査信号線にローレベル電圧を印加する。   The scanning signal line driving circuit 3041 sequentially selects one scanning signal line from the scanning signal lines G1 to Gm for each line time based on the timing control signal TC1 received from the display control unit 601, and A high level voltage is applied to the selected scanning signal line, and a low level voltage is applied to the other scanning signal lines.

データ信号線駆動回路3042は、表示制御部601から受信した表示データD(DR、DG、およびDB)に基づいて、1ライン時間毎に、1行分の表示データに対応する所定の電圧を、データ信号線SR1〜SRn、SG1〜SGn、SB1〜SBnに印加する(線順次方式)。なお、データ信号線駆動回路3042は、点順次方式で駆動するものであってもよい。   Based on the display data D (DR, DG, and DB) received from the display controller 601, the data signal line driver circuit 3042 generates a predetermined voltage corresponding to the display data for one row for each line time. The data signal lines SR1 to SRn, SG1 to SGn, and SB1 to SBn are applied (line sequential method). Note that the data signal line driver circuit 3042 may be driven by a dot sequential method.

光センサ駆動回路305は、光センサ回路32を駆動するための回路である。光センサ駆動回路305は、センサ制御部602から受信したタイミング制御信号TC2に基づいて、センサ読み出し信号線RW1〜RWmの中から、1ライン時間毎に1本ずつ選択したセンサ読み出し信号線に所定の読み出し用電圧を印加するとともに、その他のセンサ読み出し信号線には、所定の読み出し用電圧以外の電圧を印加する。また、同様に、タイミング制御信号TC2に基づいて、センサリセット信号線RS1〜RSmの中から、1ライン時間毎に1本ずつ選択したセンサリセット信号線に所定のリセット用電圧を印加するとともに、その他のセンサリセット信号線には、所定のリセット用電圧以外の電圧を印加する。   The optical sensor driving circuit 305 is a circuit for driving the optical sensor circuit 32. Based on the timing control signal TC2 received from the sensor control unit 602, the optical sensor driving circuit 305 selects a predetermined sensor readout signal line from the sensor readout signal lines RW1 to RWm for each line time. A read voltage is applied, and a voltage other than a predetermined read voltage is applied to the other sensor read signal lines. Similarly, based on the timing control signal TC2, a predetermined reset voltage is applied to the sensor reset signal line selected from the sensor reset signal lines RS1 to RSm for each line time, and the others. A voltage other than a predetermined reset voltage is applied to the sensor reset signal line.

センシングデータ出力信号線SP1〜SPnはp個(pは1以上n以下の整数)のグループにまとめられ、各グループに属するセンシングデータ出力信号線は、時分割で順次オン状態になるスイッチ47を介して、センサ出力アンプ44に接続される。センサ出力アンプ44は、スイッチ47により接続されたセンシングデータ出力信号線のグループからの電圧を増幅し、センサ出力信号SS(SS1〜SSp)として、信号変換回路306へ出力する。   The sensing data output signal lines SP1 to SPn are grouped into p groups (p is an integer of 1 to n), and the sensing data output signal lines belonging to each group are connected via a switch 47 that is sequentially turned on in time division. And connected to the sensor output amplifier 44. The sensor output amplifier 44 amplifies the voltage from the group of sensing data output signal lines connected by the switch 47 and outputs the amplified voltage to the signal conversion circuit 306 as sensor output signals SS (SS1 to SSp).

〔実施の形態1〕
本発明の一実施形態について、図1および図9から図15に基づいて説明すると以下の通りである。ここでは、データ表示/センサ装置100は、通信ネットワーク上のテレビ会議装置とテレビ会議を行なう機能を備えているケースを例に挙げて説明する。なお、本実施の形態に係るデータ表示/センサ装置100は、表示/光センサ部300を1つ備える構成であるが、複数備えていてもよい。
[Embodiment 1]
An embodiment of the present invention will be described below with reference to FIGS. 1 and 9 to 15. Here, a case where the data display / sensor device 100 has a function of performing a video conference with a video conference device on a communication network will be described as an example. Although the data display / sensor device 100 according to the present embodiment is configured to include one display / light sensor unit 300, a plurality of data display / sensor devices 100 may be provided.

図9を参照しながら、データ表示/センサ装置100、および、通信ネットワーク上のテレビ会議装置1030を含むテレビ会議システムの概略構成を説明する。図9は、当該テレビ会議システムの概略構成を示す模式図である。データ表示/センサ装置100およびテレビ会議装置1030は、それぞれ通信ネットワーク1020に通信可能に接続されており、一般的に知られている技術を用いて、相互にテレビ会議を行うことが可能であるものとする。そして、データ表示/センサ装置100に接続されている撮像装置1010にて撮像されたデータ表示/センサ装置100のユーザの映像等が、テレビ会議装置1030の表示部1031に表示され、逆に、テレビ会議装置1030に接続されている撮像装置1032にて撮像されたテレビ会議装置1030のユーザの映像等が、データ表示/センサ装置100のセンサ内蔵液晶パネル301に表示されるものとする。なお、テレビ会議装置1030には、各種データを格納するデータ記憶部1033を備えている。   A schematic configuration of a video conference system including the data display / sensor device 100 and a video conference device 1030 on a communication network will be described with reference to FIG. FIG. 9 is a schematic diagram showing a schematic configuration of the video conference system. The data display / sensor device 100 and the video conference device 1030 are communicably connected to the communication network 1020 and can perform a video conference with each other using a generally known technique. And Then, an image of the user of the data display / sensor device 100 captured by the imaging device 1010 connected to the data display / sensor device 100 is displayed on the display unit 1031 of the video conference device 1030, and conversely, the television It is assumed that the video of the user of the video conference device 1030 captured by the imaging device 1032 connected to the conference device 1030 is displayed on the sensor built-in liquid crystal panel 301 of the data display / sensor device 100. The video conference apparatus 1030 includes a data storage unit 1033 that stores various data.

上記構成を備えるテレビ会議システムにおいて、データ表示/センサ装置100とテレビ会議装置1030との間でテレビ会議が行なわれているときに、データ表示/センサ装置100のユーザが所持している資料を、データ表示/センサ装置100のセンサ内蔵液晶パネル301にてスキャンし、その結果として得られる画像データを、テレビ会議装置1030のユーザに送信するというケースを例に挙げて説明する。このとき、テレビ会議を行っている最中であるので、センサ内蔵液晶パネル301に表示している相手側(テレビ会議装置1030のユーザ)の映像等の表示を中断しないことが望ましい。   In the video conference system having the above-described configuration, when a video conference is being performed between the data display / sensor device 100 and the video conference device 1030, a document possessed by the user of the data display / sensor device 100 is obtained. A case will be described as an example in which scanning is performed by the sensor built-in liquid crystal panel 301 of the data display / sensor device 100 and the resulting image data is transmitted to the user of the video conference device 1030. At this time, since the video conference is being performed, it is desirable not to interrupt the display of the image or the like of the other party (the user of the video conference device 1030) displayed on the sensor built-in liquid crystal panel 301.

(データ表示/センサ装置を用いて対象物のスキャンを行う様子)
次に、図10から図12を参照しながら、データ表示/センサ装置100が、映像を表示したまま対象物のスキャンを行う処理の典型例について説明する。なお、ここでは、処理の概要について説明し、各処理の詳細については後述する。
(Data display / scanning object using sensor device)
Next, a typical example of processing in which the data display / sensor device 100 scans an object while displaying an image will be described with reference to FIGS. Here, an outline of the processing will be described, and details of each processing will be described later.

まず、図10を参照しながら、スキャンを行なう対象物について具体例に説明する。図示のように、ここでは、スキャンを行なう対象物として、文字や図表などが記された資料Pを想定している。図10(a)は、資料Pの表面を示した図である。資料Pの表面には、文字や図表が記載されている。なお、資料Pをスキャンする際は、資料Pの表面をスキャンするものとする。図10(b)は、資料Pの裏面を示した図である。   First, a specific example of an object to be scanned will be described with reference to FIG. As shown in the figure, here, a material P on which characters, diagrams, etc. are written is assumed as an object to be scanned. FIG. 10A is a diagram showing the surface of the material P. FIG. On the surface of the material P, letters and diagrams are written. Note that when the material P is scanned, the surface of the material P is scanned. FIG. 10B is a diagram showing the back surface of the material P.

次に、図11および図12を参照しながら、データ表示/センサ装置100を用いて、映像を表示したまま資料Pをスキャンする様子について説明する。   Next, with reference to FIG. 11 and FIG. 12, a state in which the data P is scanned while the video is displayed using the data display / sensor device 100 will be described.

まず、図11(a)は、センサ内蔵液晶パネル301に、テレビ会議の相手側(テレビ会議装置1030のユーザ)の映像を表示している様子を示す図である。   First, FIG. 11A is a diagram showing a state in which an image of the other party of the video conference (user of the video conference device 1030) is displayed on the sensor built-in liquid crystal panel 301. FIG.

次に、図11(b)は、ユーザが、資料Pをスキャンすることを目的として、センサ内蔵液晶パネル301に、資料Pを載置した様子を示す図である。なお、資料Pの表面をスキャンするために、資料Pの表面をセンサ内蔵液晶パネル301に向けた状態で載置している。よって、データ表示/センサ装置100のユーザには、図示のとおり、資料Pの裏面が見えている状態である。   Next, FIG. 11B is a diagram illustrating a state in which the user places the material P on the sensor built-in liquid crystal panel 301 for the purpose of scanning the material P. In addition, in order to scan the surface of the material P, the surface of the material P is placed with the surface facing the liquid crystal panel 301 with a built-in sensor. Therefore, the user of the data display / sensor device 100 is in a state where the back surface of the material P is visible as illustrated.

次に、図11(c)は、データ表示/センサ装置100が、資料Pが載置されたことを検知し、資料Pの載置領域およびその近傍を、白色などの単一色に表示した様子を示す図である。図示のとおり、資料Pの、載置領域およびその近傍(領域SAとする)では、テレビ会議の相手側の映像を表示せず、単一色で表示する。   Next, FIG. 11C shows that the data display / sensor device 100 detects that the material P is placed and displays the placement region of the material P and its vicinity in a single color such as white. FIG. As shown in the drawing, in the placement area of material P and in the vicinity thereof (referred to as area SA), the video of the other party of the video conference is not displayed, but is displayed in a single color.

なお、上記近傍として、どの程度の領域を割り当てるかは、予め定められているものとする。また、近傍の領域が割り当てられていない場合、載置領域のみを単一色で表示すればよい。   It is assumed that how much area is allocated as the neighborhood is determined in advance. In addition, when a nearby area is not assigned, only the placement area may be displayed in a single color.

そして、領域SAを単一色で表示した状態で、資料Pの表面のスキャンが実行される。このように、載置領域およびその近傍を単一色で表示しておくことにより、テレビ会議の相手側の映像の影響を受けることなく、資料Pのスキャンを実行することができ、スキャンの精度を高めることができる。   Then, the surface of the material P is scanned with the area SA displayed in a single color. Thus, by displaying the placement area and its vicinity in a single color, it is possible to scan the material P without being influenced by the video of the other party of the video conference, and to improve the scanning accuracy. Can be increased.

また、対象物の載置領域およびその近傍以外は、テレビ会議の相手側の映像を表示したままであるので、ユーザは、テレビ会議の相手側の映像を見ながら、資料Pのスキャンを実行することができる。   Since the video of the other party of the video conference is still displayed except for the area where the object is placed and the vicinity thereof, the user scans the material P while viewing the video of the other party of the video conference. be able to.

次に、図11(d)は、図11(c)で示す状態において資料Pをスキャンした結果として得られる画像データであるスキャンデータSCDを、テレビ会議の相手側の映像に重畳して表示した様子を示す図である。このとき、領域SAと重ならない位置にスキャンデータSCDを表示している。   Next, FIG. 11D shows the scan data SCD, which is image data obtained as a result of scanning the material P in the state shown in FIG. 11C, superimposed on the video of the other party of the video conference. It is a figure which shows a mode. At this time, the scan data SCD is displayed at a position that does not overlap the area SA.

なお、資料Pの表面をスキャンしているので、スキャンデータSCDは、資料Pの表面の画像データである。   Since the surface of the material P is scanned, the scan data SCD is image data of the surface of the material P.

また、対象物をスキャンした場合、一般的には、対象物のスキャンした面と鏡像の関係にある画像データが得られるので、当該得られた画像データを、一般的に知られている手法により鏡像反転した画像データを、表示および記憶している。   When an object is scanned, generally, image data having a mirror image relationship with the scanned surface of the object is obtained, and thus the obtained image data is obtained by a generally known method. The mirrored image data is displayed and stored.

次に、図11(e)は、資料Pのスキャンが終了した後、ユーザが、資料Pをセンサ内蔵液晶パネル301から取り除いた様子を示す図である。図示のとおり、領域SAでは、単一色での表示を中止し、テレビ会議の相手側の映像を表示している。   Next, FIG. 11E is a diagram illustrating a state where the user removes the material P from the sensor built-in liquid crystal panel 301 after the scanning of the material P is completed. As shown in the figure, in the area SA, the display in the single color is stopped and the video of the other party of the video conference is displayed.

次に、図11(f)は、図11(e)の状態から、ユーザが、手FでスキャンデータSCDをドラッグする等により移動させて、スキャンデータSCDの表示位置を変更した様子を示す図である。このように、スキャンデータSCDは、センサ内蔵液晶パネル301上の任意の位置に移動させることができる。   Next, FIG. 11 (f) is a diagram showing a state in which the display position of the scan data SCD is changed by the user moving the scan data SCD with the hand F by dragging the hand F from the state of FIG. 11 (e). It is. Thus, the scan data SCD can be moved to an arbitrary position on the sensor built-in liquid crystal panel 301.

次に、図12は、所定のユーザ操作をトリガとして、スキャンデータSCDを、テレビ会議の相手側の装置(テレビ会議装置1030)に転送する様子を示した図である。ここでは、図11(d)に示した状態において、スキャンデータSCDをテレビ会議装置1030に転送するユーザ操作が行われたものとする。このとき、スキャンデータSCDは、通信ネットワーク1020を介して、テレビ会議装置1030のデータ記憶部1033に格納された後、テレビ会議装置1030の表示部1031に表示されている。   Next, FIG. 12 is a diagram illustrating a state in which the scan data SCD is transferred to a device (video conference device 1030) on the other side of the video conference using a predetermined user operation as a trigger. Here, it is assumed that a user operation for transferring the scan data SCD to the video conference device 1030 is performed in the state shown in FIG. At this time, the scan data SCD is stored in the data storage unit 1033 of the video conference device 1030 via the communication network 1020 and then displayed on the display unit 1031 of the video conference device 1030.

(載置領域およびその近傍)
次に、図13を参照しながら、載置領域およびその近傍の一例について説明する。図13は、載置領域およびその近傍の一例を示す模式図である。なお、ここでは、対象物である資料Pの形状が矩形であって、横長がXであり、縦長がYであるものとする。
(Mounting area and its vicinity)
Next, an example of the placement area and the vicinity thereof will be described with reference to FIG. FIG. 13 is a schematic diagram illustrating an example of the placement area and the vicinity thereof. Here, it is assumed that the shape of the material P, which is the object, is a rectangle, the horizontal length is X, and the vertical length is Y.

まず、センサ内蔵液晶パネル301における領域RAが、資料Pの載置領域である。領域RAは資料Pと同じ形状であるから、横長がXであり縦長がYである矩形である。   First, an area RA in the sensor built-in liquid crystal panel 301 is an area on which the material P is placed. Since the region RA has the same shape as the material P, the region RA is a rectangle whose horizontal length is X and whose vertical length is Y.

そして、載置領域の近傍は、載置領域の外側の領域であって、載置領域の外縁から所定範囲の領域であるから、当該所定範囲の長さをWとすると、横長がX+2Wであり縦長がY+2Wである矩形領域SAが、載置領域およびその近傍となる。   The vicinity of the placement area is an area outside the placement area, and is an area within a predetermined range from the outer edge of the placement area. If the length of the predetermined range is W, the lateral length is X + 2W. A rectangular area SA having a vertically long Y + 2W is a placement area and its vicinity.

なお、Wの値は、予め定められていてもよいし、ユーザ設定可能になっていてもよい。また、対象物の形状は矩形に限られない。そのため、領域RAおよび領域SAの形状も矩形に限られず、対処物の形状に応じた形状となる。   Note that the value of W may be determined in advance or may be set by the user. Further, the shape of the object is not limited to a rectangle. For this reason, the shapes of the region RA and the region SA are not limited to rectangles, and are shapes corresponding to the shapes of the countermeasures.

(データ表示/センサ装置のより詳細な構成)
次に、図1を参照しながら、データ表示/センサ装置100のより詳細な構成について説明する。なお、ここでは、説明を分かりやすくするために、主制御部800と表示/光センサ部300との間に位置するデータ処理部700および回路制御部600の動作については説明を省略する。ただし、正確には、データの表示および対象物のスキャンを行うにあたり、主制御部800の各部が、データ処理部700にコマンドを送信し、データ処理部700がコマンドに基づいて回路制御部600を制御し、回路制御部600が表示/光センサ部300に対して信号を送信する。また、主制御部800は、データ処理部700に対して送信したコマンドに対する応答として、データ処理部700から、全体画像データ、部分画像データ、および座標データを取得する。
(Data display / more detailed configuration of sensor device)
Next, a more detailed configuration of the data display / sensor device 100 will be described with reference to FIG. Here, in order to make the description easy to understand, the description of the operations of the data processing unit 700 and the circuit control unit 600 located between the main control unit 800 and the display / light sensor unit 300 is omitted. However, to be precise, when displaying data and scanning an object, each unit of the main control unit 800 transmits a command to the data processing unit 700, and the data processing unit 700 sets the circuit control unit 600 based on the command. Then, the circuit control unit 600 transmits a signal to the display / light sensor unit 300. Further, the main control unit 800 acquires the entire image data, the partial image data, and the coordinate data from the data processing unit 700 as a response to the command transmitted to the data processing unit 700.

図1は、データ表示/センサ装置100のより詳細な構成を示すブロック図である。図示のように、記憶部901は、表示色情報記憶部21およびスキャンデータ記憶部22を含んでいる。   FIG. 1 is a block diagram showing a more detailed configuration of the data display / sensor device 100. As illustrated, the storage unit 901 includes a display color information storage unit 21 and a scan data storage unit 22.

表示色情報記憶部21は、載置領域およびその近傍の領域に表示する単一色を特定可能な色情報を予め記憶するものである。なお、ここでは、単一色として、特に、白、赤、緑、青などを想定している。表示色情報記憶部21に記憶する色情報は、単一色を特定可能な情報であれば、特に限定されない。例えば、R値、G値、B値の組(例えば、「255、255、255」)などを記憶しておいてもよい。なお、上記色情報は、予め定められていてもよいし、ユーザ設定可能になっていてもよい。   The display color information storage unit 21 stores in advance color information capable of specifying a single color to be displayed in the placement area and its neighboring areas. Here, in particular, white, red, green, blue, and the like are assumed as single colors. The color information stored in the display color information storage unit 21 is not particularly limited as long as it is information that can specify a single color. For example, a set of R value, G value, B value (for example, “255, 255, 255”) may be stored. The color information may be determined in advance or may be set by the user.

スキャンデータ記憶部22は、対象物のスキャンデータを、読み出し可能な状態で記憶するものである。なお、スキャンデータを読み出し可能とするために、スキャンデータは、識別情報を対応付けた状態でスキャンデータ記憶部22に記憶されることが望ましい。上記識別情報とは、スキャンデータを一意に特定可能なものであればよく、例えば、格納日時などを含んだ情報が挙げられる。   The scan data storage unit 22 stores scan data of an object in a readable state. In order to be able to read the scan data, it is desirable that the scan data is stored in the scan data storage unit 22 in association with the identification information. The identification information may be any information that can uniquely specify scan data, and includes information including a storage date and time, for example.

次に、主制御部800について説明する。図示のように、主制御部800は、対象物スキャン処理部、表示データ生成部15、データ転送処理部17、およびテレビ会議通信処理部19を含んでいる。   Next, the main control unit 800 will be described. As illustrated, the main control unit 800 includes an object scan processing unit, a display data generation unit 15, a data transfer processing unit 17, and a video conference communication processing unit 19.

まず、対象物スキャン処理部13について説明する。対象物スキャン処理部13は、センサ内蔵液晶パネル301上に載置された対象物のスキャンを行ない、スキャンデータをセンサ内蔵液晶パネル301に表示させるものである。そのために、対象物スキャン処理部は、対象物検知部131、載置領域情報保持部132、単一色表示制御部133、対象物スキャン実行部134、スキャンデータ保持部135、スキャンデータ表示制御部136、およびスキャンデータ格納部137を含んでいる。   First, the object scan processing unit 13 will be described. The object scan processing unit 13 scans the object placed on the sensor built-in liquid crystal panel 301 and displays the scan data on the sensor built-in liquid crystal panel 301. For this purpose, the object scan processing unit includes an object detection unit 131, a placement area information holding unit 132, a single color display control unit 133, an object scan execution unit 134, a scan data holding unit 135, and a scan data display control unit 136. And a scan data storage unit 137.

対象物検知部131は、まず、対象物がセンサ内蔵液晶パネル301上に載置されたこと、および、対象物がセンサ内蔵液晶パネル301上から取り除かれたことを検知する。   The object detection unit 131 first detects that the object has been placed on the sensor built-in liquid crystal panel 301 and that the object has been removed from the sensor built in liquid crystal panel 301.

上記検知は、所定周期で、センサ内蔵液晶パネル301の全体をスキャンさせ、その結果として得られる画像データ(つまり、データ処理部700から所定周期で得られる全体画像データ)のうち、時間的に連続して得られる2つの画像データの差分を調べることにより行なう。   The detection is performed by scanning the entire sensor-equipped liquid crystal panel 301 at a predetermined cycle, and continuous in time among image data obtained as a result (that is, the entire image data obtained from the data processing unit 700 at a predetermined cycle). This is done by examining the difference between the two image data obtained in this way.

ここで、センサ内蔵液晶パネル301に対象物が載置されていない場合は、対象物の反射像が検知されることは無いため、例えば図7(a)で示したように、上記得られる画像データの各画素値の明度は、ほぼ一定である。なお、センサ内蔵液晶パネル301に映像等が表示されているときであっても、対象物が載置されていない場合は、当該映像等の反射像が検知されることは無いと考えてよい。一方、センサ内蔵液晶パネル301に対象物が載置されている場合は、対象物の反射像が検知されるため、例えば図7(b)で示したように、対象物が載置された部分の画素値の明度は変化している。   Here, when the object is not placed on the sensor built-in liquid crystal panel 301, the reflected image of the object is not detected. For example, as shown in FIG. The brightness of each pixel value of the data is almost constant. Even when an image or the like is displayed on the sensor built-in liquid crystal panel 301, it may be considered that a reflected image of the image or the like is not detected when an object is not placed. On the other hand, when the object is placed on the sensor built-in liquid crystal panel 301, a reflected image of the object is detected. For example, as shown in FIG. 7B, the part where the object is placed. The brightness of the pixel value of is changed.

したがって、所定周期で得られる全体画像データのうち、時間的に連続して得られる2つの画像データを比較したとき、時間的に前の画像データに、画素値の明度が所定閾値以上変化した領域が存在せず、かつ、時間的に後の画像データに、画素値の明度が所定閾値以上変化した領域が存在する場合、対象物検知部131は、センサ内蔵液晶パネル301に対象物が載置されたことがわかる。   Accordingly, when two pieces of image data obtained in succession in time among the whole image data obtained in a predetermined cycle are compared, a region in which the brightness of the pixel value has changed by a predetermined threshold or more in the previous image data in time And the object detection unit 131 places the object on the sensor-equipped liquid crystal panel 301 when there is an area in which the brightness of the pixel value has changed by a predetermined threshold value or more in the image data after time. You can see that

また、時間的に前の画像データに、画素値の明度が所定閾値以上変化している領域が存在し、かつ、時間的に後の画像データに、画素値の明度が所定閾値以上変化している領域が存在しない場合、対象物検知部131は、センサ内蔵液晶パネル301から対象物が取り除かれたことがわかる。   In addition, there is a region in which the brightness of the pixel value changes by a predetermined threshold or more in the temporally previous image data, and the brightness of the pixel value changes by a predetermined threshold or more in the temporally subsequent image data. When there is no area, the object detection unit 131 knows that the object has been removed from the sensor-equipped liquid crystal panel 301.

なお、対象物検知部131は、センサ制御部602が生成する画像データに変化が生じたタイミングでデータ処理部700から送信される部分画像データを取得することによって、対象物がセンサ内蔵液晶パネル301上に載置されたことを検知してもよい。   Note that the object detection unit 131 acquires the partial image data transmitted from the data processing unit 700 at a timing when the image data generated by the sensor control unit 602 changes, so that the object is a liquid crystal panel 301 with a built-in sensor. You may detect having mounted on the top.

次に、対象物検知部131は、対象物がセンサ内蔵液晶パネル301上に載置されたことを検知した後、載置領域を認識し、当該認識した認識領域を表す情報(以下、載置領域情報)を取得し、該取得した載置領域情報を載置領域情報保持部132に読み出し可能に保持させる。   Next, the object detection unit 131 recognizes that the object has been placed on the sensor built-in liquid crystal panel 301, recognizes the placement area, and represents the recognized recognition area (hereinafter referred to as placement). Area information) is acquired, and the acquired placement area information is held in the placement area information holding unit 132 in a readable manner.

載置領域情報は、例えば、載置領域の画像データそのもの、載置領域の形状を示すデータ(例えば、載置領域の外縁上の特徴点となる座標など)、載置領域の代表座標(例えば、中心座標や重心座標)など、または、それらの組合せである。   The placement area information includes, for example, image data of the placement area itself, data indicating the shape of the placement area (for example, coordinates serving as feature points on the outer edge of the placement area), representative coordinates of the placement area (for example, , Center coordinates and barycentric coordinates), or a combination thereof.

載置領域の画像データは、全体画像データから、画素値の明度が所定閾値以上変化している領域を抽出することによって取得することができる。また、上記載置領域の形状を示すデータや、載置領域の代表座標は、載置領域の画像データを一般的な手法で画像解析することによって、取得することができる。なお、載置領域が矩形である場合、載置領域の形状を示すデータは、例えば、当該矩形の4頂点の座標データである。   The image data of the placement area can be acquired by extracting an area where the brightness of the pixel value is changed by a predetermined threshold or more from the entire image data. Further, the data indicating the shape of the placement area and the representative coordinates of the placement area can be obtained by image analysis of the placement area image data by a general method. When the placement area is a rectangle, the data indicating the shape of the placement area is, for example, coordinate data of four vertices of the rectangle.

なお、載置領域情報を取得するタイミングは、(1)対象物検知部131は、対象物がセンサ内蔵液晶パネル301上に載置されたことを検知したことをトリガとして、直ちに、載置領域情報の取得を行なってもよいし、(2)対象物がセンサ内蔵液晶パネル301上に載置された状態で所定時間(T1とする)経過後に、載置領域情報の取得を行なってもよい。対象物を載置し始めてから載置し終わるまでに所定の時間を要する場合、対象物がセンサ内蔵液晶パネル301上に載置されたことを検知してから所定時間T1(例えば数秒)経過後に、載置領域情報の取得を行なうことが望ましい。   Note that the timing for acquiring the placement area information is as follows: (1) The object detection unit 131 immediately detects that the object has been placed on the sensor built-in liquid crystal panel 301 as a trigger. Information may be acquired, or (2) placement area information may be obtained after a predetermined time (T1) has elapsed while the object is placed on the sensor built-in liquid crystal panel 301. . When a predetermined time is required from the start of placing the object to the end of placement, after a predetermined time T1 (for example, several seconds) has elapsed since it was detected that the object was placed on the sensor built-in liquid crystal panel 301 It is desirable to acquire the placement area information.

なお、所定周期で取得している全体画像データにおける、画素値の明度が所定閾値以上変化している領域の位置および大きさが、所定時間T1の間、変化していないとき、対象物がセンサ内蔵液晶パネル301上に載置された状態で所定時間T1が経過したと判定する。   When the position and size of the region in which the brightness of the pixel value has changed by a predetermined threshold or more in the entire image data acquired at a predetermined cycle has not changed for a predetermined time T1, the object is a sensor. It is determined that the predetermined time T1 has elapsed while being placed on the built-in liquid crystal panel 301.

また、対象物がセンサ内蔵液晶パネル301上に載置された後、ユーザ操作をトリガとして、載置領域情報の取得を行なってもよい。   Further, after the object is placed on the sensor built-in liquid crystal panel 301, the placement area information may be acquired using a user operation as a trigger.

なお、対象物検知部131による、対象物がセンサ内蔵液晶パネル301上に載置されたことの検知は、所定のユーザ操作(例えば、操作部903を介して行なわれる所定のボタン押下など)をトリガとして開始されてもよい。   Note that the detection by the object detection unit 131 that the object is placed on the sensor built-in liquid crystal panel 301 is performed by a predetermined user operation (for example, a predetermined button pressed through the operation unit 903). It may be started as a trigger.

次に、単一色表示制御部133について説明する。単一色表示制御部133は、所定トリガに応じて、センサ内蔵液晶パネル301における載置領域およびその近傍を単一色で表示するように制御する。上記所定トリガは、対象物の読み取りが指示されたことを示すものであれば特に限定されない。例えば、(1)対象物検知部131が、載置領域情報を載置領域情報保持部132に保持させたことを上記所定トリガとしてもよいし、(2)ユーザが、操作部903を介して、対象物の読み取りを指示したことを上記所定トリガとしてもよい。   Next, the single color display control unit 133 will be described. The single color display control unit 133 controls to display the placement area and its vicinity in the sensor built-in liquid crystal panel 301 in a single color according to a predetermined trigger. The predetermined trigger is not particularly limited as long as it indicates that reading of an object has been instructed. For example, (1) the object detection unit 131 may hold the placement region information in the placement region information holding unit 132 as the predetermined trigger, or (2) the user via the operation unit 903 The predetermined trigger may be an instruction to read an object.

そのために、単一色表示制御部133は、まず、表示色情報記憶部21に予め設定されている色情報を読み出す。次に、載置領域情報保持部132から載置領域情報を読み出し、該読み出した載置領域情報に基づいて載置領域を算出するとともに、載置領域の近傍を算出する。   For this purpose, the single color display control unit 133 first reads color information preset in the display color information storage unit 21. Next, the placement area information is read from the placement area information holding unit 132, the placement area is calculated based on the read placement area information, and the vicinity of the placement area is calculated.

その後、単一色表示制御部133は、上記算出した載置領域およびその近傍を、表示色情報記憶部21から読み出した色情報に基づく単一色で表示する指示を、表示データ生成部15に通知する。   Thereafter, the single color display control unit 133 notifies the display data generation unit 15 of an instruction to display the calculated placement area and its vicinity in a single color based on the color information read from the display color information storage unit 21. .

なお、上記近傍とは、載置領域の外側の領域であって、載置領域の外縁から所定範囲の領域である。当該所定範囲は、予め定められていてもよいし、ユーザ設定可能になっていてもよい。   Note that the above-mentioned vicinity is a region outside the placement region and is a region within a predetermined range from the outer edge of the placement region. The predetermined range may be determined in advance, or may be settable by the user.

また、単一色表示制御部133は、(1)対象物検知部131が、対象物がセンサ内蔵液晶パネル301上から取り除かれたことを検知したこと、または、(2)対象物スキャン実行部134が、スキャンデータを、スキャンデータ保持部135に保持させたことをトリガとして、載置領域およびその近傍の単一色での表示を中止する指示を、表示データ生成部15に通知する。   In addition, the single color display control unit 133 (1) the object detection unit 131 detects that the object has been removed from the sensor built-in liquid crystal panel 301, or (2) the object scan execution unit 134. However, the display data generation unit 15 is notified of an instruction to stop the display of the placement area and the vicinity thereof in a single color using the scan data holding unit 135 as a trigger.

次に、対象物スキャン実行部134について説明する。対象物スキャン実行部134は、単一色表示制御部133が、載置領域およびその近傍を単一色で表示する指示を、表示データ生成部15に通知したことをトリガとして、センサ内蔵液晶パネル301にスキャンを実行させる。そして、その応答としてデータ処理部700から全体画像データを取得すると、該取得した全体画像データにおける、対象物の領域部分の画像データを抽出する。なお、対象物スキャン実行部134は、載置領域情報保持部132から載置領域情報を読み出し、当該読み出した載置領域情報に基づいて、上記対象物の領域を決定する。   Next, the object scan execution unit 134 will be described. The object scan execution unit 134 uses the single-color display control unit 133 as a trigger to notify the display data generation unit 15 of an instruction to display the placement area and the vicinity thereof in a single color. Run a scan. Then, when the entire image data is acquired from the data processing unit 700 as a response, the image data of the region portion of the object in the acquired entire image data is extracted. The object scan execution unit 134 reads the placement area information from the placement area information holding unit 132, and determines the area of the object based on the read placement area information.

そして、対象物スキャン実行部134は、上記抽出した画像データをスキャンデータとして、スキャンデータ保持部135に読み出し可能に保持させる。   Then, the object scan execution unit 134 causes the scan data holding unit 135 to hold the extracted image data as scan data in a readable manner.

ここで、光センサの特性が赤色に対して感度が高い場合は、載置領域およびその近傍に表示している単一色を赤にして、得られた赤単色の画像を緑、青にも適用・合成することで、精度の高いモノクロ画像の取得が可能になる。光センサの特性が緑、あるいは青に対する感度が高い場合も同様である。   Here, when the characteristics of the photosensor are high in sensitivity to red, the single color displayed in the mounting area and its vicinity is set to red, and the obtained single red image is applied to green and blue.・ By combining, it is possible to obtain highly accurate monochrome images. The same applies when the characteristics of the optical sensor are high in sensitivity to green or blue.

なお、上記抽出した画像データを鏡像反転したものをスキャンデータとしてスキャンデータ保持部135に保持してもよいし、この時点では、鏡像反転せずにスキャンデータ保持部135に保持してもよい。   Note that the image data obtained by mirror-inversion of the extracted image data may be held in the scan data holding unit 135 as scan data, or at this time, it may be held in the scan data holding unit 135 without being mirror-inverted.

次に、スキャンデータ表示制御部136について説明する。スキャンデータ表示制御部136は、スキャンデータの表示、および、ユーザの移動操作に応じたスキャンデータの再表示、ユーザの非表示操作に応じたスキャンデータの非表示を制御する。   Next, the scan data display control unit 136 will be described. The scan data display control unit 136 controls the display of the scan data, the redisplay of the scan data according to the user's movement operation, and the non-display of the scan data according to the user's non-display operation.

スキャンデータ表示制御部136は、スキャンデータ保持部135に保持されている最新のスキャンデータを読み出し、当該読み出したスキャンデータをセンサ内蔵液晶パネル301に表示させる指示を、表示データ生成部15に通知する。このとき、スキャンデータ表示制御部136は、載置領域情報保持部132から載置領域情報を読み出し、当該読み出した載置領域情報に基づいて、載置領域と重ならないようにスキャンデータを表示可能な位置を算出し、当該位置にスキャンデータを表示させる指示を、表示データ生成部15に通知する。なお、ユーザがスキャンデータを確認しやすくするために、スキャンデータの表示領域と載置領域との距離は、できるだけ近い方が望ましい。   The scan data display control unit 136 reads the latest scan data held in the scan data holding unit 135 and notifies the display data generation unit 15 of an instruction to display the read scan data on the sensor built-in liquid crystal panel 301. . At this time, the scan data display control unit 136 reads the placement area information from the placement area information holding unit 132 and can display the scan data so as not to overlap the placement area based on the read placement area information. The display data generation unit 15 is notified of an instruction to calculate a correct position and display the scan data at the position. In order to make it easier for the user to check the scan data, the distance between the scan data display area and the placement area is preferably as short as possible.

また、対象物検知部131が、センサ内蔵液晶パネル301から対象物が取り除かれたことを検知した場合、スキャンデータ表示制御部136は、載置領域にスキャンデータを表示し直してもよい。この場合、スキャンデータ表示制御部136は、載置領域情報保持部132から載置領域情報を読み出し、当該読み出した載置領域情報で示される載置領域にスキャンデータを表示させる指示を、表示データ生成部15に通知する。併せて、載置領域にスキャンデータを表示し直す前にスキャンデータを表示していた領域の表示を、当該領域にスキャンデータを表示する前の状態に戻す指示を、表示データ生成部15に通知する。   When the object detection unit 131 detects that the object has been removed from the sensor built-in liquid crystal panel 301, the scan data display control unit 136 may display the scan data again in the placement area. In this case, the scan data display control unit 136 reads the placement area information from the placement area information holding unit 132 and displays an instruction to display the scan data on the placement area indicated by the read placement area information. Notify the generation unit 15. At the same time, the display data generation unit 15 is instructed to return the display of the area where the scan data was displayed before the scan data is displayed again to the placement area to the state before the scan data is displayed in the area. To do.

なお、スキャンデータ保持部135に保持されているスキャンデータが鏡像反転された状態のものでない場合、スキャンデータ表示制御部136は、スキャンデータ保持部135に保持されているスキャンデータを読み出した後、当該読み出したスキャンデータを、一般的な画像処理により鏡像反転させ、当該鏡像反転させたスキャンデータをセンサ内蔵液晶パネル301に表示させる指示を、表示データ生成部15に通知する。   When the scan data held in the scan data holding unit 135 is not in a mirror image inverted state, the scan data display control unit 136 reads the scan data held in the scan data holding unit 135, and The display data generation unit 15 is notified of an instruction to reverse the mirror image of the read scan data by general image processing, and to display the mirror-inverted scan data on the sensor built-in liquid crystal panel 301.

次に、スキャンデータ表示制御部136は、センサ内蔵液晶パネル301に表示されているスキャンデータを移動させるユーザ操作が行われたことを検知すると、当該ユーザ操作に従って、スキャンデータを表示しなおす指示を、表示データ生成部15に通知する。なお、当該ユーザ操作は、ユーザがスキャンデータを指やペンなどでタッチした状態から、センサ内蔵液晶パネル301上を指やペンなどでなぞることによって行なうことを想定している。   Next, when the scan data display control unit 136 detects that a user operation for moving the scan data displayed on the sensor built-in liquid crystal panel 301 is performed, the scan data display control unit 136 instructs the scan data to be displayed again according to the user operation. The display data generation unit 15 is notified. It is assumed that the user operation is performed by tracing the sensor built-in liquid crystal panel 301 with a finger or a pen from a state in which the user touches the scan data with a finger or a pen.

ここで、ユーザが、センサ内蔵液晶パネル301上を指やペンなどでタッチしたとき、光センサ回路32が、指やペンなどの反射像を検知するので、その結果として、データ処理部700から、上記タッチした位置を示す座標データを取得することができる。したがって、上記取得した座標データで示される位置が、センサ内蔵液晶パネル301にスキャンデータを表示している領域内にある場合、ユーザがスキャンデータをタッチしたことがわかる。   Here, when the user touches the sensor built-in liquid crystal panel 301 with a finger, a pen, or the like, the optical sensor circuit 32 detects a reflected image of the finger, the pen, or the like. Coordinate data indicating the touched position can be acquired. Therefore, when the position indicated by the acquired coordinate data is within the area where the scan data is displayed on the sensor built-in liquid crystal panel 301, it is understood that the user has touched the scan data.

そして、データ処理部700から、ユーザの指やペンなどの座標データを取得するようにしておけば、スキャンデータを移動させるユーザ操作(スキャンデータを指やペンなどでタッチした状態からセンサ内蔵液晶パネル301上をなぞる操作)が行なわれている期間に取得した座標データに基づいて、スキャンデータの移動先の位置を求めることができる。   If coordinate data such as a user's finger or pen is acquired from the data processing unit 700, a user operation for moving scan data (a liquid crystal panel with a built-in sensor from a state in which the scan data is touched with a finger or pen) Based on the coordinate data acquired during the period during which the operation 301 is performed), the position to which the scan data is moved can be obtained.

したがって、スキャンデータ表示制御部136は、直前にスキャンデータを表示させた位置から、上記移動先の位置に、スキャンデータを表示しなおす指示を、表示データ生成部15に通知する。   Therefore, the scan data display control unit 136 notifies the display data generation unit 15 of an instruction to redisplay the scan data from the position where the scan data was displayed immediately before to the position of the movement destination.

次に、スキャンデータ格納部137について説明する。スキャンデータ格納部137は、スキャンデータを格納するユーザ操作が行なわれたことをトリガとして、スキャンデータ保持部135に保持されているスキャンデータを、スキャンデータ記憶部22に格納する。なお、スキャンデータ格納部137は、スキャンデータと、当該スキャンデータの識別情報とを対応付けた状態でスキャンデータ記憶部22に格納することが望ましい。上記識別情報とは、スキャンデータを一意に識別するものであって、スキャンデータ記憶部22からスキャンデータを読み出す際に、スキャンデータを特定可能なものであればよく、例えば、格納日時などを含むものが挙げられる。   Next, the scan data storage unit 137 will be described. The scan data storage unit 137 stores the scan data held in the scan data holding unit 135 in the scan data storage unit 22 triggered by a user operation for storing the scan data. The scan data storage unit 137 desirably stores the scan data and the identification information of the scan data in the scan data storage unit 22 in a state of being associated with each other. The identification information uniquely identifies the scan data, and may be any information that can identify the scan data when reading the scan data from the scan data storage unit 22, and includes, for example, the storage date and time. Things.

なお、スキャンデータ保持部135に保持されているスキャンデータが鏡像反転された状態のものでない場合、スキャンデータ格納部137は、スキャンデータ保持部135に保持されているスキャンデータを読み出した後、当該読み出したスキャンデータを、一般的な画像処理にて鏡像反転させ、当該鏡像反転させたスキャンデータを、スキャンデータ記憶部22に格納する。   If the scan data held in the scan data holding unit 135 is not in a mirror image inverted state, the scan data storage unit 137 reads the scan data held in the scan data holding unit 135 and then The read scan data is mirror-inverted by general image processing, and the scan data that has been mirror-inverted is stored in the scan data storage unit 22.

次に、表示データ生成部15について説明する。表示データ生成部15は、多地点接続送信部11から受信する映像をセンサ内蔵液晶パネル301に表示させるとともに、対象物スキャン処理部13からの指示に応じて、載置領域およびその近傍を単一色で表示させたり、スキャンデータをセンサ内蔵液晶パネル301に表示させるように、表示データを生成し、該生成した表示データをデータ処理部700に送信する。   Next, the display data generation unit 15 will be described. The display data generation unit 15 displays the image received from the multipoint connection transmission unit 11 on the sensor built-in liquid crystal panel 301, and in accordance with an instruction from the object scan processing unit 13, the placement area and its vicinity are displayed in a single color. Display data is generated so that the display data is displayed on the display or the scan data is displayed on the sensor built-in liquid crystal panel 301, and the generated display data is transmitted to the data processing unit 700.

まず、対象物スキャン処理部13からの指示が無く、多地点接続送信部11から映像データを受信しているのみの場合、表示データ生成部15は、該受信した映像データをセンサ内蔵液晶パネル301に表示させる表示データを生成し、該生成した表示データをデータ処理部700に送信する。   First, when there is no instruction from the object scan processing unit 13 and only video data is received from the multipoint connection transmission unit 11, the display data generation unit 15 displays the received video data on the sensor built-in liquid crystal panel 301. Display data to be displayed is generated, and the generated display data is transmitted to the data processing unit 700.

次に、対象物スキャン処理部13の単一色表示制御部133から載置領域およびその近傍を単一色で表示する指示を受け付けたとき、表示データ生成部15は、当該指示に基づいて、載置領域およびその近傍を単一色で表示する表示データを生成し、該生成した表示データをデータ処理部700に送信する。なお、多地点接続送信部11から映像データを受信しているときは、載置領域およびその近傍のみを単一色で表示し、その他の領域には当該映像データを表示するような表示データを生成し、該生成した表示データをデータ処理部700に送信する。   Next, when an instruction to display the placement area and its vicinity in a single color is received from the single color display control unit 133 of the object scan processing unit 13, the display data generation unit 15 places the placement area on the basis of the instruction. Display data for displaying the region and its vicinity in a single color is generated, and the generated display data is transmitted to the data processing unit 700. When video data is received from the multipoint connection transmission unit 11, only the placement area and its vicinity are displayed in a single color, and display data is generated to display the video data in the other areas. Then, the generated display data is transmitted to the data processing unit 700.

なお、表示データ生成部15は、単一色表示制御部133から載置領域およびその近傍の単一色での表示を中止する指示を受け付けるまで、載置領域およびその近傍を単一色で表示する表示データを生成し続ける。   The display data generation unit 15 displays display data for displaying the placement region and its vicinity in a single color until receiving an instruction from the single color display control unit 133 to stop displaying the placement region and its vicinity in a single color. Continue to generate.

一方、対象物スキャン処理部13の単一色表示制御部133から載置領域およびその近傍の単一色での表示を中止する指示を受け付けたとき、表示データ生成部15は、当該指示に基づいて、載置領域およびその近傍の単一色での表示を行なわない(元の状態に戻した)表示データを生成し、該生成した表示データをデータ処理部700に送信する。したがって、多地点接続送信部11から映像データを受信しているときは、載置領域およびその近傍に、当該映像データを表示するような表示データを生成し、該生成した表示データをデータ処理部700に送信する。   On the other hand, when receiving an instruction from the single color display control unit 133 of the object scan processing unit 13 to stop the display in the single color of the placement area and its vicinity, the display data generation unit 15 Display data that does not display (return to the original state) in a single color in the mounting area and its vicinity is generated, and the generated display data is transmitted to the data processing unit 700. Therefore, when video data is received from the multipoint connection transmission unit 11, display data for displaying the video data is generated in the placement area and the vicinity thereof, and the generated display data is used as the data processing unit. To 700.

次に、対象物スキャン処理部13のスキャンデータ表示制御部136からスキャンデータを表示する指示を受け付けると、表示データ生成部15は、当該指示に基づいて、スキャンデータを表示させる表示データを生成し、該生成した表示データをデータ処理部700に送信する。なお、多地点接続送信部11から映像データを受信しているときは、当該映像データにスキャンデータを重畳した表示データを生成し、該生成した表示データをデータ処理部700に送信する。   Next, upon receiving an instruction to display scan data from the scan data display control unit 136 of the object scan processing unit 13, the display data generation unit 15 generates display data for displaying the scan data based on the instruction. The generated display data is transmitted to the data processing unit 700. When video data is received from the multipoint connection transmission unit 11, display data in which scan data is superimposed on the video data is generated, and the generated display data is transmitted to the data processing unit 700.

なお、表示データ生成部15は、ユーザ操作等によってスキャンデータの表示を中止する指示を受け付けるまで、スキャンデータを重畳した表示データを生成し続ける。   The display data generation unit 15 continues to generate display data on which the scan data is superimposed until an instruction to stop displaying the scan data is received by a user operation or the like.

次に、データ転送処理部17について説明する。データ転送処理部17は、スキャンデータを外部装置に転送するユーザ操作が行なわれたことをトリガとして、スキャンデータ保持部135またはスキャンデータ記憶部22に記憶されている転送対象のスキャンデータを読み出し、該読み出したスキャンデータを、外部通信部907を介して、外部装置に送信する。当該外部装置とは、例えば、テレビ会議の相手先の装置などである。   Next, the data transfer processing unit 17 will be described. The data transfer processing unit 17 reads the scan data to be transferred stored in the scan data holding unit 135 or the scan data storage unit 22 triggered by a user operation for transferring the scan data to the external device, The read scan data is transmitted to the external device via the external communication unit 907. The external device is, for example, a device of a video conference partner.

なお、センサ内蔵液晶パネル301に表示中のスキャンデータを転送する場合は、スキャンデータ保持部135からスキャンデータを読み出し、一方、スキャンデータ記憶部22に記憶されているスキャンデータを転送する場合は、転送対象となるスキャンデータをユーザ選択させる等して、スキャンデータ記憶部22からスキャンデータを読み出す。   When transferring the scan data being displayed to the sensor built-in liquid crystal panel 301, the scan data is read from the scan data holding unit 135, while when the scan data stored in the scan data storage unit 22 is transferred, The scan data is read from the scan data storage unit 22 by, for example, causing the user to select scan data to be transferred.

次に、テレビ会議通信処理部19について説明する。テレビ会議通信処理部19は、自装置と、通信ネットワーク上の1または複数のテレビ会議装置との間で、テレビ会議を実現するための各種処理を行なう。テレビ会議を実現するための各種処理は、一般的に知られた処理であり、本発明の本質的部分ではないので、ここでは説明を省略する。   Next, the video conference communication processing unit 19 will be described. The video conference communication processing unit 19 performs various processes for realizing a video conference between the own device and one or a plurality of video conference devices on the communication network. Various processes for realizing the video conference are generally known processes, and are not an essential part of the present invention.

テレビ会議通信処理部19は、リモコンなどの操作部903をユーザが操作することによって、通信ネットワーク上のテレビ会議装置との間、または、通信ネットワーク上の多地点間でテレビ会議を実現するための各種制御を行なう多地点接続制御装置と通信可能に接続し、音声および映像の送受信を行なう。   The video conference communication processing unit 19 is used to realize a video conference with a video conference device on a communication network or between multiple points on a communication network by a user operating an operation unit 903 such as a remote controller. It communicates with a multipoint connection control device that performs various controls, and transmits and receives audio and video.

テレビ会議通信処理部19は、マイク等の音声入力部909にて入力された音声の信号、および、カメラ等の撮像装置1010にて撮像した映像の信号を受信し、上記音声および映像の信号を、外部通信部907を介して、通信ネットワーク上のテレビ会議装置、または、通信ネットワーク上の多地点間で1つのテレビ会議を実現するための各種制御を行なう多地点接続制御装置に送信する。   The video conference communication processing unit 19 receives the audio signal input by the audio input unit 909 such as a microphone and the video signal captured by the imaging device 1010 such as a camera, and outputs the audio and video signals. Then, via the external communication unit 907, the data is transmitted to a video conference device on the communication network or a multi-point connection control device that performs various controls for realizing one video conference between multiple points on the communication network.

また、通信ネットワーク上のテレビ会議装置、または、多地点接続制御装置から、外部通信部907を介して、相手側の音声および映像の信号を受信するとともに、音声出力部908に音声データを、表示データ生成部15に映像データを送信する。   In addition, the audio and video signals of the other party are received from the video conference device on the communication network or the multipoint connection control device via the external communication unit 907, and the audio data is displayed on the audio output unit 908. Video data is transmitted to the data generator 15.

なお、テレビ会議通信処理部19は、通信ネットワーク上の多地点間で1つのテレビ会議を実現するための各種制御を行なう多地点接続制御部191を含んでいてもよいし、通信ネットワーク上に設けられた、多地点接続制御部191に相当する機能を備えた多地点接続制御装置と外部通信部907を介して通信可能に接続されていてもよい。   The video conference communication processing unit 19 may include a multi-point connection control unit 191 that performs various controls for realizing one video conference between multi-points on the communication network, and is provided on the communication network. The multi-point connection control device having a function corresponding to the multi-point connection control unit 191 may be connected to be communicable via the external communication unit 907.

なお、上記各種ユーザ操作は、操作部903(スイッチ、リモコン、マウス、キーボードなど)を操作することにより行われることを想定しているが、これに限定されるものではなく、センサ内蔵液晶パネル301上に表示したメニュー画像やボタン画像などをユーザがタッチすることによって行われてもよい。なお、この場合、当該メニュー画像やボタン画像などを表示している領域内に位置する座標データをデータ処理部700から受信することにより、ユーザが当該メニュー画像やボタン画像などをタッチしたことがわかる。   The various user operations are assumed to be performed by operating the operation unit 903 (switch, remote controller, mouse, keyboard, etc.), but the present invention is not limited to this, and the sensor built-in liquid crystal panel 301 is used. The menu image or button image displayed above may be touched by the user. In this case, it is understood that the user has touched the menu image, the button image, etc. by receiving the coordinate data located in the area displaying the menu image, the button image, etc. from the data processing unit 700. .

(主制御部の動作例)
次に、再び図11を参照しながら、主制御部800の動作例について、主制御部800からデータ処理部700に送信されるコマンドに触れながら、説明する。
(Operation example of the main control unit)
Next, referring to FIG. 11 again, an operation example of the main control unit 800 will be described while touching commands transmitted from the main control unit 800 to the data processing unit 700.

なお、本実施の形態に係るデータ表示/センサ装置100は、表示/光センサ部300を1つ備えるものであるため、表示/光センサ部300にてデータ表示を行なう場合は、「表示パネル」フィールドの値として“第1表示/光センサ部(001)”を指定したコマンドをデータ処理部700に送信するものとし、また、表示/光センサ部300にてスキャンを行なう場合は、「スキャンパネル」フィールドの値として“第1表示/光センサ部(001)”を指定したコマンドをデータ処理部700に送信するものとして説明する。   Since the data display / sensor device 100 according to the present embodiment includes one display / light sensor unit 300, when displaying data on the display / light sensor unit 300, a “display panel” is used. It is assumed that a command specifying “first display / light sensor unit (001)” as a field value is transmitted to the data processing unit 700, and when scanning is performed by the display / light sensor unit 300, “scan panel” It is assumed that a command designating “first display / light sensor unit (001)” as the value of the “” field is transmitted to the data processing unit 700.

まず、図11(a)に示すように、センサ内蔵液晶パネル301に映像を表示するために、表示データ生成部15は、テレビ会議通信処理部19から受信した映像データをセンサ内蔵液晶パネル301に表示するための表示データを生成し、該生成した表示データをデータ処理部700に送信する。併せて、表示データ生成部15は、「表示パネル」フィールドの値として“第1表示/光センサ部(001)”を指定したコマンドを、データ処理部700に送信する。   First, as shown in FIG. 11A, in order to display an image on the sensor built-in liquid crystal panel 301, the display data generating unit 15 displays the image data received from the video conference communication processing unit 19 on the sensor built-in liquid crystal panel 301. Display data for display is generated, and the generated display data is transmitted to the data processing unit 700. In addition, the display data generation unit 15 transmits a command designating “first display / light sensor unit (001)” as the value of the “display panel” field to the data processing unit 700.

次に、図11(b)に示すように対象物である資料Pが載置されたことを検知するために、対象物検知部131は、予め「データ取得タイミング」フィールドに“オール”を指定し、「データ種別」フィールドに“全体画像”を指定し、「スキャンパネル」フィールドに“第1表示/光センサ部(001)”を指定したコマンドを、データ処理部700に送信する。なお、「スキャン方式」フィールドには“反射”を指定することが望ましい。また、「スキャン画像階調」フィールドは“高”でも“低”でもよい。   Next, as shown in FIG. 11B, in order to detect that the material P, which is the object, is placed, the object detection unit 131 designates “all” in the “data acquisition timing” field in advance. Then, a command specifying “whole image” in the “data type” field and “first display / light sensor unit (001)” in the “scan panel” field is transmitted to the data processing unit 700. It is desirable to specify “reflection” in the “scan method” field. Further, the “scanned image gradation” field may be “high” or “low”.

以上により、データ処理部700から所定周期で全体画像データが得られる。そして、対象物検知部131は、所定周期で得られる全体画像データのうち、時間的に連続して得られる2つの画像データを比較し、時間的に前の画像データに、画素値の明度が所定閾値以上変化した領域が存在せず、かつ、時間的に後の画像データに、画素値の明度が所定閾値以上変化した領域が存在する場合、資料Pが載置されたことを検知する。   As described above, the entire image data is obtained from the data processing unit 700 in a predetermined cycle. Then, the object detection unit 131 compares two pieces of image data obtained continuously in time among the entire image data obtained in a predetermined cycle, and the brightness of the pixel value is compared with the previous image data in terms of time. When there is no region that has changed by a predetermined threshold value or more and there is a region in which the brightness of a pixel value has changed by a predetermined threshold value or more in temporally subsequent image data, it is detected that the material P has been placed.

なお、資料Pがセンサ内蔵液晶パネル301上に載置されたことを検知する別の方法として、対象物検知部131は、「データ取得タイミング」フィールドに“イベント”を指定し、「データ種別」フィールドに“部分画像”を指定し、「スキャンパネル」フィールドに“第1表示/光センサ部(001)”を指定したコマンドを、データ処理部700に送信してもよい。   As another method for detecting that the material P is placed on the sensor built-in liquid crystal panel 301, the object detection unit 131 designates “event” in the “data acquisition timing” field and sets “data type”. A command in which “partial image” is designated in the field and “first display / light sensor unit (001)” is designated in the “scan panel” field may be transmitted to the data processing unit 700.

この場合、資料Pがセンサ内蔵液晶パネル301上に載置されたとき、光センサ回路32が、資料Pの反射像を検知するので、その結果、データ処理部700がセンサ制御部602から受信する画像データに変化が生じる。したがって、データ処理部700は、上述したコマンドの応答として、変化が生じた部分(つまり、対象物の領域)の部分画像データ(部分画像における座標データを含む)を対象物検知部131に送信する。   In this case, when the material P is placed on the sensor built-in liquid crystal panel 301, the optical sensor circuit 32 detects a reflected image of the material P, and as a result, the data processing unit 700 receives from the sensor control unit 602. A change occurs in the image data. Therefore, as a response to the above-described command, the data processing unit 700 transmits partial image data (including coordinate data in the partial image) of the portion where the change has occurred (that is, the region of the target) to the target detection unit 131. .

よって、対象物検知部131は、データ処理部700から、対象物の領域を示す部分画像データを受信したとき、センサ内蔵液晶パネル301に対象物が載置されたことを検知する。   Therefore, when the object detection unit 131 receives partial image data indicating the region of the object from the data processing unit 700, the object detection unit 131 detects that the object is placed on the sensor built-in liquid crystal panel 301.

そして、資料Pが載置領域に載置されたことを検出すると、対象物検知部131は、全体画像データから、画素値の明度が所定閾値以上変化している領域を抽出することによって、載置領域を認識する。   Then, when detecting that the material P is placed in the placement area, the object detection unit 131 extracts, from the entire image data, an area in which the brightness of the pixel value changes by a predetermined threshold value or more. Recognize the placement area.

次に、データ表示/センサ装置100は、資料Pの載置領域およびその近傍を、単一色に表示する(図11(c))。そのために、単一色表示制御部133が、上記載置領域およびその近傍を、表示色情報記憶部21から読み出した色情報に基づく単一色で表示する指示を表示データ生成部15に送信し、表示データ生成部15は、当該指示に応じて上記載置領域およびその近傍を上記単一色で表示するための表示データを生成し、該生成した表示データをデータ処理部700に送信する。併せて、表示データ生成部15は、「表示パネル」フィールドの値として“第1表示/光センサ部(001)”を指定したコマンドを、データ処理部700に送信する。   Next, the data display / sensor device 100 displays the placement region of the material P and the vicinity thereof in a single color (FIG. 11C). For this purpose, the single color display control unit 133 transmits an instruction to display the above-described placement area and its vicinity in a single color based on the color information read from the display color information storage unit 21 to the display data generation unit 15 to display the display area. In response to the instruction, the data generation unit 15 generates display data for displaying the placement area and the vicinity thereof in the single color, and transmits the generated display data to the data processing unit 700. In addition, the display data generation unit 15 transmits a command designating “first display / light sensor unit (001)” as the value of the “display panel” field to the data processing unit 700.

その後、データ表示/センサ装置100は、スキャンを実行する。そのために、対象物スキャン実行部134は、「データ取得タイミング」フィールドに“センス”を指定し、「データ種別」フィールドに“全体画像”を指定し、「スキャンパネル」フィールドに“第1表示/光センサ部(001)”を指定したコマンドを、データ処理部700に送信する。なお、「スキャン方式」フィールドには“反射”を指定することが望ましい。また、「スキャン画像階調」フィールドは“高”を指定することが望ましい。   Thereafter, the data display / sensor device 100 performs a scan. Therefore, the object scan execution unit 134 designates “sense” in the “data acquisition timing” field, designates “whole image” in the “data type” field, and “first display / image” in the “scan panel” field. A command designating the optical sensor unit (001) "is transmitted to the data processing unit 700. It is desirable to specify “reflection” in the “scan method” field. In addition, it is desirable to designate “high” in the “scanned image gradation” field.

以上により、データ処理部700から、上記コマンドを送信した時点で最新の全体画像データが得られる。そして、対象物検知部131は、当該得られた全体画像データのうち、載置領域情報保持部132から読み出した載置領域情報に基づいて、資料Pの領域の画像データを読み取り、当該読み取った画像データをスキャンデータSCDとしてスキャンデータ保持部135に保持させる。   As described above, the latest entire image data is obtained from the data processing unit 700 when the command is transmitted. Then, the object detection unit 131 reads the image data of the region of the material P based on the placement area information read from the placement region information holding unit 132 out of the obtained entire image data, and reads the read image data. The image data is held in the scan data holding unit 135 as scan data SCD.

次に、データ表示/センサ装置100は、スキャンデータSCDを映像に重畳して表示する(図11(d))。そのために、スキャンデータ表示制御部136は、スキャンデータ保持部135から読み出したスキャンデータSCDを表示する指示を表示データ生成部15に送信し、表示データ生成部15は、当該指示に応じて上記スキャンデータSCDを映像に重畳した表示データを生成し、該生成した表示データをデータ処理部700に送信する。併せて、表示データ生成部15は、「表示パネル」フィールドの値として“第1表示/光センサ部(001)”を指定したコマンドを、データ処理部700に送信する。   Next, the data display / sensor device 100 displays the scan data SCD superimposed on the video (FIG. 11D). For this purpose, the scan data display control unit 136 transmits an instruction to display the scan data SCD read from the scan data holding unit 135 to the display data generation unit 15, and the display data generation unit 15 performs the above scan according to the instruction. Display data in which the data SCD is superimposed on the video is generated, and the generated display data is transmitted to the data processing unit 700. In addition, the display data generation unit 15 transmits a command designating “first display / light sensor unit (001)” as the value of the “display panel” field to the data processing unit 700.

次に、資料Pのスキャンが終了した後、ユーザが、資料Pをセンサ内蔵液晶パネル301から取り除いたとき(図11(e))、対象物検知部131が、資料Pがセンサ内蔵液晶パネル301上から取り除かれたことを検知する。ここで、対象物検知部131は、すでにデータ処理部700に送信しているコマンドの応答として、データ処理部700から所定周期で全体画像データを得ている。したがって、対象物検知部131は、所定周期で得られる全体画像データのうち、時間的に連続して得られる2つの画像データを比較し、時間的に前の画像データに、画素値の明度が所定閾値以上変化した領域が存在し、かつ、時間的に後の画像データに、画素値の明度が所定閾値以上変化した領域が存在しない場合、センサ内蔵液晶パネル301に資料Pが取り除かれたことを検知する。   Next, after the scanning of the material P is completed, when the user removes the material P from the sensor built-in liquid crystal panel 301 (FIG. 11 (e)), the object detection unit 131 displays the material P as the sensor built-in liquid crystal panel 301. Detects removal from above. Here, the object detection unit 131 obtains the entire image data from the data processing unit 700 in a predetermined cycle as a response to the command already transmitted to the data processing unit 700. Therefore, the object detection unit 131 compares two pieces of image data obtained continuously in time among the entire image data obtained in a predetermined cycle, and the brightness of the pixel value is compared with the previous image data in terms of time. When there is an area that has changed by a predetermined threshold or more and there is no area in which the brightness of a pixel value has changed by a predetermined threshold or more in image data that is later in time, the material P has been removed from the sensor built-in liquid crystal panel 301 Is detected.

その後、データ表示/センサ装置100は、資料Pの載置領域およびその近傍の単一色の表示を中止する。そのために、単一色表示制御部133が、上記載置領域およびその近傍の単一色での表示を中止する指示を表示データ生成部15に送信し、表示データ生成部15は、当該指示に応じて、テレビ会議通信処理部19から受信した映像データのみをセンサ内蔵液晶パネル301に表示するための表示データを生成し、該生成した表示データをデータ処理部700に送信する。   Thereafter, the data display / sensor device 100 stops displaying the single color in the area where the material P is placed and in the vicinity thereof. For this purpose, the single color display control unit 133 transmits an instruction to stop the display in the above-described placement area and a single color in the vicinity thereof to the display data generation unit 15, and the display data generation unit 15 responds to the instruction. Then, display data for displaying only the video data received from the video conference communication processing unit 19 on the sensor built-in liquid crystal panel 301 is generated, and the generated display data is transmitted to the data processing unit 700.

次に、ユーザが、手FでスキャンデータSCDをドラッグする等により移動操作を行うと、データ表示/センサ装置100は、スキャンデータSCDの表示位置を変更する(図11(f))。そのために、スキャンデータ表示制御部136は、ユーザがスキャンデータをタッチしてセンサ内蔵液晶パネル301上をなぞっている間における、ユーザの指やペンなどの座標データを、データ処理部700から取得する。そのために、スキャンデータ表示制御部136は、スキャンデータを表示させた後に、「データ取得タイミング」フィールドに“イベント”を指定し、「データ種別」フィールドに“座標”を指定し、「スキャンパネル」フィールドに“第1表示/光センサ部(001)”を指定したコマンドを、データ処理部700に送信する。なお、「スキャン方式」フィールドには、“反射”を指定することが望ましい。また、「スキャン画像階調」フィールドは、“高”でも“低”でもよい。   Next, when the user performs a moving operation by dragging the scan data SCD with the hand F, the data display / sensor device 100 changes the display position of the scan data SCD (FIG. 11 (f)). For this purpose, the scan data display control unit 136 acquires coordinate data of the user's finger, pen, and the like from the data processing unit 700 while the user touches the scan data and traces on the sensor built-in liquid crystal panel 301. . Therefore, after displaying the scan data, the scan data display control unit 136 designates “event” in the “data acquisition timing” field, designates “coordinate” in the “data type” field, and “scan panel”. A command designating “first display / light sensor unit (001)” in the field is transmitted to the data processing unit 700. It is desirable to specify “reflection” in the “scan method” field. Further, the “scanned image gradation” field may be “high” or “low”.

そして、スキャンデータ表示制御部136は、データ処理部700から取得した座標データに基づいて、スキャンデータSCDの移動先の位置を求めた後、当該移動先の位置にスキャンデータSCDを再表示する指示を、表示データ生成部15に送信する。   Then, the scan data display control unit 136 obtains the position of the movement destination of the scan data SCD based on the coordinate data acquired from the data processing unit 700 and then instructs to redisplay the scan data SCD at the position of the movement destination. Is transmitted to the display data generation unit 15.

そして、表示データ生成部15は、上記移動先の位置に上記スキャンデータSCDを重畳表示させる表示データを生成し、該生成した表示データをデータ処理部700に送信する。併せて、表示データ生成部15は、「表示パネル」フィールドの値として“第1表示/光センサ部(001)”を指定したコマンドを、データ処理部700に送信する。   Then, the display data generation unit 15 generates display data for superimposing and displaying the scan data SCD at the movement destination position, and transmits the generated display data to the data processing unit 700. In addition, the display data generation unit 15 transmits a command designating “first display / light sensor unit (001)” as the value of the “display panel” field to the data processing unit 700.

(対象物のスキャンを行う処理の流れ1)
次に、図14を参照しながら、本実施の形態に係るデータ表示/センサ装置100において、映像を表示させたまま、対象物のスキャンを行う処理の流れの一例について説明する。図14は、本実施の形態に係るデータ表示/センサ装置100において、映像を表示させたまま、対象物のスキャンを行う処理の流れの一例を示すフローチャートである。
(Processing flow 1 for scanning an object)
Next, an example of a flow of processing for scanning an object while displaying an image in the data display / sensor device 100 according to the present embodiment will be described with reference to FIG. FIG. 14 is a flowchart illustrating an example of a flow of processing for scanning an object while displaying an image in the data display / sensor device 100 according to the present embodiment.

なお、ここでは、テレビ会議通信処理部19により、データ表示/センサ装置100と、通信ネットワーク上の1または複数のテレビ会議装置との間で、テレビ会議が行なわれている状態にあるものとする。そして、テレビ会議通信処理部19は、外部通信部907を介して、テレビ会議の相手側の音声および映像の信号を受信しているものとする。   Here, it is assumed that the video conference communication processing unit 19 is in a state where a video conference is being performed between the data display / sensor device 100 and one or more video conference devices on the communication network. . The video conference communication processing unit 19 receives the audio and video signals of the other party of the video conference via the external communication unit 907.

まず、テレビ会議通信処理部19が表示データ生成部15に映像データを送信し、そして、表示データ生成部15が当該映像データをセンサ内蔵液晶パネル301に表示させる表示データを生成し、該生成した表示データをデータ処理部700に送信することによって、センサ内蔵液晶パネル301に映像を表示させる(ステップS21)。なお、ステップS21は、図11(a)にて説明した状態に相当する。   First, the video conference communication processing unit 19 transmits video data to the display data generation unit 15, and the display data generation unit 15 generates display data for displaying the video data on the sensor built-in liquid crystal panel 301. By transmitting the display data to the data processing unit 700, an image is displayed on the sensor built-in liquid crystal panel 301 (step S21). Step S21 corresponds to the state described with reference to FIG.

次に、対象物検知部131は、センサ内蔵液晶パネル301に対象物が載置されたことを検知した場合(ステップS22)、対象物が載置された状態で所定時間T1(例えば数秒)が経過したことがわかると(ステップS23にてYES)、載置領域を認識し、載置領域情報を載置領域情報保持部132に保持する(ステップS24)。   Next, when the object detection unit 131 detects that the object is placed on the sensor built-in liquid crystal panel 301 (step S22), the object detection unit 131 has a predetermined time T1 (for example, several seconds) while the object is placed. When it is determined that the time has elapsed (YES in step S23), the placement area is recognized, and the placement area information is held in the placement area information holding unit 132 (step S24).

次に、単一色表示制御部133が、載置領域情報保持部132に保持した載置領域情報、および、表示色情報記憶部21に予め設定されている色情報に基づいて、載置領域およびその近傍を、単一色で表示する指示を表示データ生成部15に通知し、表示データ生成部15が、載置領域およびその近傍を単一色で表示する表示データを生成し、該生成した表示データをデータ処理部700に送信することによって、センサ内蔵液晶パネル301上の載置領域およびその近傍を単一色で表示させる(ステップS25)。なお、ステップS25は、図11(c)にて説明した状態に相当する。   Next, based on the placement area information held in the placement area information holding unit 132 and the color information preset in the display color information storage unit 21, the single color display control unit 133 sets the placement area and The display data generation unit 15 is notified of an instruction to display the vicinity in a single color, and the display data generation unit 15 generates display data for displaying the placement area and the vicinity in a single color, and the generated display data Is transmitted to the data processing unit 700, so that the placement area on the sensor built-in liquid crystal panel 301 and its vicinity are displayed in a single color (step S25). Step S25 corresponds to the state described with reference to FIG.

次に、対象物スキャン実行部134が、センサ内蔵液晶パネル301にスキャンを実行させ(ステップS26)、その応答として得られた全体画像データから対象物の領域をスキャンデータとして抽出する(ステップS27)。そして、対象物スキャン実行部134は、上記抽出したスキャンデータを、スキャンデータ保持部135に保持させる(ステップS28)。   Next, the object scan execution unit 134 causes the sensor built-in liquid crystal panel 301 to execute a scan (step S26), and extracts the area of the object as scan data from the entire image data obtained as a response (step S27). . Then, the object scan execution unit 134 holds the extracted scan data in the scan data holding unit 135 (step S28).

次に、スキャンデータ表示制御部136が、載置領域情報保持部132から、載置領域情報を読み出して、当該読み出した載置領域情報に基づいて、載置領域と重ならない任意の領域にスキャンデータを表示させるように表示データ生成部15に通知し、表示データ生成部15が、スキャンデータを重畳表示させる表示データを生成し、該生成した表示データをデータ処理部700に送信することによって、センサ内蔵液晶パネル301にスキャンデータを表示させる(ステップS29)。なお、ステップS29は、図11(d)にて説明した状態に相当する。   Next, the scan data display control unit 136 reads the placement area information from the placement area information holding unit 132, and scans an arbitrary area that does not overlap the placement area based on the read placement area information. By notifying the display data generation unit 15 to display the data, the display data generation unit 15 generates display data for displaying the scan data in a superimposed manner, and transmits the generated display data to the data processing unit 700. Scan data is displayed on the sensor built-in liquid crystal panel 301 (step S29). Note that step S29 corresponds to the state described with reference to FIG.

次に、対象物検知部131が、センサ内蔵液晶パネル301から対象物が取り除かれたことを検知した場合(ステップS30にてYES)、単一色表示制御部133が、載置領域およびその近傍の単一色での表示を中止する指示を、表示データ生成部15に通知するとともに、スキャンデータ表示制御部136が、載置領域にスキャンデータを表示させる指示を表示データ生成部15に通知する。そして、表示データ生成部15は、当該指示に基づいて、載置領域に対してスキャンデータを表示させる表示データを生成し、該生成した表示データをデータ処理部700に送信することによって、センサ内蔵液晶パネル301上の載置領域およびその近傍の単一色での表示を中止させるとともに、ステップS29にて表示していたスキャンデータの表示を、スキャンデータを表示する前に表示していた表示へと戻す(ステップS31)。なお、ステップS31は、図11(e)にて説明した状態に相当する。ただし、ステップS31では、図11(e)における領域SAにスキャンデータSCDを表示するとともに、図11(e)においてスキャンデータSCDを表示している領域の表示は、スキャンデータSCDを表示する前の表示に戻す。   Next, when the object detection unit 131 detects that the object has been removed from the sensor built-in liquid crystal panel 301 (YES in step S30), the single-color display control unit 133 detects the placement area and its vicinity. An instruction to stop displaying in a single color is notified to the display data generation unit 15, and the scan data display control unit 136 notifies the display data generation unit 15 of an instruction to display the scan data in the placement area. Then, the display data generation unit 15 generates display data for displaying the scan data on the placement area based on the instruction, and transmits the generated display data to the data processing unit 700, thereby incorporating the sensor. The display of the placement area on the liquid crystal panel 301 and the vicinity thereof in a single color is stopped, and the display of the scan data displayed in step S29 is changed to the display that was displayed before the scan data was displayed. Return (step S31). Step S31 corresponds to the state described with reference to FIG. However, in step S31, the scan data SCD is displayed in the area SA in FIG. 11E, and the area in which the scan data SCD is displayed in FIG. 11E is displayed before the scan data SCD is displayed. Return to display.

そして、スキャンデータに対するユーザ操作があった場合において(ステップS32にてYES)、当該ユーザ操作が、スキャンデータの移動操作であれば(ステップS33にて“移動操作”)、スキャンデータ表示制御部136が、移動先の位置にスキャンデータを表示しなおす指示を表示データ生成部15に通知し、表示データ生成部15が、移動先の位置にスキャンデータを重畳表示させる表示データを生成し、該生成した表示データをデータ処理部700に送信することによって、センサ内蔵液晶パネル301にスキャンデータを表示させる(ステップS34)。なお、ステップS34は、図11(f)にて説明した状態に相当する。   If there is a user operation on the scan data (YES in step S32), if the user operation is an operation for moving scan data (“movement operation” in step S33), the scan data display control unit 136 is operated. Notifies the display data generation unit 15 of an instruction to redisplay the scan data at the movement destination position, and the display data generation unit 15 generates display data for displaying the scan data superimposed on the movement destination position. By transmitting the displayed data to the data processing unit 700, the scan data is displayed on the sensor built-in liquid crystal panel 301 (step S34). Note that step S34 corresponds to the state described in FIG.

また、上記ユーザ操作が、スキャンデータの転送操作であれば(ステップS33にて“転送操作”)、データ転送処理部17が、スキャンデータ保持部135またはスキャンデータ記憶部22に記憶されている転送対象のスキャンデータを読み出し、該読み出したスキャンデータを、外部通信部907を介して、外部装置に送信する(ステップS35)。   If the user operation is a scan data transfer operation (“transfer operation” in step S33), the data transfer processing unit 17 transfers the data stored in the scan data holding unit 135 or the scan data storage unit 22. The target scan data is read, and the read scan data is transmitted to the external device via the external communication unit 907 (step S35).

また、上記ユーザ操作が、スキャンデータの保存操作であれば(ステップS33にて“保存操作”)、スキャンデータ格納部137が、スキャンデータ保持部135に保持されているスキャンデータを、スキャンデータ記憶部22に格納する(ステップS36)。   If the user operation is a scan data saving operation (“save operation” in step S33), the scan data storage unit 137 stores the scan data held in the scan data holding unit 135 in the scan data storage. The data is stored in the unit 22 (step S36).

(対象物のスキャンを行う処理の流れ2)
上述では、対象物検知部131が、センサ内蔵液晶パネル301から対象物が取り除かれたことを検知した場合(ステップS30)、載置領域およびその近傍を単一色での表示を中止する(ステップS31)という処理の流れを例に挙げた。しかしながら、載置領域およびその近傍の単色表示は、対象物のスキャン精度を高めるために行なうものであるから、対象物のスキャンが完了した時点で、載置領域およびその近傍の単一色での表示を中止してもよい。この場合の処理の流れについて、以下で説明する。
(Processing flow 2 for scanning an object)
In the above description, when the object detection unit 131 detects that the object has been removed from the sensor built-in liquid crystal panel 301 (step S30), display of the placement area and its vicinity in a single color is stopped (step S31). ) Was taken as an example. However, since the monochrome display of the placement area and its vicinity is performed in order to increase the scanning accuracy of the object, the display of the placement area and its vicinity in a single color is performed when the scan of the object is completed. May be canceled. The processing flow in this case will be described below.

図15を参照しながら、データ表示/センサ装置100において、映像を表示させたまま、対象物のスキャンを行う処理の流れの他の一例について説明する。図15は、データ表示/センサ装置100において、映像を表示させたまま、対象物のスキャンを行う処理の流れの他の一例を示すフローチャートである。   With reference to FIG. 15, another example of the flow of processing for scanning an object while displaying an image in the data display / sensor device 100 will be described. FIG. 15 is a flowchart showing another example of the flow of processing for scanning an object while displaying an image in the data display / sensor device 100.

ステップS21からステップS28までの流れは、図14を用いて説明した処理の流れと同様であるので、説明を省略する。   The flow from step S21 to step S28 is the same as the flow of processing described with reference to FIG.

ステップS28にて、対象物スキャン実行部134が、スキャンデータを、スキャンデータ保持部135に保持させたことをトリガとして、単一色表示制御部133が、載置領域およびその近傍の単一色での表示を中止する指示を、表示データ生成部15に通知し、表示データ生成部15は、当該指示に基づいて、載置領域およびその近傍の単一色での表示を行なわない表示データを生成し、該生成した表示データをデータ処理部700に送信することによって、センサ内蔵液晶パネル301上の載置領域およびその近傍を単一色での表示を中止させる(ステップS41)。   In step S28, the single-color display control unit 133 uses the single-color display control unit 133 in a single color in the placement area and the vicinity thereof, triggered by the object scan execution unit 134 holding the scan data in the scan data holding unit 135. The display data generation unit 15 is notified of an instruction to stop the display, and the display data generation unit 15 generates display data that does not display in the single color of the placement area and its vicinity based on the instruction, By transmitting the generated display data to the data processing unit 700, display of the placement area on the sensor built-in liquid crystal panel 301 and the vicinity thereof in a single color is stopped (step S41).

次に、スキャンデータ表示制御部136が、載置領域情報保持部132から、載置領域情報を読み出して、当該読み出した載置領域情報に基づいて、載置領域と重ならない任意の領域にスキャンデータを表示させるように表示データ生成部15に通知し、表示データ生成部15が、スキャンデータを重畳表示させる表示データを生成し、該生成した表示データをデータ処理部700に送信することによって、センサ内蔵液晶パネル301にスキャンデータを表示させる(ステップS42)。   Next, the scan data display control unit 136 reads the placement area information from the placement area information holding unit 132, and scans an arbitrary area that does not overlap the placement area based on the read placement area information. By notifying the display data generation unit 15 to display the data, the display data generation unit 15 generates display data for displaying the scan data in a superimposed manner, and transmits the generated display data to the data processing unit 700. Scan data is displayed on the sensor built-in liquid crystal panel 301 (step S42).

なお、ステップS42の後の処理の流れについては、図14に示すステップS32からステップS36までの流れと同じである。   The processing flow after step S42 is the same as the flow from step S32 to step S36 shown in FIG.

〔実施の形態2〕
上述の実施の形態では、対象物が載置された状態で所定時間T1(例えば数秒)が経過したことがわかると(ステップS23にてYES)、対象物のスキャンを1回だけ行なう(ステップS24〜S28)という形態について説明した。しかしながら、対象物のスキャンを行なうタイミングは、上述に限定されるものではない。本実施の形態では、センサ内蔵液晶パネル301上から対象物が取り除かれるまで、対象物のスキャンを繰り返し行なう形態について説明する。本実施の形態について図1および図16に基づいて説明すると以下の通りである。
[Embodiment 2]
In the above-described embodiment, when it is found that a predetermined time T1 (for example, several seconds) has elapsed with the object placed (YES in step S23), the object is scanned only once (step S24). ˜S28) has been described. However, the timing of scanning the object is not limited to the above. In the present embodiment, a mode in which scanning of an object is repeatedly performed until the object is removed from the sensor built-in liquid crystal panel 301 will be described. This embodiment will be described below with reference to FIG. 1 and FIG.

なお、説明の便宜上、実施の形態1にて示した各部材と同一の機能を有する部材には、同一の符号を付記し、その説明を省略する。また、実施の形態1にて説明した処理と同一に処理については、その説明を省略する。   For convenience of explanation, members having the same functions as those shown in the first embodiment are denoted by the same reference numerals, and description thereof is omitted. Further, the description of the same processing as that described in Embodiment 1 is omitted.

(主制御部800の構成)
本実施の形態に係るデータ表示/センサ装置100の主制御部800の構成のうち、実施の形態1で説明した構成と異なる構成について、以下で説明する。なお、本実施の形態に係るデータ表示/センサ装置100の記憶部901は、実施の形態1で説明した構成と同じである。
(Configuration of main control unit 800)
Of the configuration of the main control unit 800 of the data display / sensor device 100 according to the present embodiment, a configuration different from the configuration described in the first embodiment will be described below. The storage unit 901 of the data display / sensor device 100 according to the present embodiment has the same configuration as that described in the first embodiment.

対象物検知部131は、対象物がセンサ内蔵液晶パネル301上に載置されたことを検知した直後、および、対象物がセンサ内蔵液晶パネル301上から取り除かれたことを検知しなかった場合に、載置領域を認識し、当該認識した認識領域の載置領域情報を取得し、該取得した載置領域情報を載置領域情報保持部132に読み出し可能に保持させる。   The object detection unit 131 immediately after detecting that the object is placed on the sensor built-in liquid crystal panel 301 and when it does not detect that the object is removed from the sensor built-in liquid crystal panel 301 The placement area is recognized, the placement area information of the recognized recognition area is acquired, and the obtained placement area information is held in the placement area information holding unit 132 so as to be readable.

次に、対象物スキャン実行部134は、センサ内蔵液晶パネル301にスキャンを実行させた応答としてデータ処理部700から取得した全体画像データからスキャンデータを抽出し、当該抽出したスキャンデータをスキャンデータ保持部135に読み出し可能に保持させる。このとき、上記保持させたスキャンデータと、上記保持させたときの時刻とを対応づけて、スキャンデータ保持部135に保持させる。   Next, the object scan execution unit 134 extracts scan data from the entire image data acquired from the data processing unit 700 as a response to causing the sensor built-in liquid crystal panel 301 to execute the scan, and holds the extracted scan data as scan data The unit 135 holds the data in a readable manner. At this time, the held scan data is associated with the time when it is held, and is held in the scan data holding unit 135.

スキャンデータ保持部135は、複数の所定数のスキャンデータを、先入れ先出し方式で保持するものとする。なお、保持されてから所定の時間を経過したスキャンデータは、削除してもよい。   The scan data holding unit 135 holds a plurality of predetermined numbers of scan data by a first-in first-out method. Note that scan data that has been stored for a predetermined time may be deleted.

次に、スキャンデータ表示制御部136は、センサ内蔵液晶パネル301に表示させるスキャンデータをスキャンデータ保持部135から読み出すにあたり、対象物検知部131が、対象物がセンサ内蔵液晶パネル301上から取り除かれたことを検知した時刻から所定時間(T2とする)だけ前の時点で、スキャンデータ保持部135に保持されていた最新のスキャンデータを、スキャンデータ保持部135から読み出す。そして、当該読み出したスキャンデータをセンサ内蔵液晶パネル301に表示させる指示を、表示データ生成部15に通知する。   Next, when the scan data display control unit 136 reads the scan data to be displayed on the sensor built-in liquid crystal panel 301 from the scan data holding unit 135, the object detection unit 131 removes the object from the sensor built-in liquid crystal panel 301. The latest scan data held in the scan data holding unit 135 is read from the scan data holding unit 135 at a time point a predetermined time (referred to as T2) from the time when this is detected. Then, the display data generation unit 15 is notified of an instruction to display the read scan data on the sensor built-in liquid crystal panel 301.

なお、このように、対象物が取り除かれた時点から所定時間T2だけ前の時点でスキャンデータ保持部135に保持されていた最新のスキャンデータを読み出す理由は、対象物が取り除かれたことを検知したときにスキャンデータ保持部135に保持されている最新のスキャンデータは、ユーザが対象物を取り除く途中の段階で得られたスキャンデータである可能性があり、そして、対象物が取り除かれた時点から所定時間T2だけ前の時点でスキャンデータ保持部135に保持されていた最新のスキャンデータであれば、ユーザが対象物を取り除く操作を行う前の状態(対象物が完全に載置されていた状態)のときに得られたスキャンデータであると考えてよいからである。   As described above, the reason for reading the latest scan data held in the scan data holding unit 135 at a time point before the predetermined time T2 from the time when the object is removed is that the object is removed. The latest scan data held in the scan data holding unit 135 may be scan data obtained in the middle of the removal of the object by the user, and when the object is removed If the latest scan data held in the scan data holding unit 135 at a time point before the predetermined time T2 from the state before the user performs an operation of removing the target object (the target object was completely placed) This is because it may be considered that the scan data is obtained in the state).

(対象物のスキャンを行う処理の流れ)
図16を参照しながら、本実施の形態に係るデータ表示/センサ装置100において、映像を表示させたまま、対象物のスキャンを行う処理の流れの他の一例について説明する。図16は、本実施の形態に係るデータ表示/センサ装置100において、映像を表示させたまま、対象物のスキャンを行う処理の流れの他の一例を示すフローチャートである。
(Process flow to scan the object)
With reference to FIG. 16, another example of the flow of processing for scanning an object while displaying an image in the data display / sensor device 100 according to the present embodiment will be described. FIG. 16 is a flowchart showing another example of the flow of processing for scanning an object while displaying an image in the data display / sensor device 100 according to the present embodiment.

ステップS21およびステップS22までの流れは、実施の形態1の図14を用いて説明した処理の流れと同様であるので、説明を省略する。   Since the flow up to step S21 and step S22 is the same as the flow of processing described with reference to FIG. 14 of the first embodiment, description thereof is omitted.

ステップS22にて、対象物検知部131が、センサ内蔵液晶パネル301に対象物が載置されたことを検知したことをトリガとして、対象物検知部131は、載置領域を認識し、載置領域情報を載置領域情報保持部132に保持させる(ステップS51)。   In step S <b> 22, the object detection unit 131 recognizes the placement area using the detection that the object detection unit 131 detects that the object is placed on the sensor built-in liquid crystal panel 301. The area information is held in the placement area information holding unit 132 (step S51).

次に、単一色表示制御部133が、ステップS25と同様に、センサ内蔵液晶パネル301上の載置領域およびその近傍を単一色で表示させる(ステップS52)。そして、対象物スキャン実行部134が、センサ内蔵液晶パネル301にスキャンを実行させ(ステップS53)、その応答として得られた全体画像データから対象物の領域をスキャンデータとして抽出する(ステップS54)。そして、対象物スキャン実行部134は、上記抽出したスキャンデータを、スキャンデータ保持部135に保持させる(ステップS55)。   Next, similarly to step S25, the single color display control unit 133 displays the placement area on the sensor built-in liquid crystal panel 301 and its vicinity in a single color (step S52). Then, the object scan execution unit 134 causes the sensor built-in liquid crystal panel 301 to execute the scan (step S53), and extracts the area of the object as scan data from the entire image data obtained as a response (step S54). Then, the object scan execution unit 134 holds the extracted scan data in the scan data holding unit 135 (step S55).

次に、対象物検知部131が、センサ内蔵液晶パネル301から対象物が取り除かれたことを検知しなかった場合(ステップS56にてNO)、再度、ステップS51からステップS55までの処理を行う。   Next, when the object detection unit 131 does not detect that the object has been removed from the sensor built-in liquid crystal panel 301 (NO in step S56), the processes from step S51 to step S55 are performed again.

一方、センサ内蔵液晶パネル301から対象物が取り除かれたことを検知した場合(ステップS56にてYES)、単一色表示制御部133が、ステップS31と同様に、載置領域およびその近傍の単一色での表示を中止する指示を、表示データ生成部15に通知し、表示データ生成部15は、当該指示に基づいて、載置領域およびその近傍の単一色での表示を行なわない表示データを生成し、該生成した表示データをデータ処理部700に送信することによって、センサ内蔵液晶パネル301上の載置領域およびその近傍を単一色での表示を中止させる(ステップS57)。   On the other hand, when it is detected that the object has been removed from liquid crystal panel 301 with a built-in sensor (YES in step S56), single color display control unit 133 has a single color in the placement area and its vicinity, as in step S31. The display data generation unit 15 is notified of an instruction to stop the display at the display data, and the display data generation unit 15 generates display data that does not display in the single color of the placement area and its vicinity based on the instruction. Then, by transmitting the generated display data to the data processing unit 700, display of the placement area on the sensor built-in liquid crystal panel 301 and its vicinity in a single color is stopped (step S57).

その後、スキャンデータ表示制御部136が、対象物検知部131が、対象物がセンサ内蔵液晶パネル301上から取り除かれたことを検知した時刻から所定時間T2だけ前の時点で、スキャンデータ保持部135に保持されていた最新のスキャンデータを、スキャンデータ保持部135から読み出し、当該読み出したスキャンデータをセンサ内蔵液晶パネル301に表示させる指示を、表示データ生成部15に通知することによって、センサ内蔵液晶パネル301にスキャンデータを表示させる(ステップS58)。   Thereafter, the scan data display unit 136 scans the scan data holding unit 135 at a time before the predetermined time T2 from the time when the object detection unit 131 detects that the object has been removed from the sensor built-in liquid crystal panel 301. The latest scan data held in the sensor is read from the scan data holding unit 135, and an instruction to display the read scan data on the sensor built-in liquid crystal panel 301 is notified to the display data generating unit 15, thereby Scan data is displayed on the panel 301 (step S58).

なお、ステップS58の後に続く処理の流れについては、図14に示すステップS32からステップS36までの流れと同じである。   Note that the flow of processing following step S58 is the same as the flow from step S32 to step S36 shown in FIG.

〔補足事項〕
上述の各実施形態では、載置領域およびその近傍を単一色に表示した状態で、対象物のスキャンを1回だけ行なう形態について説明したが、対象物のスキャンを行なうにあたり、以下の3種類のスキャンのそれぞれを1回ずつ連続して行なうことによって、カラー画像のスキャンデータを得るようにしてもよい。3種類のスキャンとは、(1)載置領域およびその近傍を赤色に表示した状態でのスキャン、(2)載置領域およびその近傍を緑色に表示した状態でのスキャン、(3)載置領域およびその近傍を青色に表示した状態でのスキャンである。
[Additional notes]
In each of the above-described embodiments, the mode in which the object is scanned only once in a state where the placement area and the vicinity thereof are displayed in a single color has been described. Color image scan data may be obtained by performing each of the scans continuously once. The three types of scans are (1) a scan with the placement area and its vicinity displayed in red, (2) a scan with the placement area and its vicinity displayed in green, and (3) a placement. This is a scan with the area and its vicinity displayed in blue.

ここで、載置領域およびその近傍を赤色に表示した状態で、対象物のスキャンを行なうと、対象物に記されている赤色の文字等は読み取られず、赤色から遠い色の文字等ほど明瞭に読み取られた画像データを得ることができる。   Here, when the object is scanned in a state where the placement area and its vicinity are displayed in red, red characters and the like written on the object are not read, and characters that are far from red are more clearly displayed. The read image data can be obtained.

同様に、載置領域およびその近傍を緑色に表示した状態で、対象物のスキャンを行なうと、対象物に記されている緑色の文字等は読み取られず、緑色から遠い色の文字等ほど明瞭に読み取られた画像データを得ることができる。   Similarly, when the object is scanned with the placement area and the vicinity thereof displayed in green, the green characters and the like written on the object are not read, and the characters farther away from the green and the like are clearer. The read image data can be obtained.

同様に、載置領域およびその近傍を青色に表示した状態で、対象物のスキャンを行なうと、対象物に記されている青色の文字等は読み取られず、青色から遠い色の文字等ほど明瞭に読み取られた画像データを得ることができる。   Similarly, when the object is scanned with the placement area and the vicinity thereof displayed in blue, the blue characters written on the object are not read, and the characters farther away from blue are clearly The read image data can be obtained.

したがって、上述した3種類のスキャンを実行することによって得られる3つの画像データの差分に基づいて、一般的な画像処理を施すことにより、カラー画像のスキャンデータを得ることができる。   Accordingly, color image scan data can be obtained by performing general image processing based on the difference between the three image data obtained by executing the above-described three types of scans.

〔付記事項〕
上述では、データ表示/センサ装置100の構成として、データ処理部700や回路制御部600を備える構成について説明したが、この構成に限定されるものではない。例えば、主制御部800が回路制御部600を直接制御し、主制御部800が全体画像データ/部分画像データ/座標データを生成するような構成であってもよい。また、主制御部800が表示/光センサ部300を直接制御するような構成であってもよい。
[Additional Notes]
In the above description, the configuration including the data processing unit 700 and the circuit control unit 600 has been described as the configuration of the data display / sensor device 100. However, the configuration is not limited to this configuration. For example, the main control unit 800 may directly control the circuit control unit 600, and the main control unit 800 may generate whole image data / partial image data / coordinate data. The main control unit 800 may directly control the display / light sensor unit 300.

最後に、データ表示/センサ装置100の主制御部800、データ処理部700、回路制御部600は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。   Finally, the main control unit 800, the data processing unit 700, and the circuit control unit 600 of the data display / sensor device 100 may be configured by hardware logic, or realized by software using a CPU as follows. Also good.

すなわち、データ表示/センサ装置100は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラム及び各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるデータ表示/センサ装置100の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記データ表示/センサ装置100に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   That is, the data display / sensor device 100 includes a CPU (central processing unit) that executes instructions of a control program for realizing each function, a ROM (read only memory) that stores the program, and a RAM (random access) that expands the program. memory), a storage device (recording medium) such as a memory for storing the program and various data. An object of the present invention is a record in which a program code (execution format program, intermediate code program, source program) of a control program for the data display / sensor device 100, which is software for realizing the functions described above, is recorded so as to be readable by a computer. This can also be achieved by supplying a medium to the data display / sensor device 100 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、データ表示/センサ装置100を通信ネットワークと接続可能に構成し、上記プログラムコードを、通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   Further, the data display / sensor device 100 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Also, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), IEEE802.11 radio, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.

本発明は、画像などの表示処理および対象物のスキャン処理を行う装置に適用できる。特に、映像を表示している状態で、対象物のスキャン処理を行うことが想定され得るテレビ会議装置などに好適に適用できる。   The present invention can be applied to an apparatus that performs display processing of an image or the like and scanning processing of an object. In particular, the present invention can be suitably applied to a video conference apparatus that can be assumed to perform scan processing of an object while displaying an image.

本発明の一実施形態に係るデータ表示/センサ装置の詳細構成を示すブロック図である。It is a block diagram which shows the detailed structure of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルの断面を示す模式図である。It is a schematic diagram which shows the cross section of the liquid crystal panel with a built-in sensor with which the data display / sensor apparatus which concerns on one Embodiment of this invention is provided. 図3(a)は、本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルにて反射像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。図3(b)は、本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルにて影像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。FIG. 3A is a schematic diagram showing a state in which a position touched by a user is detected by detecting a reflected image on a sensor built-in liquid crystal panel included in the data display / sensor device according to the embodiment of the present invention. is there. FIG. 3B is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a shadow image on the sensor built-in liquid crystal panel included in the data display / sensor device according to the embodiment of the present invention. . 本発明の一実施形態に係るデータ表示/センサ装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置で用いられるコマンドのフレーム構造の一例を示す模式図である。It is a schematic diagram which shows an example of the frame structure of the command used with the data display / sensor apparatus which concerns on one Embodiment of this invention. 図5に示したコマンドに含まれる各フィールドに指定可能な値の一例、および、その概要を示す説明図である。It is explanatory drawing which shows an example of the value which can be designated to each field contained in the command shown in FIG. 5, and its outline. 図7(a)は、本発明の一実施形態に係るデータ表示/センサ装置にて、対象物がセンサ内蔵液晶パネル上に置かれていないときに、センサ内蔵液晶パネル全体をスキャンした結果として得られる画像データである。図7(b)は、本発明の一実施形態に係るデータ表示/センサ装置にて、ユーザが指でセンサ内蔵液晶パネルをタッチしているときに、スキャンした結果として得られる画像データである。FIG. 7A is a result of scanning the entire sensor-equipped liquid crystal panel when the object is not placed on the sensor-equipped liquid crystal panel in the data display / sensor device according to the embodiment of the present invention. Image data. FIG. 7B shows image data obtained as a result of scanning when the user is touching the sensor-equipped liquid crystal panel with a finger in the data display / sensor device according to the embodiment of the present invention. 本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルの構成およびその周辺回路の構成を示すブロック図である。It is a block diagram which shows the structure of the liquid crystal panel with a sensor with which the data display / sensor apparatus which concerns on one Embodiment of this invention is provided, and the structure of its peripheral circuit. 本発明の一実施形態に係るデータ表示/センサ装置を含むテレビ会議システムの概略構成を示す模式図である。It is a schematic diagram which shows schematic structure of the video conference system containing the data display / sensor apparatus which concerns on one Embodiment of this invention. 図10(a)は、対象物である資料の表面を示した説明図である。図10(b)は、対象物である資料の裏面を示した説明図である。FIG. 10A is an explanatory diagram showing the surface of a material that is an object. FIG. 10B is an explanatory diagram showing the back side of the material that is the object. 図11(a)は、本発明の一実施形態に係るデータ表示/センサ装置が、テレビ会議の相手側の映像を表示している様子を示す図である。図11(b)は、対象物である資料が、本発明の一実施形態に係るデータ表示/センサ装置に載置された様子を示す図である。図11(c)は、載置領域およびその近傍を、単一色に表示した様子を示す図である。図11(d)は、対象物である資料をスキャンした結果として得られる画像データであるスキャンデータを、テレビ会議の相手側の映像に重畳して表示した様子を示す図である。図11(e)は、ユーザが、対象物である資料を取り除いた様子を示す図である。図11(f)は、ユーザが、スキャンデータを移動させて、スキャンデータの表示位置を変更した様子を示す図である。FIG. 11A is a diagram illustrating a state in which the data display / sensor device according to the embodiment of the present invention displays an image of the other party of the video conference. FIG. 11B is a diagram showing a state in which a material as an object is placed on the data display / sensor device according to the embodiment of the present invention. FIG. 11C is a diagram illustrating a state in which the placement area and the vicinity thereof are displayed in a single color. FIG. 11D is a diagram illustrating a state in which scan data, which is image data obtained as a result of scanning a material that is an object, is superimposed and displayed on the video of the other party of the video conference. FIG. 11E is a diagram illustrating a state where the user has removed the material that is the object. FIG. 11F is a diagram illustrating a state in which the user moves the scan data and changes the display position of the scan data. 本発明の一実施形態に係るデータ表示/センサ装置を含むテレビ会議システムにおいて、データ表示/センサ装置から、テレビ会議の相手先の装置に対して、スキャンデータを転送した様子を示す図である。It is a figure which shows a mode that the scan data was transferred to the other party apparatus of a video conference from a data display / sensor apparatus in the video conference system containing the data display / sensor apparatus which concerns on one Embodiment of this invention. 載置領域およびその近傍の一例を示す模式図である。It is a schematic diagram which shows an example of a mounting area | region and its vicinity. 本発明の一実施形態に係るデータ表示/センサ装置において、映像を表示させたまま、対象物のスキャンを行う処理の流れの一例を示すフローチャートである。6 is a flowchart illustrating an example of a flow of processing for scanning an object while displaying an image in the data display / sensor device according to the embodiment of the present invention. 本発明の一実施形態に係るデータ表示/センサ装置において、映像を表示させたまま、対象物のスキャンを行う処理の流れの他の一例を示すフローチャートである。7 is a flowchart showing another example of a process flow for scanning an object while displaying an image in the data display / sensor device according to the embodiment of the present invention. 本発明の一実施形態に係るデータ表示/センサ装置において、映像を表示させたまま、対象物のスキャンを行う処理の流れの他の一例を示すフローチャートである。7 is a flowchart showing another example of a process flow for scanning an object while displaying an image in the data display / sensor device according to the embodiment of the present invention.

符号の説明Explanation of symbols

22 スキャンデータ記憶部(記憶部)
13 対象物スキャン処理部
15 表示データ生成部(画像表示制御手段)
100 データ表示/センサ装置(画像表示/像検知装置)
131 対象物検知部(対象物検知手段)
132 載置領域情報保持部
133 単一色表示制御部(表示色制御手段)
134 対象物スキャン実行部
135 スキャンデータ保持部
136 スキャンデータ表示制御部(像表示制御手段)
137 スキャンデータ格納部(検知画像格納部)
300 表示/光センサ部
301 センサ内蔵液晶パネル(面状部材)
700 データ処理部
800 主制御部
RA 載置領域
P 資料(対象物)
SCD スキャンデータ(対象物の像の画像)
22 Scan data storage (storage)
13 Object Scan Processing Unit 15 Display Data Generation Unit (Image Display Control Unit)
100 Data display / sensor device (image display / image detection device)
131 Object detection unit (object detection means)
132 Placement area information holding unit 133 Single color display control unit (display color control means)
134 Object scan execution unit 135 Scan data holding unit 136 Scan data display control unit (image display control means)
137 Scan data storage (detected image storage)
300 Display / light sensor unit 301 Liquid crystal panel with built-in sensor (planar member)
700 Data processing unit 800 Main control unit RA Placement area P Material (object)
SCD scan data (image of object image)

Claims (7)

画像を表示するとともに、近傍の像を読み取る面状部材を備える画像表示/像検知装置であって、
上記面状部材に画像を表示させる画像表示制御手段と、
上記面状部材に対して対象物が載置された載置領域を検知する対象物検知手段と、
上記画像表示制御手段が上記面状部材に上記画像を表示させているとき、上記対象物の読み取りが指示された場合、上記対象物が載置された載置領域を所定の単一色で表示させるように上記画像表示制御手段に指示する表示色制御手段とを備え、
上記載置領域が上記単一色で表示されている状態で、上記面状部材は、上記載置領域にて上記対象物の像を読み取ることを特徴とする画像表示/像検知装置。
An image display / image detection apparatus including a planar member that displays an image and reads a nearby image,
Image display control means for displaying an image on the planar member;
An object detection means for detecting a placement area where the object is placed on the planar member;
When the image display control means is displaying the image on the planar member, when the reading of the object is instructed, the placement area on which the object is placed is displayed in a predetermined single color. Display color control means for instructing the image display control means,
An image display / image detection apparatus, wherein the planar member reads an image of the object in the placement area in a state where the placement area is displayed in the single color.
上記表示色制御手段は、さらに、上記載置領域の外縁の近傍を上記単一色で表示させるように上記画像表示制御手段に指示することを特徴とする請求項1に記載の画像表示/像検知装置。   2. The image display / image detection according to claim 1, wherein the display color control means further instructs the image display control means to display the vicinity of the outer edge of the placement area in the single color. apparatus. 上記対象物検知手段は、さらに、上記面状部材に対象物が載置されていないことを検知するものであり、
上記対象物検知手段が上記面状部材に対象物が載置されていないことを検知したとき、上記表示色制御手段は、上記単一色での表示を中止して上記画像を表示するように上記画像表示制御手段に指示することを特徴とする請求項1または2に記載の画像表示/像検知装置。
The object detection means further detects that the object is not placed on the planar member,
When the object detection means detects that the object is not placed on the planar member, the display color control means stops the display in the single color and displays the image. 3. The image display / image detection apparatus according to claim 1, wherein the image display control means is instructed.
上記面状部材にて、上記対象物の像の読み取りが完了したとき、上記表示色制御手段は、上記単一色での表示を中止して上記画像を表示するように上記画像表示制御手段に指示することを特徴とする請求項1または2に記載の画像表示/像検知装置。   When reading of the image of the object is completed on the planar member, the display color control unit instructs the image display control unit to stop displaying the single color and display the image. The image display / image detection apparatus according to claim 1, wherein: 上記面状部材にて読み取った上記対象物の像の画像を、鏡像反転した状態で、記憶部に格納する検知画像格納部を備えることを特徴とする請求項1から4のいずれか1項に記載の画像表示/像検知装置。   5. The detection image storage unit according to claim 1, further comprising a detection image storage unit that stores an image of the object image read by the planar member in a storage unit in a mirror image inverted state. The image display / image detection apparatus described. 上記画像表示制御手段が上記面状部材に画像を表示させているとき、上記面状部材にて読み取った上記対象物の像の画像を、鏡像反転した状態で、上記面状部材に表示させるように上記画像表示制御手段に指示する像表示制御手段を備えることを特徴とする請求項1から5のいずれか1項に記載の画像表示/像検知装置。   When the image display control means is displaying an image on the planar member, the image of the object read by the planar member is displayed on the planar member in a mirror image inverted state. 6. The image display / image detection apparatus according to claim 1, further comprising image display control means for instructing the image display control means. 上記面状部材にて、当該面状部材に表示している上記対象物の像の画像の表示位置を移動させるユーザ操作を検知したとき、上記像表示制御手段は、上記表示している上記対象物の像の画像を、上記ユーザ操作に応じた位置に移動させて表示するように上記画像表示制御手段に指示することを特徴とする請求項6に記載の画像表示/像検知装置。   In the planar member, when detecting a user operation to move the display position of the image of the target object displayed on the planar member, the image display control unit is configured to display the target displayed 7. The image display / image detection apparatus according to claim 6, wherein the image display control means is instructed to move and display an image of an object to a position corresponding to the user operation.
JP2008277031A 2008-10-28 2008-10-28 Image display/image detection apparatus Pending JP2010109467A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008277031A JP2010109467A (en) 2008-10-28 2008-10-28 Image display/image detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008277031A JP2010109467A (en) 2008-10-28 2008-10-28 Image display/image detection apparatus

Publications (1)

Publication Number Publication Date
JP2010109467A true JP2010109467A (en) 2010-05-13

Family

ID=42298512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008277031A Pending JP2010109467A (en) 2008-10-28 2008-10-28 Image display/image detection apparatus

Country Status (1)

Country Link
JP (1) JP2010109467A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012083728A (en) * 2010-09-14 2012-04-26 Semiconductor Energy Lab Co Ltd Driving method for input/output device
US8502772B2 (en) 2010-07-02 2013-08-06 Semiconductor Energy Laboratory Co., Ltd. Driving method of input/output device
US8605059B2 (en) 2010-07-02 2013-12-10 Semiconductor Energy Laboratory Co., Ltd. Input/output device and driving method thereof
US9626889B2 (en) 2012-09-24 2017-04-18 Semiconductor Energy Laboratory Co., Ltd. Method and program for driving information processing device
TWI637306B (en) * 2010-08-19 2018-10-01 半導體能源研究所股份有限公司 Input-output device and driving method of input-output device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8502772B2 (en) 2010-07-02 2013-08-06 Semiconductor Energy Laboratory Co., Ltd. Driving method of input/output device
US8605059B2 (en) 2010-07-02 2013-12-10 Semiconductor Energy Laboratory Co., Ltd. Input/output device and driving method thereof
TWI637306B (en) * 2010-08-19 2018-10-01 半導體能源研究所股份有限公司 Input-output device and driving method of input-output device
JP2012083728A (en) * 2010-09-14 2012-04-26 Semiconductor Energy Lab Co Ltd Driving method for input/output device
US9626889B2 (en) 2012-09-24 2017-04-18 Semiconductor Energy Laboratory Co., Ltd. Method and program for driving information processing device
US9933893B2 (en) 2012-09-24 2018-04-03 Semiconductor Energy Laboratory Co., Ltd. Method and program for driving information processing device

Similar Documents

Publication Publication Date Title
JP5367339B2 (en) MENU DISPLAY DEVICE, MENU DISPLAY DEVICE CONTROL METHOD, AND MENU DISPLAY PROGRAM
JP2010140300A (en) Display, control method, control program and recording medium
JP5095574B2 (en) Image display / image detection apparatus, image display method, image display program, and recording medium recording the program
JP2010186442A (en) Input device and input control method
JP2010109467A (en) Image display/image detection apparatus
JP2010108303A (en) Image detection/display device
JP5306780B2 (en) Input device
JP2010122972A (en) Image display/detection device, selection method, and program
JP5254753B2 (en) Numerical input device, numerical input method, numerical input program, and computer-readable recording medium
JP2010204945A (en) Input device and input method
JP2010118018A (en) Position identifying device, position identification program, computer-readable storage medium, and position identification method
JP5567776B2 (en) Color detection / color output device, color detection / color output program, computer-readable recording medium, and color detection / color output method
JP2010211414A (en) Image display/image detection device, control method, control program, and computer-readable recording medium with the program recorded thereon
JP2010119064A (en) Color detection device, color detection program, computer readable recording medium, and color detection method
JP2010122444A (en) Map display apparatus, method for controlling map display apparatus, program for controlling map display apparatus, and computer readable recording medium
JP2010118016A (en) Input device, input method, input program, and computer-readable recording medium
WO2010050567A1 (en) Data transmission support device, electronic equipment and data transmission support device control method
JP2010117841A (en) Image detection device, recognition method of input position and program
JP2010160689A (en) Input device and method of controlling the same
JP2010109947A (en) Processing execution command device, electronic equipment, and method of controlling processing execution command device
JP2010092272A (en) Image display/image detection device, auxiliary image display method, and program
JP2010108446A (en) Information processor, control method of information processor, and information processing program
JP5171572B2 (en) Image display device, control method for image display device, program, and recording medium
JP2010146394A (en) Image detector, control method, control program, and computer-readable recording medium recording the control program
JP5179325B2 (en) Image analysis apparatus, image analysis method, display apparatus, image analysis program, and recording medium