JP2010224635A - Display device, display method and display program - Google Patents

Display device, display method and display program Download PDF

Info

Publication number
JP2010224635A
JP2010224635A JP2009068252A JP2009068252A JP2010224635A JP 2010224635 A JP2010224635 A JP 2010224635A JP 2009068252 A JP2009068252 A JP 2009068252A JP 2009068252 A JP2009068252 A JP 2009068252A JP 2010224635 A JP2010224635 A JP 2010224635A
Authority
JP
Japan
Prior art keywords
image
contact area
touch panel
data
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009068252A
Other languages
Japanese (ja)
Other versions
JP5322163B2 (en
Inventor
Atsushi Kubota
篤 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009068252A priority Critical patent/JP5322163B2/en
Publication of JP2010224635A publication Critical patent/JP2010224635A/en
Application granted granted Critical
Publication of JP5322163B2 publication Critical patent/JP5322163B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Liquid Crystal (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Position Input By Displaying (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To simplify the editing operation of image through a touch panel by a user. <P>SOLUTION: The display device 100 includes: a touch panel 140, an acquisition means 111 for acquiring a contact area through the touch panel 140; a first determination means 112 for determining whether the shape of the contact area satisfies a predetermined condition; and a display control means 114 for displaying an image in a position corresponding to a first contact area in which the predetermined condition is not satisfied through the touch panel, and erasing image within a second contact area wherein the predetermined condition is satisfied. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、タッチパネルを介してユーザから命令を受け付けるとともに、当該タッチパネルを介して画像を表示することができる表示装置、表示方法、および表示プログラムに関する。   The present invention relates to a display device, a display method, and a display program capable of receiving an instruction from a user via a touch panel and displaying an image via the touch panel.

従来から、タッチパネルを介してユーザから命令を受け付けるとともに、当該タッチパネルを介して画像やテキストを表示することができる表示装置が知られている。ユーザがスタイラスペンなどを介してタッチパネルに手書き入力すると、表示装置は当該タッチパネルを介して当該手書き入力に対応する線画像(手書き文字など)を表示する。ペンや指をタッチパネルに接触させることによって画像を編集する技術としては、以下のような技術が開示されている。   Conventionally, there has been known a display device that can receive an instruction from a user via a touch panel and display an image or text via the touch panel. When the user inputs handwriting on the touch panel via a stylus pen or the like, the display device displays a line image (handwritten character or the like) corresponding to the handwriting input via the touch panel. The following techniques are disclosed as techniques for editing an image by bringing a pen or a finger into contact with a touch panel.

たとえば、特開平5−224853号公報(特許文献1)には、電子ボードが開示されている。特開平5−224853号公報(特許文献1)によると、電子ボードは、図形や文書を表示する表示手段と、前記表示手段上に表示すべき図形情報や文書情報を編集作成する編集手段と、前記表示手段上に表示すべき図形情報や文書情報及びそれらの表示位置情報を管理する表示入出力管理手段と、前記表示手段上に表示されている図形や文書の一部分を指示する入力手段と、指示位置を検出する位置検出手段とを有する。前記入力手段は入力対象とする表示物の種類に応じた編集加工の機能をもち、入力操作中の入力手段が入力操作の対象としている表示物の種類を判別する表示物判別手段と、入力操作中の入力手段が入力操作の対象としている表示物の種類に応じた編集加工の機能を選択する編集機能選択手段とを有する。   For example, JP-A-5-224853 (Patent Document 1) discloses an electronic board. According to Japanese Patent Application Laid-Open No. 5-224853 (Patent Document 1), an electronic board includes display means for displaying graphics and documents, editing means for editing and creating graphic information and document information to be displayed on the display means, Graphic information and document information to be displayed on the display means and display input / output management means for managing the display position information; input means for designating a part of the graphic or document displayed on the display means; Position detecting means for detecting the indicated position. The input means has a function of editing processing according to the type of display object to be input, and the display object discrimination means for determining the type of display object to be input by the input means during the input operation, and the input operation The input means includes an edit function selecting means for selecting an edit processing function corresponding to the type of display object to be input.

また、特開平7−175587号公報(特許文献2)には、情報処理装置が開示されている。特開平7−175587号公報(特許文献2)によると、机には平面ディスプレイがはめ込まれ、データが表示されている。また、机上には、現実物としてのファイルが置かれている。机にはカメラが設置されており、表示されているデータと、現実物と、操作者の手の状態が撮像される。処理装置は、手の動作から操作者の意図を理解してその意図に沿った動作を行なう。例えば、操作者がデータを手でファイル方向に移動させる動作をしたときはデータをファイル方向に移動して表示し、ある距離に近づいたときはそのデータを図示しない記憶装置内にファイルする。例えばファイルの代わりにFAX送信機が机上においてあり、データをFAX送信機方向に移動して重ねたときそのデータを自動的にFAXする。   Japanese Patent Laid-Open No. 7-175587 (Patent Document 2) discloses an information processing apparatus. According to Japanese Patent Application Laid-Open No. 7-175587 (Patent Document 2), a flat display is fitted on a desk to display data. A file as a real object is placed on the desk. A camera is installed on the desk, and the displayed data, real objects, and the state of the operator's hand are imaged. The processing device understands the operator's intention from the movement of the hand and performs an operation in accordance with the intention. For example, when the operator moves the data in the file direction by hand, the data is moved and displayed in the file direction, and when approaching a certain distance, the data is filed in a storage device (not shown). For example, instead of a file, a FAX transmitter is on the desk, and when the data is moved in the direction of the FAX transmitter and superimposed, the data is automatically FAXed.

また、特開2004−199181号公報(特許文献3)には、座標入力装置、ディスプレイ装置が開示されている。特開2004−199181号公報(特許文献3)によると、表示画面上がユーザの所持するペンマウス等によってタッチされると、そのタッチ部分の座標が検出される。ユーザがペンマウスを所持してタッチする操作の際には、ペンマウスの先端がタッチするのみならず、ペンマウスを所持する手の甲がタッチしてしまうことがある。かかる場合に、演算部は所定時間内における各タッチ部分の移動量を求め、当該移動量の大きいタッチ部分を選択し、選択したタッチ部分の座標データを出力する。   Japanese Patent Laying-Open No. 2004-199181 (Patent Document 3) discloses a coordinate input device and a display device. According to Japanese Patent Laying-Open No. 2004-199181 (Patent Document 3), when the display screen is touched by a pen mouse or the like possessed by the user, the coordinates of the touched portion are detected. When an operation of touching the pen mouse by the user is performed, not only the tip of the pen mouse touches but also the back of the hand holding the pen mouse may touch. In such a case, the calculation unit obtains a movement amount of each touch portion within a predetermined time, selects a touch portion having a large movement amount, and outputs coordinate data of the selected touch portion.

特開平5−224853号公報Japanese Patent Laid-Open No. 5-224853 特開平7−175587号公報Japanese Patent Laid-Open No. 7-175589 特開2004−199181号公報JP 2004-199181 A

しかしながら、従来のタッチパネルを有する表示装置においては、ユーザが手書き画像を入力する際に、たとえば「線をひく」、「消しゴムで消す」といった項目(アイコンなど)を一旦選択してから、当該項目に対応する操作をタッチパネルを介して表示装置へと入力していた。すなわち、手書き入力するための入力操作が煩雑であった。   However, in a display device having a conventional touch panel, when a user inputs a handwritten image, for example, an item (such as an icon) such as “Draw a line” or “Erase with an eraser” is selected once, and then the item is selected. Corresponding operations were input to the display device via the touch panel. That is, an input operation for handwriting input is complicated.

本発明は、このような問題を解決するためになされたものであり、その目的は、ユーザによるタッチパネルを介した画像の編集操作を簡略化することである。   The present invention has been made to solve such a problem, and an object thereof is to simplify an image editing operation by a user via a touch panel.

この発明のある局面に従うと、表示装置が提供される。表示装置は、タッチパネルと、タッチパネルを介して接触領域を取得する取得手段と、接触領域の形状が所定の条件を満たすか否かを判断する第1の判断手段と、タッチパネルを介して所定の条件を満たさない第1の接触領域に対応する位置に画像を表示し、所定の条件を満たす第2の接触領域内の画像を消去する表示制御手段とを備える。   According to one aspect of the present invention, a display device is provided. The display device includes a touch panel, an acquisition unit that acquires the contact area via the touch panel, a first determination unit that determines whether the shape of the contact area satisfies a predetermined condition, and a predetermined condition via the touch panel. Display control means for displaying an image at a position corresponding to the first contact area that does not satisfy the condition, and erasing the image in the second contact area that satisfies the predetermined condition.

好ましくは、第1の判断手段は、接触領域の面積が所定の値以上であるか否かを判断し、接触領域の面積が所定の値以上である場合に接触領域の形状が所定の条件を満たすと判断し、接触領域の面積が所定の値未満である場合に接触領域の形状が所定の条件を満たさないと判断する。   Preferably, the first determination means determines whether or not the area of the contact region is equal to or greater than a predetermined value, and when the area of the contact region is equal to or greater than the predetermined value, the shape of the contact region satisfies a predetermined condition. If it is determined that the contact area is smaller than a predetermined value, it is determined that the shape of the contact area does not satisfy the predetermined condition.

好ましくは、表示装置は、取得手段が第2の接触領域を取得したときに、取得手段が最新の第1の接触領域を取得してから第2の接触領域を取得するまでの時間が所定の時間未満であるか否かを判断する第2の判断手段をさらに備える。表示制御手段は、取得手段が最新の第1の接触領域を取得してから第2の接触領域を取得するまでの時間が所定の時間未満である場合、最新の第1の接触領域に対応する画像を含む一連の画像を消去し、取得手段が最新の第1の接触領域を取得してから第2の接触領域を取得するまでの時間が所定の時間以上である場合、第2の接触領域内の画像を消去する。   Preferably, when the acquisition unit acquires the second contact area, the display device has a predetermined time from when the acquisition unit acquires the latest first contact area until the acquisition of the second contact area. Second determination means for determining whether the time is less than or not is further provided. The display control means corresponds to the latest first contact area when the time from the acquisition means acquiring the latest first contact area to the acquisition of the second contact area is less than a predetermined time. When a series of images including images is erased, and the time from when the acquisition unit acquires the latest first contact area until the second contact area is acquired is a predetermined time or more, the second contact area Delete the image inside.

好ましくは、タッチパネルは、入射光に応じて第1の電気信号を生成する複数の光センサ回路と、第2の電気信号に応じて光を発する複数の画素回路とを含む。取得手段は、複数の光センサ回路からの第1の電気信号に基づき、接触領域としての画像データを生成する。表示制御手段は、画像に対応する第2の電気信号を複数の画素回路へ入力することによって、複数の画素回路に画像を表示させる。   Preferably, the touch panel includes a plurality of photosensor circuits that generate a first electrical signal in response to incident light and a plurality of pixel circuits that emit light in response to a second electrical signal. The acquisition unit generates image data as a contact area based on the first electrical signals from the plurality of photosensor circuits. The display control means causes the plurality of pixel circuits to display an image by inputting a second electrical signal corresponding to the image to the plurality of pixel circuits.

好ましくは、取得手段は、タッチパネルを介して一連の接触領域を手書き入力として取得する。一連の接触領域に対応する一連の画像は、線画像である。   Preferably, the acquisition unit acquires a series of contact areas as handwritten input via the touch panel. The series of images corresponding to the series of contact areas is a line image.

この発明の別の局面に従うと、タッチパネルと演算処理部とを備える表示装置における表示方法が提供される。表示方法は、演算処理部が、タッチパネルを介して接触領域を取得するステップと、演算処理部が、接触領域の形状が所定の条件を満たすか否かを判断するステップと、演算処理部が、タッチパネルを介して所定の条件を満たさない第1の接触領域に対応する位置に画像を表示するステップと、演算処理部が、所定の条件を満たす第2の接触領域内の画像を消去するステップとを備える。   When another situation of this invention is followed, the display method in a display apparatus provided with a touchscreen and a calculation process part is provided. The display method includes a step in which the arithmetic processing unit acquires the contact area via the touch panel, a step in which the arithmetic processing unit determines whether or not the shape of the contact area satisfies a predetermined condition, and the arithmetic processing unit includes: A step of displaying an image at a position corresponding to the first contact area that does not satisfy the predetermined condition via the touch panel; and a step of the operation processing unit erasing the image in the second contact area that satisfies the predetermined condition. Is provided.

この発明の別の局面に従うと、タッチパネルと演算処理部とを備える表示装置に画像を表示させるための表示プログラムが提供される。表示プログラムは、演算処理部に、タッチパネルを介して接触領域を取得するステップと、接触領域の形状が所定の条件を満たすか否かを判断するステップと、タッチパネルを介して所定の条件を満たさない第1の接触領域に対応する位置に画像を表示するステップと、所定の条件を満たす第2の接触領域内の画像を消去するステップとを実行させる。   If another situation of this invention is followed, the display program for displaying an image on a display apparatus provided with a touch panel and a calculation process part will be provided. The display program causes the arithmetic processing unit to acquire a contact area via the touch panel, to determine whether the shape of the contact area satisfies a predetermined condition, and does not satisfy the predetermined condition via the touch panel. A step of displaying an image at a position corresponding to the first contact area and a step of erasing the image in the second contact area satisfying a predetermined condition are executed.

以上のように、本発明によって、ユーザによるタッチパネルを介した画像の編集操作が簡略化される。   As described above, according to the present invention, the image editing operation by the user via the touch panel is simplified.

本実施の形態に係る電子機器100の動作概要を示す第1のイメージ図である。It is a 1st image figure which shows the operation | movement outline | summary of the electronic device 100 which concerns on this Embodiment. 本実施の形態に係る電子機器100の動作概要を示す第2のイメージ図である。It is a 2nd image figure which shows the operation | movement outline | summary of the electronic device 100 which concerns on this Embodiment. 電子機器のハードウェア構成を表わすブロック図である。It is a block diagram showing the hardware constitutions of an electronic device. タッチパネルの構成と当該タッチパネルの周辺回路とを示した図である。It is the figure which showed the structure of the touchscreen, and the peripheral circuit of the said touchscreen. タッチパネルとバックライトとの断面図である。It is sectional drawing of a touchscreen and a backlight. 光センサ回路を動作させる際のタイミングチャートを示した図である。It is the figure which showed the timing chart at the time of operating an optical sensor circuit. スキャンの際にフォトダイオードがバックライトからの光を受光する構成を示した断面図である。It is sectional drawing which showed the structure which a photodiode receives the light from a backlight in the case of a scan. センシングコマンドの概略構成を示した図である。It is the figure which showed schematic structure of the sensing command. センシングコマンドの各領域におけるデータの値と当該値が示す意味内容とを示した図である。It is the figure which showed the value of the data in each area | region of a sensing command, and the meaning content which the said value shows. 応答データの概略構成を示した図である。It is the figure which showed schematic structure of the response data. 指をスキャンすることにより得られた画像を示した図である。It is the figure which showed the image obtained by scanning a finger | toe. 光センサ内蔵液晶パネルの変形例を示す回路図である。It is a circuit diagram which shows the modification of the liquid crystal panel with a built-in optical sensor. スキャンの際にフォトダイオードが外光を受光する構成を示した断面図である。It is sectional drawing which showed the structure which a photodiode receives external light in the case of a scan. 本実施の形態に係る電子機器の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the electronic device which concerns on this Embodiment. タッチパネルおよび取得部にて2つ以上の接触領域が検知された場合の電子機器と生成された画像データとを示すイメージ図である。It is an image figure which shows the electronic device and produced | generated image data when two or more contact areas are detected in the touch panel and the acquisition part. 本実施の形態に係る電子機器における表示処理の処理手順を示すイメージ図である。It is an image figure which shows the process sequence of the display process in the electronic device which concerns on this Embodiment.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

<電子機器100の概略構成>
まず、図1を参照して、タッチパネルを有する表示装置の一例としての、本実施の形態に係る光センサ内蔵液晶パネル140(以下、タッチパネル140ともいう)を有する電子機器100の概略構成について説明する。なお、電子機器100は、PDA(Personal Digital Assistant)、パーソナルコンピュータ、携帯型電話機、電子辞書などの情報機器によって実現される。
<Schematic Configuration of Electronic Device 100>
First, with reference to FIG. 1, a schematic configuration of an electronic device 100 having an optical sensor built-in liquid crystal panel 140 (hereinafter also referred to as a touch panel 140) according to the present embodiment as an example of a display device having a touch panel will be described. . The electronic device 100 is realized by an information device such as a PDA (Personal Digital Assistant), a personal computer, a mobile phone, or an electronic dictionary.

図1は、本実施の形態に係る電子機器100の動作概要を示す第1のイメージ図である。より詳細には、図1(A)は、スタイラスペン99によってタッチパネル140に第1の手書き画像が入力されたときのイメージ図である。図1(B)は、スタイラスペン99によってタッチパネル140に第2の手書き画像が入力されたときのイメージ図である。図1(C)は、タッチパネル140への入力が完了したときの第1のイメージ図である。図1(D)は、指900がタッチパネル140の第1の手書き画像にタッチしたときイメージ図である。図1(E)は、タッチパネル140への入力が完了したときの第2のイメージ図である。   FIG. 1 is a first conceptual diagram showing an outline of operation of electronic device 100 according to the present embodiment. More specifically, FIG. 1A is an image diagram when the first handwritten image is input to touch panel 140 by stylus pen 99. FIG. 1B is an image diagram when a second handwritten image is input to touch panel 140 by stylus pen 99. FIG. 1C is a first image diagram when input to the touch panel 140 is completed. FIG. 1D is an image diagram when the finger 900 touches the first handwritten image on the touch panel 140. FIG. 1E is a second image diagram when the input to the touch panel 140 is completed.

電子機器100は、タッチパネル140と、操作キー177とを含む。タッチパネル140は、ユーザから手書き入力命令を受け付けるともともに、当該手書き入力命令に対応する手書き画像を表示する。本実施の形態に係るタッチパネル140は、外部の物体とタッチパネル140との接触領域を検知することができる。タッチパネルは、本実施の形態に係る光センサ内臓液晶パネル140であってもよいし、多数の接触位置が検知できる静電容量方式や赤外線方式のタッチパネルであっても良い。操作キー177も、操作命令を受け付ける。   Electronic device 100 includes a touch panel 140 and operation keys 177. Touch panel 140 receives a handwriting input command from the user and displays a handwritten image corresponding to the handwriting input command. Touch panel 140 according to the present embodiment can detect a contact area between an external object and touch panel 140. The touch panel may be the optical sensor built-in liquid crystal panel 140 according to the present embodiment, or may be a capacitive touch panel or an infrared touch panel capable of detecting a large number of contact positions. The operation key 177 also receives an operation command.

<電子機器100の動作概要>
次に、本実施の形態に係る電子機器100の動作概要について説明する。まず、図1(A)を参照して、ユーザがスタイラスペン99をタッチパネル140上でスライドさせる。電子機器100は、スタイラスペン99のスライド操作(第1の手書き入力命令)を検知して、当該スライド操作に対応する第1の手書き画像(第1の線画像)をタッチパネル140に表示する。
<Outline of Operation of Electronic Device 100>
Next, an outline of operation of electronic device 100 according to the present embodiment will be described. First, referring to FIG. 1A, the user slides stylus pen 99 on touch panel 140. The electronic device 100 detects a slide operation (first handwriting input command) of the stylus pen 99 and displays a first handwritten image (first line image) corresponding to the slide operation on the touch panel 140.

図1(B)を参照して、再度、ユーザがスタイラスペン99をタッチパネル140上でスライドさせる。電子機器100は、スタイラスペン99のスライド操作(第2の手書き入力命令)を検知して、当該スライド操作に対応する第2の手書き画像(第2の線画像)をタッチパネル140に表示する。   Referring to FIG. 1B, the user slides stylus pen 99 on touch panel 140 again. Electronic device 100 detects a slide operation (second handwriting input command) of stylus pen 99 and displays a second handwritten image (second line image) corresponding to the slide operation on touch panel 140.

その結果、図1(C)を参照して、電子機器100は、タッチパネル140に第1の手書き画像と第2の手書き画像とを表示する。   As a result, referring to FIG. 1C, electronic device 100 displays the first handwritten image and the second handwritten image on touch panel 140.

一方、図1(D)を参照して、電子機器100がタッチパネル140に第1の手書き画像を表示している状態において、ユーザが指900で第1の手書き画像にタッチする。図1(E)を参照して、電子機器100は、第1の手書き画像のうち、ユーザの指900がタッチした領域(接触領域)に対応する部分(線画像の一部)を消去する。すなわち、電子機器100は、ユーザの指900がタッチした領域以外の第1の手書き画像をタッチパネル140に表示させる。   On the other hand, referring to FIG. 1D, in a state where electronic device 100 displays the first handwritten image on touch panel 140, the user touches the first handwritten image with finger 900. Referring to FIG. 1E, electronic device 100 erases a portion (part of a line image) corresponding to an area (contact area) touched by user's finger 900 from the first handwritten image. That is, electronic device 100 causes touch panel 140 to display the first handwritten image other than the area touched by user's finger 900.

このように、本実施の形態に係る電子機器100は、スタイラスペン99がタッチパネル140にタッチした領域(第1の接触領域)に基づいて手書き画像を描画する。そして、電子機器100は、指900がタッチパネル140にタッチした領域(第2の接触領域)に基づいて、既に描画されている画像のうち第2の接触領域内に位置する部分を削除する。   As described above, electronic device 100 according to the present embodiment draws a handwritten image based on an area (first contact area) where stylus pen 99 touches touch panel 140. Then, based on the area (second contact area) where the finger 900 touches the touch panel 140, the electronic device 100 deletes a portion located in the second contact area from the already drawn image.

その結果、ユーザは、手書き画像を消去するためのアイコン(消しゴムのアイコンなど)を選んだり、手書き画像を描画するためのアイコン(ペンのアイコンなど)を再度選んだりする必要がなくなる。換言すれば、ユーザは、アイコンを選びなおすことなく、描画命令および消去命令を電子機器100に入力することができる。すなわち、ユーザによるタッチパネル140を介しての入力操作をより簡略化することができる。   As a result, the user does not need to select an icon for erasing the handwritten image (such as an eraser icon) or reselect an icon for drawing the handwritten image (such as a pen icon). In other words, the user can input a drawing command and an erasing command to the electronic device 100 without selecting an icon again. That is, an input operation by the user via the touch panel 140 can be further simplified.

さらに、本実施の形態に係る電子機器100は、以下のような機能も有する。図2は、本実施の形態に係る電子機器100の動作概要を示す第2のイメージ図である。より詳細には、図2(A)は、スタイラスペン99によってタッチパネル140に第1の手書き画像が入力されたときのイメージ図である。図2(B)は、第1の手書き画像の入力後所定時間以内に指900がタッチパネル140の第1の手書き画像にタッチしたときイメージ図である。図1(C)は、タッチパネル140への入力が完了したときの第1のイメージ図である。図1(D)は、第1の手書き画像の入力後所定時間経過後に指900がタッチパネル140の第1の手書き画像にタッチしたときイメージ図である。図1(E)は、タッチパネル140への入力が完了したときの第2のイメージ図である。   Furthermore, electronic device 100 according to the present embodiment also has the following functions. FIG. 2 is a second image diagram showing an outline of the operation of electronic device 100 according to the present embodiment. More specifically, FIG. 2A is an image diagram when a first handwritten image is input to touch panel 140 by stylus pen 99. FIG. 2B is an image diagram when the finger 900 touches the first handwritten image on the touch panel 140 within a predetermined time after the input of the first handwritten image. FIG. 1C is a first image diagram when input to the touch panel 140 is completed. FIG. 1D is an image diagram when the finger 900 touches the first handwritten image on the touch panel 140 after a predetermined time has elapsed after the input of the first handwritten image. FIG. 1E is a second image diagram when the input to the touch panel 140 is completed.

まず、図2(A)を参照して、ユーザがスタイラスペン99をタッチパネル140上でスライドさせる。電子機器100は、スタイラスペン99のスライド操作(第1の手書き入力命令)を検知して、当該スライド操作に対応する第1の手書き画像(第1の線画像)をタッチパネル140に表示する。   First, referring to FIG. 2A, the user slides stylus pen 99 on touch panel 140. The electronic device 100 detects a slide operation (first handwriting input command) of the stylus pen 99 and displays a first handwritten image (first line image) corresponding to the slide operation on the touch panel 140.

図1(B)を参照して、ユーザが、スタイラスペン99をタッチパネル140から持ち上げた直後に、指900で第1の手書き画像にタッチする。すなわち、スタイラスペン99がタッチパネル140から持ち上げられたことが検知されてから所定時間(たとえば1秒間)が経過する前に、ユーザが指900を第1の手書き画像にタッチさせる。図1(C)を参照して、電子機器100は第1の手書き画像を消去する。   Referring to FIG. 1B, the user touches the first handwritten image with finger 900 immediately after lifting stylus pen 99 from touch panel 140. That is, the user touches the first handwritten image with the finger 900 before a predetermined time (for example, 1 second) elapses after it is detected that the stylus pen 99 is lifted from the touch panel 140. Referring to FIG. 1C, electronic device 100 erases the first handwritten image.

一方、図1(D)を参照して、ユーザが、スタイラスペン99をタッチパネル140から持ち上げてから所定時間経過後に、指900で第1の手書き画像にタッチする。すなわち、スタイラスペン99がタッチパネル140から持ち上げられたことが検知されてから所定時間経過後に、ユーザが指900を第1の手書き画像にタッチさせる。図1(E)を参照して、電子機器100は、第1の手書き画像のうち、指900とタッチパネル140との接触領域(第2の領域)内に位置する部分を消去する。   On the other hand, referring to FIG. 1D, the user touches the first handwritten image with finger 900 after elapse of a predetermined time after lifting stylus pen 99 from touch panel 140. That is, the user touches the first handwritten image with the finger 900 after a predetermined time has elapsed since it was detected that the stylus pen 99 was lifted from the touch panel 140. Referring to FIG. 1E, electronic device 100 erases a portion of the first handwritten image that is located in a contact area (second area) between finger 900 and touch panel 140.

このように、本実施の形態に係る電子機器100は、第1の手書き画像が入力された直後に指900が当該第1の手書き画像にタッチすると当該第1の手書き画像全体を消去する。一方、電子機器100は、第1の手書き画像が入力されてから所定時間が経過してから指900が当該第1の手書き画像にタッチすると指900の接触領域内の画像のみを消去する。   Thus, electronic device 100 according to the present embodiment erases the entire first handwritten image when finger 900 touches the first handwritten image immediately after the first handwritten image is input. On the other hand, electronic device 100 erases only the image in the contact area of finger 900 when finger 900 touches the first handwritten image after a predetermined time has elapsed since the first handwritten image was input.

これによって、ユーザは、第1の手書き画像の全部に指900でタッチしなくても、第1の手書き画像の全部を削除することができる。すなわち、ユーザによるタッチパネルを介しての入力操作を簡略化することができる。   Thus, the user can delete the entire first handwritten image without touching the entire first handwritten image with the finger 900. That is, the input operation by the user via the touch panel can be simplified.

以下、このような機能を実現するための構成について詳述する。
<電子機器100のハードウェア構成>
次に、本実施の形態に係る電子機器100の具体的構成の一態様について説明する。図3は、本実施の形態に係る電子機器100のハードウェア構成を表わすブロック図である。図3を参照して、電子機器100は、主たる構成要素として、本体装置101と、表示装置102とを含む。
Hereinafter, a configuration for realizing such a function will be described in detail.
<Hardware Configuration of Electronic Device 100>
Next, an aspect of a specific configuration of electronic device 100 according to the present embodiment will be described. FIG. 3 is a block diagram showing a hardware configuration of electronic device 100 according to the present embodiment. Referring to FIG. 3, electronic device 100 includes a main device 101 and a display device 102 as main components.

本体装置101は、CPU(Central Processing Unit)110と、RAM(Random Access Memory)171と、ROM(Read-Only Memory)172と、メモリカードリーダライタ173と、通信部174と、マイク175と、スピーカ176と、操作キー177とを含む。各構成要素は、相互にデータバスDB1によって接続されている。メモリカードリーダライタ173には、メモリカード1731が装着される。   The main unit 101 includes a CPU (Central Processing Unit) 110, a RAM (Random Access Memory) 171, a ROM (Read-Only Memory) 172, a memory card reader / writer 173, a communication unit 174, a microphone 175, and a speaker. 176 and operation keys 177 are included. Each component is connected to each other by a data bus DB1. A memory card 1731 is attached to the memory card reader / writer 173.

CPU110は、プログラムを実行する。操作キー177は、電子機器100の使用者による指示の入力を受ける。RAM171は、CPU110によるプログラムの実行により生成されたデータ、または操作キー177を介して入力されたデータを揮発的に格納する。ROM172は、データを不揮発的に格納する。また、ROM172は、EPROM(Erasable Programmable Read-Only Memory)やフラッシュメモリなどの書き込みおよび消去が可能なROMである。通信部174は、図示しない他の電子機器との間で無線通信を行なう。なお、図3には図示していないが、電子機器100が、他の電子機器に有線により接続するためのインターフェイス(IF)を含む構成としてもよい。   CPU 110 executes a program. The operation key 177 receives an instruction input from the user of the electronic device 100. The RAM 171 stores data generated by the execution of the program by the CPU 110 or data input via the operation keys 177 in a volatile manner. The ROM 172 stores data in a nonvolatile manner. The ROM 172 is a ROM capable of writing and erasing, such as an EPROM (Erasable Programmable Read-Only Memory) and a flash memory. The communication unit 174 performs wireless communication with other electronic devices (not shown). Although not shown in FIG. 3, the electronic device 100 may include an interface (IF) for connecting to another electronic device by wire.

表示装置102は、ドライバ130と、光センサ内蔵液晶パネル140(タッチパネル140)と、内部IF178と、バックライト179と、画像処理エンジン180とを含む。   The display device 102 includes a driver 130, an optical sensor built-in liquid crystal panel 140 (touch panel 140), an internal IF 178, a backlight 179, and an image processing engine 180.

ドライバ130は、タッチパネル140およびバックライト179を駆動するための駆動回路である。ドライバ130に含まれる各種の駆動回路については、後述する。   The driver 130 is a drive circuit for driving the touch panel 140 and the backlight 179. Various drive circuits included in the driver 130 will be described later.

タッチパネル140は、液晶ディスプレイの機能と光センサの機能とを備えたデバイスである。つまり、タッチパネル140は、液晶を用いた画像の表示と、光センサを用いたセンシングとを行なうことができる。タッチパネル140の詳細については、後述する。   The touch panel 140 is a device having a liquid crystal display function and an optical sensor function. That is, the touch panel 140 can perform image display using liquid crystal and sensing using an optical sensor. Details of the touch panel 140 will be described later.

内部IF(Interface)178は、本体装置101と表示装置102との間で、データの遣り取りを仲介する。   An internal IF (Interface) 178 mediates exchange of data between the main device 101 and the display device 102.

バックライト179は、タッチパネル140の裏面に配置された光源である。バックライト179は、当該裏面に対して均一な光を照射する。   The backlight 179 is a light source disposed on the back surface of the touch panel 140. The backlight 179 irradiates the back surface with uniform light.

画像処理エンジン180は、ドライバ130を介してタッチパネル140の動作を制御する。ここで、当該制御は、内部IF178を介して本体装置101から送られてくる各種データに基づいて行われる。なお、当該各種データは、後述するコマンドを含む。また、画像処理エンジン180は、タッチパネル140から出力されるデータを処理し、処理したデータを内部IF178を介して本体装置101に送る。さらに、画像処理エンジン180は、ドライバ制御部181と、タイマ182と、信号処理部183とを含む。   The image processing engine 180 controls the operation of the touch panel 140 via the driver 130. Here, the control is performed based on various data sent from the main apparatus 101 via the internal IF 178. Note that the various data includes commands to be described later. Further, the image processing engine 180 processes the data output from the touch panel 140 and sends the processed data to the main body device 101 via the internal IF 178. Further, the image processing engine 180 includes a driver control unit 181, a timer 182, and a signal processing unit 183.

ドライバ制御部181は、ドライバ130に対して制御信号を送ることによりドライバ130の動作を制御する。また、ドライバ制御部181は、本体装置101から送られてくるコマンドを解析する。そして、ドライバ制御部181は、当該解析の結果に基づいた制御信号をドライバ130に送る。ドライバ130の動作の詳細については、後述する。   The driver control unit 181 controls the operation of the driver 130 by sending a control signal to the driver 130. In addition, the driver control unit 181 analyzes a command transmitted from the main device 101. Then, the driver control unit 181 sends a control signal based on the analysis result to the driver 130. Details of the operation of the driver 130 will be described later.

タイマ182は、時刻情報を生成し、信号処理部183に対して時刻情報を送る。
信号処理部183は、上記光センサから出力されるデータを受け取る。ここで、上記光センサから出力されるデータはアナログデータであるため、信号処理部183は、まず当該アナログデータをデジタルデータに変換する。さらに、信号処理部183は、当該デジタルデータに対して、本体装置101から送られてくるコマンドの内容に応じたデータ処理を行なう。そして、信号処理部183は、上記データ処理を行った後のデータと、タイマ182から取得した時刻情報とを含んだデータ(以下、応答データと称する)を本体装置101に送る。また、信号処理部183は、後述するスキャンデータを連続して複数格納できるRAM(図示せず)を備えている。
The timer 182 generates time information and sends the time information to the signal processing unit 183.
The signal processing unit 183 receives data output from the optical sensor. Here, since the data output from the optical sensor is analog data, the signal processing unit 183 first converts the analog data into digital data. Further, the signal processing unit 183 performs data processing on the digital data according to the content of the command sent from the main device 101. Then, the signal processing unit 183 sends data (hereinafter referred to as response data) including data after the above data processing and time information acquired from the timer 182 to the main unit 101. The signal processing unit 183 includes a RAM (not shown) that can store a plurality of scan data, which will be described later, continuously.

上記コマンドは、上記光センサによりセンシングを指示するセンシングコマンドを含む。当該センシングコマンドの詳細および上記応答データの詳細については、後述する(図8〜図10)。   The command includes a sensing command for instructing sensing by the optical sensor. Details of the sensing command and the response data will be described later (FIGS. 8 to 10).

なお、タイマ182は、必ずしも画像処理エンジン180に備えられている必要はない。たとえば、タイマ182は、表示装置102内における、画像処理エンジン180の外部に備えられていてもよい。あるいは、タイマ182は、本体装置101に備えられていてもよい。また、マイク175およびスピーカ176は、電子機器100が常に含む構成ではなく、電子機器100の実施例によっては、マイク175およびスピーカ176のいずれかあるいは両方を有さない構成であってもよい。   Note that the timer 182 is not necessarily provided in the image processing engine 180. For example, the timer 182 may be provided outside the image processing engine 180 in the display device 102. Alternatively, the timer 182 may be provided in the main body device 101. Further, the microphone 175 and the speaker 176 are not always included in the electronic device 100, and may be configured so as not to include either or both of the microphone 175 and the speaker 176 depending on the embodiment of the electronic device 100.

ここで、表示装置102は、システム液晶を含んでいる。なお、システム液晶とは、タッチパネル140の周辺機器を当該タッチパネル140のガラス基板上に一体形成することにより得られるデバイスである。本実施の形態では、ドライバ130(バックライト179を駆動する回路を除く)と、内部IF178と、画像処理エンジン180とが、タッチパネル140のガラス基板上に一体形成されている。なお、表示装置102が、必ずしもシステム液晶を用いて構成されている必要はなく、ドライバ130(バックライト179を駆動する回路を除く)と、内部IF178と、画像処理エンジン180とが、上記ガラス基板以外の基板に構成されていてもよい。   Here, the display device 102 includes a system liquid crystal. The system liquid crystal is a device obtained by integrally forming peripheral devices of the touch panel 140 on the glass substrate of the touch panel 140. In the present embodiment, driver 130 (excluding a circuit for driving backlight 179), internal IF 178, and image processing engine 180 are integrally formed on the glass substrate of touch panel 140. Note that the display device 102 is not necessarily configured using a system liquid crystal, and the driver 130 (excluding a circuit that drives the backlight 179), the internal IF 178, and the image processing engine 180 are included in the glass substrate. Other substrates may be configured.

ところで、電子機器100における処理は、各ハードウェアおよびCPU110により実行されるソフトウェアによって実現される。このようなソフトウェアは、ROM172に予め記憶されている場合がある。また、ソフトウェアは、メモリカード1731その他の記憶媒体に格納されて、プログラム製品として流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。このようなソフトウェアは、メモリカードリーダライタ173その他の読取装置によりその記憶媒体から読み取られて、あるいは、通信部174または通信IF(図示せず)を介してダウンロードされた後、ROM172に一旦格納される。そのソフトウェアは、CPU110によってROM172から読み出され、RAM171に実行可能なプログラムの形式で格納される。CPU110は、そのプログラムを実行する。   By the way, the processing in the electronic device 100 is realized by each hardware and software executed by the CPU 110. Such software may be stored in the ROM 172 in advance. The software may be stored in a memory card 1731 or other storage medium and distributed as a program product. Alternatively, the software may be provided as a program product that can be downloaded by an information provider connected to the so-called Internet. Such software is read from the storage medium by the memory card reader / writer 173 or other reading device, or downloaded via the communication unit 174 or communication IF (not shown), and then temporarily stored in the ROM 172. The The software is read from the ROM 172 by the CPU 110 and stored in the RAM 171 in the form of an executable program. CPU 110 executes the program.

図3に示される電子機器100の本体装置101を構成する各構成要素は、一般的なものである。したがって、本実施の形態の本質的な部分は、RAM171、ROM172、メモリカード1731その他の記憶媒体に格納されたソフトウェア、あるいはネットワークを介してダウンロード可能なソフトウェアであるともいえる。なお、電子機器100の本体装置101のハードウェアの動作は周知であるので、詳細な説明は繰り返さない。   Each component constituting the main device 101 of the electronic device 100 shown in FIG. 3 is a general one. Therefore, it can be said that the essential part of the present embodiment is software stored in the RAM 171, ROM 172, memory card 1731 or other storage medium, or software downloadable via a network. Since the hardware operation of main device 101 of electronic device 100 is well known, detailed description will not be repeated.

なお、記憶媒体としては、メモリカードに限られず、CD−ROM、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)、フラッシュROMなどの半導体メモリ等の固定的にプログラムを格納する媒体でもよい。   The storage medium is not limited to a memory card, but is a CD-ROM, FD (Flexible Disk), hard disk, magnetic tape, cassette tape, optical disk (MO (Magnetic Optical Disc) / MD (Mini Disc) / DVD (Digital Versatile). Disc)), IC (Integrated Circuit) cards (excluding memory cards), optical cards, mask ROM, EPROM, EEPROM (Electronically Erasable Programmable Read-Only Memory), flash ROM, and other semiconductor memories, etc. It may be a medium to be used.

ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。   The program here includes not only a program directly executable by the CPU but also a program in a source program format, a compressed program, an encrypted program, and the like.

<タッチパネル140の構成および駆動について>
次に、タッチパネル140の構成と、当該タッチパネル140の周辺回路の構成とについて説明する。図4は、タッチパネル140の構成と、当該タッチパネル140の周辺回路とを示した図である。
<Configuration and Drive of Touch Panel 140>
Next, the configuration of the touch panel 140 and the configuration of peripheral circuits of the touch panel 140 will be described. FIG. 4 is a diagram illustrating a configuration of the touch panel 140 and peripheral circuits of the touch panel 140.

図4を参照して、タッチパネル140は、画素回路141と、光センサ回路144と、走査信号線Giと、データ信号線SRjと、データ信号線SGjと、データ信号線SBjと、センサ信号線SSjと、センサ信号線SDjと、読出信号線RWiと、リセット信号線RSiとを含む。なお、iは、1≦i≦mを満たす自然数であり、jは1≦j≦nを満たす自然数である。   Referring to FIG. 4, touch panel 140 includes pixel circuit 141, photosensor circuit 144, scanning signal line Gi, data signal line SRj, data signal line SGj, data signal line SBj, and sensor signal line SSj. Sensor signal line SDj, readout signal line RWi, and reset signal line RSi. Note that i is a natural number satisfying 1 ≦ i ≦ m, and j is a natural number satisfying 1 ≦ j ≦ n.

また、図3に示した表示装置102のドライバ130は、タッチパネル140の周辺回路として、走査信号線駆動回路131と、データ信号線駆動回路132と、光センサ駆動回路133と、スイッチ134と、アンプ135とを含む。   The driver 130 of the display device 102 illustrated in FIG. 3 includes, as peripheral circuits of the touch panel 140, a scanning signal line driving circuit 131, a data signal line driving circuit 132, a photosensor driving circuit 133, a switch 134, and an amplifier. 135.

走査信号線駆動回路131は、図3に示すドライバ制御部181から制御信号TC1を受ける。そして、走査信号線駆動回路131は、制御信号TC1に基づき、各走査信号線(G1〜Gm)に対して、走査信号線G1から順に予め定められた電圧を印加する。より詳しくは、走査信号線駆動回路131は、単位時間毎に走査信号線(G1〜Gm)の中から1つの走査信号線を順次選択し、当該選択した走査信号線に対して後述するTFT(Thin Film Transistor)142のゲートをターンオンできるだけの電圧(以下、ハイレベル電圧)を印加する。なお、選択されていない走査信号線に対しては、ハイレベル電圧を印加することなく、ローレベル電圧を印加したままとする。   The scanning signal line drive circuit 131 receives the control signal TC1 from the driver control unit 181 shown in FIG. The scanning signal line drive circuit 131 applies a predetermined voltage in order from the scanning signal line G1 to each scanning signal line (G1 to Gm) based on the control signal TC1. More specifically, the scanning signal line driving circuit 131 sequentially selects one scanning signal line from the scanning signal lines (G1 to Gm) per unit time, and a TFT (to be described later) with respect to the selected scanning signal line. A voltage capable of turning on the gate of the thin film transistor 142 is applied (hereinafter referred to as a high level voltage). Note that a low level voltage is applied to a scanning signal line that is not selected without applying a high level voltage.

データ信号線駆動回路132は、図3に示すドライバ制御部181から画像データ(DR,DG,DB)を受ける。そして、データ信号線駆動回路132は、3n個のデータ信号線(SR1〜SRn,SG1〜SGn,SB1〜SBn)に対して、上記単位時間毎に、1行分の画像データに対応する電圧を順次印加する。   The data signal line driving circuit 132 receives image data (DR, DG, DB) from the driver control unit 181 shown in FIG. The data signal line driving circuit 132 applies a voltage corresponding to one row of image data to the 3n data signal lines (SR1 to SRn, SG1 to SGn, SB1 to SBn) for each unit time. Apply sequentially.

なお、ここでは、いわゆる線順次方式と呼ばれる駆動方式を用いて説明したが、駆動方式はこれに限定されるものではない。   Note that although a driving method called a so-called line-sequential method has been described here, the driving method is not limited to this.

画素回路141は、1つの画素の輝度(透過率)を設定するための回路である。また、画素回路141は、マトリクス状にm×n個配されている。より詳しくは、画素回路141は、図4の縦方向にm個、横方向にn個配されている。   The pixel circuit 141 is a circuit for setting the luminance (transmittance) of one pixel. Further, m × n pixel circuits 141 are arranged in a matrix. More specifically, m pixel circuits 141 are arranged in the vertical direction in FIG. 4 and n in the horizontal direction.

画素回路141は、Rサブピクセル回路141rと、Gサブピクセル回路141gと、Bサブピクセル回路141bとからなる。これら3つの回路(141r,141g,141b)は、それぞれ、TFT142と、画素電極と対向電極とからなる1組の電極対143と、図示しないコンデンサとを含む。   The pixel circuit 141 includes an R subpixel circuit 141r, a G subpixel circuit 141g, and a B subpixel circuit 141b. Each of these three circuits (141r, 141g, 141b) includes a TFT 142, a pair of electrode pairs 143 including a pixel electrode and a counter electrode, and a capacitor (not shown).

なお、n型のトランジスタとp型のトランジスタとを作れるCMOS(Complementary Metal Oxide Semiconductor)を実現できること、キャリア(電子または正孔)の移動速度がアモルファスシリコン薄膜トランジスタ(a-Si TFT)に比べて数百倍早いことなどから、表示装置102では、TFT142として多結晶シリコン薄膜トランジスタ(p-Si TFT)が用いられる。なお、TFT142は、n型チャネルの電界効果トランジスタであるとして説明する。ただし、TFT142がp型チャネルの電界効果トランジスタであってもよい。   In addition, CMOS (Complementary Metal Oxide Semiconductor) that can make n-type transistors and p-type transistors can be realized, and the movement speed of carriers (electrons or holes) is several hundreds compared to amorphous silicon thin film transistors (a-Si TFTs). For example, a polycrystalline silicon thin film transistor (p-Si TFT) is used as the TFT 142 in the display device 102 because it is twice as fast. Note that the TFT 142 will be described as an n-channel field effect transistor. However, the TFT 142 may be a p-type channel field effect transistor.

Rサブピクセル回路141r内のTFT142のソースはデータ信号線SRjに接続されている。また、当該TFT142のゲートは走査信号線Giに接続されている。さらに、当該TFT142のドレインは、電極対143の画素電極に接続される。そして、画素電極と対向電極との間には、液晶が配される。なお、Gサブピクセル回路141gおよびBサブピクセル回路141bについても、各TFT142のソースが接続されるデータ信号線が異なる以外は、Rサブピクセル回路141rと同じ構成である。このため、これら2つの回路(141g,141b)についての説明は、繰り返さない。   The source of the TFT 142 in the R subpixel circuit 141r is connected to the data signal line SRj. The gate of the TFT 142 is connected to the scanning signal line Gi. Further, the drain of the TFT 142 is connected to the pixel electrode of the electrode pair 143. A liquid crystal is disposed between the pixel electrode and the counter electrode. The G sub-pixel circuit 141g and the B sub-pixel circuit 141b have the same configuration as the R sub-pixel circuit 141r except that the data signal line to which the source of each TFT 142 is connected is different. Therefore, description of these two circuits (141g, 141b) will not be repeated.

ここで、画素回路141における輝度の設定について説明する。まず、走査信号線Giに上記ハイレベル電圧を印加する。当該ハイレベル電圧の印加により、TFT142のゲートがターンオンする。このようにTFT142のゲートがターンオンした状態で、各データ信号線(SRj,SGj,SBj)に対して、それぞれ指定された電圧(1画素分の画像データに対応する電圧)を印加する。これにより、当該指定された電圧に基づいた電圧が画素電極に印加される。その結果、画素電極と対向電極との間に電位差が生じる。この電位差に基づいて、液晶が応答し、画素の輝度は予め定められた輝度に設定される。なお、当該電位差は、上記図示しないコンデンサ(補助容量)によって、次のフレーム期間において走査信号線Giが選択されるまで保持される。   Here, setting of luminance in the pixel circuit 141 will be described. First, the high level voltage is applied to the scanning signal line Gi. By the application of the high level voltage, the gate of the TFT 142 is turned on. In this manner, with the gate of the TFT 142 turned on, a specified voltage (voltage corresponding to image data for one pixel) is applied to each data signal line (SRj, SGj, SBj). Thereby, a voltage based on the designated voltage is applied to the pixel electrode. As a result, a potential difference is generated between the pixel electrode and the counter electrode. Based on this potential difference, the liquid crystal responds and the luminance of the pixel is set to a predetermined luminance. Note that the potential difference is held by the capacitor (auxiliary capacitor) (not shown) until the scanning signal line Gi is selected in the next frame period.

光センサ駆動回路133は、図3に示すドライバ制御部181から制御信号TC2を受ける。   The optical sensor drive circuit 133 receives the control signal TC2 from the driver control unit 181 shown in FIG.

そして、光センサ駆動回路133は、制御信号TC2に基づき、単位時間毎にリセット信号線(RS1〜RSm)の中から1つの信号線を順次選択し、当該選択した信号線に対して、予め定められたタイミングで通常よりもハイレベルな電圧VDDRを印加する。なお、選択されていないリセット信号線に対しては、選択されたリセット信号線に印加した電圧よりも低い電圧VSSRを印加したままとする。たとえば、電圧VDDRを0Vに、電圧VSSRを−5Vに設定すればよい。   Then, the optical sensor drive circuit 133 sequentially selects one signal line from the reset signal lines (RS1 to RSm) for each unit time based on the control signal TC2, and determines in advance for the selected signal line. At a given timing, the voltage VDDR that is higher than usual is applied. Note that a voltage VSSR lower than the voltage applied to the selected reset signal line is kept applied to the unselected reset signal line. For example, the voltage VDDR may be set to 0V and the voltage VSSR may be set to −5V.

また、光センサ駆動回路133は、制御信号TC2に基づき、単位時間毎に読出信号線(RW1〜RWm)の中から1つの信号線を順次選択し、当該選択した信号線に対して、予め定められたタイミングで通常よりもハイレベルな電圧VDDを印加する。なお、選択されていない読出信号線に対しては、上記電圧VSSRを印加したままとする。たとえば、VDDの値を8Vに設定すればよい。   Further, the optical sensor driving circuit 133 sequentially selects one signal line from the readout signal lines (RW1 to RWm) for each unit time based on the control signal TC2, and determines in advance for the selected signal line. At a given timing, a voltage VDD higher than usual is applied. Note that the voltage VSSR is applied to the read signal line that is not selected. For example, the value of VDD may be set to 8V.

なお、電圧VDDRを印加するタイミング、および電圧VDDを印加するタイミングについては、後述する。   The timing for applying the voltage VDDR and the timing for applying the voltage VDD will be described later.

光センサ回路144は、フォトダイオード145と、コンデンサ146と、TFT147とを含む。なお、以下では、TFT147がn型チャネルの電界効果トランジスタであるとして説明する。ただし、TFT147がp型チャネルの電界効果トランジスタであってもよい。   The optical sensor circuit 144 includes a photodiode 145, a capacitor 146, and a TFT 147. In the following description, it is assumed that the TFT 147 is an n-type channel field effect transistor. However, the TFT 147 may be a p-type channel field effect transistor.

フォトダイオード145のアノードは、リセット信号線RSiに接続されている。一方、フォトダイオード145のカソードは、コンデンサ146の一方の電極に接続されている。また、コンデンサ146の他方の電極は、読出信号線RWiに接続されている。なお、以下では、フォトダイオード145とコンデンサ146との接続点をノードNと称する。   The anode of the photodiode 145 is connected to the reset signal line RSi. On the other hand, the cathode of the photodiode 145 is connected to one electrode of the capacitor 146. The other electrode of the capacitor 146 is connected to the read signal line RWi. Hereinafter, a connection point between the photodiode 145 and the capacitor 146 is referred to as a node N.

TFT147のゲートは、ノードNに接続されている。また、TFT147のドレインは、センサ信号線SDjに接続されている。さらに、TFT147のソースは、センサ信号線SSjに接続されている。光センサ回路144を用いたセンシングの詳細については、後述する。   The gate of the TFT 147 is connected to the node N. The drain of the TFT 147 is connected to the sensor signal line SDj. Further, the source of the TFT 147 is connected to the sensor signal line SSj. Details of sensing using the optical sensor circuit 144 will be described later.

スイッチ134は、センサ信号線(SD1〜SDn)に対して、予め定められた電圧を印加するか否かを切り換えるために設けられたスイッチである。スイッチ134の切り換え動作は、光センサ駆動回路133により行われる。なお、スイッチ134が導通状態となった場合にセンサ信号線(SD1〜SDn)に印加される電圧については、後述する。   The switch 134 is a switch provided to switch whether or not to apply a predetermined voltage to the sensor signal lines (SD1 to SDn). The switching operation of the switch 134 is performed by the optical sensor driving circuit 133. Note that the voltage applied to the sensor signal lines (SD1 to SDn) when the switch 134 is turned on will be described later.

アンプ135は、各センサ信号線(SS1〜SSn)から出力された電圧を増幅する。なお、増幅された電圧は、図3に示した信号処理部183に送られる。   The amplifier 135 amplifies the voltage output from each sensor signal line (SS1 to SSn). The amplified voltage is sent to the signal processing unit 183 shown in FIG.

なお、画素回路141を用いて画像をタッチパネル140に表示させるタイミングと、光センサ回路144を用いてセンシングするタイミングとについては、画像処理エンジン180が制御する。   Note that the image processing engine 180 controls the timing at which an image is displayed on the touch panel 140 using the pixel circuit 141 and the timing at which sensing is performed using the optical sensor circuit 144.

図5は、タッチパネル140とバックライト179との断面図である。図5を参照して、タッチパネル140は、アクティブマトリクス基板151Aと、対向基板151Bと、液晶層152とを含む。対向基板151Bは、アクティブマトリクス基板151Aに対向して配されている。液晶層152は、アクティブマトリクス基板151Aと対向基板151Bとに挟まれている。バックライト179は、アクティブマトリクス基板151Aに関し液晶層152と反対側に配されている。   FIG. 5 is a cross-sectional view of the touch panel 140 and the backlight 179. Referring to FIG. 5, touch panel 140 includes an active matrix substrate 151 </ b> A, a counter substrate 151 </ b> B, and a liquid crystal layer 152. The counter substrate 151B is disposed to face the active matrix substrate 151A. The liquid crystal layer 152 is sandwiched between the active matrix substrate 151A and the counter substrate 151B. The backlight 179 is disposed on the opposite side of the liquid crystal layer 152 with respect to the active matrix substrate 151A.

アクティブマトリクス基板151Aは、偏光フィルタ161と、ガラス基板162と、電極対143を構成する画素電極143aと、フォトダイオード145と、データ信号線157と、配向膜164とを含む。さらに、図5には示していないが、アクティブマトリクス基板151Aは、図4に示した、コンデンサ146と、TFT147と、TFT142と、走査信号線Giとを含む。   The active matrix substrate 151 </ b> A includes a polarizing filter 161, a glass substrate 162, a pixel electrode 143 a that constitutes the electrode pair 143, a photodiode 145, a data signal line 157, and an alignment film 164. Further, although not shown in FIG. 5, the active matrix substrate 151A includes the capacitor 146, the TFT 147, the TFT 142, and the scanning signal line Gi shown in FIG.

また、アクティブマトリクス基板151Aにおいては、バックライト179側から、偏光フィルタ161、ガラス基板162、画素電極143a、および配向膜164が、この順に配されている。フォトダイオード145とデータ信号線157とは、ガラス基板162の液晶層152側に形成されている。   In the active matrix substrate 151A, the polarizing filter 161, the glass substrate 162, the pixel electrode 143a, and the alignment film 164 are arranged in this order from the backlight 179 side. The photodiode 145 and the data signal line 157 are formed on the liquid crystal layer 152 side of the glass substrate 162.

対向基板151Bは、偏光フィルタ161と、ガラス基板162と、遮光膜163と、カラーフィルタ(153r,153g,153b)と、電極対143を構成する対向電極143bと、配向膜164とを含む。   The counter substrate 151B includes a polarizing filter 161, a glass substrate 162, a light shielding film 163, color filters (153r, 153g, 153b), a counter electrode 143b constituting the electrode pair 143, and an alignment film 164.

また、対向基板151Bにおいては、液晶層152側から、配向膜164、対向電極143b、カラーフィルタ(153r,153g,153b)、ガラス基板162、および偏光フィルタ161が、この順に配されている。遮光膜163は、カラーフィルタ(153r,153g,153b)と同一の層に形成されている。   In the counter substrate 151B, the alignment film 164, the counter electrode 143b, the color filters (153r, 153g, 153b), the glass substrate 162, and the polarizing filter 161 are arranged in this order from the liquid crystal layer 152 side. The light shielding film 163 is formed in the same layer as the color filters (153r, 153g, 153b).

カラーフィルタ153rは、赤色の波長の光を透過させるフィルタである。カラーフィルタ153gは、緑色の波長の光を透過させるフィルタである。カラーフィルタ153bは、青色の波長の光を透過させるフィルタである。ここで、フォトダイオード145は、カラーフィルタ153bに対向する位置に配されている。   The color filter 153r is a filter that transmits light having a red wavelength. The color filter 153g is a filter that transmits light having a green wavelength. The color filter 153b is a filter that transmits light having a blue wavelength. Here, the photodiode 145 is arranged at a position facing the color filter 153b.

タッチパネル140は、外光やバックライト179などの光源により発せられた光を遮ったり又は当該光を透過させたりすることによって、画像の表示をする。具体的には、タッチパネル140は、画素電極143aと対向電極143bとの間に電圧を印加することにより液晶層152の液晶分子の向きを変化させ、上記光を遮ったり、あるいは透過させる。ただし、液晶だけでは光を完全に遮ることができないため、特定の偏光方向の光のみを透過させる偏光フィルタ161を配置している。   The touch panel 140 displays an image by blocking or transmitting light emitted from a light source such as external light or a backlight 179. Specifically, the touch panel 140 changes the direction of the liquid crystal molecules of the liquid crystal layer 152 by applying a voltage between the pixel electrode 143a and the counter electrode 143b, thereby blocking or transmitting the light. However, since the light cannot be completely blocked by the liquid crystal alone, a polarizing filter 161 that transmits only light having a specific polarization direction is provided.

なお、フォトダイオード145の位置は、上記の位置に限定されるものではなく、カラーフィルタ153rに対向する位置やカラーフィルタ153gに対向する位置に設けることも可能である。   Note that the position of the photodiode 145 is not limited to the above position, and may be provided at a position facing the color filter 153r or a position facing the color filter 153g.

ここで、光センサ回路144の動作について説明する。図6は、光センサ回路144を動作させる際のタイミングチャートを示した図である。図6において、電圧VINTは、光センサ回路144内のノードNにおける電位を示している。また、電圧VPIXは、図4に示したセンサ信号線SSjからの出力電圧であって、アンプ135によって増幅される前の電圧を示している。   Here, the operation of the optical sensor circuit 144 will be described. FIG. 6 is a diagram illustrating a timing chart when the optical sensor circuit 144 is operated. In FIG. 6, a voltage VINT indicates a potential at the node N in the photosensor circuit 144. A voltage VPIX is an output voltage from the sensor signal line SSj shown in FIG. 4 and is a voltage before being amplified by the amplifier 135.

以下では、光センサ回路144をリセットするためのリセット期間と、光センサ回路144を用いて光をセンシングするためのセンシング期間と、センシングした結果を読み出す読出期間とに分けて説明する。   The following description will be divided into a reset period for resetting the optical sensor circuit 144, a sensing period for sensing light using the optical sensor circuit 144, and a readout period for reading the sensed result.

まず、リセット期間について説明する。リセット期間においては、リセット信号線RSiに印加する電圧を、ローレベル(電圧VSSR)からハイレベル(電圧VDDR)へと瞬間的に切り換える。一方、読出信号線RWiに印加する電圧は、ローレベル(電圧VSSR)のままとする。このように、リセット信号線RSiに上記ハイレベルの電圧を印加することにより、フォトダイオード145の順方向(アノード側からカソード側)に電流が流れ始める。その結果、ノードNの電位である電圧VINTは、以下の式(1)で示す値となる。なお、式(1)では、フォトダイオード145における順方向の電圧降下量をVfとしている。   First, the reset period will be described. In the reset period, the voltage applied to the reset signal line RSi is instantaneously switched from the low level (voltage VSSR) to the high level (voltage VDDR). On the other hand, the voltage applied to the read signal line RWi is kept at the low level (voltage VSSR). As described above, by applying the high-level voltage to the reset signal line RSi, a current starts to flow in the forward direction (from the anode side to the cathode side) of the photodiode 145. As a result, the voltage VINT which is the potential of the node N has a value represented by the following expression (1). In Equation (1), the forward voltage drop amount in the photodiode 145 is Vf.

VINT=VSSR+|VDDR−VSSR|−Vf … (1)
それゆえ、ノードNの電位は、図6に示すとおり、電圧VDDRよりもVfだけ小さな値となる。
VINT = VSSR + | VDDR−VSSR | −Vf (1)
Therefore, the potential of the node N is a value smaller by Vf than the voltage VDDR as shown in FIG.

ここで、電圧VINTは、TFT147のゲートをターンオンさせる閾値以下であるため、センサ信号線SSjからの出力はない。このため、電圧VPIXは変化しない。また、コンデンサ146の電極間には、上記電圧VINT分の差が生じる。このため、コンデンサ146には、当該差に応じた電荷が蓄積される。   Here, since the voltage VINT is not more than the threshold value for turning on the gate of the TFT 147, there is no output from the sensor signal line SSj. For this reason, the voltage VPIX does not change. Further, a difference corresponding to the voltage VINT occurs between the electrodes of the capacitor 146. For this reason, the capacitor 146 accumulates charges corresponding to the difference.

次に、センシング期間について説明する。リセット期間に続くセンシング期間においては、リセット信号線RSiに印加する電圧は、ハイレベル(電圧VDDR)からローレベル(電圧VSSR)へと瞬間的に切り換わる。一方、読出信号線RWiに印加する電圧は、ローレベル(電圧VSSR)のままとする。   Next, the sensing period will be described. In the sensing period following the reset period, the voltage applied to the reset signal line RSi instantaneously switches from the high level (voltage VDDR) to the low level (voltage VSSR). On the other hand, the voltage applied to the read signal line RWi is kept at the low level (voltage VSSR).

このように、リセット信号線RSiに印加する電圧をローレベルに変化させることにより、ノードNの電位は、リセット信号線RSiの電圧および読出信号線RWiの電圧よりも高くなる。このため、フォトダイオード145においては、カソード側の電圧がアノード側の電圧よりも高くなる。つまり、フォトダイオード145は、逆バイアスの状態となる。このような逆バイアスの状態において、光源からの光をフォトダイオード145が受光すると、フォトダイオード145のカソード側からアノード側へと電流が流れ始める。その結果、図6に示すとおり、ノードNの電位(つまり、電圧VINT)は時間の経過とともに低くなる。   Thus, by changing the voltage applied to the reset signal line RSi to the low level, the potential of the node N becomes higher than the voltage of the reset signal line RSi and the voltage of the read signal line RWi. For this reason, in the photodiode 145, the voltage on the cathode side becomes higher than the voltage on the anode side. That is, the photodiode 145 is in a reverse bias state. In such a reverse bias state, when the photodiode 145 receives light from the light source, current starts to flow from the cathode side to the anode side of the photodiode 145. As a result, as shown in FIG. 6, the potential of the node N (that is, the voltage VINT) becomes lower with the passage of time.

なお、このように電圧VINTが低下し続けるため、TFT147のゲートはターンオンした状態にはならない。それゆえ、センサ信号線SSjからの出力はない。このため、電圧VPIXは変化しない。   Since the voltage VINT continues to decrease in this way, the gate of the TFT 147 does not turn on. Therefore, there is no output from the sensor signal line SSj. For this reason, the voltage VPIX does not change.

次に、読出期間について説明する。センシング期間に続く読出期間においては、リセット信号線RSiに印加する電圧をローレベル(電圧VSSR)のままとする。一方、読出信号線RWiに印加する電圧は、ローレベル(電圧VSSR)からハイレベル(電圧VDD)へと瞬間的に切り換わる。ここで、電圧VDDは、電圧VDDRよりも高い値である。   Next, the reading period will be described. In the readout period following the sensing period, the voltage applied to the reset signal line RSi is kept at the low level (voltage VSSR). On the other hand, the voltage applied to the read signal line RWi is instantaneously switched from the low level (voltage VSSR) to the high level (voltage VDD). Here, the voltage VDD is higher than the voltage VDDR.

このように、読出信号線RWiにハイレベルの電圧を瞬間的に印加することにより、図6に示すとおり、コンデンサ146を介してノードNの電位が引き上げられる。なお、ノードNの電位の上昇幅は、読出信号線RWiに印加する電圧に応じた値となる。ここで、ノードNの電位(つまり、電圧VINT)が、TFT147のゲートをターンオンさせる閾値以上まで引き上げられるため、TFT147のゲートがターンオンする。   Thus, by applying a high level voltage instantaneously to the read signal line RWi, the potential of the node N is raised through the capacitor 146 as shown in FIG. Note that the increase width of the potential of the node N is a value corresponding to the voltage applied to the read signal line RWi. Here, since the potential of the node N (that is, the voltage VINT) is raised to a threshold value that turns on the gate of the TFT 147, the gate of the TFT 147 is turned on.

この際、TFT147のドレイン側に接続されたセンサ信号線SDj(図4参照)に予め一定電圧を印加しておけば、TFT147のソース側に接続されたセンサ信号線SSjからは、図6のVPIXのグラフに示すとおり、ノードNの電位に応じた電圧が出力される。   At this time, if a constant voltage is applied in advance to the sensor signal line SDj (see FIG. 4) connected to the drain side of the TFT 147, the sensor signal line SSj connected to the source side of the TFT 147 will cause the VPIX in FIG. As shown in the graph, a voltage corresponding to the potential of the node N is output.

ここで、フォトダイオード145が受光する光の量(以下、受光量と称する)が少ないと、図6のVINTのグラフに示す直線の傾きが緩やかになる。その結果、電圧VPIXは、受光量が多い場合に比べて高くなる。このように、光センサ回路144は、フォトダイオード145の受光量に応じて、センサ信号線SSjに出力する電圧の値を変化させる。   Here, if the amount of light received by the photodiode 145 (hereinafter referred to as the amount of received light) is small, the slope of the straight line shown in the VINT graph of FIG. 6 becomes gentle. As a result, the voltage VPIX is higher than when the amount of received light is large. As described above, the optical sensor circuit 144 changes the value of the voltage output to the sensor signal line SSj in accordance with the amount of light received by the photodiode 145.

ところで、上記においては、m×n個存在する光センサ回路のうち、1つの光センサ回路144に着目して、その動作を説明した。以下では、タッチパネル140における各光センサ回路の動作について説明する。   By the way, in the above, the operation | movement was demonstrated paying attention to one optical sensor circuit 144 among the m * n optical sensor circuits which exist. Below, operation | movement of each photosensor circuit in the touch panel 140 is demonstrated.

まず、光センサ駆動回路133は、n個のセンサ信号線(SD1〜SDn)の全てに対して、予め定められた電圧を印加する。次に、光センサ駆動回路133は、リセット信号線RS1に対して、通常よりもハイレベルな電圧VDDRを印加する。なお、他のリセット信号線(RS2〜RSm)および読出信号線(RW1〜RWm)については、ローレベルの電圧を印加したままの状態とする。これにより、図4における1行目のn個の光センサ回路が、上述したリセット期間に入る。その後、1行目のn個の光センサ回路は、センシング期間に入る。さらに、その後、1行目のn個の光センサ回路は、読出期間に入る。   First, the optical sensor drive circuit 133 applies a predetermined voltage to all n sensor signal lines (SD1 to SDn). Next, the photosensor drive circuit 133 applies a voltage VDDR that is higher than normal to the reset signal line RS1. The other reset signal lines (RS2 to RSm) and read signal lines (RW1 to RWm) are kept in a state where a low level voltage is applied. As a result, the n photosensor circuits in the first row in FIG. 4 enter the reset period described above. Thereafter, the n photosensor circuits in the first row enter a sensing period. Further, thereafter, the n photosensor circuits in the first row enter a reading period.

なお、n個のセンサ信号線(SD1〜SDn)の全てに対して予め定められた電圧を印加するタイミングは、上記のタイミングに限定されず、少なくとも読出期間前に印加されるタイミングであればよい。   Note that the timing at which a predetermined voltage is applied to all n sensor signal lines (SD1 to SDn) is not limited to the above timing, and may be any timing that is applied at least before the readout period. .

1行目のn個の光センサ回路の読出期間が終了すると、光センサ駆動回路133は、リセット信号線RS2に対して、通常よりもハイレベルな電圧VDDRを印加する。つまり、2行目のn個の光センサ回路のリセット期間に入る。リセット期間が終了すると、2行目のn個の光センサ回路は、センシング期間に入り、その後は、読出期間に入る。   When the readout period of the n photosensor circuits in the first row is completed, the photosensor drive circuit 133 applies a voltage VDDR that is higher than usual to the reset signal line RS2. That is, the reset period of the n photosensor circuits in the second row starts. When the reset period ends, the n photosensor circuits in the second row enter a sensing period, and thereafter enter a reading period.

以降は、上述した処理が、順に、3行目のn個の光センサ回路、4行目のn個の光センサ回路、…m行目のn個の光センサ回路に対して行われる。その結果、センサ信号線(SS1〜SSn)からは、1行目のセンシング結果、2行目のセンシング結果、…、m行目のセンシング結果が、この順に出力される。   Thereafter, the processing described above is sequentially performed on the n photosensor circuits in the third row, the n photosensor circuits in the fourth row,..., The n photosensor circuits in the m row. As a result, the sensing result of the first row, the sensing result of the second row,..., The sensing result of the m-th row are output in this order from the sensor signal lines (SS1 to SSn).

なお、表示装置102においては、上記のように行毎にセンシングが行われるとともに、行毎にセンシング結果がタッチパネル140から出力される。このため、以下では、タッチパネル140から出力される1行目からm行目までのm行分の電圧に関するデータに対して、信号処理部183が上述したデータ処理を行った後のデータを、「スキャンデータ」と称する。つまり、スキャンデータとは、スキャン対象物(たとえば、ユーザの指)をスキャンすることにより得られる画像データを指す。また、当該スキャンデータに基づいて表示された画像を、「スキャン画像」と称する。さらに、以下では、センシングを「スキャン」と称する。   In the display device 102, sensing is performed for each row as described above, and a sensing result is output from the touch panel 140 for each row. For this reason, hereinafter, the data after the signal processing unit 183 performs the above-described data processing on the data related to the voltage for m rows from the first row to the m-th row output from the touch panel 140 will be referred to as “ This is referred to as “scan data”. That is, scan data refers to image data obtained by scanning a scan target (for example, a user's finger). An image displayed based on the scan data is referred to as a “scanned image”. Further, in the following, sensing is referred to as “scan”.

また、上記においては、m×n個の光センサ回路全てを用いてスキャンを行なう構成を例に挙げたが、これに限定されるものではない。予め選択された光センサ回路を用いて、タッチパネル140の表面の一部の領域に関してスキャンを行なうことも構成としてもよい。   In the above description, the configuration in which scanning is performed using all m × n photosensor circuits has been described as an example, but the present invention is not limited to this. Scanning may be performed on a partial area of the surface of the touch panel 140 using a photosensor circuit selected in advance.

以下では、電子機器100が、両構成のいずれの構成をも採れるものとする。さらに、当該構成間の切り換えは、操作キー177を介した入力などに基づく本体装置101から送られてくるコマンドにより行われるものとする。なお、タッチパネル140の表面の一部の領域に関してスキャンを行なう場合、画像処理エンジン180が、スキャン対象領域の設定を行なう。なお、当該領域の設定を、操作キー177を介してユーザが指定できる構成としてもよい。   In the following, it is assumed that the electronic device 100 can take either of the two configurations. Further, switching between the components is assumed to be performed by a command sent from the main device 101 based on an input via the operation key 177 or the like. Note that when scanning is performed on a partial area on the surface of the touch panel 140, the image processing engine 180 sets a scan target area. The setting of the area may be configured to be specified by the user via the operation key 177.

このように、タッチパネル140の表面の一部の領域に関してスキャンを行なう場合には、画像の表示に関し、以下のような利用の態様がある。1つ目は、上記一部の領域(以下、スキャン領域と称する)以外の表面の領域において、画像を表示させる態様である。2つ目は、上記スキャン領域以外の表面の領域において、画像を表示させない態様である。いずれの態様とするかは、本体装置101から画像処理エンジン180に送られてくるコマンドに基づく。   As described above, when scanning is performed on a part of the surface of the touch panel 140, there are the following modes of use for displaying an image. The first is a mode in which an image is displayed in a surface area other than the partial area (hereinafter referred to as a scan area). The second is a mode in which no image is displayed in the surface area other than the scan area. Which mode is used is based on a command sent from the main apparatus 101 to the image processing engine 180.

図7は、タッチパネル140とバックライト179との断面図であって、スキャンの際にフォトダイオード145がバックライト179からの光を受光する構成を示した図である。   FIG. 7 is a cross-sectional view of the touch panel 140 and the backlight 179, and shows a configuration in which the photodiode 145 receives light from the backlight 179 during scanning.

図7を参照して、ユーザの指900がタッチパネル140の表面に接触している場合、バックライト179から発せられた光の一部は、当該接触している領域ではユーザの指900(略平面)にて反射される。そして、フォトダイオード145は、当該反射された光を受光する。   Referring to FIG. 7, when the user's finger 900 is in contact with the surface of the touch panel 140, a part of the light emitted from the backlight 179 is the user's finger 900 (substantially flat) in the contact area. ). The photodiode 145 receives the reflected light.

また、指900が接触していない領域においても、バックライト179から発せられた光の一部は、ユーザの指900にて反射される。この場合においても、フォトダイオード145は、当該反射された光を受光する。ただし、当該領域においてはタッチパネル140の表面に指900が接触していないため、指900が接触している領域よりも、フォトダイオード145の受光量は少なくなる。なお、バックライト179から発せられた光のうち、ユーザの指900に到達しない光のほとんどについては、フォトダイオード145は受光できない。   Even in a region where the finger 900 is not in contact, part of the light emitted from the backlight 179 is reflected by the user's finger 900. Even in this case, the photodiode 145 receives the reflected light. However, since the finger 900 is not in contact with the surface of the touch panel 140 in the region, the amount of light received by the photodiode 145 is smaller than the region in which the finger 900 is in contact. Note that the photodiode 145 cannot receive most of the light emitted from the backlight 179 that does not reach the user's finger 900.

ここで、バックライト179を、少なくともセンシング期間においては点灯させておくことにより、光センサ回路144は、ユーザの指900により反射した光の光量に応じた電圧をセンサ信号線SSjから出力することができる。このように、バックライト179の点灯と消灯とを制御することにより、タッチパネル140では、指900の接触位置、指900の接触している範囲(指900の押圧力によって定まる)、タッチパネル140の表面に対する指900の方向などに応じて、センサ信号線(SS1からSSn)から出力される電圧が変化することになる。   Here, by turning on the backlight 179 at least during the sensing period, the optical sensor circuit 144 can output a voltage corresponding to the amount of light reflected by the user's finger 900 from the sensor signal line SSj. it can. In this manner, by controlling the turning on and off of the backlight 179, the touch panel 140 has a touch position of the finger 900, a range in which the finger 900 is in contact (determined by the pressing force of the finger 900), and the surface of the touch panel 140. The voltage output from the sensor signal lines (SS1 to SSn) changes depending on the direction of the finger 900 with respect to the.

以上により、表示装置102は、指900によって光が反射されることにより得られる像(以下、反射像とも称する)をスキャンすることができる。なお、指900以外のスキャン対象物としては、スタイラスペン99などが挙げられる。   As described above, the display device 102 can scan an image (hereinafter, also referred to as a reflected image) obtained by reflecting light with the finger 900. Note that examples of the scan target other than the finger 900 include a stylus pen 99 and the like.

ところで、本実施の形態においては、電子機器100の表示装置としてタッチパネルを例に挙げて説明しているが、タッチパネルの代わりに有機EL(Electro-Luminescence)パネルなどの他のパネルを用いてもよい。   By the way, in this Embodiment, although the touch panel was mentioned as an example and demonstrated as a display apparatus of the electronic device 100, other panels, such as an organic EL (Electro-Luminescence) panel, may be used instead of a touch panel. .

<データについて>
次に、センシングコマンドについて説明する。なお、表示装置102においては、画像処理エンジン180は、センシングコマンドの内容を解析し、当該解析の結果に従ったデータ(つまり、応答データ)を本体装置101に送り返す。
<About data>
Next, the sensing command will be described. In the display device 102, the image processing engine 180 analyzes the content of the sensing command and sends back data (that is, response data) according to the analysis result to the main body device 101.

図8は、センシングコマンドの概略構成を示した図である。図8を参照して、センシングコマンドは、ヘッダのデータ領域DA01と、タイミングを示すデータ領域DA02と、データ種別を示すデータ領域DA03と、読取方式を示すデータ領域DA04と、画像階調を示すデータ領域DA05と、解像度を示すデータ領域DA06と、予備のデータ領域DA07とを含む。   FIG. 8 is a diagram showing a schematic configuration of a sensing command. Referring to FIG. 8, the sensing command includes a header data area DA01, a timing data area DA02, a data type data area DA03, a reading method data area DA04, and image gradation data. An area DA05, a data area DA06 indicating resolution, and a spare data area DA07 are included.

図9は、センシングコマンドの各領域におけるデータの値と、当該値が示す意味内容とを示した図である。   FIG. 9 is a diagram showing data values in each area of the sensing command and the meaning contents indicated by the values.

図9を参照して、タイミングを示すデータ領域に「00」が設定されたセンシングコマンドは、画像処理エンジン180に対して、そのときのスキャンデータの送信を要求する。つまり、センシングコマンドは、当該センシングコマンドを画像処理エンジン180が受信した後に、光センサ回路144を用いてスキャンすることにより得られるスキャンデータの送信を要求する。また、タイミングを示すデータ領域に「01」が設定されたセンシングコマンドは、スキャン結果に変化があったときのスキャンデータの送信を要求する。さらに、タイミングを示すデータ領域に「10」が設定されたセンシングコマンドは、一定周期毎にスキャンデータの送信を要求する。   Referring to FIG. 9, a sensing command in which “00” is set in the data area indicating the timing requests image processing engine 180 to transmit scan data at that time. That is, the sensing command requests transmission of scan data obtained by scanning using the optical sensor circuit 144 after the image processing engine 180 receives the sensing command. A sensing command in which “01” is set in the data area indicating the timing requests transmission of scan data when the scan result has changed. Furthermore, a sensing command in which “10” is set in the data area indicating the timing requests transmission of scan data at regular intervals.

データ種別を示すデータ領域に「001」が設定されたセンシングコマンドは、部分画像における中心座標の座標値の送信を要求する。また、データ種別を示すデータ領域に「010」が設定されたセンシングコマンドは、スキャン結果が変化した部分画像のみの送信を要求する。なお、スキャン結果が変化したとは、前回のスキャン結果と今回のスキャン結果が異なっていることを指す。さらに、データ種別を示すデータ領域に「100」が設定されたセンシングコマンドは、全体画像の送信を要求する。   A sensing command in which “001” is set in the data area indicating the data type requests transmission of the coordinate value of the center coordinate in the partial image. In addition, a sensing command in which “010” is set in the data area indicating the data type requests transmission of only a partial image whose scan result has changed. Note that the change in the scan result indicates that the previous scan result is different from the current scan result. Further, a sensing command in which “100” is set in the data area indicating the data type requests transmission of the entire image.

ここで、「全体画像」とは、m×n個の光センサ回路を用いてスキャンした際に、各光センサ回路から出力される電圧に基づいて、画像処理エンジン180により生成された画像である。また、「部分画像」とは、全体画像の一部である。部分画像に関して、スキャン結果が変化した部分画像のみの送信を要求する構成とした理由については後述する。   Here, the “entire image” is an image generated by the image processing engine 180 based on the voltage output from each photosensor circuit when scanning using m × n photosensor circuits. . The “partial image” is a part of the entire image. The reason why the partial image is requested to transmit only the partial image whose scan result has changed will be described later.

なお、上記座標値と上記部分画像または上記全体画像とを同時に要求する構成としてもよい。また、タッチパネル140の表面の一部の領域に関してスキャンを行なう構成の場合には、上記全体画像はスキャンが行われる領域に対応した画像となる。   The coordinate value and the partial image or the entire image may be requested at the same time. Further, in the case of a configuration in which a partial area on the surface of the touch panel 140 is scanned, the entire image is an image corresponding to the area to be scanned.

読取方式を示すデータ領域に「00」が設定されたセンシングコマンドは、バックライト179を点灯してスキャンすることを要求する。また、読取方式を示すデータ領域に「01」が設定されたセンシングコマンドは、バックライト179を消灯してスキャンすることを要求する。なお、バックライト179を消灯してスキャンする構成については後述する(図13)。さらに、読取方式を示すデータ領域に「10」が設定されたセンシングコマンドは、反射と透過とを併用してスキャンすることを要求する。なお、反射と透過とを併用するとは、バックライト179を点灯してスキャンする方式と、バックライトを消灯してスキャンする方式とを切り換えて、スキャン対象物のスキャンを行なうことを指す。   A sensing command in which “00” is set in the data area indicating the reading method requests to scan with the backlight 179 on. A sensing command in which “01” is set in the data area indicating the reading method requests scanning with the backlight 179 off. A configuration for scanning with the backlight 179 off is described later (FIG. 13). Furthermore, a sensing command in which “10” is set in the data area indicating the reading method requests scanning using both reflection and transmission. Note that the combined use of reflection and transmission refers to scanning a scanning object by switching between a method of turning on and scanning the backlight 179 and a method of turning off and scanning the backlight.

画像階調を示すデータ領域に「00」が設定されたセンシングコマンドは、白黒の2値の画像データを要求する。たとえば、CPU110が、接触領域を示すデータとして2値画像データを画像処理エンジン180に要求してもよい。画像処理エンジン180が、後述する取得部111を実現してもよい。また、画像階調を示すデータ領域に「01」が設定されたセンシングコマンドは、多階調の画像データを要求する。さらに、画像階調を示すデータ領域に「10」が設定されたセンシングコマンドは、RGBのカラーの画像データを要求する。   A sensing command in which “00” is set in the data area indicating the image gradation requests monochrome image data of black and white. For example, the CPU 110 may request the image processing engine 180 for binary image data as data indicating the contact area. The image processing engine 180 may implement the acquisition unit 111 described later. A sensing command in which “01” is set in the data area indicating the image gradation requests multi-gradation image data. Furthermore, a sensing command in which “10” is set in the data area indicating the image gradation requests RGB color image data.

解像度を示すデータ領域に「0」が設定されたセンシングコマンドは、解像度の高い画像データを要求する。また、解像度を示すデータ領域に「1」が設定されたセンシングコマンドは、解像度の低い画像データを要求する。   A sensing command in which “0” is set in the data area indicating the resolution requests image data with a high resolution. A sensing command in which “1” is set in the data area indicating the resolution requests image data with a low resolution.

また、センシングコマンドには、図8および図9に示したデータ以外に、スキャンを行なう領域(光センサ回路144を駆動する画素の領域)の指定、スキャンを行なうタイミング、バックライト179の点灯のタイミングなどが記述されている。   In addition to the data shown in FIGS. 8 and 9, the sensing command includes designation of a region to be scanned (region of a pixel that drives the optical sensor circuit 144), timing for scanning, and timing for lighting the backlight 179. Etc. are described.

図10は、応答データの概略構成を示した図である。応答データは、センシングコマンドの内容に応じたデータであって、表示装置102の画像処理エンジン180が本体装置101に対して送信するデータである。   FIG. 10 is a diagram showing a schematic configuration of response data. The response data is data corresponding to the content of the sensing command, and is data that the image processing engine 180 of the display device 102 transmits to the main body device 101.

図10を参照して、応答データは、ヘッダのデータ領域DA11と、座標を示すデータ領域DA12と、時刻を示すデータ領域DA13と、画像を示すデータ領域DA14とを含む。ここで、座標を示すデータ領域DA12には、部分画像の中心座標の値が書き込まれる。また、時刻を示すデータ領域には、画像処理エンジン180のタイマ182から取得した時刻情報が書き込まれる。さらに、画像を示すデータ領域には、画像処理エンジン180により処理がされた後の画像データ(つまり、スキャンデータ)が書き込まれる。   Referring to FIG. 10, the response data includes a header data area DA11, a coordinate data area DA12, a time data area DA13, and an image data area DA14. Here, the value of the center coordinates of the partial image is written in the data area DA12 indicating the coordinates. In addition, time information acquired from the timer 182 of the image processing engine 180 is written in the data area indicating the time. Further, image data (that is, scan data) after being processed by the image processing engine 180 is written in the data area indicating the image.

図11は、指900をスキャンすることにより得られた画像(つまり、スキャン画像)を示した図である。図11を参照して、太実線で囲まれた領域W1の画像が全体画像であり、破線で囲まれた領域P1の画像が部分画像である。また、太線で示した十字の中心点C1が、中心座標となる。   FIG. 11 is a diagram illustrating an image obtained by scanning the finger 900 (that is, a scanned image). Referring to FIG. 11, an image of a region W1 surrounded by a thick solid line is an entire image, and an image of a region P1 surrounded by a broken line is a partial image. The center point C1 of the cross indicated by a thick line is the center coordinate.

本実施の形態では、矩形の領域であって、かつセンサ信号線SSjからの出力電圧が予め定められた値以上となった光センサ回路が備えられた画素(つまり、予め定められた階調または予め定められた輝度以上の画素)全てを含む領域を、部分画像の領域としている。   In the present embodiment, a pixel (that is, a predetermined gradation or a pixel having a photosensor circuit which is a rectangular region and whose output voltage from the sensor signal line SSj is equal to or higher than a predetermined value). An area including all of the pixels having a luminance equal to or higher than a predetermined luminance is set as a partial image area.

また、中心座標は、部分画像の領域における各画素の階調を考慮して決定される座標である。具体的には、中心座標は、部分画像内の各画素に関し、画素の階調と、当該画素と上記矩形の中心点(つまり図心)との距離とに基づき、重み付け処理を行なうことにより決定される。つまり、中心座標は、部分画像の図心とは必ずしも一致しない。   The center coordinates are coordinates determined in consideration of the gradation of each pixel in the partial image area. Specifically, for each pixel in the partial image, the center coordinates are determined by performing a weighting process based on the gradation of the pixel and the distance between the pixel and the center point of the rectangle (that is, the centroid). Is done. That is, the center coordinates do not necessarily match the centroid of the partial image.

ただし、必ずしも中心座標の位置は上記に限定されるものではなく、中心座標を上記図心の座標あるいは図心の近傍の座標としてもよい。   However, the position of the center coordinates is not necessarily limited to the above, and the center coordinates may be the coordinates of the centroid or the coordinates near the centroid.

センシングコマンドのデータ種別を示すデータ領域に「001」が設定されている場合には、画像処理エンジン180は、座標を示すデータ領域DA12に上記中心座標の値を書き込む。この場合、画像処理エンジン180は、画像を示すデータ領域DA14には画像データを書き込まない。画像処理エンジン180は、上記中心座標の値の書き込みを行なった後、当該中心座標の値を含む応答データを本体装置101に送る。このように、データ種別を示すデータ領域に「001」が設定されている場合には、センシングコマンドは、画像データの出力を要求せずに、中心座標の値の出力を要求する。   When “001” is set in the data area indicating the data type of the sensing command, the image processing engine 180 writes the value of the central coordinate in the data area DA12 indicating the coordinate. In this case, the image processing engine 180 does not write image data in the data area DA14 indicating an image. After writing the value of the center coordinate, the image processing engine 180 sends response data including the value of the center coordinate to the main body device 101. As described above, when “001” is set in the data area indicating the data type, the sensing command requests the output of the value of the center coordinate without requesting the output of the image data.

また、センシングコマンドのデータ種別を示すデータ領域に「010」が設定されている場合には、画像処理エンジン180は、画像を示すデータ領域DA14に、スキャン結果が変化した部分画像の画像データを書き込む。この場合、画像処理エンジン180は、中心座標の値を座標を示すデータ領域DA12に書き込まない。画像処理エンジン180は、上記スキャン結果が変化した部分画像の画像データの書き込みを行なった後、当該部分画像の画像データを含む応答データを本体装置101に送る。このように、データ種別を示すデータ領域に「010」が設定されている場合には、センシングコマンドは、中心座標の値の出力を要求せずに、スキャン結果が変化した部分画像の画像データの出力を要求する。   Further, when “010” is set in the data area indicating the data type of the sensing command, the image processing engine 180 writes the image data of the partial image whose scan result has changed in the data area DA14 indicating the image. . In this case, the image processing engine 180 does not write the value of the center coordinate in the data area DA12 indicating the coordinate. The image processing engine 180 writes the image data of the partial image whose scan result has changed, and then sends response data including the image data of the partial image to the main body device 101. As described above, when “010” is set in the data area indicating the data type, the sensing command does not request the output of the value of the center coordinate, and the image data of the partial image whose scan result has changed. Request output.

なお、上記のように、スキャン結果が変化した部分画像のみの送信を要求する構成とした理由は、スキャンデータのうち部分画像の領域のスキャンデータが、当該領域以外のスキャンデータよりも重要度の高いデータであること、および、指900などのスキャン対象物との接触状態により、スキャンデータのうち部分画像の領域に相当する領域のスキャンデータが変化しやすいことによる。   As described above, the reason for requesting transmission of only the partial image whose scan result has changed is that the scan data of the partial image area of the scan data is more important than the scan data of the other area. This is because the data is high, and the scan data in the region corresponding to the region of the partial image in the scan data is likely to change due to the contact state with the scan object such as the finger 900.

また、センシングコマンドのデータ種別を示すデータ領域に「011」が設定されている場合には、画像処理エンジン180は、座標を示すデータ領域DA12に中心座標の値を書き込むとともに、画像を示すデータ領域DA14にスキャン結果が変化した部分画像の画像データを書き込む。その後、画像処理エンジン180は、当該中心座標の値と当該部分画像の画像データとを含む応答データを本体装置101に送る。このように、データ種別を示すデータ領域に「011」が設定されている場合には、センシングコマンドは、中心座標の値の出力と、スキャン結果が変化した部分画像の画像データの出力とを要求する。   When “011” is set in the data area indicating the data type of the sensing command, the image processing engine 180 writes the value of the central coordinate in the data area DA12 indicating the coordinate and also displays the data area indicating the image. The image data of the partial image whose scan result has changed is written in DA14. Thereafter, the image processing engine 180 sends response data including the value of the center coordinate and the image data of the partial image to the main body device 101. As described above, when “011” is set in the data area indicating the data type, the sensing command requests the output of the value of the center coordinate and the output of the image data of the partial image whose scan result has changed. To do.

また、センシングコマンドのデータ種別を示すデータ領域に「100」が設定されている場合には、画像処理エンジン180は、図10に示した応答データの画像を示すデータ領域DA14に、全体画像の画像データを書き込む。この場合、画像処理エンジン180は、中心座標の値を座標を示すデータ領域DA12に書き込まない。画像処理エンジン180は、上記全体画像の画像データの書き込みを行なった後、当該全体画像の画像データを含む応答データを本体装置101に送る。このように、データ種別を示すデータ領域に「100」が設定されている場合には、センシングコマンドは、中心座標の値の出力を要求せずに、全体画像の画像データの出力を要求する。   If “100” is set in the data area indicating the data type of the sensing command, the image processing engine 180 displays the image of the entire image in the data area DA14 indicating the image of the response data shown in FIG. Write data. In this case, the image processing engine 180 does not write the value of the center coordinate in the data area DA12 indicating the coordinate. After writing the image data of the entire image, the image processing engine 180 sends response data including the image data of the entire image to the main body device 101. As described above, when “100” is set in the data area indicating the data type, the sensing command requests the output of the image data of the entire image without requesting the output of the value of the center coordinate.

また、センシングコマンドのデータ種別を示すデータ領域に「101」が設定されている場合には、画像処理エンジン180は、座標を示すデータ領域DA12に中心座標の値を書き込むとともに、画像を示すデータ領域DA14に全体画像の画像データを書き込む。その後、画像処理エンジン180は、当該中心座標の値と当該全体画像の画像データとを含む応答データを本体装置101に送る。このように、データ種別を示すデータ領域に「101」が設定されている場合には、センシングコマンドは、中心座標の値の出力と、全体画像の画像データの出力とを要求する。   When “101” is set in the data area indicating the data type of the sensing command, the image processing engine 180 writes the value of the central coordinate in the data area DA12 indicating the coordinate and also displays the data area indicating the image. Write the image data of the entire image to DA14. Thereafter, the image processing engine 180 sends response data including the value of the center coordinate and the image data of the entire image to the main body device 101. As described above, when “101” is set in the data area indicating the data type, the sensing command requests the output of the value of the center coordinate and the output of the image data of the entire image.

<変形例について>
ところで、タッチパネル140の構成は、図4に示した構成に限定されるものではない。以下では、図4とは異なる態様のタッチパネルについて説明する。
<About modification>
By the way, the structure of the touch panel 140 is not limited to the structure shown in FIG. Below, the touch panel of the aspect different from FIG. 4 is demonstrated.

図12は、上記異なる態様である光センサ内蔵液晶パネル140Aの回路図である。図12を参照して、光センサ内蔵液晶パネル140A(タッチパネル140A)は、1画素内に3つの光センサ回路(144r,144g,144b)を含んでいる。このようにタッチパネル140Aが1画素内に3つの光センサ回路(144r,144g,144b)を含む点において、タッチパネル140Aは、1画素内に1つの光センサ回路を含むタッチパネル140と異なる。なお、光センサ回路144の構成と、3つの各光センサ回路(144r,144g,144b)との構成は同じである。   FIG. 12 is a circuit diagram of a photosensor built-in liquid crystal panel 140A according to the above different embodiment. Referring to FIG. 12, photosensor built-in liquid crystal panel 140A (touch panel 140A) includes three photosensor circuits (144r, 144g, 144b) in one pixel. As described above, the touch panel 140A is different from the touch panel 140 including one photosensor circuit in one pixel in that the touch panel 140A includes three photosensor circuits (144r, 144g, 144b) in one pixel. The configuration of the optical sensor circuit 144 is the same as that of each of the three optical sensor circuits (144r, 144g, 144b).

また、1画素内における3つのフォトダイオード(145r,145g,145b)は、それぞれ、カラーフィルタ153r、カラーフィルタ153g、カラーフィルタ153bに対向する位置に配されている。それゆえ、フォトダイオード145rは赤色の光を受光し、フォトダイオード145gは緑色の光を受光し、フォトダイオード145bは青色の光を受光する。   Further, the three photodiodes (145r, 145g, 145b) in one pixel are arranged at positions facing the color filter 153r, the color filter 153g, and the color filter 153b, respectively. Therefore, the photodiode 145r receives red light, the photodiode 145g receives green light, and the photodiode 145b receives blue light.

また、タッチパネル140は1画素内において1つの光センサ回路144しか含まないため、1画素内に配設されるTFT147用のデータ信号線は、センサ信号線SSjとセンサ信号線SDjとの2本であった。しかしながら、タッチパネル140Aは1画素内において3つの光センサ回路(144r,144g,144b)を含むため、1画素内に配設されるTFT(147r,147g,147b)用のデータ信号線は6本となる。   In addition, since the touch panel 140 includes only one photosensor circuit 144 in one pixel, two data signal lines for the TFT 147 disposed in one pixel are a sensor signal line SSj and a sensor signal line SDj. there were. However, since the touch panel 140A includes three photosensor circuits (144r, 144g, 144b) in one pixel, there are six data signal lines for TFTs (147r, 147g, 147b) arranged in one pixel. Become.

具体的には、カラーフィルタ153rに対向する位置に配されたフォトダイオード145rのカソードに接続されたTFT147rに対応して、センサ信号線SSRjとセンサ信号線SDRjとが配設される。また、カラーフィルタ153gに対向する位置に配されたフォトダイオード145gのカソードに接続されたTFT147gに対応して、センサ信号線SSGjとセンサ信号線SDGjとが配設される。さらに、カラーフィルタ153bに対向する位置に配されたフォトダイオード145bのカソードに接続されたTFT147bに対応して、センサ信号線SSBjとセンサ信号線SDBjとが配設される。   Specifically, the sensor signal line SSRj and the sensor signal line SDRj are arranged corresponding to the TFT 147r connected to the cathode of the photodiode 145r arranged at a position facing the color filter 153r. A sensor signal line SSGj and a sensor signal line SDGj are arranged corresponding to the TFT 147g connected to the cathode of the photodiode 145g arranged at a position facing the color filter 153g. Further, a sensor signal line SSBj and a sensor signal line SDBj are disposed corresponding to the TFT 147b connected to the cathode of the photodiode 145b disposed at a position facing the color filter 153b.

このようなタッチパネル140Aにおいては、バックライト179から照射された白色光は、3つのカラーフィルタ(153r,153g,153b)を透過し、タッチパネル140Aの表面では、赤、緑、および青とが混ざり白色光となる。ここで、スキャン対象物により白色光が反射されると、スキャン対象物の表面の色素に白色光の一部が吸収され、また一部が反射される。そして、反射された光は、再度、3つのカラーフィルタ(153r,153g,153b)を透過する。   In such a touch panel 140A, the white light emitted from the backlight 179 passes through the three color filters (153r, 153g, 153b), and on the surface of the touch panel 140A, red, green, and blue are mixed and white. It becomes light. Here, when white light is reflected by the scan object, a part of the white light is absorbed by the pigment on the surface of the scan object, and a part is reflected. And the reflected light permeate | transmits three color filters (153r, 153g, 153b) again.

この際、カラーフィルタ153rは赤色の波長の光を透過し、フォトダイオード145rは、当該赤色の波長の光を受光する。また、カラーフィルタ153gは緑色の波長の光を透過し、フォトダイオード145gは、当該緑色の波長の光を受光する。また、カラーフィルタ153bは青色の波長の光を透過し、フォトダイオード145bは、当該青色の波長の光を受光する。つまり、スキャン対象物によって反射された光は3つのカラーフィルタ(153r,153g,153b)によって3原色(R,G,B)に色分解され、各フォトダイオード(145r,145g,145b)は、それぞれに対応した色の光を受光する。   At this time, the color filter 153r transmits light having a red wavelength, and the photodiode 145r receives light having the red wavelength. The color filter 153g transmits light having a green wavelength, and the photodiode 145g receives light having the green wavelength. The color filter 153b transmits light having a blue wavelength, and the photodiode 145b receives light having the blue wavelength. That is, the light reflected by the scan object is separated into three primary colors (R, G, B) by three color filters (153r, 153g, 153b), and each photodiode (145r, 145g, 145b) The light of the color corresponding to is received.

スキャン対象物の表面の色素に白色光の一部が吸収されると、各フォトダイオード(145r,145g,145b)の受光量が各フォトダイオード(145r,145g,145b)で異なることになる。このため、センサ信号線SSRjとセンサ信号線SSGjとセンサ信号線SSBjとの出力電圧は互いに異なる。   When a part of white light is absorbed by the pigment on the surface of the scan target, the amount of light received by each photodiode (145r, 145g, 145b) is different for each photodiode (145r, 145g, 145b). For this reason, the output voltages of the sensor signal line SSRj, the sensor signal line SSGj, and the sensor signal line SSBj are different from each other.

それゆえ、各出力電圧に応じて、Rの階調とGの階調とBの階調とを画像処理エンジン180が決定することにより、画像処理エンジン180はRGBのカラー画像を本体装置101へ送ることができる。   Therefore, the image processing engine 180 determines the R gradation, the G gradation, and the B gradation according to each output voltage, so that the image processing engine 180 sends the RGB color image to the main body device 101. Can send.

以上述べたように、電子機器100がタッチパネル140Aを備えた構成とすることにより、スキャン対象物をカラーでスキャンできることになる。   As described above, when the electronic apparatus 100 includes the touch panel 140A, the scan target can be scanned in color.

次に、図7を参照して説明したスキャンの方法(つまり、反射像をスキャンする方法)とは異なるスキャンの方法について、図13を参照して説明する。   Next, a scanning method different from the scanning method described with reference to FIG. 7 (that is, the method of scanning the reflected image) will be described with reference to FIG.

図13は、スキャンの際にフォトダイオードが外光を受光する構成を示した断面図である。図13を参照して、外光の一部は、指900によって遮られる。それゆえ、指900と接触しているタッチパネル140の表面領域の下部に配されたフォトダイオードは、ほとんど外光を受光できない。また、指900の影が形成された表面領域の下部に配されたフォトダイオードは、ある程度の外光を受光できるものの、影が形成されていない表面領域に比べると外光の受光量が少ない。   FIG. 13 is a cross-sectional view showing a configuration in which a photodiode receives external light during scanning. Referring to FIG. 13, part of the external light is blocked by finger 900. Therefore, the photodiode disposed under the surface area of the touch panel 140 that is in contact with the finger 900 can hardly receive external light. In addition, although the photodiodes disposed under the surface area where the shadow of the finger 900 is formed can receive a certain amount of external light, the amount of external light received is small compared to the surface area where no shadow is formed.

ここで、バックライト179を、少なくともセンシング期間においては消灯させておくことにより、光センサ回路144は、タッチパネル140の表面に対する指900の位置に応じた電圧をセンサ信号線SSjから出力することができる。このように、バックライト179を点灯と消灯とを制御することにより、タッチパネル140では、指900の接触位置、指900の接触している範囲(指900の押圧力によって定まる)、タッチパネル140の表面に対する指900の方向などに応じて、センサ信号線(SS1からSSn)から出力される電圧が変化することになる。   Here, by turning off the backlight 179 at least during the sensing period, the optical sensor circuit 144 can output a voltage corresponding to the position of the finger 900 with respect to the surface of the touch panel 140 from the sensor signal line SSj. . In this manner, by controlling the backlight 179 to be turned on and off, the touch panel 140 has a touch position of the finger 900, a contact area of the finger 900 (determined by the pressing force of the finger 900), and the surface of the touch panel 140. The voltage output from the sensor signal lines (SS1 to SSn) changes depending on the direction of the finger 900 with respect to the.

以上により、表示装置102は、指900によって外光が遮られることにより得られる像(以下、影像とも称する)をスキャンすることができる。   As described above, the display device 102 can scan an image (hereinafter also referred to as a shadow image) obtained by blocking external light with the finger 900.

さらに、表示装置102を、バックライト179を点灯させてスキャンを行った後に、バックライト179を消灯させて再度スキャンを行なう構成としてもよい。あるいは、表示装置102を、バックライト179を消灯させてスキャンを行った後に、バックライト179を点灯させて再度スキャンを行なう構成としてもよい。   Further, the display device 102 may be configured such that after scanning with the backlight 179 lit, the backlight 179 is turned off and scanning is performed again. Alternatively, the display device 102 may be configured to perform scanning by turning off the backlight 179 and then performing scanning again by turning on the backlight 179.

この場合には、2つのスキャン方式を併用することになるため、2つのスキャンデータを得ることができる。それゆえ、一方のスキャン方式のみを用いてスキャンする場合に比べて、精度の高い結果を得ることができる。   In this case, since two scanning methods are used together, two scan data can be obtained. Therefore, it is possible to obtain a highly accurate result as compared with the case of scanning using only one scanning method.

<電子機器100の機能構成>
次に、本実施の形態に係る電子機器100の機能構成について説明する。図14は、本実施の形態に係る電子機器100の機能構成を示すブロック図である。
<Functional Configuration of Electronic Device 100>
Next, a functional configuration of electronic device 100 according to the present embodiment will be described. FIG. 14 is a block diagram showing a functional configuration of electronic device 100 according to the present embodiment.

図14を参照して、電子機器100は、取得部111と、面積判断部112と、時間判断部113と、表示制御部114とを含む。また、電子機器100は、図3にも示したように、RAM171と、タッチパネル140とを含む。   Referring to FIG. 14, electronic device 100 includes an acquisition unit 111, an area determination unit 112, a time determination unit 113, and a display control unit 114. In addition, the electronic device 100 includes a RAM 171 and a touch panel 140 as shown in FIG.

まず、複数の光センサ回路144のそれぞれは、入射光を受光して、当該入射光に応じた電気信号を生成する。複数の光センサ回路144は全体として、画像処理エンジン180(図3)などを介して、タッチパネル140に入力される景色に対応する画像データを取得部111に入力する。   First, each of the plurality of optical sensor circuits 144 receives incident light and generates an electrical signal corresponding to the incident light. The plurality of photosensor circuits 144 as a whole input image data corresponding to the scenery input to the touch panel 140 to the acquisition unit 111 via the image processing engine 180 (FIG. 3) or the like.

複数の画素回路141のそれぞれは、画像処理エンジン180を介して、表示制御部114からの画像データに基づき、外部に可視光を発する。より詳細には、複数の画素回路141は全体として、画像処理エンジン180(図3)などを介して、表示制御部114からの画像データ(電気信号)に基づいて、バックライト179からの光を利用しながら手書き画像やテキストなどを表示する。   Each of the plurality of pixel circuits 141 emits visible light to the outside based on the image data from the display control unit 114 via the image processing engine 180. More specifically, the plurality of pixel circuits 141 as a whole emit light from the backlight 179 based on image data (electrical signals) from the display control unit 114 via the image processing engine 180 (FIG. 3) or the like. Display handwritten images and text while using.

RAM171は、画像処理エンジン180からの画像データ171Aや、当該画像データ171Aが取得された取得時間171Bを記憶する。たとえば、RAM171は、画像処理エンジン180からの各センサタイミングにおける接触領域を示す画像データや、一連の当該接触領域に対応する手書き画像を示す第2の画像データを記憶する。RAM171は、一連の接触領域の入力が終了した(途切れた)時刻、すなわちCPU110が接触領域の存在しない画像データを取得した時刻を記憶する。   The RAM 171 stores the image data 171A from the image processing engine 180 and the acquisition time 171B when the image data 171A is acquired. For example, the RAM 171 stores image data indicating a contact area at each sensor timing from the image processing engine 180 and second image data indicating a handwritten image corresponding to a series of the contact areas. The RAM 171 stores the time when the input of a series of contact areas is completed (interrupted), that is, the time when the CPU 110 acquires image data in which no contact areas exist.

以下では、一連の当該接触領域に対応する手書き画像を、ストロークともいう。なお、本実施の形態においては、一連の当該接触領域に対応する手書き画像(ストローク)は、1本の線画像である。より詳細には、ストロークとは、スタイラスペン99や指900がタッチパネル140に接触してから、スタイラスペン99や指900がタッチパネル140から持ち上げられるまでの間における、スタイラスペン99や指900のタッチパネル140表面上での軌跡をいう。   Below, the handwritten image corresponding to a series of the said contact area is also called a stroke. In the present embodiment, a handwritten image (stroke) corresponding to a series of the contact areas is a single line image. More specifically, the stroke refers to the touch panel 140 of the stylus pen 99 or the finger 900 from when the stylus pen 99 or the finger 900 contacts the touch panel 140 to when the stylus pen 99 or the finger 900 is lifted from the touch panel 140. The trajectory on the surface.

取得部111と、面積判断部112と、時間判断部113と、表示制御部114とは、CPU110あるいは画像処理エンジン180などによって実現される機能である。より詳細には、CPU110が有する各機能は、CPU110がRAM171などに記憶される制御プログラムを実行して、図3に示される各ハードウェアを制御することによって実現される機能である。   The acquisition unit 111, the area determination unit 112, the time determination unit 113, and the display control unit 114 are functions realized by the CPU 110 or the image processing engine 180. More specifically, each function of the CPU 110 is a function realized by the CPU 110 executing a control program stored in the RAM 171 or the like and controlling each hardware shown in FIG.

取得部111は、たとえば、CPU110によって実現される。取得部111は、画像処理エンジン180を介して複数の光センサ回路144から入力される電気信号に基づいて「2値画像データ」を生成する。たとえば、取得部111は、画像処理エンジンからのカラー画像データあるいは多値画像データに基づいて、「2値画像データ」を生成する。あるいは、取得部111は、画像処理エンジン180から、直接、「2値画像データ」を取得する。   The acquisition unit 111 is realized by the CPU 110, for example. The acquisition unit 111 generates “binary image data” based on electrical signals input from the plurality of optical sensor circuits 144 via the image processing engine 180. For example, the acquisition unit 111 generates “binary image data” based on color image data or multivalued image data from the image processing engine. Alternatively, the acquisition unit 111 acquires “binary image data” directly from the image processing engine 180.

「2値画像データ」は、接触領域を示す。本実施の形態においては、「2値画像データ」は、外部の物体(スタイラスペン99あるいは指900など)のタッチパネル140に対する接触領域を「黒画素」として、非接触領域を「白画素」として示す。   “Binary image data” indicates a contact area. In the present embodiment, “binary image data” indicates a contact area of an external object (such as the stylus pen 99 or the finger 900) with respect to the touch panel 140 as “black pixel” and a non-contact area as “white pixel”. .

あるいは、取得部111は、画像処理エンジン180からの画像データに基づいて、2値画像データの代わりに、接触領域と非接触領域との境界を示すデータを接触領域として取得してもよい。   Alternatively, the acquisition unit 111 may acquire data indicating a boundary between the contact area and the non-contact area as a contact area instead of the binary image data based on the image data from the image processing engine 180.

取得部111は、たとえば、図3に示す画像処理エンジン180によって実現されてもよい。すなわち、画像処理エンジン180によって実現される取得部111が、光センサ回路144からの電気信号に基づいて2値画像データを生成し、当該2値画像データをCPU110によって実現される面積判断部112や時間判断部113や表示制御部114などに受け渡してもよい。   The acquisition unit 111 may be realized by, for example, the image processing engine 180 illustrated in FIG. That is, the acquisition unit 111 realized by the image processing engine 180 generates binary image data based on the electrical signal from the optical sensor circuit 144, and the binary image data is generated by the CPU 110. You may deliver to the time judgment part 113, the display control part 114, etc.

前述したように、取得部111は、2値画像データ(接触領域)を一時的にRAM171に記憶する。たとえば、取得部111は、画像処理エンジン180からの画像データに基づいて、RAM171の2値画像データを最新の2値画像データに更新する。あるいは、取得部111は、接触領域が検知されている期間だけ、当該接触領域を示す2値画像データを順次RAM171に蓄積してもよい。   As described above, the acquisition unit 111 temporarily stores binary image data (contact area) in the RAM 171. For example, the acquisition unit 111 updates the binary image data in the RAM 171 to the latest binary image data based on the image data from the image processing engine 180. Alternatively, the acquisition unit 111 may sequentially accumulate binary image data indicating the contact area in the RAM 171 only during a period in which the contact area is detected.

面積判断部112は、取得部111からの接触領域を示すデータに基づいて、接触領域の形状が所定の条件を満たすか否かを判断する。本実施の形態に係る面積判断部112は、取得部111からの2値画像データに基づいて、黒画素(あるいは白画素)の画素数を計算する。面積判断部112は、当該画素数を接触領域の面積として取得する。面積判断部112は、RAM171から第1の所定の値(第1のしきい値)を読み出す。面積判断部112は、接触領域の面積が第1の所定の値以上であるか否かを判断する。   The area determination unit 112 determines whether or not the shape of the contact area satisfies a predetermined condition based on the data indicating the contact area from the acquisition unit 111. The area determining unit 112 according to the present embodiment calculates the number of black pixels (or white pixels) based on the binary image data from the acquiring unit 111. The area determination unit 112 acquires the number of pixels as the area of the contact region. The area determination unit 112 reads a first predetermined value (first threshold value) from the RAM 171. The area determining unit 112 determines whether or not the area of the contact area is equal to or greater than a first predetermined value.

面積判断部112は、接触領域の面積が第1の所定の値以上である場合に、指900がタッチパネル140に接触したと判断する。面積判断部112は、接触領域の面積が第1の所定の値以上である場合に、2値画像データ毎に「指画像データ」を時間判断部113に受け渡す。「指画像データ」の各々は、接触領域の中心座標と、接触領域および非接触領域の境界とを示す。   The area determination unit 112 determines that the finger 900 has touched the touch panel 140 when the area of the contact region is equal to or greater than the first predetermined value. The area determination unit 112 delivers “finger image data” to the time determination unit 113 for each binary image data when the area of the contact region is equal to or greater than the first predetermined value. Each of the “finger image data” indicates the center coordinates of the contact area and the boundary between the contact area and the non-contact area.

なお、電子機器100が後述する時間判断部113の機能を有さない場合、面積判断部112は、指画像データを後述するエリア消去命令として表示制御部114に直接受け渡してもよい。   When the electronic device 100 does not have the function of the time determination unit 113 described later, the area determination unit 112 may directly transfer the finger image data to the display control unit 114 as an area erase command described later.

一方、面積判断部112は、接触領域の面積が第1の所定の値未満である場合に、スタイラスペン99がタッチパネル140に接触したと判断する。面積判断部112は、接触領域の面積が第1の所定の値未満である場合に、2値画像データ毎に「手書き画像データ」を時間判断部113と表示制御部114とに受け渡す。「手書き画像データ」の各々は、接触領域の中心座標を示す。   On the other hand, the area determination unit 112 determines that the stylus pen 99 has touched the touch panel 140 when the area of the contact region is less than the first predetermined value. When the area of the contact area is less than the first predetermined value, the area determination unit 112 delivers “handwritten image data” to the time determination unit 113 and the display control unit 114 for each binary image data. Each of the “handwritten image data” indicates the center coordinates of the contact area.

なお、面積判断部112は、RAM171から第2の所定の値(第2のしきい値)を読み出して、2値画像データと第2の所定の値とに基づいて、接触領域の面積が第2の所定の値以上であるか否かを判断してもよい。そして、面積判断部112は、接触領域の面積が第2の所定の値以上である場合には、当該接触領域を無視してもよい。すなわち、タッチパネル140に対する接触操作がなかったものとみなしてもよい。接触領域の面積が第2の所定の値以上である場合には、「手のひら」などがタッチパネル140に接触した可能性が高いからである。   The area determination unit 112 reads the second predetermined value (second threshold value) from the RAM 171, and determines the area of the contact region based on the binary image data and the second predetermined value. It may be determined whether or not a predetermined value of 2 or more. Then, when the area of the contact area is equal to or larger than the second predetermined value, the area determination unit 112 may ignore the contact area. That is, it may be considered that no touch operation has been performed on the touch panel 140. This is because when the area of the contact area is equal to or larger than the second predetermined value, there is a high possibility that the “palm” or the like has touched the touch panel 140.

また、面積判断部112は、他の判断基準に基づいて、接触領域の形状が所定の条件を満たすか否かを判断してもよい。たとえば、RAM171が所定の形状を示す画像データを記憶してもよい。そして、面積判断部112が、接触領域の形状と所定の形状とに関してパターンマッチングを行なってもよい。すなわち、面積判断部112は、接触領域の形状と所定の形状とがマッチした場合に、接触領域の形状が所定の条件を満たすと判断し、接触領域の形状と所定の形状とがマッチしない場合に、接触領域の形状が所定の条件を満たさないと判断してもよい。   Further, the area determination unit 112 may determine whether or not the shape of the contact region satisfies a predetermined condition based on another determination criterion. For example, the RAM 171 may store image data indicating a predetermined shape. Then, the area determination unit 112 may perform pattern matching on the shape of the contact region and a predetermined shape. That is, the area determination unit 112 determines that the shape of the contact area satisfies the predetermined condition when the shape of the contact area matches the predetermined shape, and the shape of the contact area does not match the predetermined shape In addition, it may be determined that the shape of the contact area does not satisfy a predetermined condition.

時間判断部113は、面積判断部112から順次入力される手書き画像データに基づいて、最新の接触操作が終了した時刻(第1の取得時刻)をRAM171に格納する。たとえば、時間判断部113は、面積判断部112から手書き画像データを受け付けなくなったときに、最後の手書き画像を受け付けた時刻をRAM171に格納する。   Based on the handwritten image data sequentially input from the area determining unit 112, the time determining unit 113 stores the time (first acquisition time) at which the latest contact operation is completed in the RAM 171. For example, when the time determination unit 113 stops receiving handwritten image data from the area determination unit 112, the time determination unit 113 stores the time when the last handwritten image is received in the RAM 171.

本実施の形態においては、画像処理エンジン180が、タイマ182やクロックなどを使用して取得時刻を計測する。そして、画像処理エンジン180が、取得時刻を2値画像データとともにCPU110へと受け渡す。   In the present embodiment, the image processing engine 180 measures the acquisition time using a timer 182 or a clock. Then, the image processing engine 180 passes the acquisition time to the CPU 110 together with the binary image data.

時間判断部113は、面積判断部112から指画像データを受け取って、当該指画像データが取得された時刻(第2の取得時刻)をRAM171に格納する。時間判断部113は、第1の取得時刻から第2の取得時刻までの時間が、所定の時間未満であるか否かを判断する。   The time determination unit 113 receives the finger image data from the area determination unit 112 and stores the time (second acquisition time) at which the finger image data was acquired in the RAM 171. The time determination unit 113 determines whether or not the time from the first acquisition time to the second acquisition time is less than a predetermined time.

時間判断部113は、第1の取得時刻から第2の取得時刻までの時間が所定の時間以上である場合、指画像データをエリア消去命令として表示制御部114に受け渡す。一方、時間判断部113は、第1の取得時刻から第2の取得時刻までの時間が所定の時間以上である場合、ストローク消去命令を表示制御部114に受け渡す。   When the time from the first acquisition time to the second acquisition time is equal to or greater than a predetermined time, the time determination unit 113 delivers the finger image data to the display control unit 114 as an area erase command. On the other hand, when the time from the first acquisition time to the second acquisition time is equal to or longer than a predetermined time, the time determination unit 113 delivers a stroke deletion command to the display control unit 114.

表示制御部114は、CPU110あるいは画像処理エンジン180によって実現される。表示制御部114は、面積判断部112からの手書き画像データに基づいて、タッチパネル140に手書き画像を表示させる。   The display control unit 114 is realized by the CPU 110 or the image processing engine 180. The display control unit 114 displays a handwritten image on the touch panel 140 based on the handwritten image data from the area determining unit 112.

より詳細には、表示制御部114は、手書き画像データ毎に、接触領域の中心座標を取得する。表示制御部114は、面積判断部112からの手書き画像データの各々に基づいて接触領域の中心座標を計算してもよいし、画像処理エンジン180から取得部111あるいは面積判断部112を介して中心座標を取得してもよい。   More specifically, the display control unit 114 acquires the center coordinates of the contact area for each handwritten image data. The display control unit 114 may calculate the center coordinates of the contact area based on each handwritten image data from the area determination unit 112, or the center from the image processing engine 180 via the acquisition unit 111 or the area determination unit 112. You may acquire a coordinate.

表示制御部114は、各センサタイミングに係る接触領域の中心座標に基づいて、タッチパネル140とスタイラスペン99(あるいは指900)との接触領域の軌跡を取得する。表示制御部114は、接触領域の軌跡を線画像(1つのストローク)としてRAM171に記憶するとともに、当該線画像をタッチパネル140に表示させる。   The display control unit 114 acquires the locus of the contact area between the touch panel 140 and the stylus pen 99 (or the finger 900) based on the center coordinates of the contact area related to each sensor timing. The display control unit 114 stores the locus of the contact area as a line image (one stroke) in the RAM 171 and causes the touch panel 140 to display the line image.

表示制御部114は、時間判断部113からの指画像データ(エリア消去命令)に基づいて、タッチパネル140に、接触領域内の画像が消去された画面を表示させる。すなわち、表示制御部114は、時間判断部113から順次渡される指画像データに基づいて、タッチパネル140に描画されていた手書き画像(線画像)のうち、接触領域内に位置する部分(線画像の一部)を消去する。   Based on the finger image data (area deletion command) from time determination unit 113, display control unit 114 causes touch panel 140 to display a screen from which the image in the contact area has been deleted. That is, the display control unit 114, based on the finger image data sequentially passed from the time determination unit 113, among the handwritten images (line images) drawn on the touch panel 140, the part (line image Delete some).

たとえば、表示制御部114は、時間判断部113からの接触領域と非接触領域との境界を示すデータとに基づいて、接触領域内の線分を消去する。あるいは、表示制御部114は、時間判断部113からの接触領域の中心座標に基づいて、当該接触領域の中心から所定の半径以内に位置する線分を消去する。具体的には、表示制御部114は、時間判断部113から順次渡される指画像データに基づいて、RAM171の画像データ171Aを更新するとともに、更新後の線画像をタッチパネル140に表示させる。   For example, the display control unit 114 erases the line segment in the contact area based on the data indicating the boundary between the contact area and the non-contact area from the time determination unit 113. Alternatively, the display control unit 114 deletes a line segment located within a predetermined radius from the center of the contact area based on the center coordinates of the contact area from the time determination unit 113. Specifically, the display control unit 114 updates the image data 171A in the RAM 171 based on the finger image data sequentially delivered from the time determination unit 113 and causes the touch panel 140 to display the updated line image.

表示制御部114は、時間判断部113からのストローク消去命令に基づいて、タッチパネル140に最新の線画像を消去した画像を表示させる。すなわち、表示制御部114は、時間判断部113から渡されるストローク消去命令に基づいて、タッチパネル140に最後に描画された線画像を消去する。換言すれば、表示制御部114は、時間判断部113から渡されるストローク消去命令に基づいて、RAM171の画像データ171Aを更新する。   The display control unit 114 causes the touch panel 140 to display an image from which the latest line image has been deleted based on the stroke deletion command from the time determination unit 113. That is, the display control unit 114 erases the line image last drawn on the touch panel 140 based on the stroke erasure command passed from the time determination unit 113. In other words, the display control unit 114 updates the image data 171 </ b> A in the RAM 171 based on the stroke erasure command passed from the time determination unit 113.

このように、本実施の形態に係る電子機器100は、接触領域の形状に応じて描画命令や消去命令を切り替えるため、ユーザによるタッチパネルを介した画像の編集操作が簡略化される。たとえば、電子機器100は、タッチパネル140を利用することにより、人差し指(接触領域が狭い)による接触操作に応じて線画像を描画し、親指(接触領域が広い)による接触操作に応じて当該線画像の一部あるいは全部を消去するものであってもよい。逆に、電子機器100は、親指(接触領域が広い)による接触操作に応じて線画像を描画し、人差し指(接触領域が狭い)による接触操作に応じて当該線画像の一部あるいは全部を消去するものであってもよい。   As described above, since electronic device 100 according to the present embodiment switches between a drawing command and an erasing command according to the shape of the contact area, an image editing operation by the user via the touch panel is simplified. For example, the electronic device 100 uses the touch panel 140 to draw a line image in response to a contact operation with an index finger (a contact area is narrow), and the line image according to a contact operation with a thumb (a contact area is wide). It is also possible to erase part or all of. Conversely, the electronic device 100 draws a line image according to the contact operation with the thumb (wide contact area) and erases part or all of the line image according to the contact operation with the index finger (narrow contact area). You may do.

なお、本実施の形態に係る面積判断部112は、タッチパネル140および取得部111にて2つ以上の接触領域が検知された場合、すなわちスタイラスペン99(あるいは指900)と「手のひら」(手901)とがタッチパネル140に接触した場合、以下のように機能する。すなわち、面積判断部112は、画像データ内の面積が最も小さい接触領域の面積と第1の所定の値とに基づいて、接触領域が所定の条件を満たすか否かを判断する。そして、時間判断部113が、当該判断結果に基づいて、手書き画像データあるいは指画像データ(エリア消去命令)あるいはストローク消去命令を生成する。   Note that the area determination unit 112 according to the present embodiment is configured so that the touch panel 140 and the acquisition unit 111 detect two or more contact areas, that is, the stylus pen 99 (or the finger 900) and the “palm” (hand 901). ) And the touch panel 140 function as follows. That is, the area determination unit 112 determines whether or not the contact area satisfies a predetermined condition based on the area of the contact area having the smallest area in the image data and the first predetermined value. Then, the time determination unit 113 generates handwritten image data, finger image data (area deletion command), or a stroke deletion command based on the determination result.

図15は、タッチパネル140および取得部111にて2つ以上の接触箇所が検知された場合の電子機器100と生成された画像データとを示すイメージ図である。より詳細には、図15(A)は、スタイラスペン99と手のひらとがタッチパネル140に接触したときの電子機器100のイメージ図である。図15(B)は、スタイラスペン99と手のひらとがタッチパネル140に接触したときに取得される画像データのイメージ図である。図15(C)は、指900と手のひらとがタッチパネル140に接触したときの電子機器100のイメージ図である。図15(D)は、指900と手のひらとがタッチパネル140に接触したときに取得される画像データのイメージ図である。   FIG. 15 is an image diagram showing electronic device 100 and generated image data when two or more contact points are detected by touch panel 140 and acquisition unit 111. More specifically, FIG. 15A is an image diagram of electronic device 100 when stylus pen 99 and the palm are in contact with touch panel 140. FIG. 15B is an image diagram of image data acquired when the stylus pen 99 and the palm touch the touch panel 140. FIG. 15C is an image diagram of the electronic device 100 when the finger 900 and the palm are in contact with the touch panel 140. FIG. 15D is an image diagram of image data acquired when the finger 900 and the palm are in contact with the touch panel 140.

図15(A)に示すように、スタイラスペン99と手のひらとがタッチパネル140に接触したとき、タッチパネル140と取得部111とは図15(B)に示す画像データを取得する。このとき、図15(B)に示すように、画像データは、スタイラスペン99とタッチパネル140との接触領域T1と、手のひらとタッチパネル140との接触領域T2とを示す。本実施の形態に係る面積判断部112は、接触領域T2よりも接触領域T1の方が面積が小さいので、接触領域T1に関して手書き画像データを生成する。   As shown in FIG. 15A, when the stylus pen 99 and the palm touch the touch panel 140, the touch panel 140 and the acquisition unit 111 acquire the image data shown in FIG. At this time, as shown in FIG. 15B, the image data indicates a contact area T1 between the stylus pen 99 and the touch panel 140, and a contact area T2 between the palm and the touch panel 140. Since the area of the contact area T1 is smaller than that of the contact area T2, the area determination unit 112 according to the present embodiment generates handwritten image data regarding the contact area T1.

図15(C)に示すように、指900と手のひらとがタッチパネル140に接触したとき、タッチパネル140と取得部111とは図15(D)に示す画像データを取得する。このとき、図15(D)に示すように、画像データは、スタイラスペン99とタッチパネル140との接触領域T3と、手のひらとタッチパネル140との接触領域T4,T5とを示す。本実施の形態に係る面積判断部112は、接触領域T4,T5よりも接触領域T3の方が面積が小さいので、接触領域T3に関して指画像データを生成する。   As shown in FIG. 15C, when the finger 900 and the palm touch the touch panel 140, the touch panel 140 and the acquisition unit 111 acquire the image data shown in FIG. At this time, as shown in FIG. 15D, the image data indicates a contact area T3 between the stylus pen 99 and the touch panel 140, and contact areas T4 and T5 between the palm and the touch panel 140. The area determination unit 112 according to the present embodiment generates finger image data for the contact region T3 because the contact region T3 has a smaller area than the contact regions T4 and T5.

<表示処理>
次に、図3、図14、図16を参照して、本実施の形態に係る電子機器100における表示処理について説明する。なお、図16は、本実施の形態に係る電子機器100における表示処理の処理手順を示すイメージ図である。
<Display processing>
Next, display processing in electronic apparatus 100 according to the present embodiment will be described with reference to FIGS. FIG. 16 is an image diagram showing a processing procedure of display processing in electronic device 100 according to the present embodiment.

本実施の形態においては、タッチパネル140に含まれる複数の光センサ回路144は、常時、入射光に応じて電気信号を生成する。複数の光センサ回路144は、画像処理エンジン180を介して、入射光に対応する電気信号(画像データ)をCPU110に入力する。すなわち、取得部111として機能するCPU110は、複数の光センサ回路144からの電気信号(画像データ)を、画像処理エンジン180を介して取得する。   In the present embodiment, the plurality of photosensor circuits 144 included in the touch panel 140 always generates an electrical signal according to incident light. The plurality of optical sensor circuits 144 input an electrical signal (image data) corresponding to incident light to the CPU 110 via the image processing engine 180. That is, the CPU 110 functioning as the acquisition unit 111 acquires electrical signals (image data) from the plurality of optical sensor circuits 144 via the image processing engine 180.

CPU110は、画像処理エンジン180からの画像データに基づいて接触領域を検知したか否かを判断する(ステップS102)。CPU110は、接触領域を検知しない場合(ステップS102においてNOである場合)、ステップS102からの処理を繰り返す。   CPU 110 determines whether or not a contact area has been detected based on image data from image processing engine 180 (step S102). CPU110 repeats the process from step S102, when a contact area is not detected (when it is NO in step S102).

面積判断部112として機能するCPU110は、接触領域を検知した場合(ステップS102においてYESである場合)、当該接触領域が指900とタッチパネル140との接触を示すか否かを判断する(ステップS104)。表示制御部114として機能するCPU110は、当該接触領域が指900とタッチパネル140との接触を示さない場合、すなわち当該接触領域がスタイラスペン99とタッチパネル140との接触を示す場合(ステップS104においてYESである場合)、当該接触領域(第1の接触領域)に基づいてタッチパネル140に手書き画像を表示させる。   When CPU 110 functioning as area determination unit 112 detects a contact area (YES in step S102), CPU 110 determines whether or not the contact area indicates contact between finger 900 and touch panel 140 (step S104). . CPU 110 functioning as display control unit 114 does not indicate contact between finger 900 and touch panel 140, that is, if the contact area indicates contact between stylus pen 99 and touch panel 140 (YES in step S104). If present, a handwritten image is displayed on the touch panel 140 based on the contact area (first contact area).

CPU110は、スタイラスペン99のタッチパネル140に対する接触が終了したか否かを判断する(ステップS108)。CPU110は、スタイラスペン99のタッチパネル140に対する接触が終了しない場合(ステップS108においてNOである場合)、ステップS106からの処理を繰り返す。CPU110は、スタイラスペン99のタッチパネル140に対する接触が終了した場合(ステップS108においてYESである場合)、接触が終了した時刻をRAM171に記憶する(ステップS110)。   The CPU 110 determines whether or not the contact of the stylus pen 99 with the touch panel 140 has ended (step S108). CPU110 repeats the process from step S106, when the contact with the touch panel 140 of the stylus pen 99 is not complete | finished (when it is NO in step S108). CPU110 memorize | stores the time which contact was complete | finished in RAM171, when the contact with respect to the touchscreen 140 of the stylus pen 99 is complete | finished (when it is YES in step S108) (step S110).

すなわち、CPU110は、接触領域の面積が所定の値未満である場合、スタイラスペン99のタッチパネル140に対する接触が終了するまで、画像処理エンジン180から順次入力される画像データに基づいてタッチパネル140によって表示される線画像を更新させる。CPU110は、ステップS110の後、ステップS102からの処理を繰り返す。   That is, when the area of the contact area is less than a predetermined value, the CPU 110 is displayed on the touch panel 140 based on the image data sequentially input from the image processing engine 180 until the touch of the stylus pen 99 with the touch panel 140 is completed. Update the line image. CPU110 repeats the process from step S102 after step S110.

一方、CPU110は、当該接触領域が指900とタッチパネル140との接触を示す場合(ステップS104においてYESである場合)、今回の接触操作が前回の接触操作が終了した時刻から所定の時間内に行われたか否かを判断する(ステップS112)。CPU110は、今回の接触操作が前回の接触操作が終了した時刻から所定の時間経過後に行われた場合(ステップS112においてYESである場合)、タッチパネル140に当該接触領域内の画像(線画像の一部)を消去させる(ステップS114)。すなわち、CPU110は、接触領域内の画像を消去した画像をタッチパネル140に表示させる。   On the other hand, when the contact area indicates the contact between the finger 900 and the touch panel 140 (YES in step S104), the CPU 110 performs the current contact operation within a predetermined time from the time when the previous contact operation is completed. It is determined whether it has been received (step S112). When the present contact operation is performed after a predetermined time has elapsed from the time when the previous contact operation was completed (YES in step S112), CPU 110 causes touch panel 140 to display an image in the contact area (one line image). Part) is deleted (step S114). That is, CPU 110 causes touch panel 140 to display an image obtained by deleting the image in the contact area.

CPU110は、指900のタッチパネル140に対する接触が終了したか否かを判断する(ステップS116)。CPU110は、指900のタッチパネル140に対する接触が終了しない場合(ステップS116においてNOである場合)、ステップS114からの処理を繰り返す。CPU110は、指900のタッチパネル140に対する接触が終了した場合(ステップS116においてYESである場合)、CPU110は、ステップS102からの処理を繰り返す。   CPU 110 determines whether or not the contact of finger 900 on touch panel 140 has ended (step S116). CPU110 repeats the process from step S114, when the contact with the touch panel 140 of the finger | toe 900 does not complete | finish (when it is NO in step S116). CPU110 repeats the process from step S102, when the contact with the touch panel 140 of the finger | toe 900 is complete | finished (when it is YES in step S116).

すなわち、CPU110は、接触領域の面積が所定の値以上である場合、指900のタッチパネル140に対する接触が終了するまで、画像処理エンジン180から順次入力される画像データに基づいて、タッチパネル140上の線画像のうちの接触領域内の画像を消去し続ける。   That is, when the area of the contact area is equal to or greater than a predetermined value, the CPU 110 determines the line on the touch panel 140 based on the image data sequentially input from the image processing engine 180 until the contact of the finger 900 with the touch panel 140 is completed. Continue erasing the image in the contact area of the image.

CPU110は、今回の接触操作が前回の接触操作が終了した時刻から所定の時間内に行われた場合(ステップS112においてNOである場合)、タッチパネル140に最後に描画された一連の手書き画像(線画像)を消去させる(ステップS118)。すなわち、CPU110は、最新の線画像が消去された画面をタッチパネル140に表示させる。CPU110は、ステップS102からの処理を繰り返す。   When the current contact operation is performed within a predetermined time from the time when the previous contact operation is completed (NO in step S112), CPU 110 performs a series of handwritten images (line lines) last drawn on touch panel 140. The image is erased (step S118). That is, CPU 110 causes touch panel 140 to display a screen from which the latest line image has been deleted. CPU110 repeats the process from step S102.

<その他の実施の形態>
本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。
<Other embodiments>
It goes without saying that the present invention can also be applied to a case where it is achieved by supplying a program to a system or apparatus. Then, a storage medium storing a program represented by software for achieving the present invention is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the program code stored in the storage medium It is possible to enjoy the effects of the present invention also by reading and executing.

この場合、記憶媒体から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード(ICメモリカード)、ROM(マスクROM、フラッシュEEPROMなど)などを用いることができる。   As a storage medium for supplying the program code, for example, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card (IC memory card), ROM (mask ROM, flash) EEPROM, etc.) can be used.

また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code However, it is needless to say that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

99 スタイラスペン、100 電子機器、101 本体装置、102 表示装置、110 CPU、111 取得部、112 面積判断部、113 時間判断部、114 表示制御部、130 ドライバ、131 走査信号線駆動回路、132 データ信号線駆動回路、133 光センサ駆動回路、134 スイッチ、135 アンプ、140,140A 光センサ内蔵液晶パネル、141 画素回路、141b,141g,141r サブピクセル回路、143 電極対、143a 画素電極、143b 対向電極、144 光センサ回路、145,145b,145g,145r フォトダイオード、146 コンデンサ、151A アクティブマトリクス基板、151B 対向基板、152 液晶層、153b,153g,153r カラーフィルタ、157 データ信号線、161 偏光フィルタ、162 ガラス基板、163 遮光膜、164 配向膜、171 RAM、171A 画像データ、171B 取得時間、173 メモリカードリーダライタ、174 通信装置、175 マイク、176 スピーカ、177 操作キー、179 バックライト、180 画像処理エンジン、181 ドライバ制御部、182 タイマ、183 信号処理部、900 指、901 手、1731 メモリカード、DB1,DB2 データバス。   99 stylus pen, 100 electronic device, 101 main unit, 102 display device, 110 CPU, 111 acquisition unit, 112 area determination unit, 113 time determination unit, 114 display control unit, 130 driver, 131 scanning signal line drive circuit, 132 data Signal line driving circuit, 133 photosensor driving circuit, 134 switch, 135 amplifier, 140, 140A liquid crystal panel with built-in photosensor, 141 pixel circuit, 141b, 141g, 141r subpixel circuit, 143 electrode pair, 143a pixel electrode, 143b counter electrode 144 photosensor circuit, 145, 145b, 145g, 145r photodiode, 146 capacitor, 151A active matrix substrate, 151B counter substrate, 152 liquid crystal layer, 153b, 153g, 153r color filter, 57 Data signal line, 161 Polarizing filter, 162 Glass substrate, 163 Shading film, 164 Alignment film, 171 RAM, 171A Image data, 171B Acquisition time, 173 Memory card reader / writer, 174 Communication device, 175 Microphone, 176 Speaker, 177 Operation Key, 179 backlight, 180 image processing engine, 181 driver control unit, 182 timer, 183 signal processing unit, 900 finger, 901 hand, 1731 memory card, DB1, DB2 data bus.

Claims (7)

タッチパネルと、
前記タッチパネルを介して接触領域を取得する取得手段と、
前記接触領域の形状が所定の条件を満たすか否かを判断する第1の判断手段と、
前記タッチパネルを介して前記所定の条件を満たさない第1の接触領域に対応する位置に画像を表示し、前記所定の条件を満たす第2の接触領域内の前記画像を消去する表示制御手段とを備える、表示装置。
A touch panel;
Obtaining means for obtaining a contact area via the touch panel;
First determination means for determining whether or not the shape of the contact area satisfies a predetermined condition;
Display control means for displaying an image at a position corresponding to the first contact area that does not satisfy the predetermined condition via the touch panel, and erasing the image in the second contact area that satisfies the predetermined condition; A display device.
前記第1の判断手段は、
前記接触領域の面積が所定の値以上であるか否かを判断し、
前記接触領域の面積が所定の値以上である場合に前記接触領域の形状が前記所定の条件を満たすと判断し、
前記接触領域の面積が所定の値未満である場合に前記接触領域の形状が前記所定の条件を満たさないと判断する、請求項1に記載の表示装置。
The first determination means includes
Determining whether the area of the contact area is a predetermined value or more;
When the area of the contact area is equal to or greater than a predetermined value, it is determined that the shape of the contact area satisfies the predetermined condition,
The display device according to claim 1, wherein when the area of the contact region is less than a predetermined value, it is determined that the shape of the contact region does not satisfy the predetermined condition.
前記取得手段が前記第2の接触領域を取得したときに、前記取得手段が最新の前記第1の接触領域を取得してから前記第2の接触領域を取得するまでの時間が所定の時間未満であるか否かを判断する第2の判断手段をさらに備え、
前記表示制御手段は、
前記取得手段が最新の前記第1の接触領域を取得してから前記第2の接触領域を取得するまでの時間が前記所定の時間未満である場合、最新の前記第1の接触領域に対応する前記画像を含む一連の画像を消去し、
前記取得手段が最新の前記第1の接触領域を取得してから前記第2の接触領域を取得するまでの時間が前記所定の時間以上である場合、前記第2の接触領域内の前記画像を消去する、請求項1または2に記載の表示装置。
When the acquisition unit acquires the second contact area, the time from when the acquisition unit acquires the latest first contact area to the acquisition of the second contact area is less than a predetermined time. A second determining means for determining whether or not
The display control means includes
When the time from when the acquisition unit acquires the latest first contact area to the acquisition of the second contact area is less than the predetermined time, it corresponds to the latest first contact area. Erasing a series of images including the images,
When the time from when the acquisition unit acquires the latest first contact area to the acquisition of the second contact area is equal to or longer than the predetermined time, the image in the second contact area is The display device according to claim 1, wherein the display device is erased.
前記タッチパネルは、
入射光に応じて第1の電気信号を生成する複数の光センサ回路と、
第2の電気信号に応じて光を発する複数の画素回路とを含み、
前記取得手段は、前記複数の光センサ回路からの前記第1の電気信号に基づき、前記接触領域としての画像データを生成し、
前記表示制御手段は、前記画像に対応する前記第2の電気信号を前記複数の画素回路へ入力することによって、前記複数の画素回路に前記画像を表示させる、請求項1から3のいずれかに記載の表示装置。
The touch panel
A plurality of photosensor circuits for generating a first electrical signal in response to incident light;
A plurality of pixel circuits that emit light in response to a second electrical signal;
The acquisition means generates image data as the contact area based on the first electrical signals from the plurality of photosensor circuits,
4. The display control unit according to claim 1, wherein the display control unit causes the plurality of pixel circuits to display the image by inputting the second electric signal corresponding to the image to the plurality of pixel circuits. 5. The display device described.
前記取得手段は、前記タッチパネルを介して一連の前記接触領域を手書き入力として取得し、
前記一連の接触領域に対応する一連の画像は、線画像である、請求項1から4のいずれかに記載の表示装置。
The acquisition means acquires a series of the contact areas as handwritten input via the touch panel,
The display device according to claim 1, wherein the series of images corresponding to the series of contact areas is a line image.
タッチパネルと演算処理部とを備える表示装置における表示方法であって、
前記演算処理部が、前記タッチパネルを介して接触領域を取得するステップと、
前記演算処理部が、前記接触領域の形状が所定の条件を満たすか否かを判断するステップと、
前記演算処理部が、前記タッチパネルを介して前記所定の条件を満たさない第1の接触領域に対応する位置に画像を表示するステップと、
前記演算処理部が、前記所定の条件を満たす第2の接触領域内の前記画像を消去するステップとを備える、表示方法。
A display method in a display device including a touch panel and an arithmetic processing unit,
The arithmetic processing unit acquiring a contact area via the touch panel;
The arithmetic processing unit determining whether or not the shape of the contact area satisfies a predetermined condition;
The arithmetic processing unit displaying an image at a position corresponding to a first contact area that does not satisfy the predetermined condition via the touch panel;
And a step of erasing the image in the second contact area satisfying the predetermined condition.
タッチパネルと演算処理部とを備える表示装置に画像を表示させるための表示プログラムであって、
前記演算処理部に、
前記タッチパネルを介して接触領域を取得するステップと、
前記接触領域の形状が所定の条件を満たすか否かを判断するステップと、
前記タッチパネルを介して前記所定の条件を満たさない第1の接触領域に対応する位置に画像を表示するステップと、
前記所定の条件を満たす第2の接触領域内の前記画像を消去するステップとを実行させる、表示プログラム。
A display program for displaying an image on a display device including a touch panel and an arithmetic processing unit,
In the arithmetic processing unit,
Obtaining a contact area via the touch panel;
Determining whether the shape of the contact area satisfies a predetermined condition;
Displaying an image at a position corresponding to the first contact area that does not satisfy the predetermined condition via the touch panel;
And a step of erasing the image in the second contact area that satisfies the predetermined condition.
JP2009068252A 2009-03-19 2009-03-19 Display device, display method, and display program Expired - Fee Related JP5322163B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009068252A JP5322163B2 (en) 2009-03-19 2009-03-19 Display device, display method, and display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009068252A JP5322163B2 (en) 2009-03-19 2009-03-19 Display device, display method, and display program

Publications (2)

Publication Number Publication Date
JP2010224635A true JP2010224635A (en) 2010-10-07
JP5322163B2 JP5322163B2 (en) 2013-10-23

Family

ID=43041790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009068252A Expired - Fee Related JP5322163B2 (en) 2009-03-19 2009-03-19 Display device, display method, and display program

Country Status (1)

Country Link
JP (1) JP5322163B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013084947A1 (en) * 2011-12-07 2013-06-13 シャープ株式会社 Method for operating optical sensor circuit, and method for operating display apparatus provided with optical sensor circuit
WO2013161915A1 (en) * 2012-04-24 2013-10-31 Ricoh Company, Ltd. Image control apparatus, image processing system, and computer program product
WO2014049671A1 (en) * 2012-09-26 2014-04-03 パナソニック株式会社 Display device and pen input erasing method
CN103914161A (en) * 2013-01-09 2014-07-09 夏普株式会社 Input display device and control device of input display device
JP2014206933A (en) * 2013-04-15 2014-10-30 シャープ株式会社 Touch panel controller
EP2500801A3 (en) * 2011-03-14 2015-05-06 Ricoh Company, Ltd. Display device with touch panel, event switching control method, and computer program
JP2015225452A (en) * 2014-05-27 2015-12-14 シャープ株式会社 Input display device and input display method
JP2018092676A (en) * 2018-03-14 2018-06-14 シャープ株式会社 Input display device and input display method
US10198177B2 (en) 2016-07-14 2019-02-05 Ricoh Company, Ltd. Image processing apparatus, image processing method, and recording medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200133A (en) * 1993-12-28 1995-08-04 Casio Comput Co Ltd Pen input device
JPH07261932A (en) * 1994-03-18 1995-10-13 Hitachi Ltd Sensor built-in type liquid crystal display device and information processing system using the display device
JPH1125211A (en) * 1997-07-04 1999-01-29 Sharp Corp Handwritten character input system and its recording medium
JPH11272422A (en) * 1998-03-19 1999-10-08 Ricoh Co Ltd Computer input device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200133A (en) * 1993-12-28 1995-08-04 Casio Comput Co Ltd Pen input device
JPH07261932A (en) * 1994-03-18 1995-10-13 Hitachi Ltd Sensor built-in type liquid crystal display device and information processing system using the display device
JPH1125211A (en) * 1997-07-04 1999-01-29 Sharp Corp Handwritten character input system and its recording medium
JPH11272422A (en) * 1998-03-19 1999-10-08 Ricoh Co Ltd Computer input device

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9329706B2 (en) 2011-03-14 2016-05-03 Ricoh Company, Ltd. Display device with touch panel, event switching control method, and computer-readable storage medium
EP2500801A3 (en) * 2011-03-14 2015-05-06 Ricoh Company, Ltd. Display device with touch panel, event switching control method, and computer program
WO2013084947A1 (en) * 2011-12-07 2013-06-13 シャープ株式会社 Method for operating optical sensor circuit, and method for operating display apparatus provided with optical sensor circuit
CN103959363A (en) * 2011-12-07 2014-07-30 夏普株式会社 Method for operating optical sensor circuit, and method for operating display apparatus provided with optical sensor circuit
WO2013161915A1 (en) * 2012-04-24 2013-10-31 Ricoh Company, Ltd. Image control apparatus, image processing system, and computer program product
JP2013228797A (en) * 2012-04-24 2013-11-07 Ricoh Co Ltd Image control device, and image processing system and program
AU2013253424B2 (en) * 2012-04-24 2015-12-17 Ricoh Company, Ltd. Image control apparatus, image processing system, and computer program product
CN104246670A (en) * 2012-04-24 2014-12-24 株式会社理光 Image control apparatus, image processing system, and computer program product
CN104685452A (en) * 2012-09-26 2015-06-03 松下知识产权经营株式会社 Display device and pen input erasing method
WO2014049671A1 (en) * 2012-09-26 2014-04-03 パナソニック株式会社 Display device and pen input erasing method
CN103914161A (en) * 2013-01-09 2014-07-09 夏普株式会社 Input display device and control device of input display device
US9141205B2 (en) 2013-01-09 2015-09-22 Sharp Kabushiki Kaisha Input display device, control device of input display device, and recording medium
JP2014134938A (en) * 2013-01-09 2014-07-24 Sharp Corp Input display device
CN103914161B (en) * 2013-01-09 2017-03-01 夏普株式会社 Input and display device and the control device of input and display device
JP2014206933A (en) * 2013-04-15 2014-10-30 シャープ株式会社 Touch panel controller
JP2015225452A (en) * 2014-05-27 2015-12-14 シャープ株式会社 Input display device and input display method
US10198177B2 (en) 2016-07-14 2019-02-05 Ricoh Company, Ltd. Image processing apparatus, image processing method, and recording medium
JP2018092676A (en) * 2018-03-14 2018-06-14 シャープ株式会社 Input display device and input display method

Also Published As

Publication number Publication date
JP5322163B2 (en) 2013-10-23

Similar Documents

Publication Publication Date Title
JP5278948B2 (en) Object display device, object display method, and object display program
JP5322163B2 (en) Display device, display method, and display program
JP5540344B2 (en) Electronic device, menu selection method, menu selection program
JP5240773B2 (en) Information processing apparatus, information processing method, and information processing program
JP2010134625A (en) Electronic apparatus, display control method and program
JP2011008424A (en) Electronic device, operation mode setting method, and program
JP5303785B2 (en) Display device, display method, and display program
JP5344555B2 (en) Object display device, object display method, and object display program
JP5526397B2 (en) Content display device, content display method, and content display program
JP2010140329A (en) Display device, display method, and display program
JP5526400B2 (en) Electronic device, information processing system, electronic device control method, and electronic device control program
JP5126895B2 (en) Electronic device and display control method
JP5110594B2 (en) Information processing apparatus, information processing method, and information processing program
JP5334171B2 (en) Electronic device and display control method
JP5617120B2 (en) Electronic device, display control method, and program
JP5380729B2 (en) Electronic device, display control method, and program
JP2010204729A (en) Text display device, method, and program
JP5289889B2 (en) Display device, display device control method, and program for controlling display device
WO2010103888A1 (en) Content display device, content display method, and computer-readable recording medium on which content display program is recorded
JP5257892B2 (en) Electronic device, screen switching method and screen switching program
JP2010108373A (en) Electronic apparatus, application program, information processing terminal, and its control program
JP5172641B2 (en) Electronic device, information processing method, and information processing program
JP5263597B2 (en) Image display device, image display method, and image display program
JP2011008425A (en) Electronic device, operation mode setting method, and program
JP2011118577A (en) Image display device, image display method, and image display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130710

R150 Certificate of patent or registration of utility model

Ref document number: 5322163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees