JP5380729B2 - Electronic device, display control method, and program - Google Patents

Electronic device, display control method, and program Download PDF

Info

Publication number
JP5380729B2
JP5380729B2 JP2009064577A JP2009064577A JP5380729B2 JP 5380729 B2 JP5380729 B2 JP 5380729B2 JP 2009064577 A JP2009064577 A JP 2009064577A JP 2009064577 A JP2009064577 A JP 2009064577A JP 5380729 B2 JP5380729 B2 JP 5380729B2
Authority
JP
Japan
Prior art keywords
shape
electronic device
matches
input
display surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009064577A
Other languages
Japanese (ja)
Other versions
JP2010218241A (en
Inventor
晃一 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009064577A priority Critical patent/JP5380729B2/en
Publication of JP2010218241A publication Critical patent/JP2010218241A/en
Application granted granted Critical
Publication of JP5380729B2 publication Critical patent/JP5380729B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Description

本発明は、タッチパネルを備えた電子機器、電子機器における表示制御方法、および表示制御方法を電子機器に実行させるためのプログラムに関する。   The present invention relates to an electronic device including a touch panel, a display control method in the electronic device, and a program for causing the electronic device to execute the display control method.

従来、タッチパネルを備えた電子機器が知られている。また、タッチパッドを備えた電子機器も知られている。   Conventionally, an electronic device including a touch panel is known. Also, electronic devices equipped with a touch pad are known.

タッチパネルを備えた電子機器として、たとえば特許文献1には、タッチパネルに接触した物体の幅の大小を検出し、検出した幅の大小に応じてタッチパネルから入力された操作に対する処理を切換える機器が開示されている。   As an electronic device including a touch panel, for example, Patent Document 1 discloses a device that detects the width of an object that touches the touch panel and switches processing for an operation input from the touch panel according to the detected width. ing.

タッチパッドを備えた電子機器として、たとえば特許文献2には、タッチパッドの所定のエリアがタッチされたと判断された場合、それ以降は、タッチパッド上での入力を認識のための座標入力にする装置が開示されている。具体的には、特許文献2には、タッチパッドにおける指先ではタッチ操作ができない右上角の所定のエリアがペンによりタッチ操作された場合、タッチ位置の座標データに相対的に対応させてカーソル移動を行う通常入力モードから、手書認識モードに切換える装置が開示されている。   As an electronic device provided with a touch pad, for example, in Patent Document 2, when it is determined that a predetermined area of the touch pad is touched, thereafter, the input on the touch pad is set as a coordinate input for recognition. An apparatus is disclosed. Specifically, in Patent Document 2, when a predetermined area in the upper right corner that cannot be touched with a fingertip on a touch pad is touch-operated with a pen, the cursor is moved relative to the coordinate data of the touch position. An apparatus for switching from a normal input mode to a handwriting recognition mode is disclosed.

特開2004−213312号公報JP 2004-213312 A 特開2000−137571号公報JP 2000-137571 A

しかしながら、特許文献1の装置では、検出した物体の幅の大小により処理を切換えるため、どのような種別の物体がタッチパネルに接触しても、必ず処理の切換えが行なわれてしまう。それゆえ、ユーザにとって意図しない処理の切換えが行なわれる可能性がある。一方、特許文献2の装置では、当該装置の動作モードを手書認識モードに切換えるために、ユーザは、手書を開始する位置とは異なる位置にペン先を一旦接触させる必要がある。   However, in the apparatus of Patent Document 1, since the process is switched depending on the detected width of the object, the process is always switched regardless of what type of object touches the touch panel. Therefore, there is a possibility that processing switching unintended for the user is performed. On the other hand, in the apparatus of Patent Document 2, in order to switch the operation mode of the apparatus to the handwriting recognition mode, the user needs to once contact the pen tip at a position different from the position where the handwriting is started.

本願発明は上記の問題点に鑑みなされたものであって、その目的は、ユーザによる電子機器の動作の切換え操作を簡単かつ確実に行なうことが可能な電子機器、当該電子機器における表示制御方法、当該表示制御方法を実行するためのプログラムを提供することにある。   The present invention has been made in view of the above-described problems, and the purpose thereof is an electronic device capable of easily and reliably switching operation of an electronic device by a user, a display control method in the electronic device, The object is to provide a program for executing the display control method.

本発明のある局面に従うと、電子機器は、タッチパネルを備えた電子機器であって、第1形状を示した第1形状データと、第2形状を示した第2形状データとを格納する記憶装置と、タッチパネルの表示面に少なくとも1つの物体が接触したことを検知する検知手段と、検知に基づき、接触領域の形状を接触領域毎に特定する特定手段と、第1形状データに基づいて、特定された各形状の中に第1形状と一致する形状が存在するか否かを判断するとともに、第2形状データに基づいて、特定された各形状の中に第2形状と一致する形状が存在するか否かを判断する第1判断手段と、第2形状と一致する形状が存在すると判断されたことに基づき、第1形状と一致する形状が存在する場合と存在しない場合とで異
なる動作を電子機器に実行させる実行手段とを備える。
According to an aspect of the present invention, an electronic device is an electronic device including a touch panel, and stores a first shape data indicating a first shape and a second shape data indicating a second shape. A detection unit that detects that at least one object has touched the display surface of the touch panel, a specification unit that specifies the shape of the contact region for each contact region based on the detection, and a specification based on the first shape data In addition to determining whether there is a shape that matches the first shape among the determined shapes, there is a shape that matches the second shape among the specified shapes based on the second shape data The first determining means for determining whether or not to perform and different operations depending on whether or not there is a shape that matches the first shape based on the determination that a shape that matches the second shape exists. Let the electronics And a performing unit.

好ましくは、電子機器は、第1形状と一致する形状と前記第2形状と一致する形状とが存在すると判断されたことに基づき、第2形状と一致する形状を有する接触領域の位置に応じて、表示面に表示されたオブジェクトを指定する入力を受付けたか否かを判断する第2判断手段をさらに備える。実行手段は、オブジェクトを指定する入力を受付けたと判断されたときと当該入力を受付けていないと判断されたときとで異なる動作を電子機器に実行させる。   Preferably, the electronic device determines whether there is a shape that matches the first shape and a shape that matches the second shape, according to the position of the contact area having the shape that matches the second shape. The apparatus further comprises second determination means for determining whether or not an input for designating an object displayed on the display surface has been received. The execution means causes the electronic device to execute different operations when it is determined that an input designating an object is received and when it is determined that the input is not received.

好ましくは、第2形状と一致する形状を有する接触領域は、第1の物体が前記表示面に接触することによって形成される。電子機器は、第1形状と一致する形状が存在しないことに基づき、第1の物体の接触位置に応じて、表示面に表示されたオブジェクトを指定する入力を受付けたか否かを判断する第3判断手段をさらに備える。オブジェクトを指定する入力を受付けたと判断された場合、実行手段は、オブジェクトの指定に基づく動作を前記電子機器に実行させる。   Preferably, the contact region having a shape that matches the second shape is formed when the first object contacts the display surface. The electronic device determines whether or not an input for designating an object displayed on the display surface is received in accordance with the contact position of the first object based on the fact that there is no shape that matches the first shape. A judging means is further provided. If it is determined that an input for designating an object has been received, the execution means causes the electronic device to perform an operation based on the designation of the object.

好ましくは、オブジェクトはファイルを示すアイコンである。また、オブジェクトの指定に基づく動作は、ファイルを選択された状態とする動作である。   Preferably, the object is an icon indicating a file. The operation based on the designation of the object is an operation for setting the file in a selected state.

好ましくは、第2形状と一致する形状を有する接触領域は、第1の物体が前記表示面に接触することによって形成される。オブジェクトを指定する入力を受付けていないと判断されたとき、実行手段は、表示面上における第1の物体の移動に基づく手書き入力の受付けと、当該受付けた手書き入力に基づく画像の表示とを、電子機器に実行させる。   Preferably, the contact region having a shape that matches the second shape is formed when the first object contacts the display surface. When it is determined that the input specifying the object is not received, the execution unit receives the handwriting input based on the movement of the first object on the display surface and displays the image based on the received handwriting input. Let the electronics run.

好ましくは、第2形状と一致する形状を有する接触領域は、第1の物体が前記表示面に接触することによって形成される。オブジェクトを指定する入力を受付けたと判断された場合、実行手段は、表示面上における第1の物体の移動に基づく手書き入力の受付けと、受付けた手書き入力に基づく画像の表示と、表示された画像に基づく情報についての前記指定されたオブジェクトへの関連付けとを、電子機器に実行させる。   Preferably, the contact region having a shape that matches the second shape is formed when the first object contacts the display surface. If it is determined that the input specifying the object is received, the execution means receives the handwritten input based on the movement of the first object on the display surface, displays the image based on the received handwritten input, and displays the displayed image. The electronic device is caused to execute association of the information based on the specified object with the designated object.

好ましくは、電子機器は、受付けた手書入力を文字認識する認識手段をさらに備える。オブジェクトがファイルを示すアイコンである場合に、当該ファイルを開く指示を電子機器が受付けると、実行手段は、ファイルを開く処理と、開いたファイルの入力領域に対する認識された文字の入力処理とを、電子機器に実行させる。   Preferably, the electronic device further includes recognition means for recognizing the accepted handwritten input. When the electronic device receives an instruction to open the file when the object is an icon indicating the file, the execution unit performs a process of opening the file and an input process of the recognized character for the input area of the opened file. Let the electronics run.

好ましくは、電子機器は、受付けた手書入力を文字認識する認識手段をさらに備える。オブジェクトがファイルを示すアイコンまたはフォルダを示すアイコンである場合に、当該オブジェクトの名称を変更する指示を電子機器が受付けると、実行手段は、オブジェクトの名称を前記認識された文字を用いて変更する処理を電子機器に実行させる。   Preferably, the electronic device further includes recognition means for recognizing the accepted handwritten input. When the electronic device accepts an instruction to change the name of the object when the object is an icon indicating a file or an icon indicating a folder, the execution unit changes the name of the object using the recognized character Is executed by an electronic device.

好ましくは、第1の物体の接触位置が前記オブジェクトが表示された位置であるとき、第2判断手段は、当該オブジェクトを指定する入力を受付けたと判断する。   Preferably, when the contact position of the first object is a position where the object is displayed, the second determination unit determines that an input for designating the object has been received.

好ましくは、第1形状と一致する形状を有する接触領域は、第2の物体が表示面に接触することによって形成される。第1の物体はスタイラスペンまたは指であり、第2の物体は手の掌である。   Preferably, the contact region having a shape that matches the first shape is formed when the second object contacts the display surface. The first object is a stylus pen or a finger, and the second object is a palm of the hand.

好ましくは、タッチパネルは、表示面に沿って内蔵された複数の光センサを含む。
本発明の他の局面に従うと、表示制御方法は、タッチパネルを備えた電子機器における表示制御方法であって、タッチパネルの表示面に少なくとも1つの物体が接触したことを
検知するステップと、接触が検知された場合、接触領域の形状を接触領域毎に特定するステップと、第1形状を示す第1形状データに基づいて、特定した各形状の中に前記第1形状と一致する形状が存在するか否かを判断するステップと、第2形状を示す第2形状データに基づいて、特定した各形状の中に第2形状と一致する形状が存在するか否かを判断するステップと、第2形状と一致する形状が存在すると判断されたことに基づき、第1形状と一致する形状が存在する場合と存在しない場合とで異なる動作を電子機器に実行させるステップとを備える。
Preferably, the touch panel includes a plurality of optical sensors built in along the display surface.
According to another aspect of the present invention, the display control method is a display control method in an electronic device provided with a touch panel, the step of detecting that at least one object has touched the display surface of the touch panel, and the touch detection. If so, based on the step of specifying the shape of the contact area for each contact area and the first shape data indicating the first shape, is there a shape that matches the first shape among the specified shapes? A step of determining whether or not there is a shape that matches the second shape among the specified shapes based on the second shape data indicating the second shape, and a second shape And a step of causing the electronic device to perform different operations depending on whether or not there is a shape that matches the first shape.

本発明のさらに他の局面に従うと、プログラムは、タッチパネルを含んだ電子機器を制御するプログラムであって、プログラムは、電子機器に、タッチパネルの表示面に少なくとも1つの物体が接触したことを検知するステップと、接触が検知された場合、接触領域の形状を接触領域毎に特定するステップと、第1形状を示す第1形状データに基づいて、特定した各形状の中に前記第1形状と一致する形状が存在するか否かを判断するステップと、第2形状を示す第2形状データに基づいて、特定した各形状の中に第2形状と一致する形状が存在するか否かを判断するステップと、第2形状と一致する形状が存在すると判断されたことに基づき、第1形状と一致する形状が存在する場合と存在しない場合とで異なる動作を実行させるステップとを実行させる。   According to still another aspect of the present invention, the program is a program for controlling an electronic device including a touch panel, and the program detects that at least one object has come into contact with the display surface of the touch panel. Step, if contact is detected, identifying the shape of the contact area for each contact area, and matching the first shape in each identified shape based on the first shape data indicating the first shape Determining whether there is a shape to match, and whether there is a shape that matches the second shape among the specified shapes, based on the second shape data indicating the second shape. And a step of executing different operations depending on whether or not there is a shape that matches the first shape based on the determination that a shape that matches the second shape exists. To the execution.

ユーザによる電子機器の動作の切換え操作を簡単かつ確実に行なうことが可能となるといった効果を奏する。   There is an effect that the user can easily and surely perform the operation switching operation of the electronic device.

電子機器の外観を示した図である。It is the figure which showed the external appearance of the electronic device. 電子機器のハードウェア構成を表わすブロック図である。It is a block diagram showing the hardware constitutions of an electronic device. 電子機器の液晶パネルの構成と、当該液晶パネルの周辺回路とを示した図である。It is the figure which showed the structure of the liquid crystal panel of an electronic device, and the peripheral circuit of the said liquid crystal panel. 液晶パネルとバックライトとの断面図である。It is sectional drawing of a liquid crystal panel and a backlight. 光センサ回路を動作させる際のタイミングチャートを示した図である。It is the figure which showed the timing chart at the time of operating an optical sensor circuit. 液晶パネルとバックライトとの断面図であって、スキャンの際にフォトダイオードがバックライトからの光を受光する構成を示した図である。It is sectional drawing of a liquid crystal panel and a backlight, Comprising: It is the figure which showed the structure which a photodiode receives the light from a backlight in the case of a scan. センシングコマンドの概略構成を示した図である。It is the figure which showed schematic structure of the sensing command. センシングコマンドの各領域におけるデータの値と、当該値が示す意味内容とを示した図である。It is the figure which showed the value of the data in each area | region of a sensing command, and the meaning content which the said value shows. 応答データの概略構成を示した図である。It is the figure which showed schematic structure of the response data. 指をスキャンすることにより得られた画像を示した図である。It is the figure which showed the image obtained by scanning a finger | toe. 他の光センサ内蔵液晶パネルの回路図である。It is a circuit diagram of another liquid crystal panel with a built-in photosensor. スキャンの際にフォトダイオードが外光を受光する構成を示した断面図である。It is sectional drawing which showed the structure which a photodiode receives external light in the case of a scan. 他の電子機器のハードウェア構成を表すブロック図である。It is a block diagram showing the hardware constitutions of another electronic device. 電子機器の機能ブロックを示した図である。It is the figure which showed the functional block of an electronic device. スタイラスペンのペン先をスキャンした場合におけるスキャン画像を示した図である。It is the figure which showed the scan image at the time of scanning the nib of a stylus pen. スタイラスペンのペン先と手の掌とをスキャンした場合におけるスキャン画像を示した図である。It is the figure which showed the scan image at the time of scanning the nib of a stylus pen, and the palm of a hand. 電子機器における処理フローを示したフローチャートである。It is the flowchart which showed the processing flow in an electronic device. 液晶パネルの表示面における表示内容の一例を示した図である。It is the figure which showed an example of the display content on the display surface of a liquid crystal panel. ユーザがスタイラスペンのペン先を液晶パネルの表示面に接触させた状態を示した図である。It is the figure which showed the state in which the user made the nib tip of the stylus pen contact the display surface of the liquid crystal panel. ユーザがスタイラスペンのペン先と手の掌とを液晶パネルの表示面に接触させる直前の状態を示した図である。It is the figure which showed the state just before a user makes the nib of a stylus pen, and the palm of a hand contact the display surface of a liquid crystal panel. 電子機器が動作モードを第2動作モードに設定した場合における表示面の表示内容を示した図である。It is the figure which showed the display content of the display surface when an electronic device sets operation mode to the 2nd operation mode. 図21の状態において、ユーザがスタイラスペンを用いて手書入力を行なった後の状態を示した図である。It is the figure which showed the state after a user performed handwriting input using the stylus pen in the state of FIG. 図22の状態において文字認識の処理を行った後の表示面の表示内容を示した図である。It is the figure which showed the display content of the display surface after performing the process of character recognition in the state of FIG. ユーザがスタイラスペンのペン先と手の掌とを液晶パネルの表示面に接触させる直前の状態を示した図である。It is the figure which showed the state just before a user makes the nib of a stylus pen, and the palm of a hand contact the display surface of a liquid crystal panel. 電子機器が動作モードを第3動作モードに設定した場合における表示面の表示内容を示した図である。It is the figure which showed the display content of the display surface when an electronic device sets operation mode to the 3rd operation mode. 図25に示される場合において、スタイラスペンにより1つの項目が選択される直前の状態を示した図である。FIG. 26 is a diagram showing a state immediately before one item is selected by the stylus pen in the case shown in FIG. 25. タイラスペンにより1つの項目が選択された後の状態を示した図である。It is the figure which showed the state after one item was selected with the tyrus pen. 図27に示される場合において、ユーザがスタイラスペンを用いて手書入力を行なった後の状態を示した図である。FIG. 28 is a diagram illustrating a state after the user performs handwriting input using the stylus pen in the case illustrated in FIG. 27. 図28に示される場合において文字認識の処理を行った後の表示面の表示内容を示した図である。It is the figure which showed the display content of the display surface after performing the process of character recognition in the case shown by FIG. 図29に示される場合において、認識された文字を画像のカーソル表示位置に入力する指示を電子機器がユーザから受付けた後の状態を示した図である。FIG. 30 is a diagram illustrating a state after the electronic device receives an instruction to input a recognized character at the cursor display position of the image from the user in the case illustrated in FIG. 29. ユーザがスタイラスペンのペン先と手の掌とを液晶パネルの表示面に接触させる直前の状態を示した図である。It is the figure which showed the state just before a user makes the nib of a stylus pen, and the palm of a hand contact the display surface of a liquid crystal panel. 電子機器が動作モードを第3動作モードに設定した場合における表示面の表示内容を示した図である。It is the figure which showed the display content of the display surface when an electronic device sets operation mode to the 3rd operation mode. 図32に示される場合において、スタイラスペンにより他の項目が選択される直前の状態を示した図である。FIG. 33 is a diagram showing a state immediately before another item is selected by the stylus pen in the case shown in FIG. 32. スタイラスペンにより他の項目が選択された後の状態を示した図である。It is the figure which showed the state after another item was selected with the stylus pen. 図34に示される場合において、ユーザがスタイラスペンを用いて手書入力を行なった後の状態を示した図である。In the case shown in FIG. 34, it is the figure which showed the state after a user performed handwritten input using a stylus pen. 図35に示される場合において文字認識の処理を行った後の表示面の表示内容を示した図である。It is the figure which showed the display content of the display surface after performing the process of character recognition in the case shown by FIG. 図36に示される場合において、フォルダの名称を認識された文字に変更する入力する指示を電子機器がユーザから受付けた後の状態を示した図である。FIG. 37 is a diagram showing a state after the electronic device has received an input instruction for changing the folder name to a recognized character from the user in the case shown in FIG. 36. スタイラスペンのペン先と右手の掌とを表示面に接触させた後、左手の指先でアイコンを指定する直前の状態を示した図である。It is the figure which showed the state just before designating an icon with the fingertip of a left hand, after making the nib of a stylus pen, and the palm of a right hand contact a display surface.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

本発明に係る電子機器の一実施態様について、図1から図38を参照して説明すると以下のとおりである。   An embodiment of the electronic apparatus according to the present invention will be described below with reference to FIGS.

<電子機器の外観>
図1は、本実施の形態に係る電子機器100の外観を示した図である。図1を参照して、電子機器100は、第1の筐体100Aと第2の筐体100Bとを含む。
<Appearance of electronic equipment>
FIG. 1 is a diagram illustrating an appearance of electronic device 100 according to the present embodiment. Referring to FIG. 1, electronic device 100 includes a first housing 100A and a second housing 100B.

第1の筐体100Aと第2の筐体100Bとは、ヒンジ100Cにより折畳み可能に接続されている。第1の筐体100Aは、光センサ内蔵液晶パネル140を備える。第2の
筐体100Bは、光センサ内蔵液晶パネル240を備える。このように、電子機器100は、光センサ内蔵液晶パネルを2つ備える。
The first casing 100A and the second casing 100B are foldably connected by a hinge 100C. The first housing 100A includes a liquid crystal panel 140 with a built-in optical sensor. The second housing 100B includes an optical sensor built-in liquid crystal panel 240. As described above, the electronic device 100 includes two optical sensor built-in liquid crystal panels.

なお、電子機器100は、PDA(Personal Digital Assistant)、ノート型のパーソナルコンピュータ、携帯型電話機、電子辞書などの表示機能を有する携帯型デバイスとして構成される。   The electronic device 100 is configured as a portable device having a display function such as a PDA (Personal Digital Assistant), a notebook personal computer, a portable telephone, and an electronic dictionary.

<ハードウェア構成について>
次に、図2を参照して、電子機器100の具体的構成の一態様について説明する。図2は、電子機器100のハードウェア構成を表わすブロック図である。電子機器100は、主たる構成要素として、本体装置101と、表示装置102と、表示装置103とを含む。
<About hardware configuration>
Next, an aspect of a specific configuration of the electronic device 100 will be described with reference to FIG. FIG. 2 is a block diagram illustrating a hardware configuration of electronic device 100. The electronic device 100 includes a main body device 101, a display device 102, and a display device 103 as main components.

第1の筐体100Aは、表示装置102を含む。第2の筐体100Bは、本体装置101と表示装置103とを含む。なお、電子機器100は、第2の筐体100Bの代わりに第1の筐体100Aに本体装置101を含んでもよい。   The first housing 100A includes a display device 102. The second housing 100B includes a main body device 101 and a display device 103. Note that the electronic device 100 may include the main body device 101 in the first housing 100A instead of the second housing 100B.

本体装置101は、CPU(Central Processing Unit)110と、RAM(Random Access Memory)171と、ROM(Read-Only Memory)172と、メモリカードリーダライタ173と、通信部174と、マイク175と、スピーカ176と、操作キー177とを含む。各構成要素は、相互にデータバスDB1によって接続されている。メモリカードリーダライタ173には、メモリカード1731が装着される。   The main unit 101 includes a CPU (Central Processing Unit) 110, a RAM (Random Access Memory) 171, a ROM (Read-Only Memory) 172, a memory card reader / writer 173, a communication unit 174, a microphone 175, and a speaker. 176 and operation keys 177 are included. Each component is connected to each other by a data bus DB1. A memory card 1731 is attached to the memory card reader / writer 173.

CPU110は、プログラムを実行する。操作キー177は、電子機器100の使用者による指示の入力を受ける。RAM171は、CPU110によるプログラムの実行により生成されたデータ、または操作キー177を介して入力されたデータを揮発的に格納する。ROM172は、データを不揮発的に格納する。また、ROM172は、EPROM(Erasable Programmable Read-Only Memory)やフラッシュメモリなどのデータの書込みおよび消去が可能なROMである。通信部174は、図示しない他の電子機器との間で無線通信を行う。なお、図2には図示していないが、電子機器100が、他の電子機器に有線により接続するためのインターフェイス(IF)を備える構成としてもよい。   CPU 110 executes a program. The operation key 177 receives an instruction input from the user of the electronic device 100. The RAM 171 stores data generated by the execution of the program by the CPU 110 or data input via the operation keys 177 in a volatile manner. The ROM 172 stores data in a nonvolatile manner. The ROM 172 is a ROM capable of writing and erasing data such as an EPROM (Erasable Programmable Read-Only Memory) and a flash memory. The communication unit 174 performs wireless communication with other electronic devices (not shown). Although not illustrated in FIG. 2, the electronic device 100 may include an interface (IF) for connecting to another electronic device by wire.

表示装置102は、ドライバ130と、光センサ内蔵液晶パネル140(以下、液晶パネル140と称する)と、内部IF178と、バックライト179と、画像処理エンジン180とを含む。   The display device 102 includes a driver 130, an optical sensor built-in liquid crystal panel 140 (hereinafter referred to as a liquid crystal panel 140), an internal IF 178, a backlight 179, and an image processing engine 180.

ドライバ130は、液晶パネル140およびバックライト179を駆動するための駆動回路である。ドライバ130に含まれる各種の駆動回路については、後述する。   The driver 130 is a drive circuit for driving the liquid crystal panel 140 and the backlight 179. Various drive circuits included in the driver 130 will be described later.

液晶パネル140は、液晶ディスプレイの機能と光センサの機能とを備えたデバイスである。つまり、液晶パネル140は、液晶を用いた画像の表示と、光センサを用いたセンシングとを行うことができる。液晶パネル140の詳細については、後述する。   The liquid crystal panel 140 is a device having a liquid crystal display function and a photosensor function. That is, the liquid crystal panel 140 can perform image display using liquid crystal and sensing using an optical sensor. Details of the liquid crystal panel 140 will be described later.

内部IF(Interface)178は、本体装置101と表示装置102との間で、データの遣り取りを仲介する。   An internal IF (Interface) 178 mediates exchange of data between the main device 101 and the display device 102.

バックライト179は、液晶パネル140の裏面に配置された光源である。バックライト179は、当該裏面に対して均一な光を照射する。   The backlight 179 is a light source disposed on the back surface of the liquid crystal panel 140. The backlight 179 irradiates the back surface with uniform light.

画像処理エンジン180は、ドライバ130を介して液晶パネル140の動作を制御す
る。ここで、当該制御は、内部IF178を介して本体装置101から送られてくる各種データに基づいて行われる。なお、当該各種データは、後述するコマンドを含む。また、画像処理エンジン180は、液晶パネル140から出力されるデータを処理し、処理したデータを内部IF178を介して本体装置101に送る。さらに、画像処理エンジン180は、ドライバ制御部181と、タイマ182と、信号処理部183とを含む。
The image processing engine 180 controls the operation of the liquid crystal panel 140 via the driver 130. Here, the control is performed based on various data sent from the main apparatus 101 via the internal IF 178. Note that the various data includes commands to be described later. Further, the image processing engine 180 processes data output from the liquid crystal panel 140 and sends the processed data to the main apparatus 101 via the internal IF 178. Further, the image processing engine 180 includes a driver control unit 181, a timer 182, and a signal processing unit 183.

ドライバ制御部181は、ドライバ130に対して制御信号を送ることによりドライバ130の動作を制御する。また、ドライバ制御部181は、本体装置101から送られてくるコマンドを解析する。そして、ドライバ制御部181は、当該解析の結果に基づいた制御信号をドライバ130に送る。ドライバ130の動作の詳細については、後述する。   The driver control unit 181 controls the operation of the driver 130 by sending a control signal to the driver 130. In addition, the driver control unit 181 analyzes a command transmitted from the main device 101. Then, the driver control unit 181 sends a control signal based on the analysis result to the driver 130. Details of the operation of the driver 130 will be described later.

タイマ182は、時刻情報を生成し、信号処理部183に対して時刻情報を送る。
信号処理部183は、上記光センサから出力されるデータを受け取る。ここで、上記光センサから出力されるデータはアナログデータであるため、信号処理部183は、まず当該アナログデータをデジタルデータに変換する。さらに、信号処理部183は、当該デジタルデータに対して、本体装置101から送られてくるコマンドの内容に応じたデータ処理を行う。そして、信号処理部183は、上記データ処理を行った後のデータと、タイマ182から取得した時刻情報とを含んだデータ(以下、応答データと称する)を本体装置101に送る。また、信号処理部183は、後述するスキャンデータを連続して複数格納できるRAM(図示せず)を備えている。
The timer 182 generates time information and sends the time information to the signal processing unit 183.
The signal processing unit 183 receives data output from the optical sensor. Here, since the data output from the optical sensor is analog data, the signal processing unit 183 first converts the analog data into digital data. Further, the signal processing unit 183 performs data processing on the digital data in accordance with the content of the command sent from the main device 101. Then, the signal processing unit 183 sends data (hereinafter referred to as response data) including data after the above data processing and time information acquired from the timer 182 to the main unit 101. The signal processing unit 183 includes a RAM (not shown) that can store a plurality of scan data, which will be described later, continuously.

上記コマンドは、上記光センサによりセンシングを指示するセンシングコマンドを含む。当該センシングコマンドの詳細および上記応答データの詳細については、後述する(図7〜図9)。   The command includes a sensing command for instructing sensing by the optical sensor. Details of the sensing command and the response data will be described later (FIGS. 7 to 9).

なお、タイマ182は、必ずしも画像処理エンジン180に備えられている必要はない。たとえば、タイマ182は、表示装置102内における、画像処理エンジン180の外部に備えられていてもよい。あるいは、タイマ182は、本体装置101に備えられていてもよい。また、マイク175およびスピーカ176は、電子機器100が常に備える構成ではなく、電子機器100の実施例によっては、マイク175およびスピーカ176のいずれかあるいは両方を有さない構成であってもよい。   Note that the timer 182 is not necessarily provided in the image processing engine 180. For example, the timer 182 may be provided outside the image processing engine 180 in the display device 102. Alternatively, the timer 182 may be provided in the main body device 101. Further, the microphone 175 and the speaker 176 are not always provided in the electronic device 100, and may be configured so as not to include either or both of the microphone 175 and the speaker 176 depending on the embodiment of the electronic device 100.

ここで、表示装置102は、システム液晶を含んでいる。なお、システム液晶とは、液晶パネル140の周辺機器を当該液晶パネル140のガラス基板上に一体形成することにより得られるデバイスである。本実施の形態では、ドライバ130(バックライト179を駆動する回路を除く)と、内部IF178と、画像処理エンジン180とが、液晶パネル140のガラス基板上に一体形成されている。なお、表示装置102が、必ずしもシステム液晶を用いて構成されている必要はなく、ドライバ130(バックライト179を駆動する回路を除く)と、内部IF178と、画像処理エンジン180とが、上記ガラス基板以外の基板に構成されていてもよい。   Here, the display device 102 includes a system liquid crystal. The system liquid crystal is a device obtained by integrally forming peripheral devices of the liquid crystal panel 140 on the glass substrate of the liquid crystal panel 140. In the present embodiment, the driver 130 (excluding the circuit that drives the backlight 179), the internal IF 178, and the image processing engine 180 are integrally formed on the glass substrate of the liquid crystal panel 140. Note that the display device 102 is not necessarily configured using the system liquid crystal, and the driver 130 (excluding a circuit that drives the backlight 179), the internal IF 178, and the image processing engine 180 are included in the glass substrate. Other substrates may be configured.

表示装置103は、ドライバ230と、光センサ内蔵液晶パネル240(以下、「液晶パネル240」と称する)と、内部IF278と、バックライト279と、画像処理エンジン280とを含む。画像処理エンジン280は、ドライバ制御部281と、タイマ282と、信号処理部283とを含む。   The display device 103 includes a driver 230, an optical sensor built-in liquid crystal panel 240 (hereinafter referred to as “liquid crystal panel 240”), an internal IF 278, a backlight 279, and an image processing engine 280. The image processing engine 280 includes a driver control unit 281, a timer 282, and a signal processing unit 283.

表示装置103は、表示装置102と同様な構成を有する。つまり、ドライバ230、液晶パネル240、内部IF278、バックライト279、および画像処理エンジン280は、表示装置102における、ドライバ130、液晶パネル140、内部IF178、バックライト179、画像処理エンジン180と同じ構成をそれぞれ有する。ドライバ制
御部281、タイマ282、および信号処理部283は、表示装置102における、ドライバ制御部181、タイマ182、信号処理部183と同じ構成をそれぞれ有する。したがって、表示装置103に含まれる各機能ブロックについての説明は、繰り返さない。
The display device 103 has the same configuration as the display device 102. That is, the driver 230, the liquid crystal panel 240, the internal IF 278, the backlight 279, and the image processing engine 280 have the same configuration as the driver 130, the liquid crystal panel 140, the internal IF 178, the backlight 179, and the image processing engine 180 in the display device 102. Have each. The driver control unit 281, the timer 282, and the signal processing unit 283 have the same configurations as the driver control unit 181, the timer 182, and the signal processing unit 183 in the display device 102, respectively. Therefore, description of each functional block included in display device 103 will not be repeated.

ところで、電子機器100における処理は、各ハードウェアおよびCPU110により実行されるソフトウェアによって実現される。このようなソフトウェアは、ROM172に予め記憶されている場合がある。また、ソフトウェアは、メモリカード1731その他の記憶媒体に格納されて、プログラム製品として流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。このようなソフトウェアは、メモリカードリーダライタ173その他の読取装置によりその記憶媒体から読み取られて、あるいは、通信部174または通信IF(図示せず)を介してダウンロードされた後、ROM172に一旦格納される。そのソフトウェアは、CPU110によってROM172から読み出され、RAM171に実行可能なプログラムの形式で格納される。CPU110は、そのプログラムを実行する。   By the way, the processing in the electronic device 100 is realized by each hardware and software executed by the CPU 110. Such software may be stored in the ROM 172 in advance. The software may be stored in a memory card 1731 or other storage medium and distributed as a program product. Alternatively, the software may be provided as a program product that can be downloaded by an information provider connected to the so-called Internet. Such software is read from the storage medium by the memory card reader / writer 173 or other reading device, or downloaded via the communication unit 174 or communication IF (not shown), and then temporarily stored in the ROM 172. The The software is read from the ROM 172 by the CPU 110 and stored in the RAM 171 in the form of an executable program. CPU 110 executes the program.

図2に示される電子機器100の本体装置101を構成する各構成要素は、一般的なものである。したがって、本発明の本質的な部分は、RAM171、ROM172、メモリカード1731その他の記憶媒体に格納されたソフトウェア、あるいはネットワークを介してダウンロード可能なソフトウェアであるともいえる。なお、電子機器100の本体装置101のハードウェアの動作は周知であるので、詳細な説明は繰り返さない。   Each component constituting the main device 101 of the electronic device 100 shown in FIG. 2 is a general one. Therefore, it can be said that the essential part of the present invention is the software stored in the RAM 171, the ROM 172, the memory card 1731 and other storage media, or the software downloadable via the network. Since the hardware operation of main device 101 of electronic device 100 is well known, detailed description will not be repeated.

なお、記憶媒体としては、メモリカードに限られず、CD−ROM、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)、フラッシュROMなどの半導体メモリ等の固定的にプログラムを格納する媒体でもよい。   The storage medium is not limited to a memory card, but is a CD-ROM, FD (Flexible Disk), hard disk, magnetic tape, cassette tape, optical disk (MO (Magnetic Optical Disc) / MD (Mini Disc) / DVD (Digital Versatile). Disc)), IC (Integrated Circuit) cards (excluding memory cards), optical cards, mask ROM, EPROM, EEPROM (Electronically Erasable Programmable Read-Only Memory), flash ROM, and other semiconductor memories, etc. It may be a medium to be used.

ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。   The program here includes not only a program directly executable by the CPU but also a program in a source program format, a compressed program, an encrypted program, and the like.

<光センサ内蔵液晶パネルの構成および駆動について>
次に、液晶パネル140の構成と、当該液晶パネル140の周辺回路の構成とについて説明する。図3は、液晶パネル140の構成と、当該液晶パネル140の周辺回路とを示した図である。
<Configuration and drive of liquid crystal panel with built-in optical sensor>
Next, the configuration of the liquid crystal panel 140 and the configuration of peripheral circuits of the liquid crystal panel 140 will be described. FIG. 3 is a diagram showing a configuration of the liquid crystal panel 140 and peripheral circuits of the liquid crystal panel 140.

図3を参照して、液晶パネル140は、画素回路141と、光センサ回路144と、走査信号線Giと、データ信号線SRjと、データ信号線SGjと、データ信号線SBjと、センサ信号線SSjと、センサ信号線SDjと、読出信号線RWiと、リセット信号線RSiとを含む。なお、iは、1≦i≦mを満たす自然数であり、jは1≦j≦nを満たす自然数である。   Referring to FIG. 3, the liquid crystal panel 140 includes a pixel circuit 141, an optical sensor circuit 144, a scanning signal line Gi, a data signal line SRj, a data signal line SGj, a data signal line SBj, and a sensor signal line. SSj, sensor signal line SDj, read signal line RWi, and reset signal line RSi are included. Note that i is a natural number satisfying 1 ≦ i ≦ m, and j is a natural number satisfying 1 ≦ j ≦ n.

また、図2に示した表示装置102のドライバ130は、液晶パネル140の周辺回路として、走査信号線駆動回路131と、データ信号線駆動回路132と、光センサ駆動回路133と、スイッチ134と、アンプ135とを含む。   2 includes a scanning signal line driving circuit 131, a data signal line driving circuit 132, an optical sensor driving circuit 133, a switch 134, as peripheral circuits of the liquid crystal panel 140. And an amplifier 135.

走査信号線駆動回路131は、図2に示すドライバ制御部181から制御信号TC1を受ける。そして、走査信号線駆動回路131は、制御信号TC1に基づき、各走査信号線
(G1〜Gm)に対して、走査信号線G1から順に予め定められた電圧を印加する。より詳しくは、走査信号線駆動回路131は、単位時間毎に走査信号線(G1〜Gm)の中から1つの走査信号線を順次選択し、当該選択した走査信号線に対して後述するTFT(Thin Film Transistor)142のゲートをターンオンできるだけの電圧(以下、ハイレベル電圧)を印加する。なお、選択されていない走査信号線に対しては、ハイレベル電圧を印加することなく、ローレベル電圧を印加したままとする。
The scanning signal line drive circuit 131 receives the control signal TC1 from the driver control unit 181 shown in FIG. The scanning signal line drive circuit 131 applies a predetermined voltage in order from the scanning signal line G1 to each scanning signal line (G1 to Gm) based on the control signal TC1. More specifically, the scanning signal line driving circuit 131 sequentially selects one scanning signal line from the scanning signal lines (G1 to Gm) per unit time, and a TFT (to be described later) with respect to the selected scanning signal line. A voltage capable of turning on the gate of the thin film transistor 142 is applied (hereinafter referred to as a high level voltage). Note that a low level voltage is applied to a scanning signal line that is not selected without applying a high level voltage.

データ信号線駆動回路132は、図2に示すドライバ制御部181から画像データ(DR,DG,DB)を受ける。そして、データ信号線駆動回路132は、3n個のデータ信号線(SR1〜SRn,SG1〜SGn,SB1〜SBn)に対して、上記単位時間毎に、1行分の画像データに対応する電圧を順次印加する。   The data signal line driving circuit 132 receives image data (DR, DG, DB) from the driver control unit 181 shown in FIG. The data signal line driving circuit 132 applies a voltage corresponding to one row of image data to the 3n data signal lines (SR1 to SRn, SG1 to SGn, SB1 to SBn) for each unit time. Apply sequentially.

なお、ここでは、いわゆる線順次方式と呼ばれる駆動方式を用いて説明したが、駆動方式はこれに限定されるものではない。   Note that although a driving method called a so-called line-sequential method has been described here, the driving method is not limited to this.

画素回路141は、1つの画素の輝度(透過率)を設定するための回路である。また、画素回路141は、マトリクス状にm×n個配されている。より詳しくは、画素回路141は、図3の縦方向にm個、横方向にn個配されている。   The pixel circuit 141 is a circuit for setting the luminance (transmittance) of one pixel. Further, m × n pixel circuits 141 are arranged in a matrix. More specifically, m pixel circuits 141 are arranged in the vertical direction in FIG. 3 and n pixel circuits in the horizontal direction.

画素回路141は、Rサブピクセル回路141rと、Gサブピクセル回路141gと、Bサブピクセル回路141bとからなる。これら3つの回路(141r,141g,141b)は、それぞれ、TFT142と、画素電極と対向電極とからなる1組の電極対143と、図示しないコンデンサとを含む。   The pixel circuit 141 includes an R subpixel circuit 141r, a G subpixel circuit 141g, and a B subpixel circuit 141b. Each of these three circuits (141r, 141g, 141b) includes a TFT 142, a pair of electrode pairs 143 including a pixel electrode and a counter electrode, and a capacitor (not shown).

なお、n型のトランジスタとp型のトランジスタとを作れるCMOS(Complementary Metal Oxide Semiconductor)を実現できること、キャリア(電子または正孔)の移動速度がアモルファスシリコン薄膜トランジスタ(a-Si TFT)に比べて数百倍早いことなどから、表示装置102では、TFT142として多結晶シリコン薄膜トランジスタ(p-Si TFT)が用いられる。なお、TFT142は、n型チャネルの電界効果トランジスタであるとして説明する。ただし、TFT142がp型チャネルの電界効果トランジスタであってもよい。   In addition, CMOS (Complementary Metal Oxide Semiconductor) capable of forming n-type transistors and p-type transistors can be realized, and the movement speed of carriers (electrons or holes) is several hundreds compared to amorphous silicon thin film transistors (a-Si TFTs). For example, a polycrystalline silicon thin film transistor (p-Si TFT) is used as the TFT 142 in the display device 102 because it is twice as fast. Note that the TFT 142 will be described as an n-channel field effect transistor. However, the TFT 142 may be a p-type channel field effect transistor.

Rサブピクセル回路141r内のTFT142のソースはデータ信号線SRjに接続されている。また、当該TFT142のゲートは走査信号線Giに接続されている。さらに、当該TFT142のドレインは、電極対143の画素電極に接続される。そして、画素電極と対向電極との間には、液晶が配される。なお、Gサブピクセル回路141gおよびBサブピクセル回路141bについても、各TFT142のソースが接続されるデータ信号線が異なる以外は、Rサブピクセル回路141rと同じ構成である。このため、これら2つの回路(141g,141b)についての説明は、繰り返さない。   The source of the TFT 142 in the R subpixel circuit 141r is connected to the data signal line SRj. The gate of the TFT 142 is connected to the scanning signal line Gi. Further, the drain of the TFT 142 is connected to the pixel electrode of the electrode pair 143. A liquid crystal is disposed between the pixel electrode and the counter electrode. The G sub-pixel circuit 141g and the B sub-pixel circuit 141b have the same configuration as the R sub-pixel circuit 141r except that the data signal line to which the source of each TFT 142 is connected is different. Therefore, description of these two circuits (141g, 141b) will not be repeated.

ここで、画素回路141における輝度の設定について説明する。まず、走査信号線Giに上記ハイレベル電圧を印加する。当該ハイレベル電圧の印加により、TFT142のゲートがターンオンする。このようにTFT142のゲートがターンオンした状態で、各データ信号線(SRj,SGj,SBj)に対して、それぞれ指定された電圧(1画素分の画像データに対応する電圧)を印加する。これにより、当該指定された電圧に基づいた電圧が画素電極に印加される。その結果、画素電極と対向電極との間に電位差が生じる。この電位差に基づいて、液晶が応答し、画素の輝度は予め定められた輝度に設定される。なお、当該電位差は、上記図示しないコンデンサ(補助容量)によって、次のフレーム期間において走査信号線Giが選択されるまで保持される。   Here, setting of luminance in the pixel circuit 141 will be described. First, the high level voltage is applied to the scanning signal line Gi. By the application of the high level voltage, the gate of the TFT 142 is turned on. In this manner, with the gate of the TFT 142 turned on, a specified voltage (voltage corresponding to image data for one pixel) is applied to each data signal line (SRj, SGj, SBj). Thereby, a voltage based on the designated voltage is applied to the pixel electrode. As a result, a potential difference is generated between the pixel electrode and the counter electrode. Based on this potential difference, the liquid crystal responds and the luminance of the pixel is set to a predetermined luminance. Note that the potential difference is held by the capacitor (auxiliary capacitor) (not shown) until the scanning signal line Gi is selected in the next frame period.

光センサ駆動回路133は、図2に示すドライバ制御部181から制御信号TC2を受ける。   The optical sensor drive circuit 133 receives the control signal TC2 from the driver control unit 181 shown in FIG.

そして、光センサ駆動回路133は、制御信号TC2に基づき、単位時間毎にリセット信号線(RS1〜RSm)の中から1つの信号線を順次選択し、当該選択した信号線に対して、予め定められたタイミングで通常よりもハイレベルな電圧VDDRを印加する。なお、選択されていないリセット信号線に対しては、選択されたリセット信号線に印加した電圧よりも低い電圧VSSRを印加したままとする。たとえば、電圧VDDRを0Vに、電圧VSSRを−5Vに設定すればよい。   Then, the optical sensor drive circuit 133 sequentially selects one signal line from the reset signal lines (RS1 to RSm) for each unit time based on the control signal TC2, and determines in advance for the selected signal line. At a given timing, the voltage VDDR that is higher than usual is applied. Note that a voltage VSSR lower than the voltage applied to the selected reset signal line is kept applied to the unselected reset signal line. For example, the voltage VDDR may be set to 0V and the voltage VSSR may be set to −5V.

また、光センサ駆動回路133は、制御信号TC2に基づき、単位時間毎に読出信号線(RW1〜RWm)の中から1つの信号線を順次選択し、当該選択した信号線に対して、予め定められたタイミングで通常よりもハイレベルな電圧VDDを印加する。なお、選択されていない読出信号線に対しては、上記電圧VSSRを印加したままとする。たとえば、VDDの値を8Vに設定すればよい。   Further, the optical sensor driving circuit 133 sequentially selects one signal line from the readout signal lines (RW1 to RWm) for each unit time based on the control signal TC2, and determines in advance for the selected signal line. At a given timing, a voltage VDD higher than usual is applied. Note that the voltage VSSR is applied to the read signal line that is not selected. For example, the value of VDD may be set to 8V.

なお、電圧VDDRを印加するタイミング、および電圧VDDを印加するタイミングについては、後述する。   The timing for applying the voltage VDDR and the timing for applying the voltage VDD will be described later.

光センサ回路144は、フォトダイオード145と、コンデンサ146と、TFT147とを含む。なお、以下では、TFT147がn型チャネルの電界効果トランジスタであるとして説明する。ただし、TFT147がp型チャネルの電界効果トランジスタであってもよい。   The optical sensor circuit 144 includes a photodiode 145, a capacitor 146, and a TFT 147. In the following description, it is assumed that the TFT 147 is an n-type channel field effect transistor. However, the TFT 147 may be a p-type channel field effect transistor.

フォトダイオード145のアノードは、リセット信号線RSiに接続されている。一方、フォトダイオード145のカソードは、コンデンサ146の一方の電極に接続されている。また、コンデンサ146の他方の電極は、読出信号線RWiに接続されている。なお、以下では、フォトダイオード145とコンデンサ146との接続点をノードNと称する。   The anode of the photodiode 145 is connected to the reset signal line RSi. On the other hand, the cathode of the photodiode 145 is connected to one electrode of the capacitor 146. The other electrode of the capacitor 146 is connected to the read signal line RWi. Hereinafter, a connection point between the photodiode 145 and the capacitor 146 is referred to as a node N.

TFT147のゲートは、ノードNに接続されている。また、TFT147のドレインは、センサ信号線SDjに接続されている。さらに、TFT147のソースは、センサ信号線SSjに接続されている。光センサ回路144を用いたセンシングの詳細については、後述する。   The gate of the TFT 147 is connected to the node N. The drain of the TFT 147 is connected to the sensor signal line SDj. Further, the source of the TFT 147 is connected to the sensor signal line SSj. Details of sensing using the optical sensor circuit 144 will be described later.

スイッチ134は、センサ信号線(SD1〜SDn)に対して、予め定められた電圧を印加するか否かを切換えるために設けられたスイッチである。スイッチ134の切換え動作は、光センサ駆動回路133により行われる。なお、スイッチ134が導通状態となった場合にセンサ信号線(SD1〜SDn)に印加される電圧については、後述する。   The switch 134 is a switch provided to switch whether or not to apply a predetermined voltage to the sensor signal lines (SD1 to SDn). The switching operation of the switch 134 is performed by the optical sensor driving circuit 133. Note that the voltage applied to the sensor signal lines (SD1 to SDn) when the switch 134 is turned on will be described later.

アンプ135は、各センサ信号線(SS1〜SSn)から出力された電圧を増幅する。なお、増幅された電圧は、図2に示した信号処理部183に送られる。   The amplifier 135 amplifies the voltage output from each sensor signal line (SS1 to SSn). The amplified voltage is sent to the signal processing unit 183 shown in FIG.

なお、画素回路141を用いて画像を液晶パネル140に表示させるタイミングと、光センサ回路144を用いてセンシングするタイミングとについては、画像処理エンジン180が制御する。   The image processing engine 180 controls the timing for displaying an image on the liquid crystal panel 140 using the pixel circuit 141 and the timing for sensing using the optical sensor circuit 144.

図4は、液晶パネル140とバックライト179との断面図である。図4を参照して、液晶パネル140は、アクティブマトリクス基板151Aと、対向基板151Bと、液晶層152とを含む。対向基板151Bは、アクティブマトリクス基板151Aに対向して
配されている。液晶層152は、アクティブマトリクス基板151Aと対向基板151Bとに挟まれている。バックライト179は、アクティブマトリクス基板151Aに関し液晶層152と反対側に配されている。
FIG. 4 is a cross-sectional view of the liquid crystal panel 140 and the backlight 179. Referring to FIG. 4, liquid crystal panel 140 includes an active matrix substrate 151A, a counter substrate 151B, and a liquid crystal layer 152. The counter substrate 151B is disposed to face the active matrix substrate 151A. The liquid crystal layer 152 is sandwiched between the active matrix substrate 151A and the counter substrate 151B. The backlight 179 is disposed on the opposite side of the liquid crystal layer 152 with respect to the active matrix substrate 151A.

アクティブマトリクス基板151Aは、偏光フィルタ161と、ガラス基板162と、電極対143を構成する画素電極143aと、フォトダイオード145と、データ信号線157と、配向膜164とを含む。さらに、図4には示していないが、アクティブマトリクス基板151Aは、図3に示した、コンデンサ146と、TFT147と、TFT142と、走査信号線Giとを含む。   The active matrix substrate 151 </ b> A includes a polarizing filter 161, a glass substrate 162, a pixel electrode 143 a that constitutes the electrode pair 143, a photodiode 145, a data signal line 157, and an alignment film 164. Further, although not shown in FIG. 4, the active matrix substrate 151A includes the capacitor 146, the TFT 147, the TFT 142, and the scanning signal line Gi shown in FIG.

また、アクティブマトリクス基板151Aにおいては、バックライト179側から、偏光フィルタ161、ガラス基板162、画素電極143a、および配向膜164が、この順に配されている。フォトダイオード145とデータ信号線157とは、ガラス基板162の液晶層152側に形成されている。   In the active matrix substrate 151A, the polarizing filter 161, the glass substrate 162, the pixel electrode 143a, and the alignment film 164 are arranged in this order from the backlight 179 side. The photodiode 145 and the data signal line 157 are formed on the liquid crystal layer 152 side of the glass substrate 162.

対向基板151Bは、偏光フィルタ161と、ガラス基板162と、遮光膜163と、カラーフィルタ(153r,153g,153b)と、電極対143を構成する対向電極143bと、配向膜164とを含む。   The counter substrate 151B includes a polarizing filter 161, a glass substrate 162, a light shielding film 163, color filters (153r, 153g, 153b), a counter electrode 143b constituting the electrode pair 143, and an alignment film 164.

また、対向基板151Bにおいては、液晶層152側から、配向膜164、対向電極143b、カラーフィルタ(153r,153g,153b)、ガラス基板162、および偏光フィルタ161が、この順に配されている。遮光膜163は、カラーフィルタ(153r,153g,153b)と同一の層に形成されている。   In the counter substrate 151B, the alignment film 164, the counter electrode 143b, the color filters (153r, 153g, 153b), the glass substrate 162, and the polarizing filter 161 are arranged in this order from the liquid crystal layer 152 side. The light shielding film 163 is formed in the same layer as the color filters (153r, 153g, 153b).

カラーフィルタ153rは、赤色の波長の光を透過させるフィルタである。カラーフィルタ153gは、緑色の波長の光を透過させるフィルタである。カラーフィルタ153bは、青色の波長の光を透過させるフィルタである。ここで、フォトダイオード145は、カラーフィルタ153bに対向する位置に配されている。   The color filter 153r is a filter that transmits light having a red wavelength. The color filter 153g is a filter that transmits light having a green wavelength. The color filter 153b is a filter that transmits light having a blue wavelength. Here, the photodiode 145 is arranged at a position facing the color filter 153b.

液晶パネル140は、外光やバックライト179などの光源により発せられた光を遮ったり又は当該光を透過させたりすることによって、画像の表示をする。具体的には、液晶パネル140は、画素電極143aと対向電極143bとの間に電圧を印加することにより液晶層152の液晶分子の向きを変化させ、上記光を遮ったり、あるいは透過させる。ただし、液晶だけでは光を完全に遮ることができないため、特定の偏光方向の光のみを透過させる偏光フィルタ161を配置している。   The liquid crystal panel 140 displays an image by blocking external light or light emitted from a light source such as a backlight 179 or transmitting the light. Specifically, the liquid crystal panel 140 changes the direction of liquid crystal molecules in the liquid crystal layer 152 by applying a voltage between the pixel electrode 143a and the counter electrode 143b, thereby blocking or transmitting the light. However, since the light cannot be completely blocked by the liquid crystal alone, a polarizing filter 161 that transmits only light having a specific polarization direction is provided.

なお、フォトダイオード145の位置は、上記の位置に限定されるものではなく、カラーフィルタ153rに対向する位置やカラーフィルタ153gに対向する位置に設けることも可能である。   Note that the position of the photodiode 145 is not limited to the above position, and may be provided at a position facing the color filter 153r or a position facing the color filter 153g.

ここで、光センサ回路144の動作について説明する。図5は、光センサ回路144を動作させる際のタイミングチャートを示した図である。図5において、電圧VINTは、光センサ回路144内のノードNにおける電位を示している。また、電圧VPIXは、図3に示したセンサ信号線SSjからの出力電圧であって、アンプ135によって増幅される前の電圧を示している。   Here, the operation of the optical sensor circuit 144 will be described. FIG. 5 is a diagram showing a timing chart when the optical sensor circuit 144 is operated. In FIG. 5, a voltage VINT indicates a potential at the node N in the photosensor circuit 144. A voltage VPIX is an output voltage from the sensor signal line SSj shown in FIG. 3 and is a voltage before being amplified by the amplifier 135.

以下では、光センサ回路144をリセットするためのリセット期間と、光センサ回路144を用いて光をセンシングするためのセンシング期間と、センシングした結果を読み出す読出期間とに分けて説明する。   The following description will be divided into a reset period for resetting the optical sensor circuit 144, a sensing period for sensing light using the optical sensor circuit 144, and a readout period for reading the sensed result.

まず、リセット期間について説明する。リセット期間においては、リセット信号線RSiに印加する電圧を、ローレベル(電圧VSSR)からハイレベル(電圧VDDR)へと瞬間的に切換える。一方、読出信号線RWiに印加する電圧は、ローレベル(電圧VSSR)のままとする。このように、リセット信号線RSiに上記ハイレベルの電圧を印加することにより、フォトダイオード145の順方向(アノード側からカソード側)に電流が流れ始める。その結果、ノードNの電位である電圧VINTは、以下の式(1)で示す値となる。なお、式(1)では、フォトダイオード145における順方向の電圧降下量をVfとしている。   First, the reset period will be described. In the reset period, the voltage applied to the reset signal line RSi is instantaneously switched from the low level (voltage VSSR) to the high level (voltage VDDR). On the other hand, the voltage applied to the read signal line RWi is kept at the low level (voltage VSSR). As described above, by applying the high-level voltage to the reset signal line RSi, a current starts to flow in the forward direction (from the anode side to the cathode side) of the photodiode 145. As a result, the voltage VINT which is the potential of the node N has a value represented by the following expression (1). In Equation (1), the forward voltage drop amount in the photodiode 145 is Vf.

VINT=VSSR+|VDDR−VSSR|−Vf … (1)
それゆえ、ノードNの電位は、図5に示すとおり、電圧VDDRよりもVfだけ小さな値となる。
VINT = VSSR + | VDDR−VSSR | −Vf (1)
Therefore, the potential of the node N is a value smaller by Vf than the voltage VDDR as shown in FIG.

ここで、電圧VINTは、TFT147のゲートをターンオンさせる閾値以下であるため、センサ信号線SSjからの出力はない。このため、電圧VPIXは変化しない。また、コンデンサ146の電極間には、上記電圧VINT分の差が生じる。このため、コンデンサ146には、当該差に応じた電荷が蓄積される。   Here, since the voltage VINT is not more than the threshold value for turning on the gate of the TFT 147, there is no output from the sensor signal line SSj. For this reason, the voltage VPIX does not change. Further, a difference corresponding to the voltage VINT occurs between the electrodes of the capacitor 146. For this reason, the capacitor 146 accumulates charges corresponding to the difference.

次に、センシング期間について説明する。リセット期間に続くセンシング期間においては、リセット信号線RSiに印加する電圧は、ハイレベル(電圧VDDR)からローレベル(電圧VSSR)へと瞬間的に切り換わる。一方、読出信号線RWiに印加する電圧は、ローレベル(電圧VSSR)のままとする。   Next, the sensing period will be described. In the sensing period following the reset period, the voltage applied to the reset signal line RSi instantaneously switches from the high level (voltage VDDR) to the low level (voltage VSSR). On the other hand, the voltage applied to the read signal line RWi is kept at the low level (voltage VSSR).

このように、リセット信号線RSiに印加する電圧をローレベルに変化させることにより、ノードNの電位は、リセット信号線RSiの電圧および読出信号線RWiの電圧よりも高くなる。このため、フォトダイオード145においては、カソード側の電圧がアノード側の電圧よりも高くなる。つまり、フォトダイオード145は、逆バイアスの状態となる。このような逆バイアスの状態において、光源からの光をフォトダイオード145が受光すると、フォトダイオード145のカソード側からアノード側へと電流が流れ始める。その結果、図5に示すとおり、ノードNの電位(つまり、電圧VINT)は時間の経過とともに低くなる。   Thus, by changing the voltage applied to the reset signal line RSi to the low level, the potential of the node N becomes higher than the voltage of the reset signal line RSi and the voltage of the read signal line RWi. For this reason, in the photodiode 145, the voltage on the cathode side becomes higher than the voltage on the anode side. That is, the photodiode 145 is in a reverse bias state. In such a reverse bias state, when the photodiode 145 receives light from the light source, current starts to flow from the cathode side to the anode side of the photodiode 145. As a result, as shown in FIG. 5, the potential of the node N (that is, the voltage VINT) becomes lower with the passage of time.

なお、このように電圧VINTが低下し続けるため、TFT147のゲートはターンオンした状態にはならない。それゆえ、センサ信号線SSjからの出力はない。このため、電圧VPIXは変化しない。   Since the voltage VINT continues to decrease in this way, the gate of the TFT 147 does not turn on. Therefore, there is no output from the sensor signal line SSj. For this reason, the voltage VPIX does not change.

次に、読出期間について説明する。センシング期間に続く読出期間においては、リセット信号線RSiに印加する電圧をローレベル(電圧VSSR)のままとする。一方、読出信号線RWiに印加する電圧は、ローレベル(電圧VSSR)からハイレベル(電圧VDD)へと瞬間的に切り換わる。ここで、電圧VDDは、電圧VDDRよりも高い値である。   Next, the reading period will be described. In the readout period following the sensing period, the voltage applied to the reset signal line RSi is kept at the low level (voltage VSSR). On the other hand, the voltage applied to the read signal line RWi is instantaneously switched from the low level (voltage VSSR) to the high level (voltage VDD). Here, the voltage VDD is higher than the voltage VDDR.

このように、読出信号線RWiにハイレベルの電圧を瞬間的に印加することにより、図5に示すとおり、コンデンサ146を介してノードNの電位が引き上げられる。なお、ノードNの電位の上昇幅は、読出信号線RWiに印加する電圧に応じた値となる。ここで、ノードNの電位(つまり、電圧VINT)が、TFT147のゲートをターンオンさせる閾値以上まで引き上げられるため、TFT147のゲートがターンオンする。   Thus, by applying a high level voltage instantaneously to the read signal line RWi, the potential of the node N is raised through the capacitor 146 as shown in FIG. Note that the increase width of the potential of the node N is a value corresponding to the voltage applied to the read signal line RWi. Here, since the potential of the node N (that is, the voltage VINT) is raised to a threshold value that turns on the gate of the TFT 147, the gate of the TFT 147 is turned on.

この際、TFT147のドレイン側に接続されたセンサ信号線SDj(図3参照)に予め一定電圧を印加しておけば、TFT147のソース側に接続されたセンサ信号線SSj
からは、図5のVPIXのグラフに示すとおり、ノードNの電位に応じた電圧が出力される。
At this time, if a constant voltage is applied in advance to the sensor signal line SDj (see FIG. 3) connected to the drain side of the TFT 147, the sensor signal line SSj connected to the source side of the TFT 147.
From FIG. 5, a voltage corresponding to the potential of the node N is output as shown in the VPIX graph of FIG.

ここで、フォトダイオード145が受光する光の量(以下、受光量と称する)が少ないと、図5のVINTのグラフに示す直線の傾きが緩やかになる。その結果、電圧VPIXは、受光量が多い場合に比べて高くなる。このように、光センサ回路144は、フォトダイオード145の受光量に応じて、センサ信号線SSjに出力する電圧の値を変化させる。   Here, when the amount of light received by the photodiode 145 (hereinafter referred to as the amount of received light) is small, the slope of the straight line shown in the VINT graph of FIG. 5 becomes gentle. As a result, the voltage VPIX is higher than when the amount of received light is large. As described above, the optical sensor circuit 144 changes the value of the voltage output to the sensor signal line SSj in accordance with the amount of light received by the photodiode 145.

ところで、上記においては、m×n個存在する光センサ回路のうち、1つの光センサ回路144に着目して、その動作を説明した。以下では、液晶パネル140における各光センサ回路の動作について説明する。   By the way, in the above, the operation | movement was demonstrated paying attention to one optical sensor circuit 144 among the m * n optical sensor circuits which exist. Below, operation | movement of each photosensor circuit in the liquid crystal panel 140 is demonstrated.

まず、光センサ駆動回路133は、n個のセンサ信号線(SD1〜SDn)の全てに対して、予め定められた電圧を印加する。次に、光センサ駆動回路133は、リセット信号線RS1に対して、通常よりもハイレベルな電圧VDDRを印加する。なお、他のリセット信号線(RS2〜RSm)および読出信号線(RW1〜RWm)については、ローレベルの電圧を印加したままの状態とする。これにより、図3における1行目のn個の光センサ回路が、上述したリセット期間に入る。その後、1行目のn個の光センサ回路は、センシング期間に入る。さらに、その後、1行目のn個の光センサ回路は、読出期間に入る。   First, the optical sensor drive circuit 133 applies a predetermined voltage to all n sensor signal lines (SD1 to SDn). Next, the photosensor drive circuit 133 applies a voltage VDDR that is higher than normal to the reset signal line RS1. The other reset signal lines (RS2 to RSm) and read signal lines (RW1 to RWm) are kept in a state where a low level voltage is applied. As a result, the n photosensor circuits in the first row in FIG. 3 enter the reset period described above. Thereafter, the n photosensor circuits in the first row enter a sensing period. Further, thereafter, the n photosensor circuits in the first row enter a reading period.

なお、n個のセンサ信号線(SD1〜SDn)の全てに対して予め定められた電圧を印加するタイミングは、上記のタイミングに限定されず、少なくとも読出期間前に印加されるタイミングであればよい。   Note that the timing at which a predetermined voltage is applied to all n sensor signal lines (SD1 to SDn) is not limited to the above timing, and may be any timing that is applied at least before the readout period. .

1行目のn個の光センサ回路の読出期間が終了すると、光センサ駆動回路133は、リセット信号線RS2に対して、通常よりもハイレベルな電圧VDDRを印加する。つまり、2行目のn個の光センサ回路のリセット期間に入る。リセット期間が終了すると、2行目のn個の光センサ回路は、センシング期間に入り、その後は、読出期間に入る。   When the readout period of the n photosensor circuits in the first row is completed, the photosensor drive circuit 133 applies a voltage VDDR that is higher than usual to the reset signal line RS2. That is, the reset period of the n photosensor circuits in the second row starts. When the reset period ends, the n photosensor circuits in the second row enter a sensing period, and thereafter enter a reading period.

以降は、上述した処理が、順に、3行目のn個の光センサ回路、4行目のn個の光センサ回路、…m行目のn個の光センサ回路に対して行われる。その結果、センサ信号線(SS1〜SSn)からは、1行目のセンシング結果、2行目のセンシング結果、…、m行目のセンシング結果が、この順に出力される。   Thereafter, the processing described above is sequentially performed on the n photosensor circuits in the third row, the n photosensor circuits in the fourth row,..., The n photosensor circuits in the m row. As a result, the sensing result of the first row, the sensing result of the second row,..., The sensing result of the m-th row are output in this order from the sensor signal lines (SS1 to SSn).

なお、表示装置102においては、上記のように行毎にセンシングが行われるとともに、行毎にセンシング結果が液晶パネル140から出力される。このため、以下では、液晶パネル140から出力される1行目からm行目までのm行分の電圧に関するデータに対して、信号処理部183が上述したデータ処理を行った後のデータを、「スキャンデータ」と称する。つまり、スキャンデータとは、スキャン対象物(たとえば、ユーザの指)をスキャンすることにより得られる画像データを指す。また、当該スキャンデータに基づいて表示された画像を、「スキャン画像」と称する。さらに、以下では、センシングを「スキャン」と称する。   In the display device 102, sensing is performed for each row as described above, and a sensing result is output from the liquid crystal panel 140 for each row. For this reason, hereinafter, the data after the signal processing unit 183 performs the above-described data processing on the data regarding the voltage for m rows from the first row to the m-th row output from the liquid crystal panel 140, This is called “scan data”. That is, scan data refers to image data obtained by scanning a scan target (for example, a user's finger). An image displayed based on the scan data is referred to as a “scanned image”. Further, in the following, sensing is referred to as “scan”.

また、上記においては、m×n個の光センサ回路全てを用いてスキャンを行う構成を例に挙げたが、これに限定されるものではない。予め選択された光センサ回路を用いて、液晶パネル140の表面の一部の領域に関してスキャンを行うことも構成としてもよい。   Moreover, in the above, although the structure which scans using all the m * n photosensor circuits was mentioned as an example, it is not limited to this. Scanning may be performed on a partial region of the surface of the liquid crystal panel 140 using a photosensor circuit selected in advance.

以下では、電子機器100が、両構成のいずれの構成をも採れるものとする。さらに、当該構成間の切換えは、操作キー177を介した入力などに基づく本体装置101から送
られてくるコマンドにより行われるものとする。なお、液晶パネル140の表面の一部の領域に関してスキャンを行う場合、画像処理エンジン180が、スキャン対象領域の設定を行う。なお、当該領域の設定を、操作キー177を介してユーザが指定できる構成としてもよい。
In the following, it is assumed that the electronic device 100 can take either of the two configurations. Further, switching between the components is performed by a command sent from the main body apparatus 101 based on an input via the operation key 177 or the like. Note that when scanning is performed on a partial area on the surface of the liquid crystal panel 140, the image processing engine 180 sets a scan target area. The setting of the area may be configured to be specified by the user via the operation key 177.

このように、液晶パネル140の表面の一部の領域に関してスキャンを行う場合には、画像の表示に関し、以下のような利用の態様がある。1つ目は、上記一部の領域(以下、スキャン領域と称する)以外の表面の領域において、画像を表示させる態様である。2つ目は、上記スキャン領域以外の表面の領域において、画像を表示させない態様である。いずれの態様とするかは、本体装置101から画像処理エンジン180に送られてくるコマンドに基づく。   As described above, when scanning is performed on a partial region of the surface of the liquid crystal panel 140, there are the following modes of use for displaying an image. The first is a mode in which an image is displayed in a surface area other than the partial area (hereinafter referred to as a scan area). The second is a mode in which no image is displayed in the surface area other than the scan area. Which mode is used is based on a command sent from the main apparatus 101 to the image processing engine 180.

図6は、液晶パネル140とバックライト179との断面図であって、スキャンの際にフォトダイオード145がバックライト179からの光を受光する構成を示した図である。   FIG. 6 is a cross-sectional view of the liquid crystal panel 140 and the backlight 179, showing a configuration in which the photodiode 145 receives light from the backlight 179 during scanning.

図6を参照して、ユーザの指900が液晶パネル140の表面に接触している場合、バックライト179から発せられた光の一部は、当該接触している領域ではユーザの指900(略平面)にて反射される。そして、フォトダイオード145は、当該反射された光を受光する。   Referring to FIG. 6, when the user's finger 900 is in contact with the surface of the liquid crystal panel 140, a part of the light emitted from the backlight 179 is part of the user's finger 900 (abbreviated in the contacted area). Reflected on the plane). The photodiode 145 receives the reflected light.

また、指900が接触していない領域においても、バックライト179から発せられた光の一部は、ユーザの指900にて反射される。この場合においても、フォトダイオード145は、当該反射された光を受光する。ただし、当該領域においては液晶パネル140の表面に指900が接触していないため、指900が接触している領域よりも、フォトダイオード145の受光量は少なくなる。なお、バックライト179から発せられた光のうち、ユーザの指900に到達しない光のほとんどについては、フォトダイオード145は受光できない。   Even in a region where the finger 900 is not in contact, part of the light emitted from the backlight 179 is reflected by the user's finger 900. Even in this case, the photodiode 145 receives the reflected light. However, since the finger 900 is not in contact with the surface of the liquid crystal panel 140 in the region, the amount of light received by the photodiode 145 is smaller than the region in which the finger 900 is in contact. Note that the photodiode 145 cannot receive most of the light emitted from the backlight 179 that does not reach the user's finger 900.

ここで、バックライト179を、少なくともセンシング期間においては点灯させておくことにより、光センサ回路144は、ユーザの指900により反射した光の光量に応じた電圧をセンサ信号線SSjから出力することができる。このように、バックライト179の点灯と消灯とを制御することにより、液晶パネル140では、指900の接触位置、指900の接触している範囲(指900の押圧力によって定まる)、液晶パネル140の表面に対する指900の方向などに応じて、センサ信号線(SS1からSSn)から出力される電圧が変化することになる。   Here, by turning on the backlight 179 at least during the sensing period, the optical sensor circuit 144 can output a voltage corresponding to the amount of light reflected by the user's finger 900 from the sensor signal line SSj. it can. In this manner, by controlling the backlight 179 to be turned on and off, the liquid crystal panel 140 has a contact position of the finger 900, a range in which the finger 900 is in contact (determined by the pressing force of the finger 900), and the liquid crystal panel 140. The voltage output from the sensor signal lines (SS1 to SSn) varies depending on the direction of the finger 900 with respect to the surface of the sensor.

以上により、表示装置102は、指900によって光が反射されることにより得られる像(以下、反射像とも称する)をスキャンすることができる。   As described above, the display device 102 can scan an image (hereinafter, also referred to as a reflected image) obtained by reflecting light with the finger 900.

なお、指900以外のスキャン対象物としては、スタイラスなどが挙げられる。
ところで、本実施の形態においては、電子機器100の表示装置として液晶パネルを例に挙げて説明しているが、液晶パネルの代わりに有機EL(Electro-Luminescence)パネルなどの他のパネルを用いてもよい。
Note that examples of the scan object other than the finger 900 include a stylus.
By the way, in the present embodiment, a liquid crystal panel is described as an example of the display device of electronic device 100, but another panel such as an organic EL (Electro-Luminescence) panel is used instead of the liquid crystal panel. Also good.

<データについて>
次に、センシングコマンドについて説明する。なお、表示装置102においては、画像処理エンジン180は、センシングコマンドの内容を解析し、当該解析の結果に従ったデータ(つまり、応答データ)を本体装置101に送り返す。
<About data>
Next, the sensing command will be described. In the display device 102, the image processing engine 180 analyzes the content of the sensing command and sends back data (that is, response data) according to the analysis result to the main body device 101.

図7は、センシングコマンドの概略構成を示した図である。図7を参照して、センシングコマンドは、ヘッダのデータ領域DA01と、タイミングを示すデータ領域DA02と、データ種別を示すデータ領域DA03と、読取方式を示すデータ領域DA04と、画像階調を示すデータ領域DA05と、解像度を示すデータ領域DA06と、予備のデータ領域DA07とを含む。   FIG. 7 is a diagram showing a schematic configuration of a sensing command. Referring to FIG. 7, the sensing command includes a header data area DA01, a timing data area DA02, a data type data area DA03, a reading method data area DA04, and image gradation data. An area DA05, a data area DA06 indicating resolution, and a spare data area DA07 are included.

図8は、センシングコマンドの各領域におけるデータの値と、当該値が示す意味内容とを示した図である。   FIG. 8 is a diagram showing data values in each area of the sensing command and the meaning contents indicated by the values.

図8を参照して、タイミングを示すデータ領域に「00」が設定されたセンシングコマンドは、画像処理エンジン180に対して、そのときのスキャンデータの送信を要求する。つまり、センシングコマンドは、当該センシングコマンドを画像処理エンジン180が受信した後に、光センサ回路144を用いてスキャンすることにより得られるスキャンデータの送信を要求する。また、タイミングを示すデータ領域に「01」が設定されたセンシングコマンドは、スキャン結果に変化があったときのスキャンデータの送信を要求する。さらに、タイミングを示すデータ領域に「10」が設定されたセンシングコマンドは、一定周期毎にスキャンデータの送信を要求する。   Referring to FIG. 8, the sensing command in which “00” is set in the data area indicating the timing requests image processing engine 180 to transmit scan data at that time. That is, the sensing command requests transmission of scan data obtained by scanning using the optical sensor circuit 144 after the image processing engine 180 receives the sensing command. A sensing command in which “01” is set in the data area indicating the timing requests transmission of scan data when the scan result has changed. Furthermore, a sensing command in which “10” is set in the data area indicating the timing requests transmission of scan data at regular intervals.

データ種別を示すデータ領域に「001」が設定されたセンシングコマンドは、部分画像における中心座標の座標値の送信を要求する。また、データ種別を示すデータ領域に「010」が設定されたセンシングコマンドは、スキャン結果が変化した部分画像のみの送信を要求する。なお、スキャン結果が変化したとは、前回のスキャン結果と今回のスキャン結果が異なっていることを指す。さらに、データ種別を示すデータ領域に「100」が設定されたセンシングコマンドは、全体画像の送信を要求する。   A sensing command in which “001” is set in the data area indicating the data type requests transmission of the coordinate value of the center coordinate in the partial image. In addition, a sensing command in which “010” is set in the data area indicating the data type requests transmission of only a partial image whose scan result has changed. Note that the change in the scan result indicates that the previous scan result is different from the current scan result. Further, a sensing command in which “100” is set in the data area indicating the data type requests transmission of the entire image.

ここで、「全体画像」とは、m×n個の光センサ回路を用いてスキャンした際に、各光センサ回路から出力される電圧に基づいて、画像処理エンジン180により生成された画像である。また、「部分画像」とは、全体画像の一部である。部分画像に関して、スキャン結果が変化した部分画像のみの送信を要求する構成とした理由については後述する。   Here, the “entire image” is an image generated by the image processing engine 180 based on the voltage output from each photosensor circuit when scanning using m × n photosensor circuits. . The “partial image” is a part of the entire image. The reason why the partial image is requested to transmit only the partial image whose scan result has changed will be described later.

なお、上記座標値と上記部分画像または上記全体画像とを同時に要求する構成としてもよい。また、液晶パネル140の表面の一部の領域に関してスキャンを行う構成の場合には、上記全体画像はスキャンが行われる領域に対応した画像となる。   The coordinate value and the partial image or the entire image may be requested at the same time. Further, in the case of a configuration in which scanning is performed on a partial area on the surface of the liquid crystal panel 140, the entire image is an image corresponding to the area to be scanned.

読取方式を示すデータ領域に「00」が設定されたセンシングコマンドは、バックライト179を点灯してスキャンすることを要求する。また、読取方式を示すデータ領域に「01」が設定されたセンシングコマンドは、バックライト179を消灯してスキャンすることを要求する。なお、バックライト179を消灯してスキャンする構成については後述する(図12)。さらに、読取方式を示すデータ領域に「10」が設定されたセンシングコマンドは、反射と透過とを併用してスキャンすることを要求する。なお、反射と透過とを併用するとは、バックライト179を点灯してスキャンする方式と、バックライトを消灯してスキャンする方式とを切換えて、スキャン対象物のスキャンを行うことを指す。   A sensing command in which “00” is set in the data area indicating the reading method requests to scan with the backlight 179 on. A sensing command in which “01” is set in the data area indicating the reading method requests scanning with the backlight 179 off. A configuration for scanning with the backlight 179 off is described later (FIG. 12). Furthermore, a sensing command in which “10” is set in the data area indicating the reading method requests scanning using both reflection and transmission. Note that using both reflection and transmission refers to scanning a scanning object by switching between a method in which the backlight 179 is turned on for scanning and a method in which the backlight is turned off for scanning.

画像階調を示すデータ領域に「00」が設定されたセンシングコマンドは、白黒の2値の画像データを要求する。また、画像階調を示すデータ領域に「01」が設定されたセンシングコマンドは、多階調の画像データを要求する。さらに、画像階調を示すデータ領域に「10」が設定されたセンシングコマンドは、RGBのカラーの画像データを要求する。   A sensing command in which “00” is set in the data area indicating the image gradation requests monochrome image data of black and white. A sensing command in which “01” is set in the data area indicating the image gradation requests multi-gradation image data. Furthermore, a sensing command in which “10” is set in the data area indicating the image gradation requests RGB color image data.

解像度を示すデータ領域に「0」が設定されたセンシングコマンドは、解像度の高い画
像データを要求する。また、解像度を示すデータ領域に「1」が設定されたセンシングコマンドは、解像度の低い画像データを要求する。
A sensing command in which “0” is set in the data area indicating the resolution requests image data with a high resolution. A sensing command in which “1” is set in the data area indicating the resolution requests image data with a low resolution.

また、センシングコマンドには、図7および図8に示したデータ以外に、スキャンを行う領域(光センサ回路144を駆動する画素の領域)の指定、スキャンを行うタイミング、バックライト179の点灯のタイミングなどが記述されている。   In addition to the data shown in FIG. 7 and FIG. 8, the sensing command includes designation of an area to be scanned (area of pixels that drive the optical sensor circuit 144), timing to perform scanning, and timing to turn on the backlight 179. Etc. are described.

図9は、応答データの概略構成を示した図である。応答データは、センシングコマンドの内容に応じたデータであって、表示装置102の画像処理エンジン180が本体装置101に対して送信するデータである。   FIG. 9 is a diagram showing a schematic configuration of response data. The response data is data corresponding to the content of the sensing command, and is data that the image processing engine 180 of the display device 102 transmits to the main body device 101.

図9を参照して、応答データは、ヘッダのデータ領域DA11と、座標を示すデータ領域DA12と、時刻を示すデータ領域DA13と、画像を示すデータ領域DA14とを含む。ここで、座標を示すデータ領域DA12には、部分画像の中心座標の値が書き込まれる。また、時刻を示すデータ領域には、画像処理エンジン180のタイマ182から取得した時刻情報が書き込まれる。さらに、画像を示すデータ領域には、画像処理エンジン180により処理がされた後の画像データ(つまり、スキャンデータ)が書き込まれる。   Referring to FIG. 9, the response data includes a header data area DA11, a coordinate data area DA12, a time data area DA13, and an image data area DA14. Here, the value of the center coordinates of the partial image is written in the data area DA12 indicating the coordinates. In addition, time information acquired from the timer 182 of the image processing engine 180 is written in the data area indicating the time. Further, image data (that is, scan data) after being processed by the image processing engine 180 is written in the data area indicating the image.

図10は、指900をスキャンすることにより得られた画像(つまり、スキャン画像)を示した図である。図10を参照して、太実線で囲まれた領域W1の画像が全体画像であり、破線で囲まれた領域P1の画像が部分画像である。また、太線で示した十字の中心点C1が、中心座標となる。   FIG. 10 is a diagram illustrating an image obtained by scanning the finger 900 (that is, a scanned image). Referring to FIG. 10, an image of a region W1 surrounded by a thick solid line is an entire image, and an image of a region P1 surrounded by a broken line is a partial image. The center point C1 of the cross indicated by a thick line is the center coordinate.

本実施の形態では、矩形の領域であって、かつセンサ信号線SSjからの出力電圧が予め定められた値以上となった光センサ回路が備えられた画素(つまり、予め定められた階調または予め定められた輝度以上の画素)全てを含む領域を、部分画像の領域としている。   In the present embodiment, a pixel (that is, a predetermined gradation or a pixel having a photosensor circuit which is a rectangular region and whose output voltage from the sensor signal line SSj is equal to or higher than a predetermined value). An area including all of the pixels having a luminance equal to or higher than a predetermined luminance is set as a partial image area.

また、中心座標は、部分画像の領域における各画素の階調を考慮して決定される座標である。具体的には、中心座標は、部分画像内の各画素に関し、画素の階調と、当該画素と上記矩形の中心点(つまり図心)との距離とに基づき、重み付け処理を行うことにより決定される。つまり、中心座標は、部分画像の図心とは必ずしも一致しない。   The center coordinates are coordinates determined in consideration of the gradation of each pixel in the partial image area. Specifically, for each pixel in the partial image, the center coordinate is determined by performing a weighting process based on the gradation of the pixel and the distance between the pixel and the rectangular center point (that is, the centroid). Is done. That is, the center coordinates do not necessarily match the centroid of the partial image.

ただし、必ずしも中心座標の位置は上記に限定されるものではなく、中心座標を上記図心の座標あるいは図心の近傍の座標としてもよい。   However, the position of the center coordinates is not necessarily limited to the above, and the center coordinates may be the coordinates of the centroid or the coordinates near the centroid.

センシングコマンドのデータ種別を示すデータ領域に「001」が設定されている場合には、画像処理エンジン180は、座標を示すデータ領域DA12に上記中心座標の値を書き込む。この場合、画像処理エンジン180は、画像を示すデータ領域DA14には画像データを書き込まない。画像処理エンジン180は、上記中心座標の値の書込みを行った後、当該中心座標の値を含む応答データを本体装置101に送る。このように、データ種別を示すデータ領域に「001」が設定されている場合には、センシングコマンドは、画像データの出力を要求せずに、中心座標の値の出力を要求する。   When “001” is set in the data area indicating the data type of the sensing command, the image processing engine 180 writes the value of the central coordinate in the data area DA12 indicating the coordinate. In this case, the image processing engine 180 does not write image data in the data area DA14 indicating an image. After writing the value of the center coordinate, the image processing engine 180 sends response data including the value of the center coordinate to the main body device 101. As described above, when “001” is set in the data area indicating the data type, the sensing command requests the output of the value of the center coordinate without requesting the output of the image data.

また、センシングコマンドのデータ種別を示すデータ領域に「010」が設定されている場合には、画像処理エンジン180は、画像を示すデータ領域DA14に、スキャン結果が変化した部分画像の画像データを書き込む。この場合、画像処理エンジン180は、中心座標の値を座標を示すデータ領域DA12に書き込まない。画像処理エンジン180は、上記スキャン結果が変化した部分画像の画像データの書込みを行った後、当該部分画像の画像データを含む応答データを本体装置101に送る。このように、データ種別を示
すデータ領域に「010」が設定されている場合には、センシングコマンドは、中心座標の値の出力を要求せずに、スキャン結果が変化した部分画像の画像データの出力を要求する。
Further, when “010” is set in the data area indicating the data type of the sensing command, the image processing engine 180 writes the image data of the partial image whose scan result has changed in the data area DA14 indicating the image. . In this case, the image processing engine 180 does not write the value of the center coordinate in the data area DA12 indicating the coordinate. The image processing engine 180 writes the image data of the partial image whose scan result has changed, and then sends response data including the image data of the partial image to the main body device 101. As described above, when “010” is set in the data area indicating the data type, the sensing command does not request the output of the value of the center coordinate, and the image data of the partial image whose scan result has changed. Request output.

なお、上記のように、スキャン結果が変化した部分画像のみの送信を要求する構成とした理由は、スキャンデータのうち部分画像の領域のスキャンデータが、当該領域以外のスキャンデータよりも重要度の高いデータであること、および、指900などのスキャン対象物との接触状態により、スキャンデータのうち部分画像の領域に相当する領域のスキャンデータが変化しやすいことによる。   As described above, the reason for requesting transmission of only the partial image whose scan result has changed is that the scan data of the partial image area of the scan data is more important than the scan data of the other area. This is because the data is high, and the scan data in the region corresponding to the region of the partial image in the scan data is likely to change due to the contact state with the scan object such as the finger 900.

また、センシングコマンドのデータ種別を示すデータ領域に「011」が設定されている場合には、画像処理エンジン180は、座標を示すデータ領域DA12に中心座標の値を書き込むとともに、画像を示すデータ領域DA14にスキャン結果が変化した部分画像の画像データを書き込む。その後、画像処理エンジン180は、当該中心座標の値と当該部分画像の画像データとを含む応答データを本体装置101に送る。このように、データ種別を示すデータ領域に「011」が設定されている場合には、センシングコマンドは、中心座標の値の出力と、スキャン結果が変化した部分画像の画像データの出力とを要求する。   When “011” is set in the data area indicating the data type of the sensing command, the image processing engine 180 writes the value of the central coordinate in the data area DA12 indicating the coordinate and also displays the data area indicating the image. The image data of the partial image whose scan result has changed is written in DA14. Thereafter, the image processing engine 180 sends response data including the value of the center coordinate and the image data of the partial image to the main body device 101. As described above, when “011” is set in the data area indicating the data type, the sensing command requests the output of the value of the center coordinate and the output of the image data of the partial image whose scan result has changed. To do.

また、センシングコマンドのデータ種別を示すデータ領域に「100」が設定されている場合には、画像処理エンジン180は、図9に示した応答データの画像を示すデータ領域DA14に、全体画像の画像データを書き込む。この場合、画像処理エンジン180は、中心座標の値を座標を示すデータ領域DA12に書き込まない。画像処理エンジン180は、上記全体画像の画像データの書込みを行った後、当該全体画像の画像データを含む応答データを本体装置101に送る。このように、データ種別を示すデータ領域に「100」が設定されている場合には、センシングコマンドは、中心座標の値の出力を要求せずに、全体画像の画像データの出力を要求する。   If “100” is set in the data area indicating the data type of the sensing command, the image processing engine 180 displays the image of the entire image in the data area DA14 indicating the image of the response data shown in FIG. Write data. In this case, the image processing engine 180 does not write the value of the center coordinate in the data area DA12 indicating the coordinate. After writing the image data of the entire image, the image processing engine 180 sends response data including the image data of the entire image to the main body device 101. As described above, when “100” is set in the data area indicating the data type, the sensing command requests the output of the image data of the entire image without requesting the output of the value of the center coordinate.

また、センシングコマンドのデータ種別を示すデータ領域に「101」が設定されている場合には、画像処理エンジン180は、座標を示すデータ領域DA12に中心座標の値を書き込むとともに、画像を示すデータ領域DA14に全体画像の画像データを書き込む。その後、画像処理エンジン180は、当該中心座標の値と当該全体画像の画像データとを含む応答データを本体装置101に送る。このように、データ種別を示すデータ領域に「101」が設定されている場合には、センシングコマンドは、中心座標の値の出力と、全体画像の画像データの出力とを要求する。   When “101” is set in the data area indicating the data type of the sensing command, the image processing engine 180 writes the value of the central coordinate in the data area DA12 indicating the coordinate and also displays the data area indicating the image. Write the image data of the entire image to DA14. Thereafter, the image processing engine 180 sends response data including the value of the center coordinate and the image data of the entire image to the main body device 101. As described above, when “101” is set in the data area indicating the data type, the sensing command requests the output of the value of the center coordinate and the output of the image data of the entire image.

<構成の第1の変形例について>
ところで、液晶パネル140の構成は、図3に示した構成に限定されるものではない。以下では、図3とは異なる態様の液晶パネルについて説明する。
<Regarding First Modification of Configuration>
By the way, the structure of the liquid crystal panel 140 is not limited to the structure shown in FIG. Hereinafter, a liquid crystal panel having a mode different from that in FIG. 3 will be described.

図11は、上記異なる態様である光センサ内蔵液晶パネル140Aの回路図である。図11を参照して、光センサ内蔵液晶パネル140A(以下、液晶パネル140Aと称する)は、1画素内に3つの光センサ回路(144r,144g,144b)を含んでいる。このように液晶パネル140Aが1画素内に3つの光センサ回路(144r,144g,144b)を備える点において、液晶パネル140Aは、1画素内に1つの光センサ回路を備える液晶パネル140と異なる。なお、光センサ回路144の構成と、3つの各光センサ回路(144r,144g,144b)との構成は同じである。   FIG. 11 is a circuit diagram of a photosensor built-in liquid crystal panel 140A according to the different embodiment. Referring to FIG. 11, photosensor built-in liquid crystal panel 140A (hereinafter referred to as liquid crystal panel 140A) includes three photosensor circuits (144r, 144g, 144b) in one pixel. Thus, the liquid crystal panel 140A is different from the liquid crystal panel 140 including one photosensor circuit in one pixel in that the liquid crystal panel 140A includes three photosensor circuits (144r, 144g, and 144b) in one pixel. The configuration of the optical sensor circuit 144 is the same as that of each of the three optical sensor circuits (144r, 144g, 144b).

また、1画素内における3つのフォトダイオード(145r,145g,145b)は、それぞれ、カラーフィルタ153r、カラーフィルタ153g、カラーフィルタ153
bに対向する位置に配されている。それゆえ、フォトダイオード145rは赤色の光を受光し、フォトダイオード145gは緑色の光を受光し、フォトダイオード145bは青色の光を受光する。
In addition, the three photodiodes (145r, 145g, 145b) in one pixel have a color filter 153r, a color filter 153g, and a color filter 153, respectively.
It is arranged at a position facing b. Therefore, the photodiode 145r receives red light, the photodiode 145g receives green light, and the photodiode 145b receives blue light.

また、液晶パネル140は1画素内において1つの光センサ回路144しか含まないため、1画素内に配設されるTFT147用のデータ信号線は、センサ信号線SSjとセンサ信号線SDjとの2本であった。しかしながら、液晶パネル140Aは1画素内において3つの光センサ回路(144r,144g,144b)を含むため、1画素内に配設されるTFT(147r,147g,147b)用のデータ信号線は6本となる。   In addition, since the liquid crystal panel 140 includes only one photosensor circuit 144 in one pixel, two data signal lines for the TFT 147 disposed in one pixel are a sensor signal line SSj and a sensor signal line SDj. Met. However, since the liquid crystal panel 140A includes three photosensor circuits (144r, 144g, 144b) in one pixel, there are six data signal lines for TFTs (147r, 147g, 147b) arranged in one pixel. It becomes.

具体的には、カラーフィルタ153rに対向する位置に配されたフォトダイオード145rのカソードに接続されたTFT147rに対応して、センサ信号線SSRjとセンサ信号線SDRjとが配設される。また、カラーフィルタ153gに対向する位置に配されたフォトダイオード145gのカソードに接続されたTFT147gに対応して、センサ信号線SSGjとセンサ信号線SDGjとが配設される。さらに、カラーフィルタ153bに対向する位置に配されたフォトダイオード145bのカソードに接続されたTFT147bに対応して、センサ信号線SSBjとセンサ信号線SDBjとが配設される。   Specifically, the sensor signal line SSRj and the sensor signal line SDRj are arranged corresponding to the TFT 147r connected to the cathode of the photodiode 145r arranged at a position facing the color filter 153r. A sensor signal line SSGj and a sensor signal line SDGj are arranged corresponding to the TFT 147g connected to the cathode of the photodiode 145g arranged at a position facing the color filter 153g. Further, a sensor signal line SSBj and a sensor signal line SDBj are disposed corresponding to the TFT 147b connected to the cathode of the photodiode 145b disposed at a position facing the color filter 153b.

このような液晶パネル140Aにおいては、バックライト179から照射された白色光は、3つのカラーフィルタ(153r,153g,153b)を透過し、液晶パネル140Aの表面では、赤、緑、および青とが混ざり白色光となる。ここで、スキャン対象物により白色光が反射されると、スキャン対象物の表面の色素に白色光の一部が吸収され、また一部が反射される。そして、反射された光は、再度、3つのカラーフィルタ(153r,153g,153b)を透過する。   In such a liquid crystal panel 140A, the white light emitted from the backlight 179 passes through the three color filters (153r, 153g, 153b), and red, green, and blue are displayed on the surface of the liquid crystal panel 140A. It mixes and becomes white light. Here, when white light is reflected by the scan object, a part of the white light is absorbed by the pigment on the surface of the scan object, and a part is reflected. And the reflected light permeate | transmits three color filters (153r, 153g, 153b) again.

この際、カラーフィルタ153rは赤色の波長の光を透過し、フォトダイオード145rは、当該赤色の波長の光を受光する。また、カラーフィルタ153gは緑色の波長の光を透過し、フォトダイオード145gは、当該緑色の波長の光を受光する。また、カラーフィルタ153bは青色の波長の光を透過し、フォトダイオード145bは、当該青色の波長の光を受光する。つまり、スキャン対象物によって反射された光は3つのカラーフィルタ(153r,153g,153b)によって3原色(R,G,B)に色分解され、各フォトダイオード(145r,145g,145b)は、それぞれに対応した色の光を受光する。   At this time, the color filter 153r transmits light having a red wavelength, and the photodiode 145r receives light having the red wavelength. The color filter 153g transmits light having a green wavelength, and the photodiode 145g receives light having the green wavelength. The color filter 153b transmits light having a blue wavelength, and the photodiode 145b receives light having the blue wavelength. That is, the light reflected by the scan object is separated into three primary colors (R, G, B) by the three color filters (153r, 153g, 153b), and each photodiode (145r, 145g, 145b) The light of the color corresponding to is received.

スキャン対象物の表面の色素に白色光の一部が吸収されると、各フォトダイオード(145r,145g,145b)の受光量が各フォトダイオード(145r,145g,145b)で異なることになる。このため、センサ信号線SSRjとセンサ信号線SSGjとセンサ信号線SSBjとの出力電圧は互いに異なる。   When a part of white light is absorbed by the pigment on the surface of the scan target, the amount of light received by each photodiode (145r, 145g, 145b) is different for each photodiode (145r, 145g, 145b). For this reason, the output voltages of the sensor signal line SSRj, the sensor signal line SSGj, and the sensor signal line SSBj are different from each other.

それゆえ、各出力電圧に応じて、Rの階調とGの階調とBの階調とを画像処理エンジン180が決定することにより、画像処理エンジン180はRGBのカラー画像を本体装置101へ送ることができる。   Therefore, the image processing engine 180 determines the R gradation, the G gradation, and the B gradation according to each output voltage, so that the image processing engine 180 sends the RGB color image to the main body device 101. Can send.

以上述べたように、電子機器100が液晶パネル140Aを備えた構成とすることにより、スキャン対象物をカラーでスキャンできることになる。   As described above, when the electronic apparatus 100 includes the liquid crystal panel 140A, the scan target can be scanned in color.

次に、図12を参照して、前述のスキャンの方法(つまり、図6における反射像をスキャンする方法)とは異なるスキャンの方法について説明する。   Next, a scanning method different from the above-described scanning method (that is, the method of scanning the reflected image in FIG. 6) will be described with reference to FIG.

図12は、スキャンの際にフォトダイオードが外光を受光する構成を示した断面図であ
る。図12に示されるように、外光の一部は、指900によって遮られる。それゆえ、指900と接触している液晶パネル140の表面領域の下部に配されたフォトダイオードは、ほとんど外光を受光できない。また、指900の影が形成された表面領域の下部に配されたフォトダイオードは、ある程度の外光を受光できるものの、影が形成されていない表面領域に比べると外光の受光量が少ない。
FIG. 12 is a cross-sectional view showing a configuration in which a photodiode receives external light during scanning. As shown in FIG. 12, part of the outside light is blocked by the finger 900. Therefore, the photodiode disposed under the surface region of the liquid crystal panel 140 that is in contact with the finger 900 can hardly receive external light. In addition, although the photodiodes disposed under the surface area where the shadow of the finger 900 is formed can receive a certain amount of external light, the amount of external light received is small compared to the surface area where no shadow is formed.

ここで、バックライト179を、少なくともセンシング期間においては消灯させておくことにより、光センサ回路144は、液晶パネル140の表面に対する指900の位置に応じた電圧をセンサ信号線SSjから出力することができる。このように、バックライト179を点灯と消灯とを制御することにより、液晶パネル140では、指900の接触位置、指900の接触している範囲(指900の押圧力によって定まる)、液晶パネル140の表面に対する指900の方向などに応じて、センサ信号線(SS1からSSn)から出力される電圧が変化することになる。   Here, by turning off the backlight 179 at least during the sensing period, the optical sensor circuit 144 can output a voltage corresponding to the position of the finger 900 with respect to the surface of the liquid crystal panel 140 from the sensor signal line SSj. it can. In this manner, by controlling the backlight 179 to be turned on and off, the liquid crystal panel 140 has a contact position of the finger 900, a range in which the finger 900 is in contact (determined by the pressing force of the finger 900), and the liquid crystal panel 140. The voltage output from the sensor signal lines (SS1 to SSn) varies depending on the direction of the finger 900 with respect to the surface of the sensor.

以上により、表示装置102は、指900によって外光が遮られることにより得られる像(以下、影像とも称する)をスキャンすることができる。   As described above, the display device 102 can scan an image (hereinafter also referred to as a shadow image) obtained by blocking external light with the finger 900.

さらに、表示装置102を、バックライト179を点灯させてスキャンを行った後に、バックライト179を消灯させて再度スキャンを行う構成としてもよい。あるいは、表示装置102を、バックライト179を消灯させてスキャンを行った後に、バックライト179を点灯させて再度スキャンを行う構成としてもよい。   Further, the display device 102 may be configured to perform scanning by turning on the backlight 179 and then performing scanning again by turning off the backlight 179. Alternatively, the display device 102 may be configured to perform scanning by turning off the backlight 179 and then performing scanning again by turning on the backlight 179.

この場合には、2つのスキャン方式を併用することになるため、2つのスキャンデータを得ることができる。それゆえ、一方のスキャン方式のみを用いてスキャンする場合に比べて、精度の高い結果を得ることができる。   In this case, since two scanning methods are used together, two scan data can be obtained. Therefore, it is possible to obtain a highly accurate result as compared with the case of scanning using only one scanning method.

<表示装置について>
表示装置103の動作は、表示装置102の動作と同様、本体装置101からのコマンド(たとえば、センシングコマンド)に応じて制御される。表示装置103は表示装置102と同様な構成を有する。それゆえ、表示装置103が表示装置102と同じコマンドを本体装置101から受付けた場合、表示装置103は表示装置102と同様の動作を行う。このため、表示装置103の構成や動作についての説明は繰り返さない。
<About display devices>
The operation of the display device 103 is controlled in accordance with a command (for example, a sensing command) from the main body device 101 as in the operation of the display device 102. The display device 103 has the same configuration as the display device 102. Therefore, when the display device 103 receives the same command from the main body device 101 as the display device 102, the display device 103 performs the same operation as the display device 102. For this reason, description of the configuration and operation of the display device 103 will not be repeated.

なお、本体装置101は、表示装置102と表示装置103とに対して、命令が異なるコマンドを送ることができる。この場合、表示装置102と表示装置103とは別々の動作を行う。また、本体装置101は、表示装置102および表示装置103のいずれかに対して、コマンドを送ってもよい。この場合、一方の表示装置のみがコマンドに応じた動作を行う。また、本体装置101が、表示装置102と表示装置103とに命令が同じコマンドを送ってもよい。この場合、表示装置102と表示装置103とは、同じ動作を行う。   Note that the main device 101 can send commands having different commands to the display device 102 and the display device 103. In this case, the display device 102 and the display device 103 perform different operations. Further, the main device 101 may send a command to either the display device 102 or the display device 103. In this case, only one display device performs an operation according to the command. Further, the main device 101 may send a command having the same command to the display device 102 and the display device 103. In this case, the display device 102 and the display device 103 perform the same operation.

なお、表示装置102の液晶パネル140のサイズと表示装置103の液晶パネル240のサイズとは、同じであってもよいし又は異なっていてもよい。また、液晶パネル140の解像度と液晶パネル240の解像度とは、同じであってもよいし又は異なっていてもよい。   Note that the size of the liquid crystal panel 140 of the display device 102 and the size of the liquid crystal panel 240 of the display device 103 may be the same or different. Further, the resolution of the liquid crystal panel 140 and the resolution of the liquid crystal panel 240 may be the same or different.

<構成の第2の変形例について>
本実施の形態では、電子機器100が、液晶パネル140と液晶パネル240といったそれぞれに光センサを内蔵した液晶パネルを備える構成について説明するが、一方の液晶パネルのみが光センサを内蔵している構成であってもよい。
<About Second Modification of Configuration>
In the present embodiment, a configuration in which electronic device 100 includes a liquid crystal panel with a built-in optical sensor such as liquid crystal panel 140 and liquid crystal panel 240 will be described. However, only one liquid crystal panel has a built-in photosensor. It may be.

図13は、電子機器1300のハードウェア構成を表すブロック図である。電子機器1300は、電子機器100と同様、第1の筐体100Aと、第2の筐体100Bとを含む。第1の筐体100Aは、表示装置102を含む。第2の筐体100Bは、光センサを内蔵しない液晶パネル(つまり、表示機能のみを有する液晶パネル)を含む。電子機器1300は、第2の筐体100Bが光センサを内蔵しない液晶パネルを含む点で、第2の筐体100Bが光センサを内蔵した液晶パネル240を含む電子機器100と異なる。このような電子機器1300は、第1の筐体100Aの表示装置102を用いて上述したセンシングを行う。   FIG. 13 is a block diagram illustrating a hardware configuration of electronic device 1300. Similar to the electronic device 100, the electronic device 1300 includes a first housing 100A and a second housing 100B. The first housing 100A includes a display device 102. The second housing 100B includes a liquid crystal panel that does not incorporate a photosensor (that is, a liquid crystal panel having only a display function). The electronic device 1300 is different from the electronic device 100 in which the second housing 100B includes a liquid crystal panel 240 with a built-in optical sensor, in that the second housing 100B includes a liquid crystal panel with no built-in photosensor. Such an electronic device 1300 performs the sensing described above using the display device 102 of the first housing 100A.

また、第2の筐体100Bは、光センサを内蔵した液晶パネル240の代わりに、たとえば抵抗膜方式や静電容量方式のタッチパネルを備えてもよい。   Further, the second casing 100B may include, for example, a resistive film type or capacitive type touch panel instead of the liquid crystal panel 240 incorporating the photosensor.

また、本実施の形態では、表示装置102がタイマ182を備え、表示装置103がタイマ282を備える構成として説明するが、表示装置102と表示装置103とが1つのタイマを共有する構成としてもよい。   In this embodiment, the display device 102 includes the timer 182 and the display device 103 includes the timer 282. However, the display device 102 and the display device 103 may share one timer. .

また、本実施の形態では、電子機器100を折畳型の機器として説明するが、電子機器100は必ずしも折畳型に限定されるものではない。たとえば、電子機器100は、第1の筐体100Aが第2の筐体100Bに対してスライドする構成のスライド式の機器であってもよい。   In the present embodiment, electronic device 100 is described as a foldable device, but electronic device 100 is not necessarily limited to a foldable device. For example, the electronic device 100 may be a sliding device configured such that the first housing 100A slides with respect to the second housing 100B.

<<具体的な実現例>>
<機能ブロック>
図14は、電子機器100の機能ブロックを示した図である。図14を参照して、電子機器100は、制御部10と、液晶パネル140,240と、記憶装置90とを備える。制御部10は、表示制御部11と、スキャン部12と、検知部13と、特定部14と、第1判断部15と、第2判断部16と、第3判断部17と、実行部18と、選択処理部21と、手書入力受付部31と、文字認識部32と、文字入力処理部41と、関連付部42とを備える。
<< Specific examples of implementation >>
<Functional block>
FIG. 14 is a diagram illustrating functional blocks of the electronic device 100. Referring to FIG. 14, electronic device 100 includes control unit 10, liquid crystal panels 140 and 240, and storage device 90. The control unit 10 includes a display control unit 11, a scan unit 12, a detection unit 13, a specification unit 14, a first determination unit 15, a second determination unit 16, a third determination unit 17, and an execution unit 18. A selection processing unit 21, a handwriting input reception unit 31, a character recognition unit 32, a character input processing unit 41, and an association unit 42.

記憶装置90は、RAM171やハードディスク(図示せず)により構成される。記憶装置90は、少なくとも、第1形状を示した第1形状データと、第2形状を示した第2形状データとを予め格納している。第1形状と第2形状とは、互いに異なる。また、第1形状および第2形状は、スキャン画像に含まれる画像の形状との一致を判断するための図形の形状である。   The storage device 90 includes a RAM 171 and a hard disk (not shown). The storage device 90 stores at least first shape data indicating a first shape and second shape data indicating a second shape. The first shape and the second shape are different from each other. The first shape and the second shape are graphic shapes for determining coincidence with the shape of the image included in the scan image.

表示制御部11は、記憶装置90内のVRAM(図示せず)に格納された画像データに基づき、液晶パネル140,240の表示面に画像を表示させる。表示制御部11は、液晶パネル140の表示面において表示されている画像の当該表示面での位置を示した位置情報と、液晶パネル240の表示面において表示されている画像の当該表示面での位置を示した位置情報とを、第2判断部16および第3判断部17に送る。   The display control unit 11 displays images on the display surfaces of the liquid crystal panels 140 and 240 based on image data stored in a VRAM (not shown) in the storage device 90. The display control unit 11 includes position information indicating the position of the image displayed on the display surface of the liquid crystal panel 140 on the display surface, and the image displayed on the display surface of the liquid crystal panel 240 on the display surface. The position information indicating the position is sent to the second determination unit 16 and the third determination unit 17.

スキャン部12は、液晶パネル140,240にスキャンを実行させる。スキャン部12は、検知部13と手書入力受付部31にスキャンデータを送る。   The scanning unit 12 causes the liquid crystal panels 140 and 240 to perform scanning. The scanning unit 12 sends scan data to the detection unit 13 and the handwriting input reception unit 31.

検知部13は、スキャンデータに基づいて、液晶パネル140,240の表示面に少なくとも1つの物体が接触したことを検知する。検知部13が上記接触を検知した場合、検知部13は、特定部14と、第2判断部16と、第3判断部17とにスキャンデータを送る。   The detection unit 13 detects that at least one object has touched the display surfaces of the liquid crystal panels 140 and 240 based on the scan data. When the detection unit 13 detects the contact, the detection unit 13 sends scan data to the specifying unit 14, the second determination unit 16, and the third determination unit 17.

特定部14は、スキャンデータに基づいて、接触領域の形状を接触領域毎に特定する。たとえば、複数本の指が表示面に接触した場合、特定部14は、複数の接触領域が、それぞれ略楕円形状(図10の領域P1内の白色箇所を参照)であると特定する。特定部14は、特定した各形状を示す情報を第1判断部15に送る。なお、指以外の接触領域の形状については、後述する(図15,16)。   The specifying unit 14 specifies the shape of the contact area for each contact area based on the scan data. For example, when a plurality of fingers come into contact with the display surface, the specifying unit 14 specifies that each of the plurality of contact areas has a substantially oval shape (see a white spot in the area P1 in FIG. 10). The identification unit 14 sends information indicating each identified shape to the first determination unit 15. The shape of the contact area other than the finger will be described later (FIGS. 15 and 16).

第1判断部15は、記憶装置90に記憶された第1形状データに基づいて、特定部14が特定した各形状の中に第1形状と一致する形状が存在するか否かを判断する。たとえば、特定部14がn個(nは自然数)の形状を特定した場合、当該n個の形状の中に第1形状と一致する形状が存在するか否かを判断する。言い換えれば、特定部14がn個の形状を特定した場合、第1判断部15は、当該n個の形状のうち少なくとも1つの形状が第1形状と一致するか否かを判断する。   Based on the first shape data stored in the storage device 90, the first determination unit 15 determines whether there is a shape that matches the first shape among the shapes specified by the specifying unit 14. For example, when the specifying unit 14 specifies n (n is a natural number) shapes, it is determined whether or not there is a shape that matches the first shape among the n shapes. In other words, when the specifying unit 14 specifies n shapes, the first determination unit 15 determines whether at least one of the n shapes matches the first shape.

なお、本実施の形態において一致とは、互いの形状が完全に一致することのみならず、形状の一致度合いが所定の値以上である場合を含む。第1判断部15が互いの形状が一致すると判断する例としては、特定した形状と第1形状とが相似形である場合、両形状の特徴的な部分が似通っている場合などが挙げられる。なお、第1判断部15は、たとえば、画像認証の技術を用いて、互いの形状が一致するか否かを判断すればよい。   In the present embodiment, the term “match” includes not only the case where the shapes match each other completely, but also the case where the degree of match between the shapes is a predetermined value or more. Examples where the first determining unit 15 determines that the shapes match each other include a case where the specified shape and the first shape are similar, and a case where the characteristic portions of both shapes are similar. The first determination unit 15 may determine whether or not the shapes match each other using, for example, image authentication technology.

第1判断部15は、さらに、記憶装置90に記憶された第2形状データに基づいて、特定部14が特定した各形状の中に第2形状と一致する形状が存在するか否かを判断する。当該判断においても、第1判断部15は、第1形状と一致する形状が存在するか否かの判断と同様な処理を行う。なお、第1形状と第2形状とは、2次元形状である。   The first determination unit 15 further determines whether there is a shape that matches the second shape among the shapes specified by the specification unit 14 based on the second shape data stored in the storage device 90. To do. Also in this determination, the first determination unit 15 performs the same processing as the determination of whether or not there is a shape that matches the first shape. The first shape and the second shape are two-dimensional shapes.

第1判断部15は、上記各判断結果を実行部18に送る。第1判断部15は、第1形状と一致する形状と第2形状と一致する形状とが存在すると判断した場合、当該判断結果を第2判断部16に送る。第1判断部15は、第1形状と一致する形状が存在しないと判断した場合、当該判断結果を第3判断部17に送る。   The first determination unit 15 sends the determination results to the execution unit 18. If the first determination unit 15 determines that there is a shape that matches the first shape and a shape that matches the second shape, the first determination unit 15 sends the determination result to the second determination unit 16. If the first determination unit 15 determines that there is no shape that matches the first shape, the first determination unit 15 sends the determination result to the third determination unit 17.

第2判断部16が第1判断部15から上記判断結果を受付けた場合、第2判断部16は、表示制御部11から受付けた位置情報に基づき、以下の判断を行なう。すなわち、第2判断部16は、第2形状と一致する形状を有する接触領域の位置に応じて、液晶パネル140,240の表示面に表示されたオブジェクトを指定する入力を受付けたか否かを判断する。言い換えれば、第1形状と一致する形状と第2形状と一致する形状とが存在すると判断された場合に、第2判断部16は、第2形状と一致する形状を有する接触領域の位置に応じて、液晶パネル140,240の表示面に表示されたオブジェクトを指定する入力を受付けたか否かを判断する。第2判断部16は、上記判断結果を実行部18に送る。   When the second determination unit 16 receives the determination result from the first determination unit 15, the second determination unit 16 makes the following determination based on the position information received from the display control unit 11. That is, the second determination unit 16 determines whether or not an input for designating an object displayed on the display surface of the liquid crystal panels 140 and 240 has been received according to the position of the contact area having a shape that matches the second shape. To do. In other words, when it is determined that there is a shape that matches the first shape and a shape that matches the second shape, the second determination unit 16 responds to the position of the contact region having a shape that matches the second shape. Then, it is determined whether or not an input for designating an object displayed on the display surface of the liquid crystal panels 140 and 240 has been received. The second determination unit 16 sends the determination result to the execution unit 18.

第3判断部17が第1判断部15から上記判断結果を受付けた場合、第3判断部17は、表示制御部11から受付けた位置情報に基づき、以下の判断を行なう。すなわち、第3判断部17は、第2形状と一致する形状を有する接触領域の位置に応じて、液晶パネル140,240の表示面に表示されたオブジェクトを指定する入力を受付けたか否かを判断する。第3判断部17は、当該判断結果を実行部18に送る。   When the third determination unit 17 receives the determination result from the first determination unit 15, the third determination unit 17 makes the following determination based on the position information received from the display control unit 11. That is, the third determination unit 17 determines whether or not an input for designating an object displayed on the display surface of the liquid crystal panels 140 and 240 has been received according to the position of the contact area having a shape that matches the second shape. To do. The third determination unit 17 sends the determination result to the execution unit 18.

以下では、第1形状と一致する形状を有する接触領域は、物体Aが表示面に接触することによって形成された領域とする。ここで、物体Aは、手の掌とする。より詳しくは、物体Aは、手の掌のうち小指球を含む領域とする。「小指球」とは、小指の付け根の下側(手首側)のふくらみの部分をいう。「小指球を含む領域」とは、ユーザがペン等を用いてたとえば紙に筆記を行なう際に、通常、紙(あるいは紙が置かれた台)に接触するユーザ
の手の表面部分である。また、第1形状は、たとえば液晶パネル140,240に手の掌を押し当てた場合に得られる接触面(図16参照)の形状である。より詳しくは、第1形状は、手の掌のうち小指球付近の表面部を押し当てた場合に得られる接触面の形状である。なお、液晶パネル140,240がユーザの手の掌をスキャンすることにより、第1形状を示した第1形状データの登録を電子機器100が受付ける構成としてもよい。
Hereinafter, the contact region having a shape that matches the first shape is a region formed by the object A contacting the display surface. Here, the object A is the palm of the hand. More specifically, the object A is a region including the little ball of the palm of the hand. The “little finger ball” refers to a bulge portion on the lower side (wrist side) of the base of the little finger. The “region including the little finger ball” is a surface portion of the user's hand that normally contacts the paper (or the table on which the paper is placed) when the user writes, for example, on the paper using a pen or the like. The first shape is the shape of the contact surface (see FIG. 16) obtained when the palm of the hand is pressed against the liquid crystal panels 140 and 240, for example. More specifically, the first shape is the shape of the contact surface obtained when the surface of the palm of the hand near the little ball is pressed. The electronic device 100 may accept the registration of the first shape data indicating the first shape by the liquid crystal panels 140 and 240 scanning the palm of the user's hand.

また、第2形状と一致する形状を有する接触領域は、物体Bが表示面に接触することによって形成された領域とする。ここで、物体Bは、スタイラスペンのペン先または指先である。また、第2形状は、たとえば液晶パネル140,240にスタイラスペンのペン先または指先を押し当てた場合に得られる接触面の形状である。たとえば、第2形状は、円または略楕円を示す形状である。以下では、物体Bが、スタイラスペンのペン先である場合を例に挙げて説明する。   The contact region having a shape that matches the second shape is a region formed by the object B coming into contact with the display surface. Here, the object B is a pen tip or a fingertip of a stylus pen. The second shape is the shape of the contact surface obtained when the stylus pen tip or fingertip is pressed against the liquid crystal panels 140 and 240, for example. For example, the second shape is a shape showing a circle or a substantially ellipse. Hereinafter, the case where the object B is the pen tip of a stylus pen will be described as an example.

次に、実行部18の処理について説明する。なお、以下では、液晶パネル140と液晶パネル240のうち液晶パネル140を用いてユーザが入力を行なう場合を例に挙げて説明する。   Next, the process of the execution part 18 is demonstrated. In the following, a case where a user performs input using the liquid crystal panel 140 out of the liquid crystal panel 140 and the liquid crystal panel 240 will be described as an example.

第2形状と一致する形状が存在すると判断された場合、実行部18は、第1形状と一致する形状が存在するときと存在しないときとで異なる動作を電子機器100に実行させる。当該異なる動作とは、第1形状と一致する形状が存在するか否かを判断した後におけるペン先による電子機器100への入力を第1指令として処理する動作と、当該入力を第2指令として処理する動作とである。つまり、液晶パネル140における同一位置をペン先で指定する入力を電子機器100が受付けた場合であっても、実行部18は、第1形状と一致する形状が存在するときと存在しないときとで、当該入力を異なる入力(指令)として処理する。   When it is determined that there is a shape that matches the second shape, the execution unit 18 causes the electronic device 100 to perform different operations depending on whether or not there is a shape that matches the first shape. The different operations are an operation of processing an input to the electronic device 100 by the pen tip after determining whether there is a shape that matches the first shape as a first command, and using the input as a second command. It is an operation to process. That is, even when the electronic device 100 accepts an input for designating the same position on the liquid crystal panel 140 with the pen tip, the execution unit 18 has a case where a shape that matches the first shape exists and a case where the shape does not exist. The input is processed as a different input (command).

また、第1形状と一致する形状と第2形状と一致する形状とが存在すると判断された場合、実行部18は、さらに、オブジェクトを指定する入力を受付けたと判断されたときと当該入力を受付けていないと判断されたときとで異なる動作を電子機器100に実行させる。当該異なる動作の一方は、オブジェクトの指定に基づく動作と、当該動作が行なわれた後の、ペン先の移動に伴う手書入力の受付け動作とである。当該異なる動作の他方は、ペン先の移動に伴う手書入力の受付け動作である。   Further, when it is determined that there is a shape that matches the first shape and a shape that matches the second shape, the execution unit 18 further receives the input when it is determined that the input specifying the object has been received. The electronic device 100 is caused to execute an operation different from that when it is determined that the electronic device is not. One of the different operations is an operation based on the designation of the object, and an operation for accepting handwriting input accompanying the movement of the pen tip after the operation is performed. The other of the different operations is a handwriting input acceptance operation accompanying the movement of the pen tip.

なお、以下では、第2形状と一致する形状が存在すると判断された場合に、第1形状と一致する形状が存在しないときの電子機器100の動作モードを、「第1動作モード」と称する。また、以下では、第1形状と一致する形状と第2形状と一致する形状とが存在すると判断された場合に、オブジェクトを指定する入力を受付けていないと判断されたときの電子機器100の動作モードを、「第2動作モード」と称する。さらに、以下では、第1形状と一致する形状と第2形状と一致する形状とが存在すると判断された場合に、オブジェクトを指定する入力を受付けたと判断されたときの電子機器100の動作モードを、「第3動作モード」と称する。   Hereinafter, when it is determined that there is a shape that matches the second shape, the operation mode of the electronic device 100 when the shape that matches the first shape does not exist is referred to as a “first operation mode”. In the following, when it is determined that there is a shape that matches the first shape and a shape that matches the second shape, the operation of electronic device 100 when it is determined that an input for designating an object is not received The mode is referred to as a “second operation mode”. Furthermore, in the following, when it is determined that there is a shape that matches the first shape and a shape that matches the second shape, the operation mode of the electronic device 100 when it is determined that an input for designating an object has been received. , Referred to as “third operation mode”.

(第1動作モード)
第1動作モードの場合、実行部18は、上記オブジェクトの指定に基づく動作を電子機器100に実行させる。たとえば、オブジェクトがファイルの場合には、オブジェクトの指定に基づく動作は、当該ファイルを、非選択状態から選択状態に切換える動作である。
(First operation mode)
In the first operation mode, the execution unit 18 causes the electronic device 100 to execute an operation based on the designation of the object. For example, when the object is a file, the operation based on the designation of the object is an operation for switching the file from the non-selected state to the selected state.

具体的には、実行部18は、上記指定されたオブジェクトを特定する情報を選択処理部21に送る。選択処理部21は、当該オブジェクトを選択された状態とする。選択処理部21は、選択されたオブジェクトを特定する情報を表示制御部11に送る。表示制御部1
1は、オブジェクトが選択されていることを示した状態で当該オブジェクトを表示させる。たとえば、表示制御部11は、オブジェクトの色を選択前の色から、当該選択前とは異なる色に切換える制御を行う。
Specifically, the execution unit 18 sends information specifying the specified object to the selection processing unit 21. The selection processing unit 21 sets the object in a selected state. The selection processing unit 21 sends information specifying the selected object to the display control unit 11. Display control unit 1
1 displays the object in a state indicating that the object is selected. For example, the display control unit 11 performs control to switch the color of the object from the color before selection to a color different from that before selection.

(第2動作モード)
第2動作モードの場合、実行部18は、液晶パネル140の表示面上におけるスタイラスペンのペン先の移動に基づく手書き入力の受付けと、当該受付けた手書き入力に基づく画像の表示とを、電子機器100に実行させる。
(Second operation mode)
In the second operation mode, the execution unit 18 accepts handwriting input based on movement of the pen tip of the stylus pen on the display surface of the liquid crystal panel 140 and displays an image based on the accepted handwriting input. 100.

具体的には、実行部18は、手書入力受付部31に対して手書入力の受付けを許可する指示を送る。手書入力受付部31が当該指示を受付けた場合、手書入力受付部31は、手書入力のための表示用のレイヤ(図21参照)と、当該レイヤに含まれる認識文字の表示枠(図21参照)とを表示させるための指示(以下、「レイヤ表示指示」と称する)を表示制御部11に送る。手書入力受付部31は、液晶パネル140を介した手書入力を受付ける。手書入力受付部31は、手書入力の受付け動作として、上記指示を受付けた後にスキャン部12から送られてくるスキャンデータから、手書の図形や文字を示すストローク情報を抽出する。手書入力受付部31は、抽出したストローク情報を、表示制御部11と文字認識部32とに送る。   Specifically, the execution unit 18 sends an instruction to permit the acceptance of handwriting input to the handwriting input reception unit 31. When the handwriting input receiving unit 31 receives the instruction, the handwriting input receiving unit 31 displays a display layer (see FIG. 21) for handwriting input and a display frame of a recognized character included in the layer ( 21 (see FIG. 21) is sent to the display control unit 11 (hereinafter referred to as “layer display instruction”). The handwriting input reception unit 31 receives handwriting input via the liquid crystal panel 140. As a handwriting input accepting operation, the handwriting input accepting unit 31 extracts stroke information indicating handwritten graphics and characters from the scan data sent from the scanning unit 12 after accepting the instruction. The handwriting input reception unit 31 sends the extracted stroke information to the display control unit 11 and the character recognition unit 32.

表示制御部11が手書入力受付部31からレイヤ表示指示を受付けた場合、表示制御部11は、手書入力のためのレイヤと、当該レイヤに含まれる認識文字の表示枠とを表示させる。表示制御部11は、上記レイヤを表示した後、ストローク情報に基づいて、手書きの図形や文字を液晶パネル140の表示面に表示させる。   When the display control unit 11 receives a layer display instruction from the handwriting input reception unit 31, the display control unit 11 displays a layer for handwriting input and a display frame for recognized characters included in the layer. After displaying the layer, the display control unit 11 displays a handwritten figure or character on the display surface of the liquid crystal panel 140 based on the stroke information.

文字認識部32は、ストローク情報に基づき文字認識を行なう。文字認識部32は、認識結果を、表示制御部11に送る。文字認識部32は、認識結果として、たとえば文字コードを表示制御部11に送る。表示制御部11は、認識結果に基づいて文字を表示させる。なお、本実施の形態では、文字は、電子機器100がコード(たとえばJIS(Japan Industrial Standard)codeやUnicode)として記憶している数字や図形も含む。   The character recognition unit 32 performs character recognition based on the stroke information. The character recognition unit 32 sends the recognition result to the display control unit 11. The character recognition unit 32 sends, for example, a character code to the display control unit 11 as a recognition result. The display control unit 11 displays characters based on the recognition result. In the present embodiment, the characters also include numbers and figures stored as codes (for example, JIS (Japan Industrial Standard) code or Unicode) by electronic device 100.

(第3動作モード)
第3動作モードの場合、実行部18は、液晶パネル140の表示面上におけるスタイラスペンのペン先の移動に基づく手書き入力の受付けを電子機器100に実行させる。また、実行部18は、当該受付けた手書き入力に基づく画像の表示を電子機器100に実行させる。さらに、実行部18は、当該表示された画像に基づく情報についての上記指定されたオブジェクトへの関連付けを電子機器100に実行させる。
(Third operation mode)
In the third operation mode, the execution unit 18 causes the electronic device 100 to execute handwriting input based on the movement of the pen tip of the stylus pen on the display surface of the liquid crystal panel 140. In addition, the execution unit 18 causes the electronic device 100 to display an image based on the accepted handwritten input. Further, the execution unit 18 causes the electronic device 100 to execute association of the information based on the displayed image with the designated object.

具体的には、ユーザから入力装置を介して電子機器100が指定されたオブジェクトに対する入力処理を受付けた場合、実行部18は、上記手書き入力の受付けと、上記画像の表示と、上記指定されたオブジェクトへの関連付けとを電子機器100に実行させる。   Specifically, when the electronic device 100 receives an input process for the specified object from the user via the input device, the execution unit 18 receives the handwritten input, displays the image, and specifies the specified The electronic device 100 is caused to execute association with the object.

指定されたオブジェクトがファイルを示すアイコンである場合、上記入力処理としては、たとえば当該ファイルを開く処理が挙げられる。また、当該入力処理としては、たとえば、当該ファイルの名称を変更する指示が挙げられる。また、当該入力処理としては、たとえば、当該ファイルのプロパティを表示する処理が挙げられる。なお、指定されたオブジェクトがフォルダを示すアイコンである場合も、オブジェクトがファイルを示すアイコンである場合と同様であるため、上記入力処理の例についての説明は繰り返さない。   When the specified object is an icon indicating a file, examples of the input process include a process of opening the file. In addition, as the input process, for example, an instruction to change the name of the file can be given. Further, as the input process, for example, a process of displaying the property of the file can be mentioned. Note that the case where the specified object is an icon indicating a folder is the same as the case where the object is an icon indicating a file, and thus the description of the example of the input process will not be repeated.

電子機器100が上記入力処理を受付けた場合、実行部18は、手書入力受付部31に対して手書入力の受付けを許可する指示を送る。手書入力受付部31が当該指示を受付け
た場合、手書入力受付部31は、手書入力のためのレイヤと、当該レイヤに含まれる認識文字の表示枠(図21参照)とを表示させるための指示(以下、「レイヤ表示指示」と称する)を表示制御部11に送る。手書入力受付部31は、液晶パネル140を介した手書入力を受付ける。手書入力受付部31は、手書入力の受付け動作として、上記指示を受付けた後にスキャン部12から送られてくるスキャンデータから、手書の図形や文字を示すストローク情報を抽出する。手書入力受付部31は、抽出したストローク情報を、表示制御部11と文字認識部32と実行部18とに送る。
When the electronic device 100 accepts the input process, the execution unit 18 sends an instruction for permitting acceptance of handwriting input to the handwriting input receiving unit 31. When the handwriting input receiving unit 31 receives the instruction, the handwriting input receiving unit 31 displays a layer for handwriting input and a display frame (see FIG. 21) of recognized characters included in the layer. Instruction (hereinafter referred to as “layer display instruction”) is sent to the display control unit 11. The handwriting input reception unit 31 receives handwriting input via the liquid crystal panel 140. As a handwriting input accepting operation, the handwriting input accepting unit 31 extracts stroke information indicating handwritten graphics and characters from the scan data sent from the scanning unit 12 after accepting the instruction. The handwriting input reception unit 31 sends the extracted stroke information to the display control unit 11, the character recognition unit 32, and the execution unit 18.

表示制御部11が手書入力受付部31からレイヤ表示指示を受付けた場合、表示制御部11は、手書入力のためのレイヤと、当該レイヤに含まれる認識文字の表示枠とを表示させる。表示制御部11は、上記レイヤを表示した後、ストローク情報に基づいて、手書きの図形や文字を液晶パネル140の表示面に表示させる。   When the display control unit 11 receives a layer display instruction from the handwriting input reception unit 31, the display control unit 11 displays a layer for handwriting input and a display frame for recognized characters included in the layer. After displaying the layer, the display control unit 11 displays a handwritten figure or character on the display surface of the liquid crystal panel 140 based on the stroke information.

文字認識部32は、ストローク情報に基づき文字認識を行なう。文字認識部32は、認識結果を、表示制御部11に送る。文字認識部32は、認識結果として、たとえば文字コードを表示制御部11および文字入力処理部41に送る。表示制御部11は、認識結果に基づいて文字を表示させる。   The character recognition unit 32 performs character recognition based on the stroke information. The character recognition unit 32 sends the recognition result to the display control unit 11. The character recognition unit 32 sends, for example, a character code as a recognition result to the display control unit 11 and the character input processing unit 41. The display control unit 11 displays characters based on the recognition result.

文字入力処理部41は、上記認識した文字を、指定されたオブジェクトに関連付ける。指定されたオブジェクトがファイルを示すアイコンである場合に、上記入力処理として当該ファイルを開く処理を電子機器100が受付けたとき、文字入力処理部41は、開いたファイルに認識した文字を入力する。上記入力処理としてファイルの名称を変更する指示を電子機器100が受付けたとき、文字入力処理部41は、ファイルの名称を示すメモリ領域の内容を認識した文字で上書きする。なお、指定されたオブジェクトがフォルダを示すアイコンである場合も、オブジェクトがファイルを示すアイコンである場合と同様であるため、上記入力処理の例についての説明は繰り返さない。   The character input processing unit 41 associates the recognized character with the specified object. When the designated object is an icon indicating a file and the electronic device 100 accepts a process for opening the file as the input process, the character input processing unit 41 inputs the recognized character in the opened file. When the electronic device 100 accepts an instruction to change the file name as the input process, the character input processing unit 41 overwrites the contents of the memory area indicating the file name with recognized characters. Note that the case where the specified object is an icon indicating a folder is the same as the case where the object is an icon indicating a file, and thus the description of the example of the input process will not be repeated.

実行部18は、手書入力受付部31から受付けたストローク情報を、関連付部42に送る。関連付部42は、当該ストローク情報を、上記指定されたオブジェクトに関連付けて記憶装置90に格納する。   The execution unit 18 sends the stroke information received from the handwriting input reception unit 31 to the association unit 42. The associating unit 42 stores the stroke information in the storage device 90 in association with the designated object.

以上のように、上述した第1動作モードは、いわゆる画面操作を受付けるモードともいえる。また、上述した第2動作モードおよび第3動作モードは、手書入力を受付けるモードであるといえる。   As described above, the first operation mode described above can be said to be a mode for accepting a so-called screen operation. Further, it can be said that the second operation mode and the third operation mode described above are modes for accepting handwriting input.

<スキャン画像の例>
図15は、スタイラスペンのペン先をスキャンした場合におけるスキャン画像を示した図である。図15を参照して、電子機器100は、スタイラスペンのペン先の画像401を得る。ペン先の画像401の形状は、円形となる。
<Example of scanned image>
FIG. 15 is a diagram illustrating a scan image when the pen tip of the stylus pen is scanned. Referring to FIG. 15, electronic device 100 obtains pen tip image 401 of the stylus pen. The shape of the pen tip image 401 is circular.

なお、図15に示すようなスキャン画像が得られた場合には、電子機器100は、第1形状と一致する形状が存在せず、第2形状と一致する形状とが存在すると判断する。図15に示すスキャン画像が得られた場合は、電子機器100は、動作モードを第1動作モードに設定する。   When a scan image as shown in FIG. 15 is obtained, electronic device 100 determines that there is no shape that matches the first shape and there is a shape that matches the second shape. When the scan image illustrated in FIG. 15 is obtained, the electronic device 100 sets the operation mode to the first operation mode.

図16は、スタイラスペンのペン先と手の掌(小指球付近)とをスキャンした場合におけるスキャン画像を示した図である。より具体的には、図16は、ユーザが右手でスタイラスペンを握った状態をスキャンした場合におけるスキャン画像である。図16を参照して、電子機器100は、スキャンデータからペン先の画像401と手の掌の画像402とを得る。手の掌の画像402の形状は、スタイラスペンを握っているため、図16に示す
ような形状となる。
FIG. 16 is a diagram showing a scan image when the stylus pen tip and the palm of the hand (near the little finger ball) are scanned. More specifically, FIG. 16 is a scan image when the user scans a state where the user holds the stylus pen with the right hand. Referring to FIG. 16, electronic device 100 obtains pen tip image 401 and hand palm image 402 from the scan data. The shape of the palm image 402 of the hand is a shape as shown in FIG. 16 because the hand is holding the stylus pen.

なお、図16に示すようなスキャン画像が得られた場合には、電子機器100は、第1形状と一致する形状と第2形状と一致する形状とが存在すると判断する。図16に示すスキャン画像が得られた場合は、電子機器100は、オブジェクトの指定の有無に応じて、動作モードを第2動作モードまたは第3動作モードに設定する。   When a scan image as shown in FIG. 16 is obtained, electronic device 100 determines that there is a shape that matches the first shape and a shape that matches the second shape. When the scan image shown in FIG. 16 is obtained, electronic device 100 sets the operation mode to the second operation mode or the third operation mode depending on whether or not an object is specified.

<制御構造>
図17は、電子機器100における処理フローを示したフローチャートである。図17を参照して、ステップS2において、電子機器100は、液晶パネル140の表示面に少なくとも1つの物体が接触したことを検知する。ステップS4において、電子機器100は、上記表示面における接触領域の形状を、接触領域毎に特定する。ステップS6において、電子機器100は、特定した各形状の中に、スタイラスペンのペン先形状(第2形状)と一致する形状が存在するか否かを判断する。
<Control structure>
FIG. 17 is a flowchart illustrating a processing flow in the electronic device 100. Referring to FIG. 17, in step S <b> 2, electronic device 100 detects that at least one object has touched the display surface of liquid crystal panel 140. In step S4, the electronic device 100 specifies the shape of the contact area on the display surface for each contact area. In step S <b> 6, electronic device 100 determines whether or not a shape that matches the pen tip shape (second shape) of the stylus pen exists among the specified shapes.

電子機器100がペン先形状と一致する形状が存在すると判断した場合(ステップS6においてYES)、ステップS8において、電子機器100は、特定した形状の中に、手の掌の形状(第1形状)と一致する形状が存在するか否かを判断する。一方、電子機器100がペン先形状と一致する形状が存在しないと判断した場合(ステップS6においてNO)、電子機器100は、一連の処理を終了する。   When electronic device 100 determines that there is a shape that matches the pen tip shape (YES in step S6), in step S8, electronic device 100 determines the palm shape of the hand (first shape) among the specified shapes. It is determined whether or not there is a shape that matches. On the other hand, when electronic device 100 determines that there is no shape that matches the pen tip shape (NO in step S6), electronic device 100 ends the series of processing.

電子機器100が手の掌の形状と一致する形状が存在すると判断した場合(ステップS8においてYES)、ステップS10において電子機器100は、表示面に表示されたオブジェクトを指定する入力を受け付けたか否かを判断する。一方、電子機器100が手の掌の形状と一致する形状が存在しないと判断した場合(ステップS8においてNO)、ステップS12において、電子機器100は、電子機器100の動作モードを上記第1動作モードに設定する。   When electronic device 100 determines that there is a shape that matches the shape of the palm of the hand (YES in step S8), in step S10, electronic device 100 has received an input for designating an object displayed on the display surface. Judging. On the other hand, when electronic device 100 determines that there is no shape that matches the shape of the palm of the hand (NO in step S8), in step S12, electronic device 100 changes the operation mode of electronic device 100 to the first operation mode. Set to.

オブジェクトの指定を受付けていないと判断された場合(ステップS10においてNO)、ステップS14において、電子機器100は、電子機器100の動作モードを上記第2動作モードに設定する。一方、オブジェクト指定を受付けたと判断された場合(ステップS10においてYES)、ステップS16において、電子機器100は、電子機器100の動作モードを上記第3動作モードに設定する。   If it is determined that no object designation has been received (NO in step S10), in step S14, electronic device 100 sets the operation mode of electronic device 100 to the second operation mode. On the other hand, when it is determined that the object designation has been accepted (YES in step S10), in step S16, electronic device 100 sets the operation mode of electronic device 100 to the third operation mode.

<画面表示例>
図18は、液晶パネル140の表示面における表示内容の一例を示した図である。図18を参照して、電子機器100は、ファイルを示したアイコン501〜503と、フォルダを示したアイコン531,532と、ごみ箱を示したアイコン551とを表示面に表示している。以下では、図18に示した状態において、ユーザが、液晶パネル140の表示面に対してペン先および手の掌のうち少なくとも1つを接触させた場合における当該表示面の表示内容について説明する。
<Example of screen display>
FIG. 18 is a diagram illustrating an example of display contents on the display surface of the liquid crystal panel 140. Referring to FIG. 18, electronic device 100 displays icons 501 to 503 indicating files, icons 531 and 532 indicating folders, and icon 551 indicating a trash can on the display surface. Hereinafter, the display contents of the display surface when the user touches at least one of the pen tip and the palm of the hand with the display surface of the liquid crystal panel 140 in the state illustrated in FIG. 18 will be described.

なお、アイコン501で特定されるファイルの名称は、「Fi−A」である。アイコン502で特定されるファイルの名称は、「Fi−B」である。アイコン503で特定されるファイルの名称は、「Fi−C」である。また、アイコン531で特定されるフォルダの名称は、「Fo−X」である。アイコン532で特定されるフォルダの名称は、「Fo−Y」である。   Note that the name of the file specified by the icon 501 is “Fi-A”. The name of the file specified by the icon 502 is “Fi-B”. The name of the file specified by the icon 503 is “Fi-C”. The name of the folder specified by the icon 531 is “Fo-X”. The name of the folder specified by the icon 532 is “Fo-Y”.

図19は、ユーザがスタイラスペン600のペン先を液晶パネル140の表示面に接触させた状態を示した図である。図19に示した状態となった場合、電子機器100は、動
作モードを第1モードに設定する。また、図19は、スタイラスペン600によりオブジェクトであるアイコン501が指定された状態を示した図でもある。図19を参照して、電子機器100は、アイコン501を選択状態として表示する。
FIG. 19 is a diagram illustrating a state in which the user touches the display surface of the liquid crystal panel 140 with the pen tip of the stylus pen 600. In the state shown in FIG. 19, electronic device 100 sets the operation mode to the first mode. FIG. 19 is a diagram showing a state in which an icon 501 that is an object is designated by the stylus pen 600. Referring to FIG. 19, electronic device 100 displays icon 501 as a selected state.

図20は、ユーザがスタイラスペン600のペン先と右手700の掌とを液晶パネル140の表示面に接触させる直前の状態を示した図である。図20を参照して、スタイラスペン600のペン先の位置は、表示面に表示されているオブジェクトの表示位置ではない。このため、ペン先と掌とが表示面に接触した場合には、電子機器100は、動作モードを第2モードに設定する。   FIG. 20 is a diagram illustrating a state immediately before the user touches the display surface of the liquid crystal panel 140 with the pen tip of the stylus pen 600 and the palm of the right hand 700. Referring to FIG. 20, the position of the pen tip of stylus pen 600 is not the display position of the object displayed on the display surface. For this reason, when the pen tip and the palm contact the display surface, the electronic device 100 sets the operation mode to the second mode.

図21は、電子機器100が動作モードを第2動作モードに設定した場合における表示面の表示内容を示した図である。図21を参照して、電子機器100は、液晶パネル140において、レイヤ1401とレイヤ1402とを用いて画像を表示する。レイヤ1402は、手書入力のためのレイヤである。レイヤ1402は、半透明のレイヤである。また、レイヤ1402は、レイヤ1401の上層である。さらに、電子機器100は、レイヤ1402において認識文字の表示枠1421を表示する。   FIG. 21 is a diagram illustrating display contents on the display surface when the electronic device 100 sets the operation mode to the second operation mode. Referring to FIG. 21, electronic device 100 displays an image using liquid crystal panel 140 using layers 1401 and 1402. A layer 1402 is a layer for handwriting input. The layer 1402 is a translucent layer. The layer 1402 is an upper layer of the layer 1401. Furthermore, electronic device 100 displays a recognition character display frame 1421 in layer 1402.

図22は、図21の状態において、ユーザがスタイラスペンを用いて手書入力を行なった後の状態を示した図である。より詳しくは、図22は、ユーザが、ペン先を表示面に接触させた状態で右手700を動かした後の状態を示した図である。図22を参照して、電子機器100は、ペン先の軌跡に応じた文字1451をレイヤ1402に表示する。   FIG. 22 is a diagram illustrating a state after the user performs handwriting input using the stylus pen in the state of FIG. 21. More specifically, FIG. 22 is a diagram illustrating a state after the user moves the right hand 700 in a state where the pen tip is in contact with the display surface. Referring to FIG. 22, electronic device 100 displays character 1451 corresponding to the locus of the pen tip on layer 1402.

図23は、図22の状態において文字認識の処理を行った後の表示面の表示内容を示した図である。なお、たとえばユーザが電子機器100に備えられた予め定められたボタン(ソフトキーを含む)を押すことにより、電子機器100は文字認識の処理を開始する。図23を参照して、電子機器100は、レイヤ1402の表示枠1421に文字認識の認識結果である文字1455を表示する。   FIG. 23 is a diagram showing the display contents on the display surface after the character recognition process is performed in the state of FIG. For example, when the user presses a predetermined button (including a soft key) provided in electronic device 100, electronic device 100 starts a character recognition process. Referring to FIG. 23, electronic device 100 displays a character 1455 as a recognition result of character recognition in display frame 1421 of layer 1402.

図24は、ユーザがスタイラスペン600のペン先と右手700の掌とを液晶パネル140の表示面に接触させる直前の状態を示した図である。図24を参照して、スタイラスペン600のペン先の位置は、オブジェクトであるアイコン501の表示位置である。このため、ペン先と掌とが表示面に接触した場合には、電子機器100は、動作モードを第3モードに設定する。   FIG. 24 is a diagram showing a state immediately before the user touches the display surface of the liquid crystal panel 140 with the pen tip of the stylus pen 600 and the palm of the right hand 700. Referring to FIG. 24, the position of the pen tip of stylus pen 600 is the display position of icon 501 that is an object. For this reason, when the pen tip and the palm contact the display surface, the electronic device 100 sets the operation mode to the third mode.

図25は、電子機器100が動作モードを第3動作モードに設定した場合における表示面の表示内容を示した図である。図25を参照して、電子機器100は、アイコン501に関連するメニュー画面570を表示面に表示する。メニュー画面570は、たとえば、選択可能な3つの項目571,572,573を含む。   FIG. 25 is a diagram showing the display content on the display screen when electronic device 100 sets the operation mode to the third operation mode. Referring to FIG. 25, electronic device 100 displays a menu screen 570 related to icon 501 on the display surface. Menu screen 570 includes, for example, three selectable items 571, 572, and 573.

図26は、図25に示される場合において、スタイラスペン600により項目572が選択される直前の状態を示した図である。なお、項目572は、ファイルを開くこと示した項目である。   FIG. 26 is a diagram showing a state immediately before the item 572 is selected by the stylus pen 600 in the case shown in FIG. Item 572 is an item indicating that a file is to be opened.

図27は、スタイラスペン600により項目572が選択された後の状態を示した図である。図27を参照して、電子機器100は、液晶パネル140において、レイヤ1401とレイヤ1402とを用いて画像を表示する。電子機器100は、アイコン501で特定されるファイルを開いた状態を示した画像501Aをレイヤ1401に表示する。   FIG. 27 shows a state after item 572 is selected by stylus pen 600. Referring to FIG. 27, electronic device 100 displays an image using liquid crystal panel 140 using layer 1401 and layer 1402. The electronic device 100 displays on the layer 1401 an image 501A showing a state where the file specified by the icon 501 is opened.

図28は、図27に示される場合において、ユーザがスタイラスペンを用いて手書入力を行なった後の状態を示した図である。より詳しくは、図28は、ユーザが、ペン先を表
示面に接触させた状態で右手700を動かした後の状態を示した図である。図28を参照して、電子機器100は、ペン先の軌跡に応じた文字1461をレイヤ1402に表示する。
FIG. 28 is a diagram showing a state after the user performs handwriting input using the stylus pen in the case shown in FIG. More specifically, FIG. 28 is a diagram illustrating a state after the user moves the right hand 700 in a state where the pen tip is in contact with the display surface. Referring to FIG. 28, electronic device 100 displays character 1461 corresponding to the locus of the pen tip on layer 1402.

図29は、図28に示される場合において文字認識の処理を行った後の表示面の表示内容を示した図である。図29を参照して、電子機器100は、レイヤ1402の表示枠1421に文字認識の認識結果である文字1465を表示する。   FIG. 29 is a diagram showing the display contents on the display surface after the character recognition process is performed in the case shown in FIG. Referring to FIG. 29, electronic device 100 displays a character 1465 as a recognition result of character recognition in display frame 1421 of layer 1402.

図30は、図29に示される場合において、画像501Aのカーソル1501の表示位置に上記認識された文字を入力する指示を、電子機器100がユーザから受付けた後の状態を示した図である。図30を参照して、電子機器100は、半透明のレイヤ1402を非表示とする。電子機器100は、さらに、カーソル1501の表示位置(図27〜29参照)を先頭に、認識した文字1465を表示する。   FIG. 30 is a diagram illustrating a state after the electronic device 100 receives an instruction to input the recognized character at the display position of the cursor 1501 of the image 501A in the case illustrated in FIG. 29 from the user. Referring to FIG. 30, electronic device 100 hides translucent layer 1402. Electronic device 100 further displays recognized character 1465 with the display position of cursor 1501 (see FIGS. 27 to 29) as the head.

電子機器100は、ストローク情報である文字1461(図29参照)を、アイコン501で特定されるファイルに関連付けて記憶装置90に格納する。なお、電子機器100は、たとえば、右手700の掌およびペン先が表示面から離れたことを電子機器100が検知してから予め定められた時間が経過した後に、当該ストローク情報を格納すればよい。   Electronic device 100 stores character 1461 (see FIG. 29), which is stroke information, in storage device 90 in association with the file specified by icon 501. The electronic device 100 may store the stroke information after a predetermined time has elapsed since the electronic device 100 detects that the palm of the right hand 700 and the pen tip have left the display surface, for example. .

図31は、ユーザがスタイラスペン600のペン先と右手700の掌とを液晶パネル140の表示面に接触させる直前の状態を示した図である。図31を参照して、スタイラスペン600のペン先の位置は、オブジェクトであるアイコン531の表示位置である。このため、ペン先と掌とが表示面に接触した場合には、電子機器100は、動作モードを第3モードに設定する。   FIG. 31 is a diagram showing a state immediately before the user touches the display surface of the liquid crystal panel 140 with the pen tip of the stylus pen 600 and the palm of the right hand 700. Referring to FIG. 31, the position of the pen tip of stylus pen 600 is the display position of icon 531 which is an object. For this reason, when the pen tip and the palm contact the display surface, the electronic device 100 sets the operation mode to the third mode.

図32は、電子機器100が動作モードを第3動作モードに設定した場合における表示面の表示内容を示した図である。図32を参照して、スタイラスペン600のペン先がアイコン531の表示位置であるため、電子機器100は、アイコン531に関連するメニュー画面570を表示面に表示する。   FIG. 32 is a diagram showing display contents on the display screen when electronic device 100 sets the operation mode to the third operation mode. Referring to FIG. 32, since the pen tip of stylus pen 600 is the display position of icon 531, electronic device 100 displays menu screen 570 related to icon 531 on the display surface.

図33は、図32に示される場合において、スタイラスペン600により項目571が選択される直前の状態を示した図である。なお、項目571は、フォルダの名称を変更すること示した項目である。   FIG. 33 is a diagram showing a state immediately before the item 571 is selected by the stylus pen 600 in the case shown in FIG. Item 571 is an item indicating that the name of the folder is to be changed.

図34は、スタイラスペン600により項目571が選択された後の状態を示した図である。図34を参照して、電子機器100は、液晶パネル140において、レイヤ1401とレイヤ1402とを用いて画像を表示する。   FIG. 34 is a diagram showing a state after the item 571 is selected by the stylus pen 600. Referring to FIG. 34, electronic device 100 displays an image using liquid crystal panel 140 using layers 1401 and 1402.

図35は、図34に示される場合において、ユーザがスタイラスペンを用いて手書入力を行なった後の状態を示した図である。より詳しくは、図35は、ユーザが、ペン先を表示面に接触させた状態で右手700を動かした後の状態を示した図である。図35を参照して、電子機器100は、ペン先の軌跡に応じた文字1471をレイヤ1402に表示する。   FIG. 35 is a diagram illustrating a state after the user performs handwriting input using the stylus pen in the case illustrated in FIG. 34. More specifically, FIG. 35 is a diagram illustrating a state after the user moves the right hand 700 in a state where the pen tip is in contact with the display surface. Referring to FIG. 35, electronic device 100 displays characters 1471 corresponding to the locus of the pen tip on layer 1402.

図36は、図35に示される場合において文字認識の処理を行った後の表示面の表示内容を示した図である。図36を参照して、電子機器100は、レイヤ1402の表示枠1421に文字認識の認識結果である文字1475を表示する。   FIG. 36 is a diagram showing the display contents on the display surface after the character recognition process is performed in the case shown in FIG. Referring to FIG. 36, electronic device 100 displays a character 1475 that is a recognition result of character recognition in display frame 1421 of layer 1402.

図37は、図36に示される場合において、フォルダの名称を認識された文字に変更す
る入力する指示を電子機器100がユーザから受付けた後の状態を示した図である。図36を参照して、電子機器100は、半透明のレイヤ1402を非表示とする。電子機器100は、さらに、アイコン531で特定されるフォルダの名称を、「Fo−X」から認識した文字1475(つまり「Fo−W」)に変更する。
FIG. 37 is a diagram illustrating a state after the electronic device 100 has received an input instruction for changing the folder name to a recognized character from the user in the case illustrated in FIG. 36. Referring to FIG. 36, electronic device 100 hides translucent layer 1402. Electronic device 100 further changes the name of the folder specified by icon 531 to characters 1475 recognized from “Fo-X” (ie, “Fo-W”).

電子機器100は、ストローク情報である文字1471(図35参照)を、アイコン531で特定されるフォルダに関連付けて記憶装置90に格納する。なお、電子機器100は、たとえば、右手700の掌およびペン先が表示面から離れたことを電子機器100が検知してから予め定められた時間が経過した後に、当該ストローク情報を格納すればよい。   Electronic device 100 stores character 1471 (see FIG. 35), which is stroke information, in storage device 90 in association with the folder specified by icon 531. The electronic device 100 may store the stroke information after a predetermined time has elapsed since the electronic device 100 detects that the palm of the right hand 700 and the pen tip have left the display surface, for example. .

次に、オブジェクトに関連付けて記憶装置90に格納したストローク情報の利用態様について説明する。電子機器100が、動作モードを、再度、第3動作モードに設定した場合に、指定されたオブジェクトで特定されるファイルやフォルダに既にストローク情報が関連付けられているとき、電子機器100は以下の処理を行なう。   Next, a usage mode of the stroke information stored in the storage device 90 in association with the object will be described. When the electronic device 100 sets the operation mode to the third operation mode again and the stroke information is already associated with the file or folder specified by the specified object, the electronic device 100 performs the following processing. To do.

すなわち、メニュー画面570の中の項目571,572,573からいずれか1つの項目を選択する処理を電子機器100が受付けた場合、電子機器100は、ストローク情報を液晶パネル140の表示面に表示する。ストローク情報の表示の際、電子機器100は、2つのレイヤ1401,1402を表示するとともに、当該ストローク情報をレイヤ1402に表示することが好ましい。また、電子機器100は、表示されたストローク情報の編集を受付ける構成とすることが好ましい。また、電子機器100は、ストローク情報が生成されたときに選択された項目(たとえば図33の場合、項目571)が再度選択された場合においてのみ、電子機器100は、当該ストローク情報を液晶パネル140の表示面に表示してもよい。   That is, when electronic device 100 accepts processing for selecting any one item from items 571, 572, and 573 in menu screen 570, electronic device 100 displays stroke information on the display surface of liquid crystal panel 140. . When displaying the stroke information, the electronic device 100 preferably displays the two layers 1401 and 1402 and displays the stroke information on the layer 1402. Electronic device 100 is preferably configured to accept editing of displayed stroke information. In addition, the electronic device 100 displays the stroke information on the liquid crystal panel 140 only when the item selected when the stroke information is generated (for example, the item 571 in FIG. 33) is selected again. May be displayed on the display surface.

<電子機器100のまとめ>
(1)以上のように、記憶装置90は、第1形状を示した第1形状データと、第2形状を示した第2形状データとを格納する。検知部13は、液晶パネル140の表示面に少なくとも1つの物体が接触したことを検知する。特定部14は、上記接触が検知された場合、接触領域の形状を接触領域毎に特定する。第1判断部15は、第1形状データに基づいて、特定された各形状の中に第1形状(手の掌の2次元形状)と一致する形状が存在するか否かを判断する。第1判断部15は、さらに、第2形状データに基づいて、特定された各形状の中に第2形状(ペン先の2次元形状)と一致する形状が存在するか否かを判断する。第2形状と一致する形状が存在すると判断された場合、実行部18は、第1形状と一致する形状が存在するときと存在しないときとで異なる動作を電子機器100に実行させる。
<Summary of Electronic Device 100>
(1) As described above, the storage device 90 stores the first shape data indicating the first shape and the second shape data indicating the second shape. The detection unit 13 detects that at least one object has contacted the display surface of the liquid crystal panel 140. When the contact is detected, the specifying unit 14 specifies the shape of the contact area for each contact area. Based on the first shape data, the first determination unit 15 determines whether there is a shape that matches the first shape (two-dimensional shape of the palm of the hand) among the specified shapes. The first determination unit 15 further determines whether there is a shape that matches the second shape (two-dimensional shape of the nib) among the specified shapes based on the second shape data. When it is determined that there is a shape that matches the second shape, the execution unit 18 causes the electronic device 100 to perform different operations depending on whether or not there is a shape that matches the first shape.

したがって、ペン先が表示面に接触している場合には、手の掌が表示面に接触しているときと接触していないときとで、電子機器100は異なる動作を行なう。それゆえ、ユーザは、電子機器100の動作の切換え操作を簡単かつ確実に行なうことができる。また、電子機器100では、ユーザが手の掌を無意識に表示面に接触することがない限り、ユーザが意図しない動作の切換えが行なわれることはない。   Therefore, when the pen tip is in contact with the display surface, the electronic device 100 performs different operations depending on whether the palm of the hand is in contact with the display surface or not. Therefore, the user can easily and reliably perform the operation switching operation of the electronic device 100. Further, in electronic device 100, unless the user unintentionally touches the display surface of the palm of the hand, the operation that is not intended by the user is not switched.

(2)第1形状と一致する形状と第2形状と一致する形状とが存在すると判断された場合に、第2判断部16は、第2形状と一致する形状を有する接触領域の位置に応じて、表示面に表示されたオブジェクトを指定する入力を受付けたか否かを判断する。実行部18は、オブジェクトを指定する入力を受付けたと判断されたときと当該入力を受付けていないと判断されたときとで異なる動作を電子機器100に実行させる。   (2) When it is determined that there is a shape that matches the first shape and a shape that matches the second shape, the second determination unit 16 responds to the position of the contact region having a shape that matches the second shape. Then, it is determined whether or not an input for designating an object displayed on the display surface has been received. The execution unit 18 causes the electronic device 100 to execute different operations when it is determined that an input designating an object is received and when it is determined that the input is not received.

したがって、ユーザは、ペン先をオブジェクトの表示位置に置くことにより、オブジェクトを指定する入力を電子機器100に対して行なうことができる。また、ユーザは、ペン先をオブジェクトの表示位置に置くか、オブジェクトの表示位置以外の位置に置くかで、異なる動作を電子機器100に実行させることができる。   Therefore, the user can input to the electronic device 100 by designating the object by placing the pen tip at the object display position. Also, the user can cause the electronic device 100 to perform different operations depending on whether the pen tip is placed at the object display position or at a position other than the object display position.

(3)第1形状と一致する形状が存在しない場合、第3判断部17は、スタイラスペン600のペン先の接触位置に応じて、表示面に表示されたオブジェクトを指定する入力を受付けたか否かを判断する。オブジェクトを指定する入力を受付けたと判断された場合、実行部18は、当該オブジェクトの指定に基づく動作を電子機器100に実行させる。   (3) If there is no shape that matches the first shape, the third determination unit 17 has received an input for designating an object displayed on the display surface according to the contact position of the pen tip of the stylus pen 600. Determine whether. When it is determined that an input for designating an object has been received, the execution unit 18 causes the electronic device 100 to perform an operation based on the designation of the object.

したがって、ユーザが手の掌を表示面に接触させずに、ペン先だけを表示面に接触させた場合、ユーザは、ペン先をオブジェクトの表示位置に置くことにより、オブジェクトを指定する入力を電子機器100に対して行なうことができる。また、ユーザが、ペン先をオブジェクトの表示位置に置くことにより、ユーザは、当該オブジェクトの指定に基づく動作を電子機器100に実行させることができる。オブジェクトがファイルを示すアイコンである場合、オブジェクトの指定に基づく動作は、たとえば、当該ファイルを選択された状態とする動作である。   Therefore, when the user touches only the pen tip to the display surface without bringing the palm of the hand into contact with the display surface, the user places an input for designating the object by placing the pen tip at the object display position. This can be performed on the device 100. Further, when the user places the pen tip at the display position of the object, the user can cause the electronic device 100 to perform an operation based on the designation of the object. When the object is an icon indicating a file, the operation based on the designation of the object is, for example, an operation for setting the file to a selected state.

(4)第1形状と一致する形状と第2形状と一致する形状とが存在すると判断された場合に、オブジェクトを指定する入力を受付けていないと判断されたとき、実行部18は、表示面上におけるペン先の移動に基づく手書き入力の受付けを、電子機器100に実行させる。さらに、実行部18は、当該受付けた手書き入力に基づく画像の表示を、電子機器100に実行させる。   (4) When it is determined that there is a shape that matches the first shape and a shape that matches the second shape, when it is determined that an input for designating an object is not received, the execution unit 18 displays the display surface. The electronic device 100 is caused to accept handwriting input based on the movement of the pen tip. Further, the execution unit 18 causes the electronic device 100 to display an image based on the accepted handwritten input.

したがって、ユーザがペン先と手の掌とを表示面に接触させ、かつペン先をオブジェクトの表示位置以外の位置に置いた場合、ユーザは、手書入力を行なうことができる。また、ユーザは、手書入力の結果を視認することもできる。   Therefore, when the user brings the pen tip and the palm of the hand into contact with the display surface and places the pen tip at a position other than the display position of the object, the user can perform handwriting input. The user can also visually recognize the result of handwriting input.

(5)第1形状と一致する形状と第2形状と一致する形状とが存在すると判断された場合に、オブジェクトを指定する入力を受付けたと判断されたとき、実行部18は、表示面上におけるペン先の移動に基づく手書き入力の受付けを、電子機器100に実行させる。さらに、実行部18は、当該受付けた手書き入力に基づく画像の表示を、電子機器100に実行させる。さらに、実行部18は、当該表示された画像に基づく情報(ストローク情報)についての指定されたオブジェクトへの関連付けを、電子機器100に実行させる。   (5) When it is determined that there is a shape that matches the first shape and a shape that matches the second shape, when it is determined that an input for designating an object has been received, the execution unit 18 The electronic device 100 is caused to accept handwriting input based on the movement of the pen tip. Further, the execution unit 18 causes the electronic device 100 to display an image based on the accepted handwritten input. Furthermore, the execution unit 18 causes the electronic device 100 to execute association of the information (stroke information) based on the displayed image with the designated object.

したがって、ユーザがペン先と手の掌とを表示面に接触させ、かつペン先をオブジェクトの表示位置に置いた場合、ユーザは、手書入力を行なうことができる。また、ユーザは、手書入力の結果を視認することもできる。さらに、ユーザは、ストローク情報を当該指定されたオブジェクトに関連付けて電子機器100の記憶装置90に記憶させることもできる。   Therefore, when the user brings the pen tip and the palm of the hand into contact with the display surface and places the pen tip at the display position of the object, the user can perform handwriting input. The user can also visually recognize the result of handwriting input. Further, the user can store the stroke information in the storage device 90 of the electronic device 100 in association with the designated object.

文字認識部32は、受付けた手書入力を文字認識する。オブジェクトがファイルを示すアイコンである場合に、当該ファイルを開く指示を電子機器100が受付けると、実行部18は、ファイルを開く処理を電子機器100に実行させる。さらに、実行部18は、当該開いたファイルの入力領域に対する認識された文字の入力処理を、電子機器100に実行させる。したがって、電子機器100がファイルを開いた後、ユーザは、手書入力を行なうことにより、上記ファイルの入力領域に対して、手書入力の認識結果である文字を入力することができる。   The character recognition unit 32 recognizes the received handwritten input. When the electronic device 100 receives an instruction to open the file when the object is an icon indicating a file, the execution unit 18 causes the electronic device 100 to execute a process to open the file. Further, the execution unit 18 causes the electronic device 100 to execute the recognized character input process for the input area of the opened file. Therefore, after the electronic device 100 opens the file, the user can input a character, which is a recognition result of the handwriting input, in the input area of the file by performing handwriting input.

オブジェクトがファイルを示すアイコンまたはフォルダを示すアイコンである場合に、
当該オブジェクトの名称を変更する指示を電子機器100が受付けると、実行部18は、当該オブジェクトの名称を上記認識された文字を用いて変更する処理を電子機器100に実行させる。したがって、オブジェクトの名称を変更する指示を電子機器100が受付けた場合、ユーザは、手書入力を行なうことにより、オブジェクトの名称を上記認識された文字を用いて変更することができる。
If the object is an icon indicating a file or an icon indicating a folder,
When the electronic device 100 receives an instruction to change the name of the object, the execution unit 18 causes the electronic device 100 to execute a process of changing the name of the object using the recognized character. Therefore, when electronic device 100 accepts an instruction to change the name of the object, the user can change the name of the object using the recognized character by performing handwriting input.

ペン先の接触位置がオブジェクトが表示された位置であるとき、第2判断部16は、当該オブジェクトを指定する入力を受付けたと判断する。したがって、ユーザが、手の掌を表示面に接触するとともに、ペン先をオブジェクトの表示位置に置くことにより、オブジェクトを指定する入力を電子機器100に対して行なうことができる。   When the contact position of the pen tip is the position where the object is displayed, the second determination unit 16 determines that an input specifying the object has been received. Therefore, the user can input to the electronic device 100 by designating the object by bringing the palm of the hand into contact with the display surface and placing the pen tip at the object display position.

<電子機器100の変形例>
(1)上記においては、ユーザは、オブジェクトの指定を、スタイラスペン600のペン先で行なった。しかしながら、オブジェクトの指定方法は、ペン先を用いる方法に限定されない。たとえば、電子機器100を、以下のような、ユーザの指先等の他の物体によってオブジェクトの指定を行える構成にに変更してもよい。
<Modification of Electronic Device 100>
(1) In the above, the user specified an object with the pen tip of the stylus pen 600. However, the object designation method is not limited to the method using the pen tip. For example, the electronic device 100 may be changed to a configuration in which an object can be specified by another object such as a user's fingertip as described below.

電子機器100は、スタイラスペン600のペン先と右手700の掌とが表示面に接触したことを検知した後、予め定められた時間内に、他の物体によるオブジェクトの指定を受付けたか否かを判断する。電子機器100が予め定められた時間内にオブジェクトの指定を受付けた場合、電子機器100は、動作モードを第3動作モードに設定する。なお、電子機器100が予め定められた時間内にオブジェクトの指定を受付けていない場合、電子機器100は、動作モードを第2動作モードに設定する。   After detecting that the tip of the stylus pen 600 and the palm of the right hand 700 are in contact with the display surface, the electronic device 100 determines whether or not an object designation by another object has been received within a predetermined time. to decide. When the electronic device 100 accepts an object specification within a predetermined time, the electronic device 100 sets the operation mode to the third operation mode. Note that if the electronic device 100 has not received an object designation within a predetermined time, the electronic device 100 sets the operation mode to the second operation mode.

図38は、スタイラスペン600のペン先と右手700の掌とを表示面に接触させた後、上記他の物体である左手701の指先でアイコン531を指定する直前の状態を示した図である。図38に示す状態においてユーザが左手701の指先をアイコン531が表示された位置に接触させた場合、電子機器100は、表示面の表示内容を図32の状態に遷移する。   FIG. 38 is a diagram showing a state immediately before the icon 531 is designated with the fingertip of the left hand 701 as the other object after the pen tip of the stylus pen 600 and the palm of the right hand 700 are brought into contact with the display surface. . In the state shown in FIG. 38, when the user touches the fingertip of the left hand 701 with the position where the icon 531 is displayed, the electronic device 100 changes the display content on the display surface to the state shown in FIG.

このように、電子機器100を指などの物体によりオブジェクトを指定可能な構成とすることにより、ユーザは、ペン先をオブジェクトの位置におく必要がなくなる。なお、スタイラスペン600のペン先および上記他の物体のいずれでもオブジェクトの指定が行なえるように、電子機器100の構成を変更してもよい。   In this way, by configuring the electronic device 100 so that an object can be specified by an object such as a finger, the user does not need to place the pen tip at the position of the object. It should be noted that the configuration of electronic device 100 may be changed so that the object can be specified using any of the pen tip of stylus pen 600 and the other object.

(2)上記においては、電子機器100が、特定した形状の中にペン先形状と一致する形状が存在するかを判断し、さらに、特定された形状の中に手の掌の形状と一致する形状が存在するか否かを判断する構成を説明した。しかしながら、当該構成に限定されず、電子機器100の構成を、たとえば以下のようにしてもよい。   (2) In the above, the electronic device 100 determines whether a shape that matches the pen tip shape exists in the specified shape, and further matches the shape of the palm of the hand in the specified shape. The configuration for determining whether or not a shape exists has been described. However, the present invention is not limited to this configuration, and the configuration of the electronic device 100 may be as follows, for example.

電子機器100は、特定した形状の中にペン先形状と一致する形状が存在するかを判断することなく、特定した形状の中に手の掌の形状と一致する形状が存在するか否かを判断する。電子機器100の実行部18は、手の掌の形状と一致する形状が存在する場合と存在しない場合とで異なる動作を電子機器100に実行させる。   The electronic device 100 determines whether or not there is a shape that matches the shape of the palm of the hand in the specified shape without determining whether or not the shape that matches the pen tip shape exists in the specified shape. to decide. The execution unit 18 of the electronic device 100 causes the electronic device 100 to perform different operations depending on whether or not there is a shape that matches the shape of the palm of the hand.

したがって、手の掌が表示面に接触しているときと接触していないときとで、電子機器100は異なる動作を行なう。それゆえ、ユーザは、電子機器100の動作の切換え操作を簡単かつ確実に行なうことができる。また、電子機器100では、ユーザが手の掌を無意識に表示面に接触することがない限り、ユーザが意図しない動作の切換えが行なわれることはない。   Therefore, electronic device 100 performs different operations depending on whether the palm of the hand is in contact with the display surface or not. Therefore, the user can easily and reliably perform the operation switching operation of the electronic device 100. Further, in electronic device 100, unless the user unintentionally touches the display surface of the palm of the hand, the operation that is not intended by the user is not switched.

なお、当該異なる動作とは、第1形状と一致する形状が存在するか否かを判断した後におけるペン先による電子機器100への入力を第1指令として処理する動作と、当該入力を第2指令として処理する動作とである。   The different operations include an operation for processing an input to the electronic device 100 by the pen tip after determining whether or not a shape that matches the first shape exists as a first command, and a second input for the second operation. It is an operation to process as a command.

(3)上記においては、ユーザがスタイラスペン600を用いて手書入力を行なうことを考慮して、第1形状を小指球付近の形状とした場合を例に挙げて説明した。しかしながら、第1形状は小指球付近の形状に限定されるものではない。たとえば、第1形状を手の掌の手首付近の形状としてもよい。このように第1形状を手首付近の形状とした場合、指先(たとえば人先指の指先)で手書入力を行なう際に好適である。また、第1形状は手の掌の形状に限定されず、たとえば、手の甲の形状であってもよい。さらに、第1形状は、手の一部の形状に限定されず、他の物体の形状であってもよい。また、第2形状も、スタイラスペン600のペン先の形状や指先の形状に限定されるものではない。第2形状は、第1形状と異なる形状であればよい。   (3) In the above, taking into account that the user performs handwriting input using the stylus pen 600, the case where the first shape is a shape near the little finger ball has been described as an example. However, the first shape is not limited to the shape near the little ball. For example, the first shape may be a shape near the wrist of the palm of the hand. Thus, when the first shape is a shape near the wrist, it is suitable for handwriting input with a fingertip (for example, the fingertip of a forefinger). The first shape is not limited to the shape of the palm of the hand, and may be the shape of the back of the hand, for example. Furthermore, the first shape is not limited to the shape of a part of the hand, and may be the shape of another object. Also, the second shape is not limited to the shape of the pen tip of the stylus pen 600 or the shape of the fingertip. The second shape may be any shape different from the first shape.

(4)電子機器100は、液晶パネル140,240を用いて2つの物体を別々にスキャンすることにより、第1形状データと第2形状データとを記憶装置90に登録可能であることが好ましい。これによれば、ユーザの利用形態に応じた構成に電子機器100をカスタマイズできる。   (4) It is preferable that the electronic device 100 can register the first shape data and the second shape data in the storage device 90 by separately scanning two objects using the liquid crystal panels 140 and 240. According to this, the electronic device 100 can be customized to a configuration according to the user's usage mode.

(5)電子機器100は、2つの液晶パネル140,240を備えるが、上述した具体的な実現例においては、電子機器100が少なくとも1つの液晶パネルを備えていればよい。また、第1の筐体100Aは、光センサを内蔵した液晶パネル140の代わりに、多点入力が可能なタッチパネルを備えてもよい。   (5) The electronic device 100 includes the two liquid crystal panels 140 and 240. However, in the specific implementation example described above, the electronic device 100 only needs to include at least one liquid crystal panel. In addition, the first housing 100A may include a touch panel capable of multipoint input instead of the liquid crystal panel 140 with a built-in optical sensor.

(6)今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   (6) The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

10 制御部、11 表示制御部、12 スキャン部、13 検知部、14 特定部、15 第1判断部、16 第2判断部、17 第3判断部、18 実行部、21 選択処理部、31 手書入力受付部、32 文字認識部、41 文字入力処理部、42 関連付部、90 記憶装置、100 電子機器、140 光センサ内蔵液晶パネル、600 スタイラスペン、700 右手、701 左手、900 指。   DESCRIPTION OF SYMBOLS 10 Control part, 11 Display control part, 12 Scan part, 13 Detection part, 14 Identification part, 15 1st judgment part, 16 2nd judgment part, 17 3rd judgment part, 18 Execution part, 21 Selection processing part, 31 hand Document input receiving unit, 32 character recognition unit, 41 character input processing unit, 42 association unit, 90 storage device, 100 electronic device, 140 liquid crystal panel with built-in optical sensor, 600 stylus pen, 700 right hand, 701 left hand, 900 fingers.

Claims (13)

タッチパネルを備えた電子機器であって、
第1形状を示した第1形状データと、第2形状を示した第2形状データとを格納する記憶装置と、
前記タッチパネルの表示面に少なくとも1つの物体が接触したことを検知する検知手段と、
前記検知に基づき、接触領域の形状を接触領域毎に特定する特定手段と、
前記第1形状データに基づいて、前記特定された各形状の中に前記第1形状と一致する形状が存在するか否かを判断するとともに、前記第2形状データに基づいて、前記特定された各形状の中に前記第2形状と一致する形状が存在するか否かを判断する第1判断手段と、
前記第2形状と一致する形状が存在し、前記第1形状と一致する形状が存在しない場合には、第1の動作を前記電子機器に実行させ、前記第2形状と一致する形状と前記第1形状と一致する形状とが存在する場合には、前記第1の動作を前記電子機器に実行させることなく前記第1の動作と異なる第2の動作を前記電子機器に実行させる実行手段とを備える、電子機器。
An electronic device equipped with a touch panel,
A storage device for storing first shape data indicating a first shape and second shape data indicating a second shape;
Detecting means for detecting that at least one object is in contact with the display surface of the touch panel;
Based on the detection, a specifying means for specifying the shape of the contact area for each contact area;
Based on the first shape data, it is determined whether there is a shape that matches the first shape among the identified shapes, and the specified shape is determined based on the second shape data. First determination means for determining whether or not a shape that matches the second shape exists in each shape;
If there is a shape that matches the second shape and there is no shape that matches the first shape, the electronic device is caused to execute a first operation, and the shape that matches the second shape and the first shape Execution means for causing the electronic device to execute a second operation different from the first operation without causing the electronic device to execute the first operation when there is a shape that matches one shape; Electronic equipment provided.
前記電子機器は、前記第1形状と一致する形状と前記第2形状と一致する形状とが存在すると判断されたことに基づき、前記第2形状と一致する形状を有する接触領域の位置に応じて、前記表示面に表示されたオブジェクトを指定する入力を受付けたか否かを判断する第2判断手段をさらに備え、
前記実行手段は、前記オブジェクトを指定する入力を受付けたと判断されたときと当該入力を受付けていないと判断されたときとで異なる動作を前記電子機器に実行させる、請求項1に記載の電子機器。
Based on the determination that the electronic device has a shape that matches the first shape and a shape that matches the second shape, according to the position of the contact region that has the shape that matches the second shape. , Further comprising second determination means for determining whether or not an input designating an object displayed on the display surface has been received,
The electronic device according to claim 1, wherein the execution unit causes the electronic device to perform different operations when it is determined that an input designating the object is received and when it is determined that the input is not received. .
前記第2形状と一致する形状を有する接触領域は、第1の物体が前記表示面に接触することによって形成され、
前記電子機器は、前記第1形状と一致する形状が存在しないことに基づき、前記第1の物体の接触位置に応じて、前記表示面に表示されたオブジェクトを指定する入力を受付けたか否かを判断する第3判断手段をさらに備え、
前記オブジェクトを指定する入力を受付けたと判断された場合、前記実行手段は、前記オブジェクトの指定に基づく動作を前記電子機器に実行させる、請求項2に記載の電子機器。
A contact region having a shape that matches the second shape is formed when the first object contacts the display surface;
Whether the electronic device has received an input for designating an object displayed on the display surface according to a contact position of the first object, based on the absence of a shape that matches the first shape. A third judging means for judging,
The electronic device according to claim 2, wherein when it is determined that an input specifying the object is received, the execution unit causes the electronic device to execute an operation based on the specification of the object.
前記オブジェクトはファイルを示すアイコンであり、
前記オブジェクトの指定に基づく動作は、前記ファイルを選択された状態とする動作である、請求項3に記載の電子機器。
The object is an icon indicating a file,
The electronic device according to claim 3, wherein the operation based on the designation of the object is an operation for setting the file in a selected state.
前記第2形状と一致する形状を有する接触領域は、第1の物体が前記表示面に接触することによって形成され、
前記オブジェクトを指定する入力を受付けていないと判断されたとき、前記実行手段は、前記表示面上における前記第1の物体の移動に基づく手書き入力の受付けと、当該受付けた手書き入力に基づく画像の表示とを、前記電子機器に実行させる、請求項2に記載の電子機器。
A contact region having a shape that matches the second shape is formed when the first object contacts the display surface;
When it is determined that the input designating the object is not accepted, the execution means accepts the handwritten input based on the movement of the first object on the display surface and the image based on the accepted handwritten input. The electronic device according to claim 2, wherein display is executed by the electronic device.
前記第2形状と一致する形状を有する接触領域は、第1の物体が前記表示面に接触することによって形成され、
前記オブジェクトを指定する入力を受付けたと判断された場合、前記実行手段は、
前記表示面上における前記第1の物体の移動に基づく手書き入力の受付けと、
前記受付けた手書き入力に基づく画像の表示と、
前記表示された画像に基づく情報についての前記指定されたオブジェクトへの関連付けとを、前記電子機器に実行させる、請求項2に記載の電子機器。
A contact region having a shape that matches the second shape is formed when the first object contacts the display surface;
If it is determined that an input designating the object is received, the execution means
Accepting handwriting input based on movement of the first object on the display surface;
Displaying an image based on the accepted handwritten input;
The electronic device according to claim 2, wherein the electronic device is caused to execute association of the information based on the displayed image with the designated object.
前記電子機器は、前記受付けた手書入力を文字認識する認識手段をさらに備え、
前記オブジェクトがファイルを示すアイコンである場合に、当該ファイルを開く指示を前記電子機器が受付けると、前記実行手段は、
前記ファイルを開く処理と、
前記開いたファイルの入力領域に対する前記認識された文字の入力処理とを、前記電子機器に実行させる、請求項6に記載の電子機器。
The electronic device further comprises a recognition means for recognizing the accepted handwritten input,
When the electronic device receives an instruction to open the file when the object is an icon indicating a file, the execution means
Opening the file;
The electronic device according to claim 6, wherein the electronic device causes the electronic device to execute the recognized character input process on the input area of the opened file.
前記電子機器は、前記受付けた手書入力を文字認識する認識手段をさらに備え、
前記オブジェクトがファイルを示すアイコンまたはフォルダを示すアイコンである場合に、当該オブジェクトの名称を変更する指示を前記電子機器が受付けると、前記実行手段は、前記オブジェクトの名称を前記認識された文字を用いて変更する処理を前記電子機器に実行させる、請求項6に記載の電子機器。
The electronic device further comprises a recognition means for recognizing the accepted handwritten input,
When the electronic device accepts an instruction to change the name of the object when the object is an icon indicating a file or an icon indicating a folder, the execution means uses the recognized character as the name of the object. The electronic device according to claim 6, wherein the electronic device causes the electronic device to execute processing to be changed.
前記第1の物体の接触位置が前記オブジェクトが表示された位置であるとき、前記第2判断手段は、当該オブジェクトを指定する入力を受付けたと判断する、請求項6から8のいずれか1項に記載の電子機器。   9. The method according to claim 6, wherein when the contact position of the first object is a position where the object is displayed, the second determination unit determines that an input designating the object is received. The electronic device described. 前記第1形状と一致する形状を有する接触領域は、第2の物体が前記表示面に接触することによって形成され、
前記第1の物体はスタイラスペンまたは指であり、前記第2の物体は手の掌である、請求項3から9のいずれか1項に記載の電子機器。
A contact region having a shape that matches the first shape is formed by a second object contacting the display surface;
The electronic device according to claim 3, wherein the first object is a stylus pen or a finger, and the second object is a palm of a hand.
前記タッチパネルは、前記表示面に沿って内蔵された複数の光センサを含む、請求項1から10のいずれか1項に記載の電子機器。   The electronic device according to any one of claims 1 to 10, wherein the touch panel includes a plurality of photosensors built in along the display surface. タッチパネルを備えた電子機器における表示制御方法であって、
前記タッチパネルの表示面に少なくとも1つの物体が接触したことを検知するステップと、
前記接触が検知された場合、接触領域の形状を接触領域毎に特定するステップと、
第1形状を示す第1形状データに基づいて、前記特定した各形状の中に前記第1形状と一致する形状が存在するか否かを判断するステップと、
第2形状を示す第2形状データに基づいて、前記特定した各形状の中に前記第2形状と一致する形状が存在するか否かを判断するステップと、
前記第2形状と一致する形状が存在し、前記第1形状と一致する形状が存在しない場合には、第1の動作を前記電子機器に実行させ、前記第2形状と一致する形状と前記第1形状と一致する形状とが存在する場合には、前記第1の動作を前記電子機器に実行させることなく前記第1の動作と異なる第2の動作を前記電子機器に実行させるステップとを備える、表示制御方法。
A display control method in an electronic device including a touch panel,
Detecting that at least one object is in contact with the display surface of the touch panel;
If the contact is detected, identifying the shape of the contact area for each contact area;
Determining whether or not there is a shape that matches the first shape among the identified shapes based on first shape data indicating the first shape;
Determining whether there is a shape that matches the second shape among the identified shapes based on second shape data indicating the second shape;
If there is a shape that matches the second shape and there is no shape that matches the first shape, the electronic device is caused to execute a first operation, and the shape that matches the second shape and the first shape And a step of causing the electronic device to execute a second operation different from the first operation without causing the electronic device to execute the first operation when there is a shape that matches one shape. , Display control method.
タッチパネルを含んだ電子機器を制御するプログラムであって、
前記プログラムは、前記電子機器に、
前記タッチパネルの表示面に少なくとも1つの物体が接触したことを検知するステップと、
前記接触が検知された場合、接触領域の形状を接触領域毎に特定するステップと、
第1形状を示す第1形状データに基づいて、前記特定した各形状の中に前記第1形状と一致する形状が存在するか否かを判断するステップと、
第2形状を示す第2形状データに基づいて、前記特定した各形状の中に前記第2形状と一致する形状が存在するか否かを判断するステップと、
前記第2形状と一致する形状が存在し、前記第1形状と一致する形状が存在しない場合には、第1の動作を前記電子機器に実行させ、前記第2形状と一致する形状と前記第1形状と一致する形状とが存在する場合には、前記第1の動作を前記電子機器に実行させることなく前記第1の動作と異なる第2の動作を前記電子機器に実行させるステップとを実行させる、プログラム。
A program for controlling an electronic device including a touch panel,
The program is stored in the electronic device.
Detecting that at least one object is in contact with the display surface of the touch panel;
If the contact is detected, identifying the shape of the contact area for each contact area;
Determining whether or not there is a shape that matches the first shape among the identified shapes based on first shape data indicating the first shape;
Determining whether there is a shape that matches the second shape among the identified shapes based on second shape data indicating the second shape;
If there is a shape that matches the second shape and there is no shape that matches the first shape, the electronic device is caused to execute a first operation, and the shape that matches the second shape and the first shape When there is a shape that matches one shape, the step of causing the electronic device to execute a second operation different from the first operation without causing the electronic device to execute the first operation. Let the program.
JP2009064577A 2009-03-17 2009-03-17 Electronic device, display control method, and program Expired - Fee Related JP5380729B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009064577A JP5380729B2 (en) 2009-03-17 2009-03-17 Electronic device, display control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009064577A JP5380729B2 (en) 2009-03-17 2009-03-17 Electronic device, display control method, and program

Publications (2)

Publication Number Publication Date
JP2010218241A JP2010218241A (en) 2010-09-30
JP5380729B2 true JP5380729B2 (en) 2014-01-08

Family

ID=42977023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009064577A Expired - Fee Related JP5380729B2 (en) 2009-03-17 2009-03-17 Electronic device, display control method, and program

Country Status (1)

Country Link
JP (1) JP5380729B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5565320B2 (en) * 2011-01-06 2014-08-06 富士通株式会社 Information processing apparatus and information processing program
JP2014021927A (en) * 2012-07-23 2014-02-03 Sharp Corp Electronic apparatus, program and recording medium
US20140267104A1 (en) * 2013-03-18 2014-09-18 Qualcomm Incorporated Optimized adaptive thresholding for touch sensing

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06180624A (en) * 1992-12-11 1994-06-28 Toshiba Corp Data processor having pen device and keyboard check designating method
JP2000029586A (en) * 1998-07-08 2000-01-28 Sharp Corp Handwriting input device
JP3758866B2 (en) * 1998-12-01 2006-03-22 富士ゼロックス株式会社 Coordinate input device
JP2006331400A (en) * 2005-04-28 2006-12-07 Semiconductor Energy Lab Co Ltd Image editing method
JP2008257454A (en) * 2007-04-04 2008-10-23 Toshiba Matsushita Display Technology Co Ltd Display device, image data processing method and image data processing program

Also Published As

Publication number Publication date
JP2010218241A (en) 2010-09-30

Similar Documents

Publication Publication Date Title
JP5540344B2 (en) Electronic device, menu selection method, menu selection program
JP5278948B2 (en) Object display device, object display method, and object display program
JP5240773B2 (en) Information processing apparatus, information processing method, and information processing program
US20110205178A1 (en) Electronic device having two display devices, method of controlling the same, and recording medium
JP2010134625A (en) Electronic apparatus, display control method and program
JP5322163B2 (en) Display device, display method, and display program
JP2011008424A (en) Electronic device, operation mode setting method, and program
JP5303785B2 (en) Display device, display method, and display program
JP5344555B2 (en) Object display device, object display method, and object display program
JP5126895B2 (en) Electronic device and display control method
JP5707029B2 (en) Electronic device, electronic device control method, and electronic device control program
JP5526400B2 (en) Electronic device, information processing system, electronic device control method, and electronic device control program
JP5334171B2 (en) Electronic device and display control method
JP5380729B2 (en) Electronic device, display control method, and program
JP5617120B2 (en) Electronic device, display control method, and program
JP5110594B2 (en) Information processing apparatus, information processing method, and information processing program
JP2010134699A (en) Input device, input method and input program
JP2010204729A (en) Text display device, method, and program
JP5289889B2 (en) Display device, display device control method, and program for controlling display device
JP5257892B2 (en) Electronic device, screen switching method and screen switching program
WO2010103888A1 (en) Content display device, content display method, and computer-readable recording medium on which content display program is recorded
JP2011008425A (en) Electronic device, operation mode setting method, and program
JP2010108373A (en) Electronic apparatus, application program, information processing terminal, and its control program
JP5172641B2 (en) Electronic device, information processing method, and information processing program
JP2010117768A (en) Electronic device, its control method, and its control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130912

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees