WO2010103888A1 - Content display device, content display method, and computer-readable recording medium on which content display program is recorded - Google Patents

Content display device, content display method, and computer-readable recording medium on which content display program is recorded Download PDF

Info

Publication number
WO2010103888A1
WO2010103888A1 PCT/JP2010/052059 JP2010052059W WO2010103888A1 WO 2010103888 A1 WO2010103888 A1 WO 2010103888A1 JP 2010052059 W JP2010052059 W JP 2010052059W WO 2010103888 A1 WO2010103888 A1 WO 2010103888A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
content
command
image
display panel
Prior art date
Application number
PCT/JP2010/052059
Other languages
French (fr)
Japanese (ja)
Inventor
一浩 三木
雅也 中村
真一 北林
浩 福富
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2010103888A1 publication Critical patent/WO2010103888A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Definitions

  • the present invention relates to a content display device that displays content such as text and images, a content display method, and a computer-readable recording medium that records a content display program, and in particular, intuitively conveys the progress of content to a user.
  • the present invention relates to a content display device capable of performing the above, a content display method, and a computer-readable recording medium for recording a content display program.
  • Content display devices that can display (reproduce) text, images, and the like are known.
  • Some such content display devices have a display panel and an operation panel. More specifically, the content display device displays text and images to the user via the display panel, and accepts various commands from the user via an operation panel equipped with a tablet function and the like. Examples of such content display devices include notebook personal computers and mobile phones.
  • Patent Document 1 discloses an electronic book that can be realized by a user-friendly human interface for operation input such as page turning.
  • an electronic book can output information to which a page number is assigned as image information on a page basis to a display unit.
  • the electronic book has a finger input detection unit that detects the contact pressure, contact area, and contact position of the finger that has contacted the display unit, and the page based on the detected finger contact pressure, contact area, contact position, and finger movement direction.
  • Finger input determination unit that determines turning input, continuous page turning input, bookmark insertion, bookmark insertion location reference input, etc.
  • page image update control unit that performs page image update control
  • bookmark processing that performs bookmark insertion and reference processing
  • an image generation unit that generates an image to be displayed on the display unit.
  • the user intuitively recognizes the processing performed by the content display device and the operation to be performed by the user on the content display device. Preferably it can be done.
  • the content display device can make the user recognize that the book has advanced to the next page by displaying a moving image in which the page of the book being browsed is turned.
  • the content display apparatus needs to perform complicated image processing in order to display a moving image that advances the book being browsed to the next page. That is, there is a problem that the content display device needs to perform many calculations in order to make the user intuitively recognize the progress state of the content.
  • the present invention has been made to solve such a problem, and an object of the present invention is to provide a content display device, a content display method, and a content that allow a user to intuitively recognize the progress state of the content through simple processing.
  • a computer-readable recording medium for recording a display program is provided.
  • a content display device includes a first and second display area, a memory for storing at least one content and at least one image group, and a reception unit for receiving one of the first and second instructions.
  • the display target area of the content is displayed via the first display area, the display target area of the content is advanced when the first command is received, and the display target area of the content is received when the second command is received.
  • a first display control unit for returning the first effect, and when the first command is received, the first effect is output via the second display area based on at least one image group, and the second command is output
  • a second display control unit for outputting the second effect via the second display area based on at least one image group when received.
  • the second display control unit when the second display control unit receives the first command, the second display control unit outputs the first effect by causing the second display area to display at least one image group in the first order.
  • the second effect is output by displaying any one of the at least one image group in the second display area in the second order opposite to the first order. .
  • the at least one image group includes a first image group and a second image group.
  • the second display control unit When receiving the first command, the second display control unit outputs the first effect by sequentially displaying the first image group in the second display area, and receives the second command. Sometimes, the second effect is output by sequentially displaying the second image group in the second display area.
  • the content display device further includes a touch panel including a second display area.
  • the accepting unit accepts either the first command or the second command based on a touch operation on the second display area.
  • the content display device further includes a display including a first display area.
  • the touch panel includes a first display area.
  • the memory stores each of the plurality of image groups in association with the attribute, and stores each of the plurality of contents in association with the attribute.
  • the second display control unit displays an image group corresponding to the content displayed in the first display area in the second display area.
  • the memory stores a plurality of contents as a series of content groups.
  • the first display control unit refers to a series of content groups and displays each content based on a corresponding attribute.
  • content is displayed on a computer including an arithmetic processing unit, first and second display areas, and a memory for storing at least one content and at least one image group.
  • a computer-readable recording medium for recording a content display program is provided.
  • the content display program receives the first instruction and the step of receiving one of the first and second instructions in the arithmetic processing unit, the step of displaying the display target area of the content via the first display area, and the first instruction.
  • the step of outputting the first effect includes a step of displaying at least one of the image groups in the second display area in the first order.
  • the step of outputting the second effect includes a step of displaying any one of the at least one image group in the second display area in a second order opposite to the first order.
  • the at least one image group includes a first image group and a second image group.
  • the step of outputting the first effect includes a step of sequentially displaying the first image group in the second display area.
  • the step of outputting the second effect includes a step of sequentially displaying the second image group in the second display area.
  • the computer further includes a touch panel including a second display area.
  • the step of accepting either the first or second command includes the step of accepting either the first or second command based on a touch operation on the second display area.
  • the computer further includes a display including the first display area.
  • the touch panel includes a first display area.
  • the memory stores each of the plurality of image groups in association with the attribute, and stores each of the plurality of contents in association with the attribute.
  • the step of outputting the first effect includes a step of displaying an image group corresponding to the content displayed in the first display area in the second display area.
  • the step of outputting the second effect includes a step of displaying an image group corresponding to the content displayed in the first display area in the second display area.
  • the memory stores a plurality of contents as a series of content groups.
  • the step of displaying the display target area includes a step of displaying each of the contents in the first display area based on a corresponding attribute with reference to a series of content groups.
  • a content display method in a computer including an arithmetic processing unit, first and second display areas, and a memory for storing at least one content and at least one image group.
  • the content display method includes: a step in which the arithmetic processing unit accepts one of the first and second instructions; a step in which the arithmetic processing unit displays a content display target area via the first display area; A step in which the processing unit advances the content display target area when receiving the first command; a step in which the arithmetic processing unit returns the content display target area when receiving the second command;
  • the first instruction is received, the step of outputting the first effect via the second display area based on at least one image group, and the arithmetic processing unit receives the second instruction And outputting a second effect via the second display area based on at least one image group.
  • a content display device As described above, according to the present invention, there is provided a content display device, a content display method, and a computer-readable recording medium for recording a content display program that allow a user to intuitively recognize the progress state of content by simple processing. Provided.
  • FIG. 10 is a diagram for explaining a command of type “001”. It is a figure for demonstrating the command of classification "010”.
  • FIG. 10 is a diagram for explaining a command of type “011”. It is a figure for demonstrating the command of classification "100”.
  • FIG. 10 is a diagram for explaining a command of type “101”. It is the figure which showed schematic structure of the response data. It is the figure which showed the image (scanned image) obtained by scanning a finger
  • FIG. 1 is a first image diagram showing electronic device 100 at the time of page switching processing according to the present embodiment. More specifically, FIG. 1A is an image diagram of the electronic device 100 in a state where the first display panel 140 (display) displays the third page of text in horizontal writing.
  • FIG. 1B is an image diagram of the electronic device 100 when a right touch operation is input to the second display panel 240 (touch panel).
  • FIG. 1C is an image diagram of the electronic device 100 in a state where the text is returned by one page.
  • FIG. 1D is an image diagram of the electronic device 100 when a left touch operation is input to the second display panel 240.
  • FIG. 1E is an image diagram of the electronic device 100 in a state where the text is advanced by one page.
  • electronic device 100 includes a first housing 100A and a second housing 100B.
  • the first casing 100A and the second casing 100B are foldably connected by a hinge 100C.
  • the first housing 100A includes a first photosensor built-in liquid crystal panel 140 (hereinafter also referred to as a first display panel 140).
  • Second housing 100B includes an operation key and a second liquid crystal panel 240 with a built-in photosensor (hereinafter also referred to as second display panel 240).
  • the electronic device 100 includes two liquid crystal panels with a built-in optical sensor.
  • the electronic device 100 is a portable device having a display function, such as a PDA (Personal Digital Assistant), a notebook personal computer, a portable phone, and an electronic dictionary.
  • PDA Personal Digital Assistant
  • Electronic device 100 displays content such as text and images using first display panel 140, and also allows an operation from the user via operation keys 177 and second display panel 240. Accept instructions.
  • the second display panel 240 receives a command for moving a pointer displayed on the first display panel 140 and a command for controlling display of content displayed on the first display panel 140.
  • the first display panel 140 does not need to be a photosensor built-in liquid crystal panel except for a modified example (see FIG. 50) described later, and may be a display capable of displaying content. That's fine.
  • the 2nd display panel 240 since the 2nd display panel 240 needs to be able to detect the touch operation by a user except the modification (refer FIG. 50) mentioned later, a touch panel which has a tablet function, A liquid crystal panel with a built-in optical sensor is preferable.
  • FIG. 2 is a first image diagram showing the second display panel 240 during the page switching process according to the present embodiment.
  • FIG. 3 is a second image diagram showing the second display panel during the page switching process according to the present embodiment.
  • the case where electronic device 100 displays text in horizontal writing will be described.
  • electronic device 100 causes first page of text to be displayed horizontally on first display panel 140. More specifically, the electronic device 100 accepts an operation from the user and causes the first display panel 140 to display a page desired by the user. Electronic device 100 accepts a page switching command from the user via second display panel 240.
  • electronic device 100 accepts a touch operation in the right direction from the user via second display panel 240. That is, the user slides the finger 900 rightward in a state where the finger 900 or the like is in contact with the second display panel 240. More specifically, electronic device 100 receives a touch operation in the right direction by detecting a contact position between second display panel 240 and finger 900.
  • electronic device 100 causes second page of text to be displayed on first display panel 140. That is, when displaying the text in horizontal writing, electronic device 100 returns the page of the displayed text to the front in response to a touch operation in the right direction.
  • the electronic device 100 according to the present embodiment is configured to perform the second processing based on the effect image data for books stored in advance in a RAM or the like. Are displayed in the first order on the display panel 240.
  • electronic device 100 accepts a leftward touch operation from the user via second display panel 240. That is, the user slides the finger 900 leftward with the finger 900 or the like being in contact with the second display panel 240. More specifically, electronic device 100 receives a touch operation in the left direction by detecting a contact position between second display panel 240 and finger 900.
  • electronic device 100 causes first display panel 140 to display the fourth page of text. That is, when displaying text in horizontal writing, electronic device 100 advances the page of the displayed text first in response to a touch operation in the left direction. At this time, as shown in FIGS. 3A to 3H, the electronic device 100 according to the present embodiment performs the second processing based on the effect image data for books stored in advance in a RAM or the like. On the display panel 240, the effect image for turning the book is displayed in the reverse order (second order) of the first order.
  • FIG. 4 is an image diagram showing electronic device 100 at the time of row switching processing according to the present embodiment. More specifically, FIG. 4A is an image diagram of the electronic device 100 in a state where the first display panel 140 displays the third page of text in horizontal writing.
  • FIG. 4B is an image diagram of the electronic device 100 when a downward touch operation is input to the second display panel 240.
  • FIG. 4C is an image diagram of the electronic device 100 in a state where the text is returned by one line.
  • FIG. 4D is an image diagram of the electronic device 100 when an upward touch operation is input to the second display panel 240.
  • FIG. 4E is an image diagram of the electronic device 100 in a state where the text is advanced by one line.
  • FIG. 5 is a first image diagram showing the second display panel 240 during the row switching process according to the present embodiment.
  • FIG. 6 is a second image diagram showing the second display panel during the row switching process according to the present embodiment.
  • electronic device 100 causes first display panel 140 to display the third page of text in horizontal writing. More specifically, the electronic device 100 accepts an operation from the user and causes the first display panel 140 to display a page desired by the user. Electronic device 100 accepts a page switching command from the user via second display panel 240.
  • electronic device 100 accepts a downward touch operation from the user via second display panel 240. That is, the user slides the finger 900 downward with the finger 900 or the like being in contact with the second display panel 240. More specifically, electronic device 100 accepts a downward touch operation by detecting a contact position between second display panel 240 and finger 900.
  • electronic device 100 causes first display panel 140 to display a new text obtained by returning the original text by one line. That is, when displaying the text in horizontal writing, electronic device 100 returns the displayed text by one line in response to a downward touch operation.
  • electronic device 100 according to the present embodiment is based on effect image data in which text stored in advance in a RAM or the like moves line by line. Thus, an effect image in which the text moves line by line is displayed on the second display panel 240.
  • electronic device 100 accepts an upward touch operation from the user via second display panel 240. That is, the user slides the finger 900 upward in a state where the finger 900 or the like is in contact with the second display panel 240. More specifically, electronic device 100 accepts an upward touch operation by detecting a contact position between second display panel 240 and finger 900.
  • electronic device 100 causes first display panel 140 to display a new text obtained by advancing the original text by one line. That is, when displaying the text in horizontal writing, electronic device 100 advances the displayed text by one line in response to an upward touch operation.
  • electronic device 100 according to the present embodiment is based on effect image data in which text stored in advance in a RAM or the like moves in units of lines, as shown in FIGS. Thus, an effect image in which the text moves line by line is displayed on the second display panel 240.
  • electronic device 100 displays the second effect image different between the case where the displayed book page advances and the case where the book page advances, and the case where the book row advances and the case where the book row returns.
  • the electronic device 100 sequentially displays pre-stored effect images via a display area (second display area) different from the content display area (first display area). It is not necessary to perform image processing according to the above. As a result, the electronic device 100 can make the user intuitively recognize the progress state of the content with a simple process.
  • electronic device 100 switches effect images according to the type of content. That is, when the electronic device 100 displays text on the first display panel 140, the electronic device 100 displays an effect image for turning the book on the second display panel 240 and displays the photo on the first display panel 140. When an image such as an animation or a comic is displayed, an effect image in which the film advances is displayed on the second display panel 240.
  • FIG. 7 is a first image diagram showing electronic device 100 at the time of image switching processing according to the present embodiment. More specifically, FIG. 7A is an image diagram of the electronic device 100 in a state where the first display panel 140 displays the second image.
  • FIG. 7B is an image diagram of the electronic device 100 when a downward touch operation is input to the second display panel 240 (touch panel).
  • FIG. 7C is an image diagram of the electronic device 100 in a state where one image is returned.
  • FIG. 7D is an image diagram of the electronic device 100 when an upward touch operation is input to the second display panel 240.
  • FIG. 7E is an image diagram of the electronic device 100 in a state where one image is advanced.
  • FIG. 8 is a first image diagram showing the second display panel 240 during the image switching process according to the present embodiment.
  • FIG. 9 is a second image diagram showing the second display panel during the image switching process according to the present embodiment.
  • electronic device 100 displays the second photograph on first display panel 140. More specifically, electronic device 100 accepts an operation from the user and causes first display panel 140 to display a photograph desired by the user. Electronic device 100 accepts a photo switching command from the user via second display panel 240.
  • electronic device 100 accepts a downward touch operation from the user via second display panel 240. That is, the user slides the finger 900 downward with the finger 900 or the like being in contact with the second display panel 240. More specifically, electronic device 100 accepts a downward touch operation by detecting a contact position between second display panel 240 and finger 900.
  • electronic device 100 causes first display panel 140 to display the first photograph.
  • electronic device 100 displays a photo preceding the currently displayed photo in response to a downward touch operation.
  • the electronic device 100 according to the present embodiment performs the second processing based on the effect image data for film stored in advance in a RAM or the like. Are displayed in the first order (forward direction) on the display panel 240.
  • electronic device 100 accepts an upward touch operation from the user via second display panel 240. That is, the user slides the finger 900 upward in a state where the finger 900 or the like is in contact with the second display panel 240. More specifically, electronic device 100 accepts an upward touch operation by detecting a contact position between second display panel 240 and finger 900.
  • electronic device 100 causes first display panel 140 to display the third photograph.
  • electronic device 100 displays a photo next to the currently displayed photo in response to an upward touch operation.
  • the electronic device 100 according to the present embodiment performs the second processing based on the effect image data for the film stored in advance in the RAM or the like. Are displayed in the second order (reverse direction) on the display panel 240.
  • electronic device 100 switches the display order of effect images or the type of effect image according to the type of content, so that the user can intuitively recognize the progress of content. it can.
  • the relationship between the direction of the touch operation, the advance / retreat of the content, and the advance / retreat of the effect image is not limited to that according to this embodiment.
  • the relationship between the direction of the touch operation and the content advance / retreat, the relationship between the content advance / retreat and the effect image, or the relationship between the effect image and the direction of the touch operation may be reversed.
  • FIG. 10 is a block diagram illustrating a hardware configuration of electronic device 100.
  • the electronic device 100 includes a first unit 1001 (main device) and a second unit 1002.
  • the second unit 1002 is detachably connected to the first unit 1001 from the electronic device 100.
  • the first unit 1001 includes a main body device 101 and a display device 102.
  • the second unit 1002 includes a display device 103 and a main device 104.
  • the first housing 100A includes a display device 102.
  • Second housing 100B includes main device 101.
  • the second housing 100B includes a second unit 1002.
  • the main unit 101 includes a CPU (Central Processing Unit) 110, a RAM (Random Access Memory) 171, a ROM (Read-Only Memory) 172, a memory card reader / writer 173, an external communication unit 174, a microphone 175, A speaker 176, an operation key 177, a power switch 191, a power circuit 192, a power detection unit 193, a USB (Universal Serial Bus) connector 194, an antenna 195, and a LAN (Local Area Network) connector 196 are included. .
  • Each component (110, 171 to 177, 193) is connected to each other by a data bus DB1.
  • a memory card 1731 is attached to the memory card reader / writer 173.
  • the CPU 110 executes the program.
  • the operation key 177 receives an instruction input from the user of the electronic device 100.
  • the RAM 171 stores data generated by the execution of the program by the CPU 110 or data input via the operation keys 177 in a volatile manner.
  • the ROM 172 stores data in a nonvolatile manner.
  • the ROM 172 is a ROM capable of writing and erasing data such as an EPROM (Erasable Programmable Read-Only Memory) and a flash memory.
  • External communication unit 174 communicates with other electronic devices. Specifically, the external communication unit 174 communicates with, for example, the second unit 1002 via the USB connector 194. The external communication unit 174 performs wireless communication with the second unit 1002 via the antenna 195, for example. Furthermore, the external communication unit 174 performs wired communication with other electronic devices via the LAN connector 196.
  • the main unit 101 may communicate with other electronic devices by wireless communication other than Bluetooth (registered trademark).
  • the external communication unit 174 may perform wireless communication with another electronic device connected to the LAN via a wireless LAN antenna (not shown).
  • wireless communication may be performed with another electronic device via an infrared port (not shown).
  • the power switch 191 is a switch for starting up the electronic device 100.
  • the power supply circuit 192 supplies power to each component connected to the data bus DB1 and the display device 102 via the power detection unit 193.
  • the power circuit 192 supplies power to the external communication unit 174 without going through the power detection unit 193.
  • the power supply detection unit 193 detects the output from the power supply circuit 192. In addition, the power supply detection unit 193 sends information (for example, a voltage value and a current value) regarding the detected output to the CPU 110.
  • information for example, a voltage value and a current value
  • the USB connector 194 is used to connect the first unit 1001 to the second unit 1002.
  • the main device 101 may include other USB connectors in addition to the USB connector 194.
  • the first unit 1001 transmits data to the second unit 1002 via the USB connector 194.
  • the first unit 1001 receives data from the second unit 1002 via the USB connector 194. Further, the first unit 1001 supplies power to the second unit 1002 via the USB connector 194.
  • the antenna 195 is used for communication in accordance with the Bluetooth (registered trademark) standard between the first unit 1001 and another communication device (for example, the second unit 1002).
  • the LAN connector 196 is used to connect the electronic device 100 to the LAN.
  • the display device 102 includes a driver 130, a photosensor built-in liquid crystal panel 140 (hereinafter referred to as a display panel 140), an internal IF 178, a backlight 179, and an image processing engine 180.
  • the driver 130 is a drive circuit for driving the display panel 140 and the backlight 179. Various drive circuits included in the driver 130 will be described later.
  • the display panel 140 is a device having a liquid crystal display function and an optical sensor function. That is, the display panel 140 can perform image display using liquid crystal and sensing using an optical sensor. Details of the display panel 140 will be described later.
  • the internal IF (Interface) 178 mediates exchange of data between the main device 101 and the display device 102.
  • the backlight 179 is a light source disposed on the back surface of the display panel 140.
  • the backlight 179 irradiates the back surface with uniform light.
  • the image processing engine 180 controls the operation of the display panel 140 via the driver 130. Here, the control is performed based on various data sent from the main apparatus 101 via the internal IF 178. Note that the various data includes commands to be described later.
  • the image processing engine 180 processes data output from the display panel 140 and sends the processed data to the main apparatus 101 via the internal IF 178. Further, the image processing engine 180 includes a driver control unit 181, a timer 182, and a signal processing unit 183.
  • the driver control unit 181 controls the operation of the driver 130 by sending a control signal to the driver 130.
  • the driver control unit 181 analyzes a command transmitted from the main device 101. Then, the driver control unit 181 sends a control signal based on the analysis result to the driver 130. Details of the operation of the driver 130 will be described later.
  • the timer 182 generates time information and sends the time information to the signal processing unit 183.
  • the signal processing unit 183 receives data output from the optical sensor.
  • the signal processing unit 183 first converts the analog data into digital data.
  • the signal processing unit 183 performs data processing on the digital data in accordance with the content of the command sent from the main device 101.
  • the signal processing unit 183 sends data including the data after the above data processing and the time information acquired from the timer 182 (hereinafter referred to as response data) to the main unit 101.
  • the signal processing unit 183 includes a RAM (not shown) that can store a plurality of scan data, which will be described later, continuously.
  • the command includes a sensing command for instructing sensing by the optical sensor. Details of the sensing command and the response data will be described later (FIGS. 15, 16, and 22).
  • the timer 182 is not necessarily provided in the image processing engine 180.
  • the timer 182 may be provided outside the image processing engine 180 in the display device 102.
  • the timer 182 may be provided in the main body device 101.
  • the microphone 175 and the speaker 176 are not always provided in the electronic device 100, and may be configured so as not to include either or both of the microphone 175 and the speaker 176 depending on the embodiment of the electronic device 100.
  • the display device 102 includes a system liquid crystal.
  • the system liquid crystal is a device obtained by integrally forming peripheral devices of the display panel 140 on the glass substrate of the display panel 140.
  • the driver 130 (excluding the circuit that drives the backlight 179), the internal IF 178, and the image processing engine 180 are integrally formed on the glass substrate of the display panel 140.
  • the display device 102 is not necessarily configured using the system liquid crystal, and the driver 130 (excluding a circuit that drives the backlight 179), the internal IF 178, and the image processing engine 180 are included in the glass substrate. Other substrates may be configured.
  • the second unit 1002 receives power supply from the first unit 1001. Specifically, the second unit 1002 is supplied with power from the power supply circuit 192 of the first unit 1001 by connecting a USB connector 294 described later and the USB connector 194 of the first unit 1001.
  • the main body device 104 includes a CPU 210, a RAM 271, a ROM 272, an external communication unit 274, a power supply detection unit 293, a USB connector 294, an antenna 295, and a signal strength detection unit 297.
  • Each component 210, 271, 272, 274, 293) is connected to each other by a data bus DB2.
  • the CPU 210 executes a program.
  • the RAM 271 stores data generated by the execution of the program by the CPU 210 in a volatile manner.
  • the ROM 272 stores data in a nonvolatile manner.
  • the ROM 272 is a ROM capable of writing and erasing data such as an EPROM (Erasable Programmable Read-Only Memory) and a flash memory.
  • the external communication unit 274 communicates with other electronic devices. Specifically, the external communication unit 274 communicates with, for example, the first unit 1001 via the USB connector 294. The external communication unit 274 communicates with the first unit 1001 through the antenna 295, for example.
  • the main body device 104 may communicate with another electronic device (for example, the first unit 1001) by wireless communication other than Bluetooth (registered trademark).
  • the external communication unit 274 may perform wireless communication with other electronic devices via an infrared port (not shown).
  • the signal strength detection unit 297 detects the strength of the signal received via the antenna 295. Then, the signal strength detection unit 297 sends the detected strength to the external communication unit 274.
  • the USB connector 294 is used to connect the second unit 1002 to the first unit 1001.
  • the second unit 1002 transmits data to the first unit 1001 via the USB connector 294.
  • the second unit 1002 receives data from the first unit 1001 via the USB connector 294.
  • the second unit 1002 receives power supply from the first unit 1001 via the USB connector 294 as described above.
  • the second unit 1002 stores the electric power supplied from the first unit 1001 in a battery (not shown).
  • the antenna 295 is used for communication according to the Bluetooth (registered trademark) standard between the second unit 1002 and the first unit 1001, for example.
  • the power detection unit 293 detects the power supplied via the USB connector 294. In addition, the power supply detection unit 293 sends information about the detected power to the CPU 210.
  • the main device 104 may have a function of performing infrared communication.
  • the display device 103 includes a driver 230, an optical sensor built-in liquid crystal panel 240 (hereinafter referred to as “display panel 240”), an internal IF 278, a backlight 279, and an image processing engine 280.
  • the image processing engine 280 includes a driver control unit 281, a timer 282, and a signal processing unit 283.
  • the display device 103 has the same configuration as the display device 102. That is, the driver 230, the display panel 240, the internal IF 278, the backlight 279, and the image processing engine 280 have the same configuration as the driver 130, the display panel 140, the internal IF 178, the backlight 179, and the image processing engine 180 in the display device 102. Have each.
  • the driver control unit 281, the timer 282, and the signal processing unit 283 have the same configurations as the driver control unit 181, the timer 182, and the signal processing unit 183 in the display device 102, respectively. Therefore, description of each functional block included in display device 103 will not be repeated.
  • the processing in the electronic device 100 is realized by software executed by each hardware and the CPU 110.
  • Such software may be stored in the ROM 172 in advance.
  • the software may be stored in a memory card 1731 or other storage medium and distributed as a program product.
  • the software may be provided as a program product that can be downloaded by an information provider connected to the so-called Internet.
  • Such software is read from the storage medium by the memory card reader / writer 173 or other reading device, or downloaded via the communication unit 174 or communication IF (not shown), and then temporarily stored in the ROM 172.
  • the software is read from the ROM 172 by the CPU 110 and stored in the RAM 171 in the form of an executable program.
  • CPU 110 executes the program.
  • Each component constituting the main device 101 of the electronic device 100 shown in FIG. 10 is a general one. Therefore, it can be said that the essential part of the present invention is the software stored in the RAM 171, the ROM 172, the memory card 1731 and other storage media, or the software downloadable via the network. Since the hardware operation of main device 101 of electronic device 100 is well known, detailed description will not be repeated.
  • the storage medium is not limited to a memory card, but is a CD-ROM, FD (Flexible Disk), hard disk, magnetic tape, cassette tape, optical disk (MO (Magnetic Optical Disc) / MD (Mini Disc) / DVD (Digital Versatile). Disc)), IC (Integrated Circuit) card (excluding memory card), optical card, mask ROM, EPROM, EEPROM (Electronically Erasable Programmable Read-Only Memory), semiconductor memory such as flash ROM, etc. It may be a medium to be used.
  • the program here includes not only a program directly executable by the CPU but also a program in a source program format, a compressed program, an encrypted program, and the like.
  • FIG. 11 is a diagram illustrating a configuration of the display panel 140 and peripheral circuits of the display panel 140.
  • the display panel 140 includes a pixel circuit 141, an optical sensor circuit 144, a scanning signal line Gi, a data signal line SRj, a data signal line SGj, a data signal line SBj, and a sensor signal line.
  • SSj, sensor signal line SDj, read signal line RWi, and reset signal line RSi are included.
  • i is a natural number satisfying 1 ⁇ i ⁇ m
  • j is a natural number satisfying 1 ⁇ j ⁇ n.
  • the driver 130 of the display device 102 illustrated in FIG. 10 includes, as peripheral circuits of the display panel 140, a scanning signal line driving circuit 131, a data signal line driving circuit 132, an optical sensor driving circuit 133, a switch 134, And an amplifier 135.
  • the scanning signal line drive circuit 131 receives the control signal TC1 from the driver control unit 181 shown in FIG.
  • the scanning signal line drive circuit 131 applies a predetermined voltage in order from the scanning signal line G1 to each scanning signal line (G1 to Gm) based on the control signal TC1. More specifically, the scanning signal line driving circuit 131 sequentially selects one scanning signal line from the scanning signal lines (G1 to Gm) per unit time, and a TFT (to be described later) with respect to the selected scanning signal line.
  • a voltage that can turn on the gate of the thin film transistor 142 (hereinafter referred to as a high level voltage) is applied. Note that a low level voltage is applied to a scanning signal line that is not selected without applying a high level voltage.
  • the data signal line driving circuit 132 receives image data (DR, DG, DB) from the driver control unit 181 shown in FIG.
  • the data signal line driving circuit 132 applies a voltage corresponding to one row of image data to the 3n data signal lines (SR1 to SRn, SG1 to SGn, SB1 to SBn) for each unit time. Apply sequentially.
  • a drive system is not limited to this.
  • the pixel circuit 141 is a circuit for setting the luminance (transmittance) of one pixel. Further, m ⁇ n pixel circuits 141 are arranged in a matrix. More specifically, m pixel circuits 141 are arranged in the vertical direction in FIG. 11 and n pixel circuits in the horizontal direction.
  • the pixel circuit 141 includes an R subpixel circuit 141r, a G subpixel circuit 141g, and a B subpixel circuit 141b. Each of these three circuits (141r, 141g, 141b) includes a TFT 142, a pair of electrode pairs 143 including a pixel electrode and a counter electrode, and a capacitor (not shown).
  • CMOS Complementary Metal Oxide Semiconductor
  • a-Si TFT amorphous silicon thin film transistor
  • p-Si TFT polycrystalline silicon thin film transistor
  • the TFT 142 will be described as an n-channel field effect transistor.
  • the TFT 142 may be a p-type channel field effect transistor.
  • the source of the TFT 142 in the R subpixel circuit 141r is connected to the data signal line SRj.
  • the gate of the TFT 142 is connected to the scanning signal line Gi.
  • the drain of the TFT 142 is connected to the pixel electrode of the electrode pair 143.
  • a liquid crystal is disposed between the pixel electrode and the counter electrode.
  • the G sub-pixel circuit 141g and the B sub-pixel circuit 141b have the same configuration as the R sub-pixel circuit 141r except that the data signal line to which the source of each TFT 142 is connected is different. Therefore, description of these two circuits (141g, 141b) will not be repeated.
  • the high level voltage is applied to the scanning signal line Gi.
  • the gate of the TFT 142 is turned on.
  • a specified voltage (voltage corresponding to image data for one pixel) is applied to each data signal line (SRj, SGj, SBj).
  • a voltage based on the designated voltage is applied to the pixel electrode.
  • a potential difference is generated between the pixel electrode and the counter electrode.
  • the liquid crystal responds and the luminance of the pixel is set to a predetermined luminance. Note that the potential difference is held by the capacitor (auxiliary capacitor) (not shown) until the scanning signal line Gi is selected in the next frame period.
  • the optical sensor driving circuit 133 receives the control signal TC2 from the driver control unit 181 shown in FIG.
  • the optical sensor drive circuit 133 sequentially selects one signal line from the reset signal lines (RS1 to RSm) for each unit time based on the control signal TC2, and determines in advance for the selected signal line.
  • the voltage VDDR that is higher than usual is applied.
  • a voltage VSSR lower than the voltage applied to the selected reset signal line is kept applied to the unselected reset signal line.
  • the voltage VDDR may be set to 0V and the voltage VSSR may be set to ⁇ 5V.
  • the photosensor driving circuit 133 sequentially selects one signal line from the readout signal lines (RW1 to RWm) per unit time based on the control signal TC2, and determines in advance for the selected signal line.
  • a voltage VDD higher than usual is applied.
  • the voltage VSSR is applied to the read signal line that is not selected.
  • the value of VDD may be set to 8V.
  • the timing for applying the voltage VDDR and the timing for applying the voltage VDD will be described later.
  • the optical sensor circuit 144 includes a photodiode 145, a capacitor 146, and a TFT 147.
  • the TFT 147 is an n-type channel field effect transistor.
  • the TFT 147 may be a p-type channel field effect transistor.
  • the anode of the photodiode 145 is connected to the reset signal line RSi.
  • the cathode of the photodiode 145 is connected to one electrode of the capacitor 146.
  • the other electrode of the capacitor 146 is connected to the read signal line RWi.
  • a connection point between the photodiode 145 and the capacitor 146 is referred to as a node N.
  • the gate of the TFT 147 is connected to the node N.
  • the drain of the TFT 147 is connected to the sensor signal line SDj. Further, the source of the TFT 147 is connected to the sensor signal line SSj. Details of sensing using the optical sensor circuit 144 will be described later.
  • the switch 134 is a switch provided for switching whether or not to apply a predetermined voltage to the sensor signal lines (SD1 to SDn).
  • the switching operation of the switch 134 is performed by the optical sensor driving circuit 133.
  • the voltage applied to the sensor signal lines (SD1 to SDn) when the switch 134 is turned on will be described later.
  • the amplifier 135 amplifies the voltage output from each sensor signal line (SS1 to SSn).
  • the amplified voltage is sent to the signal processing unit 183 shown in FIG.
  • the image processing engine 180 controls the timing at which an image is displayed on the display panel 140 using the pixel circuit 141 and the timing at which sensing is performed using the optical sensor circuit 144.
  • FIG. 12 is a cross-sectional view of the display panel 140 and the backlight 179.
  • display panel 140 includes an active matrix substrate 151A, a counter substrate 151B, and a liquid crystal layer 152.
  • the counter substrate 151B is disposed to face the active matrix substrate 151A.
  • the liquid crystal layer 152 is sandwiched between the active matrix substrate 151A and the counter substrate 151B.
  • the backlight 179 is disposed on the opposite side of the liquid crystal layer 152 with respect to the active matrix substrate 151A.
  • the active matrix substrate 151A includes a polarizing filter 161, a glass substrate 162, a pixel electrode 143a constituting an electrode pair 143, a photodiode 145, a data signal line 157, and an alignment film 164. Further, although not shown in FIG. 12, the active matrix substrate 151A includes the capacitor 146, the TFT 147, the TFT 142, and the scanning signal line Gi shown in FIG.
  • the polarizing filter 161, the glass substrate 162, the pixel electrode 143a, and the alignment film 164 are arranged in this order from the backlight 179 side.
  • the photodiode 145 and the data signal line 157 are formed on the liquid crystal layer 152 side of the glass substrate 162.
  • the counter substrate 151B includes a polarizing filter 161, a glass substrate 162, a light shielding film 163, color filters (153r, 153g, 153b), a counter electrode 143b constituting an electrode pair 143, and an alignment film 164.
  • the alignment film 164, the counter electrode 143b, the color filters (153r, 153g, 153b), the glass substrate 162, and the polarizing filter 161 are arranged in this order from the liquid crystal layer 152 side.
  • the light shielding film 163 is formed in the same layer as the color filters (153r, 153g, 153b).
  • the color filter 153r is a filter that transmits light having a red wavelength.
  • the color filter 153g is a filter that transmits light having a green wavelength.
  • the color filter 153b is a filter that transmits light having a blue wavelength.
  • the photodiode 145 is arranged at a position facing the color filter 153b.
  • the display panel 140 displays an image by blocking or transmitting light emitted by a light source such as external light or a backlight 179. Specifically, the display panel 140 changes the direction of the liquid crystal molecules of the liquid crystal layer 152 by applying a voltage between the pixel electrode 143a and the counter electrode 143b, thereby blocking or transmitting the light. . However, since the light cannot be completely blocked by the liquid crystal alone, a polarizing filter 161 that transmits only light having a specific polarization direction is provided.
  • the position of the photodiode 145 is not limited to the above position, and may be provided at a position facing the color filter 153r or a position facing the color filter 153g.
  • FIG. 13 is a timing chart when the optical sensor circuit 144 is operated.
  • a voltage VINT indicates a potential at the node N in the photosensor circuit 144.
  • the voltage VPIX is an output voltage from the sensor signal line SSj shown in FIG. 11 and is a voltage before being amplified by the amplifier 135.
  • the description will be divided into a reset period for resetting the optical sensor circuit 144, a sensing period for sensing light using the optical sensor circuit 144, and a readout period for reading the sensing result.
  • the reset period will be described.
  • the voltage applied to the reset signal line RSi is instantaneously switched from the low level (voltage VSSR) to the high level (voltage VDDR).
  • the voltage applied to the read signal line RWi is kept at the low level (voltage VSSR).
  • the high-level voltage to the reset signal line RSi a current starts to flow in the forward direction (from the anode side to the cathode side) of the photodiode 145.
  • the voltage VINT which is the potential of the node N has a value represented by the following expression (1).
  • Equation (1) the forward voltage drop amount in the photodiode 145 is Vf.
  • VINT VSSR +
  • the voltage VINT is not more than the threshold value for turning on the gate of the TFT 147, there is no output from the sensor signal line SSj. For this reason, the voltage VPIX does not change. Further, a difference corresponding to the voltage VINT occurs between the electrodes of the capacitor 146. For this reason, the capacitor 146 accumulates charges corresponding to the difference.
  • the sensing period will be described.
  • the voltage applied to the reset signal line RSi is instantaneously switched from the high level (voltage VDDR) to the low level (voltage VSSR).
  • the voltage applied to the read signal line RWi is kept at the low level (voltage VSSR).
  • the potential of the node N becomes higher than the voltage of the reset signal line RSi and the voltage of the read signal line RWi.
  • the photodiode 145 the voltage on the cathode side becomes higher than the voltage on the anode side. That is, the photodiode 145 is in a reverse bias state.
  • the photodiode 145 receives light from the light source, current starts to flow from the cathode side to the anode side of the photodiode 145.
  • the potential of the node N that is, the voltage VINT
  • the reading period will be described.
  • the voltage applied to the reset signal line RSi is kept at the low level (voltage VSSR).
  • the voltage applied to the read signal line RWi is instantaneously switched from the low level (voltage VSSR) to the high level (voltage VDD).
  • the voltage VDD is higher than the voltage VDDR.
  • the potential of the node N is raised through the capacitor 146 as shown in FIG.
  • the increase width of the potential of the node N is a value corresponding to the voltage applied to the read signal line RWi.
  • the potential of the node N that is, the voltage VINT
  • the gate of the TFT 147 is turned on.
  • the optical sensor circuit 144 changes the value of the voltage output to the sensor signal line SSj in accordance with the amount of light received by the photodiode 145.
  • the optical sensor driving circuit 133 applies a predetermined voltage to all n sensor signal lines (SD1 to SDn).
  • the photosensor drive circuit 133 applies a voltage VDDR that is higher than normal to the reset signal line RS1.
  • the other reset signal lines (RS2 to RSm) and read signal lines (RW1 to RWm) are kept in a state where a low level voltage is applied.
  • the n photosensor circuits in the first row in FIG. 11 enter the reset period described above. Thereafter, the n photosensor circuits in the first row enter a sensing period. Further, thereafter, the n photosensor circuits in the first row enter a reading period.
  • timing for applying a predetermined voltage to all n sensor signal lines is not limited to the above timing, and may be any timing that is applied at least before the readout period. .
  • the photosensor drive circuit 133 applies a voltage VDDR that is higher than usual to the reset signal line RS2. That is, the reset period of the n photosensor circuits in the second row starts. When the reset period ends, the n photosensor circuits in the second row enter a sensing period, and thereafter enter a reading period.
  • the above-described processing is sequentially performed on the n photosensor circuits in the third row, the n photosensor circuits in the fourth row,..., The n photosensor circuits in the m row.
  • the sensor signal lines (SS1 to SSn) output the first row sensing result, the second row sensing result,..., The mth row sensing result in this order.
  • scan data refers to image data obtained by scanning a scan target (for example, a user's finger). An image displayed based on the scan data is referred to as a “scanned image”. Further, in the following, sensing is referred to as “scan”.
  • scanning may be performed using all m ⁇ n photosensor circuits as an example, but the configuration is not limited thereto. Scanning may be performed on a partial region of the surface of the display panel 140 using a photosensor circuit selected in advance.
  • the electronic device 100 can take either configuration. Further, switching between the components is performed by a command sent from the main body apparatus 101 based on an input via the operation key 177 or the like. Note that when scanning is performed on a partial area on the surface of the display panel 140, the image processing engine 180 sets a scan target area. The setting of the area may be configured to be specified by the user via the operation key 177.
  • the first is a mode in which an image is displayed in a surface area other than the partial area (hereinafter referred to as a scan area).
  • the second is a mode in which no image is displayed in the surface area other than the scan area. Which mode is used is based on a command sent from the main apparatus 101 to the image processing engine 180.
  • FIG. 14 is a cross-sectional view of the display panel 140 and the backlight 179 and shows a configuration in which the photodiode 145 receives light from the backlight 179 during scanning.
  • the photodiode 145 receives the reflected light.
  • the amount of light received by the photodiode 145 is smaller than the region in which the finger 900 is in contact. Note that the photodiode 145 cannot receive most of the light emitted from the backlight 179 that does not reach the user's finger 900.
  • the optical sensor circuit 144 can output a voltage corresponding to the amount of light reflected by the user's finger 900 from the sensor signal line SSj. it can.
  • the display panel 140 has a contact position of the finger 900, a contact range of the finger 900 (determined by the pressing force of the finger 900), and the display panel 140.
  • the voltage output from the sensor signal lines (SS1 to SSn) varies depending on the direction of the finger 900 with respect to the surface of the sensor.
  • the display device 102 can scan an image (hereinafter also referred to as a reflected image) obtained by reflecting light with the finger 900.
  • examples of the scan object other than the finger 900 include a stylus.
  • a display panel is described as an example of the display device of electronic device 100, but another panel such as an organic EL (Electro-Luminescence) panel is used instead of the display panel. Also good.
  • FIG. 15 is a diagram showing a schematic configuration of a command.
  • the command includes header DA01, first field DA02, second field DA03, third field DA04, fourth field DA05, fifth field DA06, and spare data area DA07. including.
  • FIG. 16 is a diagram for explaining a command of type “000” (that is, a sensing command).
  • the CPU 110 sends a command of type “000” (hereinafter referred to as “first command”) from the main unit 101 of the first unit 1001 to the second unit 1002.
  • first command a command of type “000”
  • the CPU 110 sends the first command from the main body device 101 to the display device 102.
  • the case where the CPU 110 sends the first command from the main unit 101 of the first unit 1001 to the second unit 1002 will be described as an example.
  • the CPU 110 writes the command type (“000”), the command transmission destination, and the like in the header DA01.
  • the CPU 110 writes the value of the timing whose number is “1” in the first field DA02.
  • the CPU 110 writes the value of the data type with the number “2” in the second field DA03.
  • the CPU 110 writes the value of the reading method whose number is “3” in the third field DA04.
  • the CPU 110 writes the value of the image gradation number “4” in the fourth field DA05.
  • the CPU 110 writes the value of the resolution with the number “5” in the fifth field DA06.
  • the first command in which “00” is set in the first field DA02 requests the image processing engine 280 to transmit scan data at that time. That is, the sensing first command requests transmission of scan data obtained by scanning using the optical sensor circuit of the display panel 240 after the image processing engine 280 receives the first command. Further, the first command in which “01” is set in the first field DA02 requests transmission of scan data when the scan result is changed. Further, the first command in which “10” is set in the first field DA02 requests transmission of scan data at regular intervals.
  • the first command in which “001” is set in the second field DA03 requests transmission of the coordinate value of the center coordinate in the partial image.
  • the first command in which “010” is set in the second field DA03 requests transmission of only the partial image whose scan result has changed. Note that the change in the scan result indicates that the previous scan result is different from the current scan result.
  • the first command in which “100” is set in the second field DA03 requests transmission of the entire image.
  • the “whole image” is an image generated by the image processing engine 280 based on the voltage output from each optical sensor circuit when scanning using m ⁇ n optical sensor circuits.
  • the “partial image” is a part of the entire image. The reason why the partial image is requested to transmit only the partial image whose scan result has changed will be described later.
  • the coordinate value and the partial image or the entire image may be requested at the same time. Further, in the case of a configuration in which a partial area on the surface of the display panel 240 is scanned, the entire image is an image corresponding to the area to be scanned.
  • the first sensing command in which “00” is set in the third field DA04 requests that the backlight 279 be turned on to scan.
  • the first command in which “01” is set in the third field DA04 requests that the backlight 279 be turned off to perform scanning.
  • a configuration for scanning with the backlight 279 off will be described later (FIG. 24).
  • the first command in which “10” is set in the third field DA04 requests scanning using both reflection and transmission. Note that the combined use of reflection and transmission refers to scanning a scan object by switching between a method of scanning with the backlight 279 turned on and a method of scanning with the backlight turned off.
  • the first command in which “00” is set in the fourth field DA05 requests black and white binary image data. Further, the first command in which “01” is set in the fourth field DA05 requests multi-gradation image data. Further, the first command in which “10” is set in the fourth field DA05 requests RGB color image data.
  • the first command in which “0” is set in the fifth field DA06 requests image data with high resolution.
  • the first command in which “1” is set in the fifth field DA06 requests image data with a low resolution.
  • the first command includes designation of a region to be scanned (region of pixels that drive the optical sensor circuit 144), timing to perform scanning, timing to turn on the backlight 179, and the like. Is described.
  • the image processing engine 280 analyzes the content of the first command, and sends back data (that is, response data) according to the result of the analysis to the main unit 101.
  • FIG. 17 is a diagram for explaining a command of type “001” (hereinafter referred to as “second command”).
  • the CPU 110 sends a second command from the main unit 101 of the first unit 1001 to the second unit 1002.
  • the CPU 110 writes the command type (“001”), the command transmission destination, and the like in the header DA01.
  • the CPU 110 writes the value of the display request with the number “1” in the first field DA02.
  • CPU 110 writes information on the number / type of number “2” in second field DA03.
  • the CPU 110 writes the value of the display range whose number is “3” in the third field DA04.
  • the CPU 110 writes information related to the image data with the number “4” in the fourth field DA05.
  • the second command in which “001” is set in the first field DA02 requests the image processing engine 280 to display an image on the display panel 240.
  • the second command in which “010” is set in the first field DA02 requests the image processing engine 280 to display an icon on the display panel 240. Further, the second command in which “011” is set in the first field DA02 requests the image processing engine 280 to display the handwriting area on the display panel 240.
  • the second field DA03 stores the number of images to be displayed on the display panel 240 and a number for designating the type of handwriting language.
  • the image processing engine 280 performs processing according to the number of the images or the language type.
  • the second command in which “01” is set in the third field DA04 requests the image processing engine 280 to designate the display range on the display panel 240 by coordinates. Further, the second command in which “10” is set in the third field DA04 requests the image processing engine 280 to set the display range on the display panel 240 to the entire display area.
  • the fourth field DA05 stores image data to be displayed on the display panel 240 and position information for displaying the image data.
  • the image processing engine 280 performs processing for displaying the image data at a position specified by the position information.
  • FIG. 18 is a diagram for explaining a command of type “010” (hereinafter referred to as “third command”).
  • the CPU 110 sends the third command from the main unit 101 of the first unit 1001 to the second unit 1002.
  • the CPU 210 sends a third command from the main body device 104 of the second unit 1002 to the first unit 1001.
  • the CPUs 110 and 210 write the command type (“010”), the command transmission destination, and the like in the header DA01.
  • the CPUs 110 and 210 write the value of the OS (Operating System) processing request with the number “1” in the first field DA02.
  • the CPUs 110 and 210 write the value of the OS information with the number “2” in the second field DA03.
  • the third command in which “01” or “10” is set in the first field DA02 is transmitted from the second unit 1002 to the first unit 1001.
  • the third command in which “01” is set in the first field DA02 requests the first unit 1001 to transmit information indicating the OS type of the first unit 1001.
  • the third command in which “10” is set in the first field DA02 requests the first unit 1001 to start the OS specified by the OS information.
  • the third command in which “000”, “001”, or “010” is set in the second field DA03 is transmitted from the second unit 1002 to the first unit 1001.
  • the third command in which “000” is set in the second field DA03 does not request the activation of the OS in the first unit 1001.
  • the third command in which “001” is set in the second field DA03 indicates that the second unit 1002 has selected to start the first OS.
  • the third command in which “010” is set in the second field DA03 indicates that the second unit 1002 has selected to start the second OS.
  • FIG. 19 is a diagram for explaining a command of type “011” (hereinafter referred to as “fourth command”).
  • the CPU 210 sends a fourth command from the main body device 104 of the second unit 1002 to the first unit 1001.
  • the CPU 210 writes the command type (“011”), the command transmission destination, and the like in the header DA01.
  • the CPU 210 writes information related to the activated application with the number “1” in the first field DA02.
  • the CPU 210 writes the startup information with the number “2” in the second field DA03.
  • the first field DA02 information specifying an application to be activated in the first unit 1001 is stored.
  • the second field DA03 stores information used at the time of activation setting and information used after activation.
  • FIG. 20 is a diagram for explaining a command of type “100” (hereinafter referred to as “fifth command”).
  • the CPU 210 sends the fifth command from the main body device 104 of the second unit 1002 to the first unit 1001.
  • the CPU 210 writes the command type (“100”), the command transmission destination, and the like in the header DA01.
  • the CPU 210 writes information related to the reception request with the number “1” in the first field DA02.
  • the CPU 210 writes information relating to the number “2” in the second field DA03.
  • the CPU 210 writes information related to the file with the number “3” in the third field DA04.
  • the fifth command in which “01” is set in the first field DA02 requests the first unit 1001 to receive a file.
  • the number of files transmitted from the second unit 1002 to the first unit 1001 is stored. Further, a file transmitted from the second unit 1002 to the first unit 1001 is stored in the third field DA04.
  • FIG. 21 is a diagram for explaining a command of type “101” (hereinafter referred to as “sixth command”).
  • the CPU 110 sends the sixth command from the main unit 101 of the first unit 1001 to the second unit 1002.
  • the CPU 210 sends the sixth command from the main body device 104 of the second unit 1002 to the first unit 1001.
  • the CPUs 110 and 210 write the command type (“101”), the command transmission destination, and the like in the header DA01.
  • the CPUs 110 and 210 write the value of the communication type with the number “1” in the first field DA02.
  • the CPUs 110 and 210 write the value of the connection destination with the number “2” in the second field DA03.
  • the CPUs 110 and 210 write the value of the transfer destination with the number “3” in the third field DA04.
  • the CPUs 110 and 210 write the value of the signal strength acquisition timing number “4” in the fourth field DA05.
  • the sixth command in which “001” is set in the first field DA02 requests the counterpart device to perform infrared communication.
  • the sixth command in which “010” is set in the first field DA02 requests the counterpart device to perform wireless communication by Bluetooth (registered trademark).
  • the sixth command in which “011” is set in the first field DA02 requests the counterpart device to perform LAN communication.
  • the sixth command in which “000” is set in the second field DA03 indicates that it does not have information specifying the communication connection destination.
  • the sixth command in which “001” is set in the second field DA03 is transmitted by the first unit 1001 to the device to which the first unit 1001 is connected.
  • Such a sixth command requests transmission of information related to a device to which the first unit 1001 is connected.
  • the sixth command in which “010” is set in the second field DA03 is transmitted by the second unit 1002 to the first unit 1001 to which the second unit 1002 is connected.
  • Such a sixth command requests transmission of information regarding the first unit 1001 to which the second unit 1002 is connected.
  • the sixth command in which “011” is set in the second field DA03 is transmitted by the second unit 1002 to the first unit 1001 to which the second unit 1002 is connected.
  • Such a sixth command requests that information regarding the second unit 1002 be set as connection destination device information.
  • the sixth command in which “100” is set in the second field DA03 is transmitted by the first unit 1001 to the device to which the first unit 1001 is connected (for example, the second unit 1002).
  • Such a sixth command requests that information regarding the first unit 1001 be set as connection destination device information.
  • the sixth command in which “000” is set in the third field DA04 indicates that it does not have information specifying the transfer destination of data (for example, a file).
  • the sixth command in which “001” is set in the third field DA04 is transmitted by the first unit 1001 to the data transfer destination device.
  • Such a sixth command requests transmission of information relating to the data transfer destination device.
  • the sixth command in which “010” is set in the third field DA04 is transmitted by the second unit 1002 to the first unit 1001 that is the data transfer destination.
  • Such a sixth command requests transmission of information related to the first unit 1001 of the data transfer destination.
  • the sixth command in which “011” is set in the third field DA04 is transmitted by the second unit 1002 to the first unit 1001 that is the data transfer destination.
  • Such a sixth command requests that information regarding the second unit 1002 be set as device information of the data transfer source.
  • the sixth command in which “100” is set in the third field DA04 is transmitted by the first unit 1001 to the data transfer destination device (for example, the second unit 1002).
  • the data transfer destination device for example, the second unit 1002.
  • Such a sixth command requests that information regarding the first unit 1001 be set as device information of the data transfer source.
  • the sixth command in which “00”, “01”, “10”, or “11” is set in the fourth field DA05 is transmitted by the first unit 1001 to the second unit 1002.
  • the sixth command in which “00” is set in the fourth field DA05 does not request the second unit 1002 to transmit data indicating the signal strength. Also, the sixth command in which “01” is set in the fourth field DA05 requests the signal strength detection unit 297 to transmit data indicating the signal strength at that time. Furthermore, the sixth command in which “10” is set in the fourth field DA05 requests transmission of data indicating the signal strength when the signal strength is changed. Further, the sixth command in which “11” is set in the fourth field DA05 requests the transmission of data indicating the signal strength at regular intervals.
  • FIG. 22 is a diagram showing a schematic configuration of response data.
  • the response data is data corresponding to the content of the first command (sensing command).
  • the CPU 210 transmits response data from the display device 103 to the first unit 1001.
  • the image processing engine 180 transmits response data from the image processing engine 180 to the main device 101.
  • a case where the first command is transmitted from the main device 101 to the second unit 1002 will be described as an example.
  • the response data includes a header data area DA11, a coordinate data area DA12, a time data area DA13, and an image data area DA14.
  • the value of the center coordinates of the partial image is written in the data area DA12 indicating the coordinates.
  • the time information acquired from the timer 282 of the image processing engine 280 is written in the data area indicating the time.
  • image data that is, scan data
  • the image processing engine 280 is written in the data area indicating the image.
  • FIG. 23 is a diagram showing an image obtained by scanning the finger 900 (that is, a scanned image).
  • an image of a region W1 surrounded by a thick solid line is an entire image
  • an image of a region P1 surrounded by a broken line is a partial image.
  • the center point C1 of the cross indicated by a thick line is the center coordinate.
  • a pixel that is, a predetermined gradation or a pixel having a photosensor circuit which is a rectangular region and whose output voltage from the sensor signal line SSj is equal to or higher than a predetermined value.
  • An area including all of the pixels having a luminance equal to or higher than a predetermined luminance is set as a partial image area.
  • the center coordinates are coordinates determined in consideration of the gradation of each pixel in the partial image area. Specifically, for each pixel in the partial image, the center coordinate is determined by performing a weighting process based on the gradation of the pixel and the distance between the pixel and the rectangular center point (that is, the centroid). Is done. That is, the center coordinates do not necessarily match the centroid of the partial image.
  • the position of the center coordinates is not necessarily limited to the above, and the center coordinates may be the coordinates of the centroid or the coordinates near the centroid.
  • the image processing engine 280 When “001” is set in the data area indicating the data type of the first command, the image processing engine 280 writes the value of the central coordinate in the data area DA12 indicating the coordinate. In this case, the image processing engine 280 does not write image data in the data area DA14 indicating an image. After writing the value of the center coordinate, the image processing engine 280 sends response data including the value of the center coordinate to the main body device 104. The main device 104 sends response data including the value of the center coordinate to the main device 101 of the first unit 1001. As described above, when “001” is set in the data area indicating the data type, the first command does not request output of the image data but requests output of the value of the center coordinate.
  • the image processing engine 280 stores the image data of the partial image whose scan result has changed in the data area DA14 indicating the image. Write. In this case, the image processing engine 280 does not write the value of the center coordinate in the data area DA12 indicating the coordinate.
  • the image processing engine 280 writes the image data of the partial image whose scan result has changed, and then sends response data including the image data of the partial image to the main body device 104.
  • the main device 104 sends response data including image data of the partial image to the main device 101 of the first unit 1001.
  • the first command does not request the output of the value of the center coordinate, and the image data of the partial image whose scan result has changed. Request output.
  • the reason for requesting transmission of only the partial image whose scan result has changed is that the scan data of the partial image area of the scan data is more important than the scan data of the other area. This is because the data is high, and the scan data in the region corresponding to the region of the partial image in the scan data is likely to change due to the contact state with the scan object such as the finger 900.
  • the image processing engine 280 When “011” is set in the data area indicating the data type of the first command, the image processing engine 280 writes the value of the center coordinate in the data area DA12 indicating the coordinate and also indicates the data indicating the image. The image data of the partial image whose scan result has changed is written in the area DA14. Thereafter, the image processing engine 280 sends response data including the value of the center coordinate and the image data of the partial image to the main body device 104. The main device 104 sends response data including the value of the center coordinate and the image data of the partial image to the main device 101 of the first unit 1001.
  • the first command outputs the value of the center coordinate and the output of the image data of the partial image whose scan result has changed. Request.
  • the image processing engine 280 When “100” is set in the data area indicating the data type of the first command, the image processing engine 280 displays the entire image in the data area DA14 indicating the image of the response data shown in FIG. Write image data. In this case, the image processing engine 280 does not write the value of the center coordinate in the data area DA12 indicating the coordinate. After writing the image data of the whole image, the image processing engine 280 sends response data including the image data of the whole image to the main body device 104. The main device 104 sends response data including image data of the entire image to the main device 101 of the first unit 1001. As described above, when “100” is set in the data area indicating the data type, the first command requests the output of the image data of the entire image without requesting the output of the center coordinate value. .
  • the image processing engine 280 When “101” is set in the data area indicating the data type of the first command, the image processing engine 280 writes the value of the central coordinate in the data area DA12 indicating the coordinate and the data indicating the image. The image data of the entire image is written in the area DA14. Thereafter, the image processing engine 280 sends response data including the value of the center coordinate and the image data of the entire image to the main body device 104. The main device 104 sends response data including the value of the center coordinate and the image data of the entire image to the main device 101 of the first unit 1001.
  • the first command requests the output of the value of the center coordinate and the output of the image data of the entire image.
  • FIG. 24 is a cross-sectional view showing a configuration in which a photodiode receives external light during scanning. As shown in the figure, part of the external light is blocked by the finger 900. Therefore, the photodiode disposed under the surface area of the display panel 140 that is in contact with the finger 900 can hardly receive external light. In addition, although the photodiodes disposed under the surface area where the shadow of the finger 900 is formed can receive a certain amount of external light, the amount of external light received is small compared to the surface area where no shadow is formed.
  • the optical sensor circuit 144 can output a voltage corresponding to the position of the finger 900 relative to the surface of the display panel 140 from the sensor signal line SSj. it can.
  • the display panel 140 has a contact position of the finger 900, a contact range of the finger 900 (determined by the pressing force of the finger 900), and the display panel 140.
  • the voltage output from the sensor signal lines (SS1 to SSn) varies depending on the direction of the finger 900 with respect to the surface of the sensor.
  • the display device 102 can scan an image (hereinafter also referred to as a shadow image) obtained by blocking external light by the finger 900.
  • the display device 102 may be configured to perform scanning by turning on the backlight 179 and then performing scanning again by turning off the backlight 179.
  • the display device 102 may be configured to perform scanning by turning off the backlight 179 and then performing scanning again by turning on the backlight 179.
  • the operation of the display device 103 is controlled in accordance with a command (for example, a first command) from the main body device 101 as in the operation of the display device 102.
  • the display device 103 has the same configuration as the display device 102. Therefore, when the display device 103 receives the same command as the display device 102 from the main body device 101, the display device 103 performs the same operation as the display device 102. For this reason, description of the configuration and operation of the display device 103 will not be repeated.
  • the main device 101 can send commands having different commands to the display device 102 and the display device 103.
  • the display device 102 and the display device 103 perform different operations.
  • the main device 101 may send a command to either the display device 102 or the display device 103. In this case, only one display device performs an operation according to the command.
  • the main device 101 may send a command having the same command to the display device 102 and the display device 103. In this case, the display device 102 and the display device 103 perform the same operation.
  • the size of the display panel 140 of the display device 102 and the size of the display panel 240 of the display device 103 may be the same or different. Further, the resolution of the display panel 140 and the resolution of the display panel 240 may be the same or different.
  • FIG. 25 is a block diagram showing a functional configuration of electronic device 100 according to the present embodiment.
  • the electronic device 100 includes a reception unit 1101, a first display control unit 1103, and a second display control unit 1110.
  • electronic device 100 includes RAM 171, first display panel 140, and second display panel 240.
  • the first display panel 140 emits visible light based on the content data 1711 from the first display control unit 1103, that is, based on an output signal from the CPU 110. More specifically, the first display panel 140 uses light from the backlight 179 based on the content data 1711 from the first display control unit 1103 via the image processing engine 180 (FIG. 10) or the like. While displaying text and images.
  • Each of the plurality of photosensor circuits 244 of the second display panel 240 receives incident light and generates an electrical signal corresponding to the incident light.
  • the plurality of optical sensor circuits 244 as a whole input an electrical signal corresponding to incident light to the reception unit 1101 via the image processing engine 280 (FIG. 10) or the like.
  • the plurality of optical sensor circuits 244 may read the contact position of the finger 900, the stylus pen, or the like with the backlight 179 turned off as shown in FIG.
  • the plurality of photosensor circuits 244 and the image processing engine 280 realize an operation unit as a whole. Then, the operation unit receives an operation command for controlling the display of the text displayed on the first display panel 140 via the second display panel 240 or is displayed on the first display panel 140. Or accepting a move command to move the current pointer.
  • Each of the plurality of pixel circuits 241 of the second display panel 240 emits visible light based on the effect image data from the second display control unit 1110, that is, based on the output signal from the CPU 110. More specifically, the plurality of pixel circuits 241 as a whole emit light from the backlight 179 based on the effect image data from the second display control unit 1110 via the image processing engine 280 (FIG. 10) or the like. Display effect images sequentially while using.
  • the RAM 171 stores content data 1711 and 1712 for displaying content and effect image data groups 171A and 171B for displaying effect images.
  • FIG. 26 is an image diagram showing effect image data groups 171A, 171B, and 171C stored in the RAM 171 according to the present embodiment.
  • the RAM 171 stores an effect image data group 171A for each content type (content attribute).
  • Each of the effect image data groups 171A according to the present embodiment includes a series of effect image data. That is, the effect image data group constitutes a moving image as a whole.
  • the text effect image data group 171A includes a plurality (a series) of effect image data 171A-1, 171A-2, and 171A-3.
  • the second display control unit 1110 sequentially displays the effect image data 171A-1, 171A-2, 171A-3 on the second display panel 240 when the first display control unit 1103 switches the text in units of pages.
  • the image effect image data group 171B includes a plurality (a series) of effect image data 171B-1, 171B-2, and 171B-3.
  • the second display control unit 1110 sequentially applies the effect image data 171B-1, 171B-2, 171B-3 to the second display panel 240 when the first display control unit 1103 moves the text in units of lines. Display.
  • the image effect image data group 171C includes a plurality (a series) of effect image data 171C-1, 171C-2, and 171C-3.
  • the second display control unit 1110 causes the second display panel 240 to sequentially display the effect image data 171C-1, 171C-2, and 171C-3 when the first display control unit 1103 switches images.
  • FIG. 27 is an image diagram showing the data structure of content attribute data included in content data 1711 and 1712 according to the present embodiment. More specifically, FIG. 27 shows a data structure of attribute data corresponding to a horizontal book.
  • the attribute data includes an area DA31 in which nothing is set, a content display direction DA32, and a content attribute DA33.
  • the content display direction DA32 includes, for example, information “0” for designating horizontal writing and information “1” for designating vertical writing when the content is text.
  • the content attribute DA33 includes, for example, information “0” indicating that the content is a normal book, information “1” indicating that the content is a comic, and information “1” indicating that the content is a screen for inputting a search condition. 2 ”, information“ 3 ”indicating that the content is a search result list, information“ 4 ”indicating that the content is a search result, information“ 5 ”indicating that the content is a page image, and the like.
  • the reception unit 1101, the first display control unit 1103, and the second display control unit 1110 are functions realized by the CPU 110 and the like. More specifically, each function of the CPU 110 is a function realized by the CPU 110 executing a control program stored in the RAM 171 or the like and controlling each hardware shown in FIG.
  • any of the reception unit 1101, the second display control unit 1110, and the first display control unit 1103 may be realized by the CPU 210 or the like. More specifically, the CPU 210 executes a control program stored in the RAM 271 and the like to control each hardware shown in FIG. 10, whereby the receiving unit 1101, the second display control unit 1110, and the first display Any one of the control units 1103 may be realized.
  • the reception unit 1101 receives an operation command, a movement command, or the like input to the second display panel 240 based on an electrical signal input from the plurality of optical sensor circuits 244 via the image processing engine 280. More specifically, the reception unit 1101 acquires image data output from the image processing engine 280 of the second display panel 240 at every sensing time, and generates an operation command, a movement command, and the like based on the image data. To do.
  • the receiving unit 1101 may store the image data output from the image processing engine 280 in the RAM 271. That is, the reception unit 1101 may constantly update the image data in the RAM 271 to the latest image data. Note that the reception unit 1101 may have a function realized by the CPU 210 and the plurality of photosensor circuits 244 of the second display panel 240. That is, the accepting unit 1101 may be a concept indicating a functional block including a part of the function of the CPU 210 and the light receiving function of the second display panel 240.
  • the reception unit 1101 detects a touch operation on the second display panel 240 based on the electrical signal from the second display panel 240. And the reception part 1101 recognizes the operation command from a user according to touch operation.
  • the reception unit 1101 includes a direction determination unit 1104 that determines the moving direction of the contact position between the finger 900 detected via the second display panel 240 and the second display panel 240.
  • the direction determination unit 1104 determines whether or not the contact position has moved to the right.
  • the direction determination unit 1104 determines whether or not the contact position has moved leftward.
  • the direction determination unit 1104 determines whether or not the contact position has moved downward.
  • the direction determination unit 1104 determines whether or not the contact position has moved upward.
  • the reception unit 1101 includes a command determination unit 1105 that determines an operation command from the user based on the determination result from the direction determination unit 1104. As shown in FIG. 1B, the command determination unit 1105 determines that the first operation command has been received when it is determined that the contact position has moved to the right. When the command determination unit 1105 acquires the first operation command, the command determination unit 1105 delivers the first operation command to the first display control unit 1103 and the second display control unit 1110. As shown in FIG. 1D, the command determining unit 1105 determines that the second operation command has been received when it is determined that the contact position has moved leftward. When the command determination unit 1105 receives the second operation command, the command determination unit 1105 delivers the second operation command to the first display control unit 1103 and the second display control unit 1110.
  • the command determination unit 1105 determines that the third operation command has been received when it is determined that the contact position has moved downward.
  • the command determination unit 1105 delivers the third operation command to the first display control unit 1103 and the second display control unit 1110.
  • the command determination unit 1105 determines that the fourth operation command has been received when it is determined that the contact position has moved upward.
  • the command determination unit 1105 transfers the fourth operation command to the first display control unit 1103 and the second display control unit 1110.
  • the first display control unit 1103 reads the content data 1711 from the RAM 171 based on the operation command (display command) from the reception unit 1101.
  • the first display control unit 1103 displays content on the first display panel 140 based on the attribute data shown in FIG. For example, as shown in FIGS. 1A and 4A, the first display control unit 1103 causes the first display panel 140 to display the third page of text.
  • the first display control unit 1103 designates a display target area of content to be displayed by the first display control unit 1103. That is, when the text is displayed in horizontal writing, the first display control unit 1103 receives the first operation command from the reception unit 1101 and displays the display target area (display) to be displayed by the first display control unit 1103. Move the target page back by one page.
  • the first display control unit 1103 receives a first operation command and generates information indicating a page, a line, and the like to be displayed by the first display control unit 1103.
  • the first display control unit 1103 may generate a first command to display the page before the currently displayed page.
  • the first display control unit 1103 receives a second operation command from the reception unit 1101 and displays a display target area (display target page) to be displayed by the first display control unit 1103. ) Go forward by one page.
  • the first display control unit 1103 receives the second operation command and generates information indicating a page, a line, and the like to be displayed by the first display control unit 1103.
  • the first display control unit 1103 may generate a second command to display the next page after the currently displayed page.
  • the first display control unit 1103 receives the third operation command from the reception unit 1101 and displays the display target area (display) to be displayed by the first display control unit 1103. Move the target page back by one line.
  • the first display control unit 1103 receives a first operation command and generates information indicating a page, a line, and the like to be displayed by the first display control unit 1103.
  • the first display control unit 1103 receives a fourth operation command from the reception unit 1101 and displays a display target area (display target page) to be displayed by the first display control unit 1103. ) Go forward by one line.
  • the first display control unit 1103 receives a fourth operation command and generates information indicating a page, a line, and the like to be displayed by the first display control unit 1103.
  • the first display control unit 1103 displays a part of the text via the first display panel 140 based on the content data 1711 in accordance with the designation of the display target area (display target page). For example, the first display control unit 1103 displays the second page of text as shown in FIG. 1C in response to the first operation command (first command). The first display control unit 1103 displays the fourth page of the text as shown in FIG. 1E in response to the second operation command (second command). In response to the third operation command (third command), the first display control unit 1103 returns the text to be displayed by one line as shown in FIG. The first display control unit 1103 advances the text to be displayed by one line as illustrated in FIG. 2E in response to the fourth operation command (fourth command).
  • the first display control unit 1103 displays information (display mode data) indicating what type (attribute) of the content displayed via the first display panel 140 is the second display.
  • the data is transferred to the control unit 1110.
  • FIG. 28 is a first image diagram showing a data structure of display mode data according to the present embodiment. More specifically, FIG. 28 shows a data structure of display mode data when the first display control unit 1103 displays a horizontally written normal book via the first display panel 140.
  • the display mode data includes an area DA41 in which nothing is set and a content display mode DA42.
  • the content display mode DA42 is, for example, information “0” indicating that the first display control unit 1103 has returned the display target area by one page, and the first display control unit 1103 advances the display target area by one page.
  • FIG. 29 is an image diagram showing a data structure of command data for display according to the present embodiment. More specifically, FIG. 29 shows a data structure of display command data when the first display control unit 1103 displays a horizontally written normal book via the first display panel 140.
  • the display command data includes an area DA51 in which nothing is set and a display command area DA52, similarly to the display mode data.
  • the display instruction area DA52 includes, for example, information “0” indicating an instruction to return the display target area by one page, information “1” indicating an instruction to advance the display target area by one page, and information “1” indicating an instruction to return the display target area by one line.
  • the second display control unit 1110 receives the first operation command from the reception unit 1101 and the display mode data (text is displayed) from the first display control unit 1103, and performs the second display.
  • An effect image for sending a page is displayed via the panel 240. More specifically, the second display control unit 1110 reads the effect image data group 171A corresponding to the display mode data in the first order in response to the first operation command, and applies the effect to the second display panel 240. The images are displayed in the first order.
  • the second display control unit 1110 receives the second operation command from the reception unit 1101 and the display mode data (that text is displayed) from the first display control unit 1103, and performs the second display. An effect image for returning the page is displayed via the panel 240. More specifically, the second display control unit 1110 reads the effect image data group 171A corresponding to the display mode data in the second order in accordance with the second operation command, and applies the effect to the second display panel 240. The images are displayed in the second order.
  • the second display control unit 1110 receives the third operation command from the reception unit 1101 and the display mode data (text is displayed) from the first display control unit 1103, and receives the second operation command.
  • the effect image for sending the page is displayed via the display panel 240. More specifically, the second display control unit 1110 reads the effect image data group 171B corresponding to the display mode data in accordance with the third operation command, and sequentially applies the effect images to the second display panel 240. Display.
  • the second display control unit 1110 receives the fourth operation command from the reception unit 1101 and the display mode data (that text is displayed) from the first display control unit 1103, and performs the second display. An effect image for returning the page is displayed via the panel 240. More specifically, the second display control unit 1110 reads the effect image data group 171C corresponding to the display mode data in accordance with the fourth operation command, and sequentially applies the effect images to the second display panel 240. Display.
  • the second display control unit 1110 displays the film on the second display panel 240.
  • Display effect images such as cards and cards. Since the function of the second display control unit 1110 in such a case is the same as that in the case of the effect image of the book, description thereof will not be repeated here.
  • the accepting unit 1101 may deliver the display mode data to the first display control unit 1103 and the second display control unit 1110 in response to a touch operation on the second display panel 240. Then, the first display control unit 1103 may update the content to be displayed based on the display mode data from the reception unit 1101. The second display control unit 1110 may display the effect image based on the display mode data from the reception unit 1101.
  • the reception unit 1101, the first display control unit 1103, and the second display control unit 1110 have been described as different functional blocks. However, two or more of them may be combined into one functional block, or one of them may be divided into two or more functional blocks.
  • reception unit 1101 and the second display control unit 1110 may be configured as one module realized by the CPU 210, and the first display control unit 1103 may be configured as one module realized by the CPU 110.
  • FIG. 30 is a second image diagram showing electronic apparatus 100 at the time of page switching processing according to the present embodiment. More specifically, FIG. 30A is an image diagram of the electronic device 100 in a state where the first display panel 140 displays the third page of text in vertical writing. FIG. 30B is an image diagram of the electronic device 100 when a right touch operation is input to the second display panel 240. FIG. 30C is an image diagram of the electronic device 100 in a state where the text is advanced by one page. FIG. 30D is an image diagram of the electronic device 100 when a left touch operation is input to the second display panel 240. FIG. 30E is an image diagram of the electronic device 100 in a state where the text is returned by one page.
  • electronic device 100 causes first page of text to be displayed on first display panel 140 in vertical writing. More specifically, the electronic device 100 accepts an operation from the user and causes the first display panel 140 to display a page desired by the user. Electronic device 100 accepts a page switching command from the user via second display panel 240.
  • electronic device 100 accepts a right touch operation from the user via second display panel 240. That is, the user slides the finger 900 or the stylus pen to the right while the finger 900 or a stylus pen (not shown) is in contact with the second display panel 240. More specifically, electronic device 100 receives a touch operation in the right direction by detecting a contact position between second display panel 240 and finger 900.
  • electronic device 100 causes first display panel 140 to display the fourth page of text. That is, when displaying the text in vertical writing, electronic device 100 advances the displayed text first (next) in response to a touch operation in the right direction.
  • the electronic device 100 according to the present embodiment is configured to perform the second processing based on the effect image data for books stored in advance in a RAM or the like. Are displayed in the first order on the display panel 240.
  • electronic device 100 accepts a leftward touch operation from the user via second display panel 240. That is, the user slides the finger 900 leftward with the finger 900 or the like being in contact with the second display panel 240. More specifically, electronic device 100 receives a touch operation in the left direction by detecting a contact position between second display panel 240 and finger 900.
  • electronic device 100 causes second page of text to be displayed on first display panel 140. That is, when displaying the text in vertical writing, electronic device 100 returns the displayed text to the front in response to a leftward touch operation.
  • the electronic device 100 according to the present embodiment performs the second processing based on the effect image data for books stored in advance in a RAM or the like.
  • the effect image for turning the book is displayed in the reverse order (second order) of the first order.
  • electronic device 100 executes electronic device 100 according to an input operation when the text is displayed in vertical writing and when the text is displayed in horizontal writing. Processing is different. This configuration usually comes from the fact that pages in real vertical writing progress from right to left, and pages in real horizontal writing progress from left to right. That is, since the electronic device 100 realizes a virtual book (text), it is preferable that the user's operation and the processing of the electronic device 100 are associated with each other based on the arrangement of pages in the actual book. .
  • second display panel 240 When electronic device 100 according to the present embodiment receives a touch operation in the right direction on first display panel 140, second display panel 240 does not display horizontally or vertically. The effect image shown in FIG. 2 is displayed. On the other hand, when a right touch operation is input to the first display panel 140, the electronic device 100 displays different pages on the first display panel 140 for horizontal writing and vertical writing.
  • the user can easily associate operations performed on the electronic device with processing executed in the electronic device.
  • electronic device 100 according to the present embodiment can also realize the following applied functions.
  • FIG. 31 to FIG. 33 an outline of operation of electronic device 100 according to the present embodiment when first display panel 140 displays a search result list will be described.
  • FIG. 31 is an image diagram showing the electronic device 100 when the search result being selected according to the present embodiment is switched. More specifically, FIG. 31A is an image diagram of the electronic device 100 in a state where the first display panel 140 displays the search result list. FIG. 31B is an image diagram of the electronic device 100 when an upward touch operation is input to the second display panel 240. FIG. 31C is an image diagram of electronic device 100 in a state where the previous search result is selected. FIG. 31D is an image diagram of the electronic device 100 when a downward touch operation is input to the second display panel 240. FIG. 31E is an image diagram of the electronic device 100 in a state where the next search result is selected.
  • FIG. 32 is a first image diagram showing the second display panel 240 when the search result being selected according to the present embodiment is switched.
  • FIG. 33 is a second image diagram showing the second display panel when the search result being selected according to the present embodiment is switched.
  • electronic device 100 causes first display panel 140 to display the search result list in horizontal writing. More specifically, electronic device 100 according to the present embodiment has an electronic dictionary function. The electronic device 100 receives a search condition from the user, and causes the first display panel 140 to display a search result that matches the search condition.
  • the accepting unit 1101 accepts input of a character string via the second display panel 240 or the operation key 177.
  • the first display control unit 1103 refers to the database of the RAM 171 and causes the first display panel 140 to display a list of headings including the character string as search results. That is, the first display control unit 1103 causes the first display panel 140 to display a search result list including at least one search result. At this time, the first display control unit 1103 puts one search result in the search result list into a selected state, for example, by highlighting it.
  • electronic device 100 accepts an upward touch operation from the user via second display panel 240. That is, the user slides the finger 900 upward in a state where the finger 900 or the like is in contact with the second display panel 240. More specifically, electronic device 100 accepts an upward touch operation by detecting a contact position between second display panel 240 and finger 900.
  • electronic device 100 causes first display panel 140 to display the previous search result in a selected state.
  • electronic device 100 returns the selected search result to the previous one in response to an upward touch operation.
  • electronic device 100 according to the present embodiment has an effect image data group in which the search results being selected that are stored in advance in RAM or the like are switched. Based on this, the second display panel 240 sequentially displays effect images in which the selected search results are switched.
  • electronic device 100 accepts a downward touch operation from the user via second display panel 240. That is, the user slides the finger 900 downward with the finger 900 or the like being in contact with the second display panel 240. More specifically, electronic device 100 accepts a downward touch operation by detecting a contact position between second display panel 240 and finger 900.
  • electronic device 100 causes first display panel 140 to display the next search result in a selected state. That is, when displaying the search result list, electronic device 100 advances the selected search result by one in response to a downward touch operation.
  • electronic device 100 according to the present embodiment has an effect image data group in which the search results being selected stored in advance in RAM or the like are switched. Based on this, the second display panel 240 sequentially displays effect images in which the selected search results are switched.
  • electronic device 100 displays different effect images on second display panel 240 when the search result selection is advanced and when the search result is returned.
  • the electronic device 100 sequentially displays previously stored effect images via a display area (second display area) different from the content display area (first display area). There is no need to perform image processing according to the headline. As a result, the electronic device 100 can make the user intuitively recognize the progress state of the content with a simple process.
  • electronic device 100 according to the present embodiment can also realize the following applied functions.
  • FIGS. 34 to 36 an outline of operation of electronic device 100 according to the present embodiment when first display panel 140 displays a detailed screen of search results will be described.
  • FIG. 34 is an image diagram showing an electronic device during search result page switching processing according to the present embodiment. More specifically, FIG. 34A is an image diagram of the electronic device 100 in a state where the first display panel 140 displays a detailed search result screen.
  • FIG. 34B is an image diagram of the electronic device 100 when a touch operation in the upper right direction is input to the second display panel 240.
  • FIG. 34C is an image diagram of the electronic device 100 in a state where the previous search result is displayed.
  • FIG. 34D is an image diagram of the electronic device 100 when a lower left touch operation is input to the second display panel 240.
  • FIG. 34E is an image diagram of the electronic device 100 in a state in which the next search result is displayed.
  • FIG. 35 is a first image diagram showing the second display panel during the search result page switching process according to the present embodiment.
  • FIG. 36 is a second image diagram showing the second display panel during the search result page switching process according to the present embodiment.
  • electronic device 100 causes first display panel 140 to display detailed search results in horizontal writing.
  • electronic device 100 according to the present embodiment has an electronic dictionary function.
  • the electronic device 100 accepts a search result selection command from the user and displays the detailed contents of the search result on the first display panel 140.
  • the accepting unit 1101 accepts an instruction via the second display panel 240 or the operation key 177.
  • the first display control unit 1103 refers to the database of the RAM 171 and causes the first display panel 140 to display detailed search results as shown in FIG.
  • electronic device 100 accepts a touch operation in the upper right direction from the user via second display panel 240. That is, the user slides the finger 900 in the upper right direction with the finger 900 or the like being in contact with the second display panel 240. More specifically, electronic device 100 accepts a touch operation in the upper right direction by detecting a contact position between second display panel 240 and finger 900.
  • electronic device 100 causes first display panel 140 to display the detailed contents of the next search result. That is, when displaying the detailed content of the search result, electronic device 100 advances the displayed search result by one in response to a touch operation in the upper right direction. At this time, as shown in FIGS. 35 (A) to 35 (E), electronic device 100 according to the present embodiment turns effect image data for turning one card indicating a search result stored in advance in a RAM or the like. Based on the group, the second display panel 240 displays an effect image for turning one card indicating the search result.
  • electronic device 100 accepts a touch operation in the lower left direction from the user via second display panel 240. That is, the user slides the finger 900 in the lower left direction with the finger 900 or the like being in contact with the second display panel 240. More specifically, electronic device 100 accepts a touch operation in the lower left direction by detecting a contact position between second display panel 240 and finger 900.
  • electronic device 100 causes first display panel 140 to display the detailed contents of the previous search result. That is, when the detailed content of the search result is displayed, electronic device 100 restores only one search result being displayed in response to a touch operation in the lower left direction.
  • electronic device 100 according to the present embodiment covers effect image data on which one card indicating a search result stored in advance in a RAM or the like is placed. Based on the group, the second display panel 240 displays an effect image that covers one card indicating the search result.
  • electronic device 100 displays a series of different effect images on second display panel 240 when the detailed search result being displayed is advanced and when it is returned.
  • the electronic device 100 sequentially displays previously stored effect images via a display area (second display area) different from the content display area (first display area). There is no need to perform image processing according to the contents.
  • the electronic device 100 can make the user intuitively recognize the progress state of the content with a simple process.
  • the electronic device 100 according to the present embodiment can also realize the following applied functions.
  • FIGS. 37 to 39 an outline of operation of electronic device 100 according to the present embodiment when first display panel 140 displays a map image will be described.
  • FIG. 37 is an image diagram showing electronic device 100 at the time of the switching process of the map display area according to the present embodiment. More specifically, FIG. 37A is an image diagram of the electronic device 100 in a state where the first display panel 140 displays the first area of the map image.
  • FIG. 37B is an image diagram of the electronic device 100 when a right touch operation is input to the second display panel 240.
  • FIG. 37C is an image diagram of the electronic device 100 in a state where the first display panel 140 displays the second area of the map image.
  • FIG. 37D is an image diagram of the electronic device 100 when a downward touch operation is input to the second display panel 240.
  • FIG. 37E is an image diagram of the electronic device 100 in a state where the first display panel 140 displays the third area of the map image.
  • FIG. 38 is a first image diagram showing the second display panel 240 during the map display area switching process according to the present embodiment.
  • FIG. 39 is a second image diagram showing the second display panel during the map display area switching process according to the present embodiment.
  • electronic device 100 causes first display panel 140 to display the first area of the map image. More specifically, electronic device 100 according to the present embodiment receives a display position designation command from the user, and causes first display panel 140 to display a first area centered on the display position.
  • electronic device 100 receives a touch operation in the right direction from the user via second display panel 240. That is, the user slides the finger 900 rightward in a state where the finger 900 or the like is in contact with the second display panel 240. More specifically, electronic device 100 receives a touch operation in the right direction by detecting a contact position between second display panel 240 and finger 900.
  • electronic device 100 causes first display panel 140 to display a second area located on the left side of the first area in the map image. That is, when displaying the map image, electronic device 100 moves the displayed area to the left in response to a touch operation in the right direction.
  • electronic device 100 according to the present embodiment has effect image data in which a map sheet stored in advance in RAM or the like moves to the right. Based on the group, the second display panel 240 displays an effect image in which the map sheet moves to the right.
  • electronic device 100 accepts a downward touch operation from the user via second display panel 240. That is, the user slides the finger 900 downward with the finger 900 or the like being in contact with the second display panel 240. More specifically, electronic device 100 accepts a downward touch operation by detecting a contact position between second display panel 240 and finger 900.
  • electronic device 100 causes first display panel 140 to display a third area located above the first area of the map image. That is, when displaying the map image, electronic device 100 moves the displayed area upward in response to a downward touch operation.
  • the electronic device 100 according to the present embodiment has effect image data in which a map sheet stored in advance in a RAM or the like moves downward. Based on the group, an effect image in which the map sheet moves downward is displayed on the second display panel 240.
  • the electronic device 100 receives a right touch operation and a downward touch operation has been described, but the above description also applies when the electronic device 100 receives a left touch operation and an upward touch operation.
  • the operation when electronic device 100 accepts a leftward touch operation is the same as the operation when a rightward touch operation is accepted, description thereof will not be repeated here.
  • the operation when electronic device 100 accepts an upward touch operation is the same as the operation when a downward touch operation is accepted, and thus the description thereof will not be repeated here.
  • the electronic device 100 moves the map image by an amount corresponding to half of the display area according to the direction of the touch operation, but is not limited to such a configuration.
  • the electronic device 100 may move the map image by an amount corresponding to the entire display area.
  • the electronic device 100 may change the movement amount of the map image according to the distance of the touch operation.
  • the reception unit 1101 or the direction determination unit 1104 includes a distance determination unit, and the distance determination unit determines whether the movement distance of the touch operation is equal to or greater than a predetermined value. Then, the command determination unit 1105 receives a display area switching command from the user based on the determination results from the direction determination unit 1104 and the distance determination unit.
  • electronic device 100 displays different effect images on second display panel 240 in accordance with the direction in which the map image display area moves.
  • the electronic device 100 sequentially displays the effect images stored in advance through a display area (second display area) different from the map image display area (first display area). It is not necessary to perform image processing according to the contents of As a result, the electronic device 100 can make the user intuitively recognize the progress state of the content with a simple process.
  • FIG. 40 is a flowchart showing a processing procedure of content display processing in electronic device 100 according to the present embodiment.
  • the CPU 110 functioning as the first display control unit 1103 accepts a command for displaying an electronic book from the user via the second display panel 240 or the operation key 177 and receives content data (book data) from the RAM 171. Is read (step S102).
  • CPU 110 creates initial display layout information based on the content data (step S104).
  • CPU 110 recognizes the display type (first display type) based on the content data (step S106). More specifically, the CPU 110 functioning as the first display control unit 1103 notifies the CPU 210 (or CPU 110) functioning as the second display control unit 1110 of the first display type.
  • CPU 110 displays content on first display panel 140 based on the layout information (step S108).
  • CPU 110 determines whether or not a touch operation (for example, a page switching command) has been received via second display panel 240 (step S110).
  • CPU110 repeats the process of step S110, when a touch operation is not received (when it is NO in step S110).
  • CPU 110 When CPU 110 accepts the touch operation (YES in step S110), CPU 110 creates new layout information in accordance with the touch operation based on the content data (step S112).
  • CPU 110 recognizes a new display type (second display type) based on the content data (step S114). More specifically, the CPU 110 functioning as the first display control unit 1103 notifies the CPU 210 functioning as the second display control unit 1110 of the second display type.
  • the CPU 110 redisplays the content via the first display panel 140 based on the new layout information.
  • the CPU 210 functioning as the second display control unit 1110 stores (updates) the first display type in the memory area used by itself (step S118).
  • the CPU 210 selects an operation screen based on the first display type (step S120), and displays the operation screen via the second display panel 240 (step S122). For example, when the first display panel 140 displays text, the CPU 210 causes the second display panel 240 to display a book image as shown in FIG. When the first display panel 140 displays an image, the CPU 210 causes the second display panel 240 to display a film image as shown in FIG.
  • CPU 210 (or CPU 110) functioning as reception unit 1101 determines whether or not a touch operation has been received via second display panel 240 (step S124). CPU210 repeats the process of step S124, when a touch operation is not received (when it is NO in step S124).
  • CPU210 acquires a 1st-4th operation command based on a touch operation, when a touch operation is received (when it is YES in step S124) (step S126).
  • the CPU 210 delivers the first to fourth operation commands to the CPU 110 functioning as the first display control unit 1103 (step S128).
  • the CPU 210 functioning as the second display control unit 1110 extracts the effect image data group 171A corresponding to the first display type from the RAM 171 (step S130). As shown in FIG. 2, the CPU 210 sequentially displays effect images on the second display panel 240 (step S132). The CPU 210 compares the first display type with the second display type (step S134). The CPU 210 determines whether or not the display types are different (step S136). That is, the CPU 210 determines whether or not the content type has been switched.
  • CPU210 repeats the process from step S124, when a display classification is the same (when it is NO in step S136). If the display types are different (YES in step S136), CPU 210 updates the first display type to the second display type (step S138). The CPU 210 selects an operation screen based on the updated second display type (step S140), and displays the operation screen via the second display panel 240 (step S142). CPU110 repeats the process from step S124.
  • FIG. 41 is a first image diagram illustrating a data structure of book data 171X including a plurality of types of contents.
  • FIG. 42 is a second image diagram illustrating a data structure of book data 171X including a plurality of types of contents.
  • each of the book data 171X includes first information 171Y and second information 171Z.
  • the book data 171X is stored in the RAM 171 or the like.
  • the first information 171Y includes information related to the entire content.
  • the first information 171Y includes information indicating the type of data present in the content, information indicating the number of data, and information indicating an initial layout when the book is opened.
  • the second information 171Z includes information indicating a pointer to an area that holds each layout of data and information indicating the type of content.
  • the book data 171X alternately includes information indicating the type (attribute) of the content and information necessary for laying out the content. That is, information indicating the type of content and information necessary for laying out the content are included in units of layout (for each pointer).
  • the book data 171X includes type data DA61 indicating text and layout data DA62 as the first content data.
  • Layout data DA62 includes text data.
  • the book data 171X includes type data DA63 indicating that it is a comic and layout data DA64 as the second content data.
  • Layout data DA64 includes image data.
  • the book data 171X includes type data DA65 indicating comics and layout data DA66 as third content data.
  • Layout data DA66 includes image data.
  • FIG. 43 is a first flowchart illustrating a processing procedure of processing for switching and displaying a plurality of types of content in electronic device 100 according to the present modification.
  • FIG. 44 is a second flowchart illustrating a processing procedure of processing for switching and displaying a plurality of types of content in electronic device 100 according to the present modification.
  • FIG. 45 is a third flowchart illustrating a processing procedure of processing for switching and displaying a plurality of types of content in electronic device 100 according to the present modification.
  • CPU 110 functioning as first display control unit 1103 accepts a command for displaying an electronic book from the user via second display panel 240 or operation key 177 and reads the book from RAM 171.
  • CPU110 acquires layout data DA62 of 1st content data from book data 171X (step S202).
  • CPU 110 creates an initial display layout (first layout information) based on layout data DA62 (step S204). Based on the first content data type data DA61, the CPU 110 recognizes that the first display type corresponding to the first content is text (step S206). More specifically, the CPU 110 functioning as the first display control unit 1103 notifies the CPU 210 (or CPU 110) functioning as the second display control unit 1110 of the first display type. CPU110 displays a text on the 1st display panel 140 based on layout information (step S208).
  • the CPU 210 functioning as the second display control unit 1110 sets (updates) the first display type in the memory area used by itself (step S218).
  • the CPU 210 selects an operation screen based on the first display type (step S220), and displays the operation screen via the second display panel 240 (step S222).
  • the CPU 210 causes the second display panel 240 to display a book image as shown in FIG.
  • CPU 110 determines whether or not a touch operation (for example, a page switching command) has been received via second display panel 240 (step S210).
  • CPU110 repeats the process of step S210, when a touch operation is not received (when it is NO in step S210).
  • CPU110 produces the layout information of the following page, when a touch operation is received (when it is YES in step S210) (step S212). That is, the CPU 110 creates the second layout information based on the layout data DA64 of the second content data.
  • the CPU 110 recognizes a new display type (second display type) based on the second content data type data DA63 (step S214). More specifically, the CPU 110 functioning as the first display control unit 1103 notifies the CPU 110 functioning as the second display control unit 1110 of the second display type.
  • the CPU 110 displays the content again via the first display panel 140 based on the second layout information (step S216).
  • the CPU 210 (or the CPU 110) functioning as the reception unit 1101 determines whether or not a touch operation has been received via the second display panel 240 (step S224). CPU210 repeats the process of step S224, when a touch operation is not received (when it is NO in step S224).
  • CPU210 acquires a 1st-4th operation command based on a touch operation, when a touch operation is received (when it is YES in step S224) (step S226).
  • the CPU 210 acquires a page turn command (second operation command) based on a leftward touch operation.
  • the CPU 210 delivers a page feed command to the CPU 110 functioning as the first display control unit 1103 (step S228).
  • the CPU 210 functioning as the second display control unit 1110 extracts the effect image data group 171A corresponding to the text from the RAM 171 (step S230). As shown in FIGS. 3A to 3H, the CPU 210 sequentially displays the effect images whose pages are turned on the second display panel 240 (step S232). CPU 210 compares the first display type corresponding to the text with the second display type corresponding to the comic (step S234).
  • CPU 210 determines whether or not the display types are different (step S236). CPU210 repeats the process from step S224, when a display classification is the same (when it is NO in step S236).
  • Step S2308 since the first display type is different from the second display type (in the case of YES in step S236), the display type corresponding to the currently displayed content is updated to the second display type corresponding to the comic.
  • the CPU 210 selects an operation screen corresponding to the comic (step S240), and displays an operation screen corresponding to the comic as shown in FIG. 8 via the second display panel 240 (step S242).
  • CPU110 repeats the process from step S224.
  • FIGS. 46A and 46B are image diagrams showing a second display panel showing the first additional function of electronic device 100 according to the present embodiment.
  • the electronic device 100 displays a manual image for advising the operation method on the second display panel 240 when, for example, text is displayed on the first display panel 140.
  • the second display control unit 1110 of the electronic device 100 returns the text by one page via the second display panel 240.
  • An arrow indicating the direction of the touch operation an arrow indicating the direction of the touch operation for advancing the text by one page, an arrow indicating the direction of the touch operation for advancing the text by one line, and a touch operation for advancing the text by one line
  • An arrow indicating the direction of the is displayed.
  • the second display control unit 1110 of the electronic device 100 performs a touch operation for returning the text by one page via the second display panel 240.
  • An arrow indicating the direction an arrow indicating the direction of the touch operation for advancing the text by one page, an arrow indicating the direction of the touch operation for advancing the text by one line, and the direction of the touch operation for advancing the text by one line Display arrows and so on.
  • the user can easily know the touch operation necessary for causing the electronic device 100 to execute a desired process.
  • FIG. 47 is a conceptual diagram showing a second display panel showing a second additional function of electronic device 100 according to the present embodiment.
  • an event such as a URL (Uniform Resource Locator) indicating a web page address or a link jump to another page in the same book data 171X may be set.
  • a URL Uniform Resource Locator
  • the above event may be set in a character string or an image included in the text.
  • a normal electronic device adds a “ruled line” to the character string or displays the image as a “thick frame”. Or surround with.
  • the electronic device 100 performs the following operation when the above event is set in a character string or an image included in the text. That is, as shown in FIG. 47, the electronic device 100 has a case where the pointer is positioned on the character string or the image, or when the character string or the image is positioned at the center of the first display panel 140. The fact that an event is set for them is displayed via the second display panel 240. For example, the electronic device 100 may display a character string indicating the content of the event on the second display panel 240 or display an exclamation mark indicating that the event is set on the second display panel 240. May be.
  • Electronic device 100 accepts execution from the user via second display panel 240 or operation key 177 when second display panel 240 displays a character string or an exclamation mark indicating the content of the event. The process corresponding to the event is executed.
  • FIG. 48 is an image diagram showing a second display panel showing a third additional function of electronic device 100 according to the present embodiment.
  • the electronic device 100 sets a bookmark position in the book data 171X (or the content data 1711 and 1712).
  • Electronic device 100 may set a bookmark at a predetermined position in book data 171X (or content data 1711 and 1712) in advance, or may set a bookmark position based on a command from the user.
  • the electronic device 100 causes the second display panel 240 to display an image of a book in which a bookmark is sandwiched at a location corresponding to the bookmark position.
  • Electronic device 100 accepts a touch operation on a bookmark image via second display panel 240.
  • electronic device 100 displays a page corresponding to the bookmark position on first display panel 140.
  • FIG. 49 is an image diagram showing a second display panel showing a fourth additional function of electronic device 100 according to the present embodiment.
  • electronic device 100 When electronic device 100 accepts an instruction to move to the next page (next line) while first display panel 140 displays the last page of the book, electronic device 100 may not proceed to the next page.
  • the first screen shown is displayed on the second display panel 240.
  • electronic device 100 Conversely, when electronic device 100 accepts a command to move to the previous page (previous row) while first display panel 140 displays the first page of the book, electronic device 100 advances to the previous page.
  • a second screen indicating the absence is displayed on the second display panel 240.
  • Electronic device 100 displays content via first display panel 140 and displays an operation screen and effect images via second display panel 240. That is, the first display panel 140 realizes a first display area for displaying content, and the second display panel 240 realizes a second display area for displaying an operation screen and an effect image. However, it is not limited to such a configuration.
  • FIG. 50 is an image diagram showing a first display panel according to a modification of electronic device 100 according to the present embodiment.
  • first display panel 140 realizes a first display area for displaying content and a second display area for displaying an operation screen and an effect image.
  • the electronic device uses the first display panel 140 capable of detecting a touch operation, so that the right side of the first display panel 140 functions as a first display area for displaying content.
  • the left side of one display panel 140 functions as a second display area for displaying an operation screen and an effect image. That is, the electronic device may not have the second display panel 240.
  • electronic device 100 displays content in the first display area of first display panel 140 and also displays effect image 140A in the second display area of first display panel 140. Good.
  • the electronic device 100 may accept touch operations corresponding to the first to fourth operation commands via the second display area of the first display panel 140.
  • the second display area detects a touch operation, but receives a page switching command via the operation key 177 or the like. It may be a thing. That is, even if one or both of the first display panel 140 and the second display panel 240 is an electronic device that cannot detect a touch operation, the technology of the electronic device 100 according to the above embodiment can be used. .
  • the present invention can also be applied to a case where it is achieved by supplying a program to a system or apparatus. Then, a storage medium storing a program represented by software for achieving the present invention is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the program code stored in the storage medium It is possible to enjoy the effects of the present invention also by reading and executing.
  • the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.
  • a storage medium for supplying the program code for example, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card (IC memory card), ROM (mask ROM, flash) EEPROM, etc.) can be used.
  • the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
  • 100 electronic device 101 main unit, 102, 103 display device, 110 CPU, 1101 accepting unit, 1103 first display control unit, 1104 direction judging unit, 1105 command judging unit, 1110 second display control unit, 130 driver, 131 Scanning signal line driving circuit, 132 Data signal line driving circuit, 133 Photo sensor driving circuit, 134 Switch, 135 amplifier, 140 First liquid crystal panel with built-in photo sensor (first display panel), 141, 241 Pixel circuit, 141b , 141g, 141r subpixel circuit, 143 electrode pair, 143a pixel electrode, 143b counter electrode, 144, 244 photosensor circuit, 145, 145b, 145g, 145r photodiode, 146 capacitor, 151A active matrix substrate, 1 1B counter substrate, 152 liquid crystal layer, 153b, 153g, 153r color filter, 157 data signal line, 161 polarizing filter, 162 glass substrate, 163 light shielding film, 164 alignment film, 171 RAM, 1711, 1712 content data, 17

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

A content display device (100) is provided with first and second display areas (140, 240), a memory (171) for storing a content and an image group, a reception unit (1101) for receiving first and second commands, a first display control unit (1103) for displaying an area to be displayed of the content via the first display area, advancing the area to be displayed of the content when the first command is received, and returning the area to be displayed of the content when the second command is received, and a second display control unit (1110) for outputting a first effect via the second display area on the basis of the image group when the first command is received, and outputting a second effect via the second display area on the basis of the image group when the second command is received.

Description

コンテンツ表示装置、コンテンツ表示方法、およびコンテンツ表示プログラムを記録するコンピュータ読取可能な記録媒体Content display device, content display method, and computer-readable recording medium for recording content display program
 本発明は、テキストや画像などのコンテンツを表示するコンテンツ表示装置、コンテンツ表示方法、およびコンテンツ表示プログラムを記録するコンピュータ読取可能な記録媒体に関し、特に、コンテンツの進行状態をユーザに直感的に伝えることができるコンテンツ表示装置、コンテンツ表示方法、およびコンテンツ表示プログラムを記録するコンピュータ読取可能な記録媒体に関する。 The present invention relates to a content display device that displays content such as text and images, a content display method, and a computer-readable recording medium that records a content display program, and in particular, intuitively conveys the progress of content to a user. The present invention relates to a content display device capable of performing the above, a content display method, and a computer-readable recording medium for recording a content display program.
 テキストや画像などを表示(再生)することができる電子機器(コンテンツ表示装置)が知られている。そのようなコンテンツ表示装置の中には、表示パネルと操作パネルとを有するものがある。より詳細には、コンテンツ表示装置は、表示パネルを介してユーザにテキストや画像を表示するとともに、タブレット機能などを搭載した操作パネルを介してユーザから各種の命令を受け付ける。そのようなコンテンツ表示装置としては、ノート型のパーソナルコンピュータや携帯電話などが挙げられる。 Electronic devices (content display devices) that can display (reproduce) text, images, and the like are known. Some such content display devices have a display panel and an operation panel. More specifically, the content display device displays text and images to the user via the display panel, and accepts various commands from the user via an operation panel equipped with a tablet function and the like. Examples of such content display devices include notebook personal computers and mobile phones.
 たとえば、特開2000-163193号公報(特許文献1)には、頁めくり等の操作入力を使い勝手のよいヒューマンインターフェースで実現できる電子ブックが開示されている。特開2000-163193号公報(特許文献1)によると、電子ブックは、頁番号が付与された情報を頁単位に画像情報として表示部に出力可能である。電子ブックは、表示部に接触した指の接触圧力、接触面積、接触位置を検出する指入力検出部と、検出された指の接触圧力、接触面積、接触位置、指の移動方向に基づき、頁めくり入力や連続ページめくり入力やしおり挿入、しおり挿入箇所参照入力等を判断する指入力判断部と、頁画像の更新制御を行うページ画像更新制御部と、しおりの挿入、参照処理を行うしおり処理部と、表示部に表示する画像を生成する画像生成部を含む。 For example, Japanese Patent Laid-Open No. 2000-163193 (Patent Document 1) discloses an electronic book that can be realized by a user-friendly human interface for operation input such as page turning. According to Japanese Unexamined Patent Publication No. 2000-163193 (Patent Document 1), an electronic book can output information to which a page number is assigned as image information on a page basis to a display unit. The electronic book has a finger input detection unit that detects the contact pressure, contact area, and contact position of the finger that has contacted the display unit, and the page based on the detected finger contact pressure, contact area, contact position, and finger movement direction. Finger input determination unit that determines turning input, continuous page turning input, bookmark insertion, bookmark insertion location reference input, etc., page image update control unit that performs page image update control, and bookmark processing that performs bookmark insertion and reference processing And an image generation unit that generates an image to be displayed on the display unit.
特開2000-163193号公報JP 2000-163193 A
 コンテンツ表示装置は仮想の書籍や仮想のアルバムなどを実現するものであるため、当該コンテンツ表示装置が行っている処理や当該コンテンツ表示装置に対してユーザが行うべき操作を、ユーザが直感的に認識できることが好ましい。たとえば、コンテンツ表示装置は、閲覧中の書籍のページがめくられる動画像を表示することによって、ユーザに書籍が次のページへ進んだことを認識させることができる。しかしながら、コンテンツ表示装置は、閲覧中の書籍を次のページに進める動画像を表示するために、複雑な画像処理を行う必要がある。つまり、コンテンツ表示装置は、コンテンツの進行状態をユーザに直感的に認識させるために、多くの計算を行う必要があるという問題が挙げられる。 Since the content display device realizes a virtual book, a virtual album, or the like, the user intuitively recognizes the processing performed by the content display device and the operation to be performed by the user on the content display device. Preferably it can be done. For example, the content display device can make the user recognize that the book has advanced to the next page by displaying a moving image in which the page of the book being browsed is turned. However, the content display apparatus needs to perform complicated image processing in order to display a moving image that advances the book being browsed to the next page. That is, there is a problem that the content display device needs to perform many calculations in order to make the user intuitively recognize the progress state of the content.
 本発明は、かかる問題を解決するためになされたものであり、その目的は、簡単な処理でコンテンツの進行状態をユーザに直感的に認識させることができるコンテンツ表示装置、コンテンツ表示方法、およびコンテンツ表示プログラムを記録するコンピュータ読取可能な記録媒体を提供することである。 The present invention has been made to solve such a problem, and an object of the present invention is to provide a content display device, a content display method, and a content that allow a user to intuitively recognize the progress state of the content through simple processing. A computer-readable recording medium for recording a display program is provided.
 この発明のある局面に従うと、コンテンツ表示装置が提供される。コンテンツ表示装置は、第1および第2の表示エリアと、少なくとも1つのコンテンツと少なくとも1つの画像群とを記憶するためのメモリと、第1および第2の命令のいずれかを受け付けるための受付部と、第1の表示エリアを介してコンテンツの表示対象エリアを表示させ、第1の命令を受け付けたときにコンテンツの表示対象エリアを進め、第2の命令を受け付けたときにコンテンツの表示対象エリアを戻すための第1の表示制御部と、第1の命令を受け付けたときに少なくとも1つの画像群に基づいて第2の表示エリアを介して第1のエフェクトを出力し、第2の命令を受け付けたときに少なくとも1つの画像群に基づいて第2の表示エリアを介して第2のエフェクトを出力するための第2の表示制御部とを備える。 According to an aspect of the present invention, a content display device is provided. The content display device includes a first and second display area, a memory for storing at least one content and at least one image group, and a reception unit for receiving one of the first and second instructions. The display target area of the content is displayed via the first display area, the display target area of the content is advanced when the first command is received, and the display target area of the content is received when the second command is received A first display control unit for returning the first effect, and when the first command is received, the first effect is output via the second display area based on at least one image group, and the second command is output And a second display control unit for outputting the second effect via the second display area based on at least one image group when received.
 好ましくは、第2の表示制御部は、第1の命令を受け付けたときに、第2の表示エリアに少なくとも1つの画像群のいずれかを第1の順に表示させることによって第1のエフェクトを出力し、第2の命令を受け付けたときに、第2の表示エリアに少なくとも1つの画像群のいずれかを第1の順と逆向きの第2の順に表示させることによって第2のエフェクトを出力する。 Preferably, when the second display control unit receives the first command, the second display control unit outputs the first effect by causing the second display area to display at least one image group in the first order. When the second command is received, the second effect is output by displaying any one of the at least one image group in the second display area in the second order opposite to the first order. .
 好ましくは、少なくとも1つの画像群は、第1の画像群と第2の画像群とを含む。第2の表示制御部は、第1の命令を受け付けたときに、第2の表示エリアに第1の画像群を順次表示させることによって第1のエフェクトを出力し、第2の命令を受け付けたときに、第2の表示エリアに第2の画像群を順次表示させることによって第2のエフェクトを出力する。 Preferably, the at least one image group includes a first image group and a second image group. When receiving the first command, the second display control unit outputs the first effect by sequentially displaying the first image group in the second display area, and receives the second command. Sometimes, the second effect is output by sequentially displaying the second image group in the second display area.
 好ましくは、コンテンツ表示装置は、第2の表示エリアを含むタッチパネルをさらに備える。受付部は、第2の表示エリアに対するタッチ操作に基づいて、第1および第2の命令のいずれかを受け付ける。 Preferably, the content display device further includes a touch panel including a second display area. The accepting unit accepts either the first command or the second command based on a touch operation on the second display area.
 好ましくは、コンテンツ表示装置は、第1の表示エリアを含むディスプレイをさらに備える。 Preferably, the content display device further includes a display including a first display area.
 好ましくは、タッチパネルは第1の表示エリアを含む。
 好ましくは、メモリは、複数の画像群の各々を属性に対応付けて記憶するとともに、複数のコンテンツの各々を属性に対応付けて記憶する。第2の表示制御部は、第1の表示エリアに表示されているコンテンツに対応する画像群を第2の表示エリアに表示する。
Preferably, the touch panel includes a first display area.
Preferably, the memory stores each of the plurality of image groups in association with the attribute, and stores each of the plurality of contents in association with the attribute. The second display control unit displays an image group corresponding to the content displayed in the first display area in the second display area.
 好ましくは、メモリは、複数のコンテンツを一連のコンテンツ群として記憶する。第1の表示制御部は、一連のコンテンツ群を参照して、コンテンツの各々を対応する属性に基づいて表示する。 Preferably, the memory stores a plurality of contents as a series of content groups. The first display control unit refers to a series of content groups and displays each content based on a corresponding attribute.
 この発明の別の局面に従うと、演算処理部と、第1および第2の表示エリアと、少なくとも1つのコンテンツと少なくとも1つの画像群とを記憶するためのメモリとを含むコンピュータにコンテンツを表示させるためのコンテンツ表示プログラムを記録するコンピュータ読取可能な記録媒体が提供される。コンテンツ表示プログラムは、演算処理部に、第1および第2の命令のいずれかを受け付けるステップと、第1の表示エリアを介してコンテンツの表示対象エリアを表示するステップと、第1の命令を受け付けたときにコンテンツの表示対象エリアを進めるステップと、第2の命令を受け付けたときにコンテンツの表示対象エリアを戻すステップと、第1の命令を受け付けたときに少なくとも1つの画像群に基づいて第2の表示エリアを介して第1のエフェクトを出力するステップと、第2の命令を受け付けたときに少なくとも1つの画像群に基づいて第2の表示エリアを介して第2のエフェクトを出力するステップとを実行させる。 According to another aspect of the present invention, content is displayed on a computer including an arithmetic processing unit, first and second display areas, and a memory for storing at least one content and at least one image group. A computer-readable recording medium for recording a content display program is provided. The content display program receives the first instruction and the step of receiving one of the first and second instructions in the arithmetic processing unit, the step of displaying the display target area of the content via the first display area, and the first instruction. A step of advancing the content display target area when the second command is received, a step of returning the content display target area when the second command is received, and a step based on at least one image group when the first command is received. Outputting a first effect via two display areas, and outputting a second effect via the second display area based on at least one image group when a second command is received And execute.
 好ましくは、第1のエフェクトを出力するステップは、第2の表示エリアに少なくとも1つの画像群のいずれかを第1の順に表示させるステップを含む。第2のエフェクトを出力するステップは、第2の表示エリアに少なくとも1つの画像群のいずれかを第1の順と逆向きの第2の順に表示させるステップを含む。 Preferably, the step of outputting the first effect includes a step of displaying at least one of the image groups in the second display area in the first order. The step of outputting the second effect includes a step of displaying any one of the at least one image group in the second display area in a second order opposite to the first order.
 好ましくは、少なくとも1つの画像群は、第1の画像群と第2の画像群とを含む。第1のエフェクトを出力するステップは、第2の表示エリアに第1の画像群を順次表示させるステップを含む。第2のエフェクトを出力するステップは、第2の表示エリアに第2の画像群を順次表示させるステップを含む。 Preferably, the at least one image group includes a first image group and a second image group. The step of outputting the first effect includes a step of sequentially displaying the first image group in the second display area. The step of outputting the second effect includes a step of sequentially displaying the second image group in the second display area.
 好ましくは、コンピュータは、第2の表示エリアを含むタッチパネルをさらに含む。第1および第2の命令のいずれかを受け付けるステップは、第2の表示エリアに対するタッチ操作に基づいて、第1および第2の命令のいずれかを受け付けるステップを含む。 Preferably, the computer further includes a touch panel including a second display area. The step of accepting either the first or second command includes the step of accepting either the first or second command based on a touch operation on the second display area.
 好ましくは、コンピュータは、第1の表示エリアを含むディスプレイをさらに含む。
 好ましくは、タッチパネルは第1の表示エリアを含む。
Preferably, the computer further includes a display including the first display area.
Preferably, the touch panel includes a first display area.
 好ましくは、メモリは、複数の画像群の各々を属性に対応付けて記憶するとともに、複数のコンテンツの各々を属性に対応付けて記憶する。第1のエフェクトを出力するステップは、第1の表示エリアに表示されているコンテンツに対応する画像群を第2の表示エリアに表示するステップを含む。第2のエフェクトを出力するステップは、第1の表示エリアに表示されているコンテンツに対応する画像群を第2の表示エリアに表示するステップを含む。 Preferably, the memory stores each of the plurality of image groups in association with the attribute, and stores each of the plurality of contents in association with the attribute. The step of outputting the first effect includes a step of displaying an image group corresponding to the content displayed in the first display area in the second display area. The step of outputting the second effect includes a step of displaying an image group corresponding to the content displayed in the first display area in the second display area.
 好ましくは、メモリは、複数のコンテンツを一連のコンテンツ群として記憶する。表示対象エリアを表示するステップは、一連のコンテンツ群を参照して、コンテンツの各々を対応する属性に基づいて第1の表示エリアに表示するステップを含む。 Preferably, the memory stores a plurality of contents as a series of content groups. The step of displaying the display target area includes a step of displaying each of the contents in the first display area based on a corresponding attribute with reference to a series of content groups.
 この発明の別の局面に従うと、演算処理部と、第1および第2の表示エリアと、少なくとも1つのコンテンツと少なくとも1つの画像群とを記憶するためのメモリとを含むコンピュータにおけるコンテンツ表示方法が提供される。コンテンツ表示方法は、演算処理部が、第1および第2の命令のいずれかを受け付けるステップと、演算処理部が、第1の表示エリアを介してコンテンツの表示対象エリアを表示するステップと、演算処理部が、第1の命令を受け付けたときにコンテンツの表示対象エリアを進めるステップと、演算処理部が、第2の命令を受け付けたときにコンテンツの表示対象エリアを戻すステップと、演算処理部が、第1の命令を受け付けたときに少なくとも1つの画像群に基づいて第2の表示エリアを介して第1のエフェクトを出力するステップと、演算処理部が、第2の命令を受け付けたときに少なくとも1つの画像群に基づいて第2の表示エリアを介して第2のエフェクトを出力するステップとを備える。 According to another aspect of the present invention, there is provided a content display method in a computer including an arithmetic processing unit, first and second display areas, and a memory for storing at least one content and at least one image group. Provided. The content display method includes: a step in which the arithmetic processing unit accepts one of the first and second instructions; a step in which the arithmetic processing unit displays a content display target area via the first display area; A step in which the processing unit advances the content display target area when receiving the first command; a step in which the arithmetic processing unit returns the content display target area when receiving the second command; When the first instruction is received, the step of outputting the first effect via the second display area based on at least one image group, and the arithmetic processing unit receives the second instruction And outputting a second effect via the second display area based on at least one image group.
 以上のように、本発明によって、簡単な処理でコンテンツの進行状態をユーザに直感的に認識させることができるコンテンツ表示装置、コンテンツ表示方法、およびコンテンツ表示プログラムを記録するコンピュータ読取可能な記録媒体が提供される。 As described above, according to the present invention, there is provided a content display device, a content display method, and a computer-readable recording medium for recording a content display program that allow a user to intuitively recognize the progress state of content by simple processing. Provided.
本実施の形態に係るページ切り替え処理時の電子機器を示す第1のイメージ図である。It is a 1st image figure which shows the electronic device at the time of the page switching process which concerns on this Embodiment. 本実施の形態に係るページ切り替え処理時の第2の表示パネルを示す第1のイメージ図である。It is a 1st image figure which shows the 2nd display panel at the time of the page switching process which concerns on this Embodiment. 本実施の形態に係るページ切り替え処理時の第2の表示パネルを示す第2のイメージ図である。It is a 2nd image figure which shows the 2nd display panel at the time of the page switching process which concerns on this Embodiment. 本実施の形態に係る行切り替え処理時の電子機器の外観を示すイメージ図である。It is an image figure which shows the external appearance of the electronic device at the time of the row switching process which concerns on this Embodiment. 本実施の形態に係る行切り替え処理時の第2の表示パネルを示す第1のイメージ図である。It is a 1st image figure which shows the 2nd display panel at the time of the row switching process which concerns on this Embodiment. 本実施の形態に係る行切り替え処理時の第2の表示パネルを示す第2のイメージ図である。It is a 2nd image figure which shows the 2nd display panel at the time of the row switching process which concerns on this Embodiment. 本実施の形態に係る画像切り替え処理時の電子機器の外観を示すイメージ図である。It is an image figure which shows the external appearance of the electronic device at the time of the image switching process which concerns on this Embodiment. 本実施の形態に係る画像切り替え処理時の第2の表示パネルを示す第1のイメージ図である。It is a 1st image figure which shows the 2nd display panel at the time of the image switching process which concerns on this Embodiment. 本実施の形態に係る画像切り替え処理時の第2の表示パネルを示す第2のイメージ図である。It is a 2nd image figure which shows the 2nd display panel at the time of the image switching process which concerns on this Embodiment. 電子機器のハードウェア構成を表わすブロック図である。It is a block diagram showing the hardware constitutions of an electronic device. 表示パネルの構成と当該表示パネルの周辺回路とを示した図である。It is the figure which showed the structure of the display panel, and the peripheral circuit of the said display panel. 表示パネルとバックライトとの断面図である。It is sectional drawing of a display panel and a backlight. 光センサ回路を動作させる際のタイミングチャートを示した図である。It is the figure which showed the timing chart at the time of operating an optical sensor circuit. スキャンの際にフォトダイオードがバックライトからの光を受光する構成を示した断面図である。It is sectional drawing which showed the structure which a photodiode receives the light from a backlight in the case of a scan. コマンドの概略構成を示した図である。It is the figure which showed schematic structure of the command. 種別「000」のコマンドを説明するための図である。It is a figure for demonstrating the command of classification "000". 種別「001」のコマンドを説明するための図である。FIG. 10 is a diagram for explaining a command of type “001”. 種別「010」のコマンドを説明するための図である。It is a figure for demonstrating the command of classification "010". 種別「011」のコマンドを説明するための図である。FIG. 10 is a diagram for explaining a command of type “011”. 種別「100」のコマンドを説明するための図である。It is a figure for demonstrating the command of classification "100". 種別「101」のコマンドを説明するための図である。FIG. 10 is a diagram for explaining a command of type “101”. 応答データの概略構成を示した図である。It is the figure which showed schematic structure of the response data. 指をスキャンすることにより得られた画像(スキャン画像)を示した図である。It is the figure which showed the image (scanned image) obtained by scanning a finger | toe. スキャンの際にフォトダイオードが外光を受光する構成を示した断面図である。It is sectional drawing which showed the structure which a photodiode receives external light in the case of a scan. 本実施の形態に係る電子機器の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the electronic device which concerns on this Embodiment. 本実施の形態に係るRAMが記憶するエフェクト画像群を示すイメージ図である。It is an image figure which shows the effect image group which RAM memorize | stores concerning this Embodiment. 本実施の形態に係るコンテンツデータに含まれるコンテンツの属性データのデータ構造を示すイメージ図である。It is an image figure which shows the data structure of the attribute data of the content contained in the content data which concerns on this Embodiment. 本実施の形態に係る表示態様データのデータ構造を示すイメージ図である。It is an image figure which shows the data structure of the display mode data which concern on this Embodiment. 本実施の形態に係る表示用の指令データのデータ構造を示すイメージ図である。It is an image figure which shows the data structure of the command data for a display which concerns on this Embodiment. 本実施の形態に係るページ切り替え処理時の電子機器を示す第2のイメージ図である。It is a 2nd image figure which shows the electronic device at the time of the page switching process which concerns on this Embodiment. 本実施の形態に係る選択中の検索結果が切り替わる時の電子機器を示すイメージ図である。It is an image figure which shows an electronic device when the search result in selection which concerns on this Embodiment switches. 本実施の形態に係る選択中の検索結果が切り替わる時の第2の表示パネルを示す第1のイメージ図である。It is a 1st image figure which shows the 2nd display panel when the search result in selection which concerns on this Embodiment switches. 本実施の形態に係る選択中の検索結果が切り替わる時の第2の表示パネルを示す第2のイメージ図である。It is a 2nd image figure which shows the 2nd display panel when the search result in selection which concerns on this Embodiment switches. 本実施の形態に係る検索結果ページ切り替え処理時の電子機器を示すイメージ図である。It is an image figure which shows the electronic device at the time of the search result page switching process which concerns on this Embodiment. 本実施の形態に係る検索結果ページ切り替え処理時の第2の表示パネルを示す第1のイメージ図である。It is a 1st image figure which shows the 2nd display panel at the time of the search result page switching process which concerns on this Embodiment. 本実施の形態に係る検索結果ページ切り替え処理時の第2の表示パネルを示す第2のイメージ図である。It is a 2nd image figure which shows the 2nd display panel at the time of the search result page switching process based on this Embodiment. 本実施の形態に係る地図の表示エリアの切り替え処理時の電子機器を示すイメージ図である。It is an image figure which shows the electronic device at the time of the switching process of the display area of the map which concerns on this Embodiment. 本実施の形態に係る地図の表示エリアの切り替え処理時の第2の表示パネルを示す第1のイメージ図である。It is a 1st image figure which shows the 2nd display panel at the time of the switching process of the display area of the map which concerns on this Embodiment. 本実施の形態に係る地図の表示エリアの切り替え処理時の第2の表示パネルを示す第2のイメージ図である。It is a 2nd image figure which shows the 2nd display panel at the time of the switching process of the display area of the map which concerns on this Embodiment. 本実施の形態に係る電子機器におけるコンテンツ表示処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the content display process in the electronic device which concerns on this Embodiment. 複数種類のコンテンツを含む書籍データのデータ構造を示す第1のイメージ図である。It is a 1st image figure which shows the data structure of the book data containing multiple types of content. 複数種類のコンテンツを含む書籍データのデータ構造を示す第2のイメージ図である。It is a 2nd image figure which shows the data structure of the book data containing multiple types of content. 本実施の形態に係る電子機器における複数種類のコンテンツを切り替えて表示するための処理の詳細な処理手順を示す第1のフローチャートである。It is a 1st flowchart which shows the detailed process sequence of the process for switching and displaying the multiple types of content in the electronic device which concerns on this Embodiment. 本実施の形態に係る電子機器における複数種類のコンテンツを切り替えて表示するための処理の詳細な処理手順を示す第2のフローチャートである。It is a 2nd flowchart which shows the detailed process sequence of the process for switching and displaying the multiple types of content in the electronic device which concerns on this Embodiment. 本実施の形態に係る電子機器における複数種類のコンテンツを切り替えて表示するための処理の詳細な処理手順を示す第3のフローチャートである。It is a 3rd flowchart which shows the detailed process sequence of the process for switching and displaying the multiple types of content in the electronic device which concerns on this Embodiment. 本実施の形態に係る電子機器100の第1の付加機能を示す第2の表示パネルを示す第1のイメージ図である。It is a 1st image figure which shows the 2nd display panel which shows the 1st additional function of the electronic device 100 which concerns on this Embodiment. 本実施の形態に係る電子機器100の第1の付加機能を示す第2の表示パネルを示す第2のイメージ図である。It is a 2nd image figure which shows the 2nd display panel which shows the 1st additional function of the electronic device 100 which concerns on this Embodiment. 本実施の形態に係る電子機器100の第2の付加機能を示す第2の表示パネルを示すイメージ図である。It is an image figure which shows the 2nd display panel which shows the 2nd additional function of the electronic device 100 which concerns on this Embodiment. 本実施の形態に係る電子機器100の第3の付加機能を示す第2の表示パネルを示すイメージ図である。It is an image figure which shows the 2nd display panel which shows the 3rd additional function of the electronic device 100 which concerns on this Embodiment. 本実施の形態に係る電子機器100の第4の付加機能を示す第2の表示パネルを示すイメージ図である。It is an image figure which shows the 2nd display panel which shows the 4th additional function of the electronic device 100 which concerns on this Embodiment. 表示エリアの変形例に係る第1の表示パネルを示すイメージ図である。It is an image figure which shows the 1st display panel which concerns on the modification of a display area.
 以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
 <電子機器100の全体構成>
 まず、本実施の形態に係るコンテンツ表示装置の一例である電子機器100の全体構成について説明する。
<Overall Configuration of Electronic Device 100>
First, an overall configuration of electronic device 100 that is an example of the content display device according to the present embodiment will be described.
 図1は、本実施の形態に係るページ切り替え処理時の電子機器100を示す第1のイメージ図である。より詳細には、図1(A)は第1の表示パネル140(ディスプレイ)がテキストの3ページ目を横書きで表示した状態の電子機器100のイメージ図である。図1(B)は第2の表示パネル240(タッチパネル)に右方向のタッチ操作が入力されたときの電子機器100のイメージ図である。図1(C)はテキストを1ページ戻した状態の電子機器100のイメージ図である。図1(D)は第2の表示パネル240に左方向のタッチ操作が入力されたときの電子機器100のイメージ図である。図1(E)はテキストを1ページ進めた状態の電子機器100のイメージ図である。 FIG. 1 is a first image diagram showing electronic device 100 at the time of page switching processing according to the present embodiment. More specifically, FIG. 1A is an image diagram of the electronic device 100 in a state where the first display panel 140 (display) displays the third page of text in horizontal writing. FIG. 1B is an image diagram of the electronic device 100 when a right touch operation is input to the second display panel 240 (touch panel). FIG. 1C is an image diagram of the electronic device 100 in a state where the text is returned by one page. FIG. 1D is an image diagram of the electronic device 100 when a left touch operation is input to the second display panel 240. FIG. 1E is an image diagram of the electronic device 100 in a state where the text is advanced by one page.
 図1を参照して、電子機器100は、第1の筐体100Aと第2の筐体100Bとを含む。第1の筐体100Aと第2の筐体100Bとは、ヒンジ100Cにより折畳み可能に接続されている。第1の筐体100Aは、第1の光センサ内蔵液晶パネル140(以下、第1の表示パネル140ともいう。)を含む。第2の筐体100Bは、操作キーと第2の光センサ内蔵液晶パネル240(以下、第2の表示パネル240ともいう。)を含む。 Referring to FIG. 1, electronic device 100 includes a first housing 100A and a second housing 100B. The first casing 100A and the second casing 100B are foldably connected by a hinge 100C. The first housing 100A includes a first photosensor built-in liquid crystal panel 140 (hereinafter also referred to as a first display panel 140). Second housing 100B includes an operation key and a second liquid crystal panel 240 with a built-in photosensor (hereinafter also referred to as second display panel 240).
 このように、本実施の形態に係る電子機器100は、光センサ内蔵液晶パネルを2つ備える。なお、電子機器100は、PDA(Personal Digital Assistant)、ノート型のパーソナルコンピュータ、携帯型電話機、電子辞書などの、表示機能を有する携帯型デバイスである。 As described above, the electronic device 100 according to the present embodiment includes two liquid crystal panels with a built-in optical sensor. The electronic device 100 is a portable device having a display function, such as a PDA (Personal Digital Assistant), a notebook personal computer, a portable phone, and an electronic dictionary.
 そして、本実施の形態に係る電子機器100は、第1の表示パネル140を用いてテキストや画像などのコンテンツを表示するとともに、操作キー177および第2の表示パネル240を介してユーザからの操作命令を受け付ける。第2の表示パネル240は、第1の表示パネル140に表示されるポインタを移動させるための命令や、第1の表示パネル140に表示されるコンテンツなどの表示を制御するための命令を受け付ける。 Electronic device 100 according to the present embodiment displays content such as text and images using first display panel 140, and also allows an operation from the user via operation keys 177 and second display panel 240. Accept instructions. The second display panel 240 receives a command for moving a pointer displayed on the first display panel 140 and a command for controlling display of content displayed on the first display panel 140.
 なお、本実施の形態においては、後述する変形例(図50を参照。)を除き、第1の表示パネル140は、光センサ内蔵液晶パネルである必要はなく、コンテンツが表示可能なディスプレイであればよい。そして、本実施の形態においては、後述する変形例(図50を参照。)を除き、第2の表示パネル240は、ユーザによるタッチ操作を検出できる必要があるため、タブレット機能を有するタッチパネルや、光センサ内蔵液晶パネルであることが好ましい。 In the present embodiment, the first display panel 140 does not need to be a photosensor built-in liquid crystal panel except for a modified example (see FIG. 50) described later, and may be a display capable of displaying content. That's fine. And in this Embodiment, since the 2nd display panel 240 needs to be able to detect the touch operation by a user except the modification (refer FIG. 50) mentioned later, a touch panel which has a tablet function, A liquid crystal panel with a built-in optical sensor is preferable.
 <テキストが横書きで表示されている場合の動作概要>
 以下では、図1~図3を参照して、第1の表示パネル140がテキストを表示している場合における、本実施の形態に係る電子機器100がテキストを「ページ単位」で切り替えるときの動作概要について説明する。図2は、本実施の形態に係るページ切り替え処理時の第2の表示パネル240を示す第1のイメージ図である。図3は、本実施の形態に係るページ切り替え処理時の第2の表示パネルを示す第2のイメージ図である。ここでは、電子機器100が、テキストを横書きで表示する場合について説明する。
<Operation overview when text is displayed horizontally>
In the following, referring to FIGS. 1 to 3, operation when electronic device 100 according to the present embodiment switches text in “page units” when first display panel 140 displays text is performed. An outline will be described. FIG. 2 is a first image diagram showing the second display panel 240 during the page switching process according to the present embodiment. FIG. 3 is a second image diagram showing the second display panel during the page switching process according to the present embodiment. Here, the case where electronic device 100 displays text in horizontal writing will be described.
 図1(A)を参照して、電子機器100は、第1の表示パネル140にテキストの3ページ目を横書きで表示させる。より詳細には、電子機器100は、ユーザからの操作を受け付けて、ユーザが所望するページを第1の表示パネル140に表示させる。電子機器100は、第2の表示パネル240を介して、ユーザからのページ切り替え命令を受け付ける。 Referring to FIG. 1 (A), electronic device 100 causes first page of text to be displayed horizontally on first display panel 140. More specifically, the electronic device 100 accepts an operation from the user and causes the first display panel 140 to display a page desired by the user. Electronic device 100 accepts a page switching command from the user via second display panel 240.
 図1(B)を参照して、電子機器100は、第2の表示パネル240を介して、ユーザから右方向のタッチ操作を受け付ける。すなわち、ユーザが、指900などを第2の表示パネル240に接触させた状態で、指900を右方向にスライドさせる。より詳細には、電子機器100は、第2の表示パネル240と指900との接触位置を検知することによって、右方向のタッチ操作を受け付ける。 Referring to FIG. 1B, electronic device 100 accepts a touch operation in the right direction from the user via second display panel 240. That is, the user slides the finger 900 rightward in a state where the finger 900 or the like is in contact with the second display panel 240. More specifically, electronic device 100 receives a touch operation in the right direction by detecting a contact position between second display panel 240 and finger 900.
 図1(C)を参照して、電子機器100は、第1の表示パネル140にテキストの2ページ目を表示させる。すなわち、電子機器100は、テキストを横書きで表示している際には、右方向へのタッチ操作に応じて、表示しているテキストのページを前に戻す。このとき、本実施の形態に係る電子機器100は、図2(A)から図2(H)に示すように、RAMなどに予め記憶されている書籍用のエフェクト画像データに基づいて、第2の表示パネル240に、書籍がめくられるエフェクト画像を第1の順序で表示する。 Referring to FIG. 1C, electronic device 100 causes second page of text to be displayed on first display panel 140. That is, when displaying the text in horizontal writing, electronic device 100 returns the page of the displayed text to the front in response to a touch operation in the right direction. At this time, as shown in FIGS. 2A to 2H, the electronic device 100 according to the present embodiment is configured to perform the second processing based on the effect image data for books stored in advance in a RAM or the like. Are displayed in the first order on the display panel 240.
 図1(D)を参照して、電子機器100は、第2の表示パネル240を介して、ユーザから左方向のタッチ操作を受け付ける。すなわち、ユーザが、指900などを第2の表示パネル240に接触させた状態で、指900を左方向にスライドさせる。より詳細には、電子機器100は、第2の表示パネル240と指900との接触位置を検知することによって、左方向のタッチ操作を受け付ける。 Referring to FIG. 1D, electronic device 100 accepts a leftward touch operation from the user via second display panel 240. That is, the user slides the finger 900 leftward with the finger 900 or the like being in contact with the second display panel 240. More specifically, electronic device 100 receives a touch operation in the left direction by detecting a contact position between second display panel 240 and finger 900.
 図1(E)を参照して、電子機器100は、第1の表示パネル140にテキストの4ページ目を表示させる。すなわち、電子機器100は、テキストを横書きで表示している際には、左方向へのタッチ操作に応じて、表示しているテキストのページを先に進める。このとき、本実施の形態に係る電子機器100は、図3(A)から図3(H)に示すように、RAMなどに予め記憶されている書籍用のエフェクト画像データに基づいて、第2の表示パネル240に、書籍がめくられるエフェクト画像を第1の順序の逆の順序(第2の順序)で表示する。 1E, electronic device 100 causes first display panel 140 to display the fourth page of text. That is, when displaying text in horizontal writing, electronic device 100 advances the page of the displayed text first in response to a touch operation in the left direction. At this time, as shown in FIGS. 3A to 3H, the electronic device 100 according to the present embodiment performs the second processing based on the effect image data for books stored in advance in a RAM or the like. On the display panel 240, the effect image for turning the book is displayed in the reverse order (second order) of the first order.
 以下では、図4~図6を参照して、第1の表示パネル140がテキストを表示している場合における、本実施の形態に係る電子機器100がテキストを「行単位」で切り替えるときの動作概要について説明する。ここでも、電子機器100が、テキストを横書きで表示する場合について説明する。 In the following, referring to FIGS. 4 to 6, operation when electronic device 100 according to the present embodiment switches text in “line units” when first display panel 140 displays text. An outline will be described. Here, the case where the electronic device 100 displays the text in horizontal writing will be described.
 図4は、本実施の形態に係る行切り替え処理時の電子機器100を示すイメージ図である。より詳細には、図4(A)は第1の表示パネル140がテキストの3ページ目を横書きで表示した状態の電子機器100のイメージ図である。図4(B)は第2の表示パネル240に下方向のタッチ操作が入力されたときの電子機器100のイメージ図である。図4(C)はテキストを1行戻した状態の電子機器100のイメージ図である。図4(D)は第2の表示パネル240に上方向のタッチ操作が入力されたときの電子機器100のイメージ図である。図4(E)はテキストを1行進めた状態の電子機器100のイメージ図である。 FIG. 4 is an image diagram showing electronic device 100 at the time of row switching processing according to the present embodiment. More specifically, FIG. 4A is an image diagram of the electronic device 100 in a state where the first display panel 140 displays the third page of text in horizontal writing. FIG. 4B is an image diagram of the electronic device 100 when a downward touch operation is input to the second display panel 240. FIG. 4C is an image diagram of the electronic device 100 in a state where the text is returned by one line. FIG. 4D is an image diagram of the electronic device 100 when an upward touch operation is input to the second display panel 240. FIG. 4E is an image diagram of the electronic device 100 in a state where the text is advanced by one line.
 図5は、本実施の形態に係る行切り替え処理時の第2の表示パネル240を示す第1のイメージ図である。図6は、本実施の形態に係る行切り替え処理時の第2の表示パネルを示す第2のイメージ図である。 FIG. 5 is a first image diagram showing the second display panel 240 during the row switching process according to the present embodiment. FIG. 6 is a second image diagram showing the second display panel during the row switching process according to the present embodiment.
 図4(A)を参照して、電子機器100は、第1の表示パネル140にテキストの3ページ目を横書きで表示させる。より詳細には、電子機器100は、ユーザからの操作を受け付けて、ユーザが所望するページを第1の表示パネル140に表示させる。電子機器100は、第2の表示パネル240を介して、ユーザからのページ切り替え命令を受け付ける。 4A, electronic device 100 causes first display panel 140 to display the third page of text in horizontal writing. More specifically, the electronic device 100 accepts an operation from the user and causes the first display panel 140 to display a page desired by the user. Electronic device 100 accepts a page switching command from the user via second display panel 240.
 図4(B)を参照して、電子機器100は、第2の表示パネル240を介して、ユーザから下方向のタッチ操作を受け付ける。すなわち、ユーザが、指900などを第2の表示パネル240に接触させた状態で、指900を下方向にスライドさせる。より詳細には、電子機器100は、第2の表示パネル240と指900との接触位置を検知することによって、下方向のタッチ操作を受け付ける。 Referring to FIG. 4B, electronic device 100 accepts a downward touch operation from the user via second display panel 240. That is, the user slides the finger 900 downward with the finger 900 or the like being in contact with the second display panel 240. More specifically, electronic device 100 accepts a downward touch operation by detecting a contact position between second display panel 240 and finger 900.
 図4(C)を参照して、電子機器100は、第1の表示パネル140に元のテキストを1行だけ戻した新たなテキストを表示させる。すなわち、電子機器100は、テキストを横書きで表示している際には、下方向へのタッチ操作に応じて、表示しているテキストを一行だけ前に戻す。このとき、本実施の形態に係る電子機器100は、図5(A)から図5(C)に示すように、RAMなどに予め記憶されているテキストが行単位で移動するエフェクト画像データに基づいて、第2の表示パネル240に、テキストが行単位で移動するエフェクト画像を表示する。 Referring to FIG. 4C, electronic device 100 causes first display panel 140 to display a new text obtained by returning the original text by one line. That is, when displaying the text in horizontal writing, electronic device 100 returns the displayed text by one line in response to a downward touch operation. At this time, as shown in FIGS. 5A to 5C, electronic device 100 according to the present embodiment is based on effect image data in which text stored in advance in a RAM or the like moves line by line. Thus, an effect image in which the text moves line by line is displayed on the second display panel 240.
 図4(D)を参照して、電子機器100は、第2の表示パネル240を介して、ユーザから上方向のタッチ操作を受け付ける。すなわち、ユーザが、指900などを第2の表示パネル240に接触させた状態で、指900を上方向にスライドさせる。より詳細には、電子機器100は、第2の表示パネル240と指900との接触位置を検知することによって、上方向のタッチ操作を受け付ける。 Referring to FIG. 4D, electronic device 100 accepts an upward touch operation from the user via second display panel 240. That is, the user slides the finger 900 upward in a state where the finger 900 or the like is in contact with the second display panel 240. More specifically, electronic device 100 accepts an upward touch operation by detecting a contact position between second display panel 240 and finger 900.
 図4(E)を参照して、電子機器100は、第1の表示パネル140に元のテキストを1行だけ進めた新たなテキストを表示させる。すなわち、電子機器100は、テキストを横書きで表示している際には、上方向へのタッチ操作に応じて、表示しているテキストを一行だけ先に進める。このとき、本実施の形態に係る電子機器100は、図6(A)から図6(C)に示すように、RAMなどに予め記憶されているテキストが行単位で移動するエフェクト画像データに基づいて、第2の表示パネル240に、テキストが行単位で移動するエフェクト画像を表示する。 Referring to FIG. 4E, electronic device 100 causes first display panel 140 to display a new text obtained by advancing the original text by one line. That is, when displaying the text in horizontal writing, electronic device 100 advances the displayed text by one line in response to an upward touch operation. At this time, electronic device 100 according to the present embodiment is based on effect image data in which text stored in advance in a RAM or the like moves in units of lines, as shown in FIGS. Thus, an effect image in which the text moves line by line is displayed on the second display panel 240.
 このように本実施の形態に係る電子機器100は、表示されている書籍のページが進む場合と戻る場合とにおいて、また書籍の行が進む場合と戻る場合とにおいて、異なるエフェクト画像を第2の表示パネル240に表示する。特に、電子機器100は、コンテンツの表示エリア(第1の表示エリア)とは異なる表示エリア(第2の表示エリア)を介して、予め記憶しているエフェクト画像を順次表示するため、テキストの内容に応じた画像処理を行う必要がない。その結果、電子機器100は、簡単な処理でコンテンツの進行状態をユーザに直感的に認識させることができる。 As described above, electronic device 100 according to the present embodiment displays the second effect image different between the case where the displayed book page advances and the case where the book page advances, and the case where the book row advances and the case where the book row returns. Display on the display panel 240. In particular, the electronic device 100 sequentially displays pre-stored effect images via a display area (second display area) different from the content display area (first display area). It is not necessary to perform image processing according to the above. As a result, the electronic device 100 can make the user intuitively recognize the progress state of the content with a simple process.
 <画像が表示されている場合の動作概要>
 さらに、本実施の形態に係る電子機器100は、コンテンツの種類に応じて、エフェクト画像を切り替える。すなわち、電子機器100は、第1の表示パネル140にテキストを表示している場合には、第2の表示パネル240に書籍がめくられるエフェクト画像を表示して、第1の表示パネル140に写真やアニメーションやコミックなどの画像を表示している場合には、第2の表示パネル240にフィルムが進むエフェクト画像を表示する。
<Overview of operation when an image is displayed>
Furthermore, electronic device 100 according to the present embodiment switches effect images according to the type of content. That is, when the electronic device 100 displays text on the first display panel 140, the electronic device 100 displays an effect image for turning the book on the second display panel 240 and displays the photo on the first display panel 140. When an image such as an animation or a comic is displayed, an effect image in which the film advances is displayed on the second display panel 240.
 以下では、図7~図9を参照して、第1の表示パネル140が写真を表示している場合における、本実施の形態に係る電子機器100の動作概要について説明する。 Hereinafter, with reference to FIGS. 7 to 9, an outline of the operation of the electronic device 100 according to the present embodiment when the first display panel 140 displays a photograph will be described.
 図7は、本実施の形態に係る画像切り替え処理時の電子機器100を示す第1のイメージ図である。より詳細には、図7(A)は第1の表示パネル140が2枚目の画像を表示した状態の電子機器100のイメージ図である。図7(B)は第2の表示パネル240(タッチパネル)に下方向のタッチ操作が入力されたときの電子機器100のイメージ図である。図7(C)は画像を1枚戻した状態の電子機器100のイメージ図である。図7(D)は第2の表示パネル240に上方向のタッチ操作が入力されたときの電子機器100のイメージ図である。図7(E)は画像を1枚進めた状態の電子機器100のイメージ図である。 FIG. 7 is a first image diagram showing electronic device 100 at the time of image switching processing according to the present embodiment. More specifically, FIG. 7A is an image diagram of the electronic device 100 in a state where the first display panel 140 displays the second image. FIG. 7B is an image diagram of the electronic device 100 when a downward touch operation is input to the second display panel 240 (touch panel). FIG. 7C is an image diagram of the electronic device 100 in a state where one image is returned. FIG. 7D is an image diagram of the electronic device 100 when an upward touch operation is input to the second display panel 240. FIG. 7E is an image diagram of the electronic device 100 in a state where one image is advanced.
 図8は、本実施の形態に係る画像切り替え処理時の第2の表示パネル240を示す第1のイメージ図である。図9は、本実施の形態に係る画像切り替え処理時の第2の表示パネルを示す第2のイメージ図である。 FIG. 8 is a first image diagram showing the second display panel 240 during the image switching process according to the present embodiment. FIG. 9 is a second image diagram showing the second display panel during the image switching process according to the present embodiment.
 図7(A)を参照して、電子機器100は、第1の表示パネル140に2枚目の写真を表示させる。より詳細には、電子機器100は、ユーザからの操作を受け付けて、ユーザが所望する写真を第1の表示パネル140に表示させる。電子機器100は、第2の表示パネル240を介して、ユーザからの写真切り替え命令を受け付ける。 Referring to FIG. 7A, electronic device 100 displays the second photograph on first display panel 140. More specifically, electronic device 100 accepts an operation from the user and causes first display panel 140 to display a photograph desired by the user. Electronic device 100 accepts a photo switching command from the user via second display panel 240.
 図7(B)を参照して、電子機器100は、第2の表示パネル240を介して、ユーザから下方向のタッチ操作を受け付ける。すなわち、ユーザが、指900などを第2の表示パネル240に接触させた状態で、指900を下方向にスライドさせる。より詳細には、電子機器100は、第2の表示パネル240と指900との接触位置を検知することによって、下方向のタッチ操作を受け付ける。 Referring to FIG. 7B, electronic device 100 accepts a downward touch operation from the user via second display panel 240. That is, the user slides the finger 900 downward with the finger 900 or the like being in contact with the second display panel 240. More specifically, electronic device 100 accepts a downward touch operation by detecting a contact position between second display panel 240 and finger 900.
 図7(C)を参照して、電子機器100は、第1の表示パネル140に1枚目の写真を表示させる。すなわち、電子機器100は、下方向へのタッチ操作に応じて、現在表示している写真の前の写真を表示する。このとき、本実施の形態に係る電子機器100は、図8(A)から図8(F)に示すように、RAMなどに予め記憶されているフィルム用のエフェクト画像データに基づいて、第2の表示パネル240に、フィルムが進むエフェクト画像を第1の順序(順方向)で表示する。 Referring to FIG. 7C, electronic device 100 causes first display panel 140 to display the first photograph. In other words, electronic device 100 displays a photo preceding the currently displayed photo in response to a downward touch operation. At this time, as shown in FIGS. 8A to 8F, the electronic device 100 according to the present embodiment performs the second processing based on the effect image data for film stored in advance in a RAM or the like. Are displayed in the first order (forward direction) on the display panel 240.
 図7(D)を参照して、電子機器100は、第2の表示パネル240を介して、ユーザから上方向のタッチ操作を受け付ける。すなわち、ユーザが、指900などを第2の表示パネル240に接触させた状態で、指900を上方向にスライドさせる。より詳細には、電子機器100は、第2の表示パネル240と指900との接触位置を検知することによって、上方向のタッチ操作を受け付ける。 Referring to FIG. 7D, electronic device 100 accepts an upward touch operation from the user via second display panel 240. That is, the user slides the finger 900 upward in a state where the finger 900 or the like is in contact with the second display panel 240. More specifically, electronic device 100 accepts an upward touch operation by detecting a contact position between second display panel 240 and finger 900.
 図7(E)を参照して、電子機器100は、第1の表示パネル140に3枚目の写真を表示させる。すなわち、電子機器100は、上方向へのタッチ操作に応じて、現在表示している写真の次の写真を表示する。このとき、本実施の形態に係る電子機器100は、図9(A)から図9(F)に示すように、RAMなどに予め記憶されているフィルム用のエフェクト画像データに基づいて、第2の表示パネル240に、フィルムが進むエフェクト画像を第2の順序(逆方向)で表示する。 Referring to FIG. 7 (E), electronic device 100 causes first display panel 140 to display the third photograph. In other words, electronic device 100 displays a photo next to the currently displayed photo in response to an upward touch operation. At this time, as shown in FIGS. 9A to 9F, the electronic device 100 according to the present embodiment performs the second processing based on the effect image data for the film stored in advance in the RAM or the like. Are displayed in the second order (reverse direction) on the display panel 240.
 このように、本実施の形態に係る電子機器100は、コンテンツの種類に応じて、エフェクト画像の表示順序あるいはエフェクト画像の種類を切り替えるため、コンテンツの進行状態をユーザにより直感的に認識させることができる。 Thus, electronic device 100 according to the present embodiment switches the display order of effect images or the type of effect image according to the type of content, so that the user can intuitively recognize the progress of content. it can.
 以下、このような機能を実現するための構成について詳述する。なお、タッチ操作の向きとコンテンツの進退とエフェクト画像の進退との関係は本実施の形態に係るものに限られない。たとえば、タッチ操作の向きとコンテンツの進退との関係や、コンテンツの進退とエフェクト画像との関係や、エフェクト画像とタッチ操作の向きとの関係を逆にしてもよい。 Hereinafter, a configuration for realizing such a function will be described in detail. The relationship between the direction of the touch operation, the advance / retreat of the content, and the advance / retreat of the effect image is not limited to that according to this embodiment. For example, the relationship between the direction of the touch operation and the content advance / retreat, the relationship between the content advance / retreat and the effect image, or the relationship between the effect image and the direction of the touch operation may be reversed.
 <電子機器100のハードウェア構成>
 次に、図10を参照して、電子機器100の具体的構成の一態様について説明する。図10は、電子機器100のハードウェア構成を表わすブロック図である。
<Hardware Configuration of Electronic Device 100>
Next, an aspect of a specific configuration of the electronic device 100 will be described with reference to FIG. FIG. 10 is a block diagram illustrating a hardware configuration of electronic device 100.
 電子機器100は、第1ユニット1001(メイン装置)と、第2ユニット1002とを含む。第2ユニット1002は、電子機器100から着脱可能に第1ユニット1001に接続されている。第1ユニット1001は、本体装置101と、表示装置102とを含む。第2ユニット1002は、表示装置103と、本体装置104とを含む。 The electronic device 100 includes a first unit 1001 (main device) and a second unit 1002. The second unit 1002 is detachably connected to the first unit 1001 from the electronic device 100. The first unit 1001 includes a main body device 101 and a display device 102. The second unit 1002 includes a display device 103 and a main device 104.
 第1の筐体100Aは、表示装置102を含む。第2の筐体100Bは、本体装置101を含む。また、第2の筐体100Bは、第2ユニット1002を含む。 The first housing 100A includes a display device 102. Second housing 100B includes main device 101. The second housing 100B includes a second unit 1002.
  (第1ユニットについて)
 本体装置101は、CPU(Central Processing Unit)110と、RAM(Random Access Memory)171と、ROM(Read-Only Memory)172と、メモリカードリーダライタ173と、外部通信部174と、マイク175と、スピーカ176と、操作キー177と、電源スイッチ191と、電源回路192と、電源検出部193と、USB(Universal Serial Bus)コネクタ194と、アンテナ195と、LAN(Local Area Network)コネクタ196とを含む。各構成要素(110,171~177,193)は、相互にデータバスDB1によって接続されている。メモリカードリーダライタ173には、メモリカード1731が装着される。
(About the first unit)
The main unit 101 includes a CPU (Central Processing Unit) 110, a RAM (Random Access Memory) 171, a ROM (Read-Only Memory) 172, a memory card reader / writer 173, an external communication unit 174, a microphone 175, A speaker 176, an operation key 177, a power switch 191, a power circuit 192, a power detection unit 193, a USB (Universal Serial Bus) connector 194, an antenna 195, and a LAN (Local Area Network) connector 196 are included. . Each component (110, 171 to 177, 193) is connected to each other by a data bus DB1. A memory card 1731 is attached to the memory card reader / writer 173.
 CPU110は、プログラムを実行する。操作キー177は、電子機器100の使用者による指示の入力を受ける。RAM171は、CPU110によるプログラムの実行により生成されたデータ、または操作キー177を介して入力されたデータを揮発的に格納する。ROM172は、データを不揮発的に格納する。また、ROM172は、EPROM(Erasable Programmable Read-Only Memory)やフラッシュメモリなどのデータの書込みおよび消去が可能なROMである。 CPU 110 executes the program. The operation key 177 receives an instruction input from the user of the electronic device 100. The RAM 171 stores data generated by the execution of the program by the CPU 110 or data input via the operation keys 177 in a volatile manner. The ROM 172 stores data in a nonvolatile manner. The ROM 172 is a ROM capable of writing and erasing data such as an EPROM (Erasable Programmable Read-Only Memory) and a flash memory.
 外部通信部174は、他の電子機器と通信を行う。具体的には、外部通信部174は、USBコネクタ194を介して、たとえば第2ユニット1002と通信を行う。また、外部通信部174は、アンテナ195を介して、たとえば第2ユニット1002と無線通信を行う。さらに、外部通信部174は、LANコネクタ196を介して、他の電子機器との間で有線通信を行う。 External communication unit 174 communicates with other electronic devices. Specifically, the external communication unit 174 communicates with, for example, the second unit 1002 via the USB connector 194. The external communication unit 174 performs wireless communication with the second unit 1002 via the antenna 195, for example. Furthermore, the external communication unit 174 performs wired communication with other electronic devices via the LAN connector 196.
 なお、本体装置101は、Bluetooth(登録商標)以外の無線通信により、他の電子機器と通信を行ってもよい。たとえば、外部通信部174は、図示しない無線LANアンテナを介して、LANに接続された他の電子機器との間で無線通信を行ってもよい。あるいは、図示しない赤外線ポートを介して、他の電子機器との間で無線通信を行ってもよい。 The main unit 101 may communicate with other electronic devices by wireless communication other than Bluetooth (registered trademark). For example, the external communication unit 174 may perform wireless communication with another electronic device connected to the LAN via a wireless LAN antenna (not shown). Alternatively, wireless communication may be performed with another electronic device via an infrared port (not shown).
 電源スイッチ191は、電子機器100を起動させるためのスイッチである。
 電源スイッチ191がオンすると、電源回路192は、電源検出部193を介して、データバスDB1に接続されている各構成要素と表示装置102とに電力を供給する。また、電源スイッチ191がオンすると、電源回路192は、電源検出部193を介することなく、外部通信部174に電力を供給する。
The power switch 191 is a switch for starting up the electronic device 100.
When the power switch 191 is turned on, the power supply circuit 192 supplies power to each component connected to the data bus DB1 and the display device 102 via the power detection unit 193. When the power switch 191 is turned on, the power circuit 192 supplies power to the external communication unit 174 without going through the power detection unit 193.
 電源検出部193は、電源回路192からの出力を検出する。また、電源検出部193は、当該検出した出力に関する情報(たとえば、電圧値や電流値)を、CPU110に送る。 The power supply detection unit 193 detects the output from the power supply circuit 192. In addition, the power supply detection unit 193 sends information (for example, a voltage value and a current value) regarding the detected output to the CPU 110.
 USBコネクタ194は、第1ユニット1001を第2ユニット1002に接続するために用いられる。なお、本体装置101は、USBコネクタ194に加えて他のUSBコネクタを備えていてもよい。 The USB connector 194 is used to connect the first unit 1001 to the second unit 1002. Note that the main device 101 may include other USB connectors in addition to the USB connector 194.
 第1ユニット1001は、USBコネクタ194を介して、第2ユニット1002にデータを送信する。また、第1ユニット1001は、USBコネクタ194を介して、第2ユニット1002からデータを受信する。さらに、第1ユニット1001は、USBコネクタ194を介して、第2ユニット1002に電力を供給する。 The first unit 1001 transmits data to the second unit 1002 via the USB connector 194. The first unit 1001 receives data from the second unit 1002 via the USB connector 194. Further, the first unit 1001 supplies power to the second unit 1002 via the USB connector 194.
 アンテナ195は、第1ユニット1001と、他の通信装置(たとえば第2ユニット1002)との間における、Bluetooth(登録商標)の規格に沿った通信に用いられる。LANコネクタ196は、電子機器100をLANに接続するために用いられる。 The antenna 195 is used for communication in accordance with the Bluetooth (registered trademark) standard between the first unit 1001 and another communication device (for example, the second unit 1002). The LAN connector 196 is used to connect the electronic device 100 to the LAN.
 表示装置102は、ドライバ130と、光センサ内蔵液晶パネル140(以下、表示パネル140と称する)と、内部IF178と、バックライト179と、画像処理エンジン180とを含む。 The display device 102 includes a driver 130, a photosensor built-in liquid crystal panel 140 (hereinafter referred to as a display panel 140), an internal IF 178, a backlight 179, and an image processing engine 180.
 ドライバ130は、表示パネル140およびバックライト179を駆動するための駆動回路である。ドライバ130に含まれる各種の駆動回路については、後述する。 The driver 130 is a drive circuit for driving the display panel 140 and the backlight 179. Various drive circuits included in the driver 130 will be described later.
 表示パネル140は、液晶ディスプレイの機能と光センサの機能とを備えたデバイスである。つまり、表示パネル140は、液晶を用いた画像の表示と、光センサを用いたセンシングとを行うことができる。表示パネル140の詳細については、後述する。 The display panel 140 is a device having a liquid crystal display function and an optical sensor function. That is, the display panel 140 can perform image display using liquid crystal and sensing using an optical sensor. Details of the display panel 140 will be described later.
 内部IF(Interface)178は、本体装置101と表示装置102との間で、データの遣り取りを仲介する。 The internal IF (Interface) 178 mediates exchange of data between the main device 101 and the display device 102.
 バックライト179は、表示パネル140の裏面に配置された光源である。バックライト179は、当該裏面に対して均一な光を照射する。 The backlight 179 is a light source disposed on the back surface of the display panel 140. The backlight 179 irradiates the back surface with uniform light.
 画像処理エンジン180は、ドライバ130を介して表示パネル140の動作を制御する。ここで、当該制御は、内部IF178を介して本体装置101から送られてくる各種データに基づいて行われる。なお、当該各種データは、後述するコマンドを含む。また、画像処理エンジン180は、表示パネル140から出力されるデータを処理し、処理したデータを内部IF178を介して本体装置101に送る。さらに、画像処理エンジン180は、ドライバ制御部181と、タイマ182と、信号処理部183とを含む。 The image processing engine 180 controls the operation of the display panel 140 via the driver 130. Here, the control is performed based on various data sent from the main apparatus 101 via the internal IF 178. Note that the various data includes commands to be described later. In addition, the image processing engine 180 processes data output from the display panel 140 and sends the processed data to the main apparatus 101 via the internal IF 178. Further, the image processing engine 180 includes a driver control unit 181, a timer 182, and a signal processing unit 183.
 ドライバ制御部181は、ドライバ130に対して制御信号を送ることによりドライバ130の動作を制御する。また、ドライバ制御部181は、本体装置101から送られてくるコマンドを解析する。そして、ドライバ制御部181は、当該解析の結果に基づいた制御信号をドライバ130に送る。ドライバ130の動作の詳細については、後述する。 The driver control unit 181 controls the operation of the driver 130 by sending a control signal to the driver 130. In addition, the driver control unit 181 analyzes a command transmitted from the main device 101. Then, the driver control unit 181 sends a control signal based on the analysis result to the driver 130. Details of the operation of the driver 130 will be described later.
 タイマ182は、時刻情報を生成し、信号処理部183に対して時刻情報を送る。
 信号処理部183は、上記光センサから出力されるデータを受け取る。ここで、上記光センサから出力されるデータはアナログデータであるため、信号処理部183は、まず当該アナログデータをデジタルデータに変換する。さらに、信号処理部183は、当該デジタルデータに対して、本体装置101から送られてくるコマンドの内容に応じたデータ処理を行う。そして、信号処理部183は、上記データ処理を行った後のデータと、タイマ182から取得した時刻情報と、を含んだデータ(以下、応答データと称する)を本体装置101に送る。また、信号処理部183は、後述するスキャンデータを連続して複数格納できるRAM(図示せず)を備えている。
The timer 182 generates time information and sends the time information to the signal processing unit 183.
The signal processing unit 183 receives data output from the optical sensor. Here, since the data output from the optical sensor is analog data, the signal processing unit 183 first converts the analog data into digital data. Further, the signal processing unit 183 performs data processing on the digital data in accordance with the content of the command sent from the main device 101. Then, the signal processing unit 183 sends data including the data after the above data processing and the time information acquired from the timer 182 (hereinafter referred to as response data) to the main unit 101. The signal processing unit 183 includes a RAM (not shown) that can store a plurality of scan data, which will be described later, continuously.
 上記コマンドは、上記光センサによりセンシングを指示するセンシングコマンドを含む。当該センシングコマンドの詳細および上記応答データの詳細については、後述する(図15,図16,および図22)。 The command includes a sensing command for instructing sensing by the optical sensor. Details of the sensing command and the response data will be described later (FIGS. 15, 16, and 22).
 なお、タイマ182は、必ずしも画像処理エンジン180に備えられている必要はない。たとえば、タイマ182は、表示装置102内における、画像処理エンジン180の外部に備えられていてもよい。あるいは、タイマ182は、本体装置101に備えられていてもよい。また、マイク175およびスピーカ176は、電子機器100が常に備える構成ではなく、電子機器100の実施例によっては、マイク175およびスピーカ176のいずれかあるいは両方を有さない構成であってもよい。 Note that the timer 182 is not necessarily provided in the image processing engine 180. For example, the timer 182 may be provided outside the image processing engine 180 in the display device 102. Alternatively, the timer 182 may be provided in the main body device 101. Further, the microphone 175 and the speaker 176 are not always provided in the electronic device 100, and may be configured so as not to include either or both of the microphone 175 and the speaker 176 depending on the embodiment of the electronic device 100.
 ここで、表示装置102は、システム液晶を含んでいる。なお、システム液晶とは、表示パネル140の周辺機器を当該表示パネル140のガラス基板上に一体形成することにより得られるデバイスである。本実施の形態では、ドライバ130(バックライト179を駆動する回路を除く)と、内部IF178と、画像処理エンジン180とが、表示パネル140のガラス基板上に一体形成されている。なお、表示装置102が、必ずしもシステム液晶を用いて構成されている必要はなく、ドライバ130(バックライト179を駆動する回路を除く)と、内部IF178と、画像処理エンジン180とが、上記ガラス基板以外の基板に構成されていてもよい。 Here, the display device 102 includes a system liquid crystal. The system liquid crystal is a device obtained by integrally forming peripheral devices of the display panel 140 on the glass substrate of the display panel 140. In the present embodiment, the driver 130 (excluding the circuit that drives the backlight 179), the internal IF 178, and the image processing engine 180 are integrally formed on the glass substrate of the display panel 140. Note that the display device 102 is not necessarily configured using the system liquid crystal, and the driver 130 (excluding a circuit that drives the backlight 179), the internal IF 178, and the image processing engine 180 are included in the glass substrate. Other substrates may be configured.
  (第2ユニットについて)
 第2ユニット1002は、第1ユニット1001から電力の供給を受ける。具体的には、後述するUSBコネクタ294と第1ユニット1001のUSBコネクタ194とを接続することにより、第2ユニット1002は、第1ユニット1001の電源回路192から電力の供給を受ける。
(About the second unit)
The second unit 1002 receives power supply from the first unit 1001. Specifically, the second unit 1002 is supplied with power from the power supply circuit 192 of the first unit 1001 by connecting a USB connector 294 described later and the USB connector 194 of the first unit 1001.
 本体装置104は、CPU210と、RAM271と、ROM272と、外部通信部274と、電源検出部293と、USBコネクタ294と、アンテナ295と、信号強度検出部297とを含む。各構成要素(210,271,272,274,293)は、相互にデータバスDB2によって接続されている。 The main body device 104 includes a CPU 210, a RAM 271, a ROM 272, an external communication unit 274, a power supply detection unit 293, a USB connector 294, an antenna 295, and a signal strength detection unit 297. Each component (210, 271, 272, 274, 293) is connected to each other by a data bus DB2.
 CPU210は、プログラムを実行する。RAM271は、CPU210によるプログラムの実行により生成されたデータを揮発的に格納する。ROM272は、データを不揮発的に格納する。また、ROM272は、EPROM(Erasable Programmable Read-Only Memory)やフラッシュメモリなどのデータの書込みおよび消去が可能なROMである。 CPU 210 executes a program. The RAM 271 stores data generated by the execution of the program by the CPU 210 in a volatile manner. The ROM 272 stores data in a nonvolatile manner. The ROM 272 is a ROM capable of writing and erasing data such as an EPROM (Erasable Programmable Read-Only Memory) and a flash memory.
 外部通信部274は、他の電子機器との間で通信を行う。具体的には、外部通信部274は、USBコネクタ294を介して、たとえば第1ユニット1001と通信を行う。また、外部通信部274は、アンテナ295を介して、たとえば第1ユニット1001と通信を行う。 The external communication unit 274 communicates with other electronic devices. Specifically, the external communication unit 274 communicates with, for example, the first unit 1001 via the USB connector 294. The external communication unit 274 communicates with the first unit 1001 through the antenna 295, for example.
 なお、本体装置104は、Bluetooth(登録商標)以外の無線通信により、他の電子機器(たとえば、第1ユニット1001)と通信を行ってもよい。たとえば、外部通信部274は、図示しない赤外線ポートを介して、他の電子機器との間で無線通信を行ってもよい。 The main body device 104 may communicate with another electronic device (for example, the first unit 1001) by wireless communication other than Bluetooth (registered trademark). For example, the external communication unit 274 may perform wireless communication with other electronic devices via an infrared port (not shown).
 信号強度検出部297は、アンテナ295を介して受信した信号についての強度を検出する。そして、信号強度検出部297は、検出した強度を外部通信部274に送る。 The signal strength detection unit 297 detects the strength of the signal received via the antenna 295. Then, the signal strength detection unit 297 sends the detected strength to the external communication unit 274.
 USBコネクタ294は、第2ユニット1002を第1ユニット1001に接続するために用いられる。 The USB connector 294 is used to connect the second unit 1002 to the first unit 1001.
 第2ユニット1002は、USBコネクタ294を介して、第1ユニット1001にデータを送信する。また、第2ユニット1002は、USBコネクタ294を介して、第1ユニット1001からデータを受信する。さらに、第2ユニット1002は、上述したように、USBコネクタ294を介して、第1ユニット1001から電力の供給を受ける。なお、第2ユニット1002は、第1ユニット1001から供給された電力を、図示しないバッテリに蓄電する。 The second unit 1002 transmits data to the first unit 1001 via the USB connector 294. The second unit 1002 receives data from the first unit 1001 via the USB connector 294. Furthermore, the second unit 1002 receives power supply from the first unit 1001 via the USB connector 294 as described above. The second unit 1002 stores the electric power supplied from the first unit 1001 in a battery (not shown).
 アンテナ295は、第2ユニット1002と、たとえば第1ユニット1001との間における、Bluetooth(登録商標)の規格に沿った通信に用いられる。 The antenna 295 is used for communication according to the Bluetooth (registered trademark) standard between the second unit 1002 and the first unit 1001, for example.
 電源検出部293は、USBコネクタ294を介して給電された電力を検出する。また、電源検出部293は、当該検出した電力についての情報を、CPU210に送る。 The power detection unit 293 detects the power supplied via the USB connector 294. In addition, the power supply detection unit 293 sends information about the detected power to the CPU 210.
 また、本体装置104は、赤外線通信を行う機能を備えていてもよい。
 表示装置103は、ドライバ230と、光センサ内蔵液晶パネル240(以下、「表示パネル240」と称する)と、内部IF278と、バックライト279と、画像処理エンジン280とを含む。画像処理エンジン280は、ドライバ制御部281と、タイマ282と、信号処理部283とを含む。
The main device 104 may have a function of performing infrared communication.
The display device 103 includes a driver 230, an optical sensor built-in liquid crystal panel 240 (hereinafter referred to as “display panel 240”), an internal IF 278, a backlight 279, and an image processing engine 280. The image processing engine 280 includes a driver control unit 281, a timer 282, and a signal processing unit 283.
 表示装置103は、表示装置102と同様な構成を有する。つまり、ドライバ230、表示パネル240、内部IF278、バックライト279、および画像処理エンジン280は、表示装置102における、ドライバ130、表示パネル140、内部IF178、バックライト179、画像処理エンジン180と同じ構成をそれぞれ有する。ドライバ制御部281、タイマ282、および信号処理部283は、表示装置102における、ドライバ制御部181、タイマ182、信号処理部183と同じ構成をそれぞれ有する。したがって、表示装置103に含まれる各機能ブロックについての説明は、繰り返さない。 The display device 103 has the same configuration as the display device 102. That is, the driver 230, the display panel 240, the internal IF 278, the backlight 279, and the image processing engine 280 have the same configuration as the driver 130, the display panel 140, the internal IF 178, the backlight 179, and the image processing engine 180 in the display device 102. Have each. The driver control unit 281, the timer 282, and the signal processing unit 283 have the same configurations as the driver control unit 181, the timer 182, and the signal processing unit 183 in the display device 102, respectively. Therefore, description of each functional block included in display device 103 will not be repeated.
 ところで、電子機器100における処理は、各ハードウェアおよびCPU110により実行されるソフトウェアによって実現される。このようなソフトウェアは、ROM172に予め記憶されている場合がある。また、ソフトウェアは、メモリカード1731その他の記憶媒体に格納されて、プログラム製品として流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。このようなソフトウェアは、メモリカードリーダライタ173その他の読取装置によりその記憶媒体から読み取られて、あるいは、通信部174または通信IF(図示せず)を介してダウンロードされた後、ROM172に一旦格納される。そのソフトウェアは、CPU110によってROM172から読み出され、RAM171に実行可能なプログラムの形式で格納される。CPU110は、そのプログラムを実行する。 Incidentally, the processing in the electronic device 100 is realized by software executed by each hardware and the CPU 110. Such software may be stored in the ROM 172 in advance. The software may be stored in a memory card 1731 or other storage medium and distributed as a program product. Alternatively, the software may be provided as a program product that can be downloaded by an information provider connected to the so-called Internet. Such software is read from the storage medium by the memory card reader / writer 173 or other reading device, or downloaded via the communication unit 174 or communication IF (not shown), and then temporarily stored in the ROM 172. The The software is read from the ROM 172 by the CPU 110 and stored in the RAM 171 in the form of an executable program. CPU 110 executes the program.
 図10に示される電子機器100の本体装置101を構成する各構成要素は、一般的なものである。したがって、本発明の本質的な部分は、RAM171、ROM172、メモリカード1731その他の記憶媒体に格納されたソフトウェア、あるいはネットワークを介してダウンロード可能なソフトウェアであるともいえる。なお、電子機器100の本体装置101のハードウェアの動作は周知であるので、詳細な説明は繰り返さない。 Each component constituting the main device 101 of the electronic device 100 shown in FIG. 10 is a general one. Therefore, it can be said that the essential part of the present invention is the software stored in the RAM 171, the ROM 172, the memory card 1731 and other storage media, or the software downloadable via the network. Since the hardware operation of main device 101 of electronic device 100 is well known, detailed description will not be repeated.
 なお、記憶媒体としては、メモリカードに限られず、CD-ROM、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)、フラッシュROMなどの半導体メモリ等の固定的にプログラムを格納する媒体でもよい。 The storage medium is not limited to a memory card, but is a CD-ROM, FD (Flexible Disk), hard disk, magnetic tape, cassette tape, optical disk (MO (Magnetic Optical Disc) / MD (Mini Disc) / DVD (Digital Versatile). Disc)), IC (Integrated Circuit) card (excluding memory card), optical card, mask ROM, EPROM, EEPROM (Electronically Erasable Programmable Read-Only Memory), semiconductor memory such as flash ROM, etc. It may be a medium to be used.
 ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。 The program here includes not only a program directly executable by the CPU but also a program in a source program format, a compressed program, an encrypted program, and the like.
 <光センサ内蔵液晶パネルの構成および駆動について>
 次に、表示パネル140の構成と、当該表示パネル140の周辺回路の構成とについて説明する。図11は、表示パネル140の構成と、当該表示パネル140の周辺回路とを示した図である。
<Configuration and drive of liquid crystal panel with built-in optical sensor>
Next, the configuration of the display panel 140 and the configuration of peripheral circuits of the display panel 140 will be described. FIG. 11 is a diagram illustrating a configuration of the display panel 140 and peripheral circuits of the display panel 140.
 図11を参照して、表示パネル140は、画素回路141と、光センサ回路144と、走査信号線Giと、データ信号線SRjと、データ信号線SGjと、データ信号線SBjと、センサ信号線SSjと、センサ信号線SDjと、読出信号線RWiと、リセット信号線RSiとを含む。なお、iは、1≦i≦mを満たす自然数であり、jは1≦j≦nを満たす自然数である。 Referring to FIG. 11, the display panel 140 includes a pixel circuit 141, an optical sensor circuit 144, a scanning signal line Gi, a data signal line SRj, a data signal line SGj, a data signal line SBj, and a sensor signal line. SSj, sensor signal line SDj, read signal line RWi, and reset signal line RSi are included. Note that i is a natural number satisfying 1 ≦ i ≦ m, and j is a natural number satisfying 1 ≦ j ≦ n.
 また、図10に示した表示装置102のドライバ130は、表示パネル140の周辺回路として、走査信号線駆動回路131と、データ信号線駆動回路132と、光センサ駆動回路133と、スイッチ134と、アンプ135とを含む。 Further, the driver 130 of the display device 102 illustrated in FIG. 10 includes, as peripheral circuits of the display panel 140, a scanning signal line driving circuit 131, a data signal line driving circuit 132, an optical sensor driving circuit 133, a switch 134, And an amplifier 135.
 走査信号線駆動回路131は、図10に示すドライバ制御部181から制御信号TC1を受ける。そして、走査信号線駆動回路131は、制御信号TC1に基づき、各走査信号線(G1~Gm)に対して、走査信号線G1から順に予め定められた電圧を印加する。より詳しくは、走査信号線駆動回路131は、単位時間毎に走査信号線(G1~Gm)の中から1つの走査信号線を順次選択し、当該選択した走査信号線に対して後述するTFT(Thin Film Transistor)142のゲートをターンオンできるだけの電圧(以下、ハイレベル電圧)を印加する。なお、選択されていない走査信号線に対しては、ハイレベル電圧を印加することなく、ローレベル電圧を印加したままとする。 The scanning signal line drive circuit 131 receives the control signal TC1 from the driver control unit 181 shown in FIG. The scanning signal line drive circuit 131 applies a predetermined voltage in order from the scanning signal line G1 to each scanning signal line (G1 to Gm) based on the control signal TC1. More specifically, the scanning signal line driving circuit 131 sequentially selects one scanning signal line from the scanning signal lines (G1 to Gm) per unit time, and a TFT (to be described later) with respect to the selected scanning signal line. A voltage that can turn on the gate of the thin film transistor 142 (hereinafter referred to as a high level voltage) is applied. Note that a low level voltage is applied to a scanning signal line that is not selected without applying a high level voltage.
 データ信号線駆動回路132は、図10に示すドライバ制御部181から画像データ(DR,DG,DB)を受ける。そして、データ信号線駆動回路132は、3n個のデータ信号線(SR1~SRn,SG1~SGn,SB1~SBn)に対して、上記単位時間毎に、1行分の画像データに対応する電圧を順次印加する。 The data signal line driving circuit 132 receives image data (DR, DG, DB) from the driver control unit 181 shown in FIG. The data signal line driving circuit 132 applies a voltage corresponding to one row of image data to the 3n data signal lines (SR1 to SRn, SG1 to SGn, SB1 to SBn) for each unit time. Apply sequentially.
 なお、ここでは、いわゆる線順次方式と呼ばれる駆動方式を用いて説明したが、駆動方式はこれに限定されるものではない。 In addition, although it demonstrated using the drive system called what is called a line sequential system here, a drive system is not limited to this.
 画素回路141は、1つの画素の輝度(透過率)を設定するための回路である。また、画素回路141は、マトリクス状にm×n個配されている。より詳しくは、画素回路141は、図11の縦方向にm個、横方向にn個配されている。 The pixel circuit 141 is a circuit for setting the luminance (transmittance) of one pixel. Further, m × n pixel circuits 141 are arranged in a matrix. More specifically, m pixel circuits 141 are arranged in the vertical direction in FIG. 11 and n pixel circuits in the horizontal direction.
 画素回路141は、Rサブピクセル回路141rと、Gサブピクセル回路141gと、Bサブピクセル回路141bとからなる。これら3つの回路(141r,141g,141b)は、それぞれ、TFT142と、画素電極と対向電極とからなる1組の電極対143と、図示しないコンデンサとを含む。 The pixel circuit 141 includes an R subpixel circuit 141r, a G subpixel circuit 141g, and a B subpixel circuit 141b. Each of these three circuits (141r, 141g, 141b) includes a TFT 142, a pair of electrode pairs 143 including a pixel electrode and a counter electrode, and a capacitor (not shown).
 なお、n型のトランジスタとp型のトランジスタとを作れるCMOS(Complementary Metal Oxide Semiconductor)を実現できること、キャリア(電子または正孔)の移動速度がアモルファスシリコン薄膜トランジスタ(a-Si TFT)に比べて数百倍早いことなどから、表示装置102では、TFT142として多結晶シリコン薄膜トランジスタ(p-Si TFT)が用いられる。なお、TFT142は、n型チャネルの電界効果トランジスタであるとして説明する。ただし、TFT142がp型チャネルの電界効果トランジスタであってもよい。 In addition, CMOS (Complementary Metal Oxide Semiconductor) that can make n-type transistors and p-type transistors can be realized, and the movement speed of carriers (electrons or holes) is several hundreds compared to amorphous silicon thin film transistors (a-Si TFTs). For example, a polycrystalline silicon thin film transistor (p-Si TFT) is used as the TFT 142 in the display device 102 because it is twice as fast. Note that the TFT 142 will be described as an n-channel field effect transistor. However, the TFT 142 may be a p-type channel field effect transistor.
 Rサブピクセル回路141r内のTFT142のソースはデータ信号線SRjに接続されている。また、当該TFT142のゲートは走査信号線Giに接続されている。さらに、当該TFT142のドレインは、電極対143の画素電極に接続される。そして、画素電極と対向電極との間には、液晶が配される。なお、Gサブピクセル回路141gおよびBサブピクセル回路141bについても、各TFT142のソースが接続されるデータ信号線が異なる以外は、Rサブピクセル回路141rと同じ構成である。このため、これら2つの回路(141g,141b)についての説明は、繰り返さない。 The source of the TFT 142 in the R subpixel circuit 141r is connected to the data signal line SRj. The gate of the TFT 142 is connected to the scanning signal line Gi. Further, the drain of the TFT 142 is connected to the pixel electrode of the electrode pair 143. A liquid crystal is disposed between the pixel electrode and the counter electrode. The G sub-pixel circuit 141g and the B sub-pixel circuit 141b have the same configuration as the R sub-pixel circuit 141r except that the data signal line to which the source of each TFT 142 is connected is different. Therefore, description of these two circuits (141g, 141b) will not be repeated.
 ここで、画素回路141における輝度の設定について説明する。まず、走査信号線Giに上記ハイレベル電圧を印加する。当該ハイレベル電圧の印加により、TFT142のゲートがターンオンする。このようにTFT142のゲートがターンオンした状態で、各データ信号線(SRj,SGj,SBj)に対して、それぞれ指定された電圧(1画素分の画像データに対応する電圧)を印加する。これにより、当該指定された電圧に基づいた電圧が画素電極に印加される。その結果、画素電極と対向電極との間に電位差が生じる。この電位差に基づいて、液晶が応答し、画素の輝度は予め定められた輝度に設定される。なお、当該電位差は、上記図示しないコンデンサ(補助容量)によって、次のフレーム期間において走査信号線Giが選択されるまで保持される。 Here, the setting of the luminance in the pixel circuit 141 will be described. First, the high level voltage is applied to the scanning signal line Gi. By the application of the high level voltage, the gate of the TFT 142 is turned on. In this manner, with the gate of the TFT 142 turned on, a specified voltage (voltage corresponding to image data for one pixel) is applied to each data signal line (SRj, SGj, SBj). Thereby, a voltage based on the designated voltage is applied to the pixel electrode. As a result, a potential difference is generated between the pixel electrode and the counter electrode. Based on this potential difference, the liquid crystal responds and the luminance of the pixel is set to a predetermined luminance. Note that the potential difference is held by the capacitor (auxiliary capacitor) (not shown) until the scanning signal line Gi is selected in the next frame period.
 光センサ駆動回路133は、図10に示すドライバ制御部181から制御信号TC2を受ける。 The optical sensor driving circuit 133 receives the control signal TC2 from the driver control unit 181 shown in FIG.
 そして、光センサ駆動回路133は、制御信号TC2に基づき、単位時間毎にリセット信号線(RS1~RSm)の中から1つの信号線を順次選択し、当該選択した信号線に対して、予め定められたタイミングで通常よりもハイレベルな電圧VDDRを印加する。なお、選択されていないリセット信号線に対しては、選択されたリセット信号線に印加した電圧よりも低い電圧VSSRを印加したままとする。たとえば、電圧VDDRを0Vに、電圧VSSRを-5Vに設定すればよい。 Then, the optical sensor drive circuit 133 sequentially selects one signal line from the reset signal lines (RS1 to RSm) for each unit time based on the control signal TC2, and determines in advance for the selected signal line. At a given timing, the voltage VDDR that is higher than usual is applied. Note that a voltage VSSR lower than the voltage applied to the selected reset signal line is kept applied to the unselected reset signal line. For example, the voltage VDDR may be set to 0V and the voltage VSSR may be set to −5V.
 また、光センサ駆動回路133は、制御信号TC2に基づき、単位時間毎に読出信号線(RW1~RWm)の中から1つの信号線を順次選択し、当該選択した信号線に対して、予め定められたタイミングで通常よりもハイレベルな電圧VDDを印加する。なお、選択されていない読出信号線に対しては、上記電圧VSSRを印加したままとする。たとえば、VDDの値を8Vに設定すればよい。 In addition, the photosensor driving circuit 133 sequentially selects one signal line from the readout signal lines (RW1 to RWm) per unit time based on the control signal TC2, and determines in advance for the selected signal line. At a given timing, a voltage VDD higher than usual is applied. Note that the voltage VSSR is applied to the read signal line that is not selected. For example, the value of VDD may be set to 8V.
 なお、電圧VDDRを印加するタイミング、および電圧VDDを印加するタイミングについては、後述する。 The timing for applying the voltage VDDR and the timing for applying the voltage VDD will be described later.
 光センサ回路144は、フォトダイオード145と、コンデンサ146と、TFT147とを含む。なお、以下では、TFT147がn型チャネルの電界効果トランジスタであるとして説明する。ただし、TFT147がp型チャネルの電界効果トランジスタであってもよい。 The optical sensor circuit 144 includes a photodiode 145, a capacitor 146, and a TFT 147. In the following description, it is assumed that the TFT 147 is an n-type channel field effect transistor. However, the TFT 147 may be a p-type channel field effect transistor.
 フォトダイオード145のアノードは、リセット信号線RSiに接続されている。一方、フォトダイオード145のカソードは、コンデンサ146の一方の電極に接続されている。また、コンデンサ146の他方の電極は、読出信号線RWiに接続されている。なお、以下では、フォトダイオード145とコンデンサ146との接続点をノードNと称する。 The anode of the photodiode 145 is connected to the reset signal line RSi. On the other hand, the cathode of the photodiode 145 is connected to one electrode of the capacitor 146. The other electrode of the capacitor 146 is connected to the read signal line RWi. Hereinafter, a connection point between the photodiode 145 and the capacitor 146 is referred to as a node N.
 TFT147のゲートは、ノードNに接続されている。また、TFT147のドレインは、センサ信号線SDjに接続されている。さらに、TFT147のソースは、センサ信号線SSjに接続されている。光センサ回路144を用いたセンシングの詳細については、後述する。 The gate of the TFT 147 is connected to the node N. The drain of the TFT 147 is connected to the sensor signal line SDj. Further, the source of the TFT 147 is connected to the sensor signal line SSj. Details of sensing using the optical sensor circuit 144 will be described later.
 スイッチ134は、センサ信号線(SD1~SDn)に対して、予め定められた電圧を印加するか否かを切り替えるために設けられたスイッチである。スイッチ134の切り替え動作は、光センサ駆動回路133により行われる。なお、スイッチ134が導通状態となった場合にセンサ信号線(SD1~SDn)に印加される電圧については、後述する。 The switch 134 is a switch provided for switching whether or not to apply a predetermined voltage to the sensor signal lines (SD1 to SDn). The switching operation of the switch 134 is performed by the optical sensor driving circuit 133. The voltage applied to the sensor signal lines (SD1 to SDn) when the switch 134 is turned on will be described later.
 アンプ135は、各センサ信号線(SS1~SSn)から出力された電圧を増幅する。なお、増幅された電圧は、図10に示した信号処理部183に送られる。 The amplifier 135 amplifies the voltage output from each sensor signal line (SS1 to SSn). The amplified voltage is sent to the signal processing unit 183 shown in FIG.
 なお、画素回路141を用いて画像を表示パネル140に表示させるタイミングと、光センサ回路144を用いてセンシングするタイミングとについては、画像処理エンジン180が制御する。 Note that the image processing engine 180 controls the timing at which an image is displayed on the display panel 140 using the pixel circuit 141 and the timing at which sensing is performed using the optical sensor circuit 144.
 図12は、表示パネル140とバックライト179との断面図である。図12を参照して、表示パネル140は、アクティブマトリクス基板151Aと、対向基板151Bと、液晶層152とを含む。対向基板151Bは、アクティブマトリクス基板151Aに対向して配置されている。液晶層152は、アクティブマトリクス基板151Aと対向基板151Bとに挟まれている。バックライト179は、アクティブマトリクス基板151Aに関し液晶層152と反対側に配されている。 FIG. 12 is a cross-sectional view of the display panel 140 and the backlight 179. Referring to FIG. 12, display panel 140 includes an active matrix substrate 151A, a counter substrate 151B, and a liquid crystal layer 152. The counter substrate 151B is disposed to face the active matrix substrate 151A. The liquid crystal layer 152 is sandwiched between the active matrix substrate 151A and the counter substrate 151B. The backlight 179 is disposed on the opposite side of the liquid crystal layer 152 with respect to the active matrix substrate 151A.
 アクティブマトリクス基板151Aは、偏光フィルタ161と、ガラス基板162と、電極対143を構成する画素電極143aと、フォトダイオード145と、データ信号線157と、配向膜164とを含む。さらに、図12には示していないが、アクティブマトリクス基板151Aは、図11に示した、コンデンサ146と、TFT147と、TFT142と、走査信号線Giとを含む。 The active matrix substrate 151A includes a polarizing filter 161, a glass substrate 162, a pixel electrode 143a constituting an electrode pair 143, a photodiode 145, a data signal line 157, and an alignment film 164. Further, although not shown in FIG. 12, the active matrix substrate 151A includes the capacitor 146, the TFT 147, the TFT 142, and the scanning signal line Gi shown in FIG.
 また、アクティブマトリクス基板151Aにおいては、バックライト179側から、偏光フィルタ161、ガラス基板162、画素電極143a、および配向膜164が、この順に配されている。フォトダイオード145とデータ信号線157とは、ガラス基板162の液晶層152側に形成されている。 In the active matrix substrate 151A, the polarizing filter 161, the glass substrate 162, the pixel electrode 143a, and the alignment film 164 are arranged in this order from the backlight 179 side. The photodiode 145 and the data signal line 157 are formed on the liquid crystal layer 152 side of the glass substrate 162.
 対向基板151Bは、偏光フィルタ161と、ガラス基板162と、遮光膜163と、カラーフィルタ(153r,153g,153b)と、電極対143を構成する対向電極143bと、配向膜164とを含む。 The counter substrate 151B includes a polarizing filter 161, a glass substrate 162, a light shielding film 163, color filters (153r, 153g, 153b), a counter electrode 143b constituting an electrode pair 143, and an alignment film 164.
 また、対向基板151Bにおいては、液晶層152側から、配向膜164、対向電極143b、カラーフィルタ(153r,153g,153b)、ガラス基板162、および偏光フィルタ161が、この順に配されている。遮光膜163は、カラーフィルタ(153r,153g,153b)と同一の層に形成されている。 In the counter substrate 151B, the alignment film 164, the counter electrode 143b, the color filters (153r, 153g, 153b), the glass substrate 162, and the polarizing filter 161 are arranged in this order from the liquid crystal layer 152 side. The light shielding film 163 is formed in the same layer as the color filters (153r, 153g, 153b).
 カラーフィルタ153rは、赤色の波長の光を透過させるフィルタである。カラーフィルタ153gは、緑色の波長の光を透過させるフィルタである。カラーフィルタ153bは、青色の波長の光を透過させるフィルタである。ここで、フォトダイオード145は、カラーフィルタ153bに対向する位置に配されている。 The color filter 153r is a filter that transmits light having a red wavelength. The color filter 153g is a filter that transmits light having a green wavelength. The color filter 153b is a filter that transmits light having a blue wavelength. Here, the photodiode 145 is arranged at a position facing the color filter 153b.
 表示パネル140は、外光やバックライト179などの光源により発せられた光を遮ったり又は当該光を透過させたりすることによって、画像の表示をする。具体的には、表示パネル140は、画素電極143aと対向電極143bとの間に電圧を印加することにより液晶層152の液晶分子の向きを変化させ、上記光を遮ったり、あるいは透過させたりする。ただし、液晶だけでは光を完全に遮ることができないため、特定の偏光方向の光のみを透過させる偏光フィルタ161を配置している。 The display panel 140 displays an image by blocking or transmitting light emitted by a light source such as external light or a backlight 179. Specifically, the display panel 140 changes the direction of the liquid crystal molecules of the liquid crystal layer 152 by applying a voltage between the pixel electrode 143a and the counter electrode 143b, thereby blocking or transmitting the light. . However, since the light cannot be completely blocked by the liquid crystal alone, a polarizing filter 161 that transmits only light having a specific polarization direction is provided.
 なお、フォトダイオード145の位置は、上記の位置に限定されるものではなく、カラーフィルタ153rに対向する位置やカラーフィルタ153gに対向する位置に設けることも可能である。 Note that the position of the photodiode 145 is not limited to the above position, and may be provided at a position facing the color filter 153r or a position facing the color filter 153g.
 ここで、光センサ回路144の動作について説明する。図13は、光センサ回路144を動作させる際のタイミングチャートを示した図である。図13において、電圧VINTは、光センサ回路144内のノードNにおける電位を示している。また、電圧VPIXは、図11に示したセンサ信号線SSjからの出力電圧であって、アンプ135によって増幅される前の電圧を示している。 Here, the operation of the optical sensor circuit 144 will be described. FIG. 13 is a timing chart when the optical sensor circuit 144 is operated. In FIG. 13, a voltage VINT indicates a potential at the node N in the photosensor circuit 144. The voltage VPIX is an output voltage from the sensor signal line SSj shown in FIG. 11 and is a voltage before being amplified by the amplifier 135.
 以下では、光センサ回路144をリセットするためのリセット期間と、光センサ回路144を用いて光をセンシングするためのセンシング期間と、センシングした結果を読み出す読出期間とに分けて説明する。 Hereinafter, the description will be divided into a reset period for resetting the optical sensor circuit 144, a sensing period for sensing light using the optical sensor circuit 144, and a readout period for reading the sensing result.
 まず、リセット期間について説明する。リセット期間においては、リセット信号線RSiに印加する電圧を、ローレベル(電圧VSSR)からハイレベル(電圧VDDR)へと瞬間的に切り替える。一方、読出信号線RWiに印加する電圧は、ローレベル(電圧VSSR)のままとする。このように、リセット信号線RSiに上記ハイレベルの電圧を印加することにより、フォトダイオード145の順方向(アノード側からカソード側)に電流が流れ始める。その結果、ノードNの電位である電圧VINTは、以下の式(1)で示す値となる。なお、式(1)では、フォトダイオード145における順方向の電圧降下量をVfとしている。 First, the reset period will be described. In the reset period, the voltage applied to the reset signal line RSi is instantaneously switched from the low level (voltage VSSR) to the high level (voltage VDDR). On the other hand, the voltage applied to the read signal line RWi is kept at the low level (voltage VSSR). As described above, by applying the high-level voltage to the reset signal line RSi, a current starts to flow in the forward direction (from the anode side to the cathode side) of the photodiode 145. As a result, the voltage VINT which is the potential of the node N has a value represented by the following expression (1). In Equation (1), the forward voltage drop amount in the photodiode 145 is Vf.
 VINT=VSSR+|VDDR-VSSR|-Vf … (1)
 それゆえ、ノードNの電位は、図13に示すとおり、電圧VDDRよりもVfだけ小さな値となる。
VINT = VSSR + | VDDR−VSSR | −Vf (1)
Therefore, the potential of the node N is a value smaller by Vf than the voltage VDDR as shown in FIG.
 ここで、電圧VINTは、TFT147のゲートをターンオンさせる閾値以下であるため、センサ信号線SSjからの出力はない。このため、電圧VPIXは変化しない。また、コンデンサ146の電極間には、上記電圧VINT分の差が生じる。このため、コンデンサ146には、当該差に応じた電荷が蓄積される。 Here, since the voltage VINT is not more than the threshold value for turning on the gate of the TFT 147, there is no output from the sensor signal line SSj. For this reason, the voltage VPIX does not change. Further, a difference corresponding to the voltage VINT occurs between the electrodes of the capacitor 146. For this reason, the capacitor 146 accumulates charges corresponding to the difference.
 次に、センシング期間について説明する。リセット期間に続くセンシング期間においては、リセット信号線RSiに印加する電圧は、ハイレベル(電圧VDDR)からローレベル(電圧VSSR)へと瞬間的に切り替わる。一方、読出信号線RWiに印加する電圧は、ローレベル(電圧VSSR)のままとする。 Next, the sensing period will be described. In the sensing period following the reset period, the voltage applied to the reset signal line RSi is instantaneously switched from the high level (voltage VDDR) to the low level (voltage VSSR). On the other hand, the voltage applied to the read signal line RWi is kept at the low level (voltage VSSR).
 このように、リセット信号線RSiに印加する電圧をローレベルに変化させることにより、ノードNの電位は、リセット信号線RSiの電圧および読出信号線RWiの電圧よりも高くなる。このため、フォトダイオード145においては、カソード側の電圧がアノード側の電圧よりも高くなる。つまり、フォトダイオード145は、逆バイアスの状態となる。このような逆バイアスの状態において、光源からの光をフォトダイオード145が受光すると、フォトダイオード145のカソード側からアノード側へと電流が流れ始める。その結果、図13に示すとおり、ノードNの電位(つまり、電圧VINT)は時間の経過とともに低くなる。 Thus, by changing the voltage applied to the reset signal line RSi to the low level, the potential of the node N becomes higher than the voltage of the reset signal line RSi and the voltage of the read signal line RWi. For this reason, in the photodiode 145, the voltage on the cathode side becomes higher than the voltage on the anode side. That is, the photodiode 145 is in a reverse bias state. In such a reverse bias state, when the photodiode 145 receives light from the light source, current starts to flow from the cathode side to the anode side of the photodiode 145. As a result, as shown in FIG. 13, the potential of the node N (that is, the voltage VINT) becomes lower with the passage of time.
 なお、このように電圧VINTが低下し続けるため、TFT147のゲートはターンオンした状態にはならない。それゆえ、センサ信号線SSjからの出力はない。このため、電圧VPIXは変化しない。 Note that since the voltage VINT continues to decrease in this way, the gate of the TFT 147 does not turn on. Therefore, there is no output from the sensor signal line SSj. For this reason, the voltage VPIX does not change.
 次に、読出期間について説明する。センシング期間に続く読出期間においては、リセット信号線RSiに印加する電圧をローレベル(電圧VSSR)のままとする。一方、読出信号線RWiに印加する電圧は、ローレベル(電圧VSSR)からハイレベル(電圧VDD)へと瞬間的に切り替わる。ここで、電圧VDDは、電圧VDDRよりも高い値である。 Next, the reading period will be described. In the readout period following the sensing period, the voltage applied to the reset signal line RSi is kept at the low level (voltage VSSR). On the other hand, the voltage applied to the read signal line RWi is instantaneously switched from the low level (voltage VSSR) to the high level (voltage VDD). Here, the voltage VDD is higher than the voltage VDDR.
 このように、読出信号線RWiにハイレベルの電圧を瞬間的に印加することにより、図13に示すとおり、コンデンサ146を介してノードNの電位が引き上げられる。なお、ノードNの電位の上昇幅は、読出信号線RWiに印加する電圧に応じた値となる。ここで、ノードNの電位(つまり、電圧VINT)が、TFT147のゲートをターンオンさせる閾値以上まで引き上げられるため、TFT147のゲートがターンオンする。 In this way, by instantaneously applying a high level voltage to the read signal line RWi, the potential of the node N is raised through the capacitor 146 as shown in FIG. Note that the increase width of the potential of the node N is a value corresponding to the voltage applied to the read signal line RWi. Here, since the potential of the node N (that is, the voltage VINT) is raised to a threshold value that turns on the gate of the TFT 147, the gate of the TFT 147 is turned on.
 この際、TFT147のドレイン側に接続されたセンサ信号線SDj(図11参照)に予め一定電圧を印加しておけば、TFT147のソース側に接続されたセンサ信号線SSjからは、図13のVPIXのグラフに示すとおり、ノードNの電位に応じた電圧が出力される。 At this time, if a constant voltage is applied in advance to the sensor signal line SDj (see FIG. 11) connected to the drain side of the TFT 147, the sensor signal line SSj connected to the source side of the TFT 147 will cause the VPIX in FIG. As shown in the graph, a voltage corresponding to the potential of the node N is output.
 ここで、フォトダイオード145が受光する光の量(以下、受光量と称する)が少ないと、図13のVINTのグラフに示す直線の傾きが緩やかになる。その結果、電圧VPIXは、受光量が多い場合に比べて高くなる。このように、光センサ回路144は、フォトダイオード145の受光量に応じて、センサ信号線SSjに出力する電圧の値を変化させる。 Here, if the amount of light received by the photodiode 145 (hereinafter referred to as the amount of received light) is small, the slope of the straight line shown in the VINT graph of FIG. 13 becomes gentle. As a result, the voltage VPIX is higher than when the amount of received light is large. As described above, the optical sensor circuit 144 changes the value of the voltage output to the sensor signal line SSj in accordance with the amount of light received by the photodiode 145.
 ところで、上記においては、m×n個存在する光センサ回路のうち、1つの光センサ回路144に着目して、その動作を説明した。以下では、表示パネル140における各光センサ回路の動作について説明する。 By the way, in the above description, the operation has been described focusing on one optical sensor circuit 144 among the m × n optical sensor circuits. Below, operation | movement of each photosensor circuit in the display panel 140 is demonstrated.
 まず、光センサ駆動回路133は、n個のセンサ信号線(SD1~SDn)の全てに対して、予め定められた電圧を印加する。次に、光センサ駆動回路133は、リセット信号線RS1に対して、通常よりもハイレベルな電圧VDDRを印加する。なお、他のリセット信号線(RS2~RSm)および読出信号線(RW1~RWm)については、ローレベルの電圧を印加したままの状態とする。これにより、図11における1行目のn個の光センサ回路が、上述したリセット期間に入る。その後、1行目のn個の光センサ回路は、センシング期間に入る。さらに、その後、1行目のn個の光センサ回路は、読出期間に入る。 First, the optical sensor driving circuit 133 applies a predetermined voltage to all n sensor signal lines (SD1 to SDn). Next, the photosensor drive circuit 133 applies a voltage VDDR that is higher than normal to the reset signal line RS1. The other reset signal lines (RS2 to RSm) and read signal lines (RW1 to RWm) are kept in a state where a low level voltage is applied. As a result, the n photosensor circuits in the first row in FIG. 11 enter the reset period described above. Thereafter, the n photosensor circuits in the first row enter a sensing period. Further, thereafter, the n photosensor circuits in the first row enter a reading period.
 なお、n個のセンサ信号線(SD1~SDn)の全てに対して予め定められた電圧を印加するタイミングは、上記のタイミングに限定されず、少なくとも読出期間前に印加されるタイミングであればよい。 Note that the timing for applying a predetermined voltage to all n sensor signal lines (SD1 to SDn) is not limited to the above timing, and may be any timing that is applied at least before the readout period. .
 1行目のn個の光センサ回路の読出期間が終了すると、光センサ駆動回路133は、リセット信号線RS2に対して、通常よりもハイレベルな電圧VDDRを印加する。つまり、2行目のn個の光センサ回路のリセット期間に入る。リセット期間が終了すると、2行目のn個の光センサ回路は、センシング期間に入り、その後は、読出期間に入る。 When the reading period of the n photosensor circuits in the first row is completed, the photosensor drive circuit 133 applies a voltage VDDR that is higher than usual to the reset signal line RS2. That is, the reset period of the n photosensor circuits in the second row starts. When the reset period ends, the n photosensor circuits in the second row enter a sensing period, and thereafter enter a reading period.
 以降は、上述した処理が、順に、3行目のn個の光センサ回路、4行目のn個の光センサ回路、…m行目のn個の光センサ回路に対して行われる。その結果、センサ信号線(SS1~SSn)からは、1行目のセンシング結果、2行目のセンシング結果、…、m行目のセンシング結果が、この順に出力される。 Thereafter, the above-described processing is sequentially performed on the n photosensor circuits in the third row, the n photosensor circuits in the fourth row,..., The n photosensor circuits in the m row. As a result, the sensor signal lines (SS1 to SSn) output the first row sensing result, the second row sensing result,..., The mth row sensing result in this order.
 なお、表示装置102においては、上記のように行毎にセンシングが行われるとともに、行毎にセンシング結果が表示パネル140から出力される。このため、以下では、表示パネル140から出力される1行目からm行目までのm行分の電圧に関するデータに対して、信号処理部183が上述したデータ処理を行った後のデータを、「スキャンデータ」と称する。つまり、スキャンデータとは、スキャン対象物(たとえば、ユーザの指)をスキャンすることにより得られる画像データを指す。また、当該スキャンデータに基づいて表示された画像を、「スキャン画像」と称する。さらに、以下では、センシングを「スキャン」と称する。 In the display device 102, sensing is performed for each row as described above, and a sensing result is output from the display panel 140 for each row. For this reason, hereinafter, the data after the signal processing unit 183 performs the above-described data processing on the data regarding the voltage for m rows from the first row to the m-th row output from the display panel 140, This is called “scan data”. That is, scan data refers to image data obtained by scanning a scan target (for example, a user's finger). An image displayed based on the scan data is referred to as a “scanned image”. Further, in the following, sensing is referred to as “scan”.
 また、上記においては、m×n個の光センサ回路全てを用いてスキャンを行う構成を例に挙げたが、これに限定されるものではない。予め選択された光センサ回路を用いて、表示パネル140の表面の一部の領域に関してスキャンを行うことも構成としてもよい。 In the above description, the configuration in which scanning is performed using all m × n photosensor circuits has been described as an example, but the configuration is not limited thereto. Scanning may be performed on a partial region of the surface of the display panel 140 using a photosensor circuit selected in advance.
 以下では、電子機器100が、両構成のいずれの構成をも採れるものとする。さらに、当該構成間の切り替えは、操作キー177を介した入力などに基づく本体装置101から送られてくるコマンドにより行われるものとする。なお、表示パネル140の表面の一部の領域に関してスキャンを行う場合、画像処理エンジン180が、スキャン対象領域の設定を行う。なお、当該領域の設定を、操作キー177を介してユーザが指定できる構成としてもよい。 In the following, it is assumed that the electronic device 100 can take either configuration. Further, switching between the components is performed by a command sent from the main body apparatus 101 based on an input via the operation key 177 or the like. Note that when scanning is performed on a partial area on the surface of the display panel 140, the image processing engine 180 sets a scan target area. The setting of the area may be configured to be specified by the user via the operation key 177.
 このように、表示パネル140の表面の一部の領域に関してスキャンを行う場合には、画像の表示に関し、以下のような利用の態様がある。1つ目は、上記一部の領域(以下、スキャン領域と称する)以外の表面の領域において、画像を表示させる態様である。2つ目は、上記スキャン領域以外の表面の領域において、画像を表示させない態様である。いずれの態様とするかは、本体装置101から画像処理エンジン180に送られてくるコマンドに基づく。 As described above, when scanning is performed on a partial region of the surface of the display panel 140, there are the following modes of use for displaying an image. The first is a mode in which an image is displayed in a surface area other than the partial area (hereinafter referred to as a scan area). The second is a mode in which no image is displayed in the surface area other than the scan area. Which mode is used is based on a command sent from the main apparatus 101 to the image processing engine 180.
 図14は、表示パネル140とバックライト179との断面図であって、スキャンの際にフォトダイオード145がバックライト179からの光を受光する構成を示した図である。 FIG. 14 is a cross-sectional view of the display panel 140 and the backlight 179 and shows a configuration in which the photodiode 145 receives light from the backlight 179 during scanning.
 図14を参照して、ユーザの指900が表示パネル140の表面に接触している場合、バックライト179から発せられた光の一部は、当該接触している領域ではユーザの指900(略平面)にて反射される。そして、フォトダイオード145は、当該反射された光を受光する。 Referring to FIG. 14, when the user's finger 900 is in contact with the surface of the display panel 140, a part of the light emitted from the backlight 179 is part of the user's finger 900 (abbreviated in the contacted area). Reflected on the plane). The photodiode 145 receives the reflected light.
 また、指900が接触していない領域においても、バックライト179から発せられた光の一部は、ユーザの指900にて反射される。この場合においても、フォトダイオード145は、当該反射された光を受光する。ただし、当該領域においては表示パネル140の表面に指900が接触していないため、指900が接触している領域よりも、フォトダイオード145の受光量は少なくなる。なお、バックライト179から発せられた光のうち、ユーザの指900に到達しない光のほとんどについては、フォトダイオード145は受光できない。 Further, even in a region where the finger 900 is not in contact, a part of the light emitted from the backlight 179 is reflected by the user's finger 900. Even in this case, the photodiode 145 receives the reflected light. However, since the finger 900 is not in contact with the surface of the display panel 140 in the region, the amount of light received by the photodiode 145 is smaller than the region in which the finger 900 is in contact. Note that the photodiode 145 cannot receive most of the light emitted from the backlight 179 that does not reach the user's finger 900.
 ここで、バックライト179を、少なくともセンシング期間においては点灯させておくことにより、光センサ回路144は、ユーザの指900により反射した光の光量に応じた電圧をセンサ信号線SSjから出力することができる。このように、バックライト179の点灯と消灯とを制御することにより、表示パネル140では、指900の接触位置、指900の接触している範囲(指900の押圧力によって定まる)、表示パネル140の表面に対する指900の方向などに応じて、センサ信号線(SS1からSSn)から出力される電圧が変化することになる。 Here, by turning on the backlight 179 at least during the sensing period, the optical sensor circuit 144 can output a voltage corresponding to the amount of light reflected by the user's finger 900 from the sensor signal line SSj. it can. In this manner, by controlling lighting and extinguishing of the backlight 179, the display panel 140 has a contact position of the finger 900, a contact range of the finger 900 (determined by the pressing force of the finger 900), and the display panel 140. The voltage output from the sensor signal lines (SS1 to SSn) varies depending on the direction of the finger 900 with respect to the surface of the sensor.
 以上により、表示装置102は、指900によって光が反射されることにより得られる像(以下、反射像とも称する)をスキャンすることができる。 As described above, the display device 102 can scan an image (hereinafter also referred to as a reflected image) obtained by reflecting light with the finger 900.
 なお、指900以外のスキャン対象物としては、スタイラスなどが挙げられる。
 ところで、本実施の形態においては、電子機器100の表示装置として表示パネルを例に挙げて説明しているが、表示パネルの代わりに有機EL(Electro-Luminescence)パネルなどの他のパネルを用いてもよい。
Note that examples of the scan object other than the finger 900 include a stylus.
By the way, in the present embodiment, a display panel is described as an example of the display device of electronic device 100, but another panel such as an organic EL (Electro-Luminescence) panel is used instead of the display panel. Also good.
 <データについて>
 次に、第1ユニット1001と第2ユニット1002との間でやり取りされるコマンドの一例、および第1ユニット1001内の本体装置101と表示装置102との間でやり取りされるコマンドの一例について説明する。
<About data>
Next, an example of commands exchanged between the first unit 1001 and the second unit 1002 and an example of commands exchanged between the main body device 101 and the display device 102 in the first unit 1001 will be described. .
 図15は、コマンドの概略構成を示した図である。図15を参照して、コマンドは、ヘッダDA01と、第1フィールドDA02と、第2フィールドDA03と、第3フィールドDA04と、第4フィールドDA05と、第5フィールドDA06と、予備のデータ領域DA07とを含む。 FIG. 15 is a diagram showing a schematic configuration of a command. Referring to FIG. 15, the command includes header DA01, first field DA02, second field DA03, third field DA04, fourth field DA05, fifth field DA06, and spare data area DA07. including.
 図16は、種別「000」のコマンド(つまり、センシングコマンド)を説明するための図である。CPU110は、種別「000」のコマンド(以下、「第1コマンド」と称する)を、第1ユニット1001の本体装置101から第2ユニット1002に送る。あるいは、CPU110は、第1コマンドを、本体装置101から表示装置102に送る。なお、以下においては、CPU110が第1コマンドを第1ユニット1001の本体装置101から第2ユニット1002に送る場合を例に挙げて説明する。 FIG. 16 is a diagram for explaining a command of type “000” (that is, a sensing command). The CPU 110 sends a command of type “000” (hereinafter referred to as “first command”) from the main unit 101 of the first unit 1001 to the second unit 1002. Alternatively, the CPU 110 sends the first command from the main body device 101 to the display device 102. In the following, the case where the CPU 110 sends the first command from the main unit 101 of the first unit 1001 to the second unit 1002 will be described as an example.
 CPU110は、ヘッダDA01に、コマンドの種別(「000」)、コマンドの送信先等を書き込む。CPU110は、第1フィールドDA02に、番号が「1」のタイミングの値を書き込む。CPU110は、第2フィールドDA03に、番号が「2」のデータ種別の値を書き込む。CPU110は、第3フィールドDA04に、番号が「3」の読取方式の値を書き込む。CPU110は、第4フィールドDA05に、番号が「4」の画像階調の値を書き込む。CPU110は、第5フィールドDA06に、番号が「5」の解像度の値を書き込む。 The CPU 110 writes the command type (“000”), the command transmission destination, and the like in the header DA01. The CPU 110 writes the value of the timing whose number is “1” in the first field DA02. The CPU 110 writes the value of the data type with the number “2” in the second field DA03. The CPU 110 writes the value of the reading method whose number is “3” in the third field DA04. The CPU 110 writes the value of the image gradation number “4” in the fourth field DA05. The CPU 110 writes the value of the resolution with the number “5” in the fifth field DA06.
 第1フィールドDA02に「00」が設定された第1コマンドは、画像処理エンジン280に対して、そのときのスキャンデータの送信を要求する。つまり、センシング第1コマンドは、当該第1コマンドを画像処理エンジン280が受信した後に、表示パネル240の光センサ回路を用いてスキャンすることにより得られるスキャンデータの送信を要求する。また、第1フィールドDA02に「01」が設定された第1コマンドは、スキャン結果に変化があったときのスキャンデータの送信を要求する。さらに、第1フィールドDA02に「10」が設定された第1コマンドは、一定周期毎にスキャンデータの送信を要求する。 The first command in which “00” is set in the first field DA02 requests the image processing engine 280 to transmit scan data at that time. That is, the sensing first command requests transmission of scan data obtained by scanning using the optical sensor circuit of the display panel 240 after the image processing engine 280 receives the first command. Further, the first command in which “01” is set in the first field DA02 requests transmission of scan data when the scan result is changed. Further, the first command in which “10” is set in the first field DA02 requests transmission of scan data at regular intervals.
 第2フィールドDA03に「001」が設定された第1コマンドは、部分画像における中心座標の座標値の送信を要求する。また、第2フィールドDA03に「010」が設定された第1コマンドは、スキャン結果が変化した部分画像のみの送信を要求する。なお、スキャン結果が変化したとは、前回のスキャン結果と今回のスキャン結果が異なっていることを指す。さらに、第2フィールドDA03に「100」が設定された第1コマンドは、全体画像の送信を要求する。 The first command in which “001” is set in the second field DA03 requests transmission of the coordinate value of the center coordinate in the partial image. In addition, the first command in which “010” is set in the second field DA03 requests transmission of only the partial image whose scan result has changed. Note that the change in the scan result indicates that the previous scan result is different from the current scan result. Furthermore, the first command in which “100” is set in the second field DA03 requests transmission of the entire image.
 ここで、「全体画像」とは、m×n個の光センサ回路を用いてスキャンした際に、各光センサ回路から出力される電圧に基づいて、画像処理エンジン280により生成された画像である。また、「部分画像」とは、全体画像の一部である。部分画像に関して、スキャン結果が変化した部分画像のみの送信を要求する構成とした理由については後述する。 Here, the “whole image” is an image generated by the image processing engine 280 based on the voltage output from each optical sensor circuit when scanning using m × n optical sensor circuits. . The “partial image” is a part of the entire image. The reason why the partial image is requested to transmit only the partial image whose scan result has changed will be described later.
 なお、上記座標値と上記部分画像または上記全体画像とを同時に要求する構成としてもよい。また、表示パネル240の表面の一部の領域に関してスキャンを行う構成の場合には、上記全体画像はスキャンが行われる領域に対応した画像となる。 Note that the coordinate value and the partial image or the entire image may be requested at the same time. Further, in the case of a configuration in which a partial area on the surface of the display panel 240 is scanned, the entire image is an image corresponding to the area to be scanned.
 第3フィールドDA04に「00」が設定されたセンシング第1コマンドは、バックライト279を点灯してスキャンすることを要求する。また、第3フィールドDA04に「01」が設定された第1コマンドは、バックライト279を消灯してスキャンすることを要求する。なお、バックライト279を消灯してスキャンする構成については後述する(図24)。さらに、第3フィールドDA04に「10」が設定された第1コマンドは、反射と透過とを併用してスキャンすることを要求する。なお、反射と透過とを併用するとは、バックライト279を点灯してスキャンする方式と、バックライトを消灯してスキャンする方式とを切り替えて、スキャン対象物のスキャンを行うことを指す。 The first sensing command in which “00” is set in the third field DA04 requests that the backlight 279 be turned on to scan. In addition, the first command in which “01” is set in the third field DA04 requests that the backlight 279 be turned off to perform scanning. A configuration for scanning with the backlight 279 off will be described later (FIG. 24). Furthermore, the first command in which “10” is set in the third field DA04 requests scanning using both reflection and transmission. Note that the combined use of reflection and transmission refers to scanning a scan object by switching between a method of scanning with the backlight 279 turned on and a method of scanning with the backlight turned off.
 第4フィールドDA05に「00」が設定された第1コマンドは、白黒の2値の画像データを要求する。また、第4フィールドDA05に「01」が設定された第1コマンドは、多階調の画像データを要求する。さらに、第4フィールドDA05に「10」が設定された第1コマンドは、RGBのカラーの画像データを要求する。 The first command in which “00” is set in the fourth field DA05 requests black and white binary image data. Further, the first command in which “01” is set in the fourth field DA05 requests multi-gradation image data. Further, the first command in which “10” is set in the fourth field DA05 requests RGB color image data.
 第5フィールドDA06に「0」が設定された第1コマンドは、解像度の高い画像データを要求する。また、第5フィールドDA06に「1」が設定された第1コマンドは、解像度の低い画像データを要求する。 The first command in which “0” is set in the fifth field DA06 requests image data with high resolution. The first command in which “1” is set in the fifth field DA06 requests image data with a low resolution.
 また、上記第1コマンドには、図16に示したデータ以外に、スキャンを行う領域(光センサ回路144を駆動する画素の領域)の指定、スキャンを行うタイミング、バックライト179の点灯のタイミングなどが記述されている。 In addition to the data shown in FIG. 16, the first command includes designation of a region to be scanned (region of pixels that drive the optical sensor circuit 144), timing to perform scanning, timing to turn on the backlight 179, and the like. Is described.
 なお、画像処理エンジン280は、第1コマンドの内容を解析し、当該解析の結果に従ったデータ(つまり、応答データ)を本体装置101に送り返す。 Note that the image processing engine 280 analyzes the content of the first command, and sends back data (that is, response data) according to the result of the analysis to the main unit 101.
 図17は、種別「001」のコマンド(以下、「第2コマンド」と称する)を説明するための図である。CPU110は、第2コマンドを、第1ユニット1001の本体装置101から第2ユニット1002に送る。 FIG. 17 is a diagram for explaining a command of type “001” (hereinafter referred to as “second command”). The CPU 110 sends a second command from the main unit 101 of the first unit 1001 to the second unit 1002.
 CPU110は、ヘッダDA01に、コマンドの種別(「001」)、コマンドの送信先等を書き込む。CPU110は、第1フィールドDA02に、番号が「1」の表示要求の値を書き込む。CPU110は、第2フィールドDA03に、番号が「2」の個数/種類に関する情報を書き込む。CPU110は、第3フィールドDA04に、番号が「3」の表示範囲の値を書き込む。CPU110は、第4フィールドDA05に、番号が「4」の画像データに関する情報を書き込む。 The CPU 110 writes the command type (“001”), the command transmission destination, and the like in the header DA01. The CPU 110 writes the value of the display request with the number “1” in the first field DA02. CPU 110 writes information on the number / type of number “2” in second field DA03. The CPU 110 writes the value of the display range whose number is “3” in the third field DA04. The CPU 110 writes information related to the image data with the number “4” in the fourth field DA05.
 第1フィールドDA02に「001」が設定された第2コマンドは、表示パネル240に画像を表示させることを画像処理エンジン280に対して要求する。また、第1フィールドDA02に「010」が設定された第2コマンドは、表示パネル240にアイコンを表示させることを画像処理エンジン280に対して要求する。さらに、第1フィールドDA02に「011」が設定された第2コマンドは、表示パネル240に手書領域を表示させることを画像処理エンジン280に対して要求する。 The second command in which “001” is set in the first field DA02 requests the image processing engine 280 to display an image on the display panel 240. The second command in which “010” is set in the first field DA02 requests the image processing engine 280 to display an icon on the display panel 240. Further, the second command in which “011” is set in the first field DA02 requests the image processing engine 280 to display the handwriting area on the display panel 240.
 第2フィールドDA03には、表示パネル240に表示させる画像の個数、および手書言語の種類を指定する番号が格納される。画像処理エンジン280は、当該画像の個数、または言語の種類に応じた処理を行う。 The second field DA03 stores the number of images to be displayed on the display panel 240 and a number for designating the type of handwriting language. The image processing engine 280 performs processing according to the number of the images or the language type.
 第3フィールドDA04に「01」が設定された第2コマンドは、表示パネル240における表示範囲を座標にて指定することを、画像処理エンジン280に対して要求する。また、第3フィールドDA04に「10」が設定された第2コマンドは、表示パネル240における表示範囲を表示領域の全体にすることを、画像処理エンジン280に対して要求する。 The second command in which “01” is set in the third field DA04 requests the image processing engine 280 to designate the display range on the display panel 240 by coordinates. Further, the second command in which “10” is set in the third field DA04 requests the image processing engine 280 to set the display range on the display panel 240 to the entire display area.
 第4フィールドDA05には、表示パネル240に表示させる画像データと、当該画像データを表示する位置情報とが格納される。画像処理エンジン280は、当該位置情報で特定される位置に当該画像データを表示する処理を行う。 The fourth field DA05 stores image data to be displayed on the display panel 240 and position information for displaying the image data. The image processing engine 280 performs processing for displaying the image data at a position specified by the position information.
 図18は、種別「010」のコマンド(以下、「第3コマンド」と称する)を説明するための図である。CPU110は、第3コマンドを、第1ユニット1001の本体装置101から第2ユニット1002に送る。あるいは、CPU210は、第3コマンドを、第2ユニット1002の本体装置104から第1ユニット1001に送る。 FIG. 18 is a diagram for explaining a command of type “010” (hereinafter referred to as “third command”). The CPU 110 sends the third command from the main unit 101 of the first unit 1001 to the second unit 1002. Alternatively, the CPU 210 sends a third command from the main body device 104 of the second unit 1002 to the first unit 1001.
 CPU110,210は、ヘッダDA01に、コマンドの種別(「010」)、コマンドの送信先等を書き込む。CPU110,210は、第1フィールドDA02に、番号が「1」のOS(Operating System)処理要求の値を書き込む。CPU110,210は、第2フィールドDA03に、番号が「2」のOS情報の値を書き込む。 The CPUs 110 and 210 write the command type (“010”), the command transmission destination, and the like in the header DA01. The CPUs 110 and 210 write the value of the OS (Operating System) processing request with the number “1” in the first field DA02. The CPUs 110 and 210 write the value of the OS information with the number “2” in the second field DA03.
 第1フィールドDA02に「01」または「10」が設定された第3コマンドは、第2ユニット1002から第1ユニット1001に送信される。 The third command in which “01” or “10” is set in the first field DA02 is transmitted from the second unit 1002 to the first unit 1001.
 第1フィールドDA02に「01」が設定された第3コマンドは、第1ユニット1001に対して、当該第1ユニット1001のOSの種類を示した情報の送信を要求する。また、第1フィールドDA02に「10」が設定された第3コマンドは、第1ユニット1001に対して、OS情報にて指定されたOSの起動を要求する。 The third command in which “01” is set in the first field DA02 requests the first unit 1001 to transmit information indicating the OS type of the first unit 1001. The third command in which “10” is set in the first field DA02 requests the first unit 1001 to start the OS specified by the OS information.
 第2フィールドDA03に「000」、「001」、または「010」が設定された第3コマンドは、第2ユニット1002から第1ユニット1001に送信される。 The third command in which “000”, “001”, or “010” is set in the second field DA03 is transmitted from the second unit 1002 to the first unit 1001.
 第2フィールドDA03に「000」が設定された第3コマンドは、第1ユニット1001におけるOSの起動を要求しない。また、第2フィールドDA03に「001」が設定された第3コマンドは、第2ユニット1002が第1OSの起動を選択したことを示す。さらに、第2フィールドDA03に「010」が設定された第3コマンドは、第2ユニット1002が第2OSの起動を選択したことを示す。 The third command in which “000” is set in the second field DA03 does not request the activation of the OS in the first unit 1001. The third command in which “001” is set in the second field DA03 indicates that the second unit 1002 has selected to start the first OS. Furthermore, the third command in which “010” is set in the second field DA03 indicates that the second unit 1002 has selected to start the second OS.
 図19は、種別「011」のコマンド(以下、「第4コマンド」と称する)を説明するための図である。CPU210は、第4コマンドを、第2ユニット1002の本体装置104から第1ユニット1001に送る。 FIG. 19 is a diagram for explaining a command of type “011” (hereinafter referred to as “fourth command”). The CPU 210 sends a fourth command from the main body device 104 of the second unit 1002 to the first unit 1001.
 CPU210は、ヘッダDA01に、コマンドの種別(「011」)、コマンドの送信先等を書き込む。CPU210は、第1フィールドDA02に、番号が「1」の起動アプリに関する情報を書き込む。CPU210は、第2フィールドDA03に、番号が「2」の起動時情報を書き込む。 The CPU 210 writes the command type (“011”), the command transmission destination, and the like in the header DA01. The CPU 210 writes information related to the activated application with the number “1” in the first field DA02. The CPU 210 writes the startup information with the number “2” in the second field DA03.
 第1フィールドDA02には、第1ユニット1001において起動させるアプリを指定する情報が格納される。第2フィールドDA03には、起動設定時に用いる情報、および起動後に用いる情報が格納される。 In the first field DA02, information specifying an application to be activated in the first unit 1001 is stored. The second field DA03 stores information used at the time of activation setting and information used after activation.
 図20は、種別「100」のコマンド(以下、「第5コマンド」と称する)を説明するための図である。CPU210は、第5コマンドを、第2ユニット1002の本体装置104から第1ユニット1001に送る。 FIG. 20 is a diagram for explaining a command of type “100” (hereinafter referred to as “fifth command”). The CPU 210 sends the fifth command from the main body device 104 of the second unit 1002 to the first unit 1001.
 CPU210は、ヘッダDA01に、コマンドの種別(「100」)、コマンドの送信先等を書き込む。CPU210は、第1フィールドDA02に、番号が「1」の受信要求に関する情報を書き込む。CPU210は、第2フィールドDA03に、番号が「2」の個数に関する情報を書き込む。CPU210は、第3フィールドDA04に、番号が「3」のファイルに関する情報を書き込む。 The CPU 210 writes the command type (“100”), the command transmission destination, and the like in the header DA01. The CPU 210 writes information related to the reception request with the number “1” in the first field DA02. The CPU 210 writes information relating to the number “2” in the second field DA03. The CPU 210 writes information related to the file with the number “3” in the third field DA04.
 第1フィールドDA02に「01」が設定された第5コマンドは、第1ユニット1001に対してファイルの受信を要求する。また、第2フィールドDA03には、第2ユニット1002が第1ユニット1001に送信するファイルの個数が格納される。さらに、第3フィールドDA04には、第2ユニット1002が第1ユニット1001に送信するファイルが格納される。 The fifth command in which “01” is set in the first field DA02 requests the first unit 1001 to receive a file. In the second field DA03, the number of files transmitted from the second unit 1002 to the first unit 1001 is stored. Further, a file transmitted from the second unit 1002 to the first unit 1001 is stored in the third field DA04.
 図21は、種別「101」のコマンド(以下、「第6コマンド」と称する)を説明するための図である。CPU110は、第6コマンドを、第1ユニット1001の本体装置101から第2ユニット1002に送る。あるいは、CPU210は、第6コマンドを、第2ユニット1002の本体装置104から第1ユニット1001に送る。 FIG. 21 is a diagram for explaining a command of type “101” (hereinafter referred to as “sixth command”). The CPU 110 sends the sixth command from the main unit 101 of the first unit 1001 to the second unit 1002. Alternatively, the CPU 210 sends the sixth command from the main body device 104 of the second unit 1002 to the first unit 1001.
 CPU110,210は、ヘッダDA01に、コマンドの種別(「101」)、コマンドの送信先等を書き込む。CPU110,210は、第1フィールドDA02に、番号が「1」の通信種別の値を書き込む。CPU110,210は、第2フィールドDA03に、番号が「2」の接続先の値を書き込む。CPU110,210は、第3フィールドDA04に、番号が「3」の転送先の値を書き込む。CPU110,210は、第4フィールドDA05に、番号が「4」の信号強度の取得タイミングの値を書き込む。 The CPUs 110 and 210 write the command type (“101”), the command transmission destination, and the like in the header DA01. The CPUs 110 and 210 write the value of the communication type with the number “1” in the first field DA02. The CPUs 110 and 210 write the value of the connection destination with the number “2” in the second field DA03. The CPUs 110 and 210 write the value of the transfer destination with the number “3” in the third field DA04. The CPUs 110 and 210 write the value of the signal strength acquisition timing number “4” in the fourth field DA05.
 第1フィールドDA02に「001」が設定された第6コマンドは、相手側の装置に対して赤外線通信を行うことを要求する。また、第1フィールドDA02に「010」が設定された第6コマンドは、相手側の装置に対してBluetooth(登録商標)による無線通信を行うことを要求する。さらに、第1フィールドDA02に「011」が設定された第6コマンドは、相手側の装置に対してLAN通信を行うことを要求する。 The sixth command in which “001” is set in the first field DA02 requests the counterpart device to perform infrared communication. The sixth command in which “010” is set in the first field DA02 requests the counterpart device to perform wireless communication by Bluetooth (registered trademark). Furthermore, the sixth command in which “011” is set in the first field DA02 requests the counterpart device to perform LAN communication.
 第2フィールドDA03に「000」が設定された第6コマンドは、通信の接続先を指定する情報を有していないことを示す。 The sixth command in which “000” is set in the second field DA03 indicates that it does not have information specifying the communication connection destination.
 また、第2フィールドDA03に「001」が設定された第6コマンドは、第1ユニット1001によって、当該第1ユニット1001の接続先の装置に送信される。そのような第6コマンドは、第1ユニット1001が接続する装置に関する情報の送信を要求する。 In addition, the sixth command in which “001” is set in the second field DA03 is transmitted by the first unit 1001 to the device to which the first unit 1001 is connected. Such a sixth command requests transmission of information related to a device to which the first unit 1001 is connected.
 さらに、第2フィールドDA03に「010」が設定された第6コマンドは、第2ユニット1002によって、当該第2ユニット1002の接続先の第1ユニット1001に送信される。そのような第6コマンドは、第2ユニット1002が接続する第1ユニット1001に関する情報の送信を要求する。 Furthermore, the sixth command in which “010” is set in the second field DA03 is transmitted by the second unit 1002 to the first unit 1001 to which the second unit 1002 is connected. Such a sixth command requests transmission of information regarding the first unit 1001 to which the second unit 1002 is connected.
 また、第2フィールドDA03に「011」が設定された第6コマンドは、第2ユニット1002によって、当該第2ユニット1002の接続先の第1ユニット1001に送信される。そのような第6コマンドは、第2ユニット1002に関する情報を接続先の機器情報として設定することを要求する。 The sixth command in which “011” is set in the second field DA03 is transmitted by the second unit 1002 to the first unit 1001 to which the second unit 1002 is connected. Such a sixth command requests that information regarding the second unit 1002 be set as connection destination device information.
 さらに、第2フィールドDA03に「100」が設定された第6コマンドは、第1ユニット1001によって、当該第1ユニット1001の接続先の装置(たとえば、第2ユニット1002)に送信される。そのような第6コマンドは、第1ユニット1001に関する情報を接続先の機器情報として設定することを要求する。 Further, the sixth command in which “100” is set in the second field DA03 is transmitted by the first unit 1001 to the device to which the first unit 1001 is connected (for example, the second unit 1002). Such a sixth command requests that information regarding the first unit 1001 be set as connection destination device information.
 第3フィールドDA04に「000」が設定された第6コマンドは、データ(たとえば、ファイル)の転送先を指定する情報を有していないことを示す。 The sixth command in which “000” is set in the third field DA04 indicates that it does not have information specifying the transfer destination of data (for example, a file).
 また、第3フィールドDA04に「001」が設定された第6コマンドは、第1ユニット1001によって、データ転送先の装置に送信される。そのような第6コマンドは、データ転送先の装置に関する情報の送信を要求する。 The sixth command in which “001” is set in the third field DA04 is transmitted by the first unit 1001 to the data transfer destination device. Such a sixth command requests transmission of information relating to the data transfer destination device.
 さらに、第3フィールドDA04に「010」が設定された第6コマンドは、第2ユニット1002によって、データ転送先の第1ユニット1001に送信される。そのような第6コマンドは、データ転送先の第1ユニット1001に関する情報の送信を要求する。 Furthermore, the sixth command in which “010” is set in the third field DA04 is transmitted by the second unit 1002 to the first unit 1001 that is the data transfer destination. Such a sixth command requests transmission of information related to the first unit 1001 of the data transfer destination.
 また、第3フィールドDA04に「011」が設定された第6コマンドは、第2ユニット1002によって、データ転送先の第1ユニット1001に送信される。そのような第6コマンドは、第2ユニット1002に関する情報をデータ転送元の機器情報として設定することを要求する。 Further, the sixth command in which “011” is set in the third field DA04 is transmitted by the second unit 1002 to the first unit 1001 that is the data transfer destination. Such a sixth command requests that information regarding the second unit 1002 be set as device information of the data transfer source.
 さらに、第3フィールドDA04に「100」が設定された第6コマンドは、第1ユニット1001によって、データ転送先の装置(たとえば、第2ユニット1002)に送信される。そのような第6コマンドは、第1ユニット1001に関する情報をデータ転送元の機器情報として設定することを要求する。 Further, the sixth command in which “100” is set in the third field DA04 is transmitted by the first unit 1001 to the data transfer destination device (for example, the second unit 1002). Such a sixth command requests that information regarding the first unit 1001 be set as device information of the data transfer source.
 第4フィールドDA05に「00」、「01」、「10」、または「11」が設定された第6コマンドは、第1ユニット1001によって、第2ユニット1002に送信される。 The sixth command in which “00”, “01”, “10”, or “11” is set in the fourth field DA05 is transmitted by the first unit 1001 to the second unit 1002.
 第4フィールドDA05に「00」が設定された第6コマンドは、第2ユニット1002に対して、信号強度を示したデータの送信を要求しない。また、第4フィールドDA05に「01」が設定された第6コマンドは、信号強度検出部297に対して、そのときの信号強度を示したデータの送信を要求する。さらに、第4フィールドDA05に「10」が設定された第6コマンドは、信号強度に変化があったときの信号強度を示したデータの送信を要求する。また、第4フィールドDA05に「11」が設定された第6コマンドは、一定周期毎に信号強度を示したデータの送信を要求する。 The sixth command in which “00” is set in the fourth field DA05 does not request the second unit 1002 to transmit data indicating the signal strength. Also, the sixth command in which “01” is set in the fourth field DA05 requests the signal strength detection unit 297 to transmit data indicating the signal strength at that time. Furthermore, the sixth command in which “10” is set in the fourth field DA05 requests transmission of data indicating the signal strength when the signal strength is changed. Further, the sixth command in which “11” is set in the fourth field DA05 requests the transmission of data indicating the signal strength at regular intervals.
 図22は、応答データの概略構成を示した図である。応答データは、第1コマンド(センシングコマンド)の内容に応じたデータである。 FIG. 22 is a diagram showing a schematic configuration of response data. The response data is data corresponding to the content of the first command (sensing command).
 第1コマンドが本体装置101から第2ユニット1002に送信された場合、CPU210は、応答データを、表示装置103から第1ユニット1001に送信する。また、第1コマンドが本体装置101から第1ユニット1001の表示装置102に送信された場合、画像処理エンジン180は、応答データを、画像処理エンジン180から本体装置101に送信する。なお、以下では、第1コマンドが本体装置101から第2ユニット1002に送信された場合を例に挙げて説明する。 When the first command is transmitted from the main device 101 to the second unit 1002, the CPU 210 transmits response data from the display device 103 to the first unit 1001. When the first command is transmitted from the main device 101 to the display device 102 of the first unit 1001, the image processing engine 180 transmits response data from the image processing engine 180 to the main device 101. Hereinafter, a case where the first command is transmitted from the main device 101 to the second unit 1002 will be described as an example.
 図22を参照して、応答データは、ヘッダのデータ領域DA11と、座標を示すデータ領域DA12と、時刻を示すデータ領域DA13と、画像を示すデータ領域DA14とを含む。ここで、座標を示すデータ領域DA12には、部分画像の中心座標の値が書き込まれる。また、時刻を示すデータ領域には、画像処理エンジン280のタイマ282から取得した時刻情報が書き込まれる。さらに、画像を示すデータ領域には、画像処理エンジン280により処理がされた後の画像データ(つまり、スキャンデータ)が書き込まれる。 Referring to FIG. 22, the response data includes a header data area DA11, a coordinate data area DA12, a time data area DA13, and an image data area DA14. Here, the value of the center coordinates of the partial image is written in the data area DA12 indicating the coordinates. The time information acquired from the timer 282 of the image processing engine 280 is written in the data area indicating the time. Further, image data (that is, scan data) after being processed by the image processing engine 280 is written in the data area indicating the image.
 図23は、指900をスキャンすることにより得られた画像(つまり、スキャン画像)を示した図である。図23を参照して、太実線で囲まれた領域W1の画像が全体画像であり、破線で囲まれた領域P1の画像が部分画像である。また、太線で示した十字の中心点C1が、中心座標となる。 FIG. 23 is a diagram showing an image obtained by scanning the finger 900 (that is, a scanned image). Referring to FIG. 23, an image of a region W1 surrounded by a thick solid line is an entire image, and an image of a region P1 surrounded by a broken line is a partial image. The center point C1 of the cross indicated by a thick line is the center coordinate.
 本実施の形態では、矩形の領域であって、かつセンサ信号線SSjからの出力電圧が予め定められた値以上となった光センサ回路が備えられた画素(つまり、予め定められた階調または予め定められた輝度以上の画素)全てを含む領域を、部分画像の領域としている。 In the present embodiment, a pixel (that is, a predetermined gradation or a pixel having a photosensor circuit which is a rectangular region and whose output voltage from the sensor signal line SSj is equal to or higher than a predetermined value). An area including all of the pixels having a luminance equal to or higher than a predetermined luminance is set as a partial image area.
 また、中心座標は、部分画像の領域における各画素の階調を考慮して決定される座標である。具体的には、中心座標は、部分画像内の各画素に関し、画素の階調と、当該画素と上記矩形の中心点(つまり図心)との距離とに基づき、重み付け処理を行うことにより決定される。つまり、中心座標は、部分画像の図心とは必ずしも一致しない。 Also, the center coordinates are coordinates determined in consideration of the gradation of each pixel in the partial image area. Specifically, for each pixel in the partial image, the center coordinate is determined by performing a weighting process based on the gradation of the pixel and the distance between the pixel and the rectangular center point (that is, the centroid). Is done. That is, the center coordinates do not necessarily match the centroid of the partial image.
 ただし、必ずしも中心座標の位置は上記に限定されるものではなく、中心座標を上記図心の座標あるいは図心の近傍の座標としてもよい。 However, the position of the center coordinates is not necessarily limited to the above, and the center coordinates may be the coordinates of the centroid or the coordinates near the centroid.
 第1コマンドのデータ種別を示すデータ領域に「001」が設定されている場合には、画像処理エンジン280は、座標を示すデータ領域DA12に上記中心座標の値を書き込む。この場合、画像処理エンジン280は、画像を示すデータ領域DA14には画像データを書き込まない。画像処理エンジン280は、上記中心座標の値の書き込みを行った後、当該中心座標の値を含む応答データを本体装置104に送る。本体装置104は、当該中心座標の値を含む応答データを第1ユニット1001の本体装置101に送る。このように、データ種別を示すデータ領域に「001」が設定されている場合には、第1コマンドは、画像データの出力を要求せずに、中心座標の値の出力を要求する。 When “001” is set in the data area indicating the data type of the first command, the image processing engine 280 writes the value of the central coordinate in the data area DA12 indicating the coordinate. In this case, the image processing engine 280 does not write image data in the data area DA14 indicating an image. After writing the value of the center coordinate, the image processing engine 280 sends response data including the value of the center coordinate to the main body device 104. The main device 104 sends response data including the value of the center coordinate to the main device 101 of the first unit 1001. As described above, when “001” is set in the data area indicating the data type, the first command does not request output of the image data but requests output of the value of the center coordinate.
 また、第1コマンドのデータ種別を示すデータ領域に「010」が設定されている場合には、画像処理エンジン280は、画像を示すデータ領域DA14に、スキャン結果が変化した部分画像の画像データを書き込む。この場合、画像処理エンジン280は、中心座標の値を座標を示すデータ領域DA12に書き込まない。画像処理エンジン280は、上記スキャン結果が変化した部分画像の画像データの書き込みを行った後、当該部分画像の画像データを含む応答データを本体装置104に送る。本体装置104は、当該部分画像の画像データを含む応答データを第1ユニット1001の本体装置101に送る。このように、データ種別を示すデータ領域に「010」が設定されている場合には、第1コマンドは、中心座標の値の出力を要求せずに、スキャン結果が変化した部分画像の画像データの出力を要求する。 When “010” is set in the data area indicating the data type of the first command, the image processing engine 280 stores the image data of the partial image whose scan result has changed in the data area DA14 indicating the image. Write. In this case, the image processing engine 280 does not write the value of the center coordinate in the data area DA12 indicating the coordinate. The image processing engine 280 writes the image data of the partial image whose scan result has changed, and then sends response data including the image data of the partial image to the main body device 104. The main device 104 sends response data including image data of the partial image to the main device 101 of the first unit 1001. Thus, when “010” is set in the data area indicating the data type, the first command does not request the output of the value of the center coordinate, and the image data of the partial image whose scan result has changed. Request output.
 なお、上記のように、スキャン結果が変化した部分画像のみの送信を要求する構成とした理由は、スキャンデータのうち部分画像の領域のスキャンデータが、当該領域以外のスキャンデータよりも重要度の高いデータであること、および、指900などのスキャン対象物との接触状態により、スキャンデータのうち部分画像の領域に相当する領域のスキャンデータが変化しやすいことによる。 As described above, the reason for requesting transmission of only the partial image whose scan result has changed is that the scan data of the partial image area of the scan data is more important than the scan data of the other area. This is because the data is high, and the scan data in the region corresponding to the region of the partial image in the scan data is likely to change due to the contact state with the scan object such as the finger 900.
 また、第1コマンドのデータ種別を示すデータ領域に「011」が設定されている場合には、画像処理エンジン280は、座標を示すデータ領域DA12に中心座標の値を書き込むとともに、画像を示すデータ領域DA14にスキャン結果が変化した部分画像の画像データを書き込む。その後、画像処理エンジン280は、当該中心座標の値と当該部分画像の画像データとを含む応答データを本体装置104に送る。本体装置104は、当該中心座標の値と当該部分画像の画像データとを含む応答データを第1ユニット1001の本体装置101に送る。このように、データ種別を示すデータ領域に「011」が設定されている場合には、第1コマンドは、中心座標の値の出力と、スキャン結果が変化した部分画像の画像データの出力とを要求する。 When “011” is set in the data area indicating the data type of the first command, the image processing engine 280 writes the value of the center coordinate in the data area DA12 indicating the coordinate and also indicates the data indicating the image. The image data of the partial image whose scan result has changed is written in the area DA14. Thereafter, the image processing engine 280 sends response data including the value of the center coordinate and the image data of the partial image to the main body device 104. The main device 104 sends response data including the value of the center coordinate and the image data of the partial image to the main device 101 of the first unit 1001. Thus, when “011” is set in the data area indicating the data type, the first command outputs the value of the center coordinate and the output of the image data of the partial image whose scan result has changed. Request.
 また、第1コマンドのデータ種別を示すデータ領域に「100」が設定されている場合には、画像処理エンジン280は、図22に示した応答データの画像を示すデータ領域DA14に、全体画像の画像データを書き込む。この場合、画像処理エンジン280は、中心座標の値を座標を示すデータ領域DA12に書き込まない。画像処理エンジン280は、上記全体画像の画像データの書き込みを行った後、当該全体画像の画像データを含む応答データを本体装置104に送る。本体装置104は、当該全体画像の画像データを含む応答データを第1ユニット1001の本体装置101に送る。このように、データ種別を示すデータ領域に「100」が設定されている場合には、第1コマンドは、中心座標の値の出力を要求せずに、全体画像の画像データの出力を要求する。 When “100” is set in the data area indicating the data type of the first command, the image processing engine 280 displays the entire image in the data area DA14 indicating the image of the response data shown in FIG. Write image data. In this case, the image processing engine 280 does not write the value of the center coordinate in the data area DA12 indicating the coordinate. After writing the image data of the whole image, the image processing engine 280 sends response data including the image data of the whole image to the main body device 104. The main device 104 sends response data including image data of the entire image to the main device 101 of the first unit 1001. As described above, when “100” is set in the data area indicating the data type, the first command requests the output of the image data of the entire image without requesting the output of the center coordinate value. .
 また、第1コマンドのデータ種別を示すデータ領域に「101」が設定されている場合には、画像処理エンジン280は、座標を示すデータ領域DA12に中心座標の値を書き込むとともに、画像を示すデータ領域DA14に全体画像の画像データを書き込む。その後、画像処理エンジン280は、当該中心座標の値と当該全体画像の画像データとを含む応答データを本体装置104に送る。本体装置104は、当該中心座標の値と当該全体画像の画像データとを含む応答データを第1ユニット1001の本体装置101に送る。このように、データ種別を示すデータ領域に「101」が設定されている場合には、第1コマンドは、中心座標の値の出力と、全体画像の画像データの出力とを要求する。 When “101” is set in the data area indicating the data type of the first command, the image processing engine 280 writes the value of the central coordinate in the data area DA12 indicating the coordinate and the data indicating the image. The image data of the entire image is written in the area DA14. Thereafter, the image processing engine 280 sends response data including the value of the center coordinate and the image data of the entire image to the main body device 104. The main device 104 sends response data including the value of the center coordinate and the image data of the entire image to the main device 101 of the first unit 1001. Thus, when “101” is set in the data area indicating the data type, the first command requests the output of the value of the center coordinate and the output of the image data of the entire image.
 <構成の第1の変形例について>
 次に、図24を参照して、前述のスキャンの方法(つまり、図14における反射像をスキャンする方法)とは異なるスキャンの方法について説明する。
<Regarding First Modification of Configuration>
Next, with reference to FIG. 24, a scanning method different from the above-described scanning method (that is, the method of scanning the reflected image in FIG. 14) will be described.
 図24は、スキャンの際にフォトダイオードが外光を受光する構成を示した断面図である。同図に示すとおり、外光の一部は、指900によって遮られる。それゆえ、指900と接触している表示パネル140の表面領域の下部に配されたフォトダイオードは、ほとんど外光を受光できない。また、指900の影が形成された表面領域の下部に配されたフォトダイオードは、ある程度の外光を受光できるものの、影が形成されていない表面領域に比べると外光の受光量が少ない。 FIG. 24 is a cross-sectional view showing a configuration in which a photodiode receives external light during scanning. As shown in the figure, part of the external light is blocked by the finger 900. Therefore, the photodiode disposed under the surface area of the display panel 140 that is in contact with the finger 900 can hardly receive external light. In addition, although the photodiodes disposed under the surface area where the shadow of the finger 900 is formed can receive a certain amount of external light, the amount of external light received is small compared to the surface area where no shadow is formed.
 ここで、バックライト179を、少なくともセンシング期間においては消灯させておくことにより、光センサ回路144は、表示パネル140の表面に対する指900の位置に応じた電圧をセンサ信号線SSjから出力することができる。このように、バックライト179を点灯と消灯とを制御することにより、表示パネル140では、指900の接触位置、指900の接触している範囲(指900の押圧力によって定まる)、表示パネル140の表面に対する指900の方向などに応じて、センサ信号線(SS1からSSn)から出力される電圧が変化することになる。 Here, by turning off the backlight 179 at least during the sensing period, the optical sensor circuit 144 can output a voltage corresponding to the position of the finger 900 relative to the surface of the display panel 140 from the sensor signal line SSj. it can. In this manner, by controlling the backlight 179 to be turned on and off, the display panel 140 has a contact position of the finger 900, a contact range of the finger 900 (determined by the pressing force of the finger 900), and the display panel 140. The voltage output from the sensor signal lines (SS1 to SSn) varies depending on the direction of the finger 900 with respect to the surface of the sensor.
 以上により、表示装置102は、指900によって外光が遮られることにより得られる像(以下、影像とも称する)をスキャンすることができる。 As described above, the display device 102 can scan an image (hereinafter also referred to as a shadow image) obtained by blocking external light by the finger 900.
 さらに、表示装置102を、バックライト179を点灯させてスキャンを行った後に、バックライト179を消灯させて再度スキャンを行う構成としてもよい。あるいは、表示装置102を、バックライト179を消灯させてスキャンを行った後に、バックライト179を点灯させて再度スキャンを行う構成としてもよい。 Furthermore, the display device 102 may be configured to perform scanning by turning on the backlight 179 and then performing scanning again by turning off the backlight 179. Alternatively, the display device 102 may be configured to perform scanning by turning off the backlight 179 and then performing scanning again by turning on the backlight 179.
 この場合には、2つのスキャン方式を併用することになるため、2つのスキャンデータを得ることができる。それゆえ、一方のスキャン方式のみを用いてスキャンする場合に比べて、精度の高い結果を得ることができる。 In this case, since two scanning methods are used together, two scan data can be obtained. Therefore, it is possible to obtain a highly accurate result as compared with the case of scanning using only one scanning method.
 <表示装置について>
 表示装置103の動作は、表示装置102の動作と同様、本体装置101からのコマンド(たとえば、第1コマンド)に応じて制御される。表示装置103は表示装置102と同様な構成を有する。それゆえ、表示装置103が表示装置102と同じコマンドを本体装置101から受け付けた場合、表示装置103は表示装置102と同様の動作を行う。このため、表示装置103の構成や動作についての説明は繰り返さない。
<About display devices>
The operation of the display device 103 is controlled in accordance with a command (for example, a first command) from the main body device 101 as in the operation of the display device 102. The display device 103 has the same configuration as the display device 102. Therefore, when the display device 103 receives the same command as the display device 102 from the main body device 101, the display device 103 performs the same operation as the display device 102. For this reason, description of the configuration and operation of the display device 103 will not be repeated.
 なお、本体装置101は、表示装置102と表示装置103とに対して、命令が異なるコマンドを送ることができる。この場合、表示装置102と表示装置103とは別々の動作を行う。また、本体装置101は、表示装置102および表示装置103のいずれかに対して、コマンドを送ってもよい。この場合、一方の表示装置のみがコマンドに応じた動作を行う。また、本体装置101が、表示装置102と表示装置103とに命令が同じコマンドを送ってもよい。この場合、表示装置102と表示装置103とは、同じ動作を行う。 Note that the main device 101 can send commands having different commands to the display device 102 and the display device 103. In this case, the display device 102 and the display device 103 perform different operations. Further, the main device 101 may send a command to either the display device 102 or the display device 103. In this case, only one display device performs an operation according to the command. Further, the main device 101 may send a command having the same command to the display device 102 and the display device 103. In this case, the display device 102 and the display device 103 perform the same operation.
 なお、表示装置102の表示パネル140のサイズと表示装置103の表示パネル240のサイズとは、同じであってもよいし又は異なっていてもよい。また、表示パネル140の解像度と表示パネル240の解像度とは、同じであってもよいし又は異なっていてもよい。 Note that the size of the display panel 140 of the display device 102 and the size of the display panel 240 of the display device 103 may be the same or different. Further, the resolution of the display panel 140 and the resolution of the display panel 240 may be the same or different.
    <本実施の形態に係る電子機器100の機能構成>
 以下では、図1~図25を参照して、本実施の形態に係る電子機器100の機能構成について説明する。なお、図25は、本実施の形態に係る電子機器100の機能構成を示すブロック図である。
<Functional configuration of electronic device 100 according to the present embodiment>
Hereinafter, the functional configuration of electronic apparatus 100 according to the present embodiment will be described with reference to FIGS. FIG. 25 is a block diagram showing a functional configuration of electronic device 100 according to the present embodiment.
 本実施の形態に係る電子機器100は、受付部1101と、第1の表示制御部1103と、第2の表示制御部1110とを含む。また、電子機器100は、図10において説明したように、RAM171と、第1の表示パネル140と、第2の表示パネル240とを含む。 The electronic device 100 according to the present embodiment includes a reception unit 1101, a first display control unit 1103, and a second display control unit 1110. In addition, as described with reference to FIG. 10, electronic device 100 includes RAM 171, first display panel 140, and second display panel 240.
 まず、第1の表示パネル140は、第1の表示制御部1103からのコンテンツデータ1711に基づいて、すなわちCPU110からの出力信号に基づいて外部に可視光を発する。より詳細には、第1の表示パネル140は、画像処理エンジン180(図10)などを介して、第1の表示制御部1103からのコンテンツデータ1711に基づいて、バックライト179からの光を利用しながらテキストや画像などを表示する。 First, the first display panel 140 emits visible light based on the content data 1711 from the first display control unit 1103, that is, based on an output signal from the CPU 110. More specifically, the first display panel 140 uses light from the backlight 179 based on the content data 1711 from the first display control unit 1103 via the image processing engine 180 (FIG. 10) or the like. While displaying text and images.
 第2の表示パネル240の複数の光センサ回路244のそれぞれは、入射光を受光して、入射光に応じた電気信号を生成する。複数の光センサ回路244は全体として、画像処理エンジン280(図10)などを介して、入射光に対応する電気信号を受付部1101に入力する。なお、複数の光センサ回路244は、図24に示すようにバックライト179を消灯させた状態で、指900やスタイラスペンなどの接触位置を読み取ってもよい。 Each of the plurality of photosensor circuits 244 of the second display panel 240 receives incident light and generates an electrical signal corresponding to the incident light. The plurality of optical sensor circuits 244 as a whole input an electrical signal corresponding to incident light to the reception unit 1101 via the image processing engine 280 (FIG. 10) or the like. Note that the plurality of optical sensor circuits 244 may read the contact position of the finger 900, the stylus pen, or the like with the backlight 179 turned off as shown in FIG.
 このように、本実施の形態に係る複数の光センサ回路244および画像処理エンジン280は全体として操作部を実現する。そして、操作部は、第2の表示パネル240を介して、第1の表示パネル140に表示されているテキストの表示を制御するための操作命令を受け付けたり、第1の表示パネル140に表示されているポインタを移動させる移動命令を受け付けたりする。 As described above, the plurality of photosensor circuits 244 and the image processing engine 280 according to the present embodiment realize an operation unit as a whole. Then, the operation unit receives an operation command for controlling the display of the text displayed on the first display panel 140 via the second display panel 240 or is displayed on the first display panel 140. Or accepting a move command to move the current pointer.
 第2の表示パネル240の複数の画素回路241のそれぞれは、第2の表示制御部1110からのエフェクト画像データに基づいて、すなわちCPU110からの出力信号に基づいて外部に可視光を発する。より詳細には、複数の画素回路241は全体として、画像処理エンジン280(図10)などを介して、第2の表示制御部1110からのエフェクト画像データに基づいて、バックライト179からの光を利用しながらエフェクト画像を順次表示する。 Each of the plurality of pixel circuits 241 of the second display panel 240 emits visible light based on the effect image data from the second display control unit 1110, that is, based on the output signal from the CPU 110. More specifically, the plurality of pixel circuits 241 as a whole emit light from the backlight 179 based on the effect image data from the second display control unit 1110 via the image processing engine 280 (FIG. 10) or the like. Display effect images sequentially while using.
 まず、RAM171は、コンテンツを表示するためのコンテンツデータ1711,1712と、エフェクト画像を表示するためのエフェクト画像データ群171A,171Bとを記憶する。 First, the RAM 171 stores content data 1711 and 1712 for displaying content and effect image data groups 171A and 171B for displaying effect images.
 ここで、図26を参照して、RAM171が格納するエフェクト画像データ群171A,171Bについて説明する。図26は、本実施の形態に係るRAM171が記憶するエフェクト画像データ群171A,171B,171Cを示すイメージ図である。 Here, with reference to FIG. 26, the effect image data groups 171A and 171B stored in the RAM 171 will be described. FIG. 26 is an image diagram showing effect image data groups 171A, 171B, and 171C stored in the RAM 171 according to the present embodiment.
 RAM171は、コンテンツの種類(コンテンツの属性)毎に、エフェクト画像データ群171Aを記憶する。本実施の形態に係るエフェクト画像データ群171Aの各々は、一連のエフェクト画像データを含む。すなわち、エフェクト画像データ群は、全体として動画像を構成する。 The RAM 171 stores an effect image data group 171A for each content type (content attribute). Each of the effect image data groups 171A according to the present embodiment includes a series of effect image data. That is, the effect image data group constitutes a moving image as a whole.
 たとえば、テキスト用のエフェクト画像データ群171Aは、複数の(一連の)エフェクト画像データ171A-1,171A-2,171A-3を含む。第2の表示制御部1110は、第1の表示制御部1103がテキストをページ単位で切り替えるときに、エフェクト画像データ171A-1,171A-2,171A-3を順次第2の表示パネル240に表示させる。 For example, the text effect image data group 171A includes a plurality (a series) of effect image data 171A-1, 171A-2, and 171A-3. The second display control unit 1110 sequentially displays the effect image data 171A-1, 171A-2, 171A-3 on the second display panel 240 when the first display control unit 1103 switches the text in units of pages. Let
 たとえば、画像用のエフェクト画像データ群171Bは、複数の(一連の)エフェクト画像データ171B-1,171B-2,171B-3を含む。第2の表示制御部1110は、第1の表示制御部1103がテキストを行単位で移動させるときに、エフェクト画像データ171B-1,171B-2,171B-3を順次第2の表示パネル240に表示させる。 For example, the image effect image data group 171B includes a plurality (a series) of effect image data 171B-1, 171B-2, and 171B-3. The second display control unit 1110 sequentially applies the effect image data 171B-1, 171B-2, 171B-3 to the second display panel 240 when the first display control unit 1103 moves the text in units of lines. Display.
 たとえば、画像用のエフェクト画像データ群171Cは、複数の(一連の)エフェクト画像データ171C-1,171C-2,171C-3を含む。第2の表示制御部1110は、第1の表示制御部1103が画像を切り替える場合、エフェクト画像データ171C-1,171C-2,171C-3を順次第2の表示パネル240に表示させる。 For example, the image effect image data group 171C includes a plurality (a series) of effect image data 171C-1, 171C-2, and 171C-3. The second display control unit 1110 causes the second display panel 240 to sequentially display the effect image data 171C-1, 171C-2, and 171C-3 when the first display control unit 1103 switches images.
 次に、図27を参照して、コンテンツデータ1711,1712について説明する。図27は、本実施の形態に係るコンテンツデータ1711,1712に含まれるコンテンツの属性データのデータ構造を示すイメージ図である。より詳細には、図27は、横書きの通常書籍に対応する属性データのデータ構造を示す。 Next, the content data 1711 and 1712 will be described with reference to FIG. FIG. 27 is an image diagram showing the data structure of content attribute data included in content data 1711 and 1712 according to the present embodiment. More specifically, FIG. 27 shows a data structure of attribute data corresponding to a horizontal book.
 属性データは、何も設定されていない領域DA31と、コンテンツの表示方向DA32と、コンテンツの属性DA33とを含む。コンテンツの表示方向DA32は、たとえばコンテンツがテキストである場合に、横書きを指定するための情報「0」や縦書きを指定するための情報「1」を含む。 The attribute data includes an area DA31 in which nothing is set, a content display direction DA32, and a content attribute DA33. The content display direction DA32 includes, for example, information “0” for designating horizontal writing and information “1” for designating vertical writing when the content is text.
 コンテンツの属性DA33は、たとえば、コンテンツが通常書籍であることを示す情報「0」、コンテンツがコミックであることを示す情報「1」、コンテンツが検索条件を入力する画面であることを示す情報「2」、コンテンツが検索結果リストであることを示す情報「3」、コンテンツが検索結果であることを示す情報「4」、コンテンツがページ画像であることを示す情報「5」などを含む。 The content attribute DA33 includes, for example, information “0” indicating that the content is a normal book, information “1” indicating that the content is a comic, and information “1” indicating that the content is a screen for inputting a search condition. 2 ”, information“ 3 ”indicating that the content is a search result list, information“ 4 ”indicating that the content is a search result, information“ 5 ”indicating that the content is a page image, and the like.
 図25に戻って、受付部1101と、第1の表示制御部1103と、第2の表示制御部1110とは、CPU110などによって実現される機能である。より詳細には、CPU110が有する各機能は、CPU110がRAM171などに記憶される制御プログラムを実行して、図10に示される各ハードウェアを制御することによって実現される機能である。 Referring back to FIG. 25, the reception unit 1101, the first display control unit 1103, and the second display control unit 1110 are functions realized by the CPU 110 and the like. More specifically, each function of the CPU 110 is a function realized by the CPU 110 executing a control program stored in the RAM 171 or the like and controlling each hardware shown in FIG.
 あるいは、受付部1101、第2の表示制御部1110、第1の表示制御部1103のいずれかが、CPU210などによって実現されてもよい。より詳細には、CPU210がRAM271などに記憶される制御プログラムを実行して、図10に示される各ハードウェアを制御することによって、受付部1101、第2の表示制御部1110、第1の表示制御部1103のいずれかを実現してもよい。 Alternatively, any of the reception unit 1101, the second display control unit 1110, and the first display control unit 1103 may be realized by the CPU 210 or the like. More specifically, the CPU 210 executes a control program stored in the RAM 271 and the like to control each hardware shown in FIG. 10, whereby the receiving unit 1101, the second display control unit 1110, and the first display Any one of the control units 1103 may be realized.
 まず、受付部1101は、複数の光センサ回路244から画像処理エンジン280を介して入力される電気信号に基づいて、第2の表示パネル240に入力された操作命令や移動命令などを受け付ける。より詳細には、受付部1101は、センシング時間毎に第2の表示パネル240の画像処理エンジン280から出力される画像データを取得して、当該画像データに基づいて操作命令や移動命令などを生成する。 First, the reception unit 1101 receives an operation command, a movement command, or the like input to the second display panel 240 based on an electrical signal input from the plurality of optical sensor circuits 244 via the image processing engine 280. More specifically, the reception unit 1101 acquires image data output from the image processing engine 280 of the second display panel 240 at every sensing time, and generates an operation command, a movement command, and the like based on the image data. To do.
 そして、受付部1101は、画像処理エンジン280から出力された画像データをRAM271に記憶してもよい。すなわち、受付部1101は、RAM271の画像データを常時最新の画像データに更新してもよい。なお、受付部1101は、CPU210と第2の表示パネル240の複数の光センサ回路244とによって実現される機能であってもよい。すなわち、受付部1101は、CPU210の一部の機能と第2の表示パネル240の受光機能とを含む機能ブロックを示す概念であってもよい。 The receiving unit 1101 may store the image data output from the image processing engine 280 in the RAM 271. That is, the reception unit 1101 may constantly update the image data in the RAM 271 to the latest image data. Note that the reception unit 1101 may have a function realized by the CPU 210 and the plurality of photosensor circuits 244 of the second display panel 240. That is, the accepting unit 1101 may be a concept indicating a functional block including a part of the function of the CPU 210 and the light receiving function of the second display panel 240.
 すなわち、受付部1101は、第2の表示パネル240からの電気信号に基づいて、第2の表示パネル240に対するタッチ操作を検出する。そして、受付部1101は、タッチ操作に応じて、ユーザからの操作命令を認識する。 That is, the reception unit 1101 detects a touch operation on the second display panel 240 based on the electrical signal from the second display panel 240. And the reception part 1101 recognizes the operation command from a user according to touch operation.
 より詳細には、受付部1101は、第2の表示パネル240を介して検出される指900と第2の表示パネル240との接触位置の移動方向を判断する方向判断部1104を含む。方向判断部1104は、接触位置が右方向へ移動したか否かを判断する。方向判断部1104は、接触位置が左方向へ移動したか否かを判断する。さらに、方向判断部1104は、接触位置が下方向へ移動したか否かを判断する。方向判断部1104は、接触位置が上方向へ移動したか否かを判断する。 More specifically, the reception unit 1101 includes a direction determination unit 1104 that determines the moving direction of the contact position between the finger 900 detected via the second display panel 240 and the second display panel 240. The direction determination unit 1104 determines whether or not the contact position has moved to the right. The direction determination unit 1104 determines whether or not the contact position has moved leftward. Furthermore, the direction determination unit 1104 determines whether or not the contact position has moved downward. The direction determination unit 1104 determines whether or not the contact position has moved upward.
 受付部1101は、方向判断部1104からの判断結果に基づいて、ユーザからの操作命令を判断する命令判断部1105を含む。命令判断部1105は、図1(B)に示すように、接触位置が右方向へ移動したと判断した場合に、第1の操作命令を受け付けたと判断する。命令判断部1105は、第1の操作命令を取得した際に、当該第1の操作命令を第1の表示制御部1103および第2の表示制御部1110に受け渡す。命令判断部1105は、図1(D)に示すように、接触位置が左方向へ移動したと判断した場合に、第2の操作命令を受け付けたと判断する。命令判断部1105は、第2の操作命令を受け付けた際に、当該第2の操作命令を第1の表示制御部1103および第2の表示制御部1110に受け渡す。 The reception unit 1101 includes a command determination unit 1105 that determines an operation command from the user based on the determination result from the direction determination unit 1104. As shown in FIG. 1B, the command determination unit 1105 determines that the first operation command has been received when it is determined that the contact position has moved to the right. When the command determination unit 1105 acquires the first operation command, the command determination unit 1105 delivers the first operation command to the first display control unit 1103 and the second display control unit 1110. As shown in FIG. 1D, the command determining unit 1105 determines that the second operation command has been received when it is determined that the contact position has moved leftward. When the command determination unit 1105 receives the second operation command, the command determination unit 1105 delivers the second operation command to the first display control unit 1103 and the second display control unit 1110.
 さらに、命令判断部1105は、図4(B)および図7(B)に示すように、接触位置が下方向へ移動したと判断した場合に、第3の操作命令を受け付けたと判断する。命令判断部1105は、第3の操作命令を取得した際に、当該第3の操作命令を第1の表示制御部1103および第2の表示制御部1110に受け渡す。命令判断部1105は、図4(D)および図7(D)に示すように、接触位置が上方向へ移動したと判断した場合に、第4の操作命令を受け付けたと判断する。命令判断部1105は、第4の操作命令を受け付けた際に、当該第4の操作命令を第1の表示制御部1103および第2の表示制御部1110に受け渡す。 Furthermore, as shown in FIGS. 4B and 7B, the command determination unit 1105 determines that the third operation command has been received when it is determined that the contact position has moved downward. When the command determination unit 1105 acquires the third operation command, the command determination unit 1105 delivers the third operation command to the first display control unit 1103 and the second display control unit 1110. As shown in FIGS. 4D and 7D, the command determination unit 1105 determines that the fourth operation command has been received when it is determined that the contact position has moved upward. When receiving the fourth operation command, the command determination unit 1105 transfers the fourth operation command to the first display control unit 1103 and the second display control unit 1110.
 第1の表示制御部1103は、受付部1101からの操作命令(表示用の指令)に基づいて、RAM171からコンテンツデータ1711を読み出す。第1の表示制御部1103は、図27に示す属性データに基づいて、第1の表示パネル140にコンテンツを表示させる。たとえば、図1(A)および図4(A)に示すように、第1の表示制御部1103は、第1の表示パネル140にテキストの3ページ目を表示させる。 The first display control unit 1103 reads the content data 1711 from the RAM 171 based on the operation command (display command) from the reception unit 1101. The first display control unit 1103 displays content on the first display panel 140 based on the attribute data shown in FIG. For example, as shown in FIGS. 1A and 4A, the first display control unit 1103 causes the first display panel 140 to display the third page of text.
 より詳細には、第1の表示制御部1103は、第1の表示制御部1103が表示すべきコンテンツの表示対象エリアを指定する。すなわち、第1の表示制御部1103は、テキストが横書きで表示されている場合、受付部1101から第1の操作命令を受け付けて、第1の表示制御部1103が表示すべき表示対象エリア(表示対象ページ)を1ページ分だけ前に戻す。たとえば、第1の表示制御部1103は、第1の操作命令を受け付けて、第1の表示制御部1103が表示すべきページや行などを示す情報を生成する。あるいは、第1の表示制御部1103は、現在表示中のページの前のページを表示する旨の第1の指令を生成してもよい。 More specifically, the first display control unit 1103 designates a display target area of content to be displayed by the first display control unit 1103. That is, when the text is displayed in horizontal writing, the first display control unit 1103 receives the first operation command from the reception unit 1101 and displays the display target area (display) to be displayed by the first display control unit 1103. Move the target page back by one page. For example, the first display control unit 1103 receives a first operation command and generates information indicating a page, a line, and the like to be displayed by the first display control unit 1103. Alternatively, the first display control unit 1103 may generate a first command to display the page before the currently displayed page.
 第1の表示制御部1103は、テキストが横書きで表示されている場合、受付部1101から第2の操作命令を受け付けて、第1の表示制御部1103が表示すべき表示対象エリア(表示対象ページ)を1ページ分だけ先に進める。たとえば、第1の表示制御部1103は、第2の操作命令を受け付けて、第1の表示制御部1103が表示すべきページや行などを示す情報を生成する。あるいは、第1の表示制御部1103は、現在表示中のページの次のページを表示する旨の第2の指令を生成してもよい。 When the text is displayed in horizontal writing, the first display control unit 1103 receives a second operation command from the reception unit 1101 and displays a display target area (display target page) to be displayed by the first display control unit 1103. ) Go forward by one page. For example, the first display control unit 1103 receives the second operation command and generates information indicating a page, a line, and the like to be displayed by the first display control unit 1103. Alternatively, the first display control unit 1103 may generate a second command to display the next page after the currently displayed page.
 一方、第1の表示制御部1103は、テキストが横書きで表示されている場合、受付部1101から第3の操作命令を受け付けて、第1の表示制御部1103が表示すべき表示対象エリア(表示対象ページ)を1行分だけ前に戻す。たとえば、第1の表示制御部1103は、第1の操作命令を受け付けて、第1の表示制御部1103が表示すべきページや行などを示す情報を生成する。 On the other hand, when the text is displayed in horizontal writing, the first display control unit 1103 receives the third operation command from the reception unit 1101 and displays the display target area (display) to be displayed by the first display control unit 1103. Move the target page back by one line. For example, the first display control unit 1103 receives a first operation command and generates information indicating a page, a line, and the like to be displayed by the first display control unit 1103.
 第1の表示制御部1103は、テキストが横書きで表示されている場合、受付部1101から第4の操作命令を受け付けて、第1の表示制御部1103が表示すべき表示対象エリア(表示対象ページ)を1行分だけ先に進める。たとえば、第1の表示制御部1103は、第4の操作命令を受け付けて、第1の表示制御部1103が表示すべきページや行などを示す情報を生成する。 When the text is displayed in horizontal writing, the first display control unit 1103 receives a fourth operation command from the reception unit 1101 and displays a display target area (display target page) to be displayed by the first display control unit 1103. ) Go forward by one line. For example, the first display control unit 1103 receives a fourth operation command and generates information indicating a page, a line, and the like to be displayed by the first display control unit 1103.
 第1の表示制御部1103は、表示対象エリア(表示対象ページ)の指定に応じて、コンテンツデータ1711に基づいて、第1の表示パネル140を介してテキストの一部を表示する。たとえば、第1の表示制御部1103は、第1の操作命令(第1の指令)に応じて、図1(C)に示すように、テキストの2ページ目を表示する。第1の表示制御部1103は、第2の操作命令(第2の指令)に応じて、図1(E)に示すように、テキストの4ページ目を表示する。第1の表示制御部1103は、第3の操作命令(第3の指令)に応じて、図2(C)に示すように、表示するテキストを1行分戻す。第1の表示制御部1103は、第4の操作命令(第4の指令)に応じて、図2(E)に示すように、表示するテキストを1行分進める。 The first display control unit 1103 displays a part of the text via the first display panel 140 based on the content data 1711 in accordance with the designation of the display target area (display target page). For example, the first display control unit 1103 displays the second page of text as shown in FIG. 1C in response to the first operation command (first command). The first display control unit 1103 displays the fourth page of the text as shown in FIG. 1E in response to the second operation command (second command). In response to the third operation command (third command), the first display control unit 1103 returns the text to be displayed by one line as shown in FIG. The first display control unit 1103 advances the text to be displayed by one line as illustrated in FIG. 2E in response to the fourth operation command (fourth command).
 第1の表示制御部1103は、第1の表示パネル140を介して表示しているコンテンツがどのような種類(属性)のコンテンツであるかを示す情報(表示態様データ)を、第2の表示制御部1110に受け渡す。図28は、本実施の形態に係る表示態様データのデータ構造を示す第1のイメージ図である。より詳細には、図28は、第1の表示制御部1103が第1の表示パネル140を介して横書きの通常書籍を表示している場合の、表示態様データのデータ構造を示す。 The first display control unit 1103 displays information (display mode data) indicating what type (attribute) of the content displayed via the first display panel 140 is the second display. The data is transferred to the control unit 1110. FIG. 28 is a first image diagram showing a data structure of display mode data according to the present embodiment. More specifically, FIG. 28 shows a data structure of display mode data when the first display control unit 1103 displays a horizontally written normal book via the first display panel 140.
 表示態様データは、何も設定されていない領域DA41と、コンテンツの表示態様DA42とを含む。コンテンツの表示態様DA42は、たとえば、第1の表示制御部1103が表示対象エリアを1ページ戻したことを示す情報「0」、第1の表示制御部1103が表示対象エリアを1ページ進めたことを示す情報「1」、第1の表示制御部1103が表示対象エリアを1行戻したことを示す情報「2」、第1の表示制御部1103が表示対象エリアを1行進めたことを示す情報「3」、第1の表示制御部1103が検索結果を前に戻したことを示す情報「4」、第1の表示制御部1103が検索結果を先に進めたことを示す情報「5」、第1の表示制御部1103が選択中の検索結果行を前に戻したことを示す情報「6」、第1の表示制御部1103が選択中の検索結果行を先に進めたことを示す情報「7」、第1の表示制御部1103がコンテンツを前に戻せなかったことを示す情報「8」、第1の表示制御部1103がコンテンツを先に進められなかったことを示す情報「9」などを含む。 The display mode data includes an area DA41 in which nothing is set and a content display mode DA42. The content display mode DA42 is, for example, information “0” indicating that the first display control unit 1103 has returned the display target area by one page, and the first display control unit 1103 advances the display target area by one page. Information “1” indicating “1”, information “2” indicating that the first display control unit 1103 has returned the display target area by one line, and indicating that the first display control unit 1103 has advanced the display target area by one line. Information “3”, information “4” indicating that the first display control unit 1103 has returned the search result, information “5” indicating that the first display control unit 1103 has advanced the search result , Information “6” indicating that the first display control unit 1103 has returned the selected search result row to the previous, and indicates that the first display control unit 1103 has advanced the selected search result row. Information “7”, the first display control unit 1103 Information indicating that did not returned before the Ceiling "8", etc. information "9" indicating that the first display control unit 1103 has not advanced beyond the content.
 なお、受付部1101が第1の表示制御部1103に受け渡す表示用の指令は、たとえば図29に示すようなデータ構造を有する。図29は、本実施の形態に係る表示用の指令データのデータ構造を示すイメージ図である。より詳細には、図29は、第1の表示制御部1103が第1の表示パネル140を介して横書きの通常書籍を表示している場合の、表示用の指令データのデータ構造を示す。 Note that the display command that the reception unit 1101 passes to the first display control unit 1103 has a data structure as shown in FIG. 29, for example. FIG. 29 is an image diagram showing a data structure of command data for display according to the present embodiment. More specifically, FIG. 29 shows a data structure of display command data when the first display control unit 1103 displays a horizontally written normal book via the first display panel 140.
 表示用の指令データは、表示態様データと同様に、何も設定されていない領域DA51と、表示命令領域DA52とを含む。表示命令領域DA52は、たとえば、表示対象エリアを1ページ戻す命令を示す情報「0」、表示対象エリアを1ページ進める命令を示す情報「1」、表示対象エリアを1行戻す命令を示す情報「2」、表示対象エリアを1行進める命令を示す情報「3」、検索結果を前に戻す命令を示す情報「4」、検索結果を先に進める命令を示す情報「5」、選択中の検索結果行を前に戻す命令を示す情報「6」、選択中の検索結果行を先に進める命令を示す情報「7」などを含む。 The display command data includes an area DA51 in which nothing is set and a display command area DA52, similarly to the display mode data. The display instruction area DA52 includes, for example, information “0” indicating an instruction to return the display target area by one page, information “1” indicating an instruction to advance the display target area by one page, and information “1” indicating an instruction to return the display target area by one line. 2 ”, information“ 3 ”indicating an instruction to advance the display target area by one line, information“ 4 ”indicating an instruction to return the search result to the previous position, information“ 5 ”indicating an instruction to advance the search result forward, search being selected Information “6” indicating an instruction to return the result row to the front, information “7” indicating an instruction to advance the selected search result row, and the like are included.
 第2の表示制御部1110は、受付部1101からの第1の操作命令と第1の表示制御部1103からの表示態様データ(テキストが表示されていること)とを受け付けて、第2の表示パネル240を介してページを送るエフェクト画像を表示させる。より詳細には、第2の表示制御部1110は、第1の操作命令に応じて、表示態様データに対応するエフェクト画像データ群171Aを第1の順に読み出して、第2の表示パネル240にエフェクト画像を第1の順に表示させる。 The second display control unit 1110 receives the first operation command from the reception unit 1101 and the display mode data (text is displayed) from the first display control unit 1103, and performs the second display. An effect image for sending a page is displayed via the panel 240. More specifically, the second display control unit 1110 reads the effect image data group 171A corresponding to the display mode data in the first order in response to the first operation command, and applies the effect to the second display panel 240. The images are displayed in the first order.
 第2の表示制御部1110は、受付部1101からの第2の操作命令と第1の表示制御部1103からの表示態様データ(テキストが表示されていること)とを受け付けて、第2の表示パネル240を介してページを戻すエフェクト画像を表示させる。より詳細には、第2の表示制御部1110は、第2の操作命令に応じて、表示態様データに対応するエフェクト画像データ群171Aを第2の順に読み出して、第2の表示パネル240にエフェクト画像を第2の順に表示させる。 The second display control unit 1110 receives the second operation command from the reception unit 1101 and the display mode data (that text is displayed) from the first display control unit 1103, and performs the second display. An effect image for returning the page is displayed via the panel 240. More specifically, the second display control unit 1110 reads the effect image data group 171A corresponding to the display mode data in the second order in accordance with the second operation command, and applies the effect to the second display panel 240. The images are displayed in the second order.
 さらに、第2の表示制御部1110は、受付部1101からの第3の操作命令と第1の表示制御部1103からの表示態様データ(テキストが表示されていること)とを受け付けて、第2の表示パネル240を介してページを送るエフェクト画像を表示させる。より詳細には、第2の表示制御部1110は、第3の操作命令に応じて、表示態様データに対応するエフェクト画像データ群171Bを読み出して、第2の表示パネル240にエフェクト画像を順次に表示させる。 Further, the second display control unit 1110 receives the third operation command from the reception unit 1101 and the display mode data (text is displayed) from the first display control unit 1103, and receives the second operation command. The effect image for sending the page is displayed via the display panel 240. More specifically, the second display control unit 1110 reads the effect image data group 171B corresponding to the display mode data in accordance with the third operation command, and sequentially applies the effect images to the second display panel 240. Display.
 第2の表示制御部1110は、受付部1101からの第4の操作命令と第1の表示制御部1103からの表示態様データ(テキストが表示されていること)とを受け付けて、第2の表示パネル240を介してページを戻すエフェクト画像を表示させる。より詳細には、第2の表示制御部1110は、第4の操作命令に応じて、表示態様データに対応するエフェクト画像データ群171Cを読み出して、第2の表示パネル240にエフェクト画像を順次に表示させる。 The second display control unit 1110 receives the fourth operation command from the reception unit 1101 and the display mode data (that text is displayed) from the first display control unit 1103, and performs the second display. An effect image for returning the page is displayed via the panel 240. More specifically, the second display control unit 1110 reads the effect image data group 171C corresponding to the display mode data in accordance with the fourth operation command, and sequentially applies the effect images to the second display panel 240. Display.
 そして、第1の表示制御部1103が第1の表示パネル140に写真などの画像や検索結果などを表示している場合には、第2の表示制御部1110は第2の表示パネル240にフィルムやカードなどのエフェクト画像群を表示させる。このような場合における第2の表示制御部1110の機能は、書籍のエフェクト画像の場合と同様であるため、ここでは説明を繰り返さない。 When the first display control unit 1103 displays an image such as a photograph or a search result on the first display panel 140, the second display control unit 1110 displays the film on the second display panel 240. Display effect images such as cards and cards. Since the function of the second display control unit 1110 in such a case is the same as that in the case of the effect image of the book, description thereof will not be repeated here.
 受付部1101が、第2の表示パネル240に対するタッチ操作に応じて、表示態様データを第1の表示制御部1103と第2の表示制御部1110とに受け渡してもよい。そして、第1の表示制御部1103が、受付部1101からの表示態様データに基づいて表示するコンテンツを更新してもよい。第2の表示制御部1110が、受付部1101からの表示態様データに基づいてエフェクト画像を表示してもよい。 The accepting unit 1101 may deliver the display mode data to the first display control unit 1103 and the second display control unit 1110 in response to a touch operation on the second display panel 240. Then, the first display control unit 1103 may update the content to be displayed based on the display mode data from the reception unit 1101. The second display control unit 1110 may display the effect image based on the display mode data from the reception unit 1101.
 また、本実施の形態においては、受付部1101と第1の表示制御部1103と第2の表示制御部1110とを異なる機能ブロックとして説明した。しかしながら、それらの2つ以上を1つの機能ブロックにまとめてもよいし、それらの1つを2つ以上の機能ブロックに分割してもよい。 In the present embodiment, the reception unit 1101, the first display control unit 1103, and the second display control unit 1110 have been described as different functional blocks. However, two or more of them may be combined into one functional block, or one of them may be divided into two or more functional blocks.
 たとえば、受付部1101と第2の表示制御部1110とがCPU210が実現する1つのモジュールとして構成され、第1の表示制御部1103がCPU110が実現する1つのモジュールとして構成されてもよい。 For example, the reception unit 1101 and the second display control unit 1110 may be configured as one module realized by the CPU 210, and the first display control unit 1103 may be configured as one module realized by the CPU 110.
 <テキストが縦書き表示されている場合の動作概要>
 本実施の形態に係る電子機器100は、上記のような構成を有するため、以下のような応用的な機能を実現することもできる。以下では、図30、図2、図3を参照して、テキストが縦書き表示されている場合の、本実施の形態に係る電子機器100の動作概要について説明する。ここでは、電子機器100が、テキストを縦書きで表示する場合について説明する。
<Operation overview when the text is displayed vertically>
Since electronic device 100 according to the present embodiment has the above-described configuration, it can also realize the following applied functions. Below, with reference to FIG. 30, FIG. 2, FIG. 3, the operation | movement outline | summary of the electronic device 100 which concerns on this Embodiment when a text is displayed vertically is demonstrated. Here, a case where electronic device 100 displays text in vertical writing will be described.
 図30は、本実施の形態に係るページ切り替え処理時の電子機器100を示す第2のイメージ図である。より詳細には、図30(A)は第1の表示パネル140がテキストの3ページ目を縦書きで表示した状態の電子機器100のイメージ図である。図30(B)は第2の表示パネル240に右方向のタッチ操作が入力されたときの電子機器100のイメージ図である。図30(C)はテキストを1ページ進めた状態の電子機器100のイメージ図である。図30(D)は第2の表示パネル240に左方向のタッチ操作が入力されたときの電子機器100のイメージ図である。図30(E)はテキストを1ページ戻した状態の電子機器100のイメージ図である。 FIG. 30 is a second image diagram showing electronic apparatus 100 at the time of page switching processing according to the present embodiment. More specifically, FIG. 30A is an image diagram of the electronic device 100 in a state where the first display panel 140 displays the third page of text in vertical writing. FIG. 30B is an image diagram of the electronic device 100 when a right touch operation is input to the second display panel 240. FIG. 30C is an image diagram of the electronic device 100 in a state where the text is advanced by one page. FIG. 30D is an image diagram of the electronic device 100 when a left touch operation is input to the second display panel 240. FIG. 30E is an image diagram of the electronic device 100 in a state where the text is returned by one page.
 図30(A)を参照して、電子機器100は、第1の表示パネル140にテキストの3ページ目を縦書きで表示させる。より詳細には、電子機器100は、ユーザからの操作を受け付けて、ユーザが所望するページを第1の表示パネル140に表示させる。電子機器100は、第2の表示パネル240を介して、ユーザからのページ切り替え命令を受け付ける。 Referring to FIG. 30 (A), electronic device 100 causes first page of text to be displayed on first display panel 140 in vertical writing. More specifically, the electronic device 100 accepts an operation from the user and causes the first display panel 140 to display a page desired by the user. Electronic device 100 accepts a page switching command from the user via second display panel 240.
 図30(B)を参照して、電子機器100は、第2の表示パネル240を介して、ユーザから右方向のタッチ操作を受け付ける。すなわち、ユーザが、指900あるいは図示しないスタイラスペンなどを第2の表示パネル240に接触させた状態で、指900あるいはスタイラスペンを右方向にスライドさせる。より詳細には、電子機器100は、第2の表示パネル240と指900との接触位置を検知することによって、右方向のタッチ操作を受け付ける。 Referring to FIG. 30 (B), electronic device 100 accepts a right touch operation from the user via second display panel 240. That is, the user slides the finger 900 or the stylus pen to the right while the finger 900 or a stylus pen (not shown) is in contact with the second display panel 240. More specifically, electronic device 100 receives a touch operation in the right direction by detecting a contact position between second display panel 240 and finger 900.
 図30(C)を参照して、電子機器100は、第1の表示パネル140にテキストの4ページ目を表示させる。すなわち、電子機器100は、テキストを縦書きで表示している際には、右方向へのタッチ操作に応じて、表示しているテキストを先に(次に)進める。このとき、本実施の形態に係る電子機器100は、図2(A)から図2(H)に示すように、RAMなどに予め記憶されている書籍用のエフェクト画像データに基づいて、第2の表示パネル240に、書籍がめくられるエフェクト画像を第1の順序で表示する。 Referring to FIG. 30C, electronic device 100 causes first display panel 140 to display the fourth page of text. That is, when displaying the text in vertical writing, electronic device 100 advances the displayed text first (next) in response to a touch operation in the right direction. At this time, as shown in FIGS. 2A to 2H, the electronic device 100 according to the present embodiment is configured to perform the second processing based on the effect image data for books stored in advance in a RAM or the like. Are displayed in the first order on the display panel 240.
 図30(D)を参照して、電子機器100は、第2の表示パネル240を介して、ユーザから左方向のタッチ操作を受け付ける。すなわち、ユーザが、指900などを第2の表示パネル240に接触させた状態で、指900を左方向にスライドさせる。より詳細には、電子機器100は、第2の表示パネル240と指900との接触位置を検知することによって、左方向のタッチ操作を受け付ける。 Referring to FIG. 30D, electronic device 100 accepts a leftward touch operation from the user via second display panel 240. That is, the user slides the finger 900 leftward with the finger 900 or the like being in contact with the second display panel 240. More specifically, electronic device 100 receives a touch operation in the left direction by detecting a contact position between second display panel 240 and finger 900.
 図30(E)を参照して、電子機器100は、第1の表示パネル140にテキストの2ページ目を表示させる。すなわち、電子機器100は、テキストを縦書きで表示している際には、左方向へのタッチ操作に応じて、表示しているテキストを前に戻す。このとき、本実施の形態に係る電子機器100は、図3(A)から図3(H)に示すように、RAMなどに予め記憶されている書籍用のエフェクト画像データに基づいて、第2の表示パネル240に、書籍がめくられるエフェクト画像を第1の順序の逆の順序(第2の順序)で表示する。 Referring to FIG. 30 (E), electronic device 100 causes second page of text to be displayed on first display panel 140. That is, when displaying the text in vertical writing, electronic device 100 returns the displayed text to the front in response to a leftward touch operation. At this time, as shown in FIGS. 3A to 3H, the electronic device 100 according to the present embodiment performs the second processing based on the effect image data for books stored in advance in a RAM or the like. On the display panel 240, the effect image for turning the book is displayed in the reverse order (second order) of the first order.
 このように、本実施の形態に係る電子機器100は、テキストが縦書きで表示されている場合と、テキストが横書きで表示されている場合とにおいて、入力操作に応じて電子機器100が実行する処理が異なる。この構成は、通常、現実の縦書きの書籍は右から左へとページが進み、現実の横書きの書籍は左から右へとページが進むことに由来している。すなわち、電子機器100は、仮想の書籍(テキスト)を実現するものであるため、現実の書籍におけるページの配置に基づいて、ユーザの操作と電子機器100の処理とが関連付けられていることが好ましい。 As described above, electronic device 100 according to the present embodiment executes electronic device 100 according to an input operation when the text is displayed in vertical writing and when the text is displayed in horizontal writing. Processing is different. This configuration usually comes from the fact that pages in real vertical writing progress from right to left, and pages in real horizontal writing progress from left to right. That is, since the electronic device 100 realizes a virtual book (text), it is preferable that the user's operation and the processing of the electronic device 100 are associated with each other based on the arrangement of pages in the actual book. .
 そして、本実施の形態に係る電子機器100は、第1の表示パネル140に右方向へのタッチ操作が入力された場合には、横書きおよび縦書きにかかわらず、第2の表示パネル240には図2に示すエフェクト画像を表示させる。一方、電子機器100は、第1の表示パネル140に右方向へのタッチ操作が入力された場合には、横書きの場合と縦書きの場合とにおいて、第1の表示パネル140に異なるページを表示させる。 When electronic device 100 according to the present embodiment receives a touch operation in the right direction on first display panel 140, second display panel 240 does not display horizontally or vertically. The effect image shown in FIG. 2 is displayed. On the other hand, when a right touch operation is input to the first display panel 140, the electronic device 100 displays different pages on the first display panel 140 for horizontal writing and vertical writing. Let
 その結果、本実施の形態に係る電子機器100においては、そのユーザが、電子機器に対して行う操作と当該電子機器内で実行される処理とを連想し易い。 As a result, in electronic device 100 according to the present embodiment, the user can easily associate operations performed on the electronic device with processing executed in the electronic device.
 <検索結果リストが表示されている場合の動作概要>
 さらに、本実施の形態に係る電子機器100は、以下のような応用的な機能をも実現することができる。以下では、図31~図33を参照して、第1の表示パネル140が検索結果リストを表示している場合における、本実施の形態に係る電子機器100の動作概要について説明する。
<Operation overview when the search result list is displayed>
Furthermore, electronic device 100 according to the present embodiment can also realize the following applied functions. Hereinafter, with reference to FIG. 31 to FIG. 33, an outline of operation of electronic device 100 according to the present embodiment when first display panel 140 displays a search result list will be described.
 図31は、本実施の形態に係る選択中の検索結果が切り替わる時の電子機器100を示すイメージ図である。より詳細には、図31(A)は第1の表示パネル140が検索結果リストを表示した状態の電子機器100のイメージ図である。図31(B)は第2の表示パネル240に上方向のタッチ操作が入力されたときの電子機器100のイメージ図である。図31(C)は1つ前の検索結果が選択された状態の電子機器100のイメージ図である。図31(D)は第2の表示パネル240に下方向のタッチ操作が入力されたときの電子機器100のイメージ図である。図31(E)は1つ先の検索結果が選択された状態の電子機器100のイメージ図である。 FIG. 31 is an image diagram showing the electronic device 100 when the search result being selected according to the present embodiment is switched. More specifically, FIG. 31A is an image diagram of the electronic device 100 in a state where the first display panel 140 displays the search result list. FIG. 31B is an image diagram of the electronic device 100 when an upward touch operation is input to the second display panel 240. FIG. 31C is an image diagram of electronic device 100 in a state where the previous search result is selected. FIG. 31D is an image diagram of the electronic device 100 when a downward touch operation is input to the second display panel 240. FIG. 31E is an image diagram of the electronic device 100 in a state where the next search result is selected.
 図32は、本実施の形態に係る選択中の検索結果が切り替わる時の第2の表示パネル240を示す第1のイメージ図である。図33は、本実施の形態に係る選択中の検索結果が切り替わる時の第2の表示パネルを示す第2のイメージ図である。 FIG. 32 is a first image diagram showing the second display panel 240 when the search result being selected according to the present embodiment is switched. FIG. 33 is a second image diagram showing the second display panel when the search result being selected according to the present embodiment is switched.
 図31(A)を参照して、電子機器100は、第1の表示パネル140に検索結果リストを横書きで表示させる。より詳細には、本実施の形態に係る電子機器100は、電子辞書の機能を有する。電子機器100は、ユーザからの検索条件を受け付けて、当該検索条件に一致する検索結果を第1の表示パネル140に表示させる。 Referring to FIG. 31A, electronic device 100 causes first display panel 140 to display the search result list in horizontal writing. More specifically, electronic device 100 according to the present embodiment has an electronic dictionary function. The electronic device 100 receives a search condition from the user, and causes the first display panel 140 to display a search result that matches the search condition.
 たとえば、受付部1101は、第2の表示パネル240あるいは操作キー177を介して文字列の入力を受け付ける。第1の表示制御部1103は、RAM171のデータベースを参照して、当該文字列を含む見出しを検索結果として第1の表示パネル140にリスト表示させる。すなわち、第1の表示制御部1103は、少なくとも1つの検索結果からなる検索結果リストを第1の表示パネル140に表示させる。このとき、第1の表示制御部1103は、検索結果リストの1つの検索結果を反転表示するなどして選択状態にする。 For example, the accepting unit 1101 accepts input of a character string via the second display panel 240 or the operation key 177. The first display control unit 1103 refers to the database of the RAM 171 and causes the first display panel 140 to display a list of headings including the character string as search results. That is, the first display control unit 1103 causes the first display panel 140 to display a search result list including at least one search result. At this time, the first display control unit 1103 puts one search result in the search result list into a selected state, for example, by highlighting it.
 図31(B)を参照して、電子機器100は、第2の表示パネル240を介して、ユーザから上方向のタッチ操作を受け付ける。すなわち、ユーザが、指900などを第2の表示パネル240に接触させた状態で、指900を上方向にスライドさせる。より詳細には、電子機器100は、第2の表示パネル240と指900との接触位置を検知することによって、上方向のタッチ操作を受け付ける。 Referring to FIG. 31B, electronic device 100 accepts an upward touch operation from the user via second display panel 240. That is, the user slides the finger 900 upward in a state where the finger 900 or the like is in contact with the second display panel 240. More specifically, electronic device 100 accepts an upward touch operation by detecting a contact position between second display panel 240 and finger 900.
 図31(C)を参照して、電子機器100は、第1の表示パネル140に1つ前の検索結果を選択状態で表示させる。すなわち、電子機器100は、検索結果リストを表示している際には、上方向へのタッチ操作に応じて、選択されている検索結果を1つだけ前に戻す。このとき、本実施の形態に係る電子機器100は、図32(A)から図32(C)に示すように、RAMなどに予め記憶されている選択中の検索結果が切り替わるエフェクト画像データ群に基づいて、第2の表示パネル240に、選択中の検索結果が切り替わるエフェクト画像を順次表示する。 Referring to FIG. 31C, electronic device 100 causes first display panel 140 to display the previous search result in a selected state. In other words, when displaying the search result list, electronic device 100 returns the selected search result to the previous one in response to an upward touch operation. At this time, as shown in FIGS. 32A to 32C, electronic device 100 according to the present embodiment has an effect image data group in which the search results being selected that are stored in advance in RAM or the like are switched. Based on this, the second display panel 240 sequentially displays effect images in which the selected search results are switched.
 図31(D)を参照して、電子機器100は、第2の表示パネル240を介して、ユーザから下方向のタッチ操作を受け付ける。すなわち、ユーザが、指900などを第2の表示パネル240に接触させた状態で、指900を下方向にスライドさせる。より詳細には、電子機器100は、第2の表示パネル240と指900との接触位置を検知することによって、下方向のタッチ操作を受け付ける。 Referring to FIG. 31D, electronic device 100 accepts a downward touch operation from the user via second display panel 240. That is, the user slides the finger 900 downward with the finger 900 or the like being in contact with the second display panel 240. More specifically, electronic device 100 accepts a downward touch operation by detecting a contact position between second display panel 240 and finger 900.
 図31(E)を参照して、電子機器100は、第1の表示パネル140に1つ先の検索結果を選択状態で表示させる。すなわち、電子機器100は、検索結果リストを表示している際には、下方向へのタッチ操作に応じて、選択されている検索結果を1つだけ先に進める。このとき、本実施の形態に係る電子機器100は、図33(A)から図33(C)に示すように、RAMなどに予め記憶されている選択中の検索結果が切り替わるエフェクト画像データ群に基づいて、第2の表示パネル240に、選択中の検索結果が切り替わるエフェクト画像を順次表示する。 Referring to FIG. 31 (E), electronic device 100 causes first display panel 140 to display the next search result in a selected state. That is, when displaying the search result list, electronic device 100 advances the selected search result by one in response to a downward touch operation. At this time, as shown in FIGS. 33A to 33C, electronic device 100 according to the present embodiment has an effect image data group in which the search results being selected stored in advance in RAM or the like are switched. Based on this, the second display panel 240 sequentially displays effect images in which the selected search results are switched.
 このように本実施の形態に係る電子機器100は、検索結果の選択を進める場合と戻す場合とにおいて、異なるエフェクト画像を第2の表示パネル240に表示する。特に、電子機器100は、コンテンツの表示エリア(第1の表示エリア)とは異なる表示エリア(第2の表示エリア)を介して、予め記憶しているエフェクト画像を順次表示するため、検索結果の見出しに応じた画像処理を行う必要がない。その結果、電子機器100は、簡単な処理でコンテンツの進行状態をユーザに直感的に認識させることができる。 As described above, electronic device 100 according to the present embodiment displays different effect images on second display panel 240 when the search result selection is advanced and when the search result is returned. In particular, the electronic device 100 sequentially displays previously stored effect images via a display area (second display area) different from the content display area (first display area). There is no need to perform image processing according to the headline. As a result, the electronic device 100 can make the user intuitively recognize the progress state of the content with a simple process.
 <検索結果の詳細な画面が表示されている場合の動作概要>
 さらに、本実施の形態に係る電子機器100は、以下のような応用的な機能をも実現することができる。以下では、図34~図36を参照して、第1の表示パネル140が検索結果の詳細な画面を表示している場合における、本実施の形態に係る電子機器100の動作概要について説明する。
<Overview of operation when detailed screen of search results is displayed>
Furthermore, electronic device 100 according to the present embodiment can also realize the following applied functions. Hereinafter, with reference to FIGS. 34 to 36, an outline of operation of electronic device 100 according to the present embodiment when first display panel 140 displays a detailed screen of search results will be described.
 図34は、本実施の形態に係る検索結果ページ切り替え処理時の電子機器を示すイメージ図である。より詳細には、図34(A)は第1の表示パネル140が検索結果の詳細な画面を表示した状態の電子機器100のイメージ図である。図34(B)は第2の表示パネル240に右上方向のタッチ操作が入力されたときの電子機器100のイメージ図である。図34(C)は1つ前の検索結果が表示された状態の電子機器100のイメージ図である。図34(D)は第2の表示パネル240に左下方向のタッチ操作が入力されたときの電子機器100のイメージ図である。図34(E)は1つ先の検索結果が表示された状態の電子機器100のイメージ図である。 FIG. 34 is an image diagram showing an electronic device during search result page switching processing according to the present embodiment. More specifically, FIG. 34A is an image diagram of the electronic device 100 in a state where the first display panel 140 displays a detailed search result screen. FIG. 34B is an image diagram of the electronic device 100 when a touch operation in the upper right direction is input to the second display panel 240. FIG. 34C is an image diagram of the electronic device 100 in a state where the previous search result is displayed. FIG. 34D is an image diagram of the electronic device 100 when a lower left touch operation is input to the second display panel 240. FIG. 34E is an image diagram of the electronic device 100 in a state in which the next search result is displayed.
 図35は、本実施の形態に係る検索結果ページ切り替え処理時の第2の表示パネルを示す第1のイメージ図である。図36は、本実施の形態に係る検索結果ページ切り替え処理時の第2の表示パネルを示す第2のイメージ図である。 FIG. 35 is a first image diagram showing the second display panel during the search result page switching process according to the present embodiment. FIG. 36 is a second image diagram showing the second display panel during the search result page switching process according to the present embodiment.
 図34(A)を参照して、電子機器100は、第1の表示パネル140に詳細な検索結果を横書きで表示させる。前述したように、本実施の形態に係る電子機器100は、電子辞書の機能を有する。電子機器100は、ユーザからの検索結果の選択命令を受け付けて、当該検索結果の詳細な内容を第1の表示パネル140に表示させる。 Referring to FIG. 34A, electronic device 100 causes first display panel 140 to display detailed search results in horizontal writing. As described above, electronic device 100 according to the present embodiment has an electronic dictionary function. The electronic device 100 accepts a search result selection command from the user and displays the detailed contents of the search result on the first display panel 140.
 たとえば、図31(A)あるいは図31(C)あるいは図31(E)に示す状態において、受付部1101が、第2の表示パネル240あるいは操作キー177を介して命令を受け付ける。そして、第1の表示制御部1103は、RAM171のデータベースを参照して、図34(A)に示すように、詳細な検索結果を第1の表示パネル140に表示させる。 For example, in the state shown in FIG. 31A, FIG. 31C, or FIG. 31E, the accepting unit 1101 accepts an instruction via the second display panel 240 or the operation key 177. Then, the first display control unit 1103 refers to the database of the RAM 171 and causes the first display panel 140 to display detailed search results as shown in FIG.
 図34(B)を参照して、電子機器100は、第2の表示パネル240を介して、ユーザから右上方向のタッチ操作を受け付ける。すなわち、ユーザが、指900などを第2の表示パネル240に接触させた状態で、指900を右上方向にスライドさせる。より詳細には、電子機器100は、第2の表示パネル240と指900との接触位置を検知することによって、右上方向のタッチ操作を受け付ける。 Referring to FIG. 34 (B), electronic device 100 accepts a touch operation in the upper right direction from the user via second display panel 240. That is, the user slides the finger 900 in the upper right direction with the finger 900 or the like being in contact with the second display panel 240. More specifically, electronic device 100 accepts a touch operation in the upper right direction by detecting a contact position between second display panel 240 and finger 900.
 図34(C)を参照して、電子機器100は、第1の表示パネル140に1つ次の検索結果の詳細な内容を表示させる。すなわち、電子機器100は、検索結果の詳細な内容を表示している際には、右上方向へのタッチ操作に応じて、表示中の検索結果を1つだけ先に進める。このとき、本実施の形態に係る電子機器100は、図35(A)から図35(E)に示すように、RAMなどに予め記憶されている検索結果を示すカードを1枚めくるエフェクト画像データ群に基づいて、第2の表示パネル240に、検索結果を示すカードを1枚めくるエフェクト画像を表示する。 Referring to FIG. 34C, electronic device 100 causes first display panel 140 to display the detailed contents of the next search result. That is, when displaying the detailed content of the search result, electronic device 100 advances the displayed search result by one in response to a touch operation in the upper right direction. At this time, as shown in FIGS. 35 (A) to 35 (E), electronic device 100 according to the present embodiment turns effect image data for turning one card indicating a search result stored in advance in a RAM or the like. Based on the group, the second display panel 240 displays an effect image for turning one card indicating the search result.
 図34(D)を参照して、電子機器100は、第2の表示パネル240を介して、ユーザから左下方向のタッチ操作を受け付ける。すなわち、ユーザが、指900などを第2の表示パネル240に接触させた状態で、指900を左下方向にスライドさせる。より詳細には、電子機器100は、第2の表示パネル240と指900との接触位置を検知することによって、左下方向のタッチ操作を受け付ける。 Referring to FIG. 34 (D), electronic device 100 accepts a touch operation in the lower left direction from the user via second display panel 240. That is, the user slides the finger 900 in the lower left direction with the finger 900 or the like being in contact with the second display panel 240. More specifically, electronic device 100 accepts a touch operation in the lower left direction by detecting a contact position between second display panel 240 and finger 900.
 図34(E)を参照して、電子機器100は、第1の表示パネル140に1つ前の検索結果の詳細な内容を表示させる。すなわち、電子機器100は、検索結果の詳細な内容を表示している際には、左下方向へのタッチ操作に応じて、表示中の検索結果を1つだけ元に戻す。このとき、本実施の形態に係る電子機器100は、図36(A)から図36(E)に示すように、RAMなどに予め記憶されている検索結果を示すカードを1枚かぶせるエフェクト画像データ群に基づいて、第2の表示パネル240に、検索結果を示すカードを1枚かぶせるエフェクト画像を表示する。 Referring to FIG. 34 (E), electronic device 100 causes first display panel 140 to display the detailed contents of the previous search result. That is, when the detailed content of the search result is displayed, electronic device 100 restores only one search result being displayed in response to a touch operation in the lower left direction. At this time, as shown in FIGS. 36 (A) to 36 (E), electronic device 100 according to the present embodiment covers effect image data on which one card indicating a search result stored in advance in a RAM or the like is placed. Based on the group, the second display panel 240 displays an effect image that covers one card indicating the search result.
 このように本実施の形態に係る電子機器100は、表示中の詳細な検索結果を進める場合と戻す場合とにおいて、異なる一連のエフェクト画像を第2の表示パネル240に表示する。特に、電子機器100は、コンテンツの表示エリア(第1の表示エリア)とは異なる表示エリア(第2の表示エリア)を介して、予め記憶しているエフェクト画像を順次表示するため、検索結果の内容に応じた画像処理を行う必要がない。その結果、電子機器100は、簡単な処理でコンテンツの進行状態をユーザに直感的に認識させることができる。 Thus, electronic device 100 according to the present embodiment displays a series of different effect images on second display panel 240 when the detailed search result being displayed is advanced and when it is returned. In particular, the electronic device 100 sequentially displays previously stored effect images via a display area (second display area) different from the content display area (first display area). There is no need to perform image processing according to the contents. As a result, the electronic device 100 can make the user intuitively recognize the progress state of the content with a simple process.
 <地図画像が表示されている場合の動作概要>
 さらに、本実施の形態に係る電子機器100は、以下のような応用的な機能も実現することができる。以下では、図37~図39を参照して、第1の表示パネル140が地図画像を表示している場合における、本実施の形態に係る電子機器100の動作概要について説明する。
<Overview of operation when a map image is displayed>
Furthermore, the electronic device 100 according to the present embodiment can also realize the following applied functions. Hereinafter, with reference to FIGS. 37 to 39, an outline of operation of electronic device 100 according to the present embodiment when first display panel 140 displays a map image will be described.
 図37は、本実施の形態に係る地図の表示エリアの切り替え処理時の電子機器100を示すイメージ図である。より詳細には、図37(A)は第1の表示パネル140が地図画像の第1のエリアを表示した状態の電子機器100のイメージ図である。図37(B)は第2の表示パネル240に右方向のタッチ操作が入力されたときの電子機器100のイメージ図である。図37(C)は第1の表示パネル140が地図画像の第2のエリアを表示した状態の電子機器100のイメージ図である。図37(D)は第2の表示パネル240に下方向のタッチ操作が入力されたときの電子機器100のイメージ図である。図37(E)は第1の表示パネル140が地図画像の第3のエリアを表示した状態の電子機器100のイメージ図である。 FIG. 37 is an image diagram showing electronic device 100 at the time of the switching process of the map display area according to the present embodiment. More specifically, FIG. 37A is an image diagram of the electronic device 100 in a state where the first display panel 140 displays the first area of the map image. FIG. 37B is an image diagram of the electronic device 100 when a right touch operation is input to the second display panel 240. FIG. 37C is an image diagram of the electronic device 100 in a state where the first display panel 140 displays the second area of the map image. FIG. 37D is an image diagram of the electronic device 100 when a downward touch operation is input to the second display panel 240. FIG. 37E is an image diagram of the electronic device 100 in a state where the first display panel 140 displays the third area of the map image.
 図38は、本実施の形態に係る地図の表示エリアの切り替え処理時の第2の表示パネル240を示す第1のイメージ図である。図39は、本実施の形態に係る地図の表示エリアの切り替え処理時の第2の表示パネルを示す第2のイメージ図である。 FIG. 38 is a first image diagram showing the second display panel 240 during the map display area switching process according to the present embodiment. FIG. 39 is a second image diagram showing the second display panel during the map display area switching process according to the present embodiment.
 図37(A)を参照して、電子機器100は、第1の表示パネル140に地図画像の第1のエリアを表示させる。より詳細には、本実施の形態に係る電子機器100は、ユーザからの表示位置の指定命令を受け付けて、当該表示位置を中心とした第1のエリアを第1の表示パネル140に表示させる。 Referring to FIG. 37 (A), electronic device 100 causes first display panel 140 to display the first area of the map image. More specifically, electronic device 100 according to the present embodiment receives a display position designation command from the user, and causes first display panel 140 to display a first area centered on the display position.
 図37(B)を参照して、電子機器100は、第2の表示パネル240を介して、ユーザから右方向のタッチ操作を受け付ける。すなわち、ユーザが、指900などを第2の表示パネル240に接触させた状態で、指900を右方向にスライドさせる。より詳細には、電子機器100は、第2の表示パネル240と指900との接触位置を検知することによって、右方向のタッチ操作を受け付ける。 Referring to FIG. 37 (B), electronic device 100 receives a touch operation in the right direction from the user via second display panel 240. That is, the user slides the finger 900 rightward in a state where the finger 900 or the like is in contact with the second display panel 240. More specifically, electronic device 100 receives a touch operation in the right direction by detecting a contact position between second display panel 240 and finger 900.
 図37(C)を参照して、電子機器100は、第1の表示パネル140に地図画像のうちの第1のエリアの左側に位置する第2のエリアを表示させる。すなわち、電子機器100は、地図画像を表示している際には、右方向へのタッチ操作に応じて、表示されるエリアを左へ移動させる。このとき、本実施の形態に係る電子機器100は、図38(A)から図38(C)に示すように、RAMなどに予め記憶されている地図の用紙が右方向へ移動するエフェクト画像データ群に基づいて、第2の表示パネル240に、地図の用紙が右方向へ移動するエフェクト画像を表示する。 Referring to FIG. 37 (C), electronic device 100 causes first display panel 140 to display a second area located on the left side of the first area in the map image. That is, when displaying the map image, electronic device 100 moves the displayed area to the left in response to a touch operation in the right direction. At this time, as shown in FIGS. 38A to 38C, electronic device 100 according to the present embodiment has effect image data in which a map sheet stored in advance in RAM or the like moves to the right. Based on the group, the second display panel 240 displays an effect image in which the map sheet moves to the right.
 図37(D)を参照して、電子機器100は、第2の表示パネル240を介して、ユーザから下方向のタッチ操作を受け付ける。すなわち、ユーザが、指900などを第2の表示パネル240に接触させた状態で、指900を下方向にスライドさせる。より詳細には、電子機器100は、第2の表示パネル240と指900との接触位置を検知することによって、下方向のタッチ操作を受け付ける。 37 (D), electronic device 100 accepts a downward touch operation from the user via second display panel 240. That is, the user slides the finger 900 downward with the finger 900 or the like being in contact with the second display panel 240. More specifically, electronic device 100 accepts a downward touch operation by detecting a contact position between second display panel 240 and finger 900.
 図37(E)を参照して、電子機器100は、第1の表示パネル140に地図画像のうちの第1のエリアの上側に位置する第3のエリアを表示させる。すなわち、電子機器100は、地図画像を表示している際には、下方向へのタッチ操作に応じて、表示されるエリアを上へ移動させる。このとき、本実施の形態に係る電子機器100は、図39(A)から図39(C)に示すように、RAMなどに予め記憶されている地図の用紙が下方向へ移動するエフェクト画像データ群に基づいて、第2の表示パネル240に、地図の用紙が下方向へ移動するエフェクト画像を表示する。 Referring to FIG. 37 (E), electronic device 100 causes first display panel 140 to display a third area located above the first area of the map image. That is, when displaying the map image, electronic device 100 moves the displayed area upward in response to a downward touch operation. At this time, as shown in FIGS. 39A to 39C, the electronic device 100 according to the present embodiment has effect image data in which a map sheet stored in advance in a RAM or the like moves downward. Based on the group, an effect image in which the map sheet moves downward is displayed on the second display panel 240.
 ここでは、電子機器100が右方向のタッチ操作と下方向のタッチ操作とを受け付けた場合について説明したが、電子機器100が左方向のタッチ操作と上方向のタッチ操作を受け付けた場合にも上記と同様に動作する。電子機器100が左方向のタッチ操作を受け付けた場合の動作は、右方向のタッチ操作を受け付けた場合の動作と同様であるため、ここでは説明を繰り返さない。また、電子機器100が上方向のタッチ操作を受け付けた場合の動作は、下方向のタッチ操作を受け付けた場合の動作と同様であるため、ここでは説明を繰り返さない。 Here, the case where the electronic device 100 receives a right touch operation and a downward touch operation has been described, but the above description also applies when the electronic device 100 receives a left touch operation and an upward touch operation. Works as well. Since the operation when electronic device 100 accepts a leftward touch operation is the same as the operation when a rightward touch operation is accepted, description thereof will not be repeated here. The operation when electronic device 100 accepts an upward touch operation is the same as the operation when a downward touch operation is accepted, and thus the description thereof will not be repeated here.
 本実施の形態に係る電子機器100は、タッチ操作の方向に応じて、表示エリアの半分に対応する量だけ地図画像を移動するものであったが、このような構成に限られるものではない。たとえば、電子機器100は、表示エリアの全部に対応する量だけ地図画像を移動させてもよい。 The electronic device 100 according to the present embodiment moves the map image by an amount corresponding to half of the display area according to the direction of the touch operation, but is not limited to such a configuration. For example, the electronic device 100 may move the map image by an amount corresponding to the entire display area.
 さらに、電子機器100は、タッチ操作の距離に応じて、地図画像の移動量を変化させてもよい。この場合には、受付部1101あるいは方向判断部1104が距離判断部を含み、当該距離判断部がタッチ操作の移動距離が所定値以上であるか否かを判断する。そして、命令判断部1105が、方向判断部1104と距離判断部からの判断結果に基づいて、ユーザからの表示エリアの切り替え命令を受け付ける。 Furthermore, the electronic device 100 may change the movement amount of the map image according to the distance of the touch operation. In this case, the reception unit 1101 or the direction determination unit 1104 includes a distance determination unit, and the distance determination unit determines whether the movement distance of the touch operation is equal to or greater than a predetermined value. Then, the command determination unit 1105 receives a display area switching command from the user based on the determination results from the direction determination unit 1104 and the distance determination unit.
 このように本実施の形態に係る電子機器100は、地図画像の表示エリアを移動する方向に応じて、異なるエフェクト画像を第2の表示パネル240に表示する。特に、電子機器100は、地図画像の表示エリア(第1の表示エリア)とは異なる表示エリア(第2の表示エリア)を介して、予め記憶しているエフェクト画像を順次表示するため、地図画像の内容に応じた画像処理を行う必要がない。その結果、電子機器100は、簡単な処理でコンテンツの進行状態をユーザに直感的に認識させることができる。 As described above, electronic device 100 according to the present embodiment displays different effect images on second display panel 240 in accordance with the direction in which the map image display area moves. In particular, the electronic device 100 sequentially displays the effect images stored in advance through a display area (second display area) different from the map image display area (first display area). It is not necessary to perform image processing according to the contents of As a result, the electronic device 100 can make the user intuitively recognize the progress state of the content with a simple process.
 <コンテンツ表示処理>
 次に、図1~図40を参照して、本実施の形態に係る電子機器100におけるコンテンツ表示処理について説明する。なお、図40は、本実施の形態に係る電子機器100におけるコンテンツ表示処理の処理手順を示すフローチャートである。
<Content display processing>
Next, content display processing in electronic device 100 according to the present embodiment will be described with reference to FIGS. FIG. 40 is a flowchart showing a processing procedure of content display processing in electronic device 100 according to the present embodiment.
 まず、第1の表示制御部1103として機能するCPU110は、第2の表示パネル240あるいは操作キー177を介してユーザから電子書籍を表示するための命令を受け付けて、RAM171からコンテンツデータ(書籍データ)を読み出す(ステップS102)。CPU110は、コンテンツデータに基づいて、初期の表示用のレイアウト情報を作成する(ステップS104)。CPU110は、コンテンツデータに基づいて、表示種別(第1の表示種別)を認識する(ステップS106)。より詳細には、第1の表示制御部1103として機能するCPU110は、第2の表示制御部1110として機能するCPU210(あるいはCPU110)に、第1の表示種別を通知する。 First, the CPU 110 functioning as the first display control unit 1103 accepts a command for displaying an electronic book from the user via the second display panel 240 or the operation key 177 and receives content data (book data) from the RAM 171. Is read (step S102). CPU 110 creates initial display layout information based on the content data (step S104). CPU 110 recognizes the display type (first display type) based on the content data (step S106). More specifically, the CPU 110 functioning as the first display control unit 1103 notifies the CPU 210 (or CPU 110) functioning as the second display control unit 1110 of the first display type.
 CPU110は、レイアウト情報に基づいて、第1の表示パネル140にコンテンツを表示する(ステップS108)。CPU110は、第2の表示パネル240を介して、タッチ操作(たとえば、ページ切り替え命令)を受け付けたか否かを判断する(ステップS110)。CPU110は、タッチ操作を受け付けない場合(ステップS110においてNOである場合)、ステップS110の処理を繰り返す。 CPU 110 displays content on first display panel 140 based on the layout information (step S108). CPU 110 determines whether or not a touch operation (for example, a page switching command) has been received via second display panel 240 (step S110). CPU110 repeats the process of step S110, when a touch operation is not received (when it is NO in step S110).
 CPU110は、タッチ操作を受け付けた場合(ステップS110においてYESである場合)、コンテンツデータに基づいて、タッチ操作に応じて新たなレイアウト情報を作成する(ステップS112)。CPU110は、コンテンツデータに基づいて、新たな表示種別(第2の表示種別)を認識する(ステップS114)。より詳細には、第1の表示制御部1103として機能するCPU110は、第2の表示制御部1110として機能するCPU210に第2の表示種別を通知する。CPU110は、新たなレイアウト情報に基づいて第1の表示パネル140を介してコンテンツを表示し直す。 When CPU 110 accepts the touch operation (YES in step S110), CPU 110 creates new layout information in accordance with the touch operation based on the content data (step S112). CPU 110 recognizes a new display type (second display type) based on the content data (step S114). More specifically, the CPU 110 functioning as the first display control unit 1103 notifies the CPU 210 functioning as the second display control unit 1110 of the second display type. The CPU 110 redisplays the content via the first display panel 140 based on the new layout information.
 一方、ステップS106の後、第2の表示制御部1110として機能するCPU210は、自身が利用しているメモリ領域に第1の表示種別を格納する(更新する)(ステップS118)。CPU210は、第1の表示種別に基づいて操作画面を選択し(ステップS120)、第2の表示パネル240を介して操作画面を表示する(ステップS122)。たとえば、第1の表示パネル140がテキストを表示している場合には、CPU210は第2の表示パネル240に図2(A)に示すような書籍の画像を表示させる。第1の表示パネル140が画像を表示している場合には、CPU210は第2の表示パネル240に図8(A)に示すようなフィルムの画像を表示させる。 On the other hand, after step S106, the CPU 210 functioning as the second display control unit 1110 stores (updates) the first display type in the memory area used by itself (step S118). The CPU 210 selects an operation screen based on the first display type (step S120), and displays the operation screen via the second display panel 240 (step S122). For example, when the first display panel 140 displays text, the CPU 210 causes the second display panel 240 to display a book image as shown in FIG. When the first display panel 140 displays an image, the CPU 210 causes the second display panel 240 to display a film image as shown in FIG.
 受付部1101として機能するCPU210(あるいはCPU110)は、第2の表示パネル240を介してタッチ操作を受け付けたか否かを判断する(ステップS124)。CPU210は、タッチ操作を受け付けない場合(ステップS124においてNOである場合)、ステップS124の処理を繰り返す。 CPU 210 (or CPU 110) functioning as reception unit 1101 determines whether or not a touch operation has been received via second display panel 240 (step S124). CPU210 repeats the process of step S124, when a touch operation is not received (when it is NO in step S124).
 CPU210は、タッチ操作を受け付けた場合(ステップS124においてYESである場合)、タッチ操作に基づいて第1から第4の操作命令を取得する(ステップS126)。CPU210は、第1の表示制御部1103として機能するCPU110に、第1から第4の操作命令を受け渡す(ステップS128)。 CPU210 acquires a 1st-4th operation command based on a touch operation, when a touch operation is received (when it is YES in step S124) (step S126). The CPU 210 delivers the first to fourth operation commands to the CPU 110 functioning as the first display control unit 1103 (step S128).
 第2の表示制御部1110として機能するCPU210は、RAM171から第1の表示種別に対応するエフェクト画像データ群171Aを抽出する(ステップS130)。図2に示すように、CPU210は、第2の表示パネル240にエフェクト画像を順次表示する(ステップS132)。CPU210は、第1の表示種別と第2の表示種別とを比較する(ステップS134)。CPU210は、表示種別が異なるか否かを判断する(ステップS136)。すなわち、CPU210は、コンテンツの種類が切り替わったか否かを判断する。 The CPU 210 functioning as the second display control unit 1110 extracts the effect image data group 171A corresponding to the first display type from the RAM 171 (step S130). As shown in FIG. 2, the CPU 210 sequentially displays effect images on the second display panel 240 (step S132). The CPU 210 compares the first display type with the second display type (step S134). The CPU 210 determines whether or not the display types are different (step S136). That is, the CPU 210 determines whether or not the content type has been switched.
 CPU210は、表示種別が同じ場合(ステップS136においてNOである場合)、ステップS124からの処理を繰り返す。CPU210は、表示種別が異なる場合(ステップS136においてYESである場合)、第1の表示種別を第2の表示種別に更新する(ステップS138)。CPU210は、更新後の第2の表示種別に基づいて操作画面を選択し(ステップS140)、第2の表示パネル240を介して操作画面を表示する(ステップS142)。CPU110は、ステップS124からの処理を繰り返す。 CPU210 repeats the process from step S124, when a display classification is the same (when it is NO in step S136). If the display types are different (YES in step S136), CPU 210 updates the first display type to the second display type (step S138). The CPU 210 selects an operation screen based on the updated second display type (step S140), and displays the operation screen via the second display panel 240 (step S142). CPU110 repeats the process from step S124.
 <処理手順の変形例>
 次に、本実施の形態における処理手順の変形例として、1つの書籍データ(コンテンツ群)の中にテキストとコミックなどの複数種類のコンテンツデータ1711,1712が含まれる場合の電子機器100における処理手順についてより詳細に説明する。以下では、書籍データのデータ構成について説明する。図41は、複数種類のコンテンツを含む書籍データ171Xのデータ構造を示す第1のイメージ図である。図42は、複数種類のコンテンツを含む書籍データ171Xのデータ構造を示す第2のイメージ図である。
<Modification of processing procedure>
Next, as a modification of the processing procedure in the present embodiment, the processing procedure in electronic device 100 in the case where a plurality of types of content data 1711 and 1712 such as text and comics are included in one book data (content group). Will be described in more detail. Below, the data structure of book data is demonstrated. FIG. 41 is a first image diagram illustrating a data structure of book data 171X including a plurality of types of contents. FIG. 42 is a second image diagram illustrating a data structure of book data 171X including a plurality of types of contents.
 図41を参照して、書籍データ171Xの各々は、第1の情報171Yと、第2の情報171Zとを含む。なお、書籍データ171Xは、RAM171などに格納される。第1の情報171Yは、コンテンツ全体に関わる情報を含む。第1の情報171Yは、コンテンツ内に存在するデータの種類を示す情報と、データの数を示す情報と、書籍がオープンしたときの初期レイアウトを示す情報とを含む。第2の情報171Zは、データの各々のレイアウトを保持する領域へのポインタを示す情報やコンテンツの種類を示す情報を含む。 Referring to FIG. 41, each of the book data 171X includes first information 171Y and second information 171Z. Note that the book data 171X is stored in the RAM 171 or the like. The first information 171Y includes information related to the entire content. The first information 171Y includes information indicating the type of data present in the content, information indicating the number of data, and information indicating an initial layout when the book is opened. The second information 171Z includes information indicating a pointer to an area that holds each layout of data and information indicating the type of content.
 あるいは、図42を参照して、書籍データ171Xは、コンテンツの種類(属性)を示す情報とコンテンツをレイアウトするために必要な情報とを交互に含む。すなわち、レイアウト単位で(ポインタ毎に)、コンテンツの種類を示す情報とコンテンツをレイアウトするために必要な情報とを含む。 Or, referring to FIG. 42, the book data 171X alternately includes information indicating the type (attribute) of the content and information necessary for laying out the content. That is, information indicating the type of content and information necessary for laying out the content are included in units of layout (for each pointer).
 たとえば、書籍データ171Xは、第1のコンテンツデータとして、テキストであることを示す種類データDA61と、レイアウトデータDA62とを含む。レイアウトデータDA62は、テキストデータを含む。書籍データ171Xは、第2のコンテンツデータとして、コミックであることを示す種類データDA63と、レイアウトデータDA64とを含む。レイアウトデータDA64は、画像データを含む。書籍データ171Xは、第3のコンテンツデータとして、コミックであることを示す種類データDA65と、レイアウトデータDA66とを含む。レイアウトデータDA66は、画像データを含む。 For example, the book data 171X includes type data DA61 indicating text and layout data DA62 as the first content data. Layout data DA62 includes text data. The book data 171X includes type data DA63 indicating that it is a comic and layout data DA64 as the second content data. Layout data DA64 includes image data. The book data 171X includes type data DA65 indicating comics and layout data DA66 as third content data. Layout data DA66 includes image data.
 次に、図1~図39、図41~図45を参照して、本実施の形態に係る電子機器100における複数種類のコンテンツを切り替えて表示するための処理についてより詳細に説明する。なお、図43は、本変形例に係る電子機器100における複数種類のコンテンツを切り替えて表示するための処理の処理手順を示す第1のフローチャートである。図44は、本変形例に係る電子機器100における複数種類のコンテンツを切り替えて表示するための処理の処理手順を示す第2のフローチャートである。図45は、本変形例に係る電子機器100における複数種類のコンテンツを切り替えて表示するための処理の処理手順を示す第3のフローチャートである。 Next, with reference to FIG. 1 to FIG. 39 and FIG. 41 to FIG. 45, a process for switching and displaying a plurality of types of contents in electronic device 100 according to the present embodiment will be described in more detail. FIG. 43 is a first flowchart illustrating a processing procedure of processing for switching and displaying a plurality of types of content in electronic device 100 according to the present modification. FIG. 44 is a second flowchart illustrating a processing procedure of processing for switching and displaying a plurality of types of content in electronic device 100 according to the present modification. FIG. 45 is a third flowchart illustrating a processing procedure of processing for switching and displaying a plurality of types of content in electronic device 100 according to the present modification.
 図43を参照して、第1の表示制御部1103として機能するCPU110は、第2の表示パネル240あるいは操作キー177を介してユーザから電子書籍を表示するための命令を受け付けて、RAM171から書籍データ171Xを読み出す。CPU110は、書籍データ171Xから第1のコンテンツデータのレイアウトデータDA62を取得する(ステップS202)。 Referring to FIG. 43, CPU 110 functioning as first display control unit 1103 accepts a command for displaying an electronic book from the user via second display panel 240 or operation key 177 and reads the book from RAM 171. Read data 171X. CPU110 acquires layout data DA62 of 1st content data from book data 171X (step S202).
 CPU110は、レイアウトデータDA62に基づいて、初期の表示用のレイアウト(第1のレイアウト情報)を作成する(ステップS204)。CPU110は、第1のコンテンツデータの種類データDA61に基づいて、第1のコンテンツに対応する第1の表示種別がテキストであることを認識する(ステップS206)。より詳細には、第1の表示制御部1103として機能するCPU110は、第2の表示制御部1110として機能するCPU210(あるいはCPU110)に、第1の表示種別を通知する。CPU110は、レイアウト情報に基づいて、第1の表示パネル140にテキストを表示する(ステップS208)。 CPU 110 creates an initial display layout (first layout information) based on layout data DA62 (step S204). Based on the first content data type data DA61, the CPU 110 recognizes that the first display type corresponding to the first content is text (step S206). More specifically, the CPU 110 functioning as the first display control unit 1103 notifies the CPU 210 (or CPU 110) functioning as the second display control unit 1110 of the first display type. CPU110 displays a text on the 1st display panel 140 based on layout information (step S208).
 一方、ステップS206の後、第2の表示制御部1110として機能するCPU210は、自身が利用しているメモリ領域に第1の表示種別をセットする(更新する)(ステップS218)。CPU210は、第1の表示種別に基づいて操作画面を選択し(ステップS220)、第2の表示パネル240を介して操作画面を表示する(ステップS222)。ここでは、第1の表示パネル140がテキストを表示しているので、CPU210は第2の表示パネル240に図2(A)に示すような書籍の画像を表示させる。 On the other hand, after step S206, the CPU 210 functioning as the second display control unit 1110 sets (updates) the first display type in the memory area used by itself (step S218). The CPU 210 selects an operation screen based on the first display type (step S220), and displays the operation screen via the second display panel 240 (step S222). Here, since the first display panel 140 displays text, the CPU 210 causes the second display panel 240 to display a book image as shown in FIG.
 次に、図44を参照して、CPU110は、第2の表示パネル240を介して、タッチ操作(たとえば、ページ切り替え命令)を受け付けたか否かを判断する(ステップS210)。CPU110は、タッチ操作を受け付けない場合(ステップS210においてNOである場合)、ステップS210の処理を繰り返す。 Next, referring to FIG. 44, CPU 110 determines whether or not a touch operation (for example, a page switching command) has been received via second display panel 240 (step S210). CPU110 repeats the process of step S210, when a touch operation is not received (when it is NO in step S210).
 CPU110は、タッチ操作を受け付けた場合(ステップS210においてYESである場合)、次ページのレイアウト情報を作成する(ステップS212)。すなわち、CPU110は、第2のコンテンツデータのレイアウトデータDA64に基づいて第2のレイアウト情報を作成する。CPU110は、第2のコンテンツデータの種類データDA63に基づいて、新たな表示種別(第2の表示種別)を認識する(ステップS214)。より詳細には、第1の表示制御部1103として機能するCPU110は、第2の表示制御部1110として機能するCPU110に第2の表示種別を通知する。CPU110は、第2のレイアウト情報に基づいて第1の表示パネル140を介してコンテンツを表示し直す(ステップS216)。 CPU110 produces the layout information of the following page, when a touch operation is received (when it is YES in step S210) (step S212). That is, the CPU 110 creates the second layout information based on the layout data DA64 of the second content data. The CPU 110 recognizes a new display type (second display type) based on the second content data type data DA63 (step S214). More specifically, the CPU 110 functioning as the first display control unit 1103 notifies the CPU 110 functioning as the second display control unit 1110 of the second display type. The CPU 110 displays the content again via the first display panel 140 based on the second layout information (step S216).
 一方、受付部1101として機能するCPU210(あるいはCPU110)は、第2の表示パネル240を介してタッチ操作を受け付けたか否かを判断する(ステップS224)。CPU210は、タッチ操作を受け付けない場合(ステップS224においてNOである場合)、ステップS224の処理を繰り返す。 On the other hand, the CPU 210 (or the CPU 110) functioning as the reception unit 1101 determines whether or not a touch operation has been received via the second display panel 240 (step S224). CPU210 repeats the process of step S224, when a touch operation is not received (when it is NO in step S224).
 CPU210は、タッチ操作を受け付けた場合(ステップS224においてYESである場合)、タッチ操作に基づいて第1から第4の操作命令を取得する(ステップS226)。第1の表示パネル140がテキスト(通常書籍)を横書きで表示している場合、CPU210は左方向へのタッチ操作に基づいてページ送り命令(第2の操作命令)を取得する。CPU210は、第1の表示制御部1103として機能するCPU110に、ページ送り命令を受け渡す(ステップS228)。 CPU210 acquires a 1st-4th operation command based on a touch operation, when a touch operation is received (when it is YES in step S224) (step S226). When the first display panel 140 displays text (usually a book) in horizontal writing, the CPU 210 acquires a page turn command (second operation command) based on a leftward touch operation. The CPU 210 delivers a page feed command to the CPU 110 functioning as the first display control unit 1103 (step S228).
 第2の表示制御部1110として機能するCPU210は、RAM171からテキストに対応するエフェクト画像データ群171Aを抽出する(ステップS230)。図3(A)~図3(H)に示すように、CPU210は、第2の表示パネル240にページがめくられるエフェクト画像を順次表示する(ステップS232)。CPU210は、テキストに対応する第1の表示種別とコミックに対応する第2の表示種別とを比較する(ステップS234)。 The CPU 210 functioning as the second display control unit 1110 extracts the effect image data group 171A corresponding to the text from the RAM 171 (step S230). As shown in FIGS. 3A to 3H, the CPU 210 sequentially displays the effect images whose pages are turned on the second display panel 240 (step S232). CPU 210 compares the first display type corresponding to the text with the second display type corresponding to the comic (step S234).
 図45を参照して、CPU210は、表示種別が異なるか否かを判断する(ステップS236)。CPU210は、表示種別が同じ場合(ステップS236においてNOである場合)、ステップS224からの処理を繰り返す。 Referring to FIG. 45, CPU 210 determines whether or not the display types are different (step S236). CPU210 repeats the process from step S224, when a display classification is the same (when it is NO in step S236).
 ここでは、第1の表示種別と第2の表示種別とが異なるため(ステップS236においてYESである場合)、現在表示中のコンテンツに対応する表示種別をコミックに対応する第2の表示種別に更新する(ステップS238)。CPU210は、コミックに対応する操作画面を選択し(ステップS240)、第2の表示パネル240を介して図8に示すようなコミックに対応する操作画面を表示する(ステップS242)。CPU110は、ステップS224からの処理を繰り返す。 Here, since the first display type is different from the second display type (in the case of YES in step S236), the display type corresponding to the currently displayed content is updated to the second display type corresponding to the comic. (Step S238). The CPU 210 selects an operation screen corresponding to the comic (step S240), and displays an operation screen corresponding to the comic as shown in FIG. 8 via the second display panel 240 (step S242). CPU110 repeats the process from step S224.
 <第1の付加機能>
 次に、図46Aおよび図46Bを参照して、本実施の形態に係る電子機器100の第1の付加機能について説明する。図46Aおよび図46Bは、本実施の形態に係る電子機器100の第1の付加機能を示す第2の表示パネルを示すイメージ図である。
<First additional function>
Next, a first additional function of electronic device 100 according to the present embodiment will be described with reference to FIGS. 46A and 46B. 46A and 46B are image diagrams showing a second display panel showing the first additional function of electronic device 100 according to the present embodiment.
 本実施の形態に係る電子機器100は、たとえば、第1の表示パネル140にテキストを表示しているときに、第2の表示パネル240に操作方法をアドバイスするためのマニュアル画像を表示する。 The electronic device 100 according to the present embodiment displays a manual image for advising the operation method on the second display panel 240 when, for example, text is displayed on the first display panel 140.
 たとえば、図2および図4に示す状態においては、図46Aに示すように、電子機器100の第2の表示制御部1110は、第2の表示パネル240を介して、テキストを1ページ戻すためのタッチ操作の方向を示す矢印や、テキストを1ページ進めるためのタッチ操作の方向を示す矢印や、テキストを1行進めるためのタッチ操作の方向を示す矢印や、テキストを1行進めるためのタッチ操作の方向を示す矢印などを表示する。 For example, in the state shown in FIGS. 2 and 4, as shown in FIG. 46A, the second display control unit 1110 of the electronic device 100 returns the text by one page via the second display panel 240. An arrow indicating the direction of the touch operation, an arrow indicating the direction of the touch operation for advancing the text by one page, an arrow indicating the direction of the touch operation for advancing the text by one line, and a touch operation for advancing the text by one line An arrow indicating the direction of the is displayed.
 たとえば、図30に示す状態においては、図46Bに示すように、電子機器100の第2の表示制御部1110は、第2の表示パネル240を介して、テキストを1ページ戻すためのタッチ操作の方向を示す矢印や、テキストを1ページ進めるためのタッチ操作の方向を示す矢印や、テキストを1行進めるためのタッチ操作の方向を示す矢印や、テキストを1行進めるためのタッチ操作の方向を示す矢印などを表示する。 For example, in the state illustrated in FIG. 30, as illustrated in FIG. 46B, the second display control unit 1110 of the electronic device 100 performs a touch operation for returning the text by one page via the second display panel 240. An arrow indicating the direction, an arrow indicating the direction of the touch operation for advancing the text by one page, an arrow indicating the direction of the touch operation for advancing the text by one line, and the direction of the touch operation for advancing the text by one line Display arrows and so on.
 これによって、ユーザは、電子機器100に所望する処理を実行させるために必要なタッチ操作を容易に知ることができるようになる。 Thereby, the user can easily know the touch operation necessary for causing the electronic device 100 to execute a desired process.
 <第2の付加機能>
 次に、図47を参照して、本実施の形態に係る電子機器100の第2の付加機能について説明する。図47は、本実施の形態に係る電子機器100の第2の付加機能を示す第2の表示パネルを示すイメージ図である。
<Second additional function>
Next, a second additional function of electronic device 100 according to the present embodiment will be described with reference to FIG. FIG. 47 is a conceptual diagram showing a second display panel showing a second additional function of electronic device 100 according to the present embodiment.
 電子機器100が記憶するコンテンツデータ1711、1712には、Webページのアドレスを示すURL(Uniform Resource Locator)や、同一書籍データ171X内の別のページへのリンクジャンプなどのイベントが設定されることがある。たとえば、テキストに含まれる文字列や画像に上記のイベントが設定されることがある。 In the content data 1711 and 1712 stored in the electronic device 100, an event such as a URL (Uniform Resource Locator) indicating a web page address or a link jump to another page in the same book data 171X may be set. is there. For example, the above event may be set in a character string or an image included in the text.
 コンテンツの作成者は、自身が作成したコンテンツを、上記のイベント情報の影響無くして、そのまま表示したい場合が多い。通常の電子機器は、テキストに含まれる文字列や画像に上記のイベントが設定されていることをユーザに伝えるために、当該文字列に「罫線」を付したり、当該画像を「太枠」で囲んだりする。 Creators of content often want to display the content they created without affecting the above event information. In order to inform the user that the above event is set in a character string or image included in text, a normal electronic device adds a “ruled line” to the character string or displays the image as a “thick frame”. Or surround with.
 本実施の形態に係る電子機器100は、テキストに含まれる文字列や画像に上記のイベントが設定されている場合に、以下のような動作を行う。すなわち、電子機器100は、図47に示すように、当該文字列上や当該画像上にポインタが位置した場合や、当該文字列や当該画像が第1の表示パネル140の中心に位置した場合に、それらにイベントが設定されていることを第2の表示パネル240を介して表示する。たとえば、電子機器100は、イベントの内容を示す文字列を第2の表示パネル240に表示させてもよいし、イベントが設定されていることを示す感嘆符を第2の表示パネル240に表示させてもよい。 The electronic device 100 according to the present embodiment performs the following operation when the above event is set in a character string or an image included in the text. That is, as shown in FIG. 47, the electronic device 100 has a case where the pointer is positioned on the character string or the image, or when the character string or the image is positioned at the center of the first display panel 140. The fact that an event is set for them is displayed via the second display panel 240. For example, the electronic device 100 may display a character string indicating the content of the event on the second display panel 240 or display an exclamation mark indicating that the event is set on the second display panel 240. May be.
 電子機器100は、第2の表示パネル240がイベントの内容を示す文字列や感嘆符を表示しているときに、第2の表示パネル240あるいは操作キー177を介してユーザからの実行を受け付けた際に、当該イベントに対応する処理を実行する。 Electronic device 100 accepts execution from the user via second display panel 240 or operation key 177 when second display panel 240 displays a character string or an exclamation mark indicating the content of the event. The process corresponding to the event is executed.
 <第3の付加機能>
 次に、図48を参照して、本実施の形態に係る電子機器100の第3の付加機能について説明する。図48は、本実施の形態に係る電子機器100の第3の付加機能を示す第2の表示パネルを示すイメージ図である。
<Third additional function>
Next, with reference to FIG. 48, the 3rd additional function of the electronic device 100 which concerns on this Embodiment is demonstrated. FIG. 48 is an image diagram showing a second display panel showing a third additional function of electronic device 100 according to the present embodiment.
 電子機器100は、書籍データ171X(あるいはコンテンツデータ1711、1712)にはしおり位置を設定する。電子機器100は、予め書籍データ171X(あるいはコンテンツデータ1711、1712)の所定位置にしおりを設定してもよいし、ユーザからの命令に基づいてしおり位置を設定してもよい。 The electronic device 100 sets a bookmark position in the book data 171X (or the content data 1711 and 1712). Electronic device 100 may set a bookmark at a predetermined position in book data 171X (or content data 1711 and 1712) in advance, or may set a bookmark position based on a command from the user.
 電子機器100は、図48に示すように、第2の表示パネル240に、しおり位置に対応する箇所にしおりが挟まれた書籍の画像を表示させる。電子機器100は、第2の表示パネル240を介して、しおりの画像に対するタッチ操作を受け付ける。電子機器100は、当該タッチ操作に応じて、しおり位置に対応するページを第1の表示パネル140に表示する。 48. As shown in FIG. 48, the electronic device 100 causes the second display panel 240 to display an image of a book in which a bookmark is sandwiched at a location corresponding to the bookmark position. Electronic device 100 accepts a touch operation on a bookmark image via second display panel 240. In response to the touch operation, electronic device 100 displays a page corresponding to the bookmark position on first display panel 140.
 <第4の付加機能>
 次に、図49を参照して、本実施の形態に係る電子機器100の第4の付加機能について説明する。図49は、本実施の形態に係る電子機器100の第4の付加機能を示す第2の表示パネルを示すイメージ図である。
<Fourth additional function>
Next, with reference to FIG. 49, the 4th additional function of the electronic device 100 which concerns on this Embodiment is demonstrated. FIG. 49 is an image diagram showing a second display panel showing a fourth additional function of electronic device 100 according to the present embodiment.
 電子機器100は、第1の表示パネル140が書籍の最終ページを表示しているときに、次のページ(次の行)に移動する命令を受け付けると、これ以上先のページに進めないことを示す第1の画面を第2の表示パネル240に表示する。逆に、電子機器100は、第1の表示パネル140が書籍の最初ページを表示しているときに、前のページ(前の行)に移動する命令を受け付けると、これ以上前のページに進めないことを示す第2の画面を第2の表示パネル240に表示する。 When electronic device 100 accepts an instruction to move to the next page (next line) while first display panel 140 displays the last page of the book, electronic device 100 may not proceed to the next page. The first screen shown is displayed on the second display panel 240. Conversely, when electronic device 100 accepts a command to move to the previous page (previous row) while first display panel 140 displays the first page of the book, electronic device 100 advances to the previous page. A second screen indicating the absence is displayed on the second display panel 240.
 <表示エリアの変形例>
 本実施の形態に係る電子機器100は、第1の表示パネル140を介してコンテンツを表示して、第2の表示パネル240を介して操作画面やエフェクト画像を表示する。すなわち、第1の表示パネル140がコンテンツを表示する第1の表示エリアを実現し、第2の表示パネル240が操作画面やエフェクト画像を表示する第2の表示エリアを実現する。しかし、このような構成に限定されるものではない。
<Modification of display area>
Electronic device 100 according to the present embodiment displays content via first display panel 140 and displays an operation screen and effect images via second display panel 240. That is, the first display panel 140 realizes a first display area for displaying content, and the second display panel 240 realizes a second display area for displaying an operation screen and an effect image. However, it is not limited to such a configuration.
 図50は、本実施の形態に係る電子機器100の変形例に係る第1の表示パネルを示すイメージ図である。図50を参照して、本変形例においては、第1の表示パネル140が、コンテンツを表示する第1の表示エリアと、操作画面やエフェクト画像を表示する第2の表示エリアとを実現する。 FIG. 50 is an image diagram showing a first display panel according to a modification of electronic device 100 according to the present embodiment. Referring to FIG. 50, in the present modification, first display panel 140 realizes a first display area for displaying content and a second display area for displaying an operation screen and an effect image.
 本変形例に係る電子機器は、タッチ操作を検知可能な第1の表示パネル140を利用することによって、第1の表示パネル140の右側がコンテンツを表示する第1の表示エリアとして機能し、第1の表示パネル140の左側が操作画面やエフェクト画像を表示する第2の表示エリアとして機能する。すなわち、電子機器は、第2の表示パネル240を有していなくとも良い。 The electronic device according to this modification uses the first display panel 140 capable of detecting a touch operation, so that the right side of the first display panel 140 functions as a first display area for displaying content. The left side of one display panel 140 functions as a second display area for displaying an operation screen and an effect image. That is, the electronic device may not have the second display panel 240.
 より詳細には、電子機器100は、第1の表示パネル140の第1の表示エリアにコンテンツを表示するとともに、第1の表示パネル140の第2の表示エリアにエフェクト画像140Aを表示してもよい。そして、電子機器100は、第1の表示パネル140の第2の表示エリアを介して第1から第4の操作命令に対応するタッチ操作を受け付けてもよい。 More specifically, electronic device 100 displays content in the first display area of first display panel 140 and also displays effect image 140A in the second display area of first display panel 140. Good. The electronic device 100 may accept touch operations corresponding to the first to fourth operation commands via the second display area of the first display panel 140.
 さらに、上記の実施の形態に係る電子機器100は第2の表示エリア(第2の表示パネル240)がタッチ操作を検知するものであったが、ページ切り替え命令を操作キー177などを介して受け付けるものであってもよい。すなわち、第1の表示パネル140および第2の表示パネル240のいずれかあるいは両方がタッチ操作を検知できない電子機器であっても、上記の実施形態に係る電子機器100の技術を利用することができる。 Furthermore, in the electronic device 100 according to the above-described embodiment, the second display area (second display panel 240) detects a touch operation, but receives a page switching command via the operation key 177 or the like. It may be a thing. That is, even if one or both of the first display panel 140 and the second display panel 240 is an electronic device that cannot detect a touch operation, the technology of the electronic device 100 according to the above embodiment can be used. .
 <その他の実施の形態>
 本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。
<Other embodiments>
It goes without saying that the present invention can also be applied to a case where it is achieved by supplying a program to a system or apparatus. Then, a storage medium storing a program represented by software for achieving the present invention is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the program code stored in the storage medium It is possible to enjoy the effects of the present invention also by reading and executing.
 この場合、記憶媒体から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.
 プログラムコードを供給するための記憶媒体としては、例えば、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、磁気テープ、不揮発性のメモリカード(ICメモリカード)、ROM(マスクROM、フラッシュEEPROMなど)などを用いることができる。 As a storage medium for supplying the program code, for example, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card (IC memory card), ROM (mask ROM, flash) EEPROM, etc.) can be used.
 また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code However, it is needless to say that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
 さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。 Further, after the program code read from the storage medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
 今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
 100 電子機器、101 本体装置、102,103 表示装置、110 CPU、1101 受付部、1103 第1の表示制御部、1104 方向判断部、1105 命令判断部、1110 第2の表示制御部、130 ドライバ、131 走査信号線駆動回路、132 データ信号線駆動回路、133 光センサ駆動回路、134 スイッチ、135 アンプ、140 第1の光センサ内蔵液晶パネル(第1の表示パネル)、141,241 画素回路、141b,141g,141r サブピクセル回路、143 電極対、143a 画素電極、143b 対向電極、144,244 光センサ回路、145,145b,145g,145r フォトダイオード、146 コンデンサ、151A アクティブマトリクス基板、151B 対向基板、152 液晶層、153b,153g,153r カラーフィルタ、157 データ信号線、161 偏光フィルタ、162 ガラス基板、163 遮光膜、164 配向膜、171 RAM、1711,1712 コンテンツデータ、171A,171B エフェクト画像データ群、173 メモリカードリーダライタ、174 通信装置、175 マイク、176 スピーカ、177 操作キー、179 バックライト、180 画像処理エンジン、181 ドライバ制御部、182 タイマ、183 信号処理部、240 第2の光センサ内蔵液晶パネル(第2の表示パネル)、1001 第1のユニット、1002 第2のユニット、1731 メモリカード、DB1,DB2 データバス。 100 electronic device, 101 main unit, 102, 103 display device, 110 CPU, 1101 accepting unit, 1103 first display control unit, 1104 direction judging unit, 1105 command judging unit, 1110 second display control unit, 130 driver, 131 Scanning signal line driving circuit, 132 Data signal line driving circuit, 133 Photo sensor driving circuit, 134 Switch, 135 amplifier, 140 First liquid crystal panel with built-in photo sensor (first display panel), 141, 241 Pixel circuit, 141b , 141g, 141r subpixel circuit, 143 electrode pair, 143a pixel electrode, 143b counter electrode, 144, 244 photosensor circuit, 145, 145b, 145g, 145r photodiode, 146 capacitor, 151A active matrix substrate, 1 1B counter substrate, 152 liquid crystal layer, 153b, 153g, 153r color filter, 157 data signal line, 161 polarizing filter, 162 glass substrate, 163 light shielding film, 164 alignment film, 171 RAM, 1711, 1712 content data, 171A, 171B effect Image data group, 173, memory card reader / writer, 174 communication device, 175 microphone, 176 speaker, 177 operation key, 179 backlight, 180 image processing engine, 181 driver control unit, 182 timer, 183 signal processing unit, 240 second Photosensor built-in liquid crystal panel (second display panel), 1001 first unit, 1002 second unit, 1731 memory card, DB1, DB2 data bus.

Claims (17)

  1.  第1および第2の表示エリア(140,240)と、
     少なくとも1つのコンテンツ(1711)と少なくとも1つの画像群(171A)とを記憶するためのメモリ(171)と、
     第1および第2の命令のいずれかを受け付けるための受付部(1101)と、
     前記第1の表示エリアを介して前記コンテンツの表示対象エリアを表示させ、前記第1の命令を受け付けたときに前記コンテンツの前記表示対象エリアを進め、前記第2の命令を受け付けたときに前記コンテンツの前記表示対象エリアを戻すための第1の表示制御部(1103)と、
     前記第1の命令を受け付けたときに前記少なくとも1つの画像群に基づいて前記第2の表示エリアを介して第1のエフェクトを出力し、前記第2の命令を受け付けたときに前記少なくとも1つの画像群に基づいて前記第2の表示エリアを介して第2のエフェクトを出力するための第2の表示制御部(1110)とを備える、コンテンツ表示装置。
    First and second display areas (140, 240);
    A memory (171) for storing at least one content (1711) and at least one image group (171A);
    An accepting unit (1101) for accepting one of the first and second instructions;
    The display target area of the content is displayed via the first display area, the display target area of the content is advanced when the first command is received, and the content is displayed when the second command is received. A first display control unit (1103) for returning the display target area of the content;
    The first effect is output via the second display area based on the at least one image group when the first command is received, and the at least one when the second command is received A content display device comprising: a second display control unit (1110) for outputting a second effect via the second display area based on an image group.
  2.  前記第2の表示制御部は、
     前記第1の命令を受け付けたときに、前記第2の表示エリアに前記少なくとも1つの画像群のいずれかを第1の順に表示させることによって前記第1のエフェクトを出力し、
     前記第2の命令を受け付けたときに、前記第2の表示エリアに前記少なくとも1つの画像群のいずれかを前記第1の順と逆向きの第2の順に表示させることによって前記第2のエフェクトを出力する、請求の範囲第1項に記載のコンテンツ表示装置。
    The second display controller is
    When the first instruction is received, the first effect is output by causing the second display area to display any one of the at least one image group in a first order,
    When the second command is received, the second effect is displayed by causing the second display area to display any one of the at least one image group in a second order opposite to the first order. The content display device according to claim 1, wherein:
  3.  前記少なくとも1つの画像群は、第1の画像群と第2の画像群とを含み、
     前記第2の表示制御部は、
     前記第1の命令を受け付けたときに、前記第2の表示エリアに前記第1の画像群を順次表示させることによって前記第1のエフェクトを出力し、
     前記第2の命令を受け付けたときに、前記第2の表示エリアに前記第2の画像群を順次表示させることによって前記第2のエフェクトを出力する、請求の範囲第1項に記載のコンテンツ表示装置。
    The at least one image group includes a first image group and a second image group;
    The second display controller is
    When the first command is received, the first effect is output by sequentially displaying the first image group in the second display area,
    The content display according to claim 1, wherein when receiving the second command, the second effect is output by sequentially displaying the second group of images in the second display area. apparatus.
  4.  前記第2の表示エリアを含むタッチパネル(140,240)をさらに備え、
     前記受付部は、前記第2の表示エリアに対するタッチ操作に基づいて、前記第1および第2の命令のいずれかを受け付ける、請求の範囲第1項に記載のコンテンツ表示装置。
    A touch panel (140, 240) including the second display area;
    The content display device according to claim 1, wherein the reception unit receives one of the first and second instructions based on a touch operation on the second display area.
  5.  前記第1の表示エリアを含むディスプレイ(140,240)をさらに備える、請求の範囲第4項に記載のコンテンツ表示装置。 The content display device according to claim 4, further comprising a display (140, 240) including the first display area.
  6.  前記タッチパネルは前記第1の表示エリアを含む、請求の範囲第4項に記載のコンテンツ表示装置。 The content display device according to claim 4, wherein the touch panel includes the first display area.
  7.  前記メモリは、複数の前記画像群の各々を属性に対応付けて記憶するとともに、複数の前記コンテンツの各々を前記属性に対応付けて記憶し、
     前記第2の表示制御部は、前記第1の表示エリアに表示されている前記コンテンツに対応する前記画像群を前記第2の表示エリアに表示する、請求の範囲第1項に記載のコンテンツ表示装置。
    The memory stores each of the plurality of image groups in association with an attribute, and stores each of the plurality of contents in association with the attribute,
    The content display according to claim 1, wherein the second display control unit displays the image group corresponding to the content displayed in the first display area in the second display area. apparatus.
  8.  前記メモリは、複数の前記コンテンツを一連のコンテンツ群として記憶し、
     前記第1の表示制御部は、前記一連のコンテンツ群を参照して、前記コンテンツの各々を対応する前記属性に基づいて表示する、請求の範囲第7項に記載のコンテンツ表示装置。
    The memory stores a plurality of the contents as a series of content groups,
    The content display device according to claim 7, wherein the first display control unit displays each of the contents based on the corresponding attribute with reference to the series of content groups.
  9.  演算処理部と、第1および第2の表示エリアと、少なくとも1つのコンテンツと少なくとも1つの画像群とを記憶するためのメモリとを含むコンピュータにコンテンツを表示させるためのコンテンツ表示プログラムを記録するコンピュータ読取可能な記録媒体であって、
     前記コンテンツ表示プログラムは、前記演算処理部に、
     第1および第2の命令のいずれかを受け付けるステップと、
     前記第1の表示エリアを介して前記コンテンツの表示対象エリアを表示するステップと、
     前記第1の命令を受け付けたときに前記コンテンツの前記表示対象エリアを進めるステップと、
     前記第2の命令を受け付けたときに前記コンテンツの前記表示対象エリアを戻すステップと、
     前記第1の命令を受け付けたときに前記少なくとも1つの画像群に基づいて前記第2の表示エリアを介して第1のエフェクトを出力するステップと、
     前記第2の命令を受け付けたときに前記少なくとも1つの画像群に基づいて前記第2の表示エリアを介して第2のエフェクトを出力するステップとを実行させる、コンテンツ表示プログラムを記録するコンピュータ読取可能な記録媒体。
    A computer that records a content display program for displaying content on a computer including an arithmetic processing unit, first and second display areas, and a memory for storing at least one content and at least one image group A readable recording medium,
    The content display program is stored in the arithmetic processing unit.
    Receiving either of the first and second instructions;
    Displaying a display target area of the content via the first display area;
    Advancing the display target area of the content when receiving the first instruction;
    Returning the display target area of the content when the second command is received;
    Outputting a first effect via the second display area based on the at least one image group when receiving the first command;
    A computer-readable recording of a content display program for executing a step of outputting a second effect via the second display area based on the at least one image group when the second command is received Recording medium.
  10.  前記第1のエフェクトを出力するステップは、前記第2の表示エリアに前記少なくとも1つの画像群のいずれかを第1の順に表示させるステップを含み、
     前記第2のエフェクトを出力するステップは、前記第2の表示エリアに前記少なくとも1つの画像群のいずれかを前記第1の順と逆向きの第2の順に表示させるステップを含む、請求の範囲第9項に記載のコンテンツ表示プログラムを記録するコンピュータ読取可能な記録媒体。
    The step of outputting the first effect includes a step of displaying any of the at least one image group in the first display order in the second display area,
    The step of outputting the second effect includes a step of causing the second display area to display any one of the at least one image group in a second order opposite to the first order. A computer-readable recording medium for recording the content display program according to item 9.
  11.  前記少なくとも1つの画像群は、第1の画像群と第2の画像群とを含み、
     前記第1のエフェクトを出力するステップは、前記第2の表示エリアに前記第1の画像群を順次表示させるステップを含み、
     前記第2のエフェクトを出力するステップは、前記第2の表示エリアに前記第2の画像群を順次表示させるステップを含む、請求の範囲第9項に記載のコンテンツ表示プログラムを記録するコンピュータ読取可能な記録媒体。
    The at least one image group includes a first image group and a second image group;
    The step of outputting the first effect includes a step of sequentially displaying the first group of images in the second display area,
    The computer-readable recording medium according to claim 9, wherein the step of outputting the second effect includes a step of sequentially displaying the second group of images in the second display area. Recording medium.
  12.  前記コンピュータは、前記第2の表示エリアを含むタッチパネルをさらに含み、
     前記第1および第2の命令のいずれかを受け付けるステップは、前記第2の表示エリアに対するタッチ操作に基づいて、前記第1および第2の命令のいずれかを受け付けるステップを含む、請求の範囲第9項に記載のコンテンツ表示プログラムを記録するコンピュータ読取可能な記録媒体。
    The computer further includes a touch panel including the second display area,
    The step of accepting any of the first and second instructions includes a step of accepting any of the first and second instructions based on a touch operation on the second display area. A computer-readable recording medium for recording the content display program according to item 9.
  13.  前記コンピュータは、前記第1の表示エリアを含むディスプレイをさらに含む、請求の範囲第12項に記載のコンテンツ表示プログラムを記録するコンピュータ読取可能な記録媒体。 The computer-readable recording medium for recording the content display program according to claim 12, further comprising a display including the first display area.
  14.  前記タッチパネルは前記第1の表示エリアを含む、請求の範囲第12項に記載のコンテンツ表示プログラムを記録するコンピュータ読取可能な記録媒体。 13. The computer-readable recording medium for recording the content display program according to claim 12, wherein the touch panel includes the first display area.
  15.  前記メモリは、複数の前記画像群の各々を属性に対応付けて記憶するとともに、複数の前記コンテンツの各々を前記属性に対応付けて記憶し、
     前記第1のエフェクトを出力するステップは、前記第1の表示エリアに表示されている前記コンテンツに対応する前記画像群を前記第2の表示エリアに表示するステップを含み、
     前記第2のエフェクトを出力するステップは、前記第1の表示エリアに表示されている前記コンテンツに対応する前記画像群を前記第2の表示エリアに表示するステップを含む、請求の範囲第9項に記載のコンテンツ表示プログラムを記録するコンピュータ読取可能な記録媒体。
    The memory stores each of the plurality of image groups in association with an attribute, and stores each of the plurality of contents in association with the attribute,
    Outputting the first effect includes displaying the image group corresponding to the content displayed in the first display area in the second display area;
    The step of outputting the second effect includes the step of displaying the image group corresponding to the content displayed in the first display area in the second display area. A computer-readable recording medium for recording the content display program described in 1.
  16.  前記メモリは、複数の前記コンテンツを一連のコンテンツ群として記憶し、
     前記表示対象エリアを表示するステップは、前記一連のコンテンツ群を参照して、前記コンテンツの各々を対応する前記属性に基づいて前記第1の表示エリアに表示するステップを含む、請求の範囲第15項に記載のコンテンツ表示プログラムを記録するコンピュータ読取可能な記録媒体。
    The memory stores a plurality of the contents as a series of content groups,
    The step of displaying the display target area includes a step of displaying each of the contents in the first display area based on the corresponding attribute with reference to the series of contents group. A computer-readable recording medium for recording the content display program according to the item.
  17.  演算処理部と、第1および第2の表示エリアと、少なくとも1つのコンテンツと少なくとも1つの画像群とを記憶するためのメモリとを含むコンピュータにおけるコンテンツ表示方法であって、
     前記演算処理部が、第1および第2の命令のいずれかを受け付けるステップと、
     前記演算処理部が、前記第1の表示エリアを介して前記コンテンツの表示対象エリアを表示するステップと、
     前記演算処理部が、前記第1の命令を受け付けたときに前記コンテンツの前記表示対象エリアを進めるステップと、
     前記演算処理部が、前記第2の命令を受け付けたときに前記コンテンツの前記表示対象エリアを戻すステップと、
     前記演算処理部が、前記第1の命令を受け付けたときに前記少なくとも1つの画像群に基づいて前記第2の表示エリアを介して第1のエフェクトを出力するステップと、
     前記演算処理部が、前記第2の命令を受け付けたときに前記少なくとも1つの画像群に基づいて前記第2の表示エリアを介して第2のエフェクトを出力するステップとを備える、コンテンツ表示方法。
    A content display method in a computer including an arithmetic processing unit, first and second display areas, and a memory for storing at least one content and at least one image group,
    The arithmetic processing unit accepting either of the first and second instructions;
    The arithmetic processing unit displaying a display target area of the content via the first display area;
    A step of advancing the display target area of the content when the arithmetic processing unit receives the first instruction;
    Returning the display target area of the content when the arithmetic processing unit receives the second command;
    Outputting a first effect through the second display area based on the at least one image group when the arithmetic processing unit receives the first command;
    A content display method comprising: a step of outputting a second effect via the second display area based on the at least one image group when the arithmetic processing unit receives the second command.
PCT/JP2010/052059 2009-03-10 2010-02-12 Content display device, content display method, and computer-readable recording medium on which content display program is recorded WO2010103888A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009056736A JP2010211505A (en) 2009-03-10 2009-03-10 Content display device, content display method, and contents display program
JP2009-056736 2009-03-10

Publications (1)

Publication Number Publication Date
WO2010103888A1 true WO2010103888A1 (en) 2010-09-16

Family

ID=42728183

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/052059 WO2010103888A1 (en) 2009-03-10 2010-02-12 Content display device, content display method, and computer-readable recording medium on which content display program is recorded

Country Status (2)

Country Link
JP (1) JP2010211505A (en)
WO (1) WO2010103888A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116842117A (en) * 2023-06-19 2023-10-03 重庆市规划和自然资源信息中心 Geous image output method based on geotools for repairing self-intersecting

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013137614A (en) * 2011-12-28 2013-07-11 Nintendo Co Ltd Information processing program, information processing device, information processing method, and information processing system
JP2019020937A (en) * 2017-07-14 2019-02-07 ジオビンゴ合同会社 Information search system, information search method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06153157A (en) * 1992-11-05 1994-05-31 Sony Corp Moving picture reproduction device and moving picture recording and reproducing device
JP2001351285A (en) * 2000-06-09 2001-12-21 Sony Corp Videocassette recorder
JP2005025913A (en) * 2003-06-13 2005-01-27 Sharp Corp Information reproducing apparatus, control method of information reproducing apparatus, content recording medium, control program, computer-readable recording medium recording control program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06153157A (en) * 1992-11-05 1994-05-31 Sony Corp Moving picture reproduction device and moving picture recording and reproducing device
JP2001351285A (en) * 2000-06-09 2001-12-21 Sony Corp Videocassette recorder
JP2005025913A (en) * 2003-06-13 2005-01-27 Sharp Corp Information reproducing apparatus, control method of information reproducing apparatus, content recording medium, control program, computer-readable recording medium recording control program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116842117A (en) * 2023-06-19 2023-10-03 重庆市规划和自然资源信息中心 Geous image output method based on geotools for repairing self-intersecting
CN116842117B (en) * 2023-06-19 2024-03-12 重庆市规划和自然资源信息中心 Geous image output method based on geotools for repairing self-intersecting

Also Published As

Publication number Publication date
JP2010211505A (en) 2010-09-24

Similar Documents

Publication Publication Date Title
JP5278948B2 (en) Object display device, object display method, and object display program
JP5540344B2 (en) Electronic device, menu selection method, menu selection program
JP5322163B2 (en) Display device, display method, and display program
JP2010134625A (en) Electronic apparatus, display control method and program
JP5526397B2 (en) Content display device, content display method, and content display program
JP5344555B2 (en) Object display device, object display method, and object display program
JP5707029B2 (en) Electronic device, electronic device control method, and electronic device control program
JP5526400B2 (en) Electronic device, information processing system, electronic device control method, and electronic device control program
JP2010140329A (en) Display device, display method, and display program
JP5334171B2 (en) Electronic device and display control method
JP5126895B2 (en) Electronic device and display control method
JP5617120B2 (en) Electronic device, display control method, and program
WO2010103888A1 (en) Content display device, content display method, and computer-readable recording medium on which content display program is recorded
JP5110594B2 (en) Information processing apparatus, information processing method, and information processing program
JP2010204729A (en) Text display device, method, and program
JP5289889B2 (en) Display device, display device control method, and program for controlling display device
JP5257892B2 (en) Electronic device, screen switching method and screen switching program
JP2010204917A (en) Electronic apparatus, information processing system, method and program for controlling electronic apparatus
JP2010218241A (en) Electronic apparatus, display control method and program
JP2010108373A (en) Electronic apparatus, application program, information processing terminal, and its control program
JP5172641B2 (en) Electronic device, information processing method, and information processing program
JP5263597B2 (en) Image display device, image display method, and image display program
JP2011008425A (en) Electronic device, operation mode setting method, and program
JP2010117768A (en) Electronic device, its control method, and its control program
JP2010108087A (en) Character recognition device, character recognition method and character recognition program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10750644

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10750644

Country of ref document: EP

Kind code of ref document: A1