WO2010103791A1 - 画像表示/像検知装置、制御方法、制御プログラム、および該制御プログラムを記録したコンピュータ読み取り可能な記録媒体 - Google Patents

画像表示/像検知装置、制御方法、制御プログラム、および該制御プログラムを記録したコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2010103791A1
WO2010103791A1 PCT/JP2010/001620 JP2010001620W WO2010103791A1 WO 2010103791 A1 WO2010103791 A1 WO 2010103791A1 JP 2010001620 W JP2010001620 W JP 2010001620W WO 2010103791 A1 WO2010103791 A1 WO 2010103791A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
data
read
area
Prior art date
Application number
PCT/JP2010/001620
Other languages
English (en)
French (fr)
Inventor
三村俊彦
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to CN201080001437.7A priority Critical patent/CN102017595B/zh
Priority to US12/988,881 priority patent/US8698742B2/en
Priority to EP10750548.9A priority patent/EP2408187A4/en
Publication of WO2010103791A1 publication Critical patent/WO2010103791A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00347Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with another still picture apparatus, e.g. hybrid still picture apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00204Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00204Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
    • H04N1/00244Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server with a server, e.g. an internet server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/00413Display of information to the user, e.g. menus using menus, i.e. presenting the user with a plurality of selectable options
    • H04N1/00416Multi-level menus
    • H04N1/00419Arrangements for navigating between pages or parts of the menu
    • H04N1/00421Arrangements for navigating between pages or parts of the menu using drop-down menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/00413Display of information to the user, e.g. menus using menus, i.e. presenting the user with a plurality of selectable options
    • H04N1/00416Multi-level menus
    • H04N1/00419Arrangements for navigating between pages or parts of the menu
    • H04N1/00424Arrangements for navigating between pages or parts of the menu using a list of graphical elements, e.g. icons or icon bar
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/00464Display of information to the user, e.g. menus using browsers, i.e. interfaces based on mark-up languages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00474Output means outputting a plurality of functional options, e.g. scan, copy or print
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/0461Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa part of the apparatus being used in common for reading and reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/195Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a two-dimensional array or a combination of two-dimensional arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/10Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0008Connection or combination of a still picture apparatus with another apparatus
    • H04N2201/001Sharing resources, e.g. processing power or memory, with a connected apparatus or enhancing the capability of the still picture apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0008Connection or combination of a still picture apparatus with another apparatus
    • H04N2201/0034Details of the connection, e.g. connector, interface
    • H04N2201/0037Topological details of the connection
    • H04N2201/0039Connection via a network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0008Connection or combination of a still picture apparatus with another apparatus
    • H04N2201/0063Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0081Image reader
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0089Image display device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/0402Arrangements not specific to a particular one of the scanning methods covered by groups H04N1/04 - H04N1/207
    • H04N2201/0422Media holders, covers, supports, backgrounds; Arrangements to facilitate placing of the medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/0402Arrangements not specific to a particular one of the scanning methods covered by groups H04N1/04 - H04N1/207
    • H04N2201/0452Indicating the scanned area, e.g. by projecting light marks onto the medium

Definitions

  • the present invention relates to an image display / image detection apparatus capable of simultaneously displaying an image and reading an object, a control method, a control program, and a computer-readable recording medium on which the control program is recorded.
  • a client device such as a PC (Personal Computer) obtains (downloads) data from a server device or transmits data to the server device using a WWW (World Wide Web) browser or the like ( Uploading) technology is widely used. Therefore, the user can acquire a predetermined Web page or the like from the server device using a WWW browser, and can transmit an image of a document read by the scanner device or the like to the server device. It has become.
  • PC Personal Computer
  • FIG. 18 is a screen example of a WWW browser that displays a Web page for transmitting data to the server device.
  • a business card image read by a scanner device or the like will be described as an example of data to be transmitted to the server device.
  • the Web page is described in a language such as HTML (HyperText Markup Language) so that the image designated in the text box is sent to the server device by pressing the “Send” button shown in the figure.
  • HTML HyperText Markup Language
  • the user when using the Web page, the user (1) first reads a business card with a scanner device or the like to generate an image of the business card, and (2) then, on the Web page, By designating the generated image and pressing the “Send” button, the business card image can be sent to the server device.
  • a client device having a scanner function is conventionally known.
  • a display / reading device capable of displaying an image and reading a document or the like on a single screen.
  • this is an apparatus in which a plurality of light emitting elements for image display and a plurality of light receiving elements for reading a document or the like placed on a display screen are arranged in the same screen.
  • a WWW browser is installed in such a display / reading device, the user can read a document or the like and transmit an image such as a document using the WWW browser on a single screen.
  • the user transmits an image of a business card to the server device by independently performing an operation of reading a document or the like and an operation of transmitting an image.
  • Patent Documents 1 and 2 there are techniques disclosed in Patent Documents 1 and 2 as techniques for transmitting data from a client apparatus to a server apparatus using a so-called Web technique.
  • Patent Document 1 discloses a technique for uploading data stored in a PC or a portable information terminal to a facsimile apparatus based on an HTML file and a CGI (Common Gateway Interface) program.
  • a predetermined button is displayed on the display unit based on the HTML document acquired from the server device, and when the button is pressed, an image of the document scanned by the scanner device is displayed on the server device.
  • An image processing apparatus for transmission is disclosed.
  • Japanese Patent Publication Japanese Patent Laid-Open No. 2002-132651 (Publication Date: May 10, 2002)”
  • the reading function of the original on the reading surface in the display / reading apparatus and the so-called Web technology are not closely linked, and a Web page (SaaS (Software as) that reads the original on the reading surface is not linked. It was not easy to provide the application of a Service) on the server device.
  • the present invention has been made in view of the above-described problems, and its purpose is to display a placement area whose display position is not fixed in an apparatus in which a display surface and a reading surface are shared, and To provide an image display / image detection apparatus, a control method, a control program, and a computer-readable recording medium on which the control program is recorded, which can read an image of an object placed on the placement area. is there.
  • an image display / image detection apparatus is an image display / image detection apparatus including a planar member that displays an image and reads a nearby image.
  • a window display control means for displaying a window including a placement area to be placed on the planar member, and first area information indicating the placement of the placement area in the window in the planar member in the placement area.
  • a control method for an image display / image detection apparatus is a control method for an image display / image detection apparatus that includes a planar member that displays an image and reads an image in the vicinity thereof.
  • a window display control step for displaying a window including a placement area to be placed on the planar member, and first area information indicating the placement of the placement area in the window in the planar member in the placement area.
  • the window including the placement area on which the object is placed can be displayed on the planar member.
  • the first area information indicating the arrangement of the placement area in the window can be converted into the second area information indicating the arrangement of the placement area on the planar member.
  • the window is displayed at any position on the display surface, and the placement area is arranged at any position within the window.
  • the reading position in the planar member in the placement area can be specified.
  • FIG. 5 It is a schematic diagram which shows an example of the frame structure of the command used with the data display / sensor apparatus which concerns on one Embodiment of this invention. It is explanatory drawing which shows an example of the value which can be designated to each field contained in the command shown in FIG. 5, and its outline.
  • A) of the figure is a result of scanning the entire liquid crystal panel with built-in sensor when the object is not placed on the liquid crystal panel with built-in sensor in the data display / sensor device according to one embodiment of the present invention. This is image data obtained.
  • (B) of the figure is image data obtained as a result of scanning when the user touches the sensor-equipped liquid crystal panel with a finger in the data display / sensor device according to the embodiment of the present invention. .
  • FIG. 1 is a schematic diagram showing a schematic configuration of a system including a data display / sensor device according to an embodiment of the present invention.
  • A of the figure is explanatory drawing which showed the surface of the business card which is a target object.
  • B of the figure is explanatory drawing which showed the back surface of the business card which is a target object.
  • the desktop screen of the OS program and the browser as the application program are superimposed and displayed on the desktop area that is the entire display surface of the sensor-embedded liquid crystal panel included in the data display / sensor device according to the embodiment of the present invention, Furthermore, it is a schematic diagram which shows a mode that the reading page is displayed based on the source H acquired from the external server in the client area
  • FIG. 1 It is a schematic diagram which shows the image produced
  • a data display / sensor device reads an image of an object placed in an area where a reading area is displayed, and characters on the read image on an external server It is a flowchart which shows the flow which performs a recognition process.
  • the data display / sensor device concerning one embodiment of the present invention, it is a mimetic diagram showing an example of a message shown when the whole reading field is not displayed so that visual recognition is possible. It is the example of a screen of the WWW browser which displayed the web page which transmits data to a server apparatus.
  • the data display / sensor device (image display / image detection device) 100 generally displays a data such as an image and a sensor built-in liquid crystal panel capable of detecting a nearby image ( (Planar member) 301 (described later), and an image of an object in the vicinity of the sensor built-in liquid crystal panel 301 can be read in a state where the image is displayed on the sensor built-in liquid crystal panel 301.
  • a data such as an image and a sensor built-in liquid crystal panel capable of detecting a nearby image ( (Planar member) 301 (described later)
  • an image of an object in the vicinity of the sensor built-in liquid crystal panel 301 can be read in a state where the image is displayed on the sensor built-in liquid crystal panel 301.
  • Device see FIG. 4).
  • the object refers to an object whose image is to be read by the sensor built-in liquid crystal panel 301. More specifically, it is a document in which characters or images are written, and books, cards, leaflets, various materials, etc. are applicable objects, but here, in particular, name, address, email address, etc. are written. A business card C is assumed.
  • reading of an image of an object is also referred to as scanning.
  • FIG. 9 is a schematic diagram showing a schematic configuration of the system 1100.
  • the data display / sensor device 100 and the external server 1000 are connected by a generally known communication network 1120, and using a generally known communication protocol such as HTTP (HyperText Transfer Protocol), Assume that they can communicate with each other.
  • HTTP HyperText Transfer Protocol
  • the data display / sensor device 100 is a client terminal such as a PC having a function of requesting the external server 1000 for a web page source code (hereinafter referred to as source H) described in HTML. Then, the data display / sensor device 100 displays a Web page using a WWW browser (window) based on the source H acquired from the external server 1000.
  • source H web page source code
  • the WWW browser is referred to as browser W.
  • the browser W is displayed on the sensor built-in liquid crystal panel 301 by an OS (operating system) program of the data display / sensor device 100. Note that the display position and display size of the browser W can be changed by a user operation or the like, and are not fixed.
  • the source H is (1) an area (placement area) indicating a range on which an object is placed, and (2) from an image read on the entire reading surface of the sensor built-in liquid crystal panel 301. It is assumed that an area (hereinafter referred to as a reading area RA) indicating a range in which an image (a reading image CG described later) as a reading result is extracted is described to be displayed on a Web page (content). Further, it is described that in accordance with a user instruction, an instruction to read an image of a nearby image is given on the reading surface of the sensor built-in liquid crystal panel 301 and the read image CG is transmitted to the external server 1000. . These descriptions are described using tags such as a scan tag ST described later.
  • the reading area RA is displayed on the Web page displayed by the data display / sensor device 100 based on the source H acquired from the external server 1000. Further, the data display / sensor device 100 extracts, as a read image CG, an area in which the reading area RA is read out of the image read on the entire reading surface of the sensor built-in liquid crystal panel 301. Then, the extracted read image CG is transmitted to the external server 1000 via the browser W (more specifically, it is transmitted using an HTTP POST method).
  • the Web page on which the reading area RA is displayed is referred to as a reading page CP.
  • the external server 1000 is a server device having a function of providing the source H to the data display / sensor device 100 in response to a request from the data display / sensor device 100.
  • the external server 1000 also includes a storage unit 1030 that stores various data.
  • the various data is, for example, a source H provided to the data display / sensor device 100, a read image CG transmitted from the data display / sensor device 100, and the like.
  • an application program for executing a predetermined process on the read image CG transmitted from the data display / sensor device 100 is executed.
  • the application program recognizes characters such as a name, an address, and an e-mail address, and stores the recognized character data in the storage unit 1030. It is assumed that registration processing is performed in a table as an address book stored in.
  • the application program is referred to as a character recognition application.
  • the system 1100 is also referred to as a business card management system, for example.
  • the data display / sensor device 100 displays an image of the object placed on the reading area RA displayed on the reading page CP on the sensor built-in liquid crystal panel 301.
  • a typical example of the reading process will be described. Here, an outline of the processing will be described, and details of each processing will be described later.
  • FIG. 10A shows the surface of the business card C.
  • FIG. 10B is a diagram showing the back side of the business card C.
  • FIG. 10 is a schematic diagram showing a state in which a read page CP is displayed in a client area CA (described later) based on a source H acquired from an external server 1000. As shown in the figure, the reading area RA is displayed on the reading page CP. In FIG. 11, the reading area RA is displayed in gray (gray).
  • the client area CA refers to a part of the window area of the browser W where content such as a web page is displayed (that is, a part excluding the title bar and status bar).
  • the area surrounded by the broken line is the client area CA.
  • FIG. 12 is a schematic diagram illustrating a description example of the source H. As shown in the drawing, in the source H, a form tag FT, a scan tag ST, and an input tag IT are described in particular.
  • the form tag FT describes that a transmission process by the POST method is performed on a URL (Uniform Resource Locator) indicated by “http://meishi.jp” as an action. Note that the URL indicated by “http://meishi.jp” is the URL on the external server 1000.
  • the data transmitted by the POST method is a read image CG described later.
  • the scan tag ST describes the reading area RA.
  • the width (width) of the reading area RA is “440”
  • the height (height) of the reading area RA is “300”
  • the color (bgcolor) of the reading area RA is “gray (gray)”. Is described.
  • the scan tag ST is a tag that is not defined in the HTML standard. For this reason, it is assumed here that HTML that is an extension of the standard is used, in which the scan tag ST is uniquely defined. Further, it is assumed that the browser W has been expanded in function so that it can interpret the scan tag ST and perform corresponding processing.
  • the input tag IT describes a button BT that can be pressed by the user.
  • a process of reading the image of the object placed in the reading area RA by the sensor built-in liquid crystal panel 301 is started, and an image generated as a result of the reading is a form tag. Assume that it is transmitted by the POST method as described in FT.
  • FIG. 13 is a schematic diagram showing a state in which the user places the business card C in the reading area RA for the purpose of reading the surface of the business card C in the state shown in FIG.
  • the surface of the business card C is placed in contact with the sensor built-in liquid crystal panel 301. Therefore, the user can see the back side of the business card C as illustrated.
  • FIG. 14 is a schematic diagram showing an image generated in the data display / sensor device 100 as a result of reading the image of the surface of the business card C placed in the reading area RA by the sensor built-in liquid crystal panel 301.
  • FIG. 14 is a schematic diagram showing an image generated in the data display / sensor device 100 as a result of reading the image of the surface of the business card C placed in the reading area RA by the sensor built-in liquid crystal panel 301.
  • the data display / sensor device 100 extracts only the area corresponding to the reading area RA from the image read on the entire reading surface of the sensor built-in liquid crystal panel 301, and generates the image. Therefore, the generated image is an image having the same size as the reading area RA. Then, the extracted image is transmitted to the external server 1000 by the POST method. Note that the extracted image is a read image CG.
  • the read image CG includes “Mimura” as the name written on the surface of the business card C and “Yamatokoriyama in Nara Prefecture” as the address. "City” and mail address "mimura@xxx.com” are included.
  • the character recognition application recognizes the characters of the name, address, and mail address included in the read image CG, and the recognized character data is stored in the storage unit 1030. The process of registering in the table is performed.
  • the image of the object read by the sensor built-in liquid crystal panel 301 is an image having a mirror image relationship with the surface of the object, the obtained image is mirror-imaged by a generally known technique. It shall be reversed.
  • a coordinate system In order to extract (cut out) the read image CG from the image read on the entire reading surface of the sensor built-in liquid crystal panel 301, a coordinate system (hereinafter referred to as a desktop) with the upper left (that is, D0) of the desktop area DA as the origin. It is necessary to specify information (second area information) indicating the arrangement of the reading area RA in the coordinate system). More specifically, the information indicating the arrangement is a set of coordinates of representative points (vertices) of the reading area RA.
  • the OS program manages the display position of parts (windows, icons, etc.) displayed on the desktop screen in the desktop coordinate system. Further, since the desktop area DA coincides with the entire display surface of the sensor built-in liquid crystal panel 301, a desktop coordinate system is used to indicate the physical position of the display surface of the sensor built-in liquid crystal panel 301.
  • the browser W displays the reading area RA in the client area CA, the reading area RA in a coordinate system (hereinafter referred to as a client coordinate system) having the origin at the upper left of the client area CA (that is, C0).
  • the information (first area information) indicating the arrangement of the information is obtained.
  • the browser W manages the display position of the components (buttons, icons, characters, etc.) displayed on the read page CP as the content in the client coordinate system.
  • the process of converting the information indicating the arrangement of the read area RA from the client coordinate system to the desktop coordinate system is performed before the process of extracting the read image CG. Then, the extracted image CG is extracted using the converted information.
  • client coordinates the coordinates in the client coordinate system
  • desktop coordinates the coordinates in the desktop coordinate system
  • FIG. 15 is a schematic diagram showing the positional relationship among the desktop area DA, the client area CA, and the reading area RA.
  • the reading area RA is a rectangular area where the upper left is the point R1 and the lower right is the point R2.
  • the points R1 and R2 are expressed in desktop coordinates, they are (Xa + Xb, Ya + Yb) and (Xa + Xb + Xc, Ya + Yb + Yc), respectively.
  • the sensor built-in liquid crystal panel 301 provided in the data display / sensor device 100 is a liquid crystal panel capable of detecting an image of an object in addition to displaying data.
  • the image detection of the object is, for example, detection of a position pointed (touched) by the user with a finger or a pen, or reading (scanning) of an image of a printed material or the like.
  • the device used for display is not limited to a liquid crystal panel, and may be an organic EL (Electro Luminescence) panel or the like.
  • FIG. 2 is a diagram schematically showing a cross section of the sensor built-in liquid crystal panel 301.
  • the sensor built-in liquid crystal panel 301 described here is an example, and any structure can be used as long as the display surface and the reading surface are shared.
  • the sensor built-in liquid crystal panel 301 includes an active matrix substrate 51A disposed on the back surface side and a counter substrate 51B disposed on the front surface side, and has a structure in which a liquid crystal layer 52 is sandwiched between these substrates. is doing.
  • the active matrix substrate 51A is provided with a pixel electrode 56, a data signal line 57, an optical sensor circuit 32 (not shown), an alignment film 58, a polarizing plate 59, and the like.
  • the counter substrate 51B is provided with color filters 53r (red), 53g (green), 53b (blue), a light shielding film 54, a counter electrode 55, an alignment film 58, a polarizing plate 59, and the like.
  • a backlight 307 is provided on the back surface of the sensor built-in liquid crystal panel 301.
  • the photodiode 6 included in the optical sensor circuit 32 is provided in the vicinity of the pixel electrode 56 provided with the blue color filter 53b, but is not limited to this configuration. It may be provided in the vicinity of the pixel electrode 56 provided with the red color filter 53r, or may be provided in the vicinity of the pixel electrode 56 provided with the green color filter 53g.
  • FIG. 3 is a schematic diagram illustrating a state in which an image of an object is detected by detecting a reflected image.
  • the optical sensor circuit 32 including the photodiode 6 detects the light 63 reflected by the object such as the business card C. Thereby, the reflected image of a target object can be detected.
  • the sensor built-in liquid crystal panel 301 can detect the image of the object by detecting the reflected image.
  • FIG. 4 is a block diagram showing a main configuration of the data display / sensor device 100.
  • the data display / sensor device 100 includes a display / light sensor unit 300, a circuit control unit 600, a data processing unit 700, a main control unit 800, a storage unit 901, a primary storage unit 902, an operation unit 903, and external communication.
  • the display / light sensor unit 300 is a so-called light sensor built-in liquid crystal display device.
  • the display / light sensor unit 300 includes a sensor built-in liquid crystal panel 301, a backlight 307, and a peripheral circuit 309 for driving them.
  • the sensor built-in liquid crystal panel 301 includes a plurality of pixel circuits 31 and optical sensor circuits 32 arranged in a matrix. The detailed configuration of the sensor built-in liquid crystal panel 301 will be described later.
  • Peripheral circuit 309 includes a liquid crystal panel drive circuit 304, an optical sensor drive circuit 305, a signal conversion circuit 306, and a backlight drive circuit 308.
  • the liquid crystal panel driving circuit 304 outputs a control signal (G) and a data signal (S) in accordance with the timing control signal (TC1) and the data signal (D) from the display control unit 601 of the circuit control unit 600, and the pixel circuit 31. It is a circuit which drives. Details of the driving method of the pixel circuit 31 will be described later.
  • the optical sensor driving circuit 305 is a circuit that drives the optical sensor circuit 32 by applying a voltage to the signal line (R) in accordance with a timing control signal (TC2) from the sensor control unit 602 of the circuit control unit 600. Details of the driving method of the optical sensor circuit 32 will be described later.
  • the signal conversion circuit 306 is a circuit that converts the sensor output signal (SS) output from the optical sensor circuit 32 into a digital signal (DS) and transmits the converted signal to the sensor control unit 602.
  • the backlight 307 includes a plurality of white LEDs (Light Emitting Diodes) and is disposed on the back surface of the sensor built-in liquid crystal panel 301. When a power supply voltage is applied from the backlight drive circuit 308, the backlight 307 is turned on and irradiates the sensor built-in liquid crystal panel 301 with light. Note that the backlight 307 is not limited to white LEDs, and may include LEDs of other colors. Further, the backlight 307 may include, for example, a cold cathode tube (CCFL: ColdathCathode Fluorescent) Lamp) instead of the LED.
  • CCFL ColdathCathode Fluorescent
  • the backlight driving circuit 308 applies a power supply voltage to the backlight 307 when the control signal (BK) from the backlight control unit 603 of the circuit control unit 600 is at a high level, and conversely, the backlight control unit 603. When the control signal from is at a low level, no power supply voltage is applied to the backlight 307.
  • the circuit control unit 600 has a function as a device driver that controls the peripheral circuit 309 of the display / light sensor unit 300.
  • the circuit control unit 600 includes a display control unit 601, a sensor control unit 602, a backlight control unit 603, and a display data storage unit 604.
  • the display control unit 601 receives display data from the display data processing unit 701 of the data processing unit 700, and performs timing control on the liquid crystal panel driving circuit 304 of the display / light sensor unit 300 in accordance with an instruction from the display data processing unit 701.
  • a signal (TC1) and a data signal (D) are transmitted, and the received display data is displayed on the sensor built-in liquid crystal panel 301.
  • the display control unit 601 temporarily stores the display data received from the display data processing unit 701 in the display data storage unit 604. Then, a data signal (D) is generated based on the primary stored display data.
  • the display data storage unit 604 is, for example, a VRAM (video random access memory).
  • the sensor control unit 602 transmits a timing control signal (TC2) to the optical sensor driving circuit 305 of the display / optical sensor unit 300 in accordance with an instruction from the sensor data processing unit 703 of the data processing unit 700, and the sensor built-in liquid crystal panel 301. Run the scan with.
  • TC2 timing control signal
  • the sensor control unit 602 receives a digital signal (DS) from the signal conversion circuit 306. Then, image data is generated based on the digital signal (DS) corresponding to the sensor output signal (SS) output from all the optical sensor circuits 32 included in the sensor built-in liquid crystal panel 301. That is, the image data read in the entire reading area of the sensor built-in liquid crystal panel 301 is generated. Then, the generated image data is transmitted to the sensor data processing unit 703.
  • DS digital signal
  • SS sensor output signal
  • the backlight control unit 603 transmits a control signal (BK) to the backlight drive circuit 308 of the display / light sensor unit 300 in accordance with instructions from the display data processing unit 701 and the sensor data processing unit 703 to drive the backlight 307.
  • BK control signal
  • the display control unit 601 determines which display / light sensor unit 300 displays the display data from the data processing unit 700.
  • the liquid crystal panel drive circuit 304 of the display / light sensor unit 300 is controlled according to the instruction.
  • the sensor control unit 602 receives an instruction from the data processing unit 700 about which display / light sensor unit 300 is to scan the object, the sensor control unit 602 responds to the light of the display / light sensor unit 300 according to the instruction.
  • the sensor drive circuit 305 is controlled and a digital signal (DS) is received from the signal conversion circuit 306 of the display / light sensor unit 300 according to the instruction.
  • DS digital signal
  • the data processing unit 700 has a function as middleware that gives an instruction to the circuit control unit 600 based on a “command” received from the main control unit 800. Details of the command will be described later.
  • the data processing unit 700 includes a display data processing unit 701 and a sensor data processing unit 703.
  • the data processing unit 700 receives a command from the main control unit 800, at least one of the display data processing unit 701 and the sensor data processing unit 703 depends on the value of each field (described later) included in the received command.
  • the display data processing unit 701 and the sensor data processing unit 703 depends on the value of each field (described later) included in the received command.
  • the display data processing unit 701 receives display data from the main control unit 800, and gives instructions to the display control unit 601 and the backlight control unit 603 according to the command received by the data processing unit 700, and displays the received display data.
  • the image is displayed on the sensor built-in liquid crystal panel 301. The operation of the display data processing unit 701 according to the command will be described later.
  • the sensor data processing unit 703 gives an instruction to the sensor control unit 602 and the backlight control unit 603 according to the command received by the data processing unit 700.
  • the sensor data processing unit 703 receives image data from the sensor control unit 602 and stores the image data in the image data buffer 704 as it is. Then, in accordance with the command received by the data processing unit 700, the sensor data processing unit 703 performs “whole image data”, “partial image data (partial image coordinate data) based on the image data stored in the image data buffer 704. At least one of “including coordinate data” and “coordinate data” is transmitted to the main control unit 800. The whole image data, partial image data, and coordinate data will be described later. The operation of the sensor data processing unit 703 according to the command will be described later.
  • the main control unit 800 controls the operation of each unit included in the data display / sensor device 100.
  • the main control unit 800 reads out various programs stored in the storage unit 901, controls each unit of the data display / sensor device 100, and realizes various functions provided in the data display / sensor device 100.
  • the main control unit 800 transmits a command and display data to the data processing unit 700 so that the display data is displayed on the sensor built-in liquid crystal panel 301 or the object is scanned on the sensor built-in liquid crystal panel 301. To do.
  • data type is designated as a command
  • at least one of whole image data, partial image data, and coordinate data is received from the data processing unit 700 as a response to the command.
  • the circuit control unit 600, the data processing unit 700, and the main control unit 800 can be configured by a CPU (Central Processing Unit) and a memory, respectively.
  • the data processing unit 700 may be configured by a circuit such as an ASIC (application specific circuit).
  • the storage unit 901 executes (1) a control program for each unit, (2) an OS program, (3) an application program, and (4) various data read when executing these programs. Is to be recorded.
  • the storage unit 901 is configured by a nonvolatile storage device such as a flash memory. Note that the storage unit 901 also includes an API (Application Programming Interface) for the application program to use the function of the OS and a driver for communicating with various devices.
  • API Application Programming Interface
  • the primary storage unit 902 is configured by a volatile storage device such as a RAM (Random Access Memory), and the main control unit 800 temporarily stores data in the course of executing the various programs described above. Used as a work area.
  • a volatile storage device such as a RAM (Random Access Memory)
  • the main control unit 800 temporarily stores data in the course of executing the various programs described above. Used as a work area.
  • the operation unit 903 receives an input operation of the user of the data display / sensor device 100.
  • the operation unit 903 includes input devices such as a switch, a remote controller, a mouse, and a keyboard, for example. Then, the operation unit 903 generates a control signal corresponding to the user's input operation of the data display / sensor device 100, and transmits the generated control signal to the main control unit 800.
  • a hardware switch such as a power switch 905 that switches power on and off and a user switch 906 to which a predetermined function is assigned in advance is assumed.
  • the data display / sensor device 100 includes an external communication unit 907 for communicating with an external device by wireless / wired communication, an audio output unit 908 such as a speaker for outputting audio, and a microphone for inputting an audio signal.
  • a voice input unit 909 such as the above may be provided as appropriate.
  • FIG. 5 is a diagram schematically illustrating an example of a command frame structure.
  • FIG. 6 is a diagram for explaining an example of values that can be specified for each field included in the command and an outline thereof.
  • the commands are “header”, “data acquisition timing”, “data type”, “scan method”, “scan image gradation”, “scan resolution”, “scan panel”, “display panel”.
  • “And” Reserve "fields. In each field, for example, values shown in FIG. 6 can be designated.
  • Header field indicates the start of a frame. As long as it is possible to identify the “header” field, the value of the “header” field may be any value.
  • the “data acquisition timing” field is a field for designating a timing at which data should be transmitted to the main control unit 800.
  • the “data acquisition timing” field for example, values “00” (sense), “01” (event), and “10” (all) can be specified.
  • “sense” specifies that the latest data is sent immediately. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “sense”, the latest data specified in the “data type” field is immediately updated to the main control unit 800. Send to.
  • “event” designates transmission at a timing when a change occurs in image data received from the sensor control unit 602. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “event”, the image that receives the data specified in the “data type” field from the sensor control unit 602. The data is transmitted to the main control unit 800 at a timing when a change larger than a predetermined threshold occurs.
  • “All” specifies that data is transmitted at a predetermined cycle. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “all”, the data designated in the “data type” field is transferred to the main control unit 800 at a predetermined cycle. Send to.
  • the predetermined period coincides with the period in which the optical sensor circuit 32 performs scanning.
  • the “data type” field is a field for designating the type of data acquired from the sensor data processing unit 703.
  • values of “001” (coordinates), “010” (partial image), and “100” (entire image) can be specified.
  • “coordinates” and “partial image” / “whole image” can be specified simultaneously. For example, when “coordinate” and “partial image” are specified at the same time, “011” can be specified.
  • the sensor data processing unit 703 When the sensor data processing unit 703 receives a command whose value of the “data type” field is “whole image”, the sensor data processing unit 703 transmits the image data itself stored in the image data buffer 704 to the main control unit 800.
  • the image data itself stored in the image data buffer 704 is referred to as “whole image data”.
  • the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 selects a portion where a change larger than a predetermined threshold has occurred from the image data received from the sensor control unit 602. A region to be included is extracted, and image data of the extracted region is transmitted to the main control unit 800.
  • the image data is referred to as “partial image data”.
  • the sensor data processing unit 703 transmits each extracted partial image data to the main control unit 800.
  • the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 detects representative coordinates in the partial image data and indicates the position of the representative coordinates in the partial image data.
  • the coordinate data is transmitted to the main control unit 800.
  • the representative coordinates include, for example, the coordinates of the center of the partial image data, the coordinates of the center of gravity of the partial image data, and the like.
  • the sensor data processing unit 703 transmits coordinate data indicating the position of the representative coordinate in the entire image data to the main control unit 800.
  • the sensor data processing unit 703 detects representative coordinates in the entire image data of the extracted partial image data, and the coordinate data indicating the representative coordinates is detected. Each is transmitted to the main control unit 800 (multi-point detection).
  • the “scan method” field is a field for designating whether or not the backlight 307 is turned on at the time of executing the scan.
  • the “scan method” field for example, values of “00” (reflection), “01” (transmission), and “10” (reflection / transmission) can be designated.
  • “Reflection” specifies that scanning is performed with the backlight 307 turned on. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “reflection”, the sensor data processing unit 703 performs sensor control so that the optical sensor driving circuit 305 and the backlight driving circuit 308 operate in synchronization. An instruction is given to the unit 602 and the backlight control unit 603.
  • Transmission specifies that scanning is performed with the backlight 307 turned off. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “transparent”, the sensor control unit 602 operates the optical sensor driving circuit 305 and does not operate the backlight driving circuit 308. Instructions to the backlight control unit 603. Note that “reflection / transmission” specifies that scanning is performed using both “reflection” and “transmission”.
  • the “scanned image gradation” field is a field for designating the gradation of the partial image data and the entire image data.
  • values of “00” (binary) and “01” (multivalue) can be designated.
  • the sensor data processing unit 703 When the sensor data processing unit 703 receives a command whose “scan image gradation” field value is “binary”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as monochrome data. .
  • the sensor data processing unit 703 When the sensor data processing unit 703 receives a command whose “scanned image gradation” field value is “multivalued”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as multitone data. To do.
  • the “scan resolution” field is a field for designating the resolution of the partial image data and the entire image data.
  • “resolution” field for example, values of “0” (high) and “1” (low) can be designated.
  • “High” designates a high resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “high”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 with high resolution. For example, it is desirable to designate “high” for image data (image data such as a fingerprint) to be subjected to image processing such as image recognition.
  • “Low” designates a low resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “low”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 at a low resolution. For example, it is desirable to designate “low” for image data (such as touched finger or hand image data) that only needs to be recognized.
  • the “scan panel” field is a field for designating which display / light sensor unit 300 is to scan the object.
  • the “scan panel” field for example, values of “001” (first display / light sensor unit 300) and “010” (second display / light sensor unit 300) can be designated. By adding these values, a plurality of display / light sensor units 300 can be specified at the same time. For example, when the first and second display / light sensor units 300 are specified at the same time, “011” can be specified.
  • the sensor data processing unit 703 controls the light sensor driving circuit 305 and the backlight driving circuit 308 of the display / light sensor unit 300 specified in the “scan panel” field of the received command. An instruction is given to 602 and the backlight control unit 603.
  • the “display panel” field is a field for designating which display / light sensor unit 300 displays the display data.
  • the “scanned image gradation” field for example, values of “001” (first display / light sensor unit 300) and “010” (second display / light sensor unit 300) can be designated.
  • a plurality of display / light sensor units 300 can be specified at the same time. For example, when the first and second display / light sensor units 300 are specified at the same time, “011” can be specified.
  • the display data processing unit 701 when the display data processing unit 701 receives a command whose value of the “display panel” field is the first display / light sensor unit 300, the display data processing unit 701 displays the display data on the first display / light sensor unit 300. Therefore, an instruction is given to the display control unit 601 and the backlight control unit 603 so as to control the liquid crystal panel driving circuit 304 and the backlight driving circuit 308 of the display / light sensor unit 300.
  • the data display / sensor device 100 has a single display / light sensor unit 300. Therefore, when scanning, a command specifying “first display / light sensor unit (001)” as the value of the “scan panel” field, and when displaying data, the value of the “display panel” field Assume that the commands specifying “first display / light sensor unit (001)” are transmitted to the data processing unit 700, respectively.
  • the “reserved” field is a field that is appropriately specified when it is necessary to further specify information other than information that can be specified in the above-described fields.
  • an application executed by the main control unit 800 does not need to use all the above-described fields when transmitting a command, and an invalid value (such as a NULL value) may be set for a field that is not used. .
  • a command specifying “coordinate” in the “data type” field is transmitted to the data processing unit 700. Therefore, it is desirable to specify “all” in the “data acquisition timing” field of the command to acquire coordinate data. Further, since it is only necessary to acquire coordinate data of the touched position, the scanning accuracy may not be high. Therefore, “low” may be specified as the value of the “resolution” field of the command.
  • coordinate is specified in the “data type” field of the command, for example, when the user touches the sensor built-in liquid crystal panel 301 with a plurality of fingers or pens at the same time, the coordinate data of the touched position is used. Can be acquired (multi-point detection).
  • a command specifying “whole image” in the “data type” field is transmitted to the data processing unit 700. Since it is common to perform a scan in a stationary state, it is not necessary to periodically perform the scan. Therefore, in this case, it is desirable to designate “sense” or “event” in the “data acquisition timing” field.
  • the scanning accuracy is high so that the user can easily read the characters. Therefore, it is desirable to designate “high” in the “resolution” field.
  • the image data shown in FIG. 7A is image data obtained as a result of scanning the entire sensor built-in liquid crystal panel 301 when the object is not placed on the sensor built-in liquid crystal panel 301.
  • the image data shown in FIG. 7B is image data obtained as a result of scanning the entire sensor-equipped liquid crystal panel 301 when the user touches the sensor-equipped liquid crystal panel 301 with a finger.
  • the amount of light received by the photosensor circuit 32 in the vicinity of the touch changes, so that the voltage output from the photosensor circuit 32 changes, and as a result, In the image data generated by the sensor control unit 602, the brightness of the pixel value of the portion touched by the user changes.
  • the brightness of the pixel value of the portion corresponding to the user's finger is higher than the image data shown in FIG.
  • the smallest rectangular area (area PP) that includes all pixel values whose lightness changes more than a predetermined threshold is “partial image data”.
  • the image data indicated by the area AP is “whole image data”.
  • the coordinate data in the entire image data (area AP) of the representative coordinates Z of the partial image data (area PP) is (Xa, Ya), and the coordinate data in the partial image data (area PP) is (Xp, Yp). It is.
  • FIG. 8 is a block diagram showing the main part of the display / light sensor unit 300, particularly the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309.
  • the sensor built-in liquid crystal panel 301 includes a pixel circuit 31 for setting light transmittance (brightness), and an optical sensor circuit 32 that outputs a voltage corresponding to the intensity of light received by itself.
  • the pixel circuit 31 is a generic term for the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b corresponding to the red, green, and blue color filters, respectively.
  • the m pixel circuits 31 are arranged in the column direction (vertical direction) and 3n in the row direction (horizontal direction) on the sensor built-in liquid crystal panel 301.
  • a set of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b is continuously arranged in the row direction (lateral direction). This set forms one pixel.
  • the high level voltage (TFT 33 is turned on) to the scanning signal line Gi connected to the gate terminal of the TFT (Thin FilmTransistor) 33 included in the pixel circuit 31. Voltage). Thereafter, a predetermined voltage is applied to the data signal line SRj connected to the source terminal of the TFT 33 of the R pixel circuit 31r.
  • the light transmittance is also set for the G pixel circuit 31g and the B pixel circuit 31b. Then, by setting these light transmittances, an image is displayed on the sensor built-in liquid crystal panel 301.
  • the optical sensor circuit 32 is arranged for each pixel.
  • One pixel may be arranged in the vicinity of each of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b.
  • connection node V the voltage at the connection point between the other electrode of the capacitor 35 and the cathode terminal of the photodiode 36 decreases.
  • the power supply voltage VDD When the power supply voltage VDD is applied to the voltage application line SDj connected to the drain terminal of the sensor preamplifier 37, the voltage at the connection node V is amplified and output from the source terminal of the sensor preamplifier 37 to the sensing data output line SPj. Based on the output voltage, the amount of light received by the optical sensor circuit 32 can be calculated.
  • liquid crystal panel drive circuit 304 the optical sensor drive circuit 305, and the sensor output amplifier 44, which are peripheral circuits of the sensor built-in liquid crystal panel 301, will be described.
  • the liquid crystal panel driving circuit 304 is a circuit for driving the pixel circuit 31, and includes a scanning signal line driving circuit 3041 and a data signal line driving circuit 3042.
  • the scanning signal line drive circuit 3041 Based on the timing control signal TC1 received from the display control unit 601, the scanning signal line drive circuit 3041 sequentially selects one scanning signal line from the scanning signal lines G1 to Gm for each line time, A high level voltage is applied to the selected scanning signal line, and a low level voltage is applied to the other scanning signal lines.
  • the data signal line driver circuit 3042 Based on the display data D (DR, DG, and DB) received from the display controller 601, the data signal line driver circuit 3042 generates a predetermined voltage corresponding to the display data for one row for each line time.
  • the data signal lines SR1 to SRn, SG1 to SGn, and SB1 to SBn are applied (line sequential method). Note that the data signal line driver circuit 3042 may be driven by a dot sequential method.
  • the optical sensor driving circuit 305 is a circuit for driving the optical sensor circuit 32. Based on the timing control signal TC2 received from the sensor control unit 602, the optical sensor driving circuit 305 applies a predetermined sensor read signal line to each sensor read signal line selected from the sensor read signal lines RW1 to RWm for each line time. A read voltage is applied, and a voltage other than a predetermined read voltage is applied to the other sensor read signal lines. Similarly, based on the timing control signal TC2, a predetermined reset voltage is applied to the sensor reset signal line selected from the sensor reset signal lines RS1 to RSm for each line time, and the others. A voltage other than a predetermined reset voltage is applied to the sensor reset signal line.
  • the sensing data output signal lines SP1 to SPn are grouped into p groups (p is an integer of 1 to n), and the sensing data output signal lines belonging to each group are connected via a switch 47 that is sequentially turned on in time division. And connected to the sensor output amplifier 44.
  • the sensor output amplifier 44 amplifies the voltage from the group of sensing data output signal lines connected by the switch 47 and outputs the amplified voltage to the signal conversion circuit 306 as sensor output signals SS (SS1 to SSp).
  • each unit of the main control unit 800 transmits a command to the data processing unit 700, and the data processing unit 700 controls the circuit control unit 600 based on the command. Then, the circuit control unit 600 transmits a signal to the display / light sensor unit 300. Further, the main control unit 800 acquires the entire image data and the like from the data processing unit 700 as a response to the command transmitted to the data processing unit 700.
  • FIG. 1 is a block diagram showing a more detailed configuration of the main control unit 800, the storage unit 901, and the primary storage unit 902 of the data display / sensor device 100.
  • the main control unit 800 includes a browser processing unit (window display control unit, source code acquisition unit, image transmission unit) 11, an API processing unit (coordinate conversion unit) 12, and a driver processing unit (image acquisition unit, Image storage means) 15.
  • a browser processing unit window display control unit, source code acquisition unit, image transmission unit
  • an API processing unit coordinate conversion unit
  • driver processing unit image acquisition unit, Image storage means
  • the browser processing unit 11 reads and executes a program of the browser W stored in a browser storage unit 21 to be described later. Then, the browser W executed by the browser processing unit 11 requests the external server 1000 to acquire the source H describing the read page CP via the external communication unit 907, and receives the response from the external server 1000 as a response. The source H is received. Then, based on the received source H, a display API is called to display the read page CP.
  • the display API is executed by the display API processing unit 13 described later, and is an API for communicating with a display driver described later.
  • the browser W executed by the browser processing unit 11 is a generally known WWW browser (Internet Explorer etc.) except that the function is expanded so that the above-described scan tag ST can be interpreted. Since what is necessary is just to have the function to comprise, description is abbreviate
  • the timing for acquiring the source H from the external server 1000 is not particularly limited, and may be, for example, when the user inputs a URL indicating the location of the source H to the browser W, or the browser W You may get it when you start.
  • the browser W executed by the browser processing unit 11 receives an instruction (such as pressing a button) for reading the object from the user, the browser W calls a reading API to read the object.
  • the browser W acquires the client coordinates of the reading area RA described in the source H, and calls the reading API using the acquired client coordinates as an argument.
  • the reading API is executed by the reading API processing unit 14 described later, and is an API for communicating with a reading driver described later.
  • the browser W executed by the browser processing unit 11 receives, as a response (return value) from the called reading API, information that can specify an address in the read image storage unit 24 described later. Note that a read image CG is stored in the address of the read image storage unit 24 as described later. Then, the browser W reads the read image CG stored at the address specified based on the received information, and transmits the read image CG thus read to the external server 1000 via the external communication unit 907. .
  • the API processing unit 12 reads and executes a display API and a reading API stored in an API storage unit 22 to be described later.
  • the display API and the reading API are APIs for the browser W to read the function of the OS program.
  • the API processing unit 12 includes a display API processing unit 13 and a reading API processing unit 14.
  • the display API processing unit 13 reads the display API from the API storage unit 22 and executes it.
  • the display API processing unit 13 executes the display API. Then, the display API further calls a display driver to display the read page CP.
  • the display driver is a driver program that is executed by the display driver processing unit 16 to be described later and that communicates with the data processing unit 700.
  • the reading API processing unit 14 reads the reading API from the API storage unit 22 and executes it. When the browser W calls the reading API to read the object, the reading API processing unit 14 executes the reading API.
  • the reading API first converts the client coordinates of the reading area RA specified as an argument at the time of calling into desktop coordinates. Then, in order to read the object, a reading driver is called. At this time, the reading API calls the reading driver using the converted desktop coordinates of the reading area RA as an argument.
  • the reading driver is a driver program that is executed by the reading driver processing unit 17 to be described later and that communicates with the data processing unit 700.
  • the reading API receives information that can identify the address in the read image storage unit 24 as a response (return value) from the above-described reading driver. Then, the reading API transmits the received information as a return value to the browser W that is the calling source.
  • the driver processing unit 15 reads and executes a display driver and a reading driver stored in a driver storage unit 23 described later.
  • the driver processing unit 15 includes a display driver processing unit 16 and a reading driver processing unit 17.
  • the display driver processing unit 16 reads out a display driver from the driver storage unit 23 and executes it.
  • the display API calls the display driver to display the read page CP
  • the display driver processing unit 16 executes the display driver.
  • the display driver generates display data so that the read page CP is displayed on the sensor built-in liquid crystal panel 301, and transmits the generated display data to the data processing unit 700.
  • the display driver transmits a command specifying “001” (first display / light sensor unit) as the value of the “display panel” field to the data processing unit 700.
  • the reading driver processing unit 17 reads out a reading driver from the driver storage unit 23 and executes it.
  • the reading driver processing unit 17 executes the reading driver. Then, the reading driver generates a command to cause the sensor built-in liquid crystal panel 301 to read the object, and transmits the generated command to the data processing unit 700.
  • the value of the “data acquisition timing” field is “01” (event)
  • the value of the “data type” field is “100” (entire image)
  • the value of the “scan method” field is “00” (reflection)
  • the value of the “scanned image gradation” field is “01” (multi-value)
  • the value of the “scan resolution” field is “0” (high)
  • the value of the “scan panel” field is “001” (first display / light sensor) Part).
  • the value of the “data type” field designates “100” (entire image).
  • the value of the “scanned image gradation” field is “01” (multi-value), “scan”
  • the value of the “Resolution” field is preferably designated as “0” (high).
  • the reading driver acquires the entire image from the data processing unit 700 as a result of causing the sensor built-in liquid crystal panel 301 to execute reading by the above command. Then, using the desktop coordinates of the reading area RA specified as the argument at the time of calling, a process of extracting the read image CG from the acquired whole image is performed.
  • the reading driver stores the extracted reading image CG in the reading image storage unit 24, and returns information that can identify the address where the reading image CG is stored in the reading API that is the caller. Send as.
  • the storage unit 901 includes a browser storage unit 21, an API storage unit 22, and a driver storage unit 23.
  • the browser storage unit 21 stores the program of the browser W so that it can be read.
  • the API storage unit 22 stores the display API and the reading API in a readable manner.
  • the driver storage unit 23 stores the display driver and the reading driver in a readable manner.
  • the primary storage unit 902 includes a read image storage unit 24.
  • the read image storage unit 24 stores a read image CG stored by a read driver executed by the read driver processing unit 17.
  • the read image CG only needs to be stored for at least the period until it is read by the browser W executed by the browser processing unit 11. Therefore, for the purpose of improving security, it may be deleted immediately after being read by the browser W.
  • the data display / sensor device 100 reads an image of the object placed in the area where the reading area RA is displayed, and sends it to an external server.
  • An example of a flow for performing character recognition processing on the read image will be described.
  • FIG. 16 shows that the data display / sensor device 100 according to the present embodiment reads an image of an object placed in the area where the reading area RA is displayed, and displays the read image on the external server. It is a flowchart which shows the flow which performs a character recognition process with respect to.
  • step S11 when the user instructs acquisition of the read page CP by inputting the URL indicating the location of the source H describing the read page CP into the browser W (step S11), the browser executed by the browser processing unit 11 is executed. W requests the external server 1000 to acquire the source H via the external communication unit 907 (step S12). Then, the external server 1000 transmits the source H in response to the request (step S13).
  • the browser W calls a display API to display the read page CP based on the received source H (step S14).
  • the display API processing unit 13 executes the display API.
  • the display API further calls a display driver (step S15).
  • the display driver processing unit 16 executes the display driver. Then, the display driver generates display data so that the read page CP is displayed on the sensor built-in liquid crystal panel 301, transmits the generated display data to the data processing unit 700, and sets the value as the value of the “display panel” field. A command designating “001” (first display / light sensor unit) is transmitted to the data processing unit 700 (step S16).
  • the data processing unit 700 controls the circuit control unit 600 based on the display data and the command, and the circuit control unit 600 transmits a signal to the display / light sensor unit 300, whereby the reading page CP is built in the sensor.
  • the image is displayed on the liquid crystal panel 301 (step S17).
  • the user places the business card C, which is the object, on the area on the sensor built-in liquid crystal panel 301 where the reading area RA is displayed (step).
  • the browser W acquires the client coordinates of the reading area RA described in the source H.
  • the reading API is called using the acquired client coordinates as an argument (step S20).
  • the reading API processing unit 14 executes the reading API.
  • the reading API converts the client coordinates of the reading area RA specified as an argument at the time of calling into desktop coordinates, and then calls the reading driver using the desktop coordinates as an argument (step S21).
  • the reading driver processing unit 17 executes the reading driver. Then, the reading driver generates a command to cause the sensor built-in liquid crystal panel 301 to read the object, and transmits the generated command to the data processing unit 700 (step S22).
  • the fields of the command to be generated are as described above. In particular, in order to acquire the entire image from the data processing unit 700, the value of the “data type” field designates “100” (entire image).
  • the data processing unit 700 controls the circuit control unit 600 based on the above command, and the circuit control unit 600 transmits a signal to the display / light sensor unit 300, thereby reading by the sensor built-in liquid crystal panel 301. Execute. Then, the data processing unit 700 generates an entire image as a result of the reading, and transmits it to the reading driver (step S23).
  • the reading driver When the reading driver acquires the entire image from the data processing unit 700, the reading driver extracts the reading image CG from the acquired entire image using the desktop coordinates of the reading area RA specified as the argument at the time of calling. Perform processing.
  • the extracted read image CG is stored in the read image storage unit 24, and information that can identify the address where the read image CG is stored is transmitted as a return value to the reading API that is the caller ( Step S24).
  • the reading API when the reading API receives the information that can identify the address from the reading driver, the reading API further transmits the received information as a return value to the browser W that is a caller (step S25).
  • the browser W When the browser W receives the information that can identify the address from the reading API, the browser W reads the read image CG stored at the address specified based on the received information, and reads the read image CG. Is transmitted to the external server 1000 via the external communication unit 907 (step S26).
  • the external server 1000 When the external server 1000 receives the image from the browser W, the external server 1000 stores the received read image CG in the storage unit 1030 (step S27), and activates the character recognition application to generate a character from the stored read image CG. Is recognized (step S28).
  • [Modification] Conversion between the coordinate system of the display surface of the liquid crystal panel 301 with a sensor and the coordinate system of the reading surface
  • the resolution of the display surface of the sensor built-in liquid crystal panel 301 and the resolution of the reading surface are not necessarily the same.
  • the resolution of the display surface may be 1024 ⁇ width 768
  • the resolution of the reading surface may be 2048 ⁇ width 1536, which is twice the resolution of the display surface.
  • the resolution of the display surface is vertical 1024 ⁇ horizontal 768
  • the reading area RA on the display surface is a rectangular region surrounded by coordinates (x1d, y1d) and coordinates (x2d, y2d).
  • the resolution of the reading surface is 2048 ⁇ width 1536
  • the area corresponding to the reading area RA in the image read on the entire reading surface has coordinates (x1s, y1s) and coordinates (x2s, y2s). It is assumed that it is a rectangular area surrounded by.
  • the coordinates (x1s, y1s) and the coordinates (x2s, y2s) can be obtained by converting from the coordinates (x1d, y1d) and the coordinates (x2d, y2d) as in the following equation.
  • the conversion process may be performed by a reading API or may be performed by a reading driver.
  • the browser W executed by the browser processing unit 11 acquires the client coordinates of the reading area RA
  • the reading API executed by the reading API processing unit 14 sets the client coordinates of the reading area RA.
  • the reading driver executed by the reading driver processing unit 17 generates a command for causing the sensor built-in liquid crystal panel 301 to read the object.
  • the operation subject that executes is not limited to this.
  • the operating subject that converts client coordinates into desktop coordinates may be the browser W or a reading driver.
  • the coordinate conversion process is performed by a reading API or a reading driver located in a lower layer.
  • the reading driver executed by the reading driver processing unit 17 extracts the reading image CG from the entire image and stores it in the reading image storage unit 24, and (5) the browser processing unit 11 executes it.
  • the browser W that reads the read image CG from the read image storage unit 24 is configured to read the read image CG, but the operating subject that executes each process is not limited to this.
  • the operation subject that extracts the read image CG from the entire image may be the reading API or the browser W.
  • the main control unit 800 is configured by the three layers of the browser processing unit 11, the API processing unit 12, and the driver processing unit 15.
  • the API processing unit 12 and the driver processing unit 15 may be configured as two members as a whole, or the browser processing unit 11, the API processing unit 12, and the driver processing unit 15 may be configured as one member. It is good also as a structure which consists of one layer as a whole.
  • the source H of the read page CP is described using HTML that can describe the scan tag ST.
  • the user displays the browser W with the expanded function as a data display / sensor. This is effective in that the system 1100 can be used only by installing it in the apparatus 100.
  • the read page CP may be described using a script language such as Java (registered trademark) Script.
  • a script language such as Java (registered trademark) Script.
  • the user displays the data of the expanded function of the browser W. / It is effective in that the system 1100 can be used only by being installed in the sensor device 100.
  • the reading page CP may be realized by a plug-in that performs display and reading instructions. In this case, it is effective in that it is not necessary to extend the specifications of the HTML standard and script language as described above, and it is not necessary to extend the function of the browser W.
  • the user needs to install the above plug-in. Further, the provider of the read page CP needs to create a read page CP that calls the plug-in at the time of execution.
  • the entire reading area is not displayed so as to be visible
  • the scroll bar of the browser W or the size of the browser W is reduced, the entire range of the client area CA may not be displayed. In such a case, it is desirable to prompt the user to display the entire range of the reading area RA.
  • FIG. 17 is a schematic diagram illustrating an example of a message presented when the entire reading area RA is not displayed so as to be visible.
  • the message MS is displayed to prompt the user to display the entire reading area RA.
  • the external server 1000 is not configured to transmit a response to the reception of the read image CG to the data display / sensor device 100, but transmits the response to the data display / sensor device 100.
  • the data display / sensor device 100 may display the content of the response. Thereby, the user of the data display / sensor device 100 can confirm that the processing is completed in the external server 1000 and whether or not the processing expected by the user has been executed.
  • the content of the response may be, for example, a message including that the external server 1000 has received the read image CG, or a screen that displays the read image CG received by the external server 1000.
  • the screen may display a character recognized by the character recognition application.
  • the sensor built-in liquid crystal panel 301 is always configured to detect a nearby image over the entire reading surface.
  • the configuration may be such that reading is performed only in the area).
  • the main control unit 800 transmits a command including information specifying a predetermined area on the reading surface of the sensor built-in liquid crystal panel 301 to the data processing unit 700, and the data processing unit 700 further transmits the command.
  • the circuit control unit 600 may be controlled based on this, and the circuit control unit 600 may transmit a signal to the display / light sensor unit 300 according to the control. Further, the main control unit 800 acquires image data read in a predetermined area on the reading surface from the data processing unit 700 as a response to the command transmitted to the data processing unit 700.
  • the predetermined area is an area where the reading area RA is read
  • the image itself acquired from the data processing unit 700 is the read image CG, so that the extraction process by the reading driver is not necessary.
  • Control target of main control unit 800 In the above description, the configuration including the data processing unit 700 and the circuit control unit 600 has been described as the configuration of the data display / sensor device 100, but the configuration is not limited to this configuration.
  • the main control unit 800 may directly control the circuit control unit 600, and the main control unit 800 may generate whole image data / partial image data / coordinate data.
  • the main control unit 800 may directly control the display / light sensor unit 300.
  • the image display / image detection apparatus is an image display / image detection apparatus including a planar member that displays an image and reads an image in the vicinity thereof, and mounts an object.
  • Window display control means for displaying a window including a placement area on the planar member; first area information indicating the placement of the placement area in the window; and the placement of the placement area in the planar member.
  • Coordinate conversion means for converting to second area information; and image acquisition means for acquiring a read image that is an image of a neighboring image of the planar member that is read in an area specified based on the second area information. It has.
  • a control method for an image display / image detection apparatus is a control method for an image display / image detection apparatus that includes a planar member that displays an image and reads an image in the vicinity thereof.
  • a window display control step for displaying a window including a placement area to be placed on the planar member, and first area information indicating the placement of the placement area in the window in the planar member in the placement area.
  • the window is displayed at any position on the display surface, and the placement area is arranged at any position within the window.
  • the position of the placement region in the planar member can be specified. Therefore, the reading area in the planar member can be specified reliably.
  • the first area information is included in a source code that defines content including the placement area displayed on the window.
  • the window display control means may be configured to display the window on the planar member in a state where content including the placement area is arranged in the window according to the source code.
  • the first area information is further included in the source code that defines the content including the placement area, and the content including the placement area is arranged in the window according to the source code.
  • the window can be displayed on the planar member.
  • the arrangement of the content including the placement area in the window can be specified by the source code, and the placement area can be displayed in the window according to the specified source code. Therefore, the image of the object placed on the placement area displayed according to the source code can be read by the planar member.
  • the content provider (source code provider) can create content that provides a function for reading an object without considering the position of the reading region on the planar member. Play.
  • the user can enjoy a service in which the content browsing service and the document reading service are integrated, and the content browsing and the document reading operation can be performed in the same window. As a result, the user's convenience and operability are improved.
  • the image display / image detection apparatus may be configured to further include source code acquisition means for acquiring the source code from the first external device in the above configuration.
  • the source code can be further acquired from the first external device.
  • the image of the object placed on the placement area displayed according to the source code acquired from the first external device can be read by the planar member.
  • the content provider can provide the content including the function for performing the reading on the server device which is the first external device.
  • the content provider can provide the content including the function for performing the above-described reading by an external server device, the content can be constructed as a SaaS application.
  • the image acquisition unit causes the planar member to read an image of the vicinity of the entire planar member, and to read the image.
  • the read image may be acquired by extracting an area specified by the second area information from the image of the image.
  • a read image is acquired by extracting the area
  • an image of the placement area including the image of the target object can be extracted from the image read by the entire planar member. That is, a portion corresponding to an area outside the placement area can be removed from the image read by the entire planar member.
  • the image acquisition unit causes the planar member to read a nearby image in an area specified by the second area information.
  • a configuration may be adopted in which an image of the obtained image is acquired as the read image.
  • an image of an image obtained by causing a planar member to read a nearby image in an area specified by the second area information can be acquired as a read image.
  • the image of the placement area including the image of the object can be acquired as a read image from the planar member.
  • the image display / image detection apparatus may further include an image storage unit that stores the read image acquired by the image acquisition unit in a storage unit of the own apparatus in the configuration described above.
  • the read image can be further stored in the storage unit of the own device.
  • the image of the placement area including the image of the object can be stored in the storage unit of the own device.
  • the image display / image detection apparatus may further include an image transmission unit that transmits the read image acquired by the image acquisition unit to the second external device in the configuration described above.
  • the read image can be further transmitted to the second external device.
  • an image of the placement area including the image of the object can be transmitted to the second external device.
  • a character recognition process is performed on a business card image read by a planar member to recognize characters such as name, address, and mail address included in the business card image, and the recognized character data is recorded in the address book. Processing such as registration in the table can be performed by the server device.
  • the image display / image detection device may be realized by a computer.
  • the image display / image detection device is realized by the computer by operating the computer as each of the above-described means.
  • a control program for the image detection apparatus and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.
  • main control unit 800, the data processing unit 700, and the circuit control unit 600 of the data display / sensor device 100 may be configured by hardware logic, or realized by software using a CPU as follows. Also good.
  • the data display / sensor device 100 includes a CPU (central processing unit) that executes instructions of a control program for realizing each function, a ROM (read only memory) that stores the program, and a RAM (random access that expands the program). memory), a storage device (recording medium) such as a memory for storing the program and various data.
  • An object of the present invention is a record in which a program code (execution format program, intermediate code program, source program) of a control program for the data display / sensor device 100, which is software for realizing the functions described above, is recorded so as to be readable by a computer. This can also be achieved by supplying a medium to the data display / sensor device 100 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).
  • Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R.
  • Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.
  • the data display / sensor device 100 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network.
  • the communication network is not particularly limited.
  • the Internet intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available.
  • the transmission medium constituting the communication network is not particularly limited.
  • infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), IEEE802.11 radio, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used.
  • the present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.
  • the present invention can be applied to an apparatus that performs display processing of an image and the like and reading processing of an object.
  • the present invention can be suitably applied to a PC that can display a Web page with a browser.
  • Browser processing unit (window display control means, source code acquisition means, image transmission means) 12 API processing unit (coordinate conversion means) 13 Display API processing unit 14 Reading API processing unit 15 Driver processing unit (image acquisition unit, image storage unit) 16 Display Driver Processing Unit 17 Reading Driver Processing Unit 24 Read Image Storage Unit (Storage Unit) 100 Data display / sensor device (image display / image detection device) 300 Display / light sensor section 301 Sensor built-in liquid crystal panel (planar member) 700 Data processing unit 800 Main control unit 1000 External server (first external device, second external device) C Business card (object) H source (source code) W Browser (window) CG scanned image CP scanned page (content) RA placement area

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Image Input (AREA)
  • Facsimile Heads (AREA)

Abstract

 画像を表示するとともに、近傍の像を読み取る表示/光センサ部(300)と、対象物を載置する載置領域を含むウィンドウを、表示/光センサ部(300)に表示させるブラウザ処理部(11)と、上記載置領域の上記ウィンドウにおける配置を示す第1領域情報を、上記載置領域の表示/光センサ部(300)における配置を示す第2領域情報に変換するAPI処理部(12)と、表示/光センサ部(300)の、上記第2領域情報に基づいて特定される領域にて読み取られる近傍の像の画像である読み取り画像を取得するドライバ処理部(15)とを備える。

Description

画像表示/像検知装置、制御方法、制御プログラム、および該制御プログラムを記録したコンピュータ読み取り可能な記録媒体
 本発明は、画像の表示および対象物の読み取りを同時に行なうことができる画像表示/像検知装置、制御方法、制御プログラム、および該制御プログラムを記録したコンピュータ読み取り可能な記録媒体に関するものである。
 近年、インターネットの普及により、PC(Personal Computer)などのクライアント装置が、WWW(World Wide Web)ブラウザ等を利用して、サーバ装置からデータを取得(ダウンロード)したり、サーバ装置にデータを送信(アップロード)する技術が広く利用されている。したがって、ユーザは、WWWブラウザを利用して、サーバ装置から所定のWebページ等を取得したり、また、スキャナ装置等にて読み取った原稿の画像等を、サーバ装置に送信することができるようになっている。
 WWWブラウザを利用してクライアント装置からサーバ装置にデータを送信する場合、例えば、図18に示すWebページを用いることが考えられる。図18は、サーバ装置にデータを送信するWebページを表示したWWWブラウザの画面例である。なお、ここでは、サーバ装置に送信するデータとして、スキャナ装置等にて読み取った、名刺の画像を例に挙げて説明する。
 上記Webページは、図示の「送信」ボタンを押下することによって、テキストボックスにて指定した画像を、サーバ装置に送信するように、HTML(HyperText Markup Language)等の言語で記述されている。
 したがって、上記Webページを用いる場合、ユーザは、(1)まず、スキャナ装置等にて名刺の読み取りを行なって、名刺の画像を生成しておき、(2)その後、上記Webページにて、上記生成した画像を指定して、「送信」ボタンを押下する、という操作を行なうことによって、名刺の画像をサーバ装置に送信することができる。
 ところで、従来から、スキャナ機能を備えたクライアント装置が知られている。その中でも、特に、画像の表示と、原稿等の読み取りとを1つの画面にて行なうことができる表示/読取装置がある。具体的には、画像表示のための複数の発光素子と、表示画面に載置された原稿等を読み取るための複数の受光素子とが、同じ画面内に配置された装置である。このような表示/読取装置にWWWブラウザを搭載した場合、ユーザは、原稿等の読み取りと、WWWブラウザを利用した原稿等の画像の送信を、1つの画面で行なうことができる。ただし、この場合でも、ユーザは、原稿等の読み取り操作と、画像の送信操作とをそれぞれ独立に行なうことによって、名刺の画像をサーバ装置に送信することとなる。
 なお、いわゆるWeb技術を用いて、クライアント装置からサーバ装置に対してデータを送信する技術としては、上述した例のほかに、特許文献1および2に開示されている技術がある。
 特許文献1では、HTMLファイルおよびCGI(Common Gateway Interface)プログラムに基づいて、PCや携帯情報端末に保持しているデータを、ファクシミリ装置にアップロードさせる技術が開示されている。また、特許文献2では、サーバ装置から取得したHTML文書に基づいて所定のボタンを表示部に表示するとともに、当該ボタンが押下されると、スキャナ装置によりスキャンされた原稿の画像を、サーバ装置に送信する画像処理装置が開示されている。
日本国公開特許公報「特開2002-132651号公報(公開日:2002年5月10日)」 日本国公開特許公報「特開2005-149320号公報(公開日:2005年6月9日)」
 上述したように、スキャナ装置や、上述した表示/読取装置にて読み取った原稿の画像等をサーバ装置への送信するにあたり、図18を用いて説明したWebページを利用する場合、ユーザは、原稿等の読み取り操作と、WWWブラウザでの送信操作とを、それぞれ個別に行なう必要があった。
 また、上述した表示/読取装置における読取面での原稿等の読み取り機能と、いわゆるWeb技術とは密に連携しておらず、読取面での原稿等の読み取りを行なうWebページ(SaaS(Software as a Service)のアプリケーション)を、サーバ装置にて提供することは容易ではなかった。
 上記の問題点を解決するために、表示面と読取面とが共用されている表示/読取装置において、サーバ装置が提供するWebページを表示したWWWブラウザに載置された原稿等の読み取りを可能にすることが考えられる。そして、読み取った画像をWWWブラウザからサーバ装置に送信することが考えられる。しかしながら、このような技術については、特許文献1および2などには開示されていない。
 本発明は、上記の問題点に鑑みてなされたものであり、その目的は、表示面と読取面とが共用されている装置において、表示位置が固定的でない載置領域を表示するとともに、当該載置領域に載置された対象物の像の読み取りを行なうことができる画像表示/像検知装置、制御方法、制御プログラム、および該制御プログラムを記録したコンピュータ読み取り可能な記録媒体を提供することにある。
 上記課題を解決するために、本発明に係る画像表示/像検知装置は、画像を表示するとともに、近傍の像を読み取る面状部材を備える画像表示/像検知装置であって、対象物を載置する載置領域を含むウィンドウを、上記面状部材に表示させるウィンドウ表示制御手段と、上記載置領域の上記ウィンドウにおける配置を示す第1領域情報を、上記載置領域の上記面状部材における配置を示す第2領域情報に変換する座標変換手段と、上記面状部材の、上記第2領域情報に基づいて特定される領域にて読み取られる近傍の像の画像である読み取り画像を取得する画像取得手段とを備える。
 また、本発明に係る画像表示/像検知装置の制御方法は、画像を表示するとともに、近傍の像を読み取る面状部材を備える画像表示/像検知装置の制御方法であって、対象物を載置する載置領域を含むウィンドウを、上記面状部材に表示させるウィンドウ表示制御ステップと、上記載置領域の上記ウィンドウにおける配置を示す第1領域情報を、上記載置領域の上記面状部材における配置を示す第2領域情報に変換する座標変換ステップと、上記面状部材の、上記第2領域情報に基づいて特定される領域にて読み取られる近傍の像の画像である読み取り画像を取得する画像取得ステップとを含む。
 上記の構成によれば、対象物を載置する載置領域を含むウィンドウを、面状部材に表示させることができる。そして、載置領域のウィンドウにおける配置を示す第1領域情報を、載置領域の面状部材における配置を示す第2領域情報に変換することができる。そして、面状部材の第2領域情報に基づいて特定される領域にて読み取られる近傍の像の画像である読み取り画像を取得することができる。
 よって、第1領域情報から第2領域情報を得ることができるため、ウィンドウが表示面のいかなる位置に表示されていても、また、載置領域がウィンドウ内のいかなる位置に配置されていても、載置領域の面状部材における読み取り位置を特定することができる。
 したがって、ウィンドウの載置領域に載置した対象物の画像を、面状部材にて確実に読み取ることができるという効果を奏する。つまり、面状部材における表示位置が固定的でない載置領域に載置した対象物の画像を、面状部材にて確実に読み取ることができるという効果を奏する。
 本発明の他の目的、特徴、および優れた点は、以下に示す記載によって十分分かるであろう。また、本発明の利点は、添付図面を参照した次の説明で明白になるであろう。
本発明の一実施形態に係るデータ表示/センサ装置の詳細構成を示すブロック図である。 本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルの断面を示す模式図である。 本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルにて反射像を検知することにより、対象物の画像を検出する様子を示す模式図である。 本発明の一実施形態に係るデータ表示/センサ装置の要部構成を示すブロック図である。 本発明の一実施形態に係るデータ表示/センサ装置で用いられるコマンドのフレーム構造の一例を示す模式図である。 図5に示したコマンドに含まれる各フィールドに指定可能な値の一例、および、その概要を示す説明図である。 同図の(a)は、本発明の一実施形態に係るデータ表示/センサ装置にて、対象物がセンサ内蔵液晶パネル上に置かれていないときに、センサ内蔵液晶パネル全体をスキャンした結果として得られる画像データである。同図の(b)は、本発明の一実施形態に係るデータ表示/センサ装置にて、ユーザが指でセンサ内蔵液晶パネルをタッチしているときに、スキャンした結果として得られる画像データである。 本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルの構成およびその周辺回路の構成を示すブロック図である。 本発明の一実施形態に係るデータ表示/センサ装置を含むシステムの概略構成を示す模式図である。 同図の(a)は、対象物である名刺の表面を示した説明図である。同図の(b)は、対象物である名刺の裏面を示した説明図である。 本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルの表示面の全体であるデスクトップ領域上に、OSプログラムのデスクトップ画面とアプリケーションプログラムであるブラウザとが重畳表示されており、さらに、ブラウザのクライアント領域に、外部サーバから取得したソースHに基づいて、読み取りページが表示されている様子を示す模式図である。 本発明の一実施形態に係るデータ表示/センサ装置が処理するソースHの記述例を示す模式図である。 図11に示した状態において、ユーザが、読み取り領域に名刺を載置した様子を示す模式図である。 読み取り領域に載置された名刺の表面の画像を、本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルにて読み取った結果として生成される画像を示す模式図である。 デスクトップ領域と、クライアント領域と、読み取り領域との位置関係を示す模式図である。 本発明の一実施形態に係るデータ表示/センサ装置が、読み取り領域が表示されている領域に載置された対象物の画像の読み取りを行なうとともに、外部サーバにて当該読み取った画像に対して文字認識処理を行なう流れを示すフローチャートである。 本発明の一実施形態に係るデータ表示/センサ装置において、読み取り領域の全体が視認可能に表示されていないときに提示するメッセージの一例を示す模式図である。 サーバ装置にデータを送信するWebページを表示したWWWブラウザの画面例である。
 本発明の一実施形態について、図1から図17に基づいて説明すると以下の通りである。
 本実施形態に係るデータ表示/センサ装置(画像表示/像検知装置)100は、概略的に言えば、画像などのデータを表示するとともに、近傍の像を検知することができるセンサ内蔵液晶パネル(面状部材)301(後述する)を備えており、センサ内蔵液晶パネル301にて画像を表示している状態で、センサ内蔵液晶パネル301の近傍にある対象物の画像の読み取りを行なうことができる装置である(図4参照)。
 なお、対象物とは、センサ内蔵液晶パネル301にて像を読み取る対象となる物体を指している。より具体的には、文字や画像などが記された文書などであり、書籍、カード、チラシ、各種資料などが対象物に該当するが、ここでは特に、氏名、住所、メールアドレスなどが記された名刺Cを想定している。なお、対象物の像の読み取りを、以下では、スキャンとも称する。
 (各装置の概略構成)
 図9を参照しながら、本実施形態に係るデータ表示/センサ装置100、および、外部サーバ(第1外部装置、第2外部装置)1000を含むシステム1100の概略構成を説明する。図9は、当該システム1100の概略構成を示す模式図である。データ表示/センサ装置100および外部サーバ1000は、一般的に知られている通信ネットワーク1120にて接続されており、HTTP(HyperText Transfer Protocol)等の一般的に知られている通信プロトコルを用いて、相互に通信可能であるものとする。
 データ表示/センサ装置100は、HTMLで記述されたWebページのソースコード(以下、ソースHと表記する)を、外部サーバ1000に要求する機能を備えるPCなどのクライアント端末である。そして、データ表示/センサ装置100は、外部サーバ1000から取得したソースHに基づいて、WWWブラウザ(ウィンドウ)を用いてWebページを表示する。
 なお、以下では、WWWブラウザをブラウザWと表記する。ブラウザWは、データ表示/センサ装置100のOS(operating system)プログラムによって、センサ内蔵液晶パネル301に表示される。なお、ブラウザWの表示位置および表示サイズは、ユーザの操作等によって変更可能であり、固定的ではないものとする。
 ここで、上記ソースHは、(1)対象物を載置する範囲を示す領域(載置領域)であるとともに、(2)センサ内蔵液晶パネル301の読取面の全体にて読み取った画像から、読み取り結果としての画像(後述する読み取り画像CG)を抽出する範囲を示す領域(以下、読み取り領域RAと表記する)を、Webページ(コンテンツ)上に表示するように記述されているものとする。さらに、ユーザの指示に応じて、センサ内蔵液晶パネル301の読取面にて近傍の像の画像を読み取る指示を行なうとともに、読み取り画像CGを外部サーバ1000に送信することが記述されているものとする。なお、これらの記述は、後述するscanタグSTなどのタグを用いて記述される。
 したがって、データ表示/センサ装置100が、外部サーバ1000から取得したソースHに基づいて表示するWebページには、読み取り領域RAが表示される。さらに、データ表示/センサ装置100は、センサ内蔵液晶パネル301の読取面の全体にて読み取った画像のうち、読み取り領域RAが読み取られている領域を、読み取り画像CGとして抽出する。そして、当該抽出した読み取り画像CGを、ブラウザWを介して、外部サーバ1000へ送信する(より具体的には、HTTPのPOSTメソッドを使用して送信する)。なお、以下では、読み取り領域RAが表示される上記Webページを、読み取りページCPと表記する。
 一方、外部サーバ1000は、データ表示/センサ装置100からの要求に応じて、データ表示/センサ装置100にソースHを提供する機能を備えているサーバ装置である。また、外部サーバ1000は、各種データを記憶する記憶部1030を備えている。各種データとは、例えば、データ表示/センサ装置100に提供するソースHや、データ表示/センサ装置100から送信される読み取り画像CGなどである。
 なお、外部サーバ1000では、データ表示/センサ装置100から送信される読み取り画像CGに対して所定の処理を施すアプリケーションプログラムが実行されるものとする。本実施形態では、対象物として名刺Cを想定していることから、上記アプリケーションプログラムは、特に、氏名、住所、メールアドレスなどの文字を認識するとともに、当該認識した文字のデータを、記憶部1030に格納されている住所録としてのテーブルに登録する処理を行なうことを想定している。以下では、当該アプリケーションプログラムを、文字認識アプリケーションと称する。
 なお、外部サーバ1000にて文字認識アプリケーションが実行される場合、システム1100は、例えば、名刺管理システムとも称する。
 (データ表示/センサ装置を用いて対象物の読み取りを行なう様子)
 次に、図10から図14を参照しながら、データ表示/センサ装置100が、読み取りページCPに表示されている読み取り領域RAに載置された対象物の画像を、センサ内蔵液晶パネル301にて読み取る処理の典型例について説明する。なお、ここでは、処理の概要について説明し、各処理の詳細については後述する。
 まず、図10を参照しながら、対象物である名刺Cに表示されている文字ついて具体例に説明する。図10(a)は、名刺Cの表面を示した図である。図示のように、名刺Cの表面には、氏名である「三村」、住所である「奈良県大和郡山市」、メールアドレスである「mimura@xxx.com」が記載されている。なお、図10(b)は、名刺Cの裏面を示した図である。
 次に、図11は、センサ内蔵液晶パネル301の表示面の全体であるデスクトップ領域DA上に、OSプログラムのデスクトップ画面とアプリケーションプログラムであるブラウザWとが重畳表示されており、さらに、ブラウザWのクライアント領域CA(後述する)に、外部サーバ1000から取得したソースHに基づいて、読み取りページCPが表示されている様子を示す模式図である。図示のように、読み取りページCPには、読み取り領域RAが表示されている。図11では、読み取り領域RAをグレー色(gray)で表示している。
 なお、クライアント領域CAとは、ブラウザWのウィンドウ領域のうち、Webページなどのコンテンツが表示される部分(つまり、タイトルバーやステータスバーなどを除いた部分)を指す。図11では、破線で囲んだ領域がクライアント領域CAである。
 次に、データ表示/センサ装置100が処理するソースHの記述例について説明する。図12は、ソースHの記述例を示す模式図である。図示のように、ソースHには、特に、formタグFT、scanタグST、inputタグITが記述されている。
 formタグFTでは、アクションとして、“http://meishi.jp”で示されるURL(Uniform Resource Locator)に対して、POSTメソッドによる送信処理を行なうことを記述している。なお、“http://meishi.jp”で示されるURLは、外部サーバ1000上のURLであるものとする。なお、POSTメソッドにより送信されるデータは、後述する読み取り画像CGである。
 scanタグSTは、読み取り領域RAを記述するものである。図示の例では、読み取り領域RAの幅(width)が“440”、読み取り領域RAの高さ(height)が“300”、読み取り領域RAの色(bgcolor)が“gray(グレー)”であることを記述している。
 なお、scanタグSTは、HTMLの標準規格に規定されていないタグである。そのため、ここでは、scanタグSTを独自に定義した、標準規格を拡張したHTMLを用いているものとする。また、ブラウザWは、scanタグSTを解釈し、対応する処理を行なうことができるように機能拡張されているものとする。
 inputタグITは、ユーザが押下可能なボタンBTを記述するものである。ボタンBTが押下されると、読み取り領域RAに載置された対象物の画像を、センサ内蔵液晶パネル301にて読み取る処理が開始されるともに、当該読み取った結果として生成される画像が、formタグFTで記述されているとおりPOSTメソッドにより送信されるものとする。
 次に、図13は、図11に示した状態において、ユーザが、名刺Cの表面の読み取りを行なうことを目的として、読み取り領域RAに名刺Cを載置した様子を示す模式図である。なお、名刺Cの表面を読み取るために、名刺Cの表面がセンサ内蔵液晶パネル301に接する状態で載置している。よって、ユーザには、図示のとおり、名刺Cの裏面が見えている状態である。
 そして、名刺Cを載置した状態で、ユーザが、ボタンBTを押下すると、読み取り領域RAに載置された名刺Cの表面の画像を、センサ内蔵液晶パネル301にて読み取る処理が行なわれる。
 次に、図14は、読み取り領域RAに載置された名刺Cの表面の画像を、センサ内蔵液晶パネル301にて読み取った結果として、データ表示/センサ装置100内で生成される画像を示す模式図である。
 データ表示/センサ装置100は、センサ内蔵液晶パネル301の読取面の全体にて読み取った画像から、読み取り領域RAに相当する領域のみを抽出して、上記画像を生成する。したがって、上記生成される画像は、読み取り領域RAと同じサイズの画像である。そして、上記抽出した画像が、POSTメソッドにより、外部サーバ1000に送信される。なお、上記抽出した画像が、読み取り画像CGである。
 ユーザが、名刺Cを読み取り領域RA内に載置した場合、図示のように、読み取り画像CGには、名刺Cの表面に記載された氏名である「三村」、住所である「奈良県大和郡山市」、メールアドレスである「mimura@xxx.com」の文字がそれぞれ含まれる。そして、外部サーバ1000では、文字認識アプリケーションが、読み取り画像CGに含まれる、氏名、住所、メールアドレスの文字を認識するとともに、当該認識した文字のデータを、記憶部1030に格納されている住所録としてのテーブルに登録する処理を行なう。
 なお、センサ内蔵液晶パネル301にて読み取った対象物の画像は、対象物の表面と鏡像の関係にある画像が得られるので、当該得られた画像を、一般的に知られている手法により鏡像反転するものとする。
 (座標系)
 センサ内蔵液晶パネル301の読取面の全体にて読み取った画像から、読み取り画像CGを抽出する(切り出す)ためには、デスクトップ領域DAの左上(つまり、D0)を原点とした座標系(以下、デスクトップ座標系と表記)における読み取り領域RAの配置を示す情報(第2領域情報)を特定することが必要である。上記配置を示す情報とは、具体的には、読み取り領域RAの代表点(頂点)の座標の集合である。
 なお、OSプログラムは、デスクトップ画面に表示する部品(ウィンドウ、アイコン、など)の表示位置を、デスクトップ座標系で管理している。また、デスクトップ領域DAは、センサ内蔵液晶パネル301の表示面の全体と一致するので、センサ内蔵液晶パネル301の表示面の物理的位置を示すには、デスクトップ座標系を用いる。
 ここで、ブラウザWは、クライアント領域CAに読み取り領域RAを表示しているため、クライアント領域CAの左上(つまり、C0)を原点とした座標系(以下、クライアント座標系と表記)における読み取り領域RAの配置を示す情報(第1領域情報)を知り得ている。なお、ブラウザWは、コンテンツである読み取りページCPに表示する部品(ボタン、アイコン、文字など)の表示位置を、クライアント座標系で管理している。
 したがって、本実施形態では、読み取り画像CGを抽出する処理の前に、読み取り領域RAの配置を示す情報を、クライアント座標系からデスクトップ座標系に変換する処理を行なう。そして、当該変換後の情報を用いて、読み取り画像CGの抽出処理を行なう。
 なお、以下では、クライアント座標系における座標を「クライアント座標」と表記し、デスクトップ座標系における座標を「デスクトップ座標」と表記する。
 図15を参照しながら、読み取り領域RAのクライアント座標およびデスクトップ座標について具体的に説明する。図15は、デスクトップ領域DAと、クライアント領域CAと、読み取り領域RAとの位置関係を示す模式図である。
 図15において、読み取り領域RAは、左上が点R1であり、右下が点R2である矩形領域である。
 点R1および点R2をクライアント座標で表すと、それぞれ、(Xb,Yb)および(Xb+Xc,Yb+Yc)である。なお、“Xb”、“Yb”、“Xc”、および“Yc”は、ブラウザWが、読み取りページCP内に読み取り領域RAを表示するために、知り得ている値である。
 一方、点R1および点R2をデスクトップ座標で表すと、それぞれ、(Xa+Xb,Ya+Yb)および(Xa+Xb+Xc,Ya+Yb+Yc)である。
 つまり、この例では、クライアント座標に“Xa”および“Ya”を加算するだけで、デスクトップ座標に変換することができる。このように、クライアント座標とデスクトップ座標との変換は、簡易な演算だけで行なうことができる。
 言い換えれば、デスクトップ座標系におけるクライアント領域CAの左上(C0)の位置と、クライアント座標系における読み取り領域RAの位置(R1、R2)との相対位置から算出することができる。
 (センサ内蔵液晶パネルの概要)
 上記データ表示/センサ装置100が備えるセンサ内蔵液晶パネル301は、データの表示に加え、対象物の画像検出が可能な液晶パネルである。ここで、対象物の画像検出とは、例えば、ユーザが指やペンなどでポインティング(タッチ)した位置の検出や、印刷物等の画像の読み取り(スキャン)である。なお、表示に用いるデバイスは、液晶パネルに限定されるものではなく、有機EL(Electro Luminescence)パネルなどであってもよい。
 図2を参照しながら、センサ内蔵液晶パネル301の構造について説明する。図2は、センサ内蔵液晶パネル301の断面を模式的に示す図である。なお、ここで説明するセンサ内蔵液晶パネル301は一例であり、表示面と読取面とが共用されているものであれば、任意の構造のものが利用できる。
 図示のとおり、センサ内蔵液晶パネル301は、背面側に配置されるアクティブマトリクス基板51Aと、表面側に配置される対向基板51Bとを備え、これら基板の間に液晶層52を挟持した構造を有している。アクティブマトリクス基板51Aには、画素電極56、データ信号線57、光センサ回路32(図示せず)、配向膜58、偏光板59などが設けられる。対向基板51Bには、カラーフィルタ53r(赤)、53g(緑)、53b(青)、遮光膜54、対向電極55、配向膜58、偏光板59などが設けられる。また、センサ内蔵液晶パネル301の背面には、バックライト307が設けられている。
 なお、光センサ回路32に含まれるフォトダイオード6は、青のカラーフィルタ53bを設けた画素電極56の近傍に設けられているが、この構成に限定されるものではない。赤のカラーフィルタ53rを設けた画素電極56の近傍に設けてもよいし、緑のカラーフィルタ53gを設けた画素電極56の近傍に設けてもよい。
 次に、図3を参照しながら、対象物の画像を検出する方法について説明する。図3は、反射像を検知することにより、対象物の画像を検出する様子を示す模式図である。バックライト307から光63が出射されると、フォトダイオード6を含む光センサ回路32は、名刺Cなどの対象物により反射された光63を検知する。これにより、対象物の反射像を検知することができる。このように、センサ内蔵液晶パネル301は、反射像を検知することにより、対象物の画像を検出することができる。
 (データ表示/センサ装置の要部構成)
 次に、図4を参照しながら、上記データ表示/センサ装置100の要部構成について説明する。図4は、データ表示/センサ装置100の要部構成を示すブロック図である。図示のように、データ表示/センサ装置100は、表示/光センサ部300、回路制御部600、データ処理部700、主制御部800、記憶部901、一次記憶部902、操作部903、外部通信部907、音声出力部908、および音声入力部909を備えている。
 表示/光センサ部300は、いわゆる光センサ内蔵液晶表示装置である。表示/光センサ部300は、センサ内蔵液晶パネル301、バックライト307、それらを駆動するための周辺回路309を含んで構成される。
 センサ内蔵液晶パネル301は、マトリクス状に配置された複数の画素回路31および光センサ回路32を含んで構成される。センサ内蔵液晶パネル301の詳細な構成については後述する。
 周辺回路309は、液晶パネル駆動回路304、光センサ駆動回路305、信号変換回路306、バックライト駆動回路308を含む。
 液晶パネル駆動回路304は、回路制御部600の表示制御部601からのタイミング制御信号(TC1)およびデータ信号(D)に従って、制御信号(G)およびデータ信号(S)を出力し、画素回路31を駆動する回路である。画素回路31の駆動方法の詳細については後述する。
 光センサ駆動回路305は、回路制御部600のセンサ制御部602からのタイミング制御信号(TC2)に従って、信号線(R)に電圧を印加し、光センサ回路32を駆動する回路である。光センサ回路32の駆動方法の詳細については後述する。
 信号変換回路306は、光センサ回路32から出力されるセンサ出力信号(SS)をデジタル信号(DS)に変換し、該変換後の信号をセンサ制御部602に送信する回路である。
 バックライト307は、複数の白色LED(Light Emitting Diode)を含んでおり、センサ内蔵液晶パネル301の背面に配置される。そして、バックライト駆動回路308から電源電圧が印加されると、バックライト307は点灯し、センサ内蔵液晶パネル301に光を照射する。なお、バックライト307は、白色LEDに限らず、他の色のLEDを含んでいてもよい。また、バックライト307は、LEDに代えて、例えば、冷陰極管(CCFL:Cold Cathode Fluorescent Lamp)を含むものであってもよい。
 バックライト駆動回路308は、回路制御部600のバックライト制御部603からの制御信号(BK)がハイレベルであるときは、バックライト307に電源電圧を印加し、逆に、バックライト制御部603からの制御信号がローレベルであるときは、バックライト307に電源電圧を印加しない。
 次に、回路制御部600について説明する。回路制御部600は、表示/光センサ部300の周辺回路309を制御するデバイスドライバとしての機能を備えるものである。回路制御部600は、表示制御部601、センサ制御部602、バックライト制御部603、および表示データ記憶部604を備えている。
 表示制御部601は、データ処理部700の表示データ処理部701から表示データを受信するとともに、表示データ処理部701からの指示に従って、表示/光センサ部300の液晶パネル駆動回路304に、タイミング制御信号(TC1)およびデータ信号(D)を送信し、上記受信した表示データをセンサ内蔵液晶パネル301に表示させる。
 なお、表示制御部601は、表示データ処理部701から受信した表示データを、表示データ記憶部604に一次記憶させる。そして、当該一次記憶させた表示データに基づいて、データ信号(D)を生成する。表示データ記憶部604は、例えば、VRAM(video random access memory)などである。
 センサ制御部602は、データ処理部700のセンサデータ処理部703からの指示に従って、表示/光センサ部300の光センサ駆動回路305に、タイミング制御信号(TC2)を送信し、センサ内蔵液晶パネル301にてスキャンを実行させる。
 また、センサ制御部602は、信号変換回路306からデジタル信号(DS)を受信する。そして、センサ内蔵液晶パネル301に含まれる全ての光センサ回路32から出力されたセンサ出力信号(SS)に対応するデジタル信号(DS)に基づいて、画像データを生成する。つまり、センサ内蔵液晶パネル301の読み取り領域全体で読み取った画像データを生成する。そして、該生成した画像データをセンサデータ処理部703に送信する。
 バックライト制御部603は、表示データ処理部701およびセンサデータ処理部703からの指示に従って、表示/光センサ部300のバックライト駆動回路308に制御信号(BK)を送信し、バックライト307を駆動させる。
 なお、データ表示/センサ装置100が、複数の表示/光センサ部300を備える場合、表示制御部601は、データ処理部700から、どの表示/光センサ部300にて表示データを表示するかの指示を受けたとき、当該指示に応じた表示/光センサ部300の液晶パネル駆動回路304を制御する。また、センサ制御部602は、データ処理部700から、どの表示/光センサ部300にて対象物のスキャンを行なうかの指示を受けたとき、当該指示に応じた表示/光センサ部300の光センサ駆動回路305を制御するとともに、当該指示に応じた表示/光センサ部300の信号変換回路306からデジタル信号(DS)を受信する。
 次に、データ処理部700について説明する。データ処理部700は、主制御部800から受信する「コマンド」に基づいて、回路制御部600に指示を与えるミドルウェアとしての機能を備えるものである。なお、コマンドの詳細については後述する。
 データ処理部700は、表示データ処理部701およびセンサデータ処理部703を備えている。そして、データ処理部700が、主制御部800からコマンドを受信すると、該受信したコマンドに含まれる各フィールド(後述する)の値に応じて、表示データ処理部701およびセンサデータ処理部703の少なくとも一方が動作する。
 表示データ処理部701は、主制御部800から表示データを受信するとともに、データ処理部700が受信したコマンドに従って、表示制御部601およびバックライト制御部603に指示を与え、上記受信した表示データをセンサ内蔵液晶パネル301に表示させる。なお、コマンドに応じた、表示データ処理部701の動作については、後述する。
 センサデータ処理部703は、データ処理部700が受信したコマンドに従って、センサ制御部602およびバックライト制御部603に指示を与える。
 また、センサデータ処理部703は、センサ制御部602から画像データを受信し、当該画像データをそのまま画像データバッファ704に格納する。そして、センサデータ処理部703は、データ処理部700が受信したコマンドに従って、画像データバッファ704に記憶されている画像データに基づいて、「全体画像データ」、「部分画像データ(部分画像の座標データを含む)」、および「座標データ」の少なくともいずれか1つを、主制御部800に送信する。なお、全体画像データ、部分画像データ、および座標データについては、後述する。また、コマンドに応じた、センサデータ処理部703の動作については、後述する。
 次に、主制御部800は、データ表示/センサ装置100が備える各部の動作を制御するものである。主制御部800は、記憶部901に記憶されている各種プログラムを読み出して、データ表示/センサ装置100の各部を制御し、データ表示/センサ装置100が備える各種機能を実現する。
 主制御部800は、センサ内蔵液晶パネル301に表示データを表示させたり、センサ内蔵液晶パネル301にて対象物のスキャンを行なわせるために、データ処理部700に対して、コマンドおよび表示データを送信する。また、コマンドに「データ種別」を指定した場合は、当該コマンドの応答として、全体画像データ、部分画像データ、および座標データの少なくともいずれか1つを、データ処理部700から受信する。
 なお、回路制御部600、データ処理部700、および主制御部800は、それぞれ、CPU(Central Processing Unit)およびメモリ等で構成することができる。また、データ処理部700は、ASIC(application specific integrate circuit)などの回路で構成されていてもよい。
 次に、記憶部901は、主制御部800が実行する(1)各部の制御プログラム、(2)OSプログラム、(3)アプリケーションプログラム、および、(4)これらプログラムを実行するときに読み出す各種データを記録するものである。記憶部901は、フラッシュメモリなどの不揮発性の記憶装置によって構成される。なお、アプリケーションプログラムがOSの機能を使用するためのAPI(Application Programming Interface)や、各種デバイスと通信するためのドライバも、記憶部901に含まれる。
 一次記憶部902は、RAM(Random Access Memory)などの揮発性の記憶装置によって構成されるものであり、主制御部800が上述の各種プログラムを実行する過程でデータを一時的に保持するための作業領域として使用される。
 次に、操作部903は、データ表示/センサ装置100のユーザの入力操作を受けつけるものである。操作部903は、例えば、スイッチ、リモコン、マウス、キーボードなどの入力デバイスで構成される。そして、操作部903は、データ表示/センサ装置100のユーザの入力操作に応じた制御信号を生成し、該生成した制御信号を主制御部800へ送信する。
 なお、上記スイッチの例としては、電源のオンとオフとを切り替える電源スイッチ905、予め所定の機能が割り当てられているユーザスイッチ906などのハードウェアスイッチを想定している。
 その他、データ表示/センサ装置100は、無線/有線通信によって外部装置と通信を行なうための外部通信部907、音声を出力するためのスピーカ等の音声出力部908、音声信号を入力するためのマイク等の音声入力部909などを適宜備えていてもよい。
 (コマンドの詳細)
 次に、図5および図6を参照しながら、主制御部800からデータ処理部700に送信されるコマンドの詳細について説明する。図5は、コマンドのフレーム構造の一例を模式的に示す図である。また、図6は、コマンドに含まれる各フィールドに指定可能な値の一例、および、その概要を説明する図である。
 図5に示すように、コマンドは、「ヘッダ」、「データ取得タイミング」、「データ種別」、「スキャン方式」、「スキャン画像階調」、「スキャン解像度」、「スキャンパネル」、「表示パネル」、および「予備」の各フィールドを含んでいる。そして、各フィールドには、例えば、図6に示す値が指定可能である。
 「ヘッダ」フィールドは、フレームの開始を示すフィールドである。「ヘッダ」フィールドであることが識別可能であれば、「ヘッダ」フィールドの値は、どのような値であってもよい。
 次に、「データ取得タイミング」フィールドは、データを主制御部800へ送信すべきタイミングを指定するフィールドである。「データ取得タイミング」フィールドには、例えば、“00”(センス)、“01”(イベント)、および“10”(オール)という値が指定可能である。
 ここで、“センス”は、最新のデータを直ちに送信すること指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“センス”であるコマンドを受信すると、「データ種別」フィールドにて指定されている最新のデータを、直ちに、主制御部800に送信する。
 また、“イベント”は、センサ制御部602から受信する画像データに変化が生じたタイミングで送信すること指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“イベント”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、センサ制御部602から受信する画像データに、所定の閾値より大きい変化が生じたタイミングで、主制御部800に送信する。
 また、“オール”は、所定周期でデータを送信すること指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“オール”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、所定周期で、主制御部800に送信する。なお、上記所定周期は、光センサ回路32にてスキャンを行なう周期と一致する。
 次に、「データ種別」フィールドは、センサデータ処理部703から取得するデータの種別を指定するフィールドである。なお、「データ種別」フィールドには、例えば、“001”(座標)、“010”(部分画像)、および“100”(全体画像)という値が指定可能である。さらに、これらの値を加算することによって、“座標”と、“部分画像”/“全体画像”とを、同時に指定可能である。例えば、“座標”と“部分画像”とを同時に指定する場合、“011”と指定することができる。
 センサデータ処理部703は、「データ種別」フィールドの値が“全体画像”であるコマンドを受信すると、画像データバッファ704に記憶している画像データそのものを主制御部800に送信する。画像データバッファ704に記憶している画像データそのものを、「全体画像データ」と称する。
 また、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信すると、センサ制御部602から受信する画像データから、所定の閾値より大きい変化が生じた部分を含む領域を抽出し、該抽出した領域の画像データを主制御部800に送信する。ここで、当該画像データを、「部分画像データ」と称する。なお、上記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出されたそれぞれの部分画像データを主制御部800に送信する。
 さらに、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信したとき、部分画像データにおける代表座標を検出し、当該代表座標の部分画像データにおける位置を示す座標データを主制御部800に送信する。なお、上記代表座標とは、例えば、上記部分画像データの中心の座標、上記部分画像データの重心の座標などが挙げられる。
 次に、センサデータ処理部703は、「データ種別」フィールドの値が“座標”であるコマンドを受信すると、上記代表座標の全体画像データにおける位置を示す座標データを主制御部800に送信する。なお、上記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出された、それぞれの部分画像データの、全体画像データにおける代表座標を検出し、当該代表座標を示す座標データのそれぞれを主制御部800に送信する(多点検出)。
 なお、全体画像データ、部分画像データ、および座標データの具体例については、模式図を参照しながら後述する。
 次に、「スキャン方式」フィールドは、スキャン実行時に、バックライト307を点灯するか否かを指定するフィールドである。「スキャン方式」フィールドには、例えば、“00”(反射)、“01”(透過)、および“10”(反射/透過)という値が指定可能である。
 “反射”は、バックライト307を点灯した状態でスキャンを行なうこと指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“反射”であるコマンドを受信すると、光センサ駆動回路305とバックライト駆動回路308とが同期して動作するように、センサ制御部602とバックライト制御部603とに指示を与える。
 また、“透過”は、バックライト307を消灯した状態でスキャンを行なうことを指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“透過”であるコマンドを受信すると、光センサ駆動回路305を動作させ、バックライト駆動回路308と動作させないようにセンサ制御部602とバックライト制御部603とに指示を与える。なお、“反射/透過”は、“反射”と“透過”とを併用してスキャンを行なうことを指定するものである。
 次に、「スキャン画像階調」フィールドは、部分画像データおよび全体画像データの階調を指定するフィールドである。「スキャン画像階調」フィールドには、例えば、“00”(2値)、および“01”(多値)という値が指定可能である。
 ここで、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“2値”であるコマンドを受信すると、部分画像データおよび全体画像データをモノクロデータとして、主制御部800に送信する。
 また、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“多値”であるコマンドを受信すると、部分画像データおよび全体画像データを多階調データとして、主制御部800に送信する。
 次に、「スキャン解像度」フィールドは、部分画像データおよび全体画像データの解像度を指定するフィールドである。「解像度」フィールドには、例えば、“0”(高)および“1”(低)という値が指定可能である。
 ここで、“高”は、高解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“高”であるコマンドを受信すると、部分画像データおよび全体画像データを高解像度で主制御部800に送信する。例えば、画像認識などの画像処理を行なう対象の画像データ(指紋などの画像データ)には、“高”を指定することが望ましい。
 また、“低”は、低解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“低”であるコマンドを受信すると、部分画像データおよび全体画像データを低解像度で主制御部800に送信する。例えば、タッチした位置等が分かる程度でよい画像データ(タッチした指や手の画像データなど)には、“低”を指定することが望ましい。
 次に、「スキャンパネル」フィールドは、どの表示/光センサ部300にて対象物のスキャンを行なうかを指定するフィールドである。「スキャンパネル」フィールドには、例えば、“001”(第1の表示/光センサ部300)、“010”(第2の表示/光センサ部300)という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、第1および第2の表示/光センサ部300を同時に指定する場合、“011”と指定することができる。
 ここで、センサデータ処理部703は、受信したコマンドの「スキャンパネル」フィールドに指定された表示/光センサ部300の光センサ駆動回路305およびバックライト駆動回路308を制御するように、センサ制御部602およびバックライト制御部603に指示を与える。
 次に、「表示パネル」フィールドは、どの表示/光センサ部300にて表示データを表示させるかを指定するフィールドである。「スキャン画像階調」フィールドには、例えば、“001”(第1の表示/光センサ部300)、“010” (第2の表示/光センサ部300)という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、第1および第2の表示/光センサ部300を同時に指定する場合、“011”と指定することができる。
 ここで、表示データ処理部701は、例えば、「表示パネル」フィールドの値が第1の表示/光センサ部300であるコマンドを受信すると、第1の表示/光センサ部300に表示データを表示させるために、表示/光センサ部300の液晶パネル駆動回路304およびバックライト駆動回路308を制御するように、表示制御部601およびバックライト制御部603に指示を与える。
 なお、以下では、説明の便宜上、本実施形態に係るデータ表示/センサ装置100は、表示/光センサ部300を1つ備える構成であるものとする。そのため、スキャンを行なう場合は、「スキャンパネル」フィールドの値として“第1表示/光センサ部(001)”を指定したコマンドを、また、データ表示を行なう場合は、「表示パネル」フィールドの値として“第1表示/光センサ部(001)”を指定したコマンドを、それぞれデータ処理部700に送信するものとする。
 次に、「予備」フィールドは、上述したフィールドにて指定可能な情報以外の情報をさらに指定する必要がある場合に、適宜指定されるフィールドである。
 なお、主制御部800にて実行されるアプリケーションは、コマンドを送信するにあたり、上述したフィールドを全て使用する必要はなく、使用しないフィールドには無効値(NULL値など)を設定しておけばよい。
 また、ユーザが指やペンなどでタッチした位置の座標データを取得したいときは、「データ種別」フィールドに“座標”を指定したコマンドをデータ処理部700に送信することとなるが、指やペンなどは動きがあるため、さらに、当該コマンドの「データ取得タイミング」フィールドに“オール”を指定し、座標データを取得するようにすることが望ましい。また、タッチした位置の座標データが取得できればよいため、スキャンの精度は高くなくてもよい。したがって、上記コマンドの「解像度」フィールドの値は“低”を指定しておけばよい。
 また、コマンドの「データ種別」フィールドに“座標”を指定した場合において、例えば、ユーザが、複数の指やペンなどでセンサ内蔵液晶パネル301を同時にタッチした場合は、該タッチした位置の座標データのそれぞれを取得することができる(多点検出)。
 また、原稿などの対象物の画像データを取得する場合、「データ種別」フィールドに“全体画像”を指定したコマンドをデータ処理部700に送信することとなるが、原稿などの対象物は、通常、静止させた状態でスキャンを実行することが一般的であるため、周期的にスキャンを実行する必要はない。従って、この場合は、「データ取得タイミング」フィールドに“センス”または“イベント”を指定することが望ましい。なお、原稿などの対象物をスキャンするときは、ユーザが文字を読みやすいように、スキャン精度は高い方が望ましい。したがって、「解像度」フィールドには“高”を指定することが望ましい。
 (全体画像データ/部分画像データ/座標データ)
 次に、図7を参照しながら、全体画像データ、部分画像データ、および座標データについて、例を挙げて説明する。図7(a)に示す画像データは、対象物がセンサ内蔵液晶パネル301上に置かれていないときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。また、図7(b)に示す画像データは、ユーザが指でセンサ内蔵液晶パネル301をタッチしているときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。
 ユーザが指でセンサ内蔵液晶パネル301をタッチしたとき、当該タッチした近傍の光センサ回路32が受光する光量が変化するため、当該光センサ回路32が出力する電圧に変化が生じ、その結果として、センサ制御部602が生成する画像データのうち、ユーザがタッチした部分の画素値の明度に変化が生じることとなる。
 図7(b)に示す画像データでは、図7(a)に示す画像データと比べると、ユーザの指に該当する部分の画素値の明度が高くなっている。そして、図7(b)に示す画像データにおいて、明度が所定の閾値より大きく変化している画素値を全て含む最小の矩形領域(領域PP)が、“部分画像データ”である。
 なお、領域APで示される画像データが、“全体画像データ”である。
 また、部分画像データ(領域PP)の代表座標Zの、全体画像データ(領域AP)における座標データは(Xa,Ya)であり、部分画像データ(領域PP)における座標データは(Xp,Yp)である。
 (センサ内蔵液晶パネルの構成)
 次に、図8を参照しながら、センサ内蔵液晶パネル301の構成、および、センサ内蔵液晶パネル301の周辺回路309の構成について説明する。図8は、表示/光センサ部300の要部、特に、センサ内蔵液晶パネル301の構成および周辺回路309の構成を示すブロック図である。
 センサ内蔵液晶パネル301は、光透過率(輝度)を設定するための画素回路31、および、自身が受光した光の強度に応じた電圧を出力する光センサ回路32を備えている。なお、画素回路31は、赤色、緑色、青色のカラーフィルタのそれぞれに対応するR画素回路31r、G画素回路31g、B画素回路31bの総称して用いる。
 画素回路31は、センサ内蔵液晶パネル301上の列方向(縦方向)にm個、行方向(横方向)に3n個配置される。そして、R画素回路31r、G画素回路31g、およびB画素回路31bの組が、行方向(横方向)に連続して配置される。この組が1つの画素を形成する。
 画素回路31の光透過率を設定するには、まず、画素回路31に含まれるTFT(Thin Film Transistor)33のゲート端子に接続される走査信号線Giにハイレベル電圧(TFT33をオン状態にする電圧)を印加する。その後、R画素回路31rのTFT33のソース端子に接続されているデータ信号線SRjに、所定の電圧を印加する。同様に、G画素回路31gおよびB画素回路31bについても、光透過率を設定する。そして、これらの光透過率を設定することにより、センサ内蔵液晶パネル301上に画像が表示される。
 次に、光センサ回路32は、一画素毎に配置される。なお、R画素回路31r、G画素回路31g、およびB画素回路31bのそれぞれの近傍に1つずつ配置されてもよい。
 光センサ回路32にて光の強度に応じた電圧を出力させるためには、まず、コンデンサ35の一方の電極に接続されているセンサ読み出し線RWiと、フォトダイオード36のアノード端子に接続されているセンサリセット線RSiとに所定の電圧を印加する。この状態において、フォトダイオード36に光が入射されると、入射した光量に応じた電流がフォトダイオード36に流れる。そして、当該電流に応じて、コンデンサ35の他方の電極とフォトダイオード36のカソード端子との接続点(以下、接続ノードV)の電圧が低下する。そして、センサプリアンプ37のドレイン端子に接続される電圧印加線SDjに電源電圧VDDを印加すると、接続ノードVの電圧は増幅され、センサプリアンプ37のソース端子からセンシングデータ出力線SPjに出力される。そして、当該出力された電圧に基づいて、光センサ回路32が受光した光量を算出することができる。
 次に、センサ内蔵液晶パネル301の周辺回路である、液晶パネル駆動回路304、光センサ駆動回路305、およびセンサ出力アンプ44について説明する。
 液晶パネル駆動回路304は、画素回路31を駆動するための回路であり、走査信号線駆動回路3041およびデータ信号線駆動回路3042を含んでいる。
 走査信号線駆動回路3041は、表示制御部601から受信したタイミング制御信号TC1に基づいて、1ライン時間毎に、走査信号線G1~Gmの中から1本の走査信号線を順次選択し、該選択した走査信号線にハイレベル電圧を印加するとともに、その他の走査信号線にローレベル電圧を印加する。
 データ信号線駆動回路3042は、表示制御部601から受信した表示データD(DR、DG、およびDB)に基づいて、1ライン時間毎に、1行分の表示データに対応する所定の電圧を、データ信号線SR1~SRn、SG1~SGn、SB1~SBnに印加する(線順次方式)。なお、データ信号線駆動回路3042は、点順次方式で駆動するものであってもよい。
 光センサ駆動回路305は、光センサ回路32を駆動するための回路である。光センサ駆動回路305は、センサ制御部602から受信したタイミング制御信号TC2に基づいて、センサ読み出し信号線RW1~RWmの中から、1ライン時間毎に1本ずつ選択したセンサ読み出し信号線に所定の読み出し用電圧を印加するとともに、その他のセンサ読み出し信号線には、所定の読み出し用電圧以外の電圧を印加する。また、同様に、タイミング制御信号TC2に基づいて、センサリセット信号線RS1~RSmの中から、1ライン時間毎に1本ずつ選択したセンサリセット信号線に所定のリセット用電圧を印加するとともに、その他のセンサリセット信号線には、所定のリセット用電圧以外の電圧を印加する。
 センシングデータ出力信号線SP1~SPnはp個(pは1以上n以下の整数)のグループにまとめられ、各グループに属するセンシングデータ出力信号線は、時分割で順次オン状態になるスイッチ47を介して、センサ出力アンプ44に接続される。センサ出力アンプ44は、スイッチ47により接続されたセンシングデータ出力信号線のグループからの電圧を増幅し、センサ出力信号SS(SS1~SSp)として、信号変換回路306へ出力する。
 (データ表示/センサ装置のより詳細な構成)
 次に、図1を参照しながら、データ表示/センサ装置100のより詳細な構成について説明する。なお、ここでは、説明を分かりやすくするために、主制御部800と表示/光センサ部300との間に位置するデータ処理部700および回路制御部600の動作については説明を省略する。ただし、正確には、データの表示および対象物の読み取りを行なうにあたり、主制御部800の各部が、データ処理部700にコマンドを送信し、データ処理部700がコマンドに基づいて回路制御部600を制御し、回路制御部600が表示/光センサ部300に対して信号を送信する。また、主制御部800は、データ処理部700に対して送信したコマンドに対する応答として、データ処理部700から、全体画像データ等を取得する。
 図1は、データ表示/センサ装置100の主制御部800、記憶部901、および、一次記憶部902の、より詳細な構成を示すブロック図である。
 図示のように、主制御部800は、ブラウザ処理部(ウィンドウ表示制御手段、ソースコード取得手段、画像送信手段)11、API処理部(座標変換手段)12、およびドライバ処理部(画像取得手段、画像格納手段)15を含んでいる。
 まず、ブラウザ処理部11について説明する。ブラウザ処理部11は、後述するブラウザ記憶部21に格納されている、ブラウザWのプログラムを読み出して、実行するものである。そして、ブラウザ処理部11により実行されるブラウザWは、外部通信部907を介して、外部サーバ1000に、読み取りページCPを記述したソースHの取得を要求するとともに、その応答として、外部サーバ1000から上記ソースHを受信する。そして、該受信したソースHに基づいて、読み取りページCPを表示するために、表示用APIを呼び出す。なお、当該表示用APIは、後述する表示API処理部13にて実行されるものであって、後述する表示用ドライバとの通信を行なうためのAPIである。
 ブラウザ処理部11により実行されるブラウザWは、上述したscanタグSTを解釈することができるように機能拡張されている点を除けば、一般的に知られているWWWブラウザ(Internet Explorer等)が具備する機能を備えるものであればよいため、その詳細については説明を省略する。
 また、外部サーバ1000からソースHを取得するタイミングは、特に限定されるものではなく、例えば、ユーザが、ソースHの所在を示すURLをブラウザWに入力したときであってもよいし、ブラウザWの起動時に取得してもよい。
 さらに、ブラウザ処理部11により実行されるブラウザWは、ユーザから、対象物の読み取りを実行する指示(ボタン押下など)を受けつけると、対象物の読み取りを行なうために、読み取り用APIを呼び出す。このとき、ブラウザWは、ソースHに記述されている、読み取り領域RAのクライアント座標を取得し、当該取得したクライアント座標を引数として、上記読み取り用APIを呼び出す。
 なお、上記読み取り用APIは、後述する読み取りAPI処理部14にて実行されるものであって、後述する読み取り用ドライバとの通信を行なうためのAPIである。
 さらに、ブラウザ処理部11により実行されるブラウザWは、上記呼び出した読み取り用APIからの応答(戻り値)として、後述する読み取り画像記憶部24内の番地を特定可能な情報を受信する。なお、読み取り画像記憶部24の当該番地には、後述するように、読み取り画像CGが格納されている。そして、ブラウザWは、当該受信した情報に基づいて特定される番地に格納されている読み取り画像CGを読み出し、当該読み出した読み取り画像CGを、外部通信部907を介して、外部サーバ1000に送信する。
 次に、API処理部12について説明する。API処理部12は、後述するAPI記憶部22に格納されている表示用APIおよび読み取り用APIを読み出して、実行するものである。表示用APIおよび読み取り用APIは、ブラウザWがOSプログラムの機能を読み出すためのAPIである。API処理部12は、表示API処理部13および読み取りAPI処理部14を含んでいる。
 表示API処理部13は、API記憶部22から表示用APIを読み出して、実行するものである。ブラウザWが、読み取りページCPを表示するために表示用APIを呼び出すと、表示API処理部13は、表示用APIを実行する。そして、表示用APIは、読み取りページCPを表示するために、さらに、表示用ドライバを呼び出す。
 なお、上記表示用ドライバは、後述する表示ドライバ処理部16にて実行されるものであって、データ処理部700との通信を行なうためのドライバプログラムである。
 読み取りAPI処理部14は、API記憶部22から読み取り用APIを読み出して、実行するものである。ブラウザWが、対象物の読み取りを行なうために読み取り用APIを呼び出すと、読み取りAPI処理部14は、読み取り用APIを実行する。
 読み取り用APIは、まず、呼び出し時の引数に指定される、読み取り領域RAのクライアント座標を、デスクトップ座標に変換する。そして、対象物の読み取りを行なうために、さらに、読み取り用ドライバを呼び出す。このとき、読み取り用APIは、上記変換後の、読み取り領域RAのデスクトップ座標を引数として、上記読み取り用ドライバを呼び出す。
 なお、上記読み取り用ドライバは、後述する読み取りドライバ処理部17にて実行されるものであって、データ処理部700との通信を行なうためのドライバプログラムである。
 さらに、読み取り用APIは、上記呼び出した読み取り用ドライバからの応答(戻り値)として、読み取り画像記憶部24内の番地を特定可能な情報を受信する。そして、読み取り用APIは、呼び出し元であるブラウザWに、当該受信した情報を、戻り値として送信する。
 次に、ドライバ処理部15について説明する。ドライバ処理部15は、後述するドライバ記憶部23に格納されている、表示用ドライバおよび読み取り用ドライバを読み出して、実行するものである。そのために、ドライバ処理部15は、表示ドライバ処理部16および読み取りドライバ処理部17を含んでいる。
 表示ドライバ処理部16は、ドライバ記憶部23から表示用ドライバを読み出して、実行するものである。表示用APIが、読み取りページCPを表示するために表示用ドライバを呼び出すと、表示ドライバ処理部16は、表示用ドライバを実行する。そして、表示用ドライバは、読み取りページCPをセンサ内蔵液晶パネル301に表示させるように表示データを生成し、該生成した表示データをデータ処理部700に送信する。これに併せて、表示用ドライバは、「表示パネル」フィールドの値として“001”(第1表示/光センサ部)を指定したコマンドを、データ処理部700に送信する。
 読み取りドライバ処理部17は、ドライバ記憶部23から読み取り用ドライバを読み出して、実行するものである。読み取り用APIが、対象物の読み取りを行なうために、読み取り用ドライバを呼び出すと、読み取りドライバ処理部17は、読み取り用ドライバを実行する。そして、読み取り用ドライバは、センサ内蔵液晶パネル301に、対象物の読み取りを行なわせるために、コマンドを生成し、当該生成したコマンドをデータ処理部700に送信する。
 なお、上記生成するコマンドの各フィールドには、次の値を指定する。すなわち、「データ取得タイミング」フィールドの値は“01”(イベント)、「データ種別」フィールドの値は“100”(全体画像)、「スキャン方式」フィールドの値は“00”(反射)、「スキャン画像階調」フィールドの値は“01”(多値)、「スキャン解像度」フィールドの値は“0”(高)、「スキャンパネル」フィールドの値は“001”(第1表示/光センサ部)を指定する。
 上記のように、特に、データ処理部700から全体画像を取得するために、「データ種別」フィールドの値は“100”(全体画像)を指定している。また、名刺Cの表面の画像を読み取るとともに、外部サーバ1000にて文字認識処理を行なうことを想定しているので、「スキャン画像階調」フィールドの値は“01”(多値)、「スキャン解像度」フィールドの値は“0”(高)に指定することが望ましい。
 さらに、読み取り用ドライバは、上記コマンドにより、センサ内蔵液晶パネル301に読み取りを実行させた結果として、データ処理部700から、全体画像を取得する。そして、呼び出し時の引数に指定されていた、読み取り領域RAのデスクトップ座標を用いて、上記取得した全体画像から読み取り画像CGを抽出する処理を行なう。
 そして、読み取り用ドライバは、上記抽出した読み取り画像CGを、読み取り画像記憶部24に格納するとともに、呼び出し元である読み取り用APIに、読み取り画像CGを格納した番地を特定可能な情報を、戻り値として送信する。
 次に、記憶部901は、ブラウザ記憶部21、API記憶部22、およびドライバ記憶部23を含んでいる。ブラウザ記憶部21は、ブラウザWのプログラムを読み出し可能に記憶するものである。API記憶部22は、表示用APIおよび読み取り用APIを読み出し可能に記憶するものである。ドライバ記憶部23は、表示用ドライバおよび読み取り用ドライバを読み出し可能に記憶するものである。
 次に、一次記憶部902は、読み取り画像記憶部24を含んでいる。読み取り画像記憶部24は、読み取りドライバ処理部17が実行する読み取り用ドライバによって格納される読み取り画像CGを記憶するものである。なお、読み取り画像CGは、少なくとも、ブラウザ処理部11により実行されるブラウザWによって読み出されるまでの期間だけ記憶されていればよい。そのため、セキュリティの向上を目的として、ブラウザWによって読み出された直後は、削除するようにしてもよい。
 (対象物の読み取りを行なう処理の流れ)
 次に、図16を参照しながら、本実施形態に係るデータ表示/センサ装置100が、読み取り領域RAが表示されている領域に載置された対象物の画像の読み取りを行なうとともに、外部サーバにて当該読み取った画像に対して文字認識処理を行なう流れの一例について説明する。
 図16は、本実施形態に係るデータ表示/センサ装置100が、読み取り領域RAが表示されている領域に載置された対象物の画像の読み取りを行なうとともに、外部サーバにて当該読み取った画像に対して文字認識処理を行なう流れを示すフローチャートである。
 まず、ユーザが、読み取りページCPを記述したソースHの所在を示すURLを、ブラウザWに入力する等によって、読み取りページCPの取得を指示すると(ステップS11)、ブラウザ処理部11により実行されるブラウザWは、外部通信部907を介して、外部サーバ1000に、上記ソースHの取得を要求する(ステップS12)。そして、外部サーバ1000は、上記要求に応じて、上記ソースHを送信する(ステップS13)。
 次に、ブラウザWは、外部サーバ1000から上記ソースHを受信すると、当該受信したソースHに基づいて、読み取りページCPを表示するために、表示用APIを呼び出す(ステップS14)。表示用APIが呼び出されると、表示API処理部13が、表示用APIを実行する。そして、表示用APIは、さらに、表示用ドライバを呼び出す(ステップS15)。
 表示用ドライバが呼び出されると、表示ドライバ処理部16が、表示用ドライバを実行する。そして、表示用ドライバは、読み取りページCPをセンサ内蔵液晶パネル301に表示させるように表示データを生成し、該生成した表示データをデータ処理部700に送信するとともに、「表示パネル」フィールドの値として“001”(第1表示/光センサ部)を指定したコマンドを、データ処理部700に送信する(ステップS16)。
 そして、データ処理部700が、表示データおよびコマンドに基づいて回路制御部600を制御し、回路制御部600が表示/光センサ部300に対して信号を送信することによって、読み取りページCPをセンサ内蔵液晶パネル301に表示する(ステップS17)。
 読み取りページCPがセンサ内蔵液晶パネル301に表示された後、ユーザが、対象物である名刺Cを、センサ内蔵液晶パネル301上の、読み取り領域RAが表示されている領域に載置するとともに(ステップS18)、「送信」ボタンを押下する等によって、対象物の読み取りを実行することを指示すると(ステップS19)、ブラウザWは、ソースHに記述されている、読み取り領域RAのクライアント座標を取得し、当該取得したクライアント座標を引数として、読み取り用APIを呼び出す(ステップS20)。
 読み取り用APIが呼び出されると、読み取りAPI処理部14が、読み取り用APIを実行する。読み取り用APIは、呼び出し時の引数に指定されている、読み取り領域RAのクライアント座標を、デスクトップ座標に変換した後、デスクトップ座標を引数として、読み取り用ドライバを呼び出す(ステップS21)。
 そして、読み取り用ドライバが呼び出されると、読み取りドライバ処理部17が、読み取り用ドライバを実行する。そして、読み取り用ドライバは、センサ内蔵液晶パネル301に、対象物の読み取りを行なわせるために、コマンドを生成し、当該生成したコマンドをデータ処理部700に送信する(ステップS22)。なお、上記生成するコマンドの各フィールドには、上述したとおりである。特に、データ処理部700から全体画像を取得するために、「データ種別」フィールドの値は“100”(全体画像)を指定する。
 そして、データ処理部700が、上記コマンドに基づいて回路制御部600を制御し、回路制御部600が表示/光センサ部300に対して信号を送信することによって、センサ内蔵液晶パネル301にて読み取りを実行する。そして、データ処理部700は、読み取りを行なった結果として全体画像を生成し、読み取り用ドライバに送信する(ステップS23)。
 そして、読み取り用ドライバは、データ処理部700から全体画像を取得すると、呼び出し時の引数に指定されていた、読み取り領域RAのデスクトップ座標を用いて、上記取得した全体画像から読み取り画像CGを抽出する処理を行なう。そして、当該抽出した読み取り画像CGを、読み取り画像記憶部24に格納するとともに、呼び出し元である読み取り用APIに、上記読み取り画像CGを格納した番地を特定可能な情報を、戻り値として送信する(ステップS24)。
 そして、読み取り用APIは、上記読み取り用ドライバから、上記番地を特定可能な情報を受信すると、さらに、呼び出し元であるブラウザWに、当該受信した情報を、戻り値として送信する(ステップS25)。
 そして、ブラウザWは、上記読み取り用APIから上記番地を特定可能な情報を受信すると、当該受信した情報に基づいて特定される番地に格納されている読み取り画像CGを読み出し、当該読み出した読み取り画像CGを、外部通信部907を介して、外部サーバ1000に送信する(ステップS26)。
 そして、外部サーバ1000は、ブラウザWから画像を受信すると、当該受信した読み取り画像CGを記憶部1030に格納するとともに(ステップS27)、文字認識アプリケーションを起動して、当該格納した読み取り画像CGから文字を認識する処理を行なう(ステップS28)。
 〔変形例〕
 (センサ内蔵液晶パネル301の表示面の座標系と読取面の座標系との変換)
 センサ内蔵液晶パネル301の表示面の解像度と、読取面の解像度とは、必ずしも同じであるとは限らない。例えば、表示面の解像度が縦1024×横768であり、読取面の解像度が、表示面の2倍の解像度である、縦2048×横1536となっている場合があり得る。このように、センサ内蔵液晶パネル301の表示面の解像度と読取面の解像度とが異なる場合、読み取り画像CGを正しく抽出するために、読み取り領域RAの表示面における位置を示す情報(座標)を、読取面における位置を示す情報(座標)に変換する必要がある。
 下記で、上記変換の具体例について説明する。例えば、表示面の解像度が縦1024×横768であって、かつ、表示面における読み取り領域RAが、座標(x1d、y1d)と座標(x2d、y2d)で囲まれる矩形領域であるとする。また、読取面の解像度が縦2048×横1536であって、かつ、読取面の全体にて読み取った画像における読み取り領域RAに相当する領域が、座標(x1s、y1s)と座標(x2s、y2s)で囲まれる矩形領域であるとする。
 この場合、座標(x1s、y1s)および座標(x2s、y2s)は、下式のように、座標(x1d、y1d)および座標(x2d、y2d)から変換することによって求めることができる。
 (x1s、y1s)=(x1d×2、y1d×2)
 (x2s、y2s)=(x2d×2+1、y2d×2+1)
 なお、上記の変換処理は、読み取り用APIが行なう構成であってもよいし、読み取り用ドライバが行なう構成であってもよい。
 (各処理を実行する動作主体)
 上述では、(1)ブラウザ処理部11が実行するブラウザWが、読み取り領域RAのクライアント座標を取得し、(2)読み取りAPI処理部14が実行する読み取り用APIが、読み取り領域RAのクライアント座標を、デスクトップ座標に変換し、(3)読み取りドライバ処理部17が実行する読み取り用ドライバが、センサ内蔵液晶パネル301に、対象物の読み取りを行なわせるためにコマンドを生成する構成としたが、各処理を実行する動作主体は、これに限定されるものではない。
 例えば、クライアント座標をデスクトップ座標に変換する動作主体が、ブラウザWであってもよいし、読み取り用ドライバであってもよい。ただし、アプリケーションプログラムの開発を簡便にするためには、座標の変換処理は、下層に位置する読み取り用APIまたは読み取り用ドライバが行なう方が望ましい。
 また、上述では、(4)読み取りドライバ処理部17が実行する読み取り用ドライバが、全体画像から読み取り画像CGを抽出するとともに、読み取り画像記憶部24に格納し、(5)ブラウザ処理部11が実行するブラウザWが、読み取り画像記憶部24から読み取り画像CGを読み出す構成としたが、各処理を実行する動作主体は、これに限定されるものではない。
 例えば、全体画像から読み取り画像CGを抽出する動作主体が、読み取り用APIまたはブラウザWであってもよい。
 また、上述では、主制御部800が、ブラウザ処理部11、API処理部12、およびドライバ処理部15の3層から成る構成としたが、これに限定されるものではない。例えば、API処理部12およびドライバ処理部15を1つの部材として、全体として2層から成る構成としてもよいし、ブラウザ処理部11、API処理部12、およびドライバ処理部15を1つの部材として、全体として1層から成る構成としてもよい。
 (読み取りページCPの記述のバリエーション)
 上述では、scanタグSTを記述可能なHTMLを用いて、読み取りページCPのソースHを記述した。この場合、HTMLの標準規格を拡張する必要があるとともに、ブラウザWを、当該拡張したHTMLに対応できるように機能拡張する必要があるものの、ユーザは、当該機能拡張したブラウザWをデータ表示/センサ装置100にインストールするだけで、上記システム1100を利用することが可能となる点で有効である。
 さらに、scanタグSTをソースHに記述するだけでよいため、読み取りページCPの提供者がソースHを容易に記述することができる点でも有効である。
 また、読み取りページCPは、Java(登録商標)Scriptなどのスクリプト言語を用いて記述してもよい。この場合も、スクリプト言語の仕様を拡張する必要があるとともに、ブラウザWを、当該拡張したスクリプト言語を解釈できるように機能拡張する必要があるものの、ユーザは、当該機能拡張したブラウザWをデータ表示/センサ装置100にインストールするだけで、上記システム1100を利用することが可能となる点で有効である。
 さらに、読み取りページCPの提供者は、上記拡張したスクリプト言語によりスクリプトを記述する必要があるものの、ダイナミックなWebページを作成することが可能である点で有効である。
 また、読み取りページCPは、表示および読み取り指示を行なうプラグインにより実現してもよい。この場合、上述したような、HTMLの標準規格やスクリプト言語の仕様を拡張する必要はなく、また、ブラウザWを機能拡張する必要もない点で有効である。
 ただし、ユーザは、上記プラグインをインストールする必要がある。また、読み取りページCPの提供者は、実行時に上記プラグインを呼び出すような、読み取りページCPを作成する必要がある。
 (読み取り領域の全体が視認可能に表示されていないときの対応)
 ユーザにより、ブラウザWのスクロールバーが操作されたり、ブラウザWのサイズが縮小されていることによって、クライアント領域CAの全範囲が表示されていないことが生じる。このような場合、読み取り領域RAの全範囲を表示するようにユーザに促すことが望ましい。
 ユーザに提示するメッセージの一例について、図17を参照しながら説明する。図17は、読み取り領域RAの全体が視認可能に表示されていないときに提示するメッセージの一例を示す模式図である。図17の例では、メッセージMSを表示し、読み取り領域RAの全体を表示するようにユーザに促すようにしている。
 (外部サーバからの応答)
 上述では、外部サーバ1000が、読み取り画像CGを受信したことに対する応答をデータ表示/センサ装置100に送信する構成とはしながったが、上記応答を、データ表示/センサ装置100に送信するとともに、データ表示/センサ装置100にて、上記応答の内容を表示する構成としてもよい。これにより、データ表示/センサ装置100のユーザは、外部サーバ1000にて処理が完了したこと、および、ユーザが期待した処理が実行されたか否かを確認することができる。
 なお、上記応答の内容は、例えば、外部サーバ1000が読み取り画像CGを受信した旨を含むメッセージであってもよいし、外部サーバ1000が受信した読み取り画像CGを表示する画面であってもよいし、文字認識アプリケーションが認識した文字を表示する画面であってもよい。
 (読取面の所定領域のみで読み取りを行なう形態)
 上述では、センサ内蔵液晶パネル301が、常に、読取面の全体にて近傍の像を検知する構成について説明したが、読取面の所定領域のみにて近傍の像を検知する(つまり、部分的な領域のみで読み取りを実行する)構成としてもよい。
 この場合、主制御部800から、データ処理部700に対して、センサ内蔵液晶パネル301の読取面の所定領域を指定する情報を含めたコマンドを送信し、さらに、データ処理部700が当該コマンドに基づいて回路制御部600を制御し、さらに、回路制御部600が、当該制御に応じて、表示/光センサ部300に対して信号を送信するようにすればよい。また、主制御部800は、データ処理部700に対して送信した上記コマンドに対する応答として、データ処理部700から、読取面の所定領域にて読み取った画像データを取得する。
 なお、上記所定領域が、読み取り領域RAが読み取られる領域である場合、データ処理部700から取得した画像そのものが、読み取り画像CGであるので、読み取り用ドライバでの抽出処理は不要となる。
 (主制御部800の制御対象)
 また、上述では、データ表示/センサ装置100の構成として、データ処理部700や回路制御部600を備える構成について説明したが、この構成に限定されるものではない。例えば、主制御部800が回路制御部600を直接制御し、主制御部800が全体画像データ/部分画像データ/座標データを生成するような構成であってもよい。また、主制御部800が表示/光センサ部300を直接制御するような構成であってもよい。
 〔付記事項〕
 以上のように、本発明に係る画像表示/像検知装置は、画像を表示するとともに、近傍の像を読み取る面状部材を備える画像表示/像検知装置であって、対象物を載置する載置領域を含むウィンドウを、上記面状部材に表示させるウィンドウ表示制御手段と、上記載置領域の上記ウィンドウにおける配置を示す第1領域情報を、上記載置領域の上記面状部材における配置を示す第2領域情報に変換する座標変換手段と、上記面状部材の、上記第2領域情報に基づいて特定される領域にて読み取られる近傍の像の画像である読み取り画像を取得する画像取得手段とを備えている。
 また、本発明に係る画像表示/像検知装置の制御方法は、画像を表示するとともに、近傍の像を読み取る面状部材を備える画像表示/像検知装置の制御方法であって、対象物を載置する載置領域を含むウィンドウを、上記面状部材に表示させるウィンドウ表示制御ステップと、上記載置領域の上記ウィンドウにおける配置を示す第1領域情報を、上記載置領域の上記面状部材における配置を示す第2領域情報に変換する座標変換ステップと、上記面状部材の、上記第2領域情報に基づいて特定される領域にて読み取られる近傍の像の画像である読み取り画像を取得する画像取得ステップとを含んでいる。
 よって、第1領域情報から第2領域情報を得ることができるため、ウィンドウが表示面のいかなる位置に表示されていても、また、載置領域がウィンドウ内のいかなる位置に配置されていても、載置領域の面状部材における位置を特定することができる。そのため、面状部材における読み取り領域を確実に特定することができる。
 したがって、ウィンドウの載置領域に載置した対象物の画像を、面状部材にて確実に読み取ることができるという効果を奏する。つまり、面状部材における表示位置が固定的でない載置領域に載置した対象物の画像を、面状部材にて確実に読み取ることができるという効果を奏する。
 さらに、本発明に係る画像表示/像検知装置は、上記の構成において、上記第1領域情報は、上記ウィンドウに表示される、上記載置領域を含むコンテンツを規定するソースコードに含まれ、上記ウィンドウ表示制御手段は、上記ソースコードに従って、上記載置領域を含むコンテンツを上記ウィンドウに配置した状態で、上記ウィンドウを上記面状部材に表示させる構成としてもよい。
 上記の構成によれば、さらに、第1領域情報は、載置領域を含むコンテンツを規定するソースコードに含まれるとともに、載置領域を含むコンテンツを、ソースコードに従って、ウィンドウに配置した状態で、ウィンドウを面状部材に表示させることができる。
 よって、載置領域を含むコンテンツの、ウィンドウにおける配置をソースコードにて規定することができ、当該規定したソースコードに従って、ウィンドウ内に載置領域を表示させることができる。そのため、ソースコードに従って表示させた載置領域に載置した対象物の画像を、面状部材にて読み取ることができる。
 したがって、コンテンツの提供者(ソースコードの提供者)は、面状部材における読み取り領域の位置を考慮することなく、対象物の読み取りを行なうための機能を提供するコンテンツを作成することができるという効果を奏する。
 また、ユーザは、コンテンツの閲覧サービスと原稿等の読み取りサービスとが一体となったサービスを享受することができるとともに、コンテンツの閲覧と原稿等の読み取り操作とを、同じウィンドウにて行なうことができるので、ユーザの利便性および操作性が向上するという効果を奏する。
 さらに、本発明に係る画像表示/像検知装置は、上記の構成において、上記ソースコードを第1外部装置から取得するソースコード取得手段をさらに備える構成としてもよい。
 上記の構成によれば、さらに、ソースコードを第1外部装置から取得することができる。
 よって、第1外部装置から取得したソースコードに従って表示させた載置領域に載置した対象物の画像を、面状部材にて読み取ることができる。
 したがって、コンテンツの提供者は、第1外部装置であるサーバ装置にて、上記読み取りを行なうための機能を含むコンテンツを提供することができるという効果を奏する。
 つまり、コンテンツの提供者は、上記読み取りを行なうための機能を含むコンテンツを、外部のサーバ装置にて提供することができるので、当該コンテンツを、SaaSのアプリケーションとして構築することができる。
 さらに、本発明に係る画像表示/像検知装置は、上記の構成において、上記画像取得手段は、上記面状部材に、上記面状部材の全体にて近傍の像を読み取らせるとともに、当該読み取らせた像の画像のうち、上記第2領域情報にて特定される領域を抽出することによって、上記読み取り画像を取得する構成としてもよい。
 上記の構成によれば、さらに、面状部材の全体にて近傍の像を読み取らせた像の画像のうち、第2領域情報にて特定される領域を抽出することによって、読み取り画像を取得することができる。
 よって、面状部材の全体にて読み取った画像から、対象物の画像を含む、載置領域の画像を抽出することができる。つまり、面状部材の全体にて読み取った画像のうち、載置領域の外側の領域に相当する部分を取り除くことができる。
 したがって、載置領域に載置された対象物の画像を確実に含むとともに、載置領域の外側の領域の画像を含まない、読み取り画像を取得することができるという効果を奏する。
 さらに、本発明に係る画像表示/像検知装置は、上記の構成において、上記画像取得手段は、上記面状部材に、上記第2領域情報にて特定される領域にて近傍の像を読み取らせた像の画像を、上記読み取り画像として取得する構成としてもよい。
 上記の構成によれば、さらに、面状部材に、第2領域情報にて特定される領域にて近傍の像を読み取らせた像の画像を、読み取り画像として取得することができる。
 よって、面状部材から、対象物の画像を含む載置領域の画像を、読み取り画像として取得することができる。
 したがって、載置領域に載置された対象物の画像を確実に含むとともに、載置領域の外側の領域の画像を含まない、読み取り画像を取得することができるという効果を奏する。
 さらに、本発明に係る画像表示/像検知装置は、上記の構成において、上記画像取得手段が取得した上記読み取り画像を、自装置の記憶部に格納する画像格納手段をさらに備える構成としてもよい。
 上記の構成によれば、さらに、読み取り画像を、自装置の記憶部に格納することができる。
 よって、対象物の画像を含む載置領域の画像を、自装置の記憶部に格納することができる。
 したがって、面状部材にて読み取った対象物の画像に対して、画像解析処理や、外部への転送処理などの各種処理を施すことができるという効果を奏する。
 さらに、本発明に係る画像表示/像検知装置は、上記の構成において、上記画像取得手段が取得した上記読み取り画像を、第2外部装置に送信する画像送信手段をさらに備える構成としてもよい。
 上記の構成によれば、さらに、読み取り画像を、第2外部装置に送信することができる。
 よって、対象物の画像を含む載置領域の画像を、第2外部装置に送信することができる。
 したがって、第2外部装置であるサーバ装置にて、面状部材にて読み取った対象物の画像に対して、画像解析処理などの各種処理を施すことができるという効果を奏する。
 例えば、面状部材にて読み取った名刺の画像に対して文字認識処理を施し、名刺の画像に含まれる氏名、住所、メールアドレスなどの文字を認識するとともに、当該認識した文字のデータを住所録テーブルに登録するなどの処理を、サーバ装置にて行なうことができる。
 なお、上記画像表示/像検知装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各手段として動作させることにより上記画像表示/像検知装置をコンピュータにて実現させる上記画像表示/像検知装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 最後に、データ表示/センサ装置100の主制御部800、データ処理部700、回路制御部600は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
 すなわち、データ表示/センサ装置100は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラム及び各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるデータ表示/センサ装置100の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記データ表示/センサ装置100に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
 上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD-ROM/MO/MD/DVD/CD-R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。
 また、データ表示/センサ装置100を通信ネットワークと接続可能に構成し、上記プログラムコードを、通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
 本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
 発明の詳細な説明の項においてなされた具体的な実施形態または実施例は、あくまでも、本発明の技術内容を明らかにするものであって、そのような具体例にのみ限定して狭義に解釈されるべきものではなく、本発明の精神と次に記載する特許請求事項の範囲内で、いろいろと変更して実施することができるものである。
 本発明は、画像などの表示処理および対象物の読み取り処理を行なう装置に適用できる。特に、Webページをブラウザで表示することができるPCなどに好適に適用できる。
  11 ブラウザ処理部(ウィンドウ表示制御手段、ソースコード取得手段、画像送信手段)
  12 API処理部(座標変換手段)
  13 表示API処理部
  14 読み取りAPI処理部
  15 ドライバ処理部(画像取得手段、画像格納手段)
  16 表示ドライバ処理部
  17 読み取りドライバ処理部
  24 読み取り画像記憶部(記憶部)
 100 データ表示/センサ装置(画像表示/像検知装置)
 300 表示/光センサ部
 301 センサ内蔵液晶パネル(面状部材)
 700 データ処理部
 800 主制御部
1000 外部サーバ(第1外部装置、第2外部装置)
   C 名刺(対象物)
   H ソース(ソースコード)
   W ブラウザ(ウィンドウ)
  CG 読み取り画像
  CP 読み取りページ(コンテンツ)
  RA 載置領域

Claims (10)

  1.  画像を表示するとともに、近傍の像を読み取る面状部材を備える画像表示/像検知装置であって、
     対象物を載置する載置領域を含むウィンドウを、上記面状部材に表示させるウィンドウ表示制御手段と、
     上記載置領域の上記ウィンドウにおける配置を示す第1領域情報を、上記載置領域の上記面状部材における配置を示す第2領域情報に変換する座標変換手段と、
     上記面状部材の、上記第2領域情報に基づいて特定される領域にて読み取られる近傍の像の画像である読み取り画像を取得する画像取得手段とを備えることを特徴とする画像表示/像検知装置。
  2.  上記第1領域情報は、上記ウィンドウに表示される、上記載置領域を含むコンテンツを規定するソースコードに含まれ、
     上記ウィンドウ表示制御手段は、上記ソースコードに従って、上記載置領域を含むコンテンツを上記ウィンドウに配置した状態で、上記ウィンドウを上記面状部材に表示させることを特徴とする請求項1に記載の画像表示/像検知装置。
  3.  上記ソースコードを第1外部装置から取得するソースコード取得手段をさらに備えることを特徴とする請求項2に記載の画像表示/像検知装置。
  4.  上記画像取得手段は、上記面状部材に、上記面状部材の全体にて近傍の像を読み取らせるとともに、当該読み取らせた像の画像のうち、上記第2領域情報にて特定される領域を抽出することによって、上記読み取り画像を取得することを特徴とする請求項1から3のいずれか1項に記載の画像表示/像検知装置。
  5.  上記画像取得手段は、上記面状部材に、上記第2領域情報にて特定される領域にて近傍の像を読み取らせた像の画像を、上記読み取り画像として取得することを特徴とする請求項1から3のいずれか1項に記載の画像表示/像検知装置。
  6.  上記画像取得手段が取得した上記読み取り画像を、自装置の記憶部に格納する画像格納手段をさらに備えることを特徴とする請求項1から5のいずれか1項に記載の画像表示/像検知装置。
  7.  上記画像取得手段が取得した上記読み取り画像を、第2外部装置に送信する画像送信手段をさらに備えることを特徴とする請求項1から6のいずれか1項に記載の画像表示/像検知装置。
  8.  画像を表示するとともに、近傍の像を読み取る面状部材を備える画像表示/像検知装置の制御方法であって、
     対象物を載置する載置領域を含むウィンドウを、上記面状部材に表示させるウィンドウ表示制御ステップと、
     上記載置領域の上記ウィンドウにおける配置を示す第1領域情報を、上記載置領域の上記面状部材における配置を示す第2領域情報に変換する座標変換ステップと、
     上記面状部材の、上記第2領域情報に基づいて特定される領域にて読み取られる近傍の像の画像である読み取り画像を取得する画像取得ステップとを含むことを特徴とする画像表示/像検知装置の制御方法。
  9.  請求項1から7のいずれか1項に記載の画像表示/像検知装置が備えるコンピュータを動作させる制御プログラムであって、上記コンピュータを上記の各手段として機能させるための制御プログラム。
  10.  請求項9に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2010/001620 2009-03-09 2010-03-08 画像表示/像検知装置、制御方法、制御プログラム、および該制御プログラムを記録したコンピュータ読み取り可能な記録媒体 WO2010103791A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201080001437.7A CN102017595B (zh) 2009-03-09 2010-03-08 具备显示图像数据的同时读取近旁的物体的像的面状部件的设备及控制方法
US12/988,881 US8698742B2 (en) 2009-03-09 2010-03-08 Apparatus for displaying an image and sensing an object image, method for controlling the same, and computer-readable storage medium storing the program for controlling the same
EP10750548.9A EP2408187A4 (en) 2009-03-09 2010-03-08 IMAGE DISPLAY / IMAGE DETECTION APPARATUS, CONTROL METHOD, CONTROL PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM ON WHICH THE CONTROL PROGRAM IS RECORDED

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-055636 2009-03-09
JP2009055636A JP5236536B2 (ja) 2009-03-09 2009-03-09 画像表示/像検知装置、制御方法、制御プログラム、および該制御プログラムを記録したコンピュータ読み取り可能な記録媒体

Publications (1)

Publication Number Publication Date
WO2010103791A1 true WO2010103791A1 (ja) 2010-09-16

Family

ID=42728087

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/001620 WO2010103791A1 (ja) 2009-03-09 2010-03-08 画像表示/像検知装置、制御方法、制御プログラム、および該制御プログラムを記録したコンピュータ読み取り可能な記録媒体

Country Status (5)

Country Link
US (1) US8698742B2 (ja)
EP (1) EP2408187A4 (ja)
JP (1) JP5236536B2 (ja)
CN (1) CN102017595B (ja)
WO (1) WO2010103791A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014106809A (ja) * 2012-11-28 2014-06-09 Konica Minolta Inc データ処理装置、コンテンツ表示方法およびブラウジングプログラム
KR20170073068A (ko) * 2015-12-18 2017-06-28 엘지전자 주식회사 이동단말기 및 그 제어방법
JP6832765B2 (ja) * 2017-03-23 2021-02-24 シャープ株式会社 画像読取装置、画像形成装置、制御プログラムおよび制御方法
US20230222667A1 (en) * 2022-01-13 2023-07-13 Microsoft Technology Licensing, Llc Mask for satellite image data

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04195625A (ja) * 1990-11-28 1992-07-15 Toshiba Corp 情報処理装置
JP2000315118A (ja) * 1999-05-06 2000-11-14 Canon Inc 情報処理装置、情報処理装置制御方法、情報処理装置制御プログラムを格納した記憶媒体
JP2002132651A (ja) 2000-10-19 2002-05-10 Nec Corp ファクシミリ送信制御方法およびファクシミリ送信制御システムならびにファクシミリ装置
JP2003108310A (ja) * 2001-09-17 2003-04-11 Internatl Business Mach Corp <Ibm> タッチパネルに対応した入力方法、入力システムおよびプログラム
JP2003122474A (ja) * 2001-09-27 2003-04-25 Internatl Business Mach Corp <Ibm> コンピュータ装置、画像表示方法、プログラム、記録媒体
JP2005149320A (ja) 2003-11-18 2005-06-09 Canon Inc 画像処理装置、その制御方法およびプログラム
JP2006140918A (ja) * 2004-11-15 2006-06-01 Toshiba Corp 電子機器および画像読取方法
JP2006179977A (ja) * 2004-12-20 2006-07-06 Toshiba Corp スキャナ装置
JP2006184973A (ja) * 2004-12-24 2006-07-13 Toshiba Corp 電子機器、及び電子機器を用いた読み取り方法。

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7382929B2 (en) * 1989-05-22 2008-06-03 Pixel Instruments Corporation Spatial scan replication circuit
EP0464712A3 (en) 1990-06-28 1993-01-13 Kabushiki Kaisha Toshiba Display/input control system for software keyboard in information processing apparatus having integral display/input device
CN1196009C (zh) * 2000-05-31 2005-04-06 精工爱普生株式会社 投影机、图像显示系统、数据保存及显示方法
IL159537A0 (en) * 2001-06-28 2004-06-01 Omnivee Inc Method and apparatus for control and processing of video images
JP4293959B2 (ja) * 2004-09-16 2009-07-08 シャープ株式会社 画像処理装置、プログラム及び記録媒体
JP2008139981A (ja) 2006-11-30 2008-06-19 Sharp Corp 制御装置、端末装置、表示システム、表示方法、プログラムおよびその記録媒体
US8952982B2 (en) * 2007-04-24 2015-02-10 Sony Corporation Image display device, image display method and information recording medium for displaying and scrolling objects on a display
US20090210491A1 (en) * 2008-02-20 2009-08-20 Microsoft Corporation Techniques to automatically identify participants for a multimedia conference event

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04195625A (ja) * 1990-11-28 1992-07-15 Toshiba Corp 情報処理装置
JP2000315118A (ja) * 1999-05-06 2000-11-14 Canon Inc 情報処理装置、情報処理装置制御方法、情報処理装置制御プログラムを格納した記憶媒体
JP2002132651A (ja) 2000-10-19 2002-05-10 Nec Corp ファクシミリ送信制御方法およびファクシミリ送信制御システムならびにファクシミリ装置
JP2003108310A (ja) * 2001-09-17 2003-04-11 Internatl Business Mach Corp <Ibm> タッチパネルに対応した入力方法、入力システムおよびプログラム
JP2003122474A (ja) * 2001-09-27 2003-04-25 Internatl Business Mach Corp <Ibm> コンピュータ装置、画像表示方法、プログラム、記録媒体
JP2005149320A (ja) 2003-11-18 2005-06-09 Canon Inc 画像処理装置、その制御方法およびプログラム
JP2006140918A (ja) * 2004-11-15 2006-06-01 Toshiba Corp 電子機器および画像読取方法
JP2006179977A (ja) * 2004-12-20 2006-07-06 Toshiba Corp スキャナ装置
JP2006184973A (ja) * 2004-12-24 2006-07-13 Toshiba Corp 電子機器、及び電子機器を用いた読み取り方法。

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2408187A4

Also Published As

Publication number Publication date
CN102017595B (zh) 2015-07-15
US8698742B2 (en) 2014-04-15
JP2010211414A (ja) 2010-09-24
JP5236536B2 (ja) 2013-07-17
US20110037692A1 (en) 2011-02-17
EP2408187A4 (en) 2013-05-15
CN102017595A (zh) 2011-04-13
EP2408187A1 (en) 2012-01-18

Similar Documents

Publication Publication Date Title
JP5367339B2 (ja) メニュー表示装置、メニュー表示装置の制御方法、およびメニュー表示プログラム
JP5095574B2 (ja) 画像表示/像検知装置、画像表示方法、画像表示プログラムおよび当該プログラムを記録した記録媒体
JP5236536B2 (ja) 画像表示/像検知装置、制御方法、制御プログラム、および該制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP5185086B2 (ja) 表示装置、表示装置の制御方法、表示装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体
JP5306780B2 (ja) 入力装置
JP2010109467A (ja) 画像表示/像検知装置
JP5254753B2 (ja) 数値入力装置、数値入力方法、数値入力プログラム、およびコンピュータ読み取り可能な記録媒体
WO2010050567A1 (ja) データ送信支援装置、電子機器、及びデータ送信支援装置の制御方法
JP5567776B2 (ja) 色検出/色出力装置、色検出/色出力プログラム及びコンピュータ読み取り可能な記録媒体、並びに色検出/色出力方法
JP2010118018A (ja) 位置特定装置、位置特定プログラム及びコンピュータ読み取り可能な記録媒体、並びに位置特定方法
JP2010108446A (ja) 情報処理装置、情報処理装置の制御方法、および、情報処理プログラム
JP2010109947A (ja) 処理実行指示装置、電子機器、及び処理実行指示装置の制御方法
JP2010119064A (ja) 色検出装置、色検出プログラム及びコンピュータ読み取り可能な記録媒体、並びに色検出方法
JP2010117841A (ja) 像検知装置、入力位置の認識方法、およびプログラム
JP2010146394A (ja) 像検知装置、制御方法、制御プログラム、および該制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP5179325B2 (ja) 画像解析装置、画像解析方法、表示装置、画像解析プログラムおよび記録媒体
JP2010062938A (ja) 画像表示/像検知装置
JP5171572B2 (ja) 画像表示装置、画像表示装置の制御方法、プログラム、および記録媒体
JP2010140410A (ja) 携帯装置、および携帯装置の制御方法
JP2010092272A (ja) 画像表示/像検知装置、補助画像表示方法、およびプログラム
JP2010092339A (ja) 表示装置、制御方法、制御プログラム、および該制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2010108447A (ja) 処理制御ユニット、処理実行ユニット、情報処理装置、制御方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP5154368B2 (ja) 通信装置およびその制御方法
JP2010108450A (ja) 入力装置
JP5274987B2 (ja) 携帯型電子機器、指示入力装置、指示入力方法、指示入力処理プログラム及びコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080001437.7

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 12988881

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2010750548

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10750548

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE