WO2021084761A1 - 画像読取装置 - Google Patents

画像読取装置 Download PDF

Info

Publication number
WO2021084761A1
WO2021084761A1 PCT/JP2019/043164 JP2019043164W WO2021084761A1 WO 2021084761 A1 WO2021084761 A1 WO 2021084761A1 JP 2019043164 W JP2019043164 W JP 2019043164W WO 2021084761 A1 WO2021084761 A1 WO 2021084761A1
Authority
WO
WIPO (PCT)
Prior art keywords
image reading
unit
image
read
reading device
Prior art date
Application number
PCT/JP2019/043164
Other languages
English (en)
French (fr)
Inventor
雄介 山内
Original Assignee
雄介 山内
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 雄介 山内 filed Critical 雄介 山内
Priority to PCT/JP2019/043164 priority Critical patent/WO2021084761A1/ja
Priority to JP2021554045A priority patent/JPWO2021084761A1/ja
Publication of WO2021084761A1 publication Critical patent/WO2021084761A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/10Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
    • H04N1/107Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces with manual scanning

Definitions

  • the present invention relates to an image reading device, and more particularly to an image reading device that reads an image by scanning on a medium to be read.
  • an image reading device provided with a contact-type image reading unit has been known (for example, Patent Document 1).
  • An image reading unit made of a sheet-like and transmissive photoarray sensor is provided on the back surface of the display unit.
  • a light source unit is laminated on the image reading unit, and an image is read from the reflected light of the light from the light source unit.
  • a business card can be read by placing an image reading unit on a business card or the like which is a medium to be read and scanning the image.
  • a scanning system in which the reading result of a pen-type scanner is transmitted to a terminal such as a smartphone and the result is transmitted to an external server (for example, Patent Document 2).
  • the scanning system converts different types of data on the medium to be scanned into an appropriate format and stores it.
  • An electronic book is not a printed matter using paper and ink, but a publication that can be read on a display of an electronic device. Specifically, it is stored as electronic data in an appropriate storage medium, and the storage medium is stored in the electronic device. It can be read by attaching it to the device.
  • the display arranged on the bookshelf is a bookshelf on which books are displayed, and the display can display an image similar to that of books displayed on the bookshelf. This makes it difficult to distinguish between the surrounding bookshelf and the display image, and the user can touch the spine image displayed on the display as if he / she touches the books displayed on the bookshelf.
  • the camera installed in the smartphone can capture a scene containing a character string, and the user can trim the image to read the character string.
  • a transparent sheet-shaped image reading unit for reading an image from the reflected light of the light emitted on the medium to be read is provided on the back surface of the terminal, so that a business card or a business card or the like can be used. It was suitable for reading images with a large area such as charts, but not for reading small areas such as character strings in books. In particular, when performing OCR processing on a read character string, there is a possibility that surrounding characters may be erroneously read if scanning is performed over a large area. In this case, characters read by mistake appear as noise in the reading result, and it is difficult to perform character recognition processing in an appropriate state. Further, since the image reading unit is provided on the back surface of the terminal, it is necessary to place the terminal on the read medium when reading the read medium. Further, since the image can be read only by the area of the image reading unit, it is difficult to read a wider area.
  • a user can purchase an electronic book on a display as if it were a real store, but the bookshelf that can be expressed on a small display is limited, and when searching for an electronic book. Character input was a burden on the user.
  • the search was performed by accessing the e-book site from a smartphone and entering the book name, but a simpler system was required due to the trouble of entering characters.
  • you want to search not only books but also newspaper articles and old books that exist in front of you on your smartphone you need to enter the title of the newspaper article or the title of the old book, which is not always easy for users to use. I could't say that.
  • an object of the present invention is to provide an image reading device provided with a scanning type image reading unit.
  • the first invention is an image reading device that reads information from a read medium by scanning, and the image reading unit that reads the image of the reading medium and the image reading unit read the image.
  • a storage unit for storing the image a display unit capable of displaying the image read by the image reading unit and provided on the display surface, the image reading unit, the storage unit, and the display unit.
  • the image reading unit is provided with a control unit for controlling, and the image reading unit is provided on a reading surface intersecting the display surface.
  • the reading surface comes into contact with the read medium
  • the image reading unit reads the image of the read medium
  • the reading surface is read.
  • the display surface is substantially orthogonal to the read medium and information from the read medium. Is characterized in that it scans in the reading direction, which is a direction substantially orthogonal to the display surface.
  • the image reading device described in the first invention or the second invention the display unit is a touch panel operated by contact, and the control unit is the display.
  • An index, a first region, and a second region are drawn on the unit, the index moves in the display unit according to the scanning amount of the image reading unit, and the control unit moves in the display unit. Is operated, the first function is executed, and when the second area is operated, a second function different from the first function is executed.
  • the first region and the second region may be drawn, and the first region, the second region, and the non-reactive region adjacent to the first region and the second region are drawn. You may be.
  • the image reading device according to any one of the first to third inventions, wherein the main body portion provided with the display unit and the image reading unit are provided. It further includes a rotation support portion, and the rotation support portion is characterized in that it can rotate about at least one rotation axis with respect to the main body portion.
  • the image reading unit is provided on the reading surface which is the surface intersecting the display surface, the image reading unit and the reading medium are in a state where the image reading device is erected with respect to the reading medium. Can be brought into contact with. As a result, the image reading device can be easily grasped, so that the image reading device can be smoothly moved when scanning on the medium to be read, and a reading error of the image reading unit can be suppressed. Further, since the reading surface is a surface that intersects the display surface, the image reading unit is provided on the surface corresponding to the thickness of the image reading device.
  • the reading surface which is the side surface of a terminal such as a smartphone
  • the reading surface is thinner than the surface provided with the display unit and the back surface thereof, so that the area that can be read by the image reading unit is narrowed.
  • the image reading unit scans and reads the book line by line, highly accurate character recognition is possible without recognizing the character string on the adjacent line.
  • the image reading unit reads the image by directly contacting the medium to be read and scanning the image, blur suppression by focus adjustment and vibration control is suppressed as compared with the case where the image is read by a camera or the like mounted on a smartphone or the like.
  • there is no need to set exposure conditions such as aperture and shutter speed.
  • the user can read a character string or the like with a simple operation.
  • unnecessary character strings are also read, so that image processing such as trimming is required.
  • image processing is performed. It becomes unnecessary.
  • the user can easily read a character string or the like.
  • a mechanism such as mechanical scanning used in a flat head scanner or a handy scanner is not required, an image reading device can be realized at low cost. By providing the image reading unit on the reading surface, a complicated optical focusing mechanism can be miniaturized, so that a compact image reading device can be realized.
  • the image reading device since the reading surface comes into contact with the medium to be read and the image is read, the image reading device is always in contact with the medium to be read, and the image can be read stably and accurately. Further, when the image of the read medium is read by the image reading terminal, the display surface is substantially orthogonal to the read medium, so that the user can perform the reading work while looking at the display surface, which improves operability. An excellent image reader can be realized. Further, since the reading direction is substantially orthogonal to the display surface, the image reading device can be stably gripped and reading errors and the like can be suppressed. In addition, the user can perform the reading operation while looking at the display unit.
  • the position of the index displayed on the display unit can be moved by moving the image reading device on a desktop or the like. .. Further, when the first area is operated, the first function is executed, and when the second area is operated, a second function different from the first function is executed. Therefore, the first function is left. If the second function is right-clicked as a click, the image reader can be provided with a function as an optical mouse. Thereby, the operability of the image reading device can be improved. For example, by rotating the image reading unit, it is possible to read both vertical writing and horizontal writing while keeping the display unit facing the user so that the user can easily see the text.
  • the conventional image reader is a touch panel that directly touches the display unit, it is difficult to perform detailed operations.
  • the index is moved by moving the image reading device, operability such as zooming, range selection, and creating a figure is improved.
  • the reading surface which is the side surface of a terminal such as a smartphone, has a thinner shape than the surface provided with the display unit and the back surface thereof. You can select the posture of the shape suitable for.
  • the image reading device when reading a sentence, by using the image reading device in an upright position, it is easy to grasp and smooth operation is possible, and since the contact surface with books etc. is small, the reading part of the target sentence can be pinpointed and accurately pinpointed.
  • the image reader is used face down on a desk, etc. to increase the contact surface with the desk, etc., and detailed work is performed by precise pointer operation in a more stable state. Can be done.
  • the image reading unit since the image reading unit has a rotation support unit provided with the image reading unit, the image reading unit can rotate with respect to the main body unit. As a result, the image reading unit can be used in various states as needed. Further, since the rotation support portion can rotate around at least one rotation shaft with respect to the main body portion, the image reading portion can be turned by the user by making it rotatable around a plurality of rotation shafts. It can be placed in a desired position. This makes it possible to realize an image reading device with high operability.
  • FIG. 1 is a diagram showing a perspective view of an image reading device according to the first embodiment of the present invention.
  • FIG. 2 is a diagram showing a block diagram of an image reader according to the first embodiment of the present invention.
  • FIG. 3 is a diagram showing a partial cross-sectional view of an image reader according to the first embodiment of the present invention.
  • FIG. 4 is a diagram showing a network diagram to which an image reader according to the first embodiment of the present invention is connected.
  • FIG. 5 is a diagram showing a flow chart at the time of starting the book application of the image reading device according to the first embodiment of the present invention.
  • FIG. 6 is a diagram showing communication between the image reading device and the server in the book application of the image reading device according to the first embodiment of the present invention.
  • FIG. 7 is a diagram showing a display unit when the book application of the image reading device according to the first embodiment of the present invention is started.
  • FIG. 7A is a diagram showing a state in which the title of the book is being read by the image reading unit.
  • FIG. 7B is a diagram showing a state in which the image reading unit has completed reading the title of the book.
  • FIG. 8 is a diagram showing a flow chart at the time of starting the text data output application of the image reading device according to the first embodiment of the present invention.
  • FIG. 9 is a diagram showing a flow chart at the time of starting the search application of the image reading device according to the first embodiment of the present invention.
  • FIG. 10 is a diagram showing a display unit at the time of starting the search application of the image reading device according to the first embodiment of the present invention.
  • FIG. 10A is a diagram showing a display unit in the web search mode.
  • FIG. 10B is a diagram showing a diagram showing a display unit in the map search mode.
  • FIG. 11 is a diagram showing a flow chart at the time of starting the voice output application of the image reading device according to the first embodiment of the present invention.
  • FIG. 12 is a perspective view showing a usage state of the text data output application of the image reading device according to the first embodiment of the present invention.
  • FIG. 13 is a perspective view showing a usage state of the enlarged application of the image reading device according to the first embodiment of the present invention.
  • FIG. 10A is a diagram showing a display unit in the web search mode.
  • FIG. 10B is a diagram showing a diagram showing a display unit in the map search mode.
  • FIG. 11 is a diagram showing a flow chart at the time of
  • FIG. 14 is a diagram showing a flow chart at the time of starting the translation application of the image reading device according to the first embodiment of the present invention.
  • FIG. 15 is a diagram showing a perspective view of an image reading device according to a second embodiment of the present invention.
  • FIG. 16 is a diagram showing a perspective view showing a usage state of the image reading device according to the second embodiment of the present invention.
  • FIG. 17 is a diagram showing a perspective view of an image reading device according to a third embodiment of the present invention.
  • FIG. 18 is a perspective view showing a usage state of a mouse application of an image reading device according to a third embodiment of the present invention.
  • FIG. 19 is a diagram showing a display unit when the mouse application of the image reading device according to the third embodiment of the present invention is activated.
  • FIG. 15 is a diagram showing a perspective view of an image reading device according to a second embodiment of the present invention.
  • FIG. 16 is a diagram showing a perspective view showing a usage state of the image reading
  • FIG. 20 is a diagram showing a perspective view of an image reading device according to a fourth embodiment of the present invention.
  • FIG. 21 is a diagram showing a perspective view of an image reading device according to a fifth embodiment of the present invention.
  • FIG. 22 is a diagram showing a perspective view of an image reading device according to a sixth embodiment of the present invention.
  • FIG. 23 is a diagram showing a perspective view of an image reading device according to a seventh embodiment of the present invention.
  • FIG. 24 is a perspective view showing a usage state of the image reading device according to the seventh embodiment of the present invention.
  • FIG. 25 is a diagram showing a diagram of a display unit of an image reading device according to a modified example of the present invention.
  • FIG. 26 is a diagram showing a perspective view of an image reading device according to an eighth embodiment of the present invention.
  • FIG. 27 is a perspective view showing a usage state of the image reading device according to the eighth embodiment of the present invention.
  • the image reading device 1 according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 14. As shown in FIG. 1, the front-back, up-down, left-right directions are defined.
  • orthogonal, vertical, and parallel include the concepts of substantially orthogonal, substantially vertical, and substantially parallel.
  • the image reading device 1 is a terminal such as a smartphone or a tablet, and includes a control unit 2, a display unit 3, an image reading unit 4, a communication unit 5, and a storage unit 6. , An operation unit 7, a power supply unit 8, and an audio output unit 9.
  • the control unit 2 is composed of a CPU and a memory, loads the operating system and the program stored in the storage unit 6 on the memory, and executes various commands included in the program.
  • the image reading device 1 includes a display surface 1A provided with the display unit 3 and a reading surface 1B which is orthogonal (intersecting) with the display surface 1A and is provided with the image reading unit 4. ..
  • the image reading unit 4 includes a light source 41, an image sensor 42, a sensor 43, and an optical lens group 44. As shown in FIG. 1, the image reading unit 4 is provided on a surface of the image reading device 1 that intersects (orthogonally) the display surface 1A on which the display unit 3 is provided. In other words, it is provided on the left side of the front surface, which is a side surface other than the upper surface and the lower surface of the image reading unit 4.
  • the reading surface 1B intersects all the surfaces of the display surface 1A, the front surface of the image reading device 1, the right surface of the image reading device 1, the left surface of the image reading device 1, and the rear surface of the image reading device 1. There is.
  • the image reading unit 4 has a function of scanning the read medium 10 by scanning on the read medium 10 (FIG. 12) to be scanned along the reading direction R.
  • the image reading unit 4 scans an arbitrary part of the read medium 10 according to the operation of the user, and generates image information in which the scanned part is converted into an electronic image.
  • the image reading unit 4 continuously reads the read medium 10 and generates a plurality of image information. Then, the image information is combined and stored in the storage unit 6.
  • the read medium to be scanned is typically a paper book.
  • the image reading device 1 reads an arbitrary part (text, title, page number, figure, etc.) in the paper book.
  • the light source 41 is an illumination light source composed of an LED or the like, is provided in the vicinity of the reading surface 1B, and irradiates the vicinity of the opening at predetermined time intervals.
  • the optical lens group 44 forms a two-dimensional image in a desired fixed region from the end of the aperture in the opposite direction on the image sensor 42 as shown by the optical path 45.
  • the fixed region is a region in the illumination region illuminated by the light source 41, and is a scan region for reading the image of the read medium 10.
  • the optical lens group 44 is provided with a focus adjustment mechanism that enables movement in the front-rear direction, and can adjust the focal length so as to form an image on the image sensor 42.
  • the image sensor 42 photoelectrically converts the image formed by the optical lens group to generate image information.
  • the image sensor 42 captures a part of the medium 10 to be read (for example, a part of the paper surface of a paper book), generates image information as an electronic image of the part, and outputs the image information to the control unit 2.
  • One image indicated by the image information is, for example, an image showing a part of a character string of a sentence written on the read medium 10 or a part of a drawing.
  • the image sensor 42 scans at predetermined time intervals to continuously acquire image information.
  • the plurality of image information output to the control unit 2 are combined with each other to become character string information or graphic information.
  • the time interval at which the image sensor 42 acquires image information can be arbitrarily set according to the scanning speed at which the image reading device 1 is scanned by the read medium 10.
  • the light source 41 of the present embodiment minimizes blurring of the captured image by shortening the irradiation time of one time.
  • the interval between the irradiation operation time of the light source 41 and the image acquisition time of the image sensor 42 can be arbitrarily set according to the scanning speed.
  • the light source 41 may be any of LED, organic EL, and inorganic EL, and other light sources can also be used.
  • the color of the light source 41 may be white, or may be three colors of red (Red), green (Green), and blue (Blue). By using the three colors of RGB, it is possible to read in color. In the present embodiment, the color of the light source is not limited as long as the image can be recognized.
  • the image reading device 1 reads the read medium 10
  • the image reading unit 4 and the read medium 10 are in close contact with each other, so that external light can be blocked and only the light from the light source 41 can be detected. This enables highly reproducible image detection with less occurrence of luminance unevenness and color unevenness due to external light.
  • the control unit 2 converts the generated character string information or graphic information into a predetermined information format according to the processing method.
  • Predetermined processes for converting information include optical character recognition processing (OCR processing), JPG conversion (Joint Photographic experts Group), pdf output (Portable Document Format), and the like.
  • the sensor 43 is a detection sensor for detecting contact / non-contact of the image reading unit 4 with the read medium 10.
  • a proximity sensor for detecting contact / non-contact of the image reading unit 4 with the read medium 10.
  • a pressure sensor for detecting contact / non-contact of the image reading unit 4 with the read medium 10.
  • a micro switch for detecting contact / non-contact of the image reading unit 4 with the read medium 10.
  • the communication unit 5 connects the image reading device 1 to the external network 20 via arbitrary wireless communication so that bidirectional communication is possible.
  • the wireless communication may be mobile communication such as 3G (Third Generation), 4G (Fourth Generation), LTE (Long Term Evolution), and near-field communication such as Bluetooth (registered trademark) and wireless LAN (Local Area Network). It may be long-range wireless communication.
  • the image reading device 1 is connected to the book server 21, the search server 22, the digital archive server 23, and the translation server 24 via the external network 20.
  • the storage unit 6 is composed of an HDD (Hard Disk Drive) or an SSD (Solid State Drive) in which an operating system, a program, or the like is stored.
  • the program and various data for executing the present invention may be distributed from the storage medium provided in the host computer (server) to the storage unit 6 via the network.
  • the operation unit 7 is provided for inputting various information, and is a touch panel in the display unit 3 in the present embodiment.
  • the operation unit may be a button or a key, or may be a keyboard or a touch pad connected to the image reading device 1 wirelessly or by wire.
  • the power supply unit 8 is a rechargeable battery and supplies power to each unit of the image reading device 1.
  • the audio output unit 9 is a speaker included in the image reading device 1 and is controlled by the control unit 2.
  • Position information detection functions such as a camera, an LED light, an acceleration sensor, and a GPS (Global Positioning System) included in the image reading device 1 can also be used as functions of the image reading device 1 as needed.
  • the image reading device 1 may be provided with a card slot portion into which various media can be inserted. The media inserted in the card slot can expand the capacity of the storage unit 6, and can also be used for data exchange with a device having another card slot.
  • the various applications are installed in the storage unit 6 of the image reading device 1. The operation of the image reading unit 4 in each application will be described.
  • the various applications may be web applications distributed from an external server via a web browser by being connected to the external network 20.
  • the book application installed in the image reader 1 will be described with reference to FIGS. 5 to 7.
  • the book application is an application for searching and purchasing an electronic book based on the title of the book read by the image reading unit 4.
  • the screen of the book application is displayed on the display unit 3 and the reading standby state is set.
  • the control unit 2 determines whether or not image reading has started based on the contact of the sensor 43 with the read medium 10 (S2).
  • the control unit 2 determines that the sensor 43 has come into contact with the read medium 10 (S2: YES)
  • the light source 41 lights up at predetermined time intervals
  • the image sensor 42 reads the reflected light from the read medium 10 to obtain an image. Reading is performed (S3).
  • the image information read by the image reading unit 4 is continuously combined by the control unit 2 and subjected to OCR processing (S4).
  • the OCR process is a known process, and character recognition is executed after performing preprocessing such as contour correction and contrast correction as necessary.
  • the control unit 2 corresponds to the character recognition unit of the present invention.
  • the OCR-processed character string information is transmitted to the book server 21 by the communication unit 5 via the external network 20 (S5).
  • the time interval for acquiring the image of the image sensor 42 is such that the image reading unit 4 scans on the medium 10 to be read and reads one character. In other words, every time the image reading unit 4 reads one character, OCR processing is performed (S4), and the processing result is transmitted to the book server 21 (S5).
  • the character string information which is the OCR result is transmitted to the book server 21 (S11), refers to the book database in the book server 21 (S12), and extracts the book titles whose character strings match (S13). ).
  • the extracted book list is transmitted from the book server 21 to the image reader 1 via the external network 20 (S14, S5).
  • the control unit 2 displays the extraction result received from the book server 21 on the display unit 3 (S6).
  • the control unit 2 determines whether or not the image reading is completed, that is, whether or not the sensor 43 is separated from the read medium 10 (S7). When the control unit 2 determines that the image reading is not completed (S7: NO), the control unit 2 returns to S3 again and repeatedly executes the processes S3 to S6. When the control unit 2 determines that the image reading is completed (S7: YES), the control unit 2 proceeds to the next step.
  • FIG. 7 shows a display unit 3 when the title of the book “I am a tiger” is scanned by the image reader 1. Since the control unit 2 repeatedly executes the steps S3 to S6 each time the image reading unit 4 reads one character, the search result is narrowed down and displayed on the display unit 3 as the reading progresses.
  • FIG. 7A is a display unit 3 when the book title "I am” is read.
  • the reading result 31, the search result 32, the detailed result 33, the purchase button 34, and the scan display 35 are displayed on the display unit 3.
  • a list of book titles matching the reading result 31 is displayed.
  • 4 items are displayed, and the books whose first character string matches "I am” are displayed in the detailed result 33.
  • a purchase button 34 corresponding to each detailed result 33 is displayed so as to be adjacent to the detailed result 33.
  • the procedure for purchasing an electronic book proceeds (S9).
  • the procedure for purchasing an electronic book is the same as the purchase of a publicly known electronic book, by withdrawing from a pre-registered user's credit card or the like.
  • FIG. 7 (b) shows the display unit 3 when the user further reads the book title.
  • the reading result 31 the book title "I am a tiger" is displayed, in the search result 32, one case is displayed, and in the detailed result 33, a book title matching the reading result 31 is displayed. Since the reading of the book title is completed, the image reading unit 4 and the read medium 10 are separated from each other, and the scan display 35 is not displayed.
  • the purchase button 34 S8: YES
  • the user proceeds to the procedure for purchasing the electronic book (S9).
  • the communication unit 5 transmits the OCR result to the book server 21, but a digital archive mode may be provided and the OCR result may be transmitted to the digital archive server 23.
  • the flow is substantially the same as that in FIG. 4, but the purchase procedure (S9) is not required and the digital archive download procedure is performed.
  • the text data output application displays text data on the display unit 3 based on the reading result read by the image reading unit 4.
  • the screen of the text data output application is displayed on the display unit 3 and the reading standby state is set.
  • the control unit 2 determines whether or not image reading has been started based on the contact of the sensor 43 with the read medium 10 (S62).
  • the control unit 2 determines that the sensor 43 has come into contact with the medium 10 to be read (S62: YES)
  • the light source 41 lights up at predetermined time intervals and the image reading unit 4 starts reading the image (S63).
  • the control unit 2 When the image reading is started, the control unit 2 performs OCR processing at predetermined time intervals (S64), and displays the processing result as text data on the display unit 3 as shown in FIG. 12 (S65).
  • the display unit 3 displays text data processing software such as a text editor, word processor, or web browser in a general format, and the read text data is displayed on the window. Only the text data may be displayed on the display unit 3. It may also be used in combination with a mouse application described later.
  • the OCR process is executed by the control unit 2, it may be executed by an external server via the external network 20. As a result, highly accurate processing can be executed without executing application update or the like.
  • the control unit 2 determines whether or not the image reading is completed, that is, whether or not the sensor 43 is separated from the read medium 10 (S66). When the control unit 2 determines that the image reading is not completed (S66: NO), the control unit 2 returns to S63 again and continues the image reading. The interval for executing S63 to S65 again may be set based on the time, or may be set based on the number of characters read.
  • FIG. 12 shows a state in which the text of the read medium 10 is being read while the text data output application is running. The text of the read medium 10 as text data is displayed on the display unit 3. When the control unit 2 determines that the image reading is completed (S66: YES), the control unit 2 determines whether or not the text data output application is terminated (S67). If the text data output application is not terminated, the process returns to S52 (S67: NO), and if the text data output application is terminated, this flow ends (S67: YES).
  • the search application performs a web search or a map search based on the reading result read by the image reading unit 4.
  • a screen for selecting a search mode is displayed on the display unit 3 (S22).
  • the search application includes a web search mode and a map search mode. In the web search mode, the reading result of the image reading unit 4 can be searched on the web, and in the map search mode, the reading result of the image reading unit 4 can be searched on a map. When either mode is selected, the read standby state is set.
  • the control unit 2 determines whether or not image reading has been started based on the contact of the sensor 43 with the read medium 10 (S23).
  • the control unit 2 determines that the sensor 43 has come into contact with the medium 10 to be read (S23: YES)
  • the light source 41 lights up at predetermined time intervals and the image reading unit 4 starts image reading (S24).
  • the control unit 2 determines whether or not the image reading is completed, that is, whether or not the sensor 43 is separated from the read medium 10 (S25). When the control unit 2 determines that the image reading is not completed (S25: NO), the control unit 2 returns to S24 again and continues the image reading. When the control unit 2 determines that the image reading is completed (S25: YES), the control unit 2 proceeds to the next step. At this time, the image information read by the image reading unit 4 is continuously combined by the control unit 2 and subjected to OCR processing (S26). The OCR-processed character string information is transmitted to the search server 22 by the communication unit 5 via the external network 20 (S27), and the result is displayed on the display unit 3 (S28).
  • FIG. 10A is a display unit 3 when the result of the OCR processing is displayed as the reception result from the search server 22 when the web search mode is selected.
  • a web browser is displayed on the display unit 3, and includes a reading result 51, a search result 52, and a sidebar 53. The user can access the desired URL by selecting the reading result 51.
  • FIG. 10B is a display unit 3 when the result of the OCR processing is displayed as the reception result from the search server 22 when the map search mode is selected.
  • the reading result 54, the current location 55, and the enlargement / reduction button 56 are displayed on the display unit 3. The user can arbitrarily move the map by scrolling or the like.
  • the audio output application outputs audio from the audio output unit 9 based on the reading result read by the image reading unit 4.
  • the voice output application is started (S31: YES)
  • the screen of the voice output application is displayed on the display unit 3 and the reading standby state is set.
  • the control unit 2 determines whether or not image reading has been started based on the contact of the sensor 43 with the read medium 10 (S32).
  • the control unit 2 determines that the sensor 43 has come into contact with the medium 10 to be read (S32: YES)
  • the light source 41 lights up at predetermined time intervals and the image reading unit 4 starts image reading (S33).
  • the control unit 2 When the image reading is started, the control unit 2 performs OCR processing at predetermined time intervals (S34), and performs known natural language processing on the processing result.
  • natural language processing a sentence is divided into morphemes by using morphological analysis on the text character string of the OCR processing result, separated into words, and each word is normalized.
  • word normalization word replacement processing such as unification of character types and absorption of notation fluctuations is performed. At this time, numbers may be replaced and words may be unified using a dictionary.
  • the processing result After removing the stop word, the processing result is output as voice from the voice output unit 9 (S36).
  • the OCR processing and the natural language processing are executed by the control unit 2, they may be executed by an external server via the external network 20. As a result, highly accurate processing can be executed without executing the update of the application or the like.
  • the control unit 2 determines whether or not the image reading is completed, that is, whether or not the sensor 43 is separated from the read medium 10 (S37). When the control unit 2 determines that the image reading is not completed (S37: NO), the control unit 2 returns to S33 again and continues the image reading. The interval for executing S33 to S36 again may be set based on time, may be set based on the number of characters read, or may be set based on the analysis result of natural language processing. When the control unit 2 determines that the image reading is completed (S37: YES), the control unit 2 determines whether or not the voice output application is terminated (S38). If the audio output application is not terminated, the process returns to S32 (S38: NO), and if the audio output application is terminated, this flow ends (S38: YES).
  • the translation application translates the reading result read by the image reading unit 4 into a predetermined language and displays it on the display unit 3.
  • the screen of the translation application is displayed on the display unit 3 and the reading standby state is set.
  • the control unit 2 determines whether the image reading has started based on the contact of the sensor 43 with the read medium 10 (S42).
  • the control unit 2 determines that the sensor 43 has come into contact with the medium 10 to be read (S42: YES)
  • the light source 41 lights up at predetermined time intervals and the image reading unit 4 starts reading the image (S43).
  • the control unit 2 When the image reading is started, the control unit 2 performs OCR processing at predetermined time intervals (S44), and performs a known translation processing on the processing result (S45). In the translation process, the OCR processing result is transmitted to the translation server 24 via the external network 20. The result translated by the translation server 24 is received by the communication unit 5. The control unit 2 determines whether or not the translation result is set to output audio (S46). If the translation result is not set to be output as audio (S46: NO), the control unit 2 displays the translation result from the translation server 24 on the display unit 3 (S47). When the translation result is set to be output by voice (S46: YES), the control unit 2 outputs the translation result from the translation server 24 to the display unit 3 by voice from the voice output unit 9 (S48). At this time, the reception result from the translation server 24 is output as voice after executing the natural language processing as in S35. Although this natural language processing is executed by the control unit 2, it may be executed by an external server via the external network 20.
  • the control unit 2 determines whether or not the image reading is completed, that is, whether or not the sensor 43 is separated from the read medium 10 (S49). When the control unit 2 determines that the image reading is not completed (S49: NO), the control unit 2 returns to S43 again and continues the image reading. When the control unit 2 determines that the image reading is completed (S49: YES), the control unit 2 determines whether or not the translation application is terminated (S50). If the translation application is not terminated, the process returns to S42 (S50: NO), and if the translation application is terminated, this flow ends (S50: YES).
  • the image reading unit 4 is provided on the reading surface 1B which is the front surface orthogonal to the display surface 1A, the image reading device 1 is erected with respect to the read medium 10 to read the image.
  • the unit 4 and the read medium 10 can be brought into contact with each other.
  • the image reading device 1 can be easily grasped, so that the image reading device 1 can be smoothly moved when scanning on the medium 10 to be read, and a reading error or the like of the image reading unit 4 can be suppressed.
  • the reading surface 1B is a front surface orthogonal to the display surface 1A, the image reading unit 4 is provided on a surface corresponding to the thickness of the image reading device 1.
  • the reading surface 1B which is a side surface of a terminal such as a smartphone, is thinner than the surface on which the display unit 3 is provided and the back surface thereof, so that the area that can be read by the image reading unit 4 is narrowed.
  • the image reading unit 4 scans and reads the book line by line, highly accurate character recognition is possible without recognizing the character string on the adjacent line.
  • the image reading unit 4 reads the image by directly contacting the read medium 10 and scanning the image, the focus adjustment and vibration control are performed as compared with the case where the image is read by a camera or the like mounted on a smartphone or the like.
  • the image reading device 1 can be realized at low cost. By providing the image reading unit 4 on the reading surface 1B, a complicated optical focusing mechanism can be miniaturized, so that a compact image reading device 1 can be realized.
  • the image reading device 1 since the reading surface 1B comes into contact with the read medium 10 and scans on the read medium 10 to read an image such as a character string, the image reading device 1 is always in contact with the read medium 10. The images are in contact with each other and can be read stably and accurately. Further, since the display surface 1A faces the user side when the image of the read medium 10 is being read by the image reading device 1, the user can perform the reading work while looking at the display unit 3, which is excellent in operability. The image reading device 1 can be realized. Further, since the reading direction R is a direction substantially orthogonal to the display surface 1A, the image reading device 1 can be stably gripped, and reading errors and the like can be suppressed. Further, the user can perform the reading operation while looking at the display unit 3.
  • the image reading unit 4 is provided on the left side of the front side surface of the image reading device 1, it is possible to operate the display unit 3 with the thumb of the right hand while holding the image reading device 1 with the right hand. it can. As a result, the operability of the image reading unit 4 during the reading operation can be improved. Further, since the reading direction R is the vertical direction, it is easy to position the image reading unit 4 with respect to the character string of the read medium 10.
  • the control unit 2 for recognizing the image read by the image reading unit 4 since the control unit 2 for recognizing the image read by the image reading unit 4 is provided, the character string can be recognized from the images continuously acquired by scanning.
  • the image reading unit can be used as a character string input interface, so that the user can accurately input the character string by flick input or full key input, and without going through image processing for specifying the start point / end point.
  • You can specify the target character string in and enter the character string with a simple operation.
  • the target character string can be accurately and easily converted into text data by reading with the image reading unit 4. Can be entered as.
  • the leaflet creator is compared with the QR code (registered trademark) which is a prior art.
  • QR code registered trademark
  • each time the control unit 2 recognizes each character it communicates with the book server 21, so that the display unit 3 communicates with the book server 21 while scanning the read medium 10. Can be displayed.
  • the display unit 3 communicates with the book server 21 while scanning the read medium 10.
  • the voice output application since the voice output application includes the voice output unit 9 that outputs the character string recognized by the control unit 2 as voice, the reading result is used while using the image reading unit 4 as the character string input interface. Can be obtained as voice.
  • the image reading unit 4 reads the character string
  • the control unit 2 converts it into a character string
  • the audio output unit 9 outputs the contents of the book. it can. Further, even if the user is a visually impaired person such as low vision, he / she can enjoy reading or the like by listening to the sound from the sound output unit 9.
  • the image read by the image reading unit 4 is enlarged and displayed on the display unit 3, so that the image reading device 1 can have the role of a magnifying glass.
  • the characters of the book can be determined by looking at the display unit 3.
  • the reading surface 1B has a shape like a chamfer cut out from the side surface of the image reading device 1, and since the image reading unit 4 is arranged on the reading surface 1B, the text is read.
  • the start point and end point of the time can be easily specified.
  • the image reading device 201 of the second embodiment will be described with reference to FIGS. 15 and 16.
  • the same configurations as those in the above-described embodiment are designated by the same reference numerals and the description thereof will be omitted.
  • the image reading unit 4 is provided on the left side of the front surface of the image reading device 1 and the reading direction R is the vertical direction.
  • the image reading device 201 is provided on the right side of the front side surface of the image reading device 201.
  • An image reading unit 204 is provided on the
  • the image reading device 201 includes a display unit 203 which is a touch panel and an image reading unit 204. Similar to the first embodiment, the image reading unit 204 has a function of scanning the read medium 10 by scanning on the read medium 10 to be read along the reading direction R (horizontal direction). Be prepared.
  • the image reading unit 204 includes a light source 241, an image sensor and an optical lens group (not shown), and a sensor 243.
  • the image reading unit 204 is provided on the front side surface of the image reading device 201.
  • the image reading device 201 includes a display surface 201A provided with the display unit 203, and a reading surface 201B which is a surface intersecting (orthogonal) with the display surface 201A and provided with the image reading unit 204. ..
  • the image reading device 201 when the image reading device 201 reads the read medium 10, the image reading device 201 is moved along the reading direction R with the image reading unit 204 and the read medium 10 in contact with each other.
  • the image reading device 201 has the same width in the vertical direction as that of the image reading device 1 and the image reading device 101 in the vertical direction, and the first point is that unnecessary character strings are not read. It is the same as the case of the form, but the length in the left-right direction which is the traveling direction is long, and the posture when grasped and operated is stable. Therefore, the image reading device 201 can move stably on the read medium 10. As a result, it is possible to suppress a reading error or the like by the image reading unit 204.
  • the image reading device 301 of the third embodiment will be described with reference to FIGS. 17 to 19.
  • the image reading unit 204 is provided on the front side surface of the image reading device 201, but in the third embodiment, the rotation support portion 305 is provided on the front side surface of the image reading device 301.
  • An image reading unit 304 is provided on the rotation support unit 305.
  • the image reading device 301 includes a main body portion 302, a display unit 303 which is a touch panel, an image reading unit 304, and a rotation support unit 305 which can rotate in the direction of the arrow L1 with respect to the main body unit 302.
  • a display unit 303 is provided on the display surface 301A which is the upper surface of the main body 302, and a rotation support portion 305 is provided on the front right portion.
  • a curved portion 302A is formed on a surface of the main body 302 that faces the rotation support portion 305 in the front-rear direction so that the rotation support portion 305 does not come into contact with the main body 302 when the rotation support portion 305 rotates. ..
  • the curved portion 302A is curved in an arc shape so as to be separated from the rotation support portion 305 and is recessed rearward.
  • the curvature for preventing contact may be chamfered on the surface of the rotation support portion 305 facing the main body portion 302.
  • the rotation support unit 305 has a reading surface 301B which is a surface intersecting (orthogonal) with the display surface 301A and in which the image reading unit 304 is provided.
  • the rotation support portion 305 is rotatable with respect to the main body portion 302 about the rotation shaft 306.
  • the rotation shaft 306 has a substantially cylindrical shape and extends in the left-right direction, and extends in the left direction from the left end surface of the rotation support portion 305.
  • the rotation shaft 306 is rotatably supported by the main body 302.
  • the reading direction R of the image reading unit 304 is the vertical direction in the state shown in FIG. 17, but it can be set in a desired direction by rotating the main body 302.
  • the image reading unit 304 has a function of scanning the read medium 10 (FIG. 16) to be scanned by scanning along the reading direction R. Be prepared.
  • the image reading unit 304 includes a light source 341, an image sensor and an optical lens group (not shown), and a sensor 343.
  • optical elements such as an image sensor and an optical lens group are arranged side by side in the left-right direction. Specifically, the light emitted from the light source 341 is reflected by a mirror (not shown), travels to the left, passes through the rotation axis 306, and is imaged on the image sensor by the optical lens group.
  • mouse app A mouse application using the image reading device 301 will be described with reference to FIGS. 18 and 19.
  • the mouse application is an application for moving the arrow displayed on the display unit 303 in response to the detection of the movement of the image reading device 301 by the image reading unit 304.
  • the mouse window shown in FIG. 19 is displayed.
  • a right-click area 310 In the mouse window, a left-click area 311, a non-responsive area 312 that does not respond to touch, an arrow 313, and a background 314 are displayed.
  • the background 314 of the mouse window displays the screen of another application, for example, the search result screen as shown in FIG. 10A.
  • Arrow 313 corresponds to the index of the present invention.
  • the right-click region 310 corresponds to either one of the first region and the second region of the present invention
  • the left-click region 311 corresponds to the other of the first region and the second region of the present invention.
  • Arrow 313 corresponds to the index of the present invention.
  • the user activates the mouse application, places the image reading device 301 on the desk 320, rotates the rotation support unit 305 by approximately 90 ° about the rotation shaft 306, and causes the image reading unit 304 and the desk 320 to rotate. To face each other.
  • the image reading unit 304 detects the movement amount and the moving direction of the image reading device 301, and the arrow 313 displayed on the display unit 303 moves.
  • the right-click area 310 and the left-click area 311 the user can operate the arrow 313 displayed on the display unit 303 as if the image reading device 301 were treated as an optical mouse.
  • the mouse window is provided with a right-click area 310, a left-click area 311 and a non-reactive area 312 adjacent to the right-click area 310 and the left-click area 311. It is not necessary to provide a non-reaction region by adjoining the two. Further, the right-click area and the left-click area may be arranged so as to be separated from each other.
  • the input dext data can be easily edited.
  • the document can be easily edited by using such a mouse application.
  • the image reading unit 304 can rotate with respect to the main body unit 302. As a result, the image reading unit 304 can be used in various states as needed. Further, since the rotation support portion 305 can rotate about the rotation shaft 306 with respect to the main body portion 302, the image reading portion 304 can be arranged at a position desired by the user. As a result, the image reading device 301 with high operability can be realized.
  • the reading surface which is the side surface of a terminal such as a smartphone, has a thinner shape than the surface provided with the display unit and the back surface thereof. You can select the posture of the shape suitable for.
  • the arrow 313 moves in the display unit 303 according to the scanning amount of the image reading unit 304, the position of the arrow 313 displayed on the display unit 303 is moved by using the image reading device 301. Can be done. Further, by providing the right-click area 310 and the left-click area 311, the image reading device 301 can be provided with a function as an optical mouse. Thereby, the operability of the image reading device can be improved. Further, since the non-reaction area 312 adjacent to the right-click area 310 and the left-click area 311 is defined, it is possible to reduce accidentally pressing the right-click area 310 or the left-click area 311.
  • the image reading device 401 of the fourth embodiment will be described with reference to FIG.
  • the rotation support portion 305 that can rotate around the rotation shaft 306 that extends in the left-right direction with respect to the main body portion 302 is provided on the front side surface of the image reading device 301.
  • a rotation support portion 405 that can rotate about a rotation shaft 406 extending in the front-rear direction with respect to the main body portion 402 is provided on the front side surface of the image reading device 401.
  • the image reading device 401 includes a main body portion 402, a display unit 403 that is a touch panel, an image reading unit 404, and a rotation support unit 405 that can rotate in the direction of arrow L2 with respect to the main body unit 402.
  • a display unit 403 is provided on the display surface 401A which is the upper surface of the main body portion 402, and a rotation support portion 405 is provided on the front right portion.
  • a curved portion 402A is formed on the surface of the main body portion 402 facing the rotation support portion 405 in the left-right direction so that the rotation support portion 405 does not come into contact with the main body portion 402 when the rotation support portion 405 rotates with respect to the main body portion 402. .
  • the curved portion 402A is curved in an arc shape so as to be separated from the rotation support portion 405 and is recessed to the left.
  • the curvature for preventing contact may be chamfered on the surface of the rotation support portion 405 facing the main body portion 402.
  • a reading surface 401B which is a surface intersecting (orthogonal) with the display surface 401A and in which the image reading unit 404 is provided is provided.
  • the reading direction R of the image reading unit 404 is the vertical direction in the state shown in FIG. 20, but it can be set in a desired direction by rotating the main body unit 402.
  • the image reading unit 404 has a function of scanning the read medium 10 (FIG. 16) to be scanned by scanning along the reading direction R. Be prepared.
  • the image reading unit 404 includes a light source 441, an image sensor and an optical lens group (not shown), and a sensor 443.
  • optical elements such as an image sensor and an optical lens group are arranged side by side in the front-rear direction. Specifically, the light emitted from the light source 441 passes through the rotation axis 406 and is imaged on the image sensor by the optical lens group.
  • the rotation support portion 405 is rotatable with respect to the main body portion 402 about the rotation shaft 406.
  • the rotation shaft 406 has a substantially cylindrical shape and extends in the front-rear direction, and extends rearward from the rear surface of the rotation support portion 405.
  • the rotation shaft 406 is rotatably supported by the main body portion 402.
  • the image reading unit 404 since the image reading unit 404 has a rotation support unit 405 provided with the image reading unit 404, the image reading unit 404 can rotate with respect to the main body unit 402. As a result, the image reading unit 404 can be used in various states as needed. Further, since the rotation support portion 405 can rotate about the rotation shaft 406 with respect to the main body portion 402, the image reading portion 404 can be arranged at a position desired by the user. As a result, the image reading device 401 with high operability can be realized. For example, by rotating the image reading unit, it is possible to read both vertical writing and horizontal writing while keeping the display unit facing the user so that the user can easily see the text.
  • the image reading device 501 of the fifth embodiment will be described with reference to FIG.
  • the rotation support portion 405 that can rotate around the rotation shaft 406 that extends in the front-rear direction with respect to the main body portion 402 is provided on the front side surface of the image reading device 401.
  • a rotation support portion 505 that can rotate in the directions of the arrows L1 and L2 with respect to the main body portion 502 is provided on the front side surface of the image reading device 501.
  • the image reading device 501 includes a main body 502, a display unit 503 that is a touch panel, an image reading unit 504, and a rotation support portion 505 that can rotate in the directions of arrows L1 and L2 with respect to the main body 502. It includes a hinge portion 507 that connects the main body portion 502 and the rotation support portion 505.
  • a display unit 503 is provided on the display surface 501A which is the upper surface of the main body portion 502, and a rotation support portion 505 is provided on the front right portion.
  • the image reading unit 504 has a function of scanning the read medium 10 (FIG. 16) to be scanned by scanning along the reading direction R. Be prepared.
  • the image reading unit 504 includes a light source 541, an image sensor and an optical lens group (not shown), and a sensor 543.
  • optical elements such as an image sensor and an optical lens group are arranged side by side in the front-rear direction. Specifically, the light emitted from the light source 541 passes through the rotation shaft 506A described later and is imaged on the image sensor by the optical lens group.
  • a reading surface 501B which is a surface intersecting (orthogonal) with the display surface 501A and in which the image reading unit 504 is provided is provided.
  • the curved portion 502A so that when the rotation support portion 505 rotates in the direction of the arrow L1 with respect to the main body portion 502, the surfaces of the main body portion 502 facing the rotation support portion 505 in the front-rear direction do not come into contact with each other. Is formed.
  • the curved portion 502B is placed on the surface of the main body 502 facing the rotation support portion 505 in the left-right direction so that the rotation support portion 505 does not come into contact with the main body portion 502 in the direction of arrow L2. Is formed.
  • the curved portion 502A is curved in an arc shape so as to be separated from the rotation support portion 505 and is recessed rearward
  • the curved portion 502B is curved in an arc shape so as to be separated from the rotation support portion 505 and is recessed in the left direction.
  • the curvature for preventing contact may be provided in a chamfered shape on the surface of the rotation support portion 505 facing the main body portion 502.
  • the rotation support portion 505 is rotatable with respect to the main body portion 502 about the rotation shaft 506A as shown by the arrow L1 and is connected to the main body portion 502 about the rotation shaft 506B as shown by the arrow L2. On the other hand, it is rotatable.
  • the rotation support portion 505 is connected to the main body portion 502 via a hinge portion 507.
  • a rotating shaft 506A extending rearward extends to the rear surface of the hinge portion 507.
  • the rotation shaft 506A has a substantially cylindrical shape and is rotatably supported by the main body portion 502.
  • the hinge portion 507 is rotatably connected to the rotation support portion 505 about the rotation shaft 506B.
  • the rotation support portion 505 rotates in the direction of the arrow L1
  • the rotation support portion 505 rotates about the rotation shaft 506B
  • the rotation support portion 505 rotates in the direction of the arrow L2
  • the rotation support portion 505 rotates.
  • the dynamic support portion 505 rotates about the rotation shaft 506A.
  • the reading direction R of the image reading unit 504 is the vertical direction in the state shown in FIG. 21, but it can be set in a desired direction by rotating the main body unit 502.
  • the image reading portion 504 can rotate with respect to the main body portion 502.
  • the image reading unit 504 can be used in various states as needed.
  • the rotation support portion 505 can rotate about the rotation shaft 506A and the rotation shaft 506B with respect to the main body portion 402
  • the image reading portion 504 can be arranged at a position desired by the user.
  • the image reading device 501 with high operability can be realized. For example, by rotating the image reading unit, it is possible to read both vertical writing and horizontal writing while keeping the display unit facing the user so that the user can easily see the text.
  • the reading surface which is the side surface of a terminal such as a smartphone, has a thinner shape than the surface provided with the display unit and the back surface thereof.
  • the image reading device 601 of the sixth embodiment will be described with reference to FIG.
  • the same configurations as those in the above-described embodiment are designated by the same reference numerals and the description thereof will be omitted.
  • the reading direction R of the image reading device 601 is set in the front-rear direction as in the image reading device 201 of the second embodiment.
  • the image reading device 601 includes a display unit 603 which is a touch panel and an image reading unit 604.
  • the image reading unit 604 has a function of scanning the read medium 10 by scanning on the read medium 10 to be read along the reading direction R in the front-rear direction.
  • the image reading unit 604 includes a light source 641, an image sensor and an optical lens group (not shown), and a sensor 643.
  • the image reading unit 604 is provided on the front side surface left side of the image reading device 601.
  • the image reading device 601 includes a display surface 601A provided with the display unit 603 and a reading surface 601B which is a surface intersecting (orthogonal) with the display surface 601A and provided with the image reading unit 604. ..
  • the side surface of the image reading device 601 is curved in an R shape, and a reading surface 601B which is a surface orthogonal to the display surface 601A is provided on the peripheral edge of the image reading unit 604.
  • the reading surface 601B comes into contact with the read medium 10
  • the most protruding portion on the front surface of the image reading device 601 comes into contact with the read medium 10.
  • the image reading device 601 can be stably placed on the read medium 10.
  • the reading surface 601B can be brought into close contact with the medium 10 to be read and brought into contact with the medium 10, so that the image can be read with high accuracy.
  • the reading surface 601B is projected, the position of the image reading unit 604 can be easily confirmed during operation, and the image reading unit 604 can be brought into contact with the target character string at a pinpoint, improving operability. be able to.
  • the image reading device 701 of the seventh embodiment will be described with reference to FIGS. 23 and 24.
  • the same configurations as those in the above-described embodiment are designated by the same reference numerals and the description thereof will be omitted.
  • the image reading unit 604 is provided on the front surface of the image reading device 601.
  • the corner of the image reading device 701 is cut diagonally.
  • An image reading unit 704 is provided on the plane.
  • the image reading unit 704 includes a light source 741, an image sensor and an optical lens group (not shown), and a sensor 743.
  • the image reading device 701 includes a display surface 701A provided with the display unit 703 and a reading surface 701B which is a surface intersecting (orthogonal) with the display surface 701A and provided with the image reading unit 704. ..
  • the image reading unit 704 is provided on the side surface of the image reading device 701. Specifically, in a plan view, the right front corner of the image reading device 701 has a shape like a chamfer cut diagonally, and the image reading unit 704 is provided on the reading surface 701B which is the cut plane. There is.
  • the image reading device 701 includes a display unit 703 which is a touch panel and an image reading unit 704.
  • the image reading unit 704 has a function of scanning the read medium 10 by scanning on the read medium 10 to be read along the reading direction R parallel to the reading surface 701B.
  • the image reading device 701 when the image reading device 701 reads the image reading device 10, the image reading device 701 is moved along the reading direction R with the image reading unit 704 and the reading medium 10 in contact with each other. Let me.
  • the image reading device 701 is the same as in the case of other embodiments in that it does not read an unnecessary character string, but since the reading surface 701B is located at the corner of the image reading device 701, the target character string is used.
  • the image reading unit 704 can be brought into contact with the image at a pinpoint, and the operability can be improved.
  • the image reading device 801 of the eighth embodiment will be described with reference to FIGS. 26 and 27.
  • the same configurations as those in the above-described embodiment are designated by the same reference numerals and the description thereof will be omitted.
  • the reading direction R of the image reading device 801 is set in the vertical direction as in the image reading device 1 of the first embodiment.
  • the image reading device 801 includes a display unit 803 and an image reading unit 804.
  • the image reading unit 804 has a function of scanning the read medium 10 by scanning on the read medium 10 to be read along the reading direction R in the vertical direction.
  • the image reading unit 804 includes a light source 841, an image sensor and an optical lens group (not shown), and a sensor 843.
  • the image reading unit 804 is provided on the front side surface left side of the image reading device 801.
  • the image reading device 801 includes a display surface 801A on which the display unit 803 is provided, and a reading surface 801B which is a surface intersecting the display surface 801A and is provided with the image reading unit 804.
  • the display surface 801A is provided with a reading unit position identification unit (hereinafter referred to as "identification unit") 805 at a position corresponding to the left-right end side of the image reading unit 804.
  • identity unit a reading unit position identification unit
  • the position of the protrusion is the image reading unit 804 when viewed from the direction of the display surface 801A.
  • Two are provided at positions corresponding to the left and right end sides of the image reading unit 804 at substantially the same intervals as the left and right end sides of the image reading unit 804.
  • the identification unit 805 is composed of a substantially rectangular rod-shaped protrusion having a convex shape.
  • the identification unit 805 is arranged corresponding to the position of the image reading unit 804, and the length of one side is substantially the same as the distance between the end sides in the left-right direction of the image reading unit 804. It can also be composed of shaped protrusions. Further, the identification unit 805 may have a concave shape in addition to the protrusion having a convex shape, or may be an identification mark such as painted or inlaid. The paint or inlaid identification mark is provided at a position corresponding to the left and right end sides of the image reading unit 804 when viewed from the direction of the display surface 801A. The shape of the identification mark by painting or inlay may be circular, rectangular, or polygonal as long as the position of the image reading unit 804 can be identified, or a plurality of identification marks may be provided.
  • the image reading device 801 when the image reading device 801 reads the read medium 10, the image reading device 801 is placed so that the character string 11 to be read is located between the left and right identification units, and the image reading unit 801 is placed. The image reading device 801 is moved along the reading direction R with the 804 and the medium 10 to be read in contact with each other.
  • the identification unit has a rectangular shape
  • the image reading device 801 is placed so that the character string is located between the left and right sides of the surface substantially parallel to the display surface, and when the identification mark is rectangular, the identification unit is identified.
  • the image reading device 801 is placed so that the character string is located between the left and right sides of the mark, and is moved in the same manner.
  • the image reading unit 804 Since the image reading unit 804 is in contact with the medium 10 to be read during use and cannot be seen by the user, it may not be possible to clearly recognize the position on the reading surface 801B.
  • the image reading unit 704 can be brought into contact with the character string to be pinpointed, and the operability can be improved.
  • a reading unit position identification application (hereinafter referred to as “identification application”) using the image reading device 801 will be described with reference to FIGS. 26 and 27.
  • the identification application is an application for displaying the position of the image reading unit 804.
  • a substantially rectangular identification area 806 is displayed on the window of the display unit 803.
  • the identification area 806 for example, the character string 11 to be read represented on the read medium 10 is displayed.
  • the identification area 806 is displayed at a position corresponding to the image reading unit 804 and the identification unit 805.
  • the identification area 806 is displayed at a position corresponding to the image reading unit 804 and the identification unit 805 when viewed from the direction of the display surface 801A when the image reading device 804 is gripped in an upright state. Will be done.
  • the color of the identification area may be changed depending on the usage state of the image reading unit, such as gray when the image reading unit is in the standby state and red when the image reading unit is in the reading state.
  • the image reading device 801 when the image reading device 801 reads the read medium 10, the image reading device 801 is arranged so that the character string 11 represented on the read medium 10 is located in the identification area 806.
  • the image reading device 801 is moved along the reading direction R in a state where the image reading unit 804 and the medium 10 to be read are in contact with each other. Since the image reading unit 804 is in contact with the read medium 10 and cannot be seen by the user during use, it may not be possible to clearly recognize the position on the reading surface 801B, but due to the presence of the identification area 806, it may not be possible to clearly recognize the position.
  • the image reading unit 704 can be brought into contact with the target character string at a pinpoint, and the operability can be improved.
  • the OCR processing is executed by the control unit 2 provided in the image reading device 1, but the OCR processing is not limited to this.
  • the OCR process may be executed by an external server connected via the external network 20.
  • a URL Uniform Resource Locator
  • a URL 82 a URL 82
  • a scan button 83 a setting button 84
  • an article 85 are displayed on the web browser.
  • the image reading unit 4 is activated and enters the reading standby state.
  • the image reading unit 4 reads the URL described in the read medium, performs OCR processing to recognize characters, and inputs the read URL to the URL display unit 81.
  • the URL can be easily input by reading the URL with the image reading unit 4 without inputting the URL.
  • the scan start button may be provided in the window displayed when the setting button 84 is pressed without displaying the scan button. Further, when the URL is read by the image reading unit 4, the reading result may be input to the URL display unit at any time, a plurality of candidates may be displayed by a pull-down menu, and the user may select a desired address.
  • the book was purchased by bidirectional communication with the book server 21 via the external network 20, but it is also possible to purchase the electronic article by the same flow.
  • An electronic article may be purchased by communicating with an external server based on the title of the article read by the image reading unit 4.
  • the mouse application is installed in the image reading device 301, but the mouse application can also be used in the image reading device of another embodiment.
  • the non-responsive region is located on the thumb portion, and it is possible to prevent the display unit from being operated by mistake.
  • the text data output application is started in the state shown in FIG. 17 and the mouse application is used, the input text data is immediately specified on the screen accurately by using the pointer, and cut and paste is performed. Can be edited.
  • the image reading device 801 is provided with the identification unit and the identification application is installed, but the image reading device of another embodiment can also use the identification unit / identification application. Moreover, either one of the identification unit and the identification application may be used.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Character Input (AREA)

Abstract

走査式の画像読取部を備えた画像読取装置を提供する。画像読取装置1は、被読取媒体からの情報を走査によって読み取る装置であって、被読取媒体の画像を連続的に読み取る画像読取部4と、画像読取部4が連続的に読み取った画像を記憶する記憶部と、画像読取部4が読み取った画像を表示可能であって表示面1Aに設けられた表示部3と、画像読取部4と、記憶部と、表示部4とを制御する制御部と、を有し、画像読取部4は、表示面1Aと交差する読取面1Bに設けられていることを特徴としている。

Description

画像読取装置
 本発明は画像読取装置に関し、特に被読取媒体上を走査することにより画像を読取る画像読取装置に関する。
 従来より、接触式の画像読取部を備えた画像読取装置が知られている(例えば、特許文献1)。表示部の裏面には、シート状でかつ透過型のフォトアレイセンサからなる画像読取部が設けられている。画像読取部には光源部が積層され、光源部からの光の反射光から画像を読取っている。画像読取装置では、例えば画像読取部を被読取媒体である名刺等の上に載置し、スキャンすることで名刺を読取ることができる。
 また、他の先行技術においては、ペン型スキャナの読取結果をスマートフォン等の端末に送信し、当該結果を外部サーバに送信するスキャンシステムが知られている(例えば、特許文献2)。スキャンシステムでは、スキャン対象の媒体における種類の異なるデータを適切な形式に変換し保存している。
 また、電子書籍等を購入する際には、スマートフォンやタブレット等の端末で電子書籍を検索し、所望の電子書籍を購入する。電子書籍とは、紙とインクを利用した印刷物ではなく、電子機器のディスプレイで読むことができる出版物であり、具体的には電子データとして適宜の記憶媒体に記憶し、その記憶媒体を前記電子機器に装着することにより読むことができる。
 実店舗における書籍の購入と電子書籍における書籍の購入との最大の違いは、実物が陳列されている中から所望の書籍を選択するか、所望の電子書籍のみを検索でヒットさせて選択するかという点にある。電子書籍の販売において、ユーザが実店舗に近い感覚で書籍を購入することができる書籍販売システムが知られている(例えば、特許文献3)。このような書籍販売システムでは、端末のディスプレイには書籍を陳列した書棚が表示され、端末はサーバから書籍背表紙画像を含む信号を受信し、複数の背表紙が書棚に陳列されていることを模した画像が形成されている。書棚に配置されたディスプレイの周囲は、書籍が陳列された書棚であり、ディスプレイには書棚に書籍が陳列されているのと同様の画像を表示できる。これにより、周囲の書棚とディスプレイ画像の区別がつきにくくなり、ユーザは書棚に陳列された書籍に接するのに近い感覚で、ディスプレイに表示された背表紙画像に接することができる。
 さらに、スマートフォンに搭載されているカメラで文字列の含まれる光景を撮影し、ユーザが画像のトリミング処理をすることにより文字列を読み込ませることができる。
特開2017-195520号公報 特開2017-107488号公報 特開2012-208590号公報
 しかしながら、特許文献1に記載の画像読取装置では、端末の裏面に被読取媒体上に照射された光の反射光から画像を読み取る透明なシート状の画像読取部が設けられているため、名刺や図表などの広い面積の画像を読取るには適していたが書籍の文字列など細い領域を読取るには適していなかった。特に、読み取った文字列に対してOCR処理を行う際は、広い面積でスキャンを行うと周囲の文字を誤って読み取ってしまう可能性があった。この場合には、誤って読み取った文字が読取結果にノイズとして表れてしまい、適切な状態で文字認識処理を行うことが難しかった。また、端末の裏面に画像読取部が設けられているため、被読取媒体を読取る際は端末を被読取媒体上に載置する必要がある。さらに、画像読取部の面積分でしか読取ができないため、より広い面積を読取ることが難しかった。
 また、特許文献2に記載のスキャンシステムでは、ペン型スキャナとスマートフォンとが別体であるため、ペン型スキャナで被読取媒体上を走査させた後にスマートフォンで所定の操作を行う必要があり、画像の読取からサーバの送信までユーザに手間が掛かっていた。
 また、特許文献3に記載の方法では、ユーザはディスプレイ上では実店舗に近い感覚で電子書籍を購入することができるが、小さいディスプレイ上では表現できる本棚も限られるとともに電子書籍を検索する際の文字入力はユーザの負担となっていた。書店にて電子書籍を購入する際は、スマートフォンから電子書籍のサイトにアクセスし書籍名称を入力することで検索していたが、文字入力の手間等からさらなる簡便なシステムが求められていた。また、書籍に限らず新聞記事や古書など目の前に存在している読み物をスマートフォン等で検索したい場合には、新聞記事のタイトルや古書の題号を入力する必要があり必ずしもユーザにとって使いやすいとは言えなかった。
 さらに、スマートフォンに搭載されているカメラで文字列を読み込むときは、撮影のため静止しなければならず、ピント合わせに時間がかかっていた。さらにカメラでの撮影ではデジタルズーム等を活用しても細長い文字列のみを撮影することは難しく、広範囲な撮影がなされるため、特定の文字列のみを読み込むときは撮影された画像のトリミングの手順が必要となり、作業に手間が掛かっていた。
 そこで、本発明は、走査式の画像読取部を備えた画像読取装置を提供することを目的とする。
 上記課題を解決するために第1の発明は、被読取媒体からの情報を走査によって読み取る画像読取装置であって、前記被読取媒体の画像を読み取る画像読取部と、前記画像読取部が読み取った前記画像を記憶する記憶部と、前記画像読取部が読み取った前記画像を表示可能であって表示面に設けられた表示部と、前記画像読取部と、前記記憶部と、前記表示部とを制御する制御部と、を有し、前記画像読取部は、前記表示面と交差する読取面に設けられていることを特徴とする画像読取装置を提供している。
 第2の発明では、第1の発明に記載された画像読取装置であって、前記読取面が前記被読取媒体と当接して前記画像読取部が前記被読取媒体の画像を読み取り、前記読取面は、前記表示面に対して略直交し、前記読取面と前記被読取媒体とを当接させたとき、前記表示面は前記被読取媒体に対して略直交し、前記被読取媒体からの情報を読み取るときは、前記表示面に略直交する方向である読取方向に走査することを特徴としている。
 第3の発明では、第1の発明または第2の発明に記載された画像読取装置であって、前記表示部は、接触することにより操作されるタッチパネルであって、前記制御部は、前記表示部に、指標と、第1領域と、第2領域と、を描画し、前記指標は、前記画像読取部の走査量に応じて前記表示部内を移動し、前記制御部は、前記第1領域が操作されたときは第1の機能を実行し、前記第2領域が操作されたときは第1の機能とは異なる第2の機能を実行することを特徴としている。
 なお、表示部には、第1領域と第2領域のみ描画されていてもよく、第1領域と、第2領域と、第1領域及び第2領域に隣接する無反応領域と、が描画されていてもよい。
 第4の発明では、第1の発明から第3の発明のいずれかに記載された画像読取装置であって、前記表示部が設けられている本体部と、前記画像読取部が設けられている回動支持部と、をさらに有し、前記回動支持部は、前記本体部に対して、少なくとも1つの回動軸を中心に回動可能であることを特徴としている。
 第1の発明によると、画像読取部が表示面と交差する面である読取面に設けられているため、画像読取装置を被読取媒体に対して立設した状態で画像読取部と被読取媒体とを当接させることができる。これにより画像読取装置が把持し易くなるため、被読取媒体上を走査させるとき画像読取装置を円滑に移動させることができ、画像読取部の読取エラー等を抑制することができる。また、読取面は表示面と交差する面であるため、画像読取部が画像読取装置の厚みに相当する面に設けられることとなる。一般には、スマートフォン等の端末における側面である読取面は表示部が設けられている面及びその裏面と比較して薄いため、画像読取部が読取可能な領域が狭くなる。これにより、画像読取部で書籍を1行ごとに走査させ読取るとき、隣の行の文字列を認識することなく精度の高い文字認識が可能となる。さらに、画像読取部は被読取媒体と直接当接させて走査させることにより画像を読取るため、スマートフォン等に搭載されているカメラ等によって画像を読取る場合と比べて、焦点調整や振動制御によるボケ抑制などの光学素子が不要になるとともに、絞りやシャッター速度などの露光条件の設定も不要となる。これにより、ユーザは簡易な操作で文字列等の読取を行うことができる。また、スマートフォン等に搭載されているカメラ等によって画像を読取る場合には、不要な文字列も読取ってしまうため、トリミングなどの画像処理が必要となるが、本件発明においてはこのような画像処理が不要となる。これにより、ユーザは簡易に文字列等を読取ることができる。さらに、フラットヘッドスキャナーやハンディスキャナーに用いられる機械走査などの機構が不要となるため、低コストで画像読取装置を実現することができる。画像読取部を読取面に設けることにより複雑な光学集光の機構を小型化することができるため、コンパクトな画像読取装置を実現することができる。
 第2の発明によると、読取面が被読取媒体と当接して画像を読取るため、画像読取装置が被読取媒体と常に当接した状態となり安定して精度良く画像を読取ることができる。また、画像読取端末で被読取媒体の画像を読取っているとき表示面は被読取媒体に対して略直交しているため、ユーザは表示面を見ながら読取作業を行うことができ、操作性に優れた画像読取装置を実現できる。さらに、読取方向が表示面に略直交する方向であるため、画像読取装置を安定的に把持することができ読取エラー等を抑制することができる。また、ユーザは表示部を見ながら読取作業を行うことができる。
 第3の発明によると、指標が画像読取部の走査量に応じて表示部内を移動するため、画像読取装置を卓上などで動かすことによって表示部に表示された指標の位置を移動させることができる。また、第1領域が操作されたときは第1の機能を実行し、第2領域が操作されたときは第1の機能とは異なる第2の機能を実行するため、第1の機能を左クリックとして第2の機能を右クリックとすると、画像読取装置に光学式マウスとしての機能を持たせることができる。これにより、画像読取装置の操作性を向上させることができる。例えば、画像読取部が回動することにより、使用者が見やすいよう表示部を使用者の方向に向けたままの状態で、縦書き、横書き双方の文章の読み取りをなすことができる。従来の画像読取装置は表示部に直接タッチするタッチパネルであるため、細かな操作が難かった。しかし、本発明によると、画像読取装置を移動させることによって指標を移動させるため、ズーム、範囲選択、図形の作成などの操作性が改善された。また、一般には、スマートフォン等の端末における側面である読取面は表示部が設けられている面及びその裏面と比較して薄い形状となっているが、この性質を活かし、画像読取装置の使用用途に適した形の姿勢を選択できる。文章読取り時には画像読取装置を立設した状態で使用することで、把持し易く円滑動作が可能で、かつ書籍等との接触面が小さいため目的とする文章の読み取り部分をピンポイントで細かく的確に指定できるようにする一方、マウスアプリ使用時には画像読取装置を卓上等で伏せて使用することで、机等との接触面を大きくし、より安定的な状態での精緻なポインタ操作による、細かい作業をすることができる。
 第4の発明によると、画像読取部が設けられている回動支持部を有しているため、画像読取部が本体部に対して回動することができる。これにより、必要に応じて様々な状態で画像読取部を使用することができる。また、回動支持部は本体部に対して少なくとも1つの回動軸を中心に回動可能であるため、複数の回動軸を中心に回動可能とすることにより、画像読取部をユーザの所望の位置に配置することができる。これにより、操作性の高い画像読取装置を実現することができる。
 これにより、本発明によって走査式の画像読取部を備えた画像読取装置を提供することができる。
図1は、本発明の第1の実施の形態による画像読取装置の斜視図を示す図である。 図2は、本発明の第1の実施の形態による画像読取装置のブロック図を示す図である。 図3は、本発明の第1の実施の形態による画像読取装置の部分断面図を示す図である。 図4は、本発明の第1の実施の形態による画像読取装置が接続されるネットワーク図を示す図である。 図5は、本発明の第1の実施の形態による画像読取装置の書籍アプリ起動時のフロー図を示す図である。 図6は、本発明の第1の実施の形態による画像読取装置の書籍アプリにおける画像読取装置とサーバとの通信を示す図である。 図7は、本発明の第1の実施の形態による画像読取装置の書籍アプリ起動時における表示部を示す図である。図7(a)は、画像読取部で書籍のタイトルを読取る途中の状態を示す図である。また、図7(b)は、画像読取部で書籍のタイトルの読取りが完了した状態を示す図を示す図である。 図8は、本発明の第1の実施の形態による画像読取装置のテキストデータ出力アプリ起動時のフロー図を示す図である。 図9は、本発明の第1の実施の形態による画像読取装置の検索アプリ起動時のフロー図を示す図である。 図10は、本発明の第1の実施の形態による画像読取装置の検索アプリ起動時における表示部を示す図である。図10(a)は、ウェブ検索モードのときの表示部を表す図である。また、図10(b)は、地図検索モードのときの表示部を表す図を示す図である。 図11は、本発明の第1の実施の形態による画像読取装置の音声出力アプリ起動時のフロー図を示す図である。 図12は、本発明の第1の実施の形態による画像読取装置のテキストデータ出力アプリの使用状態を示す斜視図を示す図である。 図13は、本発明の第1の実施の形態による画像読取装置の拡大アプリの使用状態を示す斜視図を示す図である。 図14は、本発明の第1の実施の形態による画像読取装置の翻訳アプリ起動時のフロー図を示す図である。 図15は、本発明の第2の実施の形態による画像読取装置の斜視図を示す図である。 図16は、本発明の第2の実施の形態による画像読取装置の使用状態を示す斜視図を示す図である。 図17は、本発明の第3の実施の形態による画像読取装置の斜視図を示す図である。 図18は、本発明の第3の実施の形態による画像読取装置のマウスアプリの使用状態を示す斜視図を示す図である。 図19は、本発明の第3の実施の形態による画像読取装置のマウスアプリ起動時における表示部を表す図である。 図20は、本発明の第4の実施の形態による画像読取装置の斜視図を示す図である。 図21は、本発明の第5の実施の形態による画像読取装置の斜視図を示す図である。 図22は、本発明の第6の実施の形態による画像読取装置の斜視図を示す図である。 図23は、本発明の第7の実施の形態による画像読取装置の斜視図を示す図である。 図24は、本発明の第7の実施の形態による画像読取装置の使用状態を示す斜視図を示す図である。 図25は、本発明の変形例による画像読取装置の表示部の図を示す図である。 図26は、本発明の第8の実施の形態による画像読取装置の斜視図を示す図である。 図27は、本発明の第8の実施の形態による画像読取装置の使用状態を示す斜視図を示す図である。
 本発明の第1の実施の形態による画像読取装置1を図1乃至図14に基づき説明する。図1に示すように、前後上下左右方向を定義する。以下の説明において、直交、垂直、平行とは、略直交、略垂直、略平行の概念を含むものとする。
 [ハードウェア構成]
 図1及び図2に示すように、画像読取装置1はスマートフォン又はタブレット等の端末であって、制御部2と、表示部3と、画像読取部4と、通信部5と、記憶部6と、操作部7と、電源部8と、音声出力部9と、を備えている。制御部2はCPU及びメモリから構成され、記憶部6に記憶されているオペレーティングシステムやプログラムをメモリ上にロードし、プログラムに含まれる様々な指令を実行する。画像読取装置1は、表示部3が設けられている表示面1Aと、表示面1Aと直交(交差)する面であって画像読取部4が設けられている読取面1Bと、を備えている。
 画像読取部4は、光源41と、イメージセンサ42と、センサ43と、光学レンズ群44と、を備えている。図1に示すように、画像読取部4は画像読取装置1において表示部3が設けられている表示面1Aと交差(直交)する面に設けられている。換言すると、画像読取部4の上面及び下面以外の側面である前面の左寄りに設けられている。読取面1Bは、表示面1Aと、画像読取装置1の前面と、画像読取装置1の右面と、画像読取装置1の左面と、画像読取装置1の後面と、のすべての面と交差している。
 画像読取部4は、スキャン対象となる被読取媒体10(図12)上を読取方向Rに沿って走査することにより、被読取媒体10をスキャンする機能を備える。画像読取部4は、ユーザの操作に応じて被読取媒体10の任意の部分をスキャンし、スキャンした部分が電子画像化された画像情報を生成する。ユーザが画像読取部4と被読取媒体10とを当接させた状態で画像読取装置1を走査させることにより、画像読取部4が連続的に被読取媒体10を読取り、複数の画像情報を生成し、当該画像情報を結合して記憶部6に記憶する。ここで、スキャン対象となる被読取媒体は、典型的には、紙書籍である。ユーザは、電子化された情報として紙書籍の一部を取得したい場合、紙書籍中の任意の部分(本文、題号、ページ番号、図など)を、画像読取装置1で読み取る。
 図3に示すように、光源41はLED等で構成された照明用光源であって、読取面1B近傍に設けられていて開口近傍を所定の時間間隔で照射する。光学レンズ群44は、開口端部から望まれる一定領域内の2次元画像を光路45で示すようにイメージセンサ42において逆向きに結像する。ここで、一定領域は、光源41によって照射される照明領域内の領域であって、被読取媒体10の画像を読取るスキャン領域となる。光学レンズ群44には、前後方向の移動を可能とする焦点調節機構が設けられていて、イメージセンサ42上に画像を結像するように焦点距離の調節を行うことができる。
 イメージセンサ42は、光学レンズ群によって結像された像を光電変換し、画像情報を生成する。換言すると、イメージセンサ42は被読取媒体10の一部(例えば、紙書籍の紙面の一部)を撮像し、その一部を電子化された画像として画像情報を生成し、制御部2に出力する。画像情報が示す1つの画像は、例えば、被読取媒体10に記載された文章の一部の文字列、又は図面の一部を示す画像となる。イメージセンサ42は、所定時間間隔毎にスキャンして連続的に画像情報を取得する。制御部2に出力された複数の画像情報は互いに結合されて文字列情報又は図形情報となる。イメージセンサ42が画像情報を取得する時間間隔は、画像読取装置1を被読取媒体10で走査させる走査速度に応じて任意に設定することができる。
 イメージセンサ42の露光時間中に入力画像が移動すると、その移動した距離の分だけ画像情報がぶれる現象が発生する。そこで、本実施の形態の光源41は、1回の照射時間を短くすることにより取り込む画像のブレを最小限に抑えている。光源41の照射動作時間及びイメージセンサ42の画像取得時間の間隔は、走査速度に応じて任意に設定することができる。
 光源41は、LED、有機EL、無機ELのいずれであってもよく、その他の光源を用いることもできる。光源41の色は、白色であってもよく、赤色(Red)、緑色(Green)、青色(Blue)の3色であってもよい。RGBの3色を用いることによりカラーでの読取が可能となる。本実施の形態においては、画像が認識できれば光源の色は限定されない。画像読取装置1で被読取媒体10を読取る際は、画像読取部4と被読取媒体10とが密着するため、外部光を遮断して光源41からの光のみを検出することができる。これにより、外部光による輝度ムラや色ムラが発生し難く再現性の高い画像検知が可能となる。
 制御部2は、生成された文字列情報または図形情報を処理方法に応じた所定の情報形式に変換する。情報を変換するための所定の処理として、光学文字認識処理(OCR処理)、JPG化(Joint Photographic experts Group)、pdf出力(Portable Document Format)等がある。
 センサ43は、画像読取部4の被読取媒体10への接触・非接触を検出するための検出センサである。センサ43は、近接センサ、圧力センサ、マイクロスイッチなどを用いることができる。
 通信部5は、図4に示すように、画像読取装置1を外部ネットワーク20と任意の無線通信を介して双方向通信可能に接続する。無線通信には、3G(Third Generation)、4G(Fourth Generation)、LTE(Long Term Evolutaion)などの移動体通信であってもよく、Bluetooth(登録商標)、無線LAN(Local Area Network)などの近距離無線通信であってもよい。
 画像読取装置1は、外部ネットワーク20を介して、書籍サーバ21と、検索サーバ22と、デジタルアーカイブサーバ23と、翻訳サーバ24と、接続されている。
 記憶部6は、オペレーティングシステムやプログラム等が記憶されるHDD(Hard Disk Drive)又はSSD(Solid State Drive)から構成される。本発明を実行するためのプログラム及び各種データは、ホストコンピューター(サーバ)が備えている記憶媒体からネットワークを介して記憶部6に配信してもよい。
 操作部7は、各種情報を入力するために設けられていて、本実施の形態では表示部3におけるタッチパネルである。操作部は、ボタンやキーであってもよく、画像読取装置1に無線又は有線で接続されたキーボードやタッチパッドであってもよい。電源部8は、充電可能なバッテリーであって、画像読取装置1の各部に電源を供給している。
 音声出力部9は、画像読取装置1が備えるスピーカーであって制御部2によって制御される。画像読取装置1が備える図示せぬ、カメラ、LEDライト、加速度センサ、GPS(Global Positioning System)などの位置情報検出機能も必要に応じて画像読取装置1の機能として利用することができる。画像読取装置1には、様々なメディアを挿入可能なカードスロット部が設けられていてもよい。カードスロット部に挿入されたメディアは記憶部6の容量を拡張する事が出来き、また他のカードスロットを持った装置とのデータ交換にも活用する事ができる。
 [書籍アプリ]
 画像読取装置1の記憶部6には、各種アプリケーションがインストールされている。各アプリケーションにおける画像読取部4の動作について説明する。なお、各種アプリケーションは、外部ネットワーク20に接続されることによりウェブブラウザを介して外部サーバから配信されるウェブアプリケーションであってもよい。
 画像読取装置1にインストールされている書籍アプリについて、図5乃至図7に基づいて説明する。書籍アプリとは、画像読取部4で読み取った書籍のタイトルに基づいて電子書籍を検索・購入するためのアプリケーションである。書籍アプリを起動すると(S1:YES)、書籍アプリの画面が表示部3に表示され読取待機状態となる。読取待機状態では、制御部2が、センサ43の被読取媒体10への接触に基づいて、画像読取が開始されたか否かを判断する(S2)。制御部2は、センサ43が被読取媒体10に接触したと判断すると(S2:YES)、光源41が所定時間間隔で点灯しイメージセンサ42が被読取媒体10からの反射光を読取ることよって画像読取が行われる(S3)。このとき、画像読取部4が読み取った画像情報は制御部2によって連続的に結合されるとともに、OCR処理される(S4)。OCR処理は公知の処理であって、必要に応じて輪郭補正やコントラスト補正等の前処理を行った後に文字認識を実行する。制御部2は、本発明の文字認識部に相当する。
 OCR処理された文字列情報は、外部ネットワーク20を介して通信部5によって書籍サーバ21に送信される(S5)。ここで、イメージセンサ42の画像取得の時間間隔は、画像読取部4が被読取媒体10上を走査して1文字読み取る程度の時間間隔である。換言すると、画像読取部4が1文字読取る毎にOCR処理を行い(S4)、当該処理結果を書籍サーバ21に送信する(S5)。
 図6に示すように、OCR結果である文字列情報は書籍サーバ21に送信され(S11)、書籍サーバ21における書籍データベースを参照し(S12)、文字列が一致する書籍タイトルを抽出する(S13)。抽出された書籍のリストは、書籍サーバ21から外部ネットワーク20を介して画像読取装置1に送信される(S14、S5)。制御部2は、書籍サーバ21から受信した抽出結果を表示部3に表示する(S6)。
 制御部2は、画像読取が終了したか否か、つまりセンサ43が被読取媒体10と離間したか否かを判断する(S7)。制御部2は、画像読取が終了していないと判断した場合には(S7:NO)、再びS3に戻ってS3からS6のプロセスを繰り返し実行する。制御部2は、画像読取が終了したと判断した場合には(S7:YES)、次のステップに進む。
 ユーザは、画像読取装置1で書籍の表紙や背表紙からタイトルをスキャンすることができる。例えば、書籍「我輩は虎である」のタイトルを画像読取装置1でスキャンしたときの表示部3を図7に示す。制御部2は、画像読取部4が1文字読み取る毎にS3からS6のステップを繰り返し実行するため、表示部3には読取が進むごとに検索結果が絞られて表示される。
 図7(a)は、書籍タイトル「我輩は」まで読み取ったときの表示部3である。表示部3には、読取結果31と、検索結果32と、詳細結果33と、購入ボタン34と、スキャン表示35と、が表示されている。検索結果32及び詳細結果33には、読取結果31と一致する書籍タイトルの一覧が表示される。検索結果32には4件と表示され、先頭の文字列が「我輩は」と一致する書籍が詳細結果33に表示されている。詳細結果33に隣接するように、各詳細結果33に対応する購入ボタン34が表示される。ユーザはこの段階で所望の書籍が詳細結果33に表示されている場合には、画像読取部4と被読取媒体10とを離間させて読取を完了し(S7:YES)、所望の詳細結果33に対応する購入ボタン34を押下することにより(S8:YES)、電子書籍購入手続に進む(S9)。電子書籍の購入手続は、公知の電子書籍購入と同様に、予め登録しておいたユーザのクレジットカード等からの引き落とし等によって行われる。
 ユーザが書籍タイトルの読取をさらに進めたときの表示部3を図7(b)に示す。読取結果31には、書籍タイトルである「我輩は虎である」が表示され、検索結果32には1件、詳細結果33には読取結果31と一致する書籍タイトルが表示されている。書籍タイトルの読取が完了しているため、画像読取部4と被読取媒体10とは離間しており、スキャン表示35は表示されていない。ユーザは、購入ボタン34を押下することにより(S8:YES)、電子書籍の購入手続に進む(S9)。
 書籍アプリでは、電子書籍の購入の他に、電子書籍の購読や定期購読などを行うことができる。再び電子書籍を検索する場合には、(S10:NO)、画像読取部4を被読取媒体10に当接させ書籍タイトルの読取を開始する(S2:YES)。書籍アプリを終了することにより(S10:YES)、本フローは終了する。
 書籍アプリでは、通信部5が書籍サーバ21にOCR結果を送信したが、デジタルアカイブモードを設け、デジタルアーカイブサーバ23にOCR結果を送信してもよい。このときは、図4と略同一のフローとなるが、購入手続(S9)が不要となりデジタルアーカイブのダウンロード手続となる。
[テキストデータ出力アプリ]
 次にテキストデータ出力アプリについて、図8及び図12を参照して説明する。テキストデータ出力アプリは、画像読取部4が読み取った読取結果に基づいて表示部3上でのテキストデータ表示を行う。テキストデータ出力アプリを起動すると(S61:YES)、テキストデータ出力アプリの画面が表示部3に表示され読取待機状態となる。読取待機状態では、制御部2が、センサ43の被読取媒体10への接触に基づいて、画像読取が開始されたか否かを判断する(S62)。制御部2は、センサ43が被読取媒体10に接触したと判断すると(S62:YES)、光源41が所定時間間隔で点灯し画像読取部4によって画像読取が開始される(S63)。
 画像読取が開始されると、制御部2は所定時間間隔でOCR処理を行い(S64)、処理結果を図12に示すように表示部3上にテキストデータとして表示する(S65)。表示部3は一般的な形式のテキストエディタ、ワープロ、ウェブブラウザ等のテキストデータ処理ソフトが表示され、読み取られたテキストデータがウィンドウ上に表示される。表示部3上にテキストデータのみが表示されてもよい。また後述のマウスアプリと組み合わせて使用してもよい。OCR処理は制御部2によって実行されたが、外部ネットワーク20を介して外部サーバによって実行されてもよい。これにより、アプリケーションのアップデート等を実行することなく精度の高い処理を実行することができる。
 制御部2は、画像読取が終了したか否か、つまりセンサ43が被読取媒体10と離間したか否かを判断する(S66)。制御部2は、画像読取が終了していないと判断した場合には(S66:NO)、再びS63に戻って画像読取を継続する。ふたたびS63からS65までを実行する間隔は、時間に基づいて設定されてもよく、読み込んだ文字数に基づいて設定されてもよい。図12にテキストデータ出力アプリを起動した状態で被読取媒体10の文章を読取っている状態を示す。表示部3には、テキストデータとしての被読取媒体10の文章が表示されている。制御部2は、画像読取が終了したと判断した場合には(S66:YES)、テキストデータ出力アプリを終了したか否かを判断する(S67)。テキストデータ出力アプリを終了していない場合は再びS52に戻り(S67:NO)、テキストデータ出力アプリを終了した場合は本フローが終了する(S67:YES)。
 [検索アプリ]
 次に検索アプリについて、図9及び図10を参照して説明する。検索アプリは、画像読取部4が読み取った読取結果に基づいてウェブ検索や地図検索を行う。検索アプリを起動すると(S21:YES)、検索モードを選択する画面が表示部3に表示される(S22)。本実施の形態では、検索アプリはウェブ検索モードと、地図検索モードと、を備えている。ウェブ検索モードでは画像読取部4の読取結果をウェブ検索することができ、地図検索モードでは画像読取部4の読取結果を地図検索することができる。いずれかのモードが選択されると、読取待機状態となる。読取待機状態では、制御部2が、センサ43の被読取媒体10への接触に基づいて、画像読取が開始されたか否かを判断する(S23)。制御部2は、センサ43が被読取媒体10に接触したと判断すると(S23:YES)、光源41が所定時間間隔で点灯し画像読取部4によって画像読取が開始される(S24)。
 制御部2は、画像読取が終了したか否か、つまりセンサ43が被読取媒体10と離間したか否かを判断する(S25)。制御部2は、画像読取が終了していないと判断した場合には(S25:NO)、再びS24に戻って画像読取を継続する。制御部2は、画像読取が終了したと判断した場合には(S25:YES)、次のステップに進む。このとき画像読取部4が読み取った画像情報は制御部2によって連続的に結合されるとともにOCR処理される(S26)。OCR処理された文字列情報は、外部ネットワーク20を介して通信部5によって検索サーバ22に送信され(S27)、その結果が表示部3に表示される(S28)。
 図10(a)は、OCR処理の結果をウェブ検索モード選択時における、検索サーバ22からの受信結果を表示したときの表示部3である。表示部3にはウェブブラウザが表示され、読取結果51と、検索結果52と、サイドバー53と、を備えている。ユーザは、読取結果51を選択することにより所望のURLにアクセスすることができる。
 図10(b)は、OCR処理の結果を地図検索モード選択時における、検索サーバ22からの受信結果を表示したときの表示部3である。表示部3には、読取結果54と、現在地55と、拡大・縮小ボタン56と、が表示されている。ユーザは、スクロール操作等によって地図を任意に移動させることができる。
 [音声出力アプリ]
 次に音声出力アプリについて、図11を参照して説明する。音声出力アプリは、画像読取部4が読み取った読取結果に基づいて音声出力部9からの音声出力を行う。音声出力アプリを起動すると(S31:YES)、音声出力アプリの画面が表示部3に表示され読取待機状態となる。読取待機状態では、制御部2が、センサ43の被読取媒体10への接触に基づいて、画像読取が開始されたか否かを判断する(S32)。制御部2は、センサ43が被読取媒体10に接触したと判断すると(S32:YES)、光源41が所定時間間隔で点灯し画像読取部4によって画像読取が開始される(S33)。
 画像読取が開始されると、制御部2は所定時間間隔でOCR処理を行い(S34)、この処理結果に対して公知の自然言語処理を行う。自然言語処理では、OCR処理結果のテキスト文字列に対して形態素解析を用いることによって文章を形態素に分割して単語毎に区切り、各単語を正規化する。単語の正規化では、文字種の統一や表記揺れの吸収など単語の置き換え処理を行う。このとき、数字の置換、辞書を用いた単語の統一を行っても良い。ストップワードを除去した後、処理結果を音声出力部9から音声出力する(S36)。OCR処理及び自然言語処理は制御部2によって実行されたが、外部ネットワーク20を介して外部サーバによって実行されてもよい。これにより、アプリケーションのアップデード等を実行することなく精度の高い処理を実行することができる。
 制御部2は、画像読取が終了したか否か、つまりセンサ43が被読取媒体10と離間したか否かを判断する(S37)。制御部2は、画像読取が終了していないと判断した場合には(S37:NO)、再びS33に戻って画像読取を継続する。ふたたびS33からS36までを実行する間隔は、時間に基づいて設定されてもよく、読み込んだ文字数に基づいて設定されてもよく、自然言語処理の解析結果に基づいて設定されてもよい。制御部2は、画像読取が終了したと判断した場合には(S37:YES)、音声出力アプリを終了したか否かを判断する(S38)。音声出力アプリを終了していない場合は再びS32に戻り(S38:NO)、音声出力アプリを終了した場合は本フローが終了する(S38:YES)。
 [拡大アプリ]
 次に、拡大アプリについて図13を参照して説明する。拡大アプリを起動しセンサ43と被読取媒体10とを接触させ読取方向Rに走査すると、画像読取部4が読み取った画像がそのまま表示部3に拡大して表示される。具体的には、表示部3には「我輩は」が部分的に表示されている。画像読取部4が読み取った画像をOCR処理してテキストデータ化し、表示部3に表示してもよい。
 [翻訳アプリ]
 次に翻訳アプリについて、図14を参照して説明する。翻訳アプリは、画像読取部4が読み取った読取結果を所定の言語に翻訳して表示部3に表示する。翻訳アプリを起動すると(S41:YES)、翻訳アプリの画面が表示部3に表示され読取待機状態となる。読取待機状態では、制御部2が、センサ43の被読取媒体10への接触に基づいて画像読取が開始されたかを判断する(S42)。制御部2は、センサ43が被読取媒体10に接触したと判断すると(S42:YES)、光源41が所定時間間隔で点灯し画像読取部4によって画像読取が開始される(S43)。
 画像読取が開始されると、制御部2は所定時間間隔でOCR処理を行い(S44)、この処理結果に対して公知の翻訳処理を行う(S45)。翻訳処理では、OCRの処理結果を、外部ネットワーク20を介して翻訳サーバ24に送信する。翻訳サーバ24によって翻訳された結果は、通信部5が受信する。制御部2は、翻訳結果が音声出力するように設定されているか否かを判断する(S46)。翻訳結果が音声出力するように設定されていない場合には(S46:NO)、制御部2は表示部3に翻訳サーバ24からの翻訳結果を表示する(S47)。翻訳結果が音声出力するように設定されている場合には(S46:YES)、制御部2は表示部3に翻訳サーバ24からの翻訳結果を音声出力部9から音声出力する(S48)。このとき、翻訳サーバ24からの受信結果は、S35と同様に自然言語処理を実行した後に音声出力される。この自然言語処理は制御部2によって実行されたが、外部ネットワーク20を介して外部サーバによって実行されてもよい。
 制御部2は、画像読取が終了したか否か、つまりセンサ43が被読取媒体10と離間したか否かを判断する(S49)。制御部2は、画像読取が終了していないと判断した場合には(S49:NO)、再びS43に戻って画像読取を継続する。制御部2は、画像読取が終了したと判断した場合には(S49:YES)、翻訳アプリを終了したか否かを判断する(S50)。翻訳アプリを終了していない場合は再びS42に戻り(S50:NO)、翻訳アプリを終了した場合は本フローが終了する(S50:YES)。
 このような構成によると、画像読取部4が表示面1Aと直交する前面である読取面1Bに設けられているため、画像読取装置1を被読取媒体10に対して立設した状態で画像読取部4と被読取媒体10とを当接させることができる。これにより画像読取装置1が把持し易くなるため、被読取媒体10上を走査させるとき画像読取装置1を円滑に移動させることができ、画像読取部4の読取エラー等を抑制することができる。また、読取面1Bは表示面1Aと直交する前面であるため、画像読取部4が画像読取装置1の厚みに相当する面に設けられることとなる。一般には、スマートフォン等の端末における側面である読取面1Bは表示部3が設けられている面及びその裏面と比較して薄いため、画像読取部4が読取可能な領域が狭くなる。これにより、画像読取部4で書籍を1行ごとに走査させ読取るときに隣の行の文字列を認識することなく精度の高い文字認識が可能となる。さらに、画像読取部4は被読取媒体10と直接当接させて走査させることにより画像を読取るため、スマートフォン等に搭載されているカメラ等によって画像を読取る場合と比べて、焦点調整や振動制御によるボケ抑制などの光学素子が不要になるとともに、絞りやシャッター速度などの露光条件の設定も不要となる。これにより、ユーザは簡易な操作で文字列等の読取を行うことができる。また、スマートフォン等に搭載されているカメラ等によって画像を読取る場合には、不要な文字列も読取ってしまうため、始点と終点を指定するなどの画像処理が必要となるが、画像読取装置1においてはこのような画像処理が不要となる。これにより、ユーザは簡易に文字列等を読取ることができる。さらに、フラットヘッドスキャナーやハンディスキャナーに用いられる機械走査となどの機構が不要となるため、低コストで画像読取装置1を実現することができる。画像読取部4を読取面1Bに設けることにより複雑な光学集光の機構を小型化することができるため、コンパクトな画像読取装置1を実現することができる。
 このような構成によると、読取面1Bが被読取媒体10と当接して当該被読取媒体10上を走査することにより文字列等の画像を読取るため、画像読取装置1が被読取媒体10と常に当接した状態となり安定して精度良く画像を読取ることができる。また、画像読取装置1で被読取媒体10の画像を読取っているとき表示面1Aはユーザ側を向いているため、ユーザは表示部3を見ながら読取作業を行うことができ、操作性に優れた画像読取装置1を実現できる。さらに、読取方向Rが表示面1Aに略直交する方向であるため、画像読取装置1を安定的に把持することができ読取エラー等を抑制することができる。また、ユーザは表示部3を見ながら読取作業を行うことができる。
 このような構成によると、画像読取部4が画像読取装置1の前側側面の左寄りに設けられているため、右手で画像読取装置1を把持しながら右手の親指で表示部3を操作することができる。これにより、画像読取部4の読取作業時における操作性を改善することができる。また、読取方向Rが上下方向であるため、画像読取部4の被読取媒体10の文字列に対する位置決めがし易い。
 このような構成によると、画像読取部4が読み取った画像を認識する制御部2を備えているため、走査によって連続的に取得した画像から文字列を認識することができる。これにより、文字列の入力インターフェースとして画像読取部を用いることができるため、ユーザはフリック入力やフルキー入力等によって文字列を入力することなく、また起点・終点指定の画像処理を介することなく、的確に目的とする文字列を指定し、簡易な操作で文字列を入力できる。また、使用者が習熟していない言語であって、フリック入力やフルキー入力による入力方法がわからない言語であっても、画像読取部4で読取ることにより、的確簡便に目的とする文字列をテキストデータとして入力することができる。例えば中国語のピンインや字画入力法を理解しない者であっても書籍中の任意の中国語文章をテキストデータ形式で簡便に入力することが可能となり、日本語の漢字の読みを知らない者でも書籍中の任意の文章を簡便にテキストデータ形式で入力することが可能となる。さらに、認識した文字列を外部サーバに送信することにより、当該文字列による電子書籍の購入、ウェブ検索、地図検索、翻訳などさまざまな用途に用いることができる。例えば、外国においてガイドブック等に記載された入力方法や読み方が不明な文字であっても、その場で容易に画像読取装置1に入力し、地図検索、翻訳等を行うことができる。また,例えば商業チラシに詳細説明のウェブサイトやキャンペーンサイトのURLを記載しておき、チラシ受領者に各サイトの閲覧を促す場合、先行技術であるQRコード(登録商標)と比べ、チラシ作成者はコード作成の専用ソフトを用いずとも、ワープロソフト等のより広く普及した汎用ソフトで誘導チラシを作成でき、ユーザはカメラ起動、構図・ピント合わせ・撮影をするという動作を介さず、より簡易な操作で目的サイトに到達できる。
 このような構成によると、書籍アプリでは制御部2が1文字ずつ文字を認識する毎に書籍サーバ21と通信するため、被読取媒体10を走査させながら表示部3に書籍サーバ21との通信結果を表示させることができる。これにより、例えば書籍のタイトル等を検索する場合には、タイトルの一部が合致する書籍が順次表示部に表示されることとなり、ユーザにとって使い勝手のよい画像読取装置1を実現することができる。
 このような構成によると、音声出力アプリでは制御部2が認識した文字列を音声として出力する音声出力部9を備えているため、文字列の入力インターフェースとして画像読取部4を利用しつつ読取結果を音声として得ることができる。これにより、書籍の文字が細かく読み難い場合に、画像読取部4で文字列を読取って制御部2で文字列に変換し音声出力部9で出力することにより書籍の内容を耳で聞くことができる。また、ユーザがロービジョンなどの視覚障害者の場合であっても、音声出力部9からの音声を聞くことにより読書等を楽しむことができる。
 このような構成によると、拡大アプリでは画像読取部4が読み取った画像を表示部3に拡大して表示するため、画像読取装置1に拡大鏡の役割を持たせることができる。これにより、書籍の文字が細かく読み難い場合に、表示部3を見ることで書籍の文字を判断することができる。
 このような構成によると、読取面1Bは画像読取装置1の側面を切り欠いた面取りのような形状をなしており、当該読取面1Bに画像読取部4が配置されているため、文章を読取る際の始点と終点とを容易に指定することができる。
 [第2の実施の形態]
 次に、第2の実施の形態の画像読取装置201について、図15及び図16を参照して説明する。上述の実施の形態と同一の構成については、同一の符号を付し説明を省略する。第1の実施の形態では画像読取装置1の前面の左寄りに画像読取部4を設け読取方向Rが上下方向だったが、第2の実施の形態では画像読取装置201の前側の側面の右側寄りに画像読取部204を設け読取方向Rが左右方向となっている。
 画像読取装置201は、タッチパネルである表示部203と、画像読取部204と、を備えている。画像読取部204は、第1の実施の形態と同様に、読取対象となる被読取媒体10上を読取方向R(左右方向)に沿って走査することにより、被読取媒体10をスキャンする機能を備える。画像読取部204は、光源241と、図示せぬイメージセンサ及び光学レンズ群と、センサ243と、を備えている。画像読取部204は画像読取装置201において前側の側面に設けられている。画像読取装置201は、表示部203が設けられている表示面201Aと、表示面201Aと交差(直交)する面であって画像読取部204が設けられている読取面201Bと、を備えている。
 図16に示すように、画像読取装置201で被読取媒体10を読み取る際は、画像読取部204と被読取媒体10とを当接させた状態で画像読取装置201を読取方向Rに沿って移動させる。画像読取装置201は、画像読取装置1及び画像読取装置101と比較して画像読取部の上下方向の幅は第1の形態と同様であり、不要な文字列を読みこまない点は第1の形態の場合と同様であるが、進行方向である左右方向の長さが長く、把持して操作した際の姿勢が安定的である。そのため、画像読取装置201が被読取媒体10上を安定的に移動することができる。これにより、画像読取部204による読取エラー等を抑制することができる。
 [第3の実施の形態]
 次に、第3の実施の形態の画像読取装置301について、図17乃至図19を参照して説明する。第2の実施の形態では画像読取装置201の前側の側面に画像読取部204を設けていたが、第3の実施の形態では画像読取装置301の前側の側面に回動支持部305を設け、回動支持部305に画像読取部304が設けられている。
 画像読取装置301は、本体部302と、タッチパネルである表示部303と、画像読取部304と、本体部302に対して矢印L1の方向に回動可能な回動支持部305と、を備えている。本体部302の上面である表示面301Aには表示部303が設けられていて、前右部には回動支持部305が設けられている。本体部302の回動支持部305と前後方向において対向する面には、回動支持部305が本体部302に対して回動したとき両者が当接しないように湾曲部302Aが形成されている。湾曲部302Aは、回動支持部305から離れるように円弧状に湾曲して後方に窪んでいる。当接を防止するための湾曲は、回動支持部305の本体部302との対向面に面取り状に設けてもよい。回動支持部305は、表示面301Aと交差(直交)する面であって画像読取部304が設けられている読取面301Bを有している。回動支持部305は、矢印L1で示すように、回動軸306を中心に本体部302に対して回動可能である。回動軸306は略円筒形状であって左右方向に延び、回動支持部305の左端面から左方向に延出している。回動軸306は、本体部302によって回動可能に支持されている。画像読取部304の読取方向Rは図17に示す状態では上下方向であるが、本体部302を回転させることにより所望の方向に設定することができる。
 画像読取部304は、第1の実施の形態と同様に、スキャン対象となる被読取媒体10(図16)上を読取方向Rに沿って走査することにより、被読取媒体10をスキャンする機能を備える。画像読取部304は、光源341と、図示せぬイメージセンサ及び光学レンズ群と、センサ343と、を備えている。画像読取装置301では、イメージセンサ及び光学レンズ群などの光学素子は左右方向に並んで配置されている。詳細には、光源341から照射された光は、図示せぬミラーによって反射されて左方向に進み、回動軸306を通過して光学レンズ群によってイメージセンサ上に結像される。
 [マウスアプリ]
 図18及び図19を参照して画像読取装置301を用いたマウスアプリについて説明する。マウスアプリは、画像読取部304によって画像読取装置301の移動を検出に応じて表示部303に表示された矢印を移動させるためのアプリである。
 マウスアプリを起動すると、図19に示すマウスウィンドウが表示される。マウスウィンドウには、右クリック領域310と、左クリック領域311と、タッチしても無反応な無反応領域312と、矢印313と、背景314と、が表示される。マウスウィンドウの背景314は、他のアプリの画面、例えば、図10(a)に示すような検索結果画面が表示されている。矢印313は、本発明の指標に相当する。右クリック領域310は本発明の第1領域及び第2領域のいずれか一方に相当し、左クリック領域311は本発明の第1領域及び第2領域の他方に相当する。矢印313は、本発明の指標に相当する。
 ユーザは、マウスアプリを起動し、デスク320の上に画像読取装置301を載置して回動支持部305を回動軸306を中心に略90°回転させ、画像読取部304とデスク320とを対向させる。この状態で画像読取装置301をデスク320に対して移動させることにより、画像読取部304が画像読取装置301の移動量及び移動方向を検出し、表示部303に表示された矢印313が移動する。ユーザは、右クリック領域310及び左クリック領域311を押下することにより、表示部303に表示された矢印313を、あたかも画像読取装置301を光学式マウスとして扱うように操作することができる。
なお、マウスウィンドウには、右クリック領域310と、左クリック領域311と、右クリック領域310及び左クリック領域311と隣接する無反応領域312と、を設けたが、右クリック領域と左クリック領域とを隣接させて無反応領域を設けなくてもよい。また、右クリック領域と左クリック領域とを離間させて配置してもよい。
 このような構成によると、正確なポイント操作が可能となりスマートフォン上で指でタッチパネル操作をするよりも、正確かつ容易に作画ソフトによる図面作成・編集やワープロソフトによる文書編集を行うことができる。また、入力済のデキストデータを容易に編集することができる。例えば、第1の実施の形態の画像読取部4によって入力されたテキスト編集を行う際、このようなマウスアプリを使用することにより、容易に文書編集を行うことができる。
 このような構成によると、画像読取部304が設けられている回動支持部305を有しているため、画像読取部304が本体部302に対して回動することができる。これにより、必要に応じて様々な状態で画像読取部304を使用することができる。また、回動支持部305は本体部302に対して回動軸306を中心に回動可能であるため、画像読取部304をユーザの所望の位置に配置することができる。これにより、操作性の高い画像読取装置301を実現することができる。例えば、一般には、スマートフォン等の端末における側面である読取面は表示部が設けられている面及びその裏面と比較して薄い形状となっているが、この性質を活かし、画像読取装置の使用用途に適した形の姿勢を選択できる。すなわち、文章読取り時には画像読取装置を立設した状態で使用することで、把持し易く円滑動作が可能で、かつ書籍等との接触面が小さいため目的とする文章の読み取り部分をピンポイントで細かく的確に指定できるようにする一方、マウスアプリ使用時には画像読取装置を卓上等で伏せて使用することで、机等との接触面を大きくし、より安定的な状態での精緻なポインタ操作による、細かい作業をすることができる。
 このような構成によると、矢印313が画像読取部304の走査量に応じて表示部303内を移動するため、画像読取装置301を用いて表示部303に表示された矢印313の位置を動かすことができる。また、右クリック領域310と、左クリック領域311と、を備えることにより、画像読取装置301に光学式マウスとしての機能を持たせることができる。これにより、画像読取装置の操作性を向上させることができる。また、右クリック領域310と左クリック領域311とに隣接する無反応領域312が規定されているため、誤って右クリック領域310もしくは左クリック領域311を押下することを低減できる。
 [第4の実施の形態]
 次に、第4の実施の形態の画像読取装置401について、図20を参照して説明する。第3の実施の形態では画像読取装置301の前側の側面に本体部302に対して左右方向に延びる回動軸306を中心に回動可能な回動支持部305を設けていたが、第4の実施の形態では画像読取装置401の前側の側面に本体部402に対して前後方向に延びる回動軸406を中心に回動可能な回動支持部405を設けている。
 画像読取装置401は、本体部402と、タッチパネルである表示部403と、画像読取部404と、本体部402に対して矢印L2の方向に回動可能な回動支持部405と、を備えている。本体部402の上面である表示面401Aには表示部403が設けられていて、前右部には回動支持部405が設けられている。本体部402の回動支持部405と左右方向において対向する面には、回動支持部405が本体部402に対して回動したとき両者が当接しないように湾曲部402Aが形成されている。湾曲部402Aは、回動支持部405から離れるように円弧状に湾曲して左方向に窪んでいる。当接を防止するための湾曲は、回動支持部405の本体部402との対向面に面取り状に設けてもよい。回動支持部405の前面には、表示面401Aと交差(直交)する面であって画像読取部404が設けられている読取面401Bが設けられている。画像読取部404の読取方向Rは図20に示す状態では上下方向であるが、本体部402を回転させることにより所望の方向に設定することができる。
 画像読取部404は、第1の実施の形態と同様に、スキャン対象となる被読取媒体10(図16)上を読取方向Rに沿って走査することにより、被読取媒体10をスキャンする機能を備える。画像読取部404は、光源441と、図示せぬイメージセンサ及び光学レンズ群と、センサ443と、を備えている。画像読取装置401では、イメージセンサ及び光学レンズ群などの光学素子は前後方向に並んで配置されている。詳細には、光源441から照射された光は、回動軸406を通過して光学レンズ群によってイメージセンサ上に結像される。回動支持部405は、矢印L2で示すように、回動軸406を中心に本体部402に対して回動可能である。回動軸406は略円筒形状であって前後方向に延び、回動支持部405の後面から後方に延出している。回動軸406は、本体部402によって回動可能に支持されている。
 このような構成によると、画像読取部404が設けられている回動支持部405を有しているため、画像読取部404が本体部402に対して回動することができる。これにより、必要に応じて様々な状態で画像読取部404を使用することができる。また、回動支持部405は本体部402に対して回動軸406を中心に回動可能であるため、画像読取部404をユーザの所望の位置に配置することができる。これにより、操作性の高い画像読取装置401を実現することができる。例えば、画像読取部が回動することにより、使用者が見やすいよう表示部を使用者の方向に向けたままの状態で、縦書き、横書き双方の文章の読み取りをなすことができる。
 [第5の実施の形態]
 次に、第5の実施の形態の画像読取装置501について、図21を参照して説明する。第4の実施の形態では画像読取装置401の前側の側面に本体部402に対し前後方向に延びる回動軸406を中心に回動可能な回動支持部405を設けていたが、第5の実施の形態では画像読取装置501の前側の側面に本体部502に対して矢印L1及び矢印L2の方向に回動可能な回動支持部505を設けている。
 画像読取装置501は、本体部502と、タッチパネルである表示部503と、画像読取部504と、本体部502に対して矢印L1及び矢印L2の方向に回動可能な回動支持部505と、本体部502と回動支持部505とを繋ぐヒンジ部507と、を備えている。本体部502の上面である表示面501Aには表示部503が設けられていて、前右部には回動支持部505が設けられている。画像読取部504は、第1の実施の形態と同様に、スキャン対象となる被読取媒体10(図16)上を読取方向Rに沿って走査することにより、被読取媒体10をスキャンする機能を備える。画像読取部504は、光源541と、図示せぬイメージセンサ及び光学レンズ群と、センサ543と、を備えている。画像読取装置501では、イメージセンサ及び光学レンズ群などの光学素子は前後方向に並んで配置されている。詳細には、光源541から照射された光は、後述の回動軸506Aを通過して光学レンズ群によってイメージセンサ上に結像される。
 回動支持部505の前面には、表示面501Aと交差(直交)する面であって画像読取部504が設けられている読取面501Bが設けられている。本体部502の回動支持部505と前後方向において対向する面には、回動支持部505が本体部502に対して矢印L1の向きに回動したとき両者が当接しないように湾曲部502Aが形成されている。本体部502の回動支持部505と左右方向において対向する面には、回動支持部505が本体部502に対して矢印L2の向きに回動したとき両者が当接しないように湾曲部502Bが形成されている。湾曲部502Aは回動支持部505から離れるように円弧状に湾曲して後方に窪み、湾曲部502Bは回動支持部505から離れるように円弧状に湾曲して左方向に窪んでいる。当接を防止するための湾曲は、回動支持部505の本体部502との対向面に面取り状に設けてもよい。
 回動支持部505は、矢印L1で示すように回動軸506Aを中心に本体部502に対して回動可能であるとともに、矢印L2で示すように回動軸506Bを中心に本体部502に対して回動可能である。回動支持部505は、ヒンジ部507を介して本体部502に接続されている。ヒンジ部507の後面には後方に延出する回動軸506Aが延出している。回動軸506Aは略円筒形状であって、本体部502によって回動可能に支持されている。ヒンジ部507は、回動軸506Bを中心に回動可能に回動支持部505に接続されている。回動支持部505が矢印L1の方向に回動するときは回動支持部505が回動軸506Bを中心に回動し、回動支持部505が矢印L2の方向に回動するときは回動支持部505が回動軸506Aを中心に回動する。画像読取部504の読取方向Rは図21に示す状態では上下方向であるが、本体部502を回転させることにより所望の方向に設定することができる。
 このような構成によると、画像読取部504が設けられている回動支持部505及びヒンジ部507を有しているため、画像読取部504が本体部502に対して回動することができる。これにより、必要に応じて様々な状態で画像読取部504を使用することができる。また、回動支持部505は本体部402に対して回動軸506A及び回動軸506Bを中心に回動可能であるため、画像読取部504をユーザの所望の位置に配置することができる。これにより、操作性の高い画像読取装置501を実現することができる。例えば、画像読取部が回動することにより、使用者が見やすいよう表示部を使用者の方向に向けたままの状態で、縦書き、横書き双方の文章の読み取りをなすことができる。また、一般には、スマートフォン等の端末における側面である読取面は表示部が設けられている面及びその裏面と比較して薄い形状となっているが、この性質を活かし、画像読取装置の使用用途に適した形の姿勢を選択できる。例えば、文章読取り時には画像読取装置を立設した状態で使用することで、把持し易く円滑動作が可能で、かつ書籍等との接触面が小さいため目的とする文章の読み取り部分をピンポイントで細かく的確に指定できるようにする一方、マウスアプリ使用時には画像読取装置を卓上等で伏せて使用することで、机等との接触面を大きくし、より安定的な状態での精緻なポインタ操作による、細かい作業をすることができる。
 [第6の実施の形態]
 次に、第6の実施の形態の画像読取装置601について、図22を参照して説明する。上述の実施の形態と同一の構成については、同一の符号を付し説明を省略する。第6の実施の形態では、第2の実施の形態の画像読取装置201と同様に画像読取装置601の読取方向Rが前後方向に設定されている。
 画像読取装置601は、タッチパネルである表示部603と、画像読取部604と、を備えている。画像読取部604は、読取対象となる被読取媒体10上を前後方向の読取方向Rに沿って走査することにより、被読取媒体10をスキャンする機能を備える。画像読取部604は、光源641と、図示せぬイメージセンサ及び光学レンズ群と、センサ643と、を備えている。画像読取部604は画像読取装置601において前側の側面左寄りに設けられている。画像読取装置601は、表示部603が設けられている表示面601Aと、表示面601Aと交差(直交)する面であって画像読取部604が設けられている読取面601Bと、を備えている。
 画像読取装置601の側面はR状に湾曲していて、画像読取部604の周縁には表示面601Aと直交する面である読取面601Bが設けられている。画像読取装置601を被読取媒体10に載置したときには、読取面601Bが被読取媒体10に当接するとともに画像読取装置601の前面のもっとも突起している箇所が被読取媒体10に当接する。これにより、画像読取装置601を被読取媒体10上に安定して載置することができる。また、画像読取装置601の側面がR状に湾曲していても読取面601Bを被読取媒体10に密着させて当接させることができ、精度良く画像を読取ることができる。また、読取面601Bが突起しているため操作時に画像読取部604の位置を確認しやすく、目的とする文字列に画像読取部604をピンポイントで当接させることができ、操作性を改善することができる。
 [第7の実施の形態]
 次に、第7の実施の形態の画像読取装置701について、図23及び図24を参照して説明する。上述の実施の形態と同一の構成については、同一の符号を付し説明を省略する。第6の実施の形態では画像読取装置601の前面に画像読取部604が設けられていたが、第7の実施の形態では画像読取装置701の隅が斜めにカットされたような形状を成しており、当該平面に画像読取部704が設けられている。
 画像読取部704は、光源741と、図示せぬイメージセンサ及び光学レンズ群と、センサ743と、を備えている。画像読取装置701は、表示部703が設けられている表示面701Aと、表示面701Aと交差(直交)する面であって画像読取部704が設けられている読取面701Bと、を備えている。画像読取部704は画像読取装置701の側面に設けられている。詳細には、平面視において、画像読取装置701の右前方向の角は斜めにカットされた面取りのような形状をなし、当該カットされた平面である読取面701Bに画像読取部704が設けられている。画像読取装置701は、タッチパネルである表示部703と、画像読取部704と、を備えている。画像読取部704は、読取対象となる被読取媒体10上を読取面701Bと平行な読取方向Rに沿って走査することにより、被読取媒体10をスキャンする機能を備える。
 図24に示すように、画像読取装置701で被読取媒体10を読み取る際は、画像読取部704と被読取媒体10とを当接させた状態で画像読取装置701を読取方向Rに沿って移動させる。画像読取装置701は、不要な文字列を読みこまない点は他の実施の形態の場合と同様であるが、読取面701Bが画像読取装置701の角の位置にあるため、目的とする文字列に画像読取部704をピンポイントで当接させることができ、操作性を改善することができる。
 [第8の実施の形態]
 次に、第8の実施の形態の画像読取装置801について、図26、図27を参照して説明する。上述の実施の形態と同一の構成については、同一の符号を付し説明を省略する。第8の実施の形態では、第1の実施の形態の画像読取装置1と同様に画像読取装置801の読取方向Rが上下方向に設定されている。
 画像読取装置801は、表示部803と、画像読取部804と、を備えている。画像読取部804は、読取対象となる被読取媒体10上を上下方向の読取方向Rに沿って走査することにより、被読取媒体10をスキャンする機能を備える。画像読取部804は、光源841と、図示せぬイメージセンサ及び光学レンズ群と、センサ843と、を備えている。画像読取部804は画像読取装置801において前側の側面左寄りに設けられている。画像読取装置801は、表示部803が設けられている表示面801Aと、表示面801Aと交差する面であって画像読取部804が設けられている読取面801Bと、を備えている。
表示面801Aには、画像読取部804の左右方向の端部辺に対応した位置に、読取部位置識別部(以下「識別部」と表記する)805が設けられている。本実施形態のおいては、識別部805は、図27に示したように画像読取装置804を立設した状態で把持した際、表示面801Aの方向から見て突起の位置が画像読取部804の左右の端部辺に対応した位置に、画像読取部804の左右の端部辺の間隔とほぼ同じ間隔で2個設けられている。また、識別部805は、凸形状を有する略長方形の棒状の突起物から構成されている。また、識別部805は、画像読取部804の位置に対応して配置され、一辺の長さが、画像読取部804の左右方向の端部辺の間隔とほぼ同じ長さを有する1個の方形状突起物から構成することもできる。また識別部805は、凸形状を有する突起物以外に、凹み形状を有するものであってもよく、また、塗装または象嵌のような識別標識でもよい。塗装または象嵌による識別標識は、表示面801Aの方向から見て画像読取部804の左右の端部辺に対応した位置に設けられる。塗装または象嵌による識別標識は、画像読取部804の位置を識別可能であれば、その形状は円形、矩形、或いは多角形であってもよく、また、複数個設けてもよい。
図27に示すように、画像読取装置801で被読取媒体10を読み取る際は、左右の識別部の間に読み込みたい文字列11が位置するように画像読取装置801を載置し、画像読取部804と被読取媒体10とを当接させた状態で、画像読取装置801を読取方向Rに沿って移動させる。識別部が方形の形状を有する場合は、表示面と略平行の面の左右の辺の間に文字列が位置するように画像読取装置801を載置し、識別標識が長方形の場合は、識別標識の左右の辺の間に文字列が位置するように画像読取装置801を載置し、同様に移動させる。画像読取部804は使用時には被読取媒体10と当接しておりユーザから見えないため、読取面801B上のどの位置にあるかを明確に認識できない場合がありうるが、識別部の存在により、目的とする文字列に画像読取部704をピンポイントで当接させることができ、操作性を改善することができる。
[読取部位置識別アプリ]
 図26及び図27を参照して画像読取装置801を用いた読取部位置識別アプリ(以下「識別アプリ」と表記する)について説明する。識別アプリは、画像読取部804の位置を表示するためのアプリである。
 識別アプリを起動すると、図26に示すように、表示部803のウィンドウ上に略長方形の識別領域806が表示される。識別領域806には、例えば、被読取媒体10に表された読み込みたい文字列11が表示される。識別領域806は、画像読取部804及び識別部805に対応する位置に表示される。図27に示したように、識別領域806は、画像読取装置804を立設した状態で把持した際、表示面801Aの方向から見て、画像読取部804及び識別部805に対応する位置に表示される。識別領域は、画像読取部が待機状態のときは灰色、読取状態のときは赤色というように、画像読取部の使用状態により色を変えてもよい。
図27に示すように、画像読取装置801で被読取媒体10を読み取る際は、識別領域806内に、被読取媒体10に表された読み込みたい文字列11が位置するように画像読取装置801を載置し、画像読取部804と被読取媒体10とを当接させた状態で、画像読取装置801を読取方向Rに沿って移動させる。画像読取部804は使用時には被読取媒体10と当接しておりユーザから見えないため、読取面801B上のどの位置にあるかを明確に認識できない場合がありうるが、識別領域806の存在により、目的とする文字列に画像読取部704をピンポイントで当接させることができ、操作性を改善することができる。
 本発明による画像読取装置は、上述した実施の形態に限定されず、特許請求の範囲に記載された発明の要旨の範囲内で種々の変更が可能である。
 上述の実施の形態では、OCR処理は画像読取装置1に設けられた制御部2が実行していたが、これに限定されない。例えば、外部ネットワーク20を介して接続される外部サーバによってOCR処理が実行されてもよい。
 上述の実施の形態では、各種アプリケーションをインストールすることにより様々な処理が実行されたが、ウェブブラウザ上で画像読取部4を制御してもよい。図25に示すように、ウェブブラウザには、URL(Uniform Resource Locator)表示部81と、URL82と、スキャンボタン83と、設定ボタン84と、記事85と、が表示されている。ユーザは、スキャンボタン83を押下することにより、画像読取部4が起動して読取待機状態となる。被読取媒体とセンサ43セとが当接すると、画像読取部4が被読取媒体に記載されたURLを読取り、OCR処理することにより文字認識してURL表示部81に読取ったURLを入力する。これにより、URLを打ち込むことなく画像読取部4で読取ることで簡易にURLの入力が可能となる。このとき、スキャンボタンを表示することなく、設定ボタン84を押下したときに表示されるウィンドウにスキャン開始ボタンを設けてもよい。また、画像読取部4でURLを読取るとき、読取結果を随時URL表示部に入力し、プルダウンメニューによって複数の候補を表示し、ユーザが所望のアドレスを選択してもよい。
 書籍アプリでは、外部ネットワーク20を介して書籍サーバ21と双方向通信することにより書籍購入を行ったが、同様のフローにより電子記事を購入することも可能である。画像読取部4が読み取った記事のタイトル等に基づいて外部サーバと通信を行い、電子記事を購入してもよい。
 第4の実施の形態では、画像読取装置301にマウスアプリをインストールしたが、他の実施の形態の画像読取装置であってもマウスアプリを使用することができる。例えば、無反応領域を設けたマウスアプリを図12に示す状態で使用した場合、親指の部分に無反応領域が位置することとなり、誤って表示部を操作することを防止できる。また図17に示す状態でテキストデータ出力アプリを起動し、さらにマウスアプリを使用した場合、入力されたテキストデータを即座に画面上でポインタを用いて正確に範囲指定し、カット・アンド・ペーストなどの編集ができる。
 第8の実施の形態では、画像読取装置801に識別部を設け、識別アプリをインストールしたが、他の実施の形態の画像読取装置であっても識別部・識別アプリを使用することができる。また、識別部・識別アプリのいずれか一方を使用してもよい。
1、201、301、401、501、601、701、801 画像読取装置
1A、201A、301A、401A、501A、601A,701A、801A 表示

1B、201B、301B、401B、501B、601B、701B 801B 読取

2   制御部
3、203、303、403、503、603、703、803表示部
4、204、304、404、504、604、704、804画像読取部
6   記憶部
9   音声出力部
20  外部ネットワーク
21  書籍サーバ
22  検索サーバ
41、241、341、441、541、641、741  光源
42  イメージセンサ
43、243、343、443、543、743  センサ
60  端末
61A 端末表示面
63  端末表示部
306,406、506A、506B 回動軸
805 識別部
806 識別領域
R   読取方向

Claims (5)

  1.  被読取媒体からの情報を走査によって読み取る画像読取装置であって、
     前記被読取媒体の画像を読み取る画像読取部と、
     前記画像読取部が読み取った前記画像を記憶する記憶部と、
     前記画像読取部が読み取った前記画像を表示可能であって表示面に設けられた表示部と、
     前記画像読取部と、前記記憶部と、前記表示部とを制御する制御部と、を有し、
     前記画像読取部は、前記表示面と交差する読取面に設けられていることを特徴とする画像読取装置。
  2.  前記画像読取部は、前記読取面と前記被読取媒体とが当接することにより前記画像を読み取り、
     前記読取面は、前記表示面に対して略直交し、
     前記読取面と前記被読取媒体とを当接させたとき、前記表示面は前記被読取媒体に対して略直交し、
     前記被読取媒体からの情報を読み取るときは、前記表示面に略直交する方向である読取方向に走査することを特徴とする請求項1に記載の画像読取装置。
  3.  前記表示部は、接触することにより操作されるタッチパネルであって、
     前記制御部は、前記表示部に、指標と、第1領域と、第2領域と、を描画し、
     前記指標は、前記画像読取部の走査量に応じて前記表示部内を移動し、
     前記制御部は、前記第1領域が操作されたときは第1の機能を実行し、前記第2領域が操作されたときは第1の機能とは異なる第2の機能を実行することを特徴とする請求項1または2に記載の画像読取装置。
  4.  前記表示部が設けられている本体部と、
     前記画像読取部が設けられている回動支持部と、をさらに有し、
     前記回動支持部は、前記本体部に対して、1つの回動軸を中心に回動可能であることを特徴とする請求項1から3のいずれか1項に記載の画像読取装置。
  5.  前記表示部は、前記画像読取部に対応した位置に設けられた識別部を備え、
     前記表示部は、前記識別部に対応した位置に、被読取媒体から読み取った画像の一部を表示する識別領域を有することを特徴とする請求項1から4のいずれか1項に記載の画像読取装置。
PCT/JP2019/043164 2019-11-01 2019-11-01 画像読取装置 WO2021084761A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2019/043164 WO2021084761A1 (ja) 2019-11-01 2019-11-01 画像読取装置
JP2021554045A JPWO2021084761A1 (ja) 2019-11-01 2019-11-01

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/043164 WO2021084761A1 (ja) 2019-11-01 2019-11-01 画像読取装置

Publications (1)

Publication Number Publication Date
WO2021084761A1 true WO2021084761A1 (ja) 2021-05-06

Family

ID=75715900

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/043164 WO2021084761A1 (ja) 2019-11-01 2019-11-01 画像読取装置

Country Status (2)

Country Link
JP (1) JPWO2021084761A1 (ja)
WO (1) WO2021084761A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07221941A (ja) * 1994-01-31 1995-08-18 Brother Ind Ltd 携帯ファクシミリ装置
JP2000134433A (ja) * 1998-08-28 2000-05-12 Hewlett Packard Co <Hp> 光学式スキャナ用変換器
JP2002366940A (ja) * 2001-06-07 2002-12-20 Canon Inc 画像読取装置
JP2004334861A (ja) * 2003-04-18 2004-11-25 Mitsuo Nakayama 光学端末装置、画像処理方法およびシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07221941A (ja) * 1994-01-31 1995-08-18 Brother Ind Ltd 携帯ファクシミリ装置
JP2000134433A (ja) * 1998-08-28 2000-05-12 Hewlett Packard Co <Hp> 光学式スキャナ用変換器
JP2002366940A (ja) * 2001-06-07 2002-12-20 Canon Inc 画像読取装置
JP2004334861A (ja) * 2003-04-18 2004-11-25 Mitsuo Nakayama 光学端末装置、画像処理方法およびシステム

Also Published As

Publication number Publication date
JPWO2021084761A1 (ja) 2021-05-06

Similar Documents

Publication Publication Date Title
US10741167B2 (en) Document mode processing for portable reading machine enabling document navigation
KR101037240B1 (ko) 범용 컴퓨팅 장치
US9626000B2 (en) Image resizing for optical character recognition in portable reading machine
KR100324989B1 (ko) 입력표시일체형정보처리장치
US8711188B2 (en) Portable reading device with mode processing
KR101026630B1 (ko) 범용 컴퓨팅 장치
US7505056B2 (en) Mode processing in portable reading machine
US8320708B2 (en) Tilt adjustment for optical character recognition in portable reading machine
US8626512B2 (en) Cooperative processing for portable reading machine
US7325735B2 (en) Directed reading mode for portable reading machine
JP5529082B2 (ja) レンダリングされた文書からのハンドヘルド装置を用いたデータ取得
US8249309B2 (en) Image evaluation for reading mode in a reading machine
US8186581B2 (en) Device and method to assist user in conducting a transaction with a machine
US20150043822A1 (en) Machine And Method To Assist User In Selecting Clothing
US20100074471A1 (en) Gesture Processing with Low Resolution Images with High Resolution Processing for Optical Character Recognition for a Reading Machine
US20050288932A1 (en) Reducing processing latency in optical character recognition for portable reading machine
US20060013444A1 (en) Text stitching from multiple images
KR20150025452A (ko) 데이터 처리 방법 및 그 전자 장치
KR20050072710A (ko) 범용 컴퓨팅 장치의 광학 시스템 장치 및 이를 사용하여화상 데이터를 캡처하는 방법
JP2010536188A6 (ja) レンダリングされた文書からのハンドヘルド装置を用いたデータ取得
JP2017062812A (ja) 制御装置、及び制御方法
WO2021084761A1 (ja) 画像読取装置
JP2019198072A (ja) 画像読取装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19950982

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021554045

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19950982

Country of ref document: EP

Kind code of ref document: A1