WO2013108757A1 - 画像処理装置、画像形成装置、プログラム、記録媒体 - Google Patents

画像処理装置、画像形成装置、プログラム、記録媒体 Download PDF

Info

Publication number
WO2013108757A1
WO2013108757A1 PCT/JP2013/050584 JP2013050584W WO2013108757A1 WO 2013108757 A1 WO2013108757 A1 WO 2013108757A1 JP 2013050584 W JP2013050584 W JP 2013050584W WO 2013108757 A1 WO2013108757 A1 WO 2013108757A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
translation
file
image file
Prior art date
Application number
PCT/JP2013/050584
Other languages
English (en)
French (fr)
Inventor
淳寿 森本
小西 陽介
仁志 廣畑
章人 ▲吉▼田
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to CN201380004659.8A priority Critical patent/CN104054047B/zh
Priority to US14/370,170 priority patent/US20140337008A1/en
Publication of WO2013108757A1 publication Critical patent/WO2013108757A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/109Font handling; Temporal or kinetic typography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K15/00Arrangements for producing a permanent visual presentation of the output data, e.g. computer output printers
    • G06K15/02Arrangements for producing a permanent visual presentation of the output data, e.g. computer output printers using printers
    • G06K15/18Conditioning data for presenting it to the physical printing elements
    • G06K15/1801Input data handling means
    • G06K15/181Receiving print data characterized by its formatting, e.g. particular page description languages
    • G06K15/1811Receiving print data characterized by its formatting, e.g. particular page description languages including high level document description only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • G06V30/1475Inclination or skew detection or correction of characters or of image to be recognised
    • G06V30/1478Inclination or skew detection or correction of characters or of image to be recognised of characters or characters lines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32128Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0094Multifunctional device, i.e. a device capable of all of reading, reproducing, copying, facsimile transception, file transception
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3242Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document of processing required or performed, e.g. for reproduction or before recording

Definitions

  • the present invention relates to an image processing apparatus, an image forming apparatus, a program, and a recording medium on which the program is recorded, which has a function of translating a language indicated in image data.
  • Character recognition is performed on the input image data (digitized document), the recognized character (original text) is translated, and a PDF file is created that shows the image (translated image) with the translated text added to the original text.
  • a multifunction peripheral having a function of
  • Patent Literature 1 acquires a translation (translation information) corresponding to character information included in image data, and acquires information indicating a region into which the translation is inserted based on the configuration of a character line including the character information. And the point which determines the insertion position of a translation based on the acquired area
  • region information is disclosed.
  • the technique of Patent Document 1 when the character string in the image data has a predetermined width or less, only the reference index is inserted between the character strings, and the translated word is inserted in the lower margin part. Yes.
  • file the user who browses the PDF file (hereinafter referred to as “file”) is not necessarily the user who created the file, and when the user who is different from the user who created the file browses, it is written in the original text.
  • creating both a file with translated words and a file without translated words means creating two files for documents with the same content, and file management becomes cumbersome. End up.
  • the present invention has been made in view of the above-described problems, and an image processing apparatus, an image forming apparatus, a program, and a recording medium that reduce the trouble of creating an image file and reduce the troublesomeness of file management
  • the purpose is to provide.
  • an image processing apparatus of the present invention performs a translation process on a language included in image data, thereby specifying a translation unit corresponding to the language, the image data, and the translation A formatting processing unit that generates an image file formatted into data of a predetermined format based on the processing result, and the formatting processing unit is instructed by the user to switch the image file A command for causing the computer to switch between a first display state in which the language and the translated word are displayed together and a second display state in which the language is displayed without displaying the translated word. It is characterized by adding.
  • a single display state in which the language and the translated word are displayed together and a second display state in which the language is displayed without displaying the translated word can be switched as necessary. Since the image file can be generated, it is possible to reduce the trouble at the time of file generation and the troublesomeness at the time of file management as compared with the case of generating two files as in the prior art.
  • FIG. 1 is a block diagram illustrating a schematic configuration of an image forming apparatus including an image processing apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating an internal configuration of a document detection unit illustrated in FIG. 1. It is a block diagram which shows the internal structure of the file production
  • generation part shown in FIG. (A) is the figure which showed the image displayed without a translation word
  • (b) is the figure which showed the image displayed with a translation word presence state.
  • 5 is a flowchart showing a flow of processing of the image forming apparatus in an image transmission mode.
  • (A) is the figure which showed the translucent switching button typically.
  • (B) is the figure which showed typically the state by which the switching button shown by (a) was rolled over and became non-transparent.
  • (A) is a diagram showing a document catalog described in an image file.
  • (B) is a diagram showing an optional content group dictionary described in an image file.
  • (C) is information described in the image file, and shows a description related to the specification of an optional content range.
  • (A) is a diagram showing a page object described in an image file.
  • (B) is a diagram showing a Widget annotation described in an image file.
  • (C) is a diagram showing a form XObject described in an image file. This is information described in the image file, and indicates information for printing the switching button at the time of printing.
  • FIG. 5 is a diagram illustrating information that is described in an image file and that is used to designate an initial display state when the image file is opened by a user as a no-translate state in FIG.
  • A is the figure which showed the Widget annotation described in the image file which displays a translucent switch button.
  • B is a diagram showing a graphics state parameter dictionary described in an image file configured to display a translucent switching button.
  • C is a diagram showing a form XObject described in an image file configured to display a translucent switching button. It is a figure for demonstrating the structure of the image file of this embodiment. It is a figure for demonstrating the structure of the image file which consists of a several page and can change a translated word existence state and a translation non-state in every page.
  • A is a figure which shows the image displayed without a translation in the image file containing the translation of a simple level, and the translation of a detailed level.
  • B is a figure which shows the image displayed in the state which selected the simple level translation in the image file containing the translation of the simple level and the detailed level translation.
  • C is a figure which shows the image displayed in the state which selected the simple level translation and the detailed level translation in the image file containing the simple level translation and the detailed level translation.
  • FIG. 1 is a block diagram illustrating a configuration example when the present invention is applied to a color image reading apparatus.
  • 3 is a block diagram illustrating an internal configuration of a file generation unit of an image forming apparatus having a function of processing an image file input from an external apparatus.
  • FIG. It is the flowchart which showed the method of recognizing the format of the image file preserve
  • FIG. 1 is a block diagram illustrating a schematic configuration of an image forming apparatus 1 including an image processing apparatus 3 according to the present embodiment.
  • the image forming apparatus 1 of the present embodiment is a digital color multi-function machine having a copy function, a printer function, a facsimile transmission function, a scan to e-mail function, etc., but may be a digital color copier.
  • the image forming apparatus 1 includes an image input device 2, an image processing device 3, an image output device 4, a transmission / reception unit 5, a storage unit 6, a control unit 7, and an encoding / decoding unit 8. ing.
  • the image processing apparatus 3 includes an A / D conversion unit 11, a shading correction unit 12, an input processing unit 13, a document detection unit 14, a document correction unit 15, a color correction unit 16, a black generation / under color removal unit 17, a space A filter unit 18, an output tone correction unit 19, a halftone generation unit 20, a region separation unit 21, and a file generation unit 30 are provided.
  • the image forming apparatus 1 includes a print mode in which an image according to image data read by the image input apparatus 2 is printed on a recording material by the image output apparatus 4, and image data read by the image input apparatus 2 is transmitted / received by the transmission / reception unit 5. It is possible to execute a transmission mode in which transmission is performed to devices that are communicably connected via a network or the like.
  • the image input device 2 is a scanner equipped with a CCD (Charge-Coupled Device) line sensor, and separates the light reflected from the original into R, G, and B (R: red, G: green, B: blue). Converted into an electrical signal (image data).
  • the configuration of the image input device 2 is not particularly limited.
  • the image input device 2 may read a document placed on a document placement table, or read a document conveyed by a document conveying unit. May be.
  • the image processing apparatus 3 outputs to the image output apparatus 4 CMYK image data obtained by performing various image processing on the image data input from the image input apparatus 2 in the print mode (printing operation).
  • the image processing device 3 performs various image processing on the image data input from the image input device 2, and performs character recognition processing and translation processing based on the image data.
  • An image file is generated using the results of the processing and the translation processing, and the image file is transmitted to a storage destination or a transmission destination designated by the user. Details of each block included in the image processing apparatus 3 will be described later.
  • the image output device 4 outputs (prints) the image of the image data input from the image processing device 3 on a recording material (for example, paper).
  • a recording material for example, paper.
  • the configuration of the image output device 4 is not particularly limited, and for example, an image output device using an electrophotographic method or an inkjet method can be used.
  • the transmission / reception unit 5 is composed of, for example, a modem or a network card.
  • the transmission / reception unit 5 connects the image forming apparatus 1 to a network via a network card, a LAN cable, etc., and an external device (for example, a personal computer, a server device, a display device, other digital devices) connected to the network. Data communication with multifunction devices, facsimile machines, etc.).
  • the storage unit 6 is a storage unit that stores various data (image data and the like) handled by the image forming apparatus 1.
  • the configuration of the storage unit 6 is not particularly limited.
  • a data storage device such as a hard disk can be used.
  • the encoding / decoding unit 8 encodes the image data when the image data handled by the image processing device 3 is stored in the storage unit 6. It has become. That is, when the encoding mode is selected, the image data is encoded and stored in the storage unit 6, and when the encoding mode is not selected, the image data is encoded / decoded without being encoded. The data is stored in the storage unit 6 through the control unit 8. The encoding mode is selected by the user through an operation panel (not shown). When the image data read from the storage unit 6 is encoded, the encoding / decoding unit 8 also decodes the image data.
  • the control unit 7 is a processing control device (control means) that controls the operation of each unit provided in the image processing device 3.
  • the control unit 7 may be provided in a main control unit (not shown) that controls the operation of each unit of the image forming apparatus 1, and is provided separately from the main control unit and cooperates with the main control unit. Then, the processing may be performed.
  • the main control unit includes, for example, a CPU (Central Processing Unit) and the like, and is based on information input from a UI of an operation panel (not shown), a program stored in a ROM (not shown), and various data.
  • 1 is a device for controlling the operation of each part of 1.
  • the main control unit controls the flow of data in the image forming apparatus 1 and the reading and writing of data to and from the storage unit 6.
  • the A / D conversion unit 11 converts the RGB analog signal input from the image input device 2 into a digital signal and outputs the digital signal to the shading correction unit 12.
  • the shading correction unit 12 performs a process of removing various distortions generated in the illumination system, the imaging system, and the imaging system of the image input device 2 on the digital RGB signal sent from the A / D conversion unit 11, The data is output to the input processing unit 13.
  • the input processing unit (input gradation correction unit) 13 performs various processes such as gamma correction on the RGB signal from which various distortions have been removed by the shading correction unit 12. Further, the input processing unit 13 causes the storage unit 6 to store the image data subjected to the above various processes.
  • the document detection unit 14 reads the image data stored in the storage unit 6 by the input processing unit 13, detects the tilt angle of the document image indicated by the image data, and corrects the detected tilt angle (detection result). To the unit 15.
  • the document correction unit 15 reads out the image data stored in the storage unit 6 based on the tilt angle transmitted from the document detection unit 14, corrects the tilt of the document, and stores the image data after the tilt correction in the storage unit 6.
  • the document detection unit 14 reads out the image data (image data after the tilt correction) stored in the storage unit 6, and based on this image data, reads the document data. The top / bottom direction is determined, and the determination result is output to the document correction unit 15.
  • the document correction unit 15 reads out the image data stored in the storage unit 6 and performs direction correction processing according to the determination result of the determination of the top and bottom direction of the document.
  • FIG. 2 is a block diagram illustrating a schematic configuration of the document detection unit 14.
  • the document detection unit 14 includes a signal conversion unit 51, a resolution conversion unit 52, a binarization processing unit 53, a document inclination detection unit 54, and a top / down direction detection unit 55.
  • the signal conversion unit 51 is for achromatizing the image data input from the storage unit 6 and converting it into a brightness signal or a luminance signal.
  • Y is a luminance signal of each pixel
  • R, G, and B are each color component in the RGB signal of each pixel
  • the subscript i is a value assigned to each pixel (i is an integer of 1 or more). It is.
  • the RGB signal may be converted into a CIE 1976 L * a * b * signal (CIE: Commission International de l'Eclairage, L * : brightness, a * , b * : chromaticity).
  • CIE Commission International de l'Eclairage
  • the resolution conversion unit 52 converts the image data (luminance value (luminance signal) or brightness value (brightness signal)) achromatized by the signal conversion unit 51 into a low resolution. For example, image data read at 1200 dpi, 750 dpi, or 600 dpi is converted to 300 dpi.
  • the resolution conversion method is not particularly limited, and for example, a known nearest neighbor method, bilinear method, bicubic method, or the like can be used.
  • the binarization processing unit 53 binarizes the image data by comparing the image data converted into the low resolution with a preset threshold value. For example, when the image data is 8 bits, the threshold value is set to 128. Or it is good also considering the average value of the density
  • the document tilt detection unit 54 Based on the image data binarized by the binarization processing unit 53, the document tilt detection unit 54 detects the tilt angle of the document with respect to the scan range (regular document position) at the time of image reading, and the detected result as the document. Output to the correction unit 15.
  • the method for detecting the tilt angle is not particularly limited, and various conventionally known methods can be used.
  • the method described in Patent Document 2 may be used.
  • a plurality of boundary points between black pixels and white pixels are extracted from the binarized image data, and a point sequence of each boundary point is extracted. Find the coordinate data. And a regression line is calculated
  • Sx and Sy are the residual sum of squares of the variables x and y, respectively, and Sxy is the sum of the products of the residual of x and the residual of y. That is, Sx, Sy, Sxy are expressed by the above formulas (2) to (4).
  • the inclination angle ⁇ is calculated based on the following equation (5) from the regression coefficient b calculated as described above.
  • the top-and-bottom direction detection unit 55 determines the top-and-bottom direction of the document image indicated in the image data stored in the storage unit 6 and determines the determination result. The data is output to the document correction unit 15.
  • the method for determining the vertical direction is not particularly limited, and various conventionally known methods can be used.
  • the method described in Patent Document 3 may be used.
  • matching between the character pattern characteristics and the character pattern information stored in the database in advance is performed.
  • the character pattern cut out from the image data is superimposed on the character pattern created in the database and the black and white for each pixel is compared, and the characters in the image data are all of the character patterns created in the database. It is determined that the character pattern matches the character. When there is no character pattern that matches all, the character in the image data is determined as the character pattern having the largest number of matching pixels. However, if the ratio of the number of matching pixels does not reach a predetermined matching ratio, it is determined that the discrimination is impossible.
  • the character recognition process is performed for each of the image data rotated by 90 °, 180 °, and 270 °. Thereafter, for each of 0 °, 90 °, 180 °, and 270 °, the number of distinguishable characters is calculated, and the rotation angle with the largest number of distinguishable characters is determined as the character direction, that is, the top / bottom direction of the document. To do. Then, the rotation angle for matching the vertical direction of the document image in the image data with the normal vertical direction is determined. Specifically, the angle in the clockwise direction with respect to the normal top / down direction is positive, and the case where the top / bottom direction (reference direction) of the document image in the image data matches the normal top / bottom direction is 0 °.
  • the rotation angle is 90 °
  • the vertical direction of the original image in the image data is ⁇ 180 ° with respect to the normal vertical direction. If they are different, the rotation angle is 180 °, and if the vertical direction of the original image in the image data is ⁇ 270 ° different from the normal vertical direction, the rotation angle is 270 °.
  • the document detection unit 14 outputs the rotation angle to the document correction unit 15 (see FIG. 1) as a determination result of the vertical direction. Then, the document correction unit 15 performs rotation processing on the image data stored in the storage unit 6 by the rotation angle described above.
  • image data processed by the input processing unit 13 is read from the storage unit 6 and input to the signal conversion unit 51. Then, after the processing of the signal conversion unit 51, the resolution conversion unit 52, and the binarization processing unit 53, the document inclination detection unit 54 detects the inclination angle. Thereafter, the document correction unit 15 reads the image data stored in the storage unit 6, performs tilt correction on the image data based on the result detected by the document tilt detection unit 54, and the image after tilt correction. Data is stored in the storage unit 6.
  • the image data after the inclination correction is read from the storage unit 6 and input to the signal conversion unit 51, and through the processing of the signal conversion unit 51, the resolution conversion unit 52, and the binarization processing unit 53, the vertical direction detection is performed.
  • the vertical direction is determined by the unit 55.
  • the document correction unit 15 reads out the image data (image data after tilt correction) stored in the storage unit 6, and changes the direction to the image data as necessary based on the determination result of the top / bottom direction detection unit 55. Make corrections.
  • the image data output from the input processing unit 13 or the document correction unit 15 and stored in the storage unit 6 is encoded by the encoding / decoding unit 8. It is stored in the storage unit 6 above.
  • the image data read from the storage unit 6 and input to the document detection unit 14 or the document correction unit 15 is decoded by the encoding / decoding unit 8. This is input to the document detection unit 14 or the document correction unit 15.
  • the color correction unit 16 inputs image data after completion of processing by the document detection unit 14 and the document correction unit 15 from the document correction unit 15, and inputs the image data into CMY (C: Cyan M: magenta, Y: yellow) image data, and processing for improving color reproducibility is performed.
  • CMY Cyan M: magenta, Y: yellow
  • the area separation unit 21 inputs image data after processing by the document detection unit 14 and the document correction unit 15 from the document correction unit 15, and sets each pixel in the image of the image data to a black character region, a color character region, The image is separated into either a halftone dot area or a photographic paper photograph (continuous tone area) area.
  • the region separation unit 21 generates region separation data (region separation signal) indicating to which region a pixel belongs based on the separation result, a black generation / undercolor removal unit 17, a spatial filter unit 18, and a halftone generation unit. Output to 20.
  • the method of region separation processing is not particularly limited, and a conventionally known method can be used.
  • the black generation / undercolor removal unit 17, the spatial filter unit 18, and the halftone generation unit 20 perform processing suitable for each region based on the input region separation signal.
  • the black generation / under color removal unit 17 generates a black (K) signal from the CMY three-color signal after color correction, and subtracts the K signal obtained by the black generation from the original CMY signal to generate a new CMY signal.
  • generates is performed.
  • the CMY three-color signal is converted into a CMYK four-color signal.
  • the spatial filter unit 18 performs spatial filter processing (enhancement processing and / or smoothing processing) using a digital filter on the image data of the CMYK signal input from the black generation / undercolor removal unit 17 based on the region separation data. And correct the spatial frequency characteristics. As a result, blurring of the output image and deterioration of graininess can be reduced.
  • the output tone correction unit 19 performs an output ⁇ correction process for outputting to a recording material such as paper, and outputs the image data after the output ⁇ correction process to the halftone generation unit 20.
  • the halftone generation unit 20 performs gradation reproduction processing (halftone generation) on the image data so that the image is finally separated into pixels and each gradation can be reproduced.
  • the image data that has been subjected to the above-described processes and output from the halftone generator 20 is temporarily stored in a memory (not shown), and then read out at a predetermined timing and input to the image output device 4 for image output.
  • the apparatus 4 performs printing based on the image data.
  • the document detection unit 14 and the document correction unit 15 apply the tilt angle to the image data stored in the storage unit 6 as in the print mode. Detection, tilt correction, vertical direction determination, and direction correction.
  • the document detection unit 14 detects the tilt angle and determines the vertical direction, but the document correction unit 15 does not perform processing.
  • the image data is transmitted from the document correction unit 15 to the file generation unit 30 after being processed by the document detection unit 14 and the document correction unit 15.
  • the document correction unit 15 reads the image data from the storage unit 6 and transmits the image data as it is to the file generation unit 30 without performing various correction processes.
  • the file generation unit 30 includes a character recognition unit 31, a translation unit 32, a layer generation unit 33, and a formatting processing unit 34.
  • the file generation unit 30 The recognition process and the translation process are executed, and an image file to be transmitted to a transmission destination or a storage destination designated by the user is generated.
  • the character recognizing unit 31 reduces the resolution of the input image data (for example, 300 dpi), generates binarized image data by binarizing the reduced-resolution image data, and generates the binarized image data. Character recognition processing is performed using. Further, the character recognition unit 31 generates text data of a document included in the original corresponding to the image data based on the result of the character recognition process, and the text data is sent to each of the translation unit 32 and the layer generation unit 33. Output.
  • the text data includes a character code of each character and position information of each character.
  • the character recognition processing method is not particularly limited, and a conventionally known method can be used. For example, the feature amount of each character in the binarized image data is extracted, and character recognition is performed by comparing the feature amount with dictionary data (character database).
  • the dictionary data used by the character recognition unit 31 is stored in the storage unit 6.
  • the character recognition unit 31 not only transmits the above text data to the layer generation unit 33 but also transmits the input image data as it is. That is, the layer generation unit 33 is configured to receive image data indicating a document and the text data from the character recognition unit 31.
  • the translation unit 32 performs a translation process on the language indicated in the text data sent from the character recognition unit 31. Specifically, the translation unit 32 obtains a translation corresponding to the language (original text) of the document by comparing with the text data and dictionary data (meaning database) having meaning information.
  • the dictionary data used in the translation unit 32 is stored in the storage unit 6.
  • a plurality of word meaning databases are stored in the storage unit 6 so that the processing contents can be switched according to the translation mode.
  • the storage unit 6 stores a plurality of types of databases such as an English-Japanese translation database for translating from English to Japanese and an English-to-Chinese translation database for translating from English to Chinese. Then, when the English-Japanese mode for translating English into Japanese is selected by the user, the translation unit 32 refers to the English-Japanese translation database in the storage unit 6 to perform translation processing, and translates English into Chinese. When the user selects the English / Chinese mode to be used, the translation processing is performed by referring to the English / Chinese translation database in the storage unit 6 (that is, the database to be referred to is switched according to the mode). ).
  • a plurality of word meaning databases are stored in the storage unit 6 in accordance with the translation level (simple, standard, detail) for the same translation mode.
  • the storage unit 6 stores a simple level English-Japanese translation database, a standard level English-Japanese translation database, and a detailed level English-Japanese translation database, and the translation unit 32 selects the level selected by the user. Translation processing is performed with reference to the database.
  • the simple level is the level at which only difficult words are translated
  • the standard level is the level at which words up to the high school level are translated
  • the detailed level is the level at which simple words are translated (junior high student level) Means.
  • the layer generation unit 33 generates each layer constituting the image file (PDF file) generated by the subsequent formatting processing unit 34. Specifically, the layer generation unit 33 generates a layer indicating a document image (hereinafter simply referred to as “document image”) based on the document image data sent from the character recognition unit 31. A layer indicating transparent text (hereinafter simply referred to as “transparent text”) is generated based on the sent text data, and a layer indicating a translated word based on the translation result by the translation unit 32 (hereinafter simply referred to as “translated image”). ) Is generated.
  • the transparent text is data for superimposing (or embedding) recognized characters and words as text information on the original image data in an invisible form.
  • a PDF file an image file in which transparent text is added to document image data is generally used.
  • the translated word image is text data in which a translated sentence with respect to the original sentence shown in the original image is visible and a portion other than the translated sentence is transparent, and the translated word image is superimposed on the original image.
  • the position of the translated sentence (for example, a blank area adjacent to the original sentence between the lines of the original sentence) is determined so that the user can compare the translated sentence and the original sentence corresponding to the translated sentence.
  • the translated word image is visible text data that is superimposed on the original image data so that the translated word is visible to the user when superimposed on the original image.
  • the information can be inserted by the information insertion control unit shown in paragraphs [0063] to [0067] of Patent Document 1.
  • An area calculation method can be used.
  • the layer generation unit 33 also functions as a drawing command generation unit that generates a drawing command to be embedded in the image file generated by the subsequent formatting processing unit 34.
  • the drawing command is a command for instructing the computer of display conditions when the image file is opened and the image of the image file is displayed on the computer, and printing conditions when the image of the image file is printed.
  • the formatting processing unit 34 is a block that generates an image file formatted into predetermined format data based on the image data input to the file generating unit 30 and the result of the translation processing.
  • An example of an image file generated by the formatting processor 34 is a PDF file.
  • the formatting processing unit 34 performs processing for generating an image file in which each layer generated by the layer generating unit 33 and the drawing command are embedded. That is, the image file generated by the formatting processing unit 34 is data including the original image, the transparent text, and the translated word image.
  • the drawing commands include an initial display command, a button display command, a switching command, a print prohibition command, and a batch switching command described below.
  • Initial display command When a user's display instruction is input to an image file (when an image file is opened by a user), the original image is displayed by placing the transparent text on the original image. It is a command to make. That is, the initial display command is a command for instructing the computer to shift to a non-translation state in which only the original image is displayed without displaying the translation image when the display instruction is input.
  • Button display command A command for instructing the computer to display a switching button together with a document image while an image file is opened.
  • Switching command This is a command for instructing a computer to switch between the non-translation state and the translation-presence state when the user is instructed to switch by clicking (button operation) the switching button.
  • the translated word existence state is a state in which the translated image and the transparent text are arranged on the original image to display the original image and the translated image.
  • Print prohibition command a command for instructing a computer not to print the switch button when a user gives a print instruction to the image file.
  • Batch switching command When the document image is composed of a plurality of pages and a switching button displayed together with any page is clicked, the computer is instructed to switch between the non-translation state and the translation presence state for all pages. It is a command.
  • each command shown above is embedded in the image file generated by the formatting processing unit 34, the image file is handled as shown below.
  • the translated text Japanese
  • the original text English
  • a switching button is displayed.
  • the translated word absence state shown in FIG. 4A is switched to the translated word existence state shown in FIG. 4B.
  • the translated word presence state is switched, the original text (English) of the original image of the image file and the translated text (Japanese) corresponding to the original text in the translated word image are displayed side by side.
  • the switch button is also displayed in the translated word presence state shown in FIG. 4B, and when the user clicks the switch button shown in FIG. 4B, the switch button is shown in FIG.
  • the translated word absence state is switched to the translated word existence state shown in FIG.
  • switching from the translated state to the non-translated state or switching from the non-translated state to the translated state is performed for all pages.
  • the switching button for the first page to switch from the non-translated state to the translated word present state the translated word is also present when the second and subsequent pages are displayed.
  • the switch button is printed even when the switch button is displayed. There is no.
  • the formatting processing unit 34 stores the image file generated as described above in the storage unit 6.
  • the transmission / reception unit 5 transmits the image file stored in the storage unit 6 to a transmission destination or a storage destination designated by the user.
  • FIG. 5 is a flowchart showing the flow of processing in the image transmission mode of the image forming apparatus 1.
  • the image forming apparatus 1 first sets processing conditions for the image transmission mode in accordance with an instruction from a user input via an operation panel (not shown) (S1).
  • the user sets the presence / absence of translation processing.
  • the flowchart of FIG. 5 is a flowchart on the assumption that translation processing is set, and the following description is based on the assumption that translation processing is set in S1.
  • the translation processing is set to “present”, a screen for setting the translation mode, the translation level, and the display color of the translated word is displayed to prompt the user to set the translation process.
  • English to Japanese translation mode from English to Japanese
  • English to Chinese translation mode from English to Chinese
  • Japanese to English translation mode from Japanese to English Japanese to Chinese translation mode from Japanese to Chinese
  • Japanese to Chinese translation mode from Japanese to Chinese etc.
  • a desired translation mode is selected by the user.
  • a desired translation level is selected by the user from among a simple level, a standard level, and a detailed level.
  • the display color is predetermined for each translation level, and the user selects the translation level without selecting the display color, and the display color corresponding to the translation level selected by the user is set. It may be like this.
  • the user selects either a normal mode in which correction processing (tilt correction, direction correction) by the document correction unit 15 or a simple mode in which the correction is not performed is performed.
  • the detection result of the document detection unit 14 is embedded in the header of the image file (PDF) generated by the formatting processing unit 34.
  • PDF image file
  • the document is read and image data is generated (S2).
  • the document placed on the document placing table may be read, or the document conveyed by the document conveying means may be read.
  • the image forming apparatus 1 After S2, the image forming apparatus 1 performs character recognition processing on the image data read from the document (S3), and performs translation processing based on the result of the character recognition processing (S4). After S4, the image forming apparatus 1 generates each layer constituting an image file generated later (S5). Specifically, a document image (layer) is generated based on the image data read in S2, and a transparent text (layer) is generated based on the result of the character recognition process performed in S3. A translated word image (layer) is generated based on the result of the translation processing performed.
  • the image forming apparatus 1 After S5, the image forming apparatus 1 generates a drawing command to be embedded in an image file generated later (S6).
  • the drawing commands generated here are the initial display command, button display command, switching command, print prohibition command, and batch switching command.
  • the image forming apparatus 1 After S6, the image forming apparatus 1 generates an image file in which each layer generated in S5 is embedded (S7), and embeds the drawing command generated in S6 in the image file (S8).
  • the image forming apparatus 1 temporarily stores the image file generated as described above in the storage unit 6 and transmits the image file to a transmission destination or a storage destination designated by the user.
  • the translated word existence state for displaying the original sentence (language) shown in the manuscript and the translation corresponding to the original sentence together with the translated word
  • the viewer of the image file can switch between a translated word presence state displaying the translation result and a translated word absence state where the translation result is hidden as necessary. Therefore, for those who want to delete the translation and view it, it is possible to save time and effort compared to the conventional technique that had to create a file with no translation displayed in addition to the original image file with the translation displayed. it can.
  • the translated word shown in (b) of FIG. 4 can be obtained by simply clicking the switching button shown in (a) of FIG. 4 or (b) of FIG. Since the presence state and the non-translation state shown in FIG. 4A can be switched, the user can easily switch between the presence / absence state of the translation and the presence / absence of the translation. .
  • the switching button when the image of the image file is printed, the switching button is not printed, so that an unnecessary image (switching button) can be prevented from being displayed on the sheet. Play.
  • the switching button is shown on each page, and all when the switching button of one page is clicked.
  • the translated word present state and the translated word absent state can be switched with respect to the page. Therefore, the user can save the trouble of having to click the switching button for each page.
  • the image file of this embodiment has an initial display for instructing the computer to shift to the no-translation state of FIG. 4A when a user's display instruction is input to the image file. Since the command is embedded, when the image file is opened, there is no translation at first as shown in FIG. However, the initial display command does not instruct the computer to shift to the no-translation state of FIG. 4A when a user's display instruction is input to the image file. On the other hand, when the display instruction of the user is input, the computer may be instructed to shift to the translated word existence state of FIG. Thereby, when an image file is opened, it can be set so that the translated word existence state shown in FIG.
  • the operation panel is used to set (specify) which one of the translated word absence state of FIG. 4A and the translated word presence state of FIG. It may be.
  • the file generation unit 30 includes an initial state designating unit (not shown) that designates either a no-translate state or a translated-word state as an initial state according to an instruction from the user input via the operation panel. Then, the formatting processing unit 34 shifts from the non-display state where the image of the image file is not displayed to the state specified as the initial state when a display instruction is given by the user to the image file. An initial display command for causing the computer to execute is embedded in the image file.
  • the formatting processing unit 34 changes from the non-display state to the non-translation state when the user's display instruction is input to the image file when the non-translation state is set as the initial state by the user.
  • an initial display command for instructing the computer to be transferred is embedded in an image file and the translated word presence state is set as an initial state by the user, it is not displayed when a user's display instruction is input to the image file.
  • An initial display command for instructing the computer to shift to the translated word existence state is embedded in the image file.
  • the no-translation state shown in FIG. 4A is displayed in the initial display state (first displayed when the file is opened).
  • the main user of the image file is assumed to be a person who needs translation (for example, a person who is not good at language), the translated word presence state shown in FIG.
  • the translated word presence state shown in FIG.
  • the user when the translation process is set to be enabled in S1, the user is allowed to set the conditions for the translation mode, the translation level, and the display color of the translated word.
  • the user when only one dictionary used for translation processing is stored in, it is not necessary for the user to set conditions for the translation mode and translation level, and also to set the display color of the translated word. Instead of this, it may be automatically set on the apparatus side.
  • S ⁇ b> 1 the user is allowed to set the presence / absence of translation processing and select the normal mode in which inclination correction is performed and the simple mode in which inclination correction is not performed.
  • FIG. 6 is a switching button that is displayed with no translation and with a translation and is not selected by the user with the cursor 800.
  • the button area which is at least a part of the switching button is displayed translucently. Thereby, when the switch button is not selected by the user, the user can visually recognize the object image (not shown) superimposed on the button area.
  • the switching button When the cursor 800 is overlaid on the switching button shown in FIG. 6A, the switching button is rolled over, and the state of the switching button is as shown in FIG. 6B. In the state shown in FIG. 6B (rollover appearance), the density of the button area of the switching button is higher than the state of FIG. 6A, and the button area becomes non-transparent. Yes. This makes it impossible for the user to visually recognize the object image superimposed on the button area (the object image positioned below the button area), and makes it easier for the user to visually recognize the button area.
  • a balloon 900 is displayed together with the switching button.
  • This balloon 900 is displayed only when the cursor 800 is overlaid on the switching button, and is an image (description image) showing an explanation (message) of the function of the switching button.
  • the switch button is clicked in the state shown in FIG. 6B, the above-described translated word absence state and translated word existence state are switched.
  • the switching button when the user does not need the switching button (when the cursor 800 is not overlaid on the switching button), the switching button interferes with the display of the object image.
  • the switching button when the user needs a switching button (when the cursor 800 is superimposed on the switching button), the switching button can be displayed prominently. Become.
  • the balloon 900 is not displayed when the cursor 800 is not overlaid on the switching button, but the balloon 900 is not displayed when the cursor 800 is overlaid on the switching button. It is displayed. Therefore, the balloon 900 can explain the function of the switching button to the user, and the balloon 900 can be displayed only when necessary to prevent the image viewability of the image file from being impaired.
  • the formatting processing unit 34 embeds the following rollover display command and balloon display command as drawing commands in the image file.
  • Rollover display command When the cursor is not overlaid on the switching button, the button area is displayed through the button area so that the user can visually recognize the object image superimposed on the button area that is at least a part of the switching button. When the cursor is overlaid on the switching button, the object image is displayed to the user by increasing the density of the button area and making it non-transparent than when the cursor is not overlaid on the switching button. This is a command for instructing the computer to make the button area easily visible to the user without being visually recognized.
  • Balloon display command A command for causing the computer to display a balloon 900 for explaining the function of the switch button to the user only when the cursor is over the switch button.
  • the button area becomes non-transparent and the object image overlaid on the button area becomes invisible. It is not limited to a form that makes it transparent and invisible. That is, when the cursor 800 is overlaid on the switching button, the object image is less visible to the user because the density of the button area is higher than when the cursor 800 is not overlaid on the switching button.
  • the button area only needs to be easily visible to the user, and there is no need for the button area to become non-transparent so that the object image cannot be visually recognized.
  • FIG. 7 shows information described in the image file and information for switching between a translated word present state and a translated word absent state.
  • FIG. 7B is an optional content group dictionary described in the image file, and a label (FIG. 12) for organizing mutual relations when performing an action of switching between a translated word present state and a translated word absent state.
  • a label FIG. 12
  • FIG. 15 the name and type of the object “39 0” are defined in order to use the object (object) “39 0” as the switching label.
  • (A) in FIG. 7 is a document catalog described in the image file, and represents information on the entire document (original image). Set for the object to be switched, and set for each page and for each object. The example of FIG. 7A shows that switching display is performed for one object “39 0”.
  • (C) in FIG. 7 shows a description regarding the range specification of the optional content, and is an object indicating the content information of the translation result for each page.
  • the object “15 ⁇ ⁇ ⁇ 0” is included as the range of the object for which display switching of the object “39 0” as the switching label is performed.
  • FIG. 8 shows information described in the image file and information for displaying the switching button.
  • FIG. 8 is a page object and represents information for each page of the document.
  • the page object also includes reference information for performing an action (display or non-display, move to a link destination, etc.).
  • the page object shown in FIG. 8A includes reference information for the objects “43 0”, “45 0”, and “47 0” including the Widget annotation shown in FIG. 8B.
  • FIG. 8 is a Widget annotation, and shows an explanation of an object that causes an action.
  • the instruction with reference numeral 500 indicates that the display or non-display of the object “39 0” is switched by the switching button.
  • the switching button is set to not print (default setting).
  • “/ N / 44 0 R” designates reference information to the image of the switching button, and is linked to the form XObject (object “44 0”) of FIG. 8C.
  • (C) in FIG. 8 is a form XObject, which defines the appearance of the switching button (drawing image of the switching button).
  • a label (translation 1 of the figure) is associated with the layers constituting the image file. This label is defined in the optional content group dictionary of FIG.
  • the “switching operation” shown in FIG. 12 is defined by the Widget annotation in FIG. 8B. Further, the “button image” shown in FIG. 12 is defined in the form XObject in FIG.
  • the image file shown in FIG. It is possible to switch between the non-translation state and the translation-presence state shown in FIG. Further, when printing is performed in a state where there is no translation (when the translation result is not displayed), only the document image is printed, and when printing is performed while the translation is present (when the translation result is displayed), the document image and the translation are printed.
  • the switch button is printed at the time of printing.
  • the command “/ F4” may not be inserted in the Widget annotation.
  • the display form of the switching button may be the same or different.
  • the translated image of each page is defined as a different object from each other, as shown in FIG. Associate the same label. In this case, the display form of the switching button is the same on each page.
  • FIG. 11 shows information described in the image file and information for rolling over the switch button.
  • FIG. 11 is a Widget annotation, and shows an explanation of an object that causes an action. That is, in the case where the switch button is rolled over, the Widget annotation of FIG. 11A is embedded in the image file instead of the Widget annotation of FIG.
  • the instruction with reference numeral 510 indicates that the object “39 ⁇ ⁇ 0” is switched between display and non-display by the switch button.
  • the switching button is set to not print (default setting).
  • “/ N 45 0R” in FIG. 11A designates reference information to the translucent drawing image (normal state) of the switch button, and the form XObject () in FIG. “45 0”).
  • “/ R 44 0 R” in FIG. 11A designates reference information to the non-transparent drawing image (rollover appearance) of the switching button, and the drawing image of the non-transparent switching button is designated. It is linked to the defined form XObject (“44 0”) in FIG.
  • the translucent drawing image is an image when the cursor is not overlaid on the switching button as shown in FIG. 6A, and the non-transparent drawing image is as shown in FIG. 6B. This is an image when the cursor is overlaid on the switch button.
  • FIG. 11 is a graphics state parameter dictionary (semi-transparent drawing state), which defines a display rate when the switching button is drawn in a semi-transparent state.
  • a display rate of 30% is set, and a translucent state with a transmittance of 70% is obtained.
  • FIG. 11 is a form XObject, which defines the appearance of a switching button (button drawing image) when displayed in a semi-transparent state.
  • the form XObject in FIG. 11C is different from the form XObject in FIG. 8C in that the definition for making the switching button translucent is indicated (reference marks 900 and 905).
  • a translation image and a translation level are set in S1, and a translation image (layer) indicating a translation according to the set mode and level is set. ) Will be generated.
  • a plurality of translation modes or language levels may be selected at the same time.
  • a plurality of translated word images (layers) are generated.
  • a setting screen for setting a translation mode and a translation level is displayed, the user selects an English-Japanese translation mode, and two translation levels, a simple level and a standard level, are selected.
  • two translation levels a simple level and a standard level
  • a translated word image (layer) translated in a simple level English-Japanese dictionary and a translated word image (layer) translated in a detailed level English-Japanese dictionary are generated, and the generated translated word information is It will be embedded in the image file.
  • the first button is a button for displaying a simple level translated image
  • the second button is a button for displaying a detailed level translated image.
  • FIG. 16 (a) when the user clicks the first button, the original text and the simple level translation are displayed as shown in FIG. 16 (b). Here, the simple level translations are displayed in blue.
  • the first button is clicked in the state shown in FIG. 16B, the simple level translation is deleted and the state returns to the state in FIG.
  • the second button is clicked in the state shown in FIG. 16B, as shown in FIG. 16C, the original sentence, the simple level translation, and the detailed level translation are displayed. It will be.
  • the translated word (“target” in FIG. 16) that exists in common in both the simple level and the detailed level is displayed in an overlapping manner as shown in FIG.
  • the translated word at the detail level is displayed in green, and the translated word existing in common in both the simple level and the detailed level is displayed in blue.
  • the image file shown above it is possible to display and browse the translation result according to the language level of the viewer, saving the trouble of rescanning and reprocessing by changing the translation level setting.
  • an image showing a plurality of levels of translated words can be saved in one file.
  • buttons for each translation mode and click each button to display the translation corresponding to the button. For example, when an image file is opened for the first time, the original text (English), button A and button B are displayed. When button A is selected, a Japanese translation is displayed, and when button B is selected, a Chinese translation is displayed. It has come to be.
  • S11 to S15 in FIG. 17 are the same as S1 to S5 in FIG. 5, and S16 to S18 in FIG. 17 are the same as S6 to S8 in FIG.
  • S13, S14 and S15 are repeated until the number of translation images corresponding to the translation mode and translation level set in S11 is generated (YES in S20).
  • the processing from S16 onward is executed.
  • the image forming apparatus 1 performs printing or transmission based on the image data input from the image input apparatus 2. However, it may have a function of performing an image transmission mode or a print mode based on an image file input from an external device.
  • an image transmission mode of the image forming apparatus 1 having this function will be described.
  • the external device means a USB memory (removable medium) inserted into the image forming apparatus 1 or a terminal device connected to the image forming apparatus 1 via a network.
  • the overall configuration of the image forming apparatus 1 is as shown in FIG.
  • the file generation unit 30 of this example is configured as shown in FIG. 19 instead of the configuration shown in FIG.
  • the 19 includes a character recognition unit 31, a translation unit 32, a layer generation unit 33, a formatting processing unit 34, and a character extraction unit 39.
  • the processing contents of the character recognition unit 31, the translation unit 32, the layer generation unit 33, and the formatting processing unit 34 are the same as those shown in FIG. That is, in the image forming apparatus 1 of this example, when the image transmission mode is selected and the document of the image input apparatus 2 is selected as a processing target, the character recognition unit 31, the translation unit 32, the layer shown in FIG.
  • the generation unit 33 and the formatting processing unit 34 execute the same processing as that shown in FIG.
  • control unit 7 when the image transmission mode is selected and the image file stored in the storage unit 6 is selected as the processing target, the control unit 7 selects the processing target image file stored in the storage unit 6. It is determined whether text data (character data) is embedded in the.
  • the image file to be processed is a file received via the network and the transmission / reception unit 5 and stored in the storage unit 6, or a removable medium (memory device) such as a USB memory inserted into the image forming apparatus 1. Means a file read from the file and stored in the storage unit 6.
  • control unit 7 determines that the text data is not embedded in the processing target image file
  • the control unit 7 extracts the image data included in the image file, and encodes / decodes the document and the document correction unit 8.
  • the image data is transmitted to the character recognition unit 31 shown in FIG.
  • the character recognition unit 31 and the subsequent blocks in FIG. 19 perform the same processing as the character recognition unit 31 and the subsequent blocks shown in FIG. 3, and an image file with a translation is generated.
  • control unit 7 determines that the text data is embedded in the processing target image file
  • the control unit 7 transmits the image file from the storage unit 6 to the character extraction unit 39.
  • the character extraction unit 39 is a block that, when an image file is input from the storage unit 6, performs processing for extracting image data indicating a document image and text data from the image file.
  • the character extraction unit 39 transmits the extracted text data to the translation unit 32 and the layer generation unit 33, and transmits the extracted image data to the layer generation unit 33.
  • the translation unit 32, the layer generation unit 33, and the formatting processing unit 34 in FIG. 19 perform the same processing as the translation unit 32, the layer generation unit 33, and the formatting processing unit 34 shown in FIG. Is generated.
  • the control unit 7 executes the processing shown in FIG.
  • the process of recognizing the format is performed.
  • the processing shown in FIG. 20 pays attention to the fact that various image files often have a characteristic byte sequence at the head of the file (header), and by checking the byte sequence at the top of the file, The file type (format) is simply recognized.
  • the control unit 7 acquires a byte string at the beginning of the file of the image file (S21).
  • the control unit 7 determines that the format of the image file to be processed is Judged to be TIFF (S26).
  • the control unit 7 uses JPEG as the format of the image file to be processed. (S27).
  • the control unit 7 formats the image file to be processed. Is determined to be PDF (S28).
  • the control unit 7 cannot process the processing target image file. It is determined that the file is a file (S29), and in this case, the image transmission mode is stopped.
  • control unit 7 When the control unit 7 specifies the format of the image file by the processing of FIG. 20, it determines the presence / absence of text data as follows, and switches the input destination of the image file according to the presence / absence of the text data.
  • the control unit 7 determines the presence or absence of text data in the PDF file by examining the text command. For example, in a file format in which character data is embedded in a PDF such as a searchable PDF, there is a description such as “stream BT 84 Tz...” Inside the PDF file as shown in FIG. It can be determined that text data (character data) is embedded. On the other hand, when character information is stored in the PDF file as a bitmap image (when there is no text data), it is possible to determine that the text data is not embedded because the above description is not included.
  • the control unit 7 reads out the PDF file from the storage unit 6 and inputs it to the character extraction unit 39 in FIG.
  • the control unit 7 extracts image data included in the PDF file, and encodes / decodes 8 and the document correction unit 15. The image data is input to the character recognition unit 31 in FIG.
  • the control unit 7 recognizes the image file as having no text data. That is, in this case, the control unit 7 extracts the image data included in the JPEG file, converts the image data into RGB image data in the encoding / decoding unit 8, and the image data via the document correction unit 15. Is input to the character recognition unit 31 in FIG.
  • the control unit 7 recognizes the image file as having no text data. However, in this case, the control unit 7 determines whether the TIFF file is a binary image or a multi-valued image by examining the tag of the TIFF file. If the TIFF file is a multi-valued image, the control unit 7 extracts the image data included in the TIFF file, converts the image data into RGB image data at the encoding / decoding unit 8, and the document correction unit. The image data is input to the character recognition unit 31 shown in FIG.
  • the control unit 7 extracts the binary image included in the TIFF file, and converts the binary image into multi-value RGB image data (for example, an 8-bit image).
  • RGB image data for example, an 8-bit image.
  • an image file with a translation is finally generated by the formatting processing unit 34, and the transmission destination designated by the user Alternatively, the image file is sent to the storage destination.
  • the control unit 7 reads out the electronic data from the storage unit 6 and inputs it to the character extraction unit 39 in FIG.
  • the display color of the translated image can be set in S1 of FIG. 5, but the display color that can be set may include a transparent color.
  • the layer generation unit 33 sets the translated image as a character image (layer) in the form of transparent text, instead of a visible character image (layer).
  • the formatting processing unit 34 does not embed various commands (initial display command, button display command, switching command, etc.) for switching between the translated word present state and the translated word absent state in the image file (therefore, the switching button is not displayed).
  • the translation can be made transparent when the translation information is embedded in the PDF file for the purpose of searching instead of browsing.
  • a search purpose for example, by assigning a Japanese translation to a manuscript of an English document, it becomes possible to search the text of the digitized data of the English document using a Japanese keyword.
  • image data processed by the document correction unit 15 (image data processed by the input processing unit 13 in the simple mode) is input to the file generation unit 30, and an image file is generated based on the image data.
  • the color correction unit 16 converts RGB image data processed by the document correction unit 15 into R′G′B ′ image data (for example, sRGB) suitable for the characteristics of the display device.
  • the spatial filter unit 18 executes spatial filter processing (enhancement processing and / or smoothing processing) on the image data of R′G′B ′, and the output tone correction unit 19 performs R after the spatial filter processing.
  • Gradation correction may be performed on the image data of “G′B”, and the image data of R′G′B ′ after the gradation correction may be input to the file generation unit 30.
  • the image data after the processing by the document correction unit 15 is transferred from the document correction unit 15 to the color correction unit 16.
  • the image data after the completion of processing may be temporarily stored in the storage unit 6 as filing data.
  • the image data after the processing by the document correction unit 15 is completed is compressed into a JPEG code based on, for example, a JPEG compression algorithm and stored in the storage unit 6.
  • a JPEG code is extracted from the storage unit (hard disk) 6, decoded by the encoding / decoding unit 8, and converted into RGB image data.
  • the image data converted into RGB passes through the document correction unit 15 and is sent to the color correction unit 16 and the region separation unit 21.
  • a JPEG code is extracted from the storage unit 6 and data is transmitted to an external connection device or a communication line via a network or a communication line.
  • the control unit 7 performs filing data management and data transfer operation control.
  • Image Reading Apparatus In the present embodiment, the case where the present invention is applied to a color image forming apparatus has been described. However, the present invention is not limited to this and may be applied to a monochrome image forming apparatus. The present invention is not limited to an image forming apparatus, and may be applied to, for example, a single color image reading apparatus.
  • FIG. 18 is a block diagram showing a configuration example when the present invention is applied to a color image reading apparatus (hereinafter referred to as “image reading apparatus”).
  • the image reading apparatus 100 includes an image input device 2, an image processing device 3 b, a transmission / reception unit 5, a storage unit 6, a control unit 7, and an encoding / decoding unit 8. Since the configurations and functions of the image input device 2, the transmission / reception unit 5, the control unit 7, and the encoding / decoding unit 8 are substantially the same as those of the image forming apparatus 1 described above, description thereof is omitted here.
  • the image processing apparatus 3b includes an A / D conversion unit 11, a shading correction unit 12, an input processing unit 13, a document detection unit 14, a document correction unit 15, and a file generation unit 30.
  • the internal configuration of the file generation unit 30 is as shown in FIG. 3 or FIG.
  • the processing content of each unit included in the image input device 2 and the image processing device 3b is the same as that of the image forming device 1 shown in FIG.
  • the image file after the above processing is performed in the image processing apparatus 3b is output to a computer, a hard disk, a network, or the like.
  • the image processing apparatus may be applied to a system including a digital camera or a portable terminal device having a camera function, a computer, and an electronic blackboard.
  • a digital camera or a portable terminal device having a camera function, a computer, and an electronic blackboard.
  • at least A / D conversion is performed on an image captured by a portable terminal device, and the image is transmitted to a computer.
  • the computer performs input processing, document detection processing, document correction processing, and file generation processing, and displays them on an electronic blackboard. You may come to do.
  • a document or poster that is an object to be imaged may be captured from an oblique direction, and geometric distortion may occur in the captured image. When determining whether or not, geometric distortion may be corrected.
  • a method for correcting geometric distortion and lens distortion for example, a method described in JP 2010-245787 can be used.
  • edge points are detected from the captured image, each edge point is classified into four groups corresponding to the four sides of the object to be imaged, and quadratic curve approximation is performed on the edge points belonging to each group.
  • the quadratic curves obtained for the four groups in this way correspond to the four sides of the imaging object, and correspond to the corners of the region surrounded by the four quadratic curves, and the intersections of the four quadratic curves. Ask for.
  • a circumscribed rectangle that circumscribes the quadratic curve obtained for each side and is congruent with the quadrilateral connecting the four intersections is obtained, and the circumscribed rectangle obtained in this way is the edge of the corrected object.
  • the pixel position in the area of the imaging target in the captured image is converted so as to be the pixel position. This conversion is performed based on a vector from a reference point (for example, the center of gravity of the area of the imaging target). Thereby, lens distortion can be corrected.
  • the circumscribed rectangle obtained as described above is geometrically converted in accordance with the aspect ratio of the target object (for example, 7:10 for A size B used in business documents) to perform geometric conversion in the same manner. Correct for geometric distortion.
  • a known technique may be used for the mapping conversion.
  • the file generation unit 30 of the present embodiment may be realized by software using a processor such as a CPU.
  • the image forming apparatus 1 of the present embodiment includes a CPU (central processing unit) that executes instructions of a control program that realizes the function of the file generation unit 30, a ROM (read only memory) that stores the program, and the program A random access memory (RAM) for expanding the program, a storage device (recording medium) such as a memory for storing the program and various data, and the like.
  • An object of the present invention is a recording medium on which a program code (execution format program, intermediate code program, source program) of a control program of the image forming apparatus 1 which is software for realizing the above-described functions is recorded so as to be readable by a computer. This is achieved by supplying the image forming apparatus 1 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).
  • a program code execution format program, intermediate code program, source program
  • a memory such as a ROM itself may be a program medium because processing is performed by a microcomputer, or an external storage is not shown.
  • a program reading device may be provided as a device, and a program medium that can be read by inserting a recording medium into the device may be used.
  • the stored program may be configured to be accessed and executed by the microprocessor, or in any case, the program code is read and the read program code is stored in the microcomputer.
  • the program may be downloaded to a program storage area (not shown) and executed. It is assumed that this download program is stored in the main device in advance.
  • a recording medium on which the program code is recorded can be provided in a portable manner.
  • the recording medium is a recording medium configured to be separable from the main body, such as a tape system such as a magnetic tape or a cassette tape, a magnetic disk such as a flexible disk or a hard disk, or a CD-ROM / MO / MD / DVD / CD-R.
  • Medium that carries program code in a fixed manner including disk systems including optical disks such as IC cards, card systems such as IC cards (including memory cards) / optical cards, and semiconductor memories such as mask ROM / EPROM / EEPROM / flash ROM It may be.
  • the image forming apparatus 1 since the image forming apparatus 1 according to the present embodiment has a system configuration capable of connecting to a communication network including the Internet, the image forming apparatus 1 is a medium that fluidly carries the program code so as to download the program code from the communication network. Also good. When the program is downloaded from the communication network in this way, the download program may be stored in the main device in advance or may be installed from another recording medium.
  • an image processing apparatus includes a translation unit that identifies a translation corresponding to a language by performing a translation process on the language included in the image data.
  • a formatting processing unit that generates an image file formatted into data of a predetermined format based on the image data and the result of the translation processing, and the formatting processing unit is used for the image file.
  • the computer In order to cause the computer to switch between a first display state in which the language and the translated word are displayed together and a second display state in which the language is displayed without displaying the translated word when a switching instruction is issued by the person These commands are added to the image file.
  • the first display state in which the language and the translated word are displayed together and the second display state in which the language is displayed without displaying the translated word are switched as necessary. Since it is possible to generate a single possible image file, it is possible to reduce the trouble in generating the file and the troublesomeness in managing the file, compared to the case of generating two files as in the prior art.
  • the formatting processing unit in the image processing apparatus of one aspect of the present invention provides a command for causing the computer to execute display of a switching button for inputting the switching instruction in the first display state and the second display state. It may be added to the file.
  • the first display state and the first display state can be input. There is an effect that the user can easily switch between the two display states.
  • the button operation is realized by clicking, for example.
  • the formatting processing unit in the image processing apparatus provides a command for instructing a computer not to print the switching button when a print instruction is given from the user to the image file. It may be added to the image file.
  • the image processing apparatus includes an initial state designating unit that designates either the first display state or the second display state as an initial state according to an instruction from the user.
  • the formatting processing unit is configured to display the image file from a non-display state in which the image file is not displayed when a display instruction is given to the image file by the user (when the image file is opened by the user).
  • a configuration may be employed in which a command for causing the computer to execute the transition to the display state designated as the initial state is added to the image file.
  • the user allows the user to specify whether the initial state when the image file is opened is the first display state or the second display state. Therefore, for example, when it is assumed that the main user of the image file does not need translation, the second display state is set as the initial state, and the main user of the image file requires translation. If it is a person who is not good at language (for example, a person who is not good at language), if the first display state is set to the initial state, switching between the first display state and the second display state can be omitted as much as possible.
  • the formatting processing unit is configured so that the switching button is displayed on each page of the image.
  • the computer is caused to switch between the first display state and the second display state for all pages.
  • the command may be added to the image file.
  • the formatting processing unit in the image processing apparatus uses an object image superimposed on a button area that is at least a part of the switching button when the switching button is not selected by a user.
  • a command for causing the computer to execute a process of displaying the button area in such a way that the button area is visible to the user is added to the image file, and the switch button is selected by the user, the switch button In order to cause the computer to execute processing that makes it difficult for the user to visually recognize the object image and makes the button area easily visible to the user by increasing the density of the button area compared to the case where it is not selected by the user.
  • These commands may be added to the image file.
  • the switch button when the switch button is not selected by the user, it is possible to suppress the switch button from interfering with the display of the object image, and when necessary (the switch button is selected by the user).
  • the switch button In the case where the switch button is set), the switch button can be displayed more conspicuously than in other cases.
  • the selection of the switch button can be realized by, for example, placing the cursor on the switch button, and the switch button is not selected when the cursor is released from the switch button.
  • the formatting processing unit in the image processing apparatus of one aspect of the present invention provides an explanation image for explaining the function of the switching button to the user only when the switching button is selected by the user.
  • a command for instructing the computer to display may be added to the image file.
  • the explanation image is not displayed when the switching button is not selected by the user, but the explanation image is displayed when the switching button is selected by the user. It has become. Therefore, the function of the switching button can be explained to the user by the explanation image, and the visibility of the image of the image file can be prevented from being impaired by displaying the explanation image only when necessary.
  • An image forming apparatus includes the above-described image processing device. Therefore, it is possible to reduce the trouble at the time of file generation and the troublesomeness at the time of file management, compared to the case of generating two files as in the prior art.
  • the image processing apparatus may be realized by a computer.
  • a program that causes the computer to operate as the above-described units, thereby causing the image processing apparatus to be realized by the computer, and A computer-readable recording medium on which is recorded is also included in the category of the present invention.
  • the present invention can be used for an image processing apparatus and an image forming apparatus that generate an image file based on image data.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Facsimiles In General (AREA)

Abstract

 画像処理装置(3)は、画像データに含まれる言語に対して翻訳処理を行う翻訳部(32)と、前記画像データおよび前記翻訳処理の結果に基づいて画像ファイルを生成するフォーマット化処理部(34)とを備える。フォーマット化処理部(34)は、前記画像ファイルに対して利用者による切替指示がなされた場合に前記言語と前記訳語とを併せて表示する第1表示状態と前記訳語を表示せずに前記言語を表示する第2表示状態との切り替えをコンピュータに実行させるためのコマンドを前記画像ファイルに埋め込む。

Description

画像処理装置、画像形成装置、プログラム、記録媒体
 本発明は、画像データに示されている言語を翻訳する機能を有している画像処理装置、画像形成装置、プログラム、当該プログラムを記録した記録媒体に関するものである。
 入力された画像データ(電子化された文書)に対して文字認識を実行し、認識された文字(原文)を翻訳し、原文に訳文を併記した画像(訳ふり画像)を示すPDFファイルを作成する機能を有する複合機が知られている。
 また、原文に翻訳文を併記した画像を生成する際、画像に示されている文章構成に基づいて訳文の挿入位置を決定する技術も知られている。例えば、下記の特許文献1は、画像データに含まれる文字情報に対応する訳語(訳語情報)を取得し、文字情報を含む文字行の構成に基づいて、訳語を挿入する領域を示す情報を取得し、取得された領域情報に基づいて訳語の挿入位置を決定する点を開示している。具体的に、特許文献1の技術によれば、画像データ内の文字列間が所定の幅以下の場合、参照インデックスのみ文字列間に挿入し、訳語は下部余白部分に挿入するようになっている。
日本国公開特許公報「特開2009-294788号公報」 日本国公開特許公報「特開平7-192086号公報」 日本国公開特許公報「特開平6-189083号公報」
 しかしながら、PDFファイル(以下「ファイル」と称す)を閲覧する利用者は、ファイルを作成した利用者とは限らず、ファイルを作成した利用者とは異なる利用者が閲覧する場合、原文に併記されている訳語(可視化されたルビ訳)を煩わしく感じる者や不要と感じる者が存在する。そこで、前記のファイルを多数の利用者に閲覧させるケースを想定する場合、複合機において、訳語を付与する機能設定をオンにした上で原稿読取を行って訳語を併記したファイルを作成するだけでなく、前記機能設定をオフにした上で原稿読取を行って訳語が併記されていないファイルも作成する必要がある。しかし、この場合、原稿読取を2回行わなければならないという手間が生じていた。また、保存されている電子データに基づいてファイル作成を行う場合であっても(例えば複合機と連携して動作するアプリケーションソフトウェアを用いる場合)、ファイルを多数の利用者に閲覧させるケースを想定する場合、訳語を併記したファイルと訳語を併記しないファイルとの両方を作成する処理を行わなければならず、利用者は操作上の手間を強いられることになる。
 さらに、訳語が併記されているファイルと訳語が併記されていないファイルとの両方を作成するということは、同一内容の文書に対して2つのファイルを作成するということであり、ファイル管理が煩わしくなってしまう。
 本発明は、前記の課題に鑑みてなされたものであり、画像ファイルを作成する際の手間を抑制し、且つ、ファイル管理の煩わしさを抑制した画像処理装置、画像形成装置、プログラム、記録媒体を提供することを目的とする。
 以上の目的を達成するために、本発明の画像処理装置は、画像データに含まれる言語に対する翻訳処理を行うことにより、前記言語に対応する訳語を特定する翻訳部と、前記画像データと前記翻訳処理の結果とに基づいて、所定形式のデータにフォーマット化した画像ファイルを生成するフォーマット化処理部とを備え、前記フォーマット化処理部は、前記画像ファイルに対して利用者による切替指示がなされた場合に前記言語と前記訳語とを併せて表示する第1表示状態と前記訳語を表示せずに前記言語を表示する第2表示状態との切り替えをコンピュータに実行させるためのコマンドを前記画像ファイルに付加することを特徴とする。
 本発明によれば、前記言語と前記訳語とを併せて表示する第1表示状態と前記訳語を表示せずに前記言語を表示する第2表示状態とを必要に応じて切り替え可能な単一の画像ファイルを生成できるため、従来技術のように2つのファイルを生成する場合よりもファイル生成時の手間やファイル管理時の煩わしさを抑制できるという効果を奏する。
本発明の一実施形態の画像処理装置を備える画像形成装置の概略構成を示すブロック図である。 図1に示した原稿検知部の内部構成を示すブロック図である。 図1に示したファイル生成部の内部構成を示すブロック図である。 (a)は訳語無状態にて表示される画像を示した図であり、(b)は訳語有状態にて表示される画像を示した図である。 イメージ送信モードでの画像形成装置の処理の流れを示したフローチャートである。 (a)は、半透明の切替ボタンを模式的に示した図である。(b)は、(a)に示される切替ボタンがロールオーバされて非透明になった状態を模式的に示した図である。 (a)は、画像ファイルに記述される文書カタログを示した図である。(b)は、画像ファイルに記述されるオプショナルコンテントグループ辞書を示した図である。(c)は、画像ファイルに記述されている情報であり、オプショナルコンテントの範囲指定に関する記述を示したものである。 (a)は、画像ファイルに記述されるページオブジェクトを示した図である。(b)は、画像ファイルに記述されるWidget注釈を示した図である。(c)は、画像ファイルに記述されるフォームXObjectを示した図である。 画像ファイルに記述される情報であり、印刷時に切替ボタンを印刷させるための情報を示したものである。 画像ファイルに記述される情報であって、利用者によって画像ファイルが開かれた場合の初期表示状態を図4の(a)の訳語無状態に指定するための情報を示す図である。 (a)は、半透明の切替ボタンを表示するようになっている画像ファイルに記述されるWidget注釈を示した図である。(b)は、半透明の切替ボタンを表示するようになっている画像ファイルに記述されるグラフィックス状態パラメータ辞書を示した図である。(c)は、半透明の切替ボタンを表示するようになっている画像ファイルに記述されるフォームXObjectを示した図である。 本実施形態の画像ファイルの構成を説明するための図である。 複数頁からなり、ページ毎で訳語有状態と訳語無状態とが切り替えられるようになっている画像ファイルの構成を説明するための図である。 複数頁からなり、全ての頁について一括して訳語有状態と訳語無状態とが切り替えられるようになっている画像ファイルの構成を説明するための図である。 複数の訳語画像を含めた画像ファイルの構成を説明するための図である。 (a)は、簡易レベルの訳語と詳細レベルの訳語とを含めた画像ファイルにおいて訳語無状態にて表示される画像を示す図である。(b)は、簡易レベルの訳語と詳細レベルの訳語とを含めた画像ファイルにおいて簡易レベルの訳語を選択した状態にて表示される画像を示す図である。(c)は、簡易レベルの訳語と詳細レベルの訳語とを含めた画像ファイルにおいて簡易レベルの訳語および詳細レベルの訳語を選択した状態にて表示される画像を示す図である。 複数の訳語画像を画像ファイルに埋め込む際の処理の流れを示すフローチャートである。 本発明をカラー画像読取装置に適用する場合の構成例を示すブロック図である。 外部装置から入力した画像ファイルを処理する機能を有している画像形成装置のファイル生成部の内部構成を示すブロック図である。 記憶部に保存されている画像ファイルのフォーマットを認識する方法を示したフローチャートである。
  (1)画像形成装置の全体構成
 図1は、本実施形態にかかる画像処理装置3を備えている画像形成装置1の概略構成を示すブロック図である。なお、本実施形態の画像形成装置1は、コピー機能・プリンタ機能・ファクシミリ送信機能・scan to e-mail機能等を備えたデジタルカラー複合機であるが、デジタルカラー複写機であってもよい。
 図1に示すように、画像形成装置1は、画像入力装置2、画像処理装置3、画像出力装置4、送受信部5、記憶部6、制御部7、および符号化/復号化部8を備えている。また、画像処理装置3は、A/D変換部11、シェーディング補正部12、入力処理部13、原稿検知部14、原稿補正部15、色補正部16、黒生成/下色除去部17、空間フィルタ部18、出力階調補正部19、中間調生成部20、領域分離部21、ファイル生成部30を備えている。
 画像形成装置1は、画像入力装置2で読み取った画像データに応じた画像を画像出力装置4によって記録材上に印刷する印刷モード、および、画像入力装置2で読み取った画像データを送受信部5によってネットワーク等を介して通信可能に接続されている装置に送信する送信モードを実行可能になっている。
 画像入力装置2は、CCD(Charge Coupled Device)ラインセンサを備えたスキャナであり、原稿から反射されてきた光をR、G、B(R:赤・G:緑・B:青)に色分解された電気信号(画像データ)に変換する。なお、画像入力装置2の構成は特に限定されるものではなく、例えば原稿載置台に載置された原稿を読み取るものであってもよく、原稿搬送手段によって搬送されている原稿を読み取るものであってもよい。
 画像処理装置3は、印刷モード(印刷動作)において、画像入力装置2から入力された画像データに種々の画像処理を施して得られるCMYKの画像データを画像出力装置4に出力する。画像処理装置3は、送信モード(送信動作)において、画像入力装置2から入力された画像データに種々の画像処理を施すと共に、画像データに基づいて文字認識処理および翻訳処理を行い、前記文字認識処理および翻訳処理の結果を用いて画像ファイルを生成し、利用者にて指定されている保存先または送信先に画像ファイルを送信する。なお、画像処理装置3に含まれている各ブロックの詳細については後で説明する。
 画像出力装置4は、画像処理装置3から入力された画像データの画像を記録材(例えば紙等)上に出力(印刷)するものである。画像出力装置4の構成は特に限定されるものではなく、例えば、電子写真方式やインクジェット方式を用いた画像出力装置を用いることができる。
 送受信部5は、例えばモデムやネットワークカードより構成される。送受信部5は、ネットワークカード、LANケーブル等を介して画像形成装置1をネットワークに接続し、このネットワークに通信可能に接続された外部装置(例えば、パーソナルコンピュータ、サーバ装置、表示装置、他のデジタル複合機、ファクシミリ装置等)とデータ通信を行う。
 記憶部6は、画像形成装置1で扱われる各種データ(画像データ等)を記憶する記憶手段である。記憶部6の構成は特に限定されるものではないが、例えばハードディスクなどのデータ記憶装置を用いることができる。
 符号化/復号化部8は、符号化モードが選択されている場合、画像処理装置3にて扱われている画像データを記憶部6に記憶させるときに、当該画像データを符号化するようになっている。つまり、符号化モードが選択されている場合、画像データを符号化した上で記憶部6に記憶させ、符号化モードが選択されていない場合、前記画像データは符号化されずに符号化/復号化部8をスルーして記憶部6に記憶されるようになっている。なお、符号化モードは図示しない操作パネルによって利用者に選択されるものである。また、記憶部6から読み出される画像データが符号化されている場合、符号化/復号化部8は、当該画像データの復号化も行う。
 制御部7は、画像処理装置3に備えられる各部の動作を制御する処理制御装置(制御手段)である。この制御部7は、画像形成装置1の各部の動作を制御する主制御部(図示せず)に備えられるものであってもよく、主制御部とは別に備えられ、主制御部と協働して処理を行うものであってもよい。なお、上記主制御部は、例えばCPU(Central Processing Unit)等からなり、図示しない操作パネルのUIから入力される情報、図示しないROM等に格納されたプログラムや各種データに基づいて、画像形成装置1の各部の動作を制御する装置である。また、上記主制御部は、画像形成装置1の内部におけるデータの流れや、記憶部6に対するデータの読み書きを制御する。
  (2)画像処理装置3について
   (2-1)印刷モード
 つぎに、画像処理装置3に含まれる各ブロック、および、印刷モード時の画像処理装置3の動作についてより詳細に説明する。
 印刷モードの場合、図1に示すように、まず、A/D変換部11が、画像入力装置2から入力されたRGBのアナログ信号をデジタル信号に変換してシェーディング補正部12に出力する。
 シェーディング補正部12は、A/D変換部11から送られてきたデジタルのRGB信号に対して、画像入力装置2の照明系、結像系、撮像系で生じる各種の歪みを取り除く処理を施し、入力処理部13に出力する。
 入力処理部(入力階調補正部)13は、シェーディング補正部12にて各種の歪みが取り除かれたRGB信号に対してガンマ補正などの各種処理行う。また、入力処理部13は、上記の各種処理を施した画像データを記憶部6に記憶させる。
 原稿検知部14は、入力処理部13によって記憶部6に記憶された画像データを読み出して、当該画像データに示される原稿画像の傾き角度を検知し、検知した傾き角度(検知結果)を原稿補正部15に出力する。原稿補正部15は、原稿検知部14から伝達された傾き角度に基づいて、記憶部6に記憶されている画像データを読み出して原稿の傾き補正を行い、傾き補正後の画像データを記憶部6に記憶させる。
 また、原稿補正部15によって傾き補正が行われた後、原稿検知部14は、記憶部6に記憶されている画像データ(傾き補正後の画像データ)を読み出し、この画像データに基づいて原稿の天地方向の判定を行い、判定結果を原稿補正部15に出力する。これに対して、原稿補正部15は、原稿の天地方向の判定の判定結果に応じて、記憶部6に保存されている画像データを読み出して方向補正処理を行う。
 ここで、原稿検知部14について詳細に説明する。図2は、原稿検知部14の概略構成を示すブロック図である。この図に示すように、原稿検知部14は、信号変換部51、解像度変換部52、2値化処理部53、原稿傾き検知部54、天地方向検知部55を備えている。
 信号変換部51は、記憶部6から入力する画像データを無彩化して、明度信号もしくは輝度信号に変換するものである。例えば、信号変換部51は、Yi=0.30Ri+0.59Gi+0.11Biを演算することによりRGB信号(画像データ)を輝度信号Yに変換する。ここで、Yは各画素の輝度信号であり、R,G,Bは各画素のRGB信号における各色成分であり、添え字のiは画素毎に付与された値(iは1以上の整数)である。
 あるいは、RGB信号をCIE1976L***信号(CIE:Commission International de l'Eclairage、L*:明度、a*,b*:色度)に変換してもよい。
 解像度変換部52は、信号変換部51にて無彩化された画像データ(輝度値(輝度信号)または明度値(明度信号))を低解像度に変換する。例えば、1200dpi、750dpi、あるいは600dpiで読み込まれた画像データを300dpiに変換する。解像度変換の方法は特に限定されるものではなく、例えば、公知のニアレストネイバー法、バイリニア法、バイキュービック法などを用いることができる。
 2値化処理部53は、低解像度に変換された画像データと、予め設定された閾値とを比較することにより画像データを2値化する。例えば、画像データが8ビットである場合、上記閾値を128とする。あるいは、複数の画素(例えば5画素×5画素)からなるブロックにおける濃度(画素値)の平均値を閾値としてもよい。
 原稿傾き検知部54は、2値化処理部53によって2値化された画像データに基づいて、画像読取時のスキャン範囲(正規の原稿位置)に対する原稿の傾き角度を検知し、検知結果を原稿補正部15に出力する。
 傾き角度の検知方法は特に限定されるものではなく、従来から公知の種々の方法を用いることができる。例えば、特許文献2に記載されている方法を用いてもよい。この方法では、2値化された画像データからを黒画素と白画素との境界点(例えば各文字の上端における白/黒の境界点の座標)を複数個抽出し、各境界点の点列の座標データを求める。そして、この点列の座標データに基づいて回帰直線を求め、その回帰係数bを下記式(1)に基づいて算出する。
Figure JPOXMLDOC01-appb-M000001
 なお、Sx,Syはそれぞれ変量x,yの残差平方和であり、Sxyはxの残差とyの残差の積の和である。すなわち、Sx,Sy,Sxyは上記式(2)~(4)で表わされる。
 そして、上記のように算出した回帰係数bより、下記式(5)に基づいて傾き角度θを算出する。
  tanθ=b ・・・式(5)
 天地方向検知部55は、2値化処理部53によって2値化された画像データに基づいて、記憶部6に記憶されている画像データに示される原稿画像の天地方向を判定し、判定結果を原稿補正部15に出力する。
 天地方向の判定方法は特に限定されるものではなく、従来から公知の種々の方法を用いることができる。例えば、特許文献3に記載されている方法を用いてもよい。
 特許文献3の方法では、画像データに基づいて文字認識処理を行い、原稿内の各文字を文字毎に切り出して各文字をパターン化する。なお、この処理は、2値化され、300dpiに低解像度化された画像データを用いて行う。また、必ずしも全ての文字について文字認識処理を行う必要は無く、例えば予め定められた数の文字を抽出して行うようにしてもよい。
 その後、文字パターンの特徴と予めデータベース化された文字パターン情報とのマッチング(比較)を行う。マッチングの方法としては、データベース化された文字パターンに画像データから切り出された文字パターンを重ね合わせて画素ごとの白黒を比較し、画像データにおける文字を、データベース化された各文字パターンのうち全ての画素が合致する文字パターンの文字として判別する。なお、全てが合致する文字パターンがない場合、画像データにおける文字を、マッチングする画素が最も多い文字パターンの文字として判別する。ただし、マッチングする画素数の割合が所定のマッチング割合に達しなければ判別不能と判断する。
 そして、画像データを90°、180°、270°回転させた場合のそれぞれについて、上記の文字認識処理を行う。その後、0°、90°、180°、270°のぞれぞれの場合について、判別可能な文字数を算出し、判別可能な文字数が最も多い回転角度を文字方向、すなわち原稿の天地方向として判定する。そして、画像データにおける原稿画像の天地方向を正規の天地方向に一致させるための回転角度を判定する。具体的には、正規の天地方向に対して時計回りの方向の角度を正とし、画像データにおける原稿画像の天地方向(基準方向)と正規の天地方向とが一致している場合を0°、画像データにおける原稿画像の天地方向が正規の天地方向に対して-90°異なっている場合に上記回転角度を90°、画像データにおける原稿画像の天地方向が正規の天地方向に対して-180°異なっている場合に上記回転角度を180°、画像データにおける原稿画像の天地方向が正規の天地方向に対して-270°異なっている場合に上記回転角度を270°とする。原稿検知部14は、上記回転角度を、天地方向の判定結果として原稿補正部15(図1参照)に出力する。そして、原稿補正部15は、記憶部6に記憶されている画像データに対して上記の回転角度だけ回転処理を施す。
 以上にて説明した原稿検知部14においては、まず、入力処理部13による処理後の画像データが記憶部6から読み出されて信号変換部51に入力する。そして、信号変換部51、解像度変換部52、2値化処理部53の処理を経て、原稿傾き検知部54にて傾き角度が検出される。その後、原稿補正部15が、記憶部6に記憶されている画像データを読み出して、原稿傾き検知部54にて検出された結果に基づいて当該画像データに傾き補正を施し、傾き補正後の画像データを記憶部6に保存する。さらにその後、傾き補正後の画像データが記憶部6から読み出されて信号変換部51に入力し、信号変換部51、解像度変換部52、2値化処理部53の処理を経て、天地方向検知部55にて天地方向が判定される。その後、原稿補正部15が、記憶部6に記憶されている画像データ(傾き補正後の画像データ)を読み出して、天地方向検知部55の判定結果に基づいて必要に応じて当該画像データに方向補正を施す。
 なお、符号化モードが選択されている場合において、入力処理部13または原稿補正部15から出力されて記憶部6に保存される画像データは、符号化/復号化部8にて符号化された上で記憶部6に記憶されるようになっている。また、符号化モードが選択されている場合において、記憶部6から読み出されて原稿検知部14または原稿補正部15へ入力する画像データは、符号化/復号化部8にて復号化された上で原稿検知部14または原稿補正部15へ入力する。
 つぎに、図1の画像処理装置3に属する各ブロックのうち、原稿補正部15よりも後段の各ブロックについて説明する。色補正部16は、原稿検知部14および原稿補正部15による処理が完了した後の画像データを原稿補正部15から入力し、当該画像データを、RGB信号の補色であるCMY(C:シアン・M:マゼンタ・Y:イエロー)の画像データに変換し、且つ、色再現性を高める処理を行う。
 領域分離部21は、原稿検知部14および原稿補正部15による処理が完了した後の画像データを原稿補正部15から入力し、当該画像データの画像中の各画素を黒文字領域、色文字領域、網点領域、印画紙写真(連続階調領域)領域の何れかに分離するものである。領域分離部21は、分離結果に基づき、画素がどの領域に属しているかを示す領域分離データ(領域分離信号)を、黒生成/下色除去部17、空間フィルタ部18、および中間調生成部20へと出力する。領域分離処理の方法は特に限定されるものではなく、従来から公知の方法を用いることができる。黒生成/下色除去部17、空間フィルタ部18、および中間調生成部20では、入力された領域分離信号に基づいて、各領域に適した処理が行われる。
 黒生成/下色除去部17は、色補正後のCMYの3色信号から黒(K)信号を生成する黒生成、元のCMY信号から黒生成で得たK信号を差し引いて新たなCMY信号を生成する処理を行うものである。これにより、CMYの3色信号はCMYKの4色信号に変換される。
 空間フィルタ部18は、黒生成/下色除去部17より入力されるCMYK信号の画像データに対して、領域分離データを基にデジタルフィルタによる空間フィルタ処理(強調処理および/または平滑化処理)を行い、空間周波数特性を補正する。これにより、出力画像のぼやけや粒状性劣化を軽減することができる。
 出力階調補正部19は、用紙等の記録材に出力するための出力γ補正処理を行い、出力γ補正処理後の画像データを中間調生成部20に出力する。
 中間調生成部20は、最終的に画像を画素に分離してそれぞれの階調を再現できるように処理する階調再現処理(中間調生成)を画像データに施す。
 上述した各処理が施されて中間調生成部20から出力された画像データは、一旦、図示しないメモリに記憶されたのち、所定のタイミングで読み出されて画像出力装置4に入力され、画像出力装置4は前記画像データに基づいて印刷を行う。
   (2-2)イメージ送信モード
 つぎに、イメージ送信モードにおける画像処理装置3の動作について、図1を参照しながらより詳細に説明する。なお、イメージ送信モードにおけるA/D変換部11、シェーディング補正部12、入力処理部13の動作は印刷モードの場合と略同様である。そして、入力処理部13による処理後の画像データは一旦記憶部6に記憶されることになる。
 ここで、イメージ送信モードにおいて、通常モードが選択されている場合、原稿検知部14および原稿補正部15は、記憶部6に記憶されている画像データに対して、印刷モード時と同じく、傾き角度の検知、傾き補正、天地方向の判定、方向補正を行う。これに対し、イメージ送信モードにおいて、通常モードではなく簡易モードが選択されている場合、原稿検知部14は傾き角度の検知および天地方向の判定を行うものの原稿補正部15は処理を行わない。
 そして、通常モードでは、原稿検知部14および原稿補正部15による処理が施された後、原稿補正部15からファイル生成部30へ画像データが送信されるようになっている。なお、簡易モードでは、原稿補正部15は、記憶部6から画像データを読み出して、各種補正処理を施すことなく、当該画像データをそのままファイル生成部30に送信するようになっている。
 図3に示すように、ファイル生成部30は、文字認識部31、翻訳部32、レイヤ生成部33、および、フォーマット化処理部34を備えており、イメージ送信モードが選択された場合に、文字認識処理および翻訳処理を実行するとともに、利用者に指定されている送信先または保存先に送信するための画像ファイルを生成する。
 文字認識部31は、入力した画像データを低解像度化して(例えば300dpi)、さらに、低解像度化した画像データを2値化することによって2値化画像データを生成し、当該2値化画像データを用いて文字認識処理を行う。さらに、文字認識部31は、文字認識処理の結果に基づいて上記画像データに対応する原稿に含まれる文書のテキストデータを生成し、このテキストデータを翻訳部32およびレイヤ生成部33の各々に対して出力する。なお、このテキストデータは、各文字の文字コードと各文字の位置情報とを含む。文字認識処理の方法は、特に限定されるものではなく、従来から公知の方法を用いることができる。例えば、2値化画像データの各文字の特徴量を抽出し、当該特徴量と辞書データ(文字データベース)とを比較して文字認識を行う。なお、文字認識部31にて用いられる辞書データは記憶部6に保存されている。
 また、文字認識部31は、レイヤ生成部33に対しては、以上のテキストデータを送信するだけではなく、入力した画像データをそのまま送るようになっている。つまり、レイヤ生成部33は、原稿を示す画像データと前記テキストデータとを文字認識部31から受け取るようになっている。
 翻訳部32は、文字認識部31から送られてきたテキストデータに示される言語に対して翻訳処理を行う。具体的には、翻訳部32は、前記テキストデータと語意情報を有する辞書データ(語意データベース)と比較して、原稿の言語(原文)に対応する訳語を取得する。なお、翻訳部32にて用いられる辞書データは記憶部6に保存されている。
 また、本実施形態では、翻訳モードに応じて処理内容が切り替え可能なように複数の語意データベースが記憶部6に記憶されている。例えば、記憶部6には、英語から日本語へ翻訳するための英日翻訳データベース、英語から中国語へ翻訳するための英中翻訳データベース等の複数種類のデータベースが保存されている。そして、翻訳部32は、英語を日本語へ翻訳する英日モードが利用者に選択されている場合、記憶部6の英日翻訳データベースを参照して翻訳処理を行い、英語を中国語へ翻訳する英中モードが利用者に選択されている場合、記憶部6の英中翻訳データベースを参照して翻訳処理を行うようになっている(つまり、モードに応じて、参照するデータベースを切り替えている)。
 さらに、本実施形態では、同一の翻訳モードについて、翻訳レベル(簡易、標準、詳細)に応じて複数の語意データベースが記憶部6に記憶されている。例えば、記憶部6には、簡易レベルの英日翻訳データベースと、標準レベルの英日翻訳データベースと、詳細レベルの英日翻訳データベースとが記憶され、翻訳部32は、利用者に選択されたレベルのデータベースを参照して翻訳処理を行うようになっている。なお、簡易レベルとは、難解単語のみ翻訳されるレベルであり、標準レベルとは高校生レベルまでの単語が翻訳されるレベルであり、詳細レベルとは簡易な単語まで翻訳されるレベル(中学生レベル)を意味する。
 レイヤ生成部33は、後段のフォーマット化処理部34で生成される画像ファイル(PDFファイル)を構成する各レイヤを生成する。具体的には、レイヤ生成部33は、文字認識部31から送られてきた原稿の画像データに基づき原稿画像を示すレイヤ(以下単に「原稿画像」と称す)を生成し、文字認識部31から送られてきたテキストデータに基づいて透明テキストを示すレイヤ(以下単に「透明テキスト」と称す)を生成し、翻訳部32による翻訳結果に基づいて訳語を示すレイヤ(以下単に「訳語画像」と称す)を生成する。
 なお、前記の透明テキストとは、認識された文字および単語をテキスト情報として見掛け上は見えない形で前記原稿画像のデータに重ね合わせる(あるいは埋め込む)ためのデータである。例えば、PDFファイルでは、原稿画像データに透明テキストを付加した画像ファイルが一般に使用されている。
 また、前記の訳語画像とは、原稿画像に示されている原文に対する訳文が視認可能であって訳文以外の部分が透明になっているテキストデータであり、前記訳語画像を前記原稿画像に重ね合わせて画像ファイルを生成した場合に前記訳文と当該訳文に対応する原文とを利用者が対比可能なように前記訳文の位置(例えば原文の行間であって原文に隣接する余白領域)が定められているデータである。つまり、訳語画像は、前記の透明テキストとは異なり、前記原稿画像に重ね合わせられた際に訳語が利用者に見える形で前記原稿画像のデータに重ね合わせられる可視テキストデータである。
 なお、原文に対する訳文の位置を定める手法としては、従来から用いられる様々な手法を利用できるが、例えば特許文献1の段落[0063]~[0067]に示されている情報挿入制御部による挿入可能領域の算出手法を利用できる。
 さらに、レイヤ生成部33は、後段のフォーマット化処理部34で生成される画像ファイルに埋め込む描画コマンドを生成する描画コマンド生成部としても機能する。この描画コマンドとは、上記画像ファイルを開いてコンピュータに上記画像ファイルの画像を表示させる際の表示条件や上記画像ファイルの画像を印刷する際の印刷条件をコンピュータに指示するためのコマンドである。
 フォーマット化処理部34は、ファイル生成部30へ入力された画像データと前記翻訳処理の結果とに基づいて、所定形式のデータにフォーマット化した画像ファイルを生成するブロックである。なお、フォーマット化処理部34にて生成される画像ファイルの例としてはPDFファイルがあげられる。
 具体的には、フォーマット化処理部34は、レイヤ生成部33にて生成された各レイヤおよび描画コマンドを埋め込んだ画像ファイルを生成する処理を行う。つまり、フォーマット化処理部34にて生成される画像ファイルは、前記の原稿画像と透明テキストと前記訳語画像とが含まれるデータである。
 また、前記の描画コマンドとしては、下記に示す初期表示コマンド、ボタン表示コマンド、切替コマンド、印刷禁止コマンド、および、一括切替コマンドがある。
初期表示コマンド:画像ファイルに対して利用者の表示指示が入力された場合(利用者によって画像ファイルが開かれた場合)、前記原稿画像に前記透明テキストを重ねて配置して前記原稿画像を表示させるコマンドである。つまり、初期表示コマンドとは、前記表示指示が入力された場合に、前記訳語画像を表示させずに前記原稿画像のみを表示させる訳語無状態への移行をコンピュータに命令するコマンドである。
ボタン表示コマンド:画像ファイルが開かれている間において、原稿画像と共に切替ボタンも表示することをコンピュータに命令するコマンドである。
切替コマンド:利用者に前記切替ボタンがクリック(ボタン操作)されることで切替指示がなされた場合、前記訳語無状態と訳語有状態との切り替えをコンピュータに命令するコマンドである。なお、訳語有状態とは、前記原稿画像に前記訳語画像および前記透明テキストを重ねて配置して前記原稿画像および前記訳語画像を表示させる状態である。
印刷禁止コマンド:前記画像ファイルに対して利用者から印刷指示がなされた場合に前記切替ボタンを印刷しないことをコンピュータに命令するコマンドである。
一括切替コマンド:前記原稿画像が複数頁からなり、いずれかの頁と共に表示されている切替ボタンがクリックされた場合、全頁について前記訳語無状態と前記訳語有状態との切り替えをコンピュータに命令するコマンドである。
 フォーマット化処理部34にて生成される画像ファイルには以上にて示した各コマンドが埋め込まれているため、当該画像ファイルは以下に示すように取り扱われることになる。まず、利用者が画像ファイルを開く操作を行うと、図4の(a)に示すように、前記画像ファイルの訳語画像の訳語(日本語)が表示されずに前記原稿画像の原文(英語)が表示される訳語無状態になる。また、図4の(a)に示すように、切替ボタンが表示されることになる。
 そして、利用者が図4の(a)に示される切替ボタンをクリックすると、図4の(a)に示される訳語無状態から図4の(b)に示される訳語有状態に切り替えられることになる。つまり、訳語有状態に切り替えられると、前記画像ファイルの原稿画像の原文(英語)と、訳語画像における前記原文に対応する訳語(日本語)とが並んで表示されることになる。また、図4の(b)に示される訳語有状態においても切替ボタンは表示されており、利用者が図4の(b)に示される切替ボタンをクリックすると、図4の(b)に示される訳語無状態から図4の(a)に示される訳語有状態に切り替わる。
 また、いずれかの頁に示される切替ボタンをクリックすると、全ての頁について、訳語有状態から訳語無状態への切り替え、または、訳語無状態から訳語有状態への切り替えが行われる。例えば、利用者が1頁目の切り替えボタンをクリックすることにより、訳語無状態から訳語有状態へ切り替わると、2頁目以降を表示させた時にも訳語有状態になっている。
 そして、画像ファイルの原稿画像が表示されている時に利用者が表示されている画像に対する印刷コマンドを入力した場合、例え切替ボタンが表示されている場合であっても当該切替ボタンが印刷されることがない。
 フォーマット化処理部34は、以上のようにして生成した画像ファイルを記憶部6に記憶させる。そして、送受信部5が、記憶部6に記憶されている画像ファイルを、利用者に指定されている送信先または保存先に送信するようになっている。
   (2-3)イメージ送信モードの処理例
 つぎに、イメージ送信モードの処理の流れを図5のフローチャートに基づいて説明する。図5は、画像形成装置1のイメージ送信モードにおける処理の流れを示したフローチャートである。
 図5に示すように、画像形成装置1は、最初に、操作パネル(不図示)を介して入力される利用者からの指示に応じて、イメージ送信モードの処理条件を設定する(S1)。
 このS1では、利用者は翻訳処理の有無を設定することになる。なお、図5のフローチャートは、翻訳処理有が設定されることを前提としたフローチャートであり、以下ではS1にて翻訳処理有が設定されたことを前提として説明を行う。
翻訳処理が有に設定される場合、翻訳モード、翻訳レベル、訳語の表示色を設定するための画面が表示され、利用者に設定を促すようになっている。具体的には、英語から日本語への英日翻訳モード、英語から中国語への英中翻訳モード、日本語から英語への日英翻訳モード、日本語から中国語への日中翻訳モード等のなかから、所望の翻訳モードが利用者に選択される。また、簡易レベル、標準レベル、詳細レベルのなかから、所望の翻訳レベルが利用者に選択される。なお、翻訳レベル毎に表示色が予め決められており、利用者には表示色を選択させずに翻訳レベルを選択させて、利用者に選択された翻訳レベルに対応する表示色が設定されるようになっていてもよい。
また、S1では、原稿補正部15による補正処理(傾き補正、方向補正)を行う通常モードと、当該補正を行わない簡易モードとのいずれかが利用者に選択されることになる。なお、簡易モードが選択される場合、原稿検知部14の検出結果(傾き角度および天地方向の適否)がフォーマット化処理部34にて生成される画像ファイル(PDF)のヘッダに埋め込まれる。
さらに、S1において、利用者は、画像ファイルの送信先アドレスまたは保存先アドレスを設定する。
 S1の条件設定が完了し、利用者が画像形成装置1のスタートボタンを押すと、原稿が読み取られて画像データが生成される(S2)。S2において、原稿載置台(コンタクトガラス)に載置された原稿が読み取られてもよいし、原稿搬送手段によって搬送されている原稿が読み取られてもよい。
 S2の後、画像形成装置1は、原稿から読み取られた画像データに対して、文字認識処理を施し(S3)、文字認識処理の結果に基づいて翻訳処理を行う(S4)。S4の後、画像形成装置1は、後に生成される画像ファイルを構成する各レイヤを生成する(S5)。具体的に、S2にて読み取られた画像データに基づいて原稿画像(レイヤ)が生成され、S3にて行われた文字認識処理の結果に基づいて透明テキスト(レイヤ)が生成され、S4にて行われた翻訳処理の結果に基づいて訳語画像(レイヤ)が生成される。
 S5の後、画像形成装置1は、後に生成される画像ファイルに埋め込む描画コマンドを生成する(S6)。ここで生成される描画コマンドは、前記の初期表示コマンド、ボタン表示コマンド、切替コマンド、印刷禁止コマンド、および、一括切替コマンドである。S6の後、画像形成装置1は、S5にて生成された各レイヤが埋め込まされた画像ファイルを生成し(S7)、S6にて生成した描画コマンドを当該画像ファイルに埋め込む(S8)。そして、画像形成装置1は、以上のようにして生成した画像ファイルを記憶部6に一旦記憶し、利用者により指定された送信先または保存先に当該画像ファイルを送信するようになっている。
 以上示したように、本実施形態のファイル生成処理によれば、原稿に示される原文(言語)と当該原文に対応する訳語とを併せて表示する訳語有状態(第1表示状態)と前記訳語を表示せずに前記言語を表示する訳語無状態(第2表示状態)とを必要に応じて切り替え可能な単一の画像ファイルを生成できるため、従来技術のように2つのファイルを生成する場合よりもファイル生成時の手間やファイル管理時の煩わしさを抑制できるという効果を奏する。
 すなわち、画像ファイルの閲覧者は、必要に応じて、訳ふり結果を表示している訳語有状態と訳ふり結果が非表示になる訳語無状態とを切り替えることができる。よって、翻訳を消去して閲覧したい者のために、翻訳が表示された原稿画像のファイル以外に、翻訳が表示されていないファイルを作成しなければならなかった従来技術よりも手間を省くことができる。
 また、本実施形態にて生成される画像ファイルによれば、図4の(a)または図4の(b)に示される切替ボタンをクリックするだけで、図4の(b)に示される訳語有状態と図4の(a)に示される訳語無状態とが切り替えられるようになっているため、利用者は訳語有状態と訳語有状態との切り替えを容易に行うことができるという効果を奏する。
 さらに、本実施形態においては、前記の画像ファイルの画像を印刷する場合には前記切替ボタンが印刷されることがないため、不要な画像(切替ボタン)が紙面上に示されないようにできるという効果を奏する。
 さらに、本実施形態にて生成される画像ファイルは、複数頁からなる場合、各頁に前記切替ボタンが示されるようになっており、且つ、1つの頁の切替ボタンがクリックされた場合に全ての頁について前記訳語有状態と前記訳語無状態とが切り替えられるようになっている。それゆえ、利用者からすれば、頁毎に切替ボタンをクリックしなければならないという手間を省くことができるという効果を奏する。
 また、本実施形態の画像ファイルには、当該画像ファイルに対して利用者の表示指示が入力された場合に図4の(a)の訳語無状態への移行をコンピュータに命令するための初期表示コマンドが埋め込まれているため、画像ファイルが開かれると最初に図4の(a)に示される訳語無状態になる。しかし、初期表示コマンドは、当該画像ファイルに対して利用者の表示指示が入力された場合に図4の(a)の訳語無状態への移行をコンピュータに命令するものではなく、当該画像ファイルに対して利用者の表示指示が入力された場合に図4の(b)の訳語有状態への移行をコンピュータに命令するものであってもよい。これにより、画像ファイルが開かれると最初に図4の(b)の訳語有状態になるように設定できる。
 また、図5のS1において、図4の(a)の訳語無状態および図4の(b)の訳語有状態のいずれを初期状態にするかを操作パネルによって利用者に設定(指定)させるようになっていてもよい。この場合、ファイル生成部30は、操作パネルを介して入力される利用者からの指示によって訳語無状態および訳語有状態のいずれかを初期状態に指定する初期状態指定部(不図示)を備える。そして、フォーマット化処理部34は、前記画像ファイルに対して利用者による表示指示がなされた場合に前記画像ファイルの画像が表示されていない非表示状態から前記初期状態として指定された状態への移行をコンピュータに実行させるための初期表示コマンドを前記画像ファイルに埋め込むようになっている。
つまり、フォーマット化処理部34は、利用者によって訳語無状態が初期状態として設定された場合、前記画像ファイルに対して利用者の表示指示が入力された場合に非表示状態から訳語無状態への移行をコンピュータに命令する初期表示コマンドを画像ファイルに埋め込み、利用者によって訳語有状態が初期状態として設定された場合、前記画像ファイルに対して利用者の表示指示が入力された場合に非表示状態から訳語有状態への移行をコンピュータに命令する初期表示コマンドを画像ファイルに埋め込むようになっている。
これにより、例えば、画像ファイルの主な利用者が翻訳を必要としない者と想定される場合には図4の(a)に示す訳語無状態を初期表示状態(ファイルを開いた時に最初に表示される内容)とし、画像ファイルの主な利用者が翻訳を必要とする者(例えば語学が苦手な者)と想定される場合には図4の(b)に示す訳語有状態を初期表示状態とするようなことが可能になり、訳語無状態と訳語有状態との切り替えを極力省くことができる。
 また、以上の実施形態では、S1にて翻訳処理が有に設定された場合、翻訳モード、翻訳レベル、訳語の表示色の条件を利用者に設定させるようになっているが、画像形成装置1において翻訳処理に使用される辞書が1つしか格納されていない場合、翻訳モードや翻訳レベルの条件設定を利用者に行わせる必要はなく、また、訳語の表示色の設定も利用者に行わせるのではなく装置側にて自動設定されるようになっていてもよい。この場合、S1では、翻訳処理の有無の設定、および、傾き補正等を行う通常モードと傾き補正等を行わない簡易モードとの選択を利用者に行わせることになる。
   (2-4)ロールオーバ
 また、図4の(b)に示す訳語有状態と図4の(a)に示す訳語無状態とを切り替えるための切替ボタンをロールオーバ(ボタンにカーソルを重ねた時にボタンの表示状態を変更)させるようになっていてもよい。以下では、この点について説明する。
 図6の(a)は、訳語無状態および訳語有状態にて表示され、且つ、カーソル800によって利用者に選択されていない状態の切替ボタンである。図6の(a)に示される状態(ノーマル外観状態)では、切替ボタンの少なくとも一部であるボタン領域が半透明で表示されている。これにより、切替ボタンが利用者に選択されていない場合、当該ボタン領域に重ねられているオブジェクト画像(不図示)を利用者が視認できるようになっている。
 そして、図6の(a)に示される切替ボタンにカーソル800が重ねられると、切替ボタンがロールオーバされ、当該切替ボタンの状態は図6の(b)に示されるようになる。図6の(b)に示される状態(ロールオーバ外観)では、切替ボタンの前記ボタン領域の濃度が図6の(a)の状態よりも高くなり、前記のボタン領域が非透明状態になっている。これにより、前記ボタン領域と重ねられているオブジェクト画像(前記ボタン領域の下層に位置するオブジェクト画像)を利用者が視認できなくなり、前記ボタン領域を利用者が視認し易くなる。
 また、図6の(b)に示されるように、切替ボタンにカーソル800が重ねられている場合、切替ボタンと共に吹き出し900が表示される。この吹き出し900は、切替ボタンにカーソル800が重ねられている場合にのみ表示されるものであり、切替ボタンの機能の説明(メッセージ)が示されている画像(説明画像)である。そして、図6の(b)に示される状態において切替ボタンがクリックされると、前述した訳語無状態と訳語有状態とが切り替えられるようになっている。
 図6に示した例によれば、利用者が切替ボタンを必要としていない場合には(前記切替ボタンにカーソル800が重ねられていない場合には)、前記切替ボタンが前記オブジェクト画像の表示の邪魔になることを抑制でき、利用者が切替ボタンを必要とする場合には(前記切替ボタンにカーソル800が重ねられている場合には)、前記切替ボタンを目立つように表示させるといったことが可能になる。
 また、図6に示した例によれば、前記切替ボタンにカーソル800が重ねられていない場合には吹き出し900が表示されないが、前記切替ボタンにカーソル800が重ねられている場合には吹き出し900が表示されるようになっている。それゆえ、吹き出し900によって利用者に切替ボタンの機能を説明できると共に、必要な場合に限って吹き出し900を表示させることで画像ファイルの画像の閲覧性が損なわれることを抑制できる。
 なお、図6に示した切替ボタンを表示させる形態の場合、フォーマット化処理部34は、下記に示すロールオーバ表示コマンドと吹き出し表示コマンドとを描画コマンドとして画像ファイルに埋め込むようになっている。
ロールオーバ表示コマンド:切替ボタンにカーソルが重ねられていない場合には、切替ボタンの少なくとも一部領域であるボタン領域に重ねられるオブジェクト画像を利用者が視認できる程度に前記ボタン領域を透かして表示し、切替ボタンにカーソルが重ねられている場合には、切替ボタンにカーソルに重ねられていない場合よりも、前記ボタン領域の濃度を高めて非透過状態にすることによって、前記オブジェクト画像を利用者に視認させず且つ前記ボタン領域を利用者に視認させやすくすることをコンピュータに命令するコマンドである。
吹き出し表示コマンド:切替ボタンにカーソルが重ねられている場合にだけ、前記切替ボタンの機能を利用者に説明するための吹き出し900を表示することをコンピュータに実行させるコマンドである。
 また、以上にて説明した例では、切替ボタンにカーソル800が重ねられた場合、前記ボタン領域が非透明になって前記ボタン領域に重ねられるオブジェクト画像が視認不可になる形態であったが、非透明および視認不可にするような形態に限定されるものではない。すなわち、切替ボタンにカーソル800が重ねられた場合、切替ボタンにカーソル800が重ねられていない場合よりも、前記ボタン領域の濃度が高くなることで前記オブジェクト画像が利用者に視認されにくくなり且つ前記ボタン領域が利用者に視認させやすくなればよく、前記ボタン領域が非透明になって前記オブジェクト画像が視認不可になる必要性はない。
  (3)画像ファイルに記述される情報
 以下では、画像ファイルに記述される情報(埋め込まれる描画コマンド)を例示する。まず、図4の(b)の訳語有状態と図4の(a)の訳語無状態とを切り替えるための情報を説明する。図7は、画像ファイルに記述されている情報であって、訳語有状態と訳語無状態とを切り替えるための情報を示した図である。
 図7の(b)は、画像ファイルに記述されているオプショナルコンテントグループ辞書であり、訳語有状態と訳語無状態とを切り替えるアクションを行う上で、相互の関連を整理するためのラベル(図12~図15参照)を定義するものである。図7の(b)の例では、“39 0”という対象物(オブジェクト)を切替ラベルとして利用するために、対象物“39 0”の名前、タイプを定義している。
 図7の(a)は、画像ファイルに記述されている文書カタログであり、文書全体(原稿画像)の情報を表すものである。切替を行う対象物に対して設定し、頁毎、対象物毎に設定する。図7の(a)の例は、1つの対象物“39 0”について、切替表示を行うことを示している。
 図7の(c)は、オプショナルコンテントの範囲指定に関する記述を示したものであり、頁毎の翻訳結果のコンテンツ情報を示す対象物である。図7の(c)の例では、切り替えラベルである対象物“39 0”の表示切替を行う対象物の範囲として対象物“15 0”が含まれることを表している。
 つぎに、切替ボタンを表示させるための情報を説明する。図8は、画像ファイルに記述されている情報であって、切替ボタンを表示させるための情報を示した図である。
 図8の(a)は、ページオブジェクトであり文書の頁毎の情報を表すものである。ページオブジェクトにはアクション(表示あるいは非表示、リンク先に移動等)を起こす際の参照情報も含まれている。図8の(a)のページオブジェクトは図8の(b)のWidget注釈を含む対象物“43 0”、“45 0”、“47 0”への参照情報が含まれている。
 図8の(b)は、Widget注釈であり、アクションを起こす対象物の説明を示したものである。参照符500の命令は、切替ボタンにより、対象物“39 0”の表示、非表示を切り替えることを示している。なお、この例では、切替ボタンは印刷されない設定(デフォルトの設定)になっている。また、”/N 44 0 R”は、切替ボタンのイメージへの参照情報を指定したものであり、図8の(c)のフォームXObject(対象物”44 0”)にリンクされている。
 図8の(c)は、フォームXObjectであり、切替ボタンの外観(切替ボタンの描画イメージ)を定義したものである。
 そして、画像ファイルにおいては、図12に示すように、画像ファイルを構成するレイヤに対してラベル(同図の訳1)が関連付けられている。このラベルは、図7の(b)のオプショナルコンテントグループ辞書にて定義されるものである。また、図12に示される「切り替え動作」は図8の(b)のWidget注釈にて定義されるものである。さらに、図12に示される「ボタンイメージ」は図8の(c)のフォームXObjectにて定義されるものである。
 図7、図8、図12に示されるような画像ファイルの構成によれば、図4の(a)または図4の(b)に示される切替ボタンをクリックすると、図4の(a)の訳語無状態と図4の(b)の訳語有状態とを切り替えることができる。また、訳語無状態(翻訳結果を表示しない状態)で印刷すると原稿画像のみが印刷され、訳語有状態(翻訳結果を表示させた状態)で印刷を行うと原稿画像および訳語が印刷される。
 なお、図8の(b)に示されるWidget注釈を図9に示される内容に変更することにより(コマンド“/F4”を挿入する)、印刷時に切替ボタンが印刷される状態になる。これに対し、切替ボタンを印刷しないようにするには、図8の(b)に示されるように、Widget注釈においてコマンド“/F4”を挿入しないようにすればよい。
 つぎに、利用者によって画像ファイルが開かれた場合の初期表示状態を図4の(a)の訳語無状態に指定するための情報について説明する。図7の(a)の文書カタログのうち、“/D<<”、”/Order[39 0 R]”、”/ListMode/VisiblePages”の代わりに、図10に示される情報を挿入する。このようにすることにより、対象物“39 0”、“40 0”、“41 0”のうち、対象物“39 0”がファイルを開いたときに非表示になるように制御される。なお、ファイルを開いたときに訳文画像(可視テキスト情報)を非表示とするか否かは、処理を開始する前に、画像形成装置1の操作パネルより入力を行う。
 英語文書に対して、日本語の訳語を付加する場合、英語に不慣れな人にとっては、有効な情報となるが、そうでない人にとっては、訳語が付加されていることによりかえって煩わしく感じる場合があり、その場合、切替ボタンをクリックすることで非表示にしなくてはならない。また、紙文書を電子化データ化して、サーバ等のフォルダへ保管して、複数の人で紙文書の電子化データを共有する場合、訳語を付加しない方が好ましい。このような場合、上記のようにデフォルトとして訳語を表示させないようにしておくのが良い。
 また、ページ毎で訳語有状態と訳語無状態とを切り替える場合は、図13に示すようにページ毎に異なるラベルを定義し、ラベルと当該ラベルによって制御を行うレイヤとをラベル毎で関連付ける。このとき、切替ボタンの表示形態は同じでも良く、異なるようにしても良い。これに対し、全てのページについて一括して訳語有状態と訳語無状態とを切り替える場合は各ページの訳語画像を互いに別の対象物として定義し、図14に示すように全てのページに対して同じラベル関連づける。この場合、切替ボタンの表示形態は各ページで同じにする。
 つぎに、切替ボタンをロールオーバさせる形態(図6)を採用する場合に画像ファイルに付加される情報について説明する。図11は、画像ファイルに記述されている情報であって、切替ボタンをロールオーバさせるための情報を示した図である。
 図11の(a)は、Widget注釈であり、アクションを起こす対象物の説明を示したものである。つまり、切替ボタンをロールオーバさせる形態の場合、図8の(b)のWidget注釈の代わりに図11の(a)のWidget注釈が画像ファイルに埋め込まれる。
 図11の(a)において、参照符510の命令は、切替ボタンにより、対象物“39 0”の表示、非表示を切り替えることを示している。なお、この例では、切替ボタンは印刷されない設定(デフォルトの設定)になっている。
 また、図11の(a)の“/N 45 0 R”は、切替ボタンの半透明描画イメージ(ノーマル状態)への参照情報を指定したものであり、図11の(c)のフォームXObject(”45 0”)にリンクされている。また、図11の(a)の“/R 44 0 R”は、切替ボタンの非透明描画イメージ(ロールオーバ外観)への参照情報を指定したものであり、非透明の切替ボタンの描画イメージを定義した図8の(c)のフォームXObject(“44 0”)にリンクされている。なお、半透明描画イメージとは、図6の(a)に示すようにカーソルが切替ボタンに重ねられていない場合のイメージであり、非透明描画イメージとは、図6の(b)に示すようにカーソルが切替ボタンに重ねられている場合のイメージである。
 また、図11の(a)のWidget注釈の“/TU”に続く“()”で囲まれた文字列は、図6の(b)の吹き出し900に示されるメッセージを定義したものである。
 図11の(b)は、グラフィックス状態パラメータ辞書(半透明の描画状態)であり、切替ボタンが半透明状態にて描画される際の表示率を定義したものである。図11の(b)の例では、30%の表示率が設定されており、透過率70%の半透明状態となる。
 図11の(c)は、フォームXObjectであり、半透明状態で表示する場合の切替ボタンの外観(ボタンの描画イメージ)を定義したものである。図11の(c)のフォームXObjectは、切替ボタンを半透明にするための定義が示されている点(参照符900,905)が、図8の(c)のフォームXObjectと異なる。
  (4)複数種類の翻訳を行う処理例
 また、以上にて述べた実施形態では、S1において、翻訳モードおよび翻訳レベルが設定され、設定されたモードおよびレベルに応じた訳語を示す訳語画像(レイヤ)が生成されることになる。ここで、前記の翻訳モードまたは言語レベルは同時に複数選択されてもよく、この場合、生成される訳語画像(レイヤ)は複数通りになる。
 例えば、翻訳モードと翻訳レベルとを設定するための設定画面が表示され、利用者が、英日翻訳モードを選択し、且つ、簡易レベルと標準レベルとの2つの翻訳レベルを選択したものとする。この場合、簡易レベルの英日辞書にて翻訳された訳語画像(レイヤ)と、詳細レベルの英日辞書にて翻訳された訳語画像(レイヤ)とが生成され、生成された両方の訳語情報が画像ファイルに埋め込まれることになる。
 そして、翻訳レベル毎にボタンを設定し、それぞれのボタンをクリックすると、ボタンに対応した訳語が表示される。例えば、画像ファイルを最初に開いた場合、図16の(a)に示すように、原文(英語)と第1ボタンと第2ボタンとが表示される。第1ボタンは簡易レベルの訳語画像を表示させるためのボタンであり、第2ボタンは詳細レベルの訳語画像を表示させるためのボタンである。
 図16の(a)において利用者が第1ボタンをクリックすると、図16の(b)に示されるように、原文と簡易レベルの訳語とが表示されることになる。ここで、簡易レベルの訳語は青色にて表示される。また、図16の(b)に示される状態にて第1ボタンをクリックすると、簡易レベルの訳語が消去されて、図16の(a)の状態に戻る。
 これに対し、図16の(b)に示される状態にて第2ボタンをクリックすると、図16の(c)に示すように、原文と簡易レベルの訳語と詳細レベルの訳語とが表示されることになる。ここで、簡易レベルおよび詳細レベルのいずれにも共通して存在する訳語(図16の「目指す」)は図16の(c)に示すように重ねて表示されることになる。また、図16の(c)では、詳細レベルの訳語は緑色で表示され、簡易レベルおよび詳細レベルのいずれにも共通して存在する訳語は青色で表示されることになる。
 また、図16の(c)に示される状態にて第1ボタンをクリックすると、原文と詳細レベルの訳語(緑色)とが表示される状態になる。この場合、簡易レベルおよび詳細レベルのいずれにも共通して存在する訳語(図16の「目指す」)の色が、詳細レベルを示す緑色に変化する。これに対し、図16の(c)に示される状態にて第2ボタンをクリックすると、詳細レベルの訳語が消去され(「低い」「炭素」「社会」が消去され)、図16の(b)に示すように、原文と簡易レベルの訳語(青色)とが表示される状態になる。
 以上示した画像ファイルによれば、閲覧者の語学レベルに応じた訳語結果を表示して閲覧させることができ、訳語レベルの設定を変更して再スキャンおよび再処理する手間が省ける。また、複数レベルの訳語を示した画像を1つのファイルで保存可能となる。
 また、例えば、翻訳モードを設定するための設定画面が表示され、利用者が、英日翻訳モードと、英中翻訳モードとの2つを選択した場合、日本語を示した訳語情報と、中国語を示した訳語情報とが生成され、生成された両方の訳語情報が画像ファイルに埋め込まれることになる。
 そして、翻訳モード毎にボタンを設定し、それぞれのボタンをクリックすると、ボタンに対応した訳語が表示される。例えば、画像ファイルを最初に開いた場合、原文(英語)とボタンAとボタンBとが表示され、ボタンAを選択すると日本語の訳語が表示され、ボタンBを選択すると中国語の訳語が表示されるようになっている。
 これにより、閲覧者の母国語(自国の言語や精通している言語)に応じて訳語結果を表示して、閲覧することが可能なり、言語モードの設定を変更して、再スキャンおよび再処理する手間が省ける。また、1つのファイルで保存可能となる。
 なお、複数の訳語画像を画像ファイルに埋め込む際の処理の流れは図17に示されるとおりである。ここで、図17におけるS11~S15は図5のS1~S5と同じであり、図17におけるS16~S18は図5のS6~S8と同じである。ただし、図17では、S13の後、S11にて設定された翻訳モードおよび翻訳レベルに応じた数の訳文画像が生成されるまでS14およびS15が繰り返される(S20にてYES)。そして、S11にて設定された翻訳モードおよび翻訳レベルに応じた数の訳文画像が生成されるとS16以降の処理が実行されるようになっている。
  (5)外部装置から画像データを入力する処理例
 以上にて示した実施形態では、画像形成装置1は、画像入力装置2から入力した画像データに基づいて印刷または送信を行うようになっているが、外部装置から入力した画像ファイルに基づいてイメージ送信モードや印刷モードを行う機能をも有していてもよい。以下ではこの機能を有する画像形成装置1のイメージ送信モードについて説明する。なお、外部装置とは、画像形成装置1に差し込まれたUSBメモリ(リムーバブルメディア)、または、画像形成装置1とネットワークを介して接続されている端末装置等を意味する。
 本例においても、画像形成装置1の全体構成は図1に示すとおりである。しかし、本例のファイル生成部30は、図3に示す構成ではなく、図19に示すようになっている。
 図19に示すファイル生成部30は、文字認識部31、翻訳部32、レイヤ生成部33、フォーマット化処理部34、文字抽出部39を備える。文字認識部31、翻訳部32、レイヤ生成部33、フォーマット化処理部34の処理内容は、図3に示したものと同様であるため、その説明を省略する。つまり、本例の画像形成装置1において、イメージ送信モードが選択され、且つ、画像入力装置2の原稿が処理対象として選択されている場合、図19に示す文字認識部31、翻訳部32、レイヤ生成部33、フォーマット化処理部34は、図3に示すものと同一の処理を実行する。
 つぎに、図19に示す文字抽出部39を説明する前に制御部7について説明する。本例において、制御部7は、イメージ送信モードが選択され、且つ、記憶部6に保存されている画像ファイルが処理対象として選択されると、記憶部6に保存されている処理対象の画像ファイルにテキストデータ(文字データ)が埋め込まれているか否かを判定する。なお、処理対象の画像ファイルは、ネットワークおよび送受信部5を経由して受信され記憶部6に保存されているファイル、あるいは、画像形成装置1に差し込まれたUSBメモリ等のリムーバブルメディア(メモリデバイス)から読み出されて記憶部6に保存されているファイルを意味する。
 そして、制御部7は、処理対象の画像ファイルにテキストデータが埋め込まれていないと判定した場合、当該画像ファイルに含まれている画像データを抽出し、符号化/復号化部8および原稿補正部15を介して前記画像データを図19の文字認識部31に送信する。そして、図19の文字認識部31およびその後段の各ブロックにおいては、図3に示す文字認識部31およびその後段の各ブロックと同じ処理が行われ、訳語付きの画像ファイルが生成される。
 これに対し、制御部7は、処理対象の画像ファイルにテキストデータが埋め込まれていると判定した場合、当該画像ファイルを記憶部6から文字抽出部39に送信するようになっている。
 文字抽出部39は、記憶部6から画像ファイルを入力すると、この画像ファイルから、原稿画像を示す画像データと、テキストデータとを抽出する処理を行うブロックである。そして、文字抽出部39は、抽出したテキストデータを翻訳部32およびレイヤ生成部33に送信し、且つ、抽出した画像データをレイヤ生成部33に送信するようになっている。そして、図19の翻訳部32、レイヤ生成部33、フォーマット化処理部34は、図3に示す翻訳部32、レイヤ生成部33、フォーマット化処理部34と同じ処理を行い、訳語付きの画像ファイルが生成される。
 つぎに、制御部7にて実行される判定処理(処理対象の画像ファイルにテキストデータが埋め込まれているか否かを判定する処理)の詳細を説明する。
 まず、イメージ送信モードが選択され、且つ、記憶部6に保存されている画像ファイルが処理対象として選択されると、制御部7は、図20にて示される処理を実行することによって、画像ファイルのフォーマットを認識する処理を行う。図20に示される処理は、各種画像ファイルがファイル先頭部(ヘッダ)に特徴的なバイト列を有していることが多い点に着目し、ファイルの先頭部のバイト列を確認することにより、ファイル種別(フォーマット)を簡易的に認識するようにしたものである。以下では図20の処理内容を説明する。
イメージ送信モードが選択され、且つ、記憶部6に保存されている画像ファイルが処理対象として選択されると、制御部7は、当該画像ファイルのファイル先頭部のバイト列を取得する(S21)。
S21にて取得されたバイト列が16進数の0x49,0x49,0x2A,0x00である場合(S22にてYES)、すなわち、ファイルが0x49,0x49,0x2A,0x00で始まっている場合、制御部7は、処理対象の画像ファイルのフォーマットがTIFFであると判断する(S26)。
また、S21にて取得されたバイト列が16進数の0x4D,0x4D,0x00,0x2Aである場合も(S22にてNO、S23にてYES)、制御部7は、処理対象の画像ファイルのフォーマットがTIFFであると判断する(S26)。
また、S21にて取得されたバイト列が16進数の0xFF,0xD8である場合(S22およびS23にてNO、S24にてYES)、制御部7は、処理対象の画像ファイルのフォーマットがJPEGであると判断する(S27)。
また、S21にて取得されたバイト列が16進数の0x25,0x50,0x44,0x46である場合(S22‐S24にてNO、S25にてYES)、制御部7は、処理対象の画像ファイルのフォーマットがPDFであると判断する(S28)。
これに対し、S21にて取得されたバイト列がS22~S25に示されるいずれのバイト例にも該当しない場合(S22‐S25にてNO)、制御部7は、処理対象の画像ファイルが処理不可ファイルであると判定し(S29)、この場合についてはイメージ送信モードを中止する。
 制御部7は、図20の処理によって画像ファイルのフォーマットを特定すると、以下のようにしてテキストデータの有無を判断し、テキストデータの有無に応じて、画像ファイルの入力先を切り替える。
 まず、図20の処理によって特定されたフォーマットがPDFである場合、制御部7は、テキストコマンドを調べることで、PDFファイルにおけるテキストデータの有無を判断する。例えば、サーチャブルPDFのようにPDFに文字データが埋め込まれているファイルフォーマットでは、図7の(c)に示されるようにPDFファイル内部に”stream BT 84 Tz …”のような記述があるため、テキストデータ(文字データ)が埋め込まれていると判断できる。一方、文字情報がビットマップ画像としてPDFファイルに格納されている場合(テキストデータを有しない場合)、上記のような記述は含まれていないため、テキストデータが埋め込まれていないと判断できる。
そして、制御部7は、処理対象のPDFファイルがテキストデータを有している場合、このPDFファイルを記憶部6から読み出して図19の文字抽出部39へ入力するようになっている。これに対し、制御部7は、処理対象のPDFファイルがテキストデータを有していない場合、このPDFファイルに含まれている画像データを抽出し、符号化/復号化部8および原稿補正部15を介して前記画像データを図19の文字認識部31に入力する。
 また、図20の処理によって特定されたフォーマットがJPEGの場合、制御部7は、テキストデータを有していない画像ファイルとして認識する。つまり、この場合、制御部7は、JPEGファイルに含まれている画像データを抽出し、符号化/復号化部8にてRGBの画像データに変換し、原稿補正部15を介して当該画像データを図19の文字認識部31に入力する。
 また、図20の処理によって特定されたフォーマットがTIFFの場合も、制御部7は、テキストデータを有していない画像ファイルとして認識する。但し、この場合、制御部7は、TIFFファイルのタグを調べることで、TIFFファイルが2値画像および多値画像のいずれであるかを判定する。そして、TIFFファイルが多値画像である場合、制御部7は、TIFFファイルに含まれている画像データを抽出し、符号化/復号化部8にてRGBの画像データに変換し、原稿補正部15を介して当該画像データを図19の文字認識部31に入力する。これに対し、TIFFファイルが2値画像である場合、制御部7は、TIFFファイルに含まれている2値画像を抽出し、2値画像を多値のRGBの画像データ(例えば8ビットの画像データ)に変換する処理を符号化/復号化部8に実行させる。そして、符号化/復号化部8から出力されるRGBの画像データは、原稿補正部15を介して文字認識部31に入力するようになっている。
 以上のようにして文字認識部31または文字抽出部39に画像データが入力された場合、最終的にフォーマット化処理部34にて訳語付の画像ファイルが生成され、利用者に指定された送信先または保存先に当該画像ファイルが送られることになる。
 なお、以上の処理形態においては、処理対象の画像ファイルがワード、エクセル、パワーポイント等の電子データの場合について記載されていないが、これら電子データもテキストデータを含むため、処理対象の画像ファイルが当該電子データの場合、制御部7は、当該電子データを記憶部6から読み出して図19の文字抽出部39へ入力するようになっている。
  (6)変形例
 以上示した実施形態では、図5のS1において訳語画像の表示色を設定可能であるが、設定可能な表示色に透明色が含まれていてもかまわない。但し、設定された表示色が透明色の場合、レイヤ生成部33は、訳語画像を、視認可能な文字画像(レイヤ)とせずに、透明テキストの形式の文字画像(レイヤ)とする。また、フォーマット化処理部34は、訳語有状態と訳語無状態とを切り替えるための各種コマンド(初期表示コマンド,ボタン表示コマンド,切替コマンド等)を画像ファイルに埋め込まない(よって、切替ボタンは表示されない)。これにより、訳語情報を閲覧目的でなく検索目的でPDFファイルに埋め込む場合に、訳語を透明化できる。検索目的の事例としては、例えば、英文書の原稿に対して、日本語訳を付与することにより、英文書の電子化データを、日本語のキーワードによりテキスト検索可能となる。
 また、イメージ送信モードでは、原稿補正部15による処理後の画像データ(簡易モードでは入力処理部13による処理後の画像データ)がファイル生成部30に入力し、当該画像データに基づいて画像ファイルが作成される構成であるが、当該構成に限定されるものではない。例えば、イメージ送信モードにおいて、色補正部16が、原稿補正部15による処理後のRGBの画像データを、表示装置の特性に適したR´G´B´の画像データ(例えばsRGB)に変換し、空間フィルタ部18が、R´G´B´の画像データに対して空間フィルタ処理(強調処理および/または平滑化処理)を実行し、出力階調補正部19が、空間フィルタ処理後のR´G´B´の画像データに対して階調補正を行い、階調補正後のR´G´B´の画像データがファイル生成部30に入力するようになっていてもよい。
 なお、以上示した画像形成装置1の印刷モードにおいては、原稿補正部15による処理が完了した後の画像データが原稿補正部15から色補正部16に引き渡されていたが、原稿補正部15による処理が完了した後の画像データをファイリングデータとして一旦記憶部6に記憶させるようになっていてもよい。この場合、原稿補正部15による処理が完了した後の画像データは、例えば、JPEG圧縮アルゴリズムに基づいてJPEGコードに圧縮されて記憶部6に格納される。そして、コピー出力動作やプリント出力動作が指示されてから、記憶部(ハードディスク)6からJPEGコードが引き出され、符号化/復号化部8で復号化され、RGBの画像データに変換される。RGBに変換された画像データは原稿補正部15をスルーして、色補正部16と領域分離部21とに送られるようになっている。一方、イメージ送信モードの場合、記憶部6からJPEGコードが引き出され、ネットワーク網や通信回線を介して外部接続装置や通信回線へ向けてデータが伝送される。なお、ファイリングデータの管理やデータの引渡しの動作制御については制御部7が行うものとする。
  (7)画像読取装置について
 また、本実施形態では、本発明をカラー画像形成装置に適用する場合について説明したが、これに限らず、モノクロの画像形成装置に適用してもよい。また、本発明は、画像形成装置に限らず、例えば単体のカラー画像読取装置に適用してもよい。
 図18は、本発明をカラー画像読取装置(以下「画像読取装置」と称す)に適用する場合の構成例を示すブロック図である。図18に示すように、画像読取装置100は、画像入力装置2、画像処理装置3b、送受信部5、記憶部6、制御部7、および符号化/復号化部8を備える。画像入力装置2、送受信部5、制御部7、および符号化/復号化部8の構成および機能は上述した画像形成装置1の場合と略同様なので、ここではその説明を省略する。
 画像処理装置3bは、A/D変換部11、シェーディング補正部12、入力処理部13、原稿検知部14、原稿補正部15、ファイル生成部30を備えている。ファイル生成部30の内部構成は図3または図19に示されるようになっている。画像入力装置2、画像処理装置3bに含まれる各部の処理内容は、図1に示される画像形成装置1の場合と同様である。画像処理装置3bにおいて上記各処理が施された後の画像ファイルはコンピュータやハードディスク、ネットワークなどへ出力される。
  (8)他の適用例
 さらに、以上にて説明した本発明の一実施形態の画像処理装置を、デジタルカメラあるいはカメラ機能を有する携帯端末装置、コンピュータ、電子黒板よりなるシステムに適用しても良い。このシステムでは、携帯端末装置で撮像した画像に対して少なくともA/D変換を行ってコンピュータに送信し、コンピュータで入力処理、原稿検知処理、原稿補正処理、ファイル生成処理を行って電子黒板に表示するようになっていても良い。携帯端末装置では、撮像対象物である原稿やポスター等を斜め方向から撮像する場合があり、撮像画像に幾何学的歪みが生じ得るので、上記原稿検知処理において、幾何学的歪みが生じているか否か判定を行う場合、幾何学的歪みの補正を行えば良い。幾何学的歪みやレンズ歪みの補正方法は、例えば、特開2010-245787に記載されている方法を用いることができる。この方法では、撮像画像よりエッジ点を検出し、各エッジ点を撮像対象物の4辺に対応する4つの群に分類し、各群に属するエッジ点に対して2次曲線近似を行う。このようにして4つの群に対して求めた2次曲線は、撮像対象物の4辺に対応し、4つの2次曲線で囲まれる領域の角部に相当する、4つの2次曲線の交点を求める。次に、各辺に対して求めた2次曲線に外接し、かつ、4つの交点を結んだ四角形と合同な外接四角形を求め、このようにして求めた外接四角形が補正後の対象物のエッジ画素の位置となるように、撮像画像における撮像対象物の領域内の画素位置を変換する。この変換は、基準点(例えば撮像対象物の領域の重心点)からのベクトルを基に計算を行う。これにより、レンズ歪みを補正することができる。また、上記のようにして求めた外接四角形を対象物のアスペクト比(例えば、ビジネス文書出用いられているA判B判なら7:10であるなど)に合わせ同様に写像変換を行うことにより幾何学的歪みの補正を行う。写像変換は公知の技術を用いれば良い。
  (9)プログラムについて
 本実施形態のファイル生成部30は、CPU等のプロセッサを用いてソフトウェアによって実現してもよい。この場合、本実施形態の画像形成装置1は、ファイル生成部30の機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである画像形成装置1の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、画像形成装置1に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによって達成される。
 また、前記の記録媒体としては、マイクロコンピュータで処理が行われるために図示していないメモリ、例えばROMのようなものそのものがプログラムメディアであっても良いし、また、図示していないが外部記憶装置としてプログラム読み取り装置が設けられ、そこに記録媒体を挿入することで読み取り可能なプログラムメディアであっても良い。いずれの場合においても、格納されているプログラムはマイクロプロセッサがアクセスして実行させる構成であっても良いし、あるいは、いずれの場合もプログラムコードを読み出し、読み出されたプログラムコードは、マイクロコンピュータの図示されていないプログラム記憶エリアにダウンロードされて、そのプログラムが実行される方式であってもよい。このダウンロード用のプログラムは予め本体装置に格納されているものとする。
 また、前記のプログラムコードを記録した記録媒体を持ち運び自在に提供することができる。当該記録媒体は、本体と分離可能に構成される記録媒体であり、磁気テープやカセットテープ等のテープ系、フレキシブルディスクやハードディスク等の磁気ディスクやCD-ROM/MO/MD/DVD/CD-R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリを含めた固定的にプログラムコードを担持する媒体であっても良い。
 また、本実施の形態の画像形成装置1がインターネットを含む通信ネットワークを接続可能なシステム構成であることから、通信ネットワークからプログラムコードをダウンロードするように流動的にプログラムコードを担持する媒体であっても良い。なお、このように通信ネットワークからプログラムをダウンロードする場合には、そのダウンロード用のプログラムは予め本体装置に格納しておくか、あるいは別な記録媒体からインストールされるものであっても良い。
  (10)まとめ
 以上の目的を達成するために、本発明の一態様の画像処理装置は、画像データに含まれる言語に対する翻訳処理を行うことにより、前記言語に対応する訳語を特定する翻訳部と、前記画像データと前記翻訳処理の結果とに基づいて、所定形式のデータにフォーマット化した画像ファイルを生成するフォーマット化処理部とを備え、前記フォーマット化処理部は、前記画像ファイルに対して利用者による切替指示がなされた場合に前記言語と前記訳語とを併せて表示する第1表示状態と前記訳語を表示せずに前記言語を表示する第2表示状態との切り替えをコンピュータに実行させるためのコマンドを前記画像ファイルに付加することを特徴とする。
 本発明の一態様の構成によれば、前記言語と前記訳語とを併せて表示する第1表示状態と前記訳語を表示せずに前記言語を表示する第2表示状態とを必要に応じて切り替え可能な単一の画像ファイルを生成できるため、従来技術のように2つのファイルを生成する場合よりもファイル生成時の手間やファイル管理時の煩わしさを抑制できるという効果を奏する。
 また、本発明の一態様の画像処理装置におけるフォーマット化処理部は、前記切替指示を入力するための切替ボタンの表示を前記第1表示状態および第2表示状態においてコンピュータに実行させるコマンドを前記画像ファイルに付加するようになっていてもよい。
 この構成によれば、前記切替ボタンに対してボタン操作するだけで前記第1表示状態と前記第2表示状態との切替指示を入力できるようになっているため、前記第1表示状態と前記第2表示状態との切り替えを利用者は容易に行うことができるという効果を奏する。なお、前記ボタン操作は例えばクリックによって実現される。
 また、本発明の一態様の画像処理装置におけるフォーマット化処理部は、前記画像ファイルに対して利用者から印刷指示がなされた場合に前記切替ボタンを印刷させないことをコンピュータに命令するためのコマンドを前記画像ファイルに付加するようになっていてもよい。
 これにより、前記画像ファイルの画像を印刷する場合には前記切替ボタンが印刷されないため、不要な画像(切替ボタン)が紙面上に示されないようにできる。
 また、本発明の一態様の画像処理装置は、前記の構成に加え、利用者からの指示によって第1表示状態および第2表示状態のいずれかを初期状態に指定する初期状態指定部を備え、前記フォーマット化処理部は、前記画像ファイルに対して利用者による表示指示がなされた場合(利用者によって画像ファイルが開かれた場合)に前記画像ファイルの画像が表示されていない非表示状態から前記初期状態として指定された表示状態への移行をコンピュータに実行させるためのコマンドを前記画像ファイルに付加する構成であってもよい。
 これによって、前記画像ファイルが開かれた場合の初期状態を第1表示状態および第2表示状態のいずれにするかを利用者に指定させることができる。それゆえ、例えば、画像ファイルの主な利用者が翻訳を必要としない者と想定される場合には前記第2表示状態を初期状態とし、画像ファイルの主な利用者が翻訳を必要とする者(例えば語学が苦手な者)である場合には第1表示状態を初期状態とすれば、第1表示状態と第2表示状態との切り替えを極力省くことができる。
 また、本発明の一態様の画像処理装置において、前記画像ファイルが複数頁の画像(画像データ)からなる場合、前記フォーマット化処理部は、各頁の画像に前記切替ボタンが示されるように前記画像ファイルを生成し、且つ、いずれかの頁に示される切替ボタンによって前記切替指示が入力された場合に全ての頁について前記第1表示状態と前記第2表示状態との切り替えをコンピュータに実行させるためのコマンドを前記画像ファイルに付加するようになっていてもかまわない。
 これにより、前記画像ファイルによれば、頁毎に切替ボタンに対してボタン操作しなければならないという手間を省くことができるという効果を奏する。
 また、本発明の一態様の画像処理装置におけるフォーマット化処理部は、前記切替ボタンが利用者に選択されていない場合において、前記切替ボタンの少なくとも一部であるボタン領域に重ねられるオブジェクト画像を利用者が視認できる程度に前記ボタン領域を透かして表示する処理をコンピュータに実行させるコマンドを前記画像ファイルに付加し、且つ、前記切替ボタンが利用者に選択されている場合には、前記切替ボタンが利用者に選択されていない場合よりも、前記ボタン領域の濃度を高めることによって、前記オブジェクト画像を利用者に視認させにくく且つ前記ボタン領域を利用者に視認させやすくする処理をコンピュータに実行させるためのコマンドを前記画像ファイルに付加するようになっていてもよい。
 この構成によれば、前記切替ボタンが利用者に選択されていない場合には前記切替ボタンが前記オブジェクト画像の表示の邪魔になることを抑制でき、必要な場合(前記切替ボタンが利用者に選択されている場合)には、それ以外の場合よりも、前記切替ボタンを目立つように表示させるといったことが可能になる。なお、前記切替ボタンの選択は、例えば、当該切替ボタンにカーソルを重ねることで実現でき、前記切替ボタンから前記カーソルを離すと前記切替ボタンが非選択になる。
 また、本発明の一態様の画像処理装置における前記フォーマット化処理部は、前記切替ボタンが利用者に選択されている場合にだけ、前記切替ボタンの機能を利用者に説明するための説明画像を表示することをコンピュータに命令するコマンドを前記画像ファイルに付加するようになっていてもよい。
 この構成によれば、前記切替ボタンが利用者に選択されていない場合には前記説明画像が表示されないが、前記切替ボタンが利用者に選択されている場合には前記説明画像が表示されるようになっている。それゆえ、前記説明画像によって前記利用者に前記切替ボタンの機能を説明できると共に、必要な場合に限って説明画像を表示させることで前記画像ファイルの画像の閲覧性が損なわれることを抑制できる。
 本発明の一態様の画像形成装置は、前記した画像処理装置を備えていることを特徴とする。それゆえ、従来技術のように2つのファイルを生成する場合よりもファイル生成時の手間やファイル管理時の煩わしさを抑制できるという効果を奏する。
 また、本発明の一態様の画像処理装置は、コンピュータによって実現されてもよく、この場合には、コンピュータを上記各部として動作させることにより、上記画像処理装置をコンピュータにて実現させるプログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に含まれる。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
 本発明は、画像データに基づいて画像ファイルを生成する画像処理装置、画像形成装置に利用可能である。
  1  画像形成装置
  3  画像処理装置
 3b  画像処理装置
 30  ファイル生成部
 31  文字認識部
 32  翻訳部
 33  レイヤ生成部(描画コマンド生成部)
 34  フォーマット化処理部
 

Claims (10)

  1.  画像データに含まれる言語に対する翻訳処理を行うことにより、前記言語に対応する訳語を特定する翻訳部と、
     前記画像データと前記翻訳処理の結果とに基づいて、所定形式のデータにフォーマット化した画像ファイルを生成するフォーマット化処理部とを備え、
     前記フォーマット化処理部は、前記画像ファイルに対して利用者による切替指示がなされた場合に前記言語と前記訳語とを併せて表示する第1表示状態と前記訳語を表示せずに前記言語を表示する第2表示状態との切り替えをコンピュータに実行させるためのコマンドを前記画像ファイルに付加することを特徴とする画像処理装置。
  2.  前記フォーマット化処理部は、前記切替指示を入力するための切替ボタンの表示を前記第1表示状態および第2表示状態においてコンピュータに実行させるコマンドを前記画像ファイルに付加することを特徴とする請求項1に記載の画像処理装置。
  3.  前記フォーマット化処理部は、前記画像ファイルに対して利用者から印刷指示がなされた場合に前記切替ボタンを印刷させないことをコンピュータに命令するためのコマンドを前記画像ファイルに付加することを特徴とする請求項2に記載の画像処理装置。
  4.  利用者からの指示によって第1表示状態および第2表示状態のいずれかを初期状態に指定する初期状態指定部を備え、
     前記フォーマット化処理部は、前記画像ファイルに対して利用者による表示指示がなされた場合に前記画像ファイルの画像が表示されていない非表示状態から前記初期状態として指定された表示状態への移行をコンピュータに実行させるためのコマンドを前記画像ファイルに付加することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  5.  前記画像ファイルが複数頁の画像からなる場合、
     前記フォーマット化処理部は、各頁の画像に前記切替ボタンが示されるように前記画像ファイルを生成し、且つ、いずれかの頁に示される切替ボタンによって前記切替指示が入力された場合に全ての頁について前記第1表示状態と前記第2表示状態との切り替えをコンピュータに実行させるためのコマンドを前記画像ファイルに付加することを特徴とする請求項2または3に記載の画像処理装置。
  6.  前記フォーマット化処理部は、
      前記切替ボタンが利用者に選択されていない場合において、前記切替ボタンの少なくとも一部であるボタン領域に重ねられるオブジェクト画像を利用者が視認できる程度に前記ボタン領域を透かして表示する処理をコンピュータに実行させるコマンドを前記画像ファイルに付加し、且つ、
      前記切替ボタンが利用者に選択されている場合には、前記切替ボタンが利用者に選択されていない場合よりも、前記ボタン領域の濃度を高めることによって、前記オブジェクト画像を利用者に視認させにくく且つ前記ボタン領域を利用者に視認させやすくする処理をコンピュータに実行させるためのコマンドを前記画像ファイルに付加することを特徴とする請求項2または3に記載の画像処理装置。
  7.  前記フォーマット化処理部は、前記切替ボタンが利用者に選択されている場合にだけ、前記切替ボタンの機能を利用者に説明するための説明画像を表示することをコンピュータに命令するコマンドを前記画像ファイルに付加することを特徴とする請求項6に記載の画像処理装置。
  8.  請求項1から7のいずれか1項に記載の画像処理装置を備えたことを特徴とする画像形成装置。
  9.  コンピュータを、請求項1から7のいずれか1項に記載の画像処理装置の各部として動作させるためのプログラム。
  10.  請求項9に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
     
     
PCT/JP2013/050584 2012-01-16 2013-01-15 画像処理装置、画像形成装置、プログラム、記録媒体 WO2013108757A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201380004659.8A CN104054047B (zh) 2012-01-16 2013-01-15 图像处理装置以及图像形成装置
US14/370,170 US20140337008A1 (en) 2012-01-16 2013-01-15 Image processing apparatus, image forming apparatus, program and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-005991 2012-01-16
JP2012005991A JP5972578B2 (ja) 2012-01-16 2012-01-16 画像処理装置、画像形成装置、プログラム、記録媒体

Publications (1)

Publication Number Publication Date
WO2013108757A1 true WO2013108757A1 (ja) 2013-07-25

Family

ID=48799182

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/050584 WO2013108757A1 (ja) 2012-01-16 2013-01-15 画像処理装置、画像形成装置、プログラム、記録媒体

Country Status (4)

Country Link
US (1) US20140337008A1 (ja)
JP (1) JP5972578B2 (ja)
CN (1) CN104054047B (ja)
WO (1) WO2013108757A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106201398A (zh) * 2016-06-30 2016-12-07 乐视控股(北京)有限公司 一种显示方法及电子设备

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6137998B2 (ja) * 2013-08-30 2017-05-31 シャープ株式会社 画像処理装置、画像形成装置、プログラムおよび記録媒体
JP2015069365A (ja) * 2013-09-27 2015-04-13 シャープ株式会社 情報処理装置、および制御プログラム
US9792276B2 (en) 2013-12-13 2017-10-17 International Business Machines Corporation Content availability for natural language processing tasks
JP6259804B2 (ja) * 2014-11-26 2018-01-10 ネイバー コーポレーションNAVER Corporation コンテンツ参加翻訳装置、及びそれを利用したコンテンツ参加翻訳方法
CN104936039B (zh) * 2015-06-19 2018-09-04 小米科技有限责任公司 图像处理方法及装置
CN105383184B (zh) * 2015-12-01 2017-10-20 苏州中兴鼎工业设备有限公司 一种激光打标离线控制手柄
US10019772B1 (en) * 2017-10-06 2018-07-10 Vertifi Software, LLC Document image orientation, assessment and correction
CN108389613B (zh) * 2018-01-30 2022-04-05 华侨大学 一种基于图像几何对称属性的侧旋姿态校正方法
US11227101B2 (en) * 2019-07-05 2022-01-18 Open Text Sa Ulc System and method for document translation in a format agnostic document viewer
CN112162711B (zh) * 2020-09-01 2021-11-16 珠海格力电器股份有限公司 图像文件转换方法、装置、电子设备和计算机可读介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236639A (ja) * 2001-02-08 2002-08-23 Mitsubishi Heavy Ind Ltd 書類配信システム、及び、書類配信方法
JP2006350554A (ja) * 2005-06-14 2006-12-28 Mitsubishi Heavy Ind Ltd 文書電子化システム
JP2007122286A (ja) * 2005-10-26 2007-05-17 Seiko Epson Corp 情報処理装置、情報処理装置の制御方法及びその制御方法を実行させるプログラム
JP2007333973A (ja) * 2006-06-14 2007-12-27 Softbank Telecom Corp 電子ブック
JP2011150599A (ja) * 2010-01-22 2011-08-04 Ricoh Co Ltd 情報処理装置、情報処理方法、プログラム及び記録媒体
JP2011526033A (ja) * 2008-06-26 2011-09-29 マイクロソフト コーポレーション 半透明のライブプレビューを有するメニュー

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644339A (ja) * 1992-03-06 1994-02-18 Hewlett Packard Co <Hp> 図形オブジェクト操作システム及び方法
DE69433236T2 (de) * 1993-12-01 2004-08-19 Canon K.K. Vorrichtung und Verfahren zum Drucken vertraulicher Daten
DE69434717T2 (de) * 1993-12-09 2007-04-12 Canon K.K. Datenverarbeitungsgerät das als Host arbeitet und Verfahren um das Datenverarbeitungsgerät zu steuern
KR970000258B1 (ko) * 1994-09-28 1997-01-08 삼성전자 주식회사 컴퓨터의 전원공급 제어장치
US6288991B1 (en) * 1995-03-06 2001-09-11 Fujitsu Limited Storage medium playback method and device
JP3822990B2 (ja) * 1999-01-07 2006-09-20 株式会社日立製作所 翻訳装置、記録媒体
JP2002091962A (ja) * 2000-09-13 2002-03-29 Oki Electric Ind Co Ltd 翻訳機能付き文書表示システム
JP3969628B2 (ja) * 2001-03-19 2007-09-05 富士通株式会社 翻訳支援装置、方法及び翻訳支援プログラム
JP2003099302A (ja) * 2001-09-21 2003-04-04 Ricoh Co Ltd 文書変換サービス方法、文書のデータ構造、記憶媒体及び情報処理装置
JP3840244B2 (ja) * 2003-11-12 2006-11-01 キヤノン株式会社 印刷装置、ジョブ処理方法、記憶媒体、プログラム
JP4449584B2 (ja) * 2004-06-01 2010-04-14 コニカミノルタビジネステクノロジーズ株式会社 画像形成装置
EP1842143A2 (en) * 2005-01-10 2007-10-10 Melingo, Ltd. Embedded translation-enhanced search
JP2006254372A (ja) * 2005-03-14 2006-09-21 Sony Corp データ取込装置、データ取込方法及びプログラム
JP2007072594A (ja) * 2005-09-05 2007-03-22 Sharp Corp 翻訳装置、翻訳方法および翻訳プログラム、媒体
CN101149733A (zh) * 2007-03-30 2008-03-26 传神联合(北京)信息技术有限公司 一种使用隐藏格式保存双语文件的系统和方法
US20100030549A1 (en) * 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
JP4948586B2 (ja) * 2009-11-06 2012-06-06 シャープ株式会社 文書画像生成装置、文書画像生成方法、コンピュータプログラム及び記録媒体
JP2011175569A (ja) * 2010-02-25 2011-09-08 Sharp Corp 文書画像生成装置、文書画像生成方法及びコンピュータプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236639A (ja) * 2001-02-08 2002-08-23 Mitsubishi Heavy Ind Ltd 書類配信システム、及び、書類配信方法
JP2006350554A (ja) * 2005-06-14 2006-12-28 Mitsubishi Heavy Ind Ltd 文書電子化システム
JP2007122286A (ja) * 2005-10-26 2007-05-17 Seiko Epson Corp 情報処理装置、情報処理装置の制御方法及びその制御方法を実行させるプログラム
JP2007333973A (ja) * 2006-06-14 2007-12-27 Softbank Telecom Corp 電子ブック
JP2011526033A (ja) * 2008-06-26 2011-09-29 マイクロソフト コーポレーション 半透明のライブプレビューを有するメニュー
JP2011150599A (ja) * 2010-01-22 2011-08-04 Ricoh Co Ltd 情報処理装置、情報処理方法、プログラム及び記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106201398A (zh) * 2016-06-30 2016-12-07 乐视控股(北京)有限公司 一种显示方法及电子设备

Also Published As

Publication number Publication date
CN104054047A (zh) 2014-09-17
CN104054047B (zh) 2016-12-14
JP5972578B2 (ja) 2016-08-17
JP2013145491A (ja) 2013-07-25
US20140337008A1 (en) 2014-11-13

Similar Documents

Publication Publication Date Title
JP5972578B2 (ja) 画像処理装置、画像形成装置、プログラム、記録媒体
JP4772888B2 (ja) 画像処理装置、画像形成装置、画像処理方法、プログラムおよびその記録媒体
JP5280425B2 (ja) 画像処理装置、画像読取装置、画像形成装置、画像処理方法、プログラムおよびその記録媒体
JP4927122B2 (ja) 画像処理方法、画像処理装置、画像形成装置、プログラムおよび記録媒体
WO2014045788A1 (ja) 画像処理装置、画像形成装置、および記録媒体
US20100315681A1 (en) Image processing apparatus, image processing method, and computer-readable storage medium
US7421124B2 (en) Image processing system and image processing method
JP2010161764A (ja) 画像処理装置、画像読取装置、画像送信装置、画像形成装置、画像処理方法、プログラムおよびその記録媒体
JP2010146185A (ja) 画像処理装置、画像読取装置、画像送信装置、画像処理方法、プログラムおよびその記録媒体
JP6254002B2 (ja) 変換処理装置、それを備えた情報処理装置、プログラム、及び記録媒体
JP2011008549A (ja) 画像処理装置、画像読取装置、複合機、画像処理方法、プログラム、記録媒体
JP2008154106A (ja) 秘匿処理方法,画像処理装置および画像形成装置
JP2012118863A (ja) 画像読取装置、画像形成装置、画像読取方法、プログラムおよびその記録媒体
JP2017130811A (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体
JP4582200B2 (ja) 画像処理装置、画像変換方法、およびコンピュータプログラム
JP2008288912A (ja) 画像処理装置および画像形成装置
JP3899872B2 (ja) 画像処理装置、画像処理方法ならびに画像処理プログラムおよびこれを記録したコンピュータ読み取り可能な記録媒体
JP4710672B2 (ja) 文字色判別装置、文字色判別方法、およびコンピュータプログラム
JP2010287178A (ja) 画像処理装置、画像読取装置、複合機、画像処理方法、プログラム、記録媒体
JP4396710B2 (ja) 画像処理装置、画像処理装置の制御方法、および画像処理装置の制御プログラム
JP2014033439A (ja) 画像処理装置、画像形成装置、プログラム、および記録媒体
JP5689090B2 (ja) 画像形成方法及び画像形成装置
JP2007028181A (ja) 画像処理装置
JP2011010232A (ja) 画像処理装置、画像読取装置、複合機、画像処理方法、プログラムおよび記録媒体
JP6137998B2 (ja) 画像処理装置、画像形成装置、プログラムおよび記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13738292

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14370170

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 13738292

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE