WO2019021600A1 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
WO2019021600A1
WO2019021600A1 PCT/JP2018/019495 JP2018019495W WO2019021600A1 WO 2019021600 A1 WO2019021600 A1 WO 2019021600A1 JP 2018019495 W JP2018019495 W JP 2018019495W WO 2019021600 A1 WO2019021600 A1 WO 2019021600A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
image data
character
instruction
characters
Prior art date
Application number
PCT/JP2018/019495
Other languages
English (en)
French (fr)
Inventor
ニクソン ジュニア セガーラ
ヴィナルド レイ カガータン
アイリッシュ ナバロ
ジェフティ ネガパタン
ジョン ポール ディングル
ジェイ パバラーテ
イエス ジョバンニ ジョン ブルゴス
デニエル モリナ
シーラ メイ キンボ
ロッドネイ オマガヨン
Original Assignee
京セラドキュメントソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラドキュメントソリューションズ株式会社 filed Critical 京セラドキュメントソリューションズ株式会社
Priority to US16/618,977 priority Critical patent/US10887487B2/en
Priority to JP2019532399A priority patent/JP6816828B2/ja
Publication of WO2019021600A1 publication Critical patent/WO2019021600A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00326Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus
    • H04N1/00328Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus with an apparatus processing optically-read information
    • H04N1/00331Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus with an apparatus processing optically-read information with an apparatus performing optical character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/12Detection or correction of errors, e.g. by rescanning the pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0094Multifunctional device, i.e. a device capable of all of reading, reproducing, copying, facsimile transception, file transception

Definitions

  • the present invention relates to an image processing apparatus, and more particularly to a technique for sharpening characters included in an original image obtained by scanning an original on which blurred characters are described.
  • OCR optical character recognition
  • Patent Document 1 an end point at the tip of a character line is detected from a character pattern as a character pattern repair method for repairing a character pattern blur in a document image or the like and improving the accuracy of character recognition.
  • a character pattern repair method is described which selects an end point pair consisting of two end points and connects the selected end point pairs to repair the blur of the character pattern.
  • the present invention has been made in view of the above-described circumstances, and even if it is not possible to repair blurring that has occurred in characters included in a document image obtained by scanning a document on which unclear characters are described,
  • the purpose is to make characters included in the original image clear.
  • An image processing apparatus includes an image reading unit that optically reads a document and acquires image data, a character recognition unit that recognizes a character pattern in the image data as a character, and the character recognition unit A character inference unit for inferring a character represented by the character pattern according to grammatical rules from characters before and after the character pattern recognized by the character recognition unit, and a character pattern recognized by the character recognition unit. And an image data reconstruction unit for generating reconstructed image data by arranging each character and each character estimated by the character estimation unit in the same order as the arrangement order of each character pattern in the image data. It is a thing.
  • the characters included in the original image can be made clear can do.
  • FIG. 1 is a perspective view showing an appearance of an image forming apparatus as an example of an image processing apparatus according to an embodiment of the present invention.
  • FIG. 1 is a block diagram showing an internal configuration of an image forming apparatus as an example of an image processing apparatus according to an embodiment of the present invention. It is a figure explaining an example of character recognition of a character pattern of a blur, and character guessing. It is a figure explaining another example of character recognition of a character pattern of a blur, and character guessing.
  • FIG. 6 is a diagram showing an example of image data acquired by an image reading unit and reconstructed image data generated from the entire image data.
  • FIG. 6 is a view showing an example of image data acquired by an image reading unit and reconstructed image data generated from a part of the image data.
  • FIG. 5A It is a figure which shows the example of the selection menu screen for selecting the character sharpening range of image data.
  • FIG. 7 is a diagram showing an example of screen display during designation of area designation of image data. It is a figure which shows the example of the processing menu screen of reconstruction image data. It is a figure which shows the example of the preview screen of reconstruction image data. It is a figure which shows the example of a screen display in process of edit of reconstruction image data.
  • FIG. 1 is a perspective view showing the appearance of the image forming apparatus.
  • FIG. 2 is a block diagram showing an internal configuration of the image forming apparatus.
  • the image forming apparatus 1 is a multifunction peripheral having a plurality of functions such as a facsimile communication function, a copy function, a printer function, and a scanner function. As shown in FIG. 1, the image forming apparatus 1 includes an apparatus body 2, an image reading unit 10 disposed above the apparatus body 2, and a connecting unit provided between the image reading unit 10 and the apparatus body 2. It is roughly composed of three.
  • the image reading unit 10 is an ADF (Auto Document Feeder) having an original conveyance unit 11 and a scanner that optically reads an original conveyed by the original conveyance unit 11 or an original placed on a contact glass (not shown). is there.
  • the image reading unit 10 reads image data one by one to obtain image data to be stored or to form an image.
  • An image forming unit 20, a sheet feeding unit 30, an image memory 40, a storage unit 50, a communication unit 60, and the like are housed inside the apparatus main body 2.
  • the image memory 40 is an area for temporarily storing the image data read by the image reading unit 10.
  • the image forming unit 20 reads the image data stored in the image memory 40, and forms (prints) an image on a sheet supplied from the sheet feeding unit 30 using the data.
  • the printed sheet is discharged to the discharge tray 4.
  • the storage unit 50 is a large capacity storage device such as a hard disk drive (HDD).
  • HDD hard disk drive
  • the communication unit 60 is a communication interface provided with a communication module such as a LAN chip (not shown).
  • the image forming apparatus 1 is connected to another PC (Personal Computer) or the like via a network, and transmits / receives data to / from the PC or the like connected by the communication unit 60.
  • PC Personal Computer
  • a display unit 70 and an operation unit 80 are disposed on the front side of the device body 2.
  • the display unit 70 includes a liquid crystal display (LCD) or an organic light-emitting diode (OLED) display.
  • the display unit 70 displays an operation screen or the like for instructing the operation of the image forming apparatus 1.
  • the operation unit 80 has, for example, a start key for instructing execution of a print job or the like, a decision key (enter key) for performing a decision operation on a GUI (Graphical User Interface) configuring an operation screen, and numerical values.
  • a start key for instructing execution of a print job or the like
  • a decision key for performing a decision operation on a GUI (Graphical User Interface) configuring an operation screen
  • numerical values for example, the user can operate the screen displayed on the display unit 70 from the user.
  • the image forming apparatus 1 further includes a control unit 100.
  • the control unit 100 includes a processor, a random access memory (RAM), a read only memory (ROM), a dedicated hardware circuit, and the like.
  • the processor is, for example, a central processing unit (CPU), a micro processing unit (MPU), an application specific integrated circuit (ASIC), or the like.
  • the control unit 100 executes the control program such as the document reading processing program stored in the ROM or the storage unit 50 by the processor, whereby the control unit 101, the character recognition unit 102, the character estimation unit 103, and the image It functions as the data reconstruction unit 104, the area specification accepting unit 105, the editing instruction accepting unit 106, and the image data editing unit 107.
  • the above-described configurations of the control unit 100 may be configured by hardware circuits, not by the operation based on the above-described document reading processing program.
  • the control unit 101 is responsible for overall operation control of the image forming apparatus 1.
  • the control unit 101 is connected to and connected to the image reading unit 10, the image forming unit 20, the sheet feeding unit 30, the image memory 40, the storage unit 50, the communication unit 60, the display unit 70, the operation unit 80, and the like. Control the operation of each of the above mechanisms, and transmit / receive signals or data to / from each mechanism.
  • the control unit 101 controls the display unit 70, for example, according to an instruction received from the user through the operation unit 80, image data acquired by the image reading unit 10 or a reconstructed image generated by the image data reconstruction unit 104. Data is alternatively displayed on the display unit 70.
  • the character recognition unit 102 recognizes an image indicating each character included in the image data acquired by the image reading unit 10, that is, a character pattern as a character (character) using OCR (Optical Character Recognition) technology.
  • the characters recognized by the character recognition unit 102 are, for example, English letters, numbers, symbols, kanji, hiragana, katakana, and the like. Note that the character recognition unit 102 recognizes the character pattern feature and recognizes it as a character, even if the density of the character pattern is somewhat low or there is a defect in a part of the character pattern (even if blurring occurs). .
  • the character recognition unit 102 may not be able to recognize the character represented by the character pattern.
  • the character inference unit 103 determines character candidates represented by the character pattern according to grammatical rules from the characters before and after the character recognized by the character recognition unit 102. . That is, for the unrecognizable character pattern, the character estimation unit 103 estimates the character represented by the character pattern from the characters before and after the character recognized by the character recognition unit 102.
  • FIG. 3A is a diagram for explaining an example of character recognition and character estimation of a blurred character pattern.
  • the character recognition unit 102 can recognize the characters “q” “u” “c” “k” from the character pattern group mj 1 and can not recognize the other characters (the existence of the character pattern is recognized Yes, but the characters can not be recognized).
  • the character estimation unit 103 recognizes the characters “q” and “u” in front of an unknown character that the character recognition unit 102 can not recognize, and later recognizes the characters “c” and “k”.
  • FIG. 3B is a view for explaining an example of character recognition and character estimation of a blurred character pattern in this case. For example, in the image data obtained by scanning a certain original, it is assumed that a certain character pattern group mj2 is unclear.
  • the character recognition unit 102 can perform character recognition for “q”, “u” and “k” from these unclear character patterns, but can not perform character recognition for other character patterns (although the existence of character patterns is recognized , Characters can not be recognized).
  • the character estimation unit 103 recognizes the character “q” by the character recognition unit 102 before two unknown characters that the character recognition unit 102 can not recognize, and recognizes the characters “c” and “k” later.
  • the character estimation unit 103 determines that “i” is a vowel and “c” is a consonant for the “ic”, and “a” is a vowel and “c” is a consonant for the “ac”. Determine that there is. Then, the character estimation unit 103 represents vowels by “*” and consonants by “#”. For this reason, the character pattern group mj2 is represented as "qu * # k" by the image data reconstruction unit 104. In addition, the said determination of the vowel and the consonant by the character estimation part 103 is an example.
  • the image data reconstruction unit 104 arranges each character recognized by the character recognition unit 102 and each character estimated by the character estimation unit 103 in the arrangement order of each character pattern in the image data acquired by the image reading unit 10. To generate reconstructed image data in the same order as in FIG.
  • the image data reconstruction unit 104 generates, for example, the reconstructed image data using both a character code and image data such as jpeg.
  • FIG. 4A is a diagram showing an example of image data acquired by the image reading unit 10 and reconstructed image data generated from the entire image data. Even if each character pattern in the image data acquired by the image reading unit 10 is unclear as shown as a character pattern group mj3 in FIG. 4A, characters representing each character pattern by the character recognition unit 102 and the character estimation unit 103 Is recognized and estimated, as shown in FIG. 4A as the reconstructed image data mj 4, the image data reconstructing unit 104 reshapes the unclear image data into clear reconstructed image data.
  • the control unit 101 stores the generated reconstructed image data in the storage unit 50, reads out from the storage unit 50 as needed, and causes the image forming unit 20 to print.
  • the area specification receiving unit 105 receives the user's request for the process of the recognition, estimation, and generation of the reconstructed image data. Accepts an area specification instruction of image data to be processed.
  • the area specification reception unit 105 receives area specification
  • the character recognition unit 102 and the character estimation unit 103 perform recognition and estimation on the specified region in the image data, and based on the recognition and estimation, an image is generated.
  • the data reconstruction unit 104 generates reconstructed image data.
  • the display unit 70 is provided with a touch panel (functioning as the operation unit 80), and the user places a finger on the display screen on the display screen of the display unit 70 in the image data display portion acquired by the image reading unit 10.
  • the touch panel When the sliding operation is performed along the straight line TS while being touched, the touch panel sends information indicating the locus of the sliding operation to the area specification receiving unit 105, and the area R whose diagonal line is the straight line TS is specified by the area
  • the receiving unit 105 receives the area as a processing target of the recognition, estimation, and generation of the reconstructed image data.
  • FIG. 4B is a diagram showing an example of image data acquired by the image reading unit 10 and reconstructed image data generated from a part of the image data.
  • the character recognition unit 102 and the character inference unit 103 select each character pattern existing in the designated area. Character recognition and character inference are performed, and the image data reconstruction unit 104 arranges the characters recognized and inferred by the character recognition unit 102 and the character inference unit 103, and is configured by the respective character patterns present in the designated area. Generate reconstructed image data.
  • the editing instruction accepting unit 106 accepts an edition instruction for the reconstructed image data from the user.
  • the editing instruction receiving unit 106 receives an editing instruction for the reconstructed image data from the user. Specifically, the control unit 101 causes the display unit 70 to display the reconstructed image data to be edited and the soft keyboard, and the editing instruction accepting unit 106 transmits the character pattern portion to be edited in the reconstructed image data.
  • the touch panel accepts, as an editing instruction, an editing target specification instruction for specifying a character pattern to be edited. Furthermore, the editing instruction receiving unit 106 uses the touch panel as a further editing instruction to specify a replacement character specification instruction to specify a character to be used in place of the character pattern to be edited based on a touch operation on the soft keyboard by the user. Accept.
  • the image data editing unit 107 edits the reconstructed image data in accordance with the respective editing instructions accepted by the editing instruction accepting unit 106. For example, the image data editing unit 107 performs an editing process to replace the character code corresponding to the character pattern indicated by the edit object designation instruction with the character code indicating the character indicated by the replacement character designation instruction.
  • the image data reconstruction unit 104 generates reconstructed image data with the contents after the editing processing by the image data editing unit 107.
  • the image data reconstruction unit 104 generates image data such as jpeg again with the contents after the editing process.
  • FIGS. 5A and 5B are flowcharts showing the flow of the character sharpening process of the image data by the image forming apparatus 1.
  • the image reading unit 10 optically reads an original to acquire image data (S1).
  • the control unit 101 causes the display unit 70 to display a selection menu screen D1 for receiving the selection of the character sharpening range of the image data (S2).
  • FIG. 6 is a view showing an example of a selection menu screen for selecting the character clear range of image data.
  • the control unit 101 controls, in the selection menu screen D1, a document unit button 71 for receiving an instruction to select the entire image data as the character sharpening range, and a part of the image data.
  • An area unit button 72 for receiving an instruction to select an area is displayed.
  • an instruction to select the entire image data as the character sharpening range is accepted by the area designation accepting unit 105 by the touch panel.
  • an instruction to select a partial area of the image data as the character sharpening area is accepted by the area designation accepting unit 105 by the touch panel.
  • region designation accepting portion 105 receives an instruction to select the entire image data as the character clear range (YES in S3), the entire image data is clear (the above recognition, estimation, and re-execution). It is an object of processing of generation of configuration image data.
  • control section 101 causes display section 70 to acquire it in S1.
  • a display screen D2 showing image data is displayed (S5).
  • the area specification receiving unit 105 makes an area to be processed for the recognition, estimation, and image data reconstruction via the touch panel. Accept (S6).
  • FIG. 7 is a view showing an example of screen display during designation of area designation of image data.
  • the control unit 101 causes the display unit 70 to display the image data acquired in S1
  • the user keeps touching the finger on the display screen of the display unit 70.
  • the touch panel sends information indicating the locus of the slide operation to the area specification receiving unit 105, and the area R having the straight line TS as a diagonal serves as the character clear area 73.
  • Area designation acceptance unit 105 is provided.
  • the character recognition unit 102 recognizes the character pattern in the image data as a character in the accepted range.
  • the character estimation unit 103 estimates characters represented by the character pattern that can not be recognized by the character recognition unit 102 (S8).
  • the image data reconstruction unit 104 arranges each character recognized by the character recognition unit 102 and each character estimated by the character estimation unit 103 with each character pattern in the image data acquired by the image reading unit 10. Arranged in the same order as the order to generate reconstructed image data (S9).
  • the control unit 101 causes the display unit 70 to display a processing menu screen D3 (FIG. 8) indicating a processing menu of the reconstructed image data (S10).
  • FIG. 8 is a diagram showing an example of the processing menu screen D3 for reconstructed image data.
  • the control unit 101 causes the display unit 70 to receive a preview instruction to receive a preview instruction for previewing reconstructed image data, and a print instruction for printing reconstructed image data.
  • the print button 75 is displayed. The user can preview or print the reconstructed image data by touching the preview button 74 or the print button 75.
  • control unit 101 When a print instruction is accepted by control unit 101 via the touch panel by the user operating print button 75 (YES in S11), control unit 101 causes image forming unit 20 to generate the reconstructed image data generated in S9. Printing is performed (S12). On the other hand, when a preview instruction is accepted by control unit 101 via the touch panel by the user operating preview button 74 (NO in S11, YES in S13), control unit 101 generates display unit 70 in S9. The reconstructed image data is displayed (S14).
  • FIG. 9 is a view showing an example of a preview screen D5 of reconstructed image data.
  • the control unit 101 displays an editing instruction button 76 for receiving an editing instruction for editing the reconstructed image data on the preview screen D5 of the reconstructed image data.
  • the editing instruction receiving unit 106 receives an editing start instruction via the touch panel.
  • the edit instruction receiving unit 106 receives the editing instruction having the soft keyboard 78 in the display unit 70.
  • the screen D6 is displayed, and the editing instruction of the reconstructed image data can be received.
  • the image data editing unit 107 edits the reconstructed image data in accordance with the editing instruction accepted by the editing instruction accepting unit 106 in this state (S16).
  • the above-described recognition, estimation, and re-execution described above are performed.
  • characters included in the document image obtained by the reading can be made clear.
  • the user can freely select the range in which the characters are to be sharpened.
  • the user can freely edit the reconstructed image data obtained by sharpening the characters.
  • the image forming apparatus is shown as an example of the image processing apparatus, but the present invention is not necessarily limited to this case.
  • the image processing apparatus according to an embodiment of the present invention may be, for example, a scanner apparatus or a facsimile machine in addition to the image forming apparatus.
  • the document reading processing program described in the above embodiment may be recorded in a computer readable non-temporary recording medium, such as a hard disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like.
  • a computer readable non-transitory recording medium storing the document reading processing program is an embodiment of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Character Discrimination (AREA)
  • Character Input (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

画像形成装置(1)は、原稿を光学的に読み取って画像データを取得する画像読取部(10)と、画像データ中の文字パターンを文字として認識する文字認識部(102)と、文字認識部(102)が認識できなかった文字パターンについて、文字認識部(102)により認識されたその前後の文字から文法的規則に則って当該文字パターンが表す文字を推測する文字推測部(103)と、文字認識部(102)により認識された各文字及び文字推測部(103)により推測された各文字を画像データ中の各文字パターンの配置位置と同じ順に配置して再構成画像データを生成する画像データ再構成部(104)とを備える。

Description

画像処理装置
 本発明は画像処理装置に関し、特に、不鮮明な文字が記載された原稿をスキャンして得られた原稿画像に含まれる文字を鮮明にする技術に関する。
 印刷された文字を光学的に読み取って文字コードに変換するOCR(Optical Character Recognition)技術が公知である。OCRでは、原稿の画質が悪くて読取対象の文字が薄かったりかすれていたり、あるいは文字の一部が欠けていたりすると、正しく文字認識できないという問題がある。下記特許文献1には、文書画像等における文字パターンかすれを修復し、文字認識の精度を向上させる文字パターン修復方法として、文字パターンから文字線の先端にある端点を検出し、かすれにより生じた2つの端点からなる端点対を選択し、該選択された端点対を接続して文字パターンのかすれを修復する文字パターン修復方法が記載されている。
特開平6-52356号公報
 上記特許文献1に記載の技術の場合、読み取った画像が示す文字パターンがかすれている場合に、当該かすれを修復して文字認識の精度を向上させることが可能である。例えば、特許文献1に記載の技術では、文字パターンの濃度が薄いことを原因としてかすれが生じている場合には、原稿読取装置で原稿の読取濃度を濃くしてスキャンすることで原稿中の文字を濃くすることでかすれを修復する。しかしながら、原稿中の文字の一部が欠けている場合にはいくら読取濃度を濃くしてもかすれは修復できず文字の判別が難しい。このように、上記特許文献1に記載の技術では、かすれが修復できずに文字認識の精度が低下している場合に文字認識精度を向上させることは困難である。
 本発明は、上記の事情に鑑みてなされたものであり、不鮮明な文字が記載された原稿をスキャンして得られた原稿画像に含まれる文字に生じたかすれを修復できない場合であっても、当該原稿画像に含まれる文字を鮮明にすることを目的とする。
 本発明の一局面に係る画像処理装置は、原稿を光学的に読み取って画像データを取得する画像読取部と、前記画像データ中の文字パターンを文字として認識する文字認識部と、前記文字認識部が認識できなかった文字パターンについて、前記文字認識部により認識されたその前後の文字から文法的規則に則って当該文字パターンが表す文字を推測する文字推測部と、前記文字認識部により認識された各文字、及び前記文字推測部により推測された各文字を、前記画像データ中の各文字パターンの配置順と同じ順に配置して再構成画像データを生成する画像データ再構成部と、を備えたものである。
 本発明によれば、不鮮明な文字が記載された原稿をスキャンして得られた原稿画像に含まれる文字に生じたかすれを修復できない場合であっても、当該原稿画像に含まれる文字を鮮明にすることができる。
本発明の一実施形態に係る画像処理装置の一例としての画像形成装置の外観を示す斜視図である。 本発明の一実施形態に係る画像処理装置の一例としての画像形成装置の内部構成を示すブロック図である。 不鮮明な文字パターンの文字認識及び文字推測の一例を説明する図である。 不鮮明な文字パターンの文字認識及び文字推測の別例を説明する図である。 画像読取部により取得された画像データ及びその全体から生成された再構成画像データの例を示す図である。 画像読取部により取得された画像データ及びその一部から生成された再構成画像データの例を示す図である。 本発明の一実施形態に係る画像処理装置の一例としての画像形成装置による画像データの文字鮮明化処理の流れを示すフローチャートである。 図5Aに続くフローチャートである。 画像データの文字鮮明化範囲を選択するための選択メニュー画面の例を示す図である。 画像データの領域指定指示中の画面表示例を示す図である。 再構成画像データの処理メニュー画面の例を示す図である。 再構成画像データのプレビュー画面の例を示す図である。 再構成画像データの編集中の画面表示例を示す図である。
 以下、本発明の一実施形態に係る画像処理装置の一例としての画像形成装置について図面を参照して説明する。図1は、画像形成装置の外観を示す斜視図である。図2は、画像形成装置の内部構成を示すブロック図である。
 画像形成装置1は、ファクシミリ通信機能、コピー機能、プリンター機能、及びスキャナー機能等の複数の機能を兼ね備えた複合機である。図1に示すように、画像形成装置1は、装置本体2と、装置本体2の上方に配置された画像読取部10と、画像読取部10と装置本体2との間に設けられた連結部3とから概略構成される。
 画像読取部10は、原稿搬送部11と、原稿搬送部11により搬送されてくる原稿又は不図示のコンタクトガラスに載置された原稿を光学的に読み取るスキャナーとを有するADF(Auto Document Feeder)である。画像読取部10は、原稿を1枚ずつ読み取ることで保存又は画像形成対象となる画像データを取得する。
 装置本体2の内部には、画像形成部20、給紙部30、画像メモリー40、記憶部50、及び通信部60等が収容されている。
 画像メモリー40は、画像読取部10によって読み取られた画像データを一時的に記憶する領域である。
 画像形成部20は、画像メモリー40に記憶されている画像データを読み出し、当該データを用いて給紙部30から供給される用紙に画像を形成(印刷)する。印刷済みの用紙は、排出トレイ4に排出される。
 記憶部50は、HDD(Hard Disk Drive)等の大容量の記憶装置である。
 通信部60は、不図示のLANチップ等の通信モジュールを備える通信インターフェイスである。画像形成装置1は、ネットワークを介して他のPC(Personal Computer)等と接続されており、通信部60により接続されたPC等との間でデータの送受信を行う。
 装置本体2の前面側には、表示部70及び操作部80が配置されている。表示部70は、液晶ディスプレイ(LCD:Liquid Crystal Display)又は有機EL(OLED:Organic Light-Emitting Diode)ディスプレイを含んで構成される。表示部70には、画像形成装置1の動作を指示するための操作画面等が表示される。
 操作部80は、例えば、印刷ジョブ等の実行を指示するためのスタートキー、操作画面を構成するGUI(Graphical User Interface)に対して確定操作を行う決定キー(エンターキー)、数値入力を行うための数値入力キー等を備え、例えば表示部70に表示される画面に対する操作をユーザーから受け付ける。
 画像形成装置1は、更に、制御ユニット100を備えている。制御ユニット100は、プロセッサー、RAM(Random Access Memory)、ROM(Read Only Memory) 及び専用のハードウェア回路等から構成される。プロセッサーは、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、又はASIC(Application Specific Integrated Circuit)等である。制御ユニット100は、上記のROM又は記憶部50に記憶された原稿読取処理プログラム等の制御プログラムが上記のプロセッサーに実行されることにより、制御部101、文字認識部102、文字推測部103、画像データ再構成部104、領域指定受付部105、編集指示受付部106、及び画像データ編集部107として機能する。なお、制御ユニット100の上記の各構成は、前述の原稿読取処理プログラムに基づく動作によらず、それぞれハード回路により構成されてもよい。
 制御部101は、画像形成装置1の全体的な動作制御を司る。制御部101は、画像読取部10、画像形成部20、給紙部30、画像メモリー40、記憶部50、通信部60、表示部70、及び操作部80等と接続されており、接続されている上記各機構の動作制御及び、各機構との間での信号又はデータの送受信を行う。
 制御部101は、例えば、表示部70の制御に関して、操作部80を通じてユーザーから受け付けた指示に従って、画像読取部10により取得された画像データ、又は画像データ再構成部104により生成された再構成画像データを択一的に表示部70に表示させる。
 文字認識部102は、OCR(Optical Character Recognition)技術を用いて、画像読取部10により取得された画像データ中に含まれる各文字を示す画像、すなわち文字パターンを、文字(キャラクター)として認識する。文字認識部102が認識する文字は、例えば、英文字、数字、記号、漢字、ひらがな、かたかな、等である。なお、文字認識部102は、文字パターンの濃度が多少薄くても、あるいは文字パターンの一部に欠損があっても(かすれが生じていても)、文字パターンの特徴を捉えて文字として認識する。
 ただし、文字パターンの濃度が極端に薄い、あるいは文字パターンの欠損(かすれ)部分が多いといった場合には、文字認識部102は、当該文字パターンが表す文字を認識できない場合がある。文字推測部103は、文字認識部102が認識できなかった文字パターンについて、文字認識部102により認識されたその前後の文字から文法的規則に則って、当該文字パターンが表す文字の候補を判定する。すなわち、文字推測部103は、認識不可の文字パターンについて、文字認識部102により認識されたその前後の文字から、当該文字パターンが表す文字を推測する。
 図3Aは、不鮮明な文字パターンの文字認識及び文字推測の一例を説明する図である。例えば、ある原稿をスキャンして得られた画像データにおいて、ある文字パターン群mj1が不鮮明であったとする。そして、文字認識部102は、これら文字パターン群mj1から「q」「u」「c」「k」の文字を認識でき、他の文字については文字認識できなかったとする(文字パターンの存在は認識したが、文字までは認識できない)。この場合、文字推測部103は、文字認識部102が文字認識できなかった未知の文字の前において文字「q」「u」が認識され、後において文字「c」「k」が文字認識部102により認識されているとすると、文法的規則に則って、先頭2文字が「q」「u」であり、末尾2文字が「c」「k」である英単語「quick」及び「quack」を、文字パターン群mj1が示す文字として抽出し、上記未知の文字としての候補が「i」又は「a」であると判定する。
 また、文字推測部103は、文字認識部102により認識できない文字パターンが2つ以上連続する場合には、当該各文字パターンについて母音及び子音のいずれであるかを判定し、母音及び子音にそれぞれ異なる記号を用いて、認識できない文字パターンを表す。図3Bは、この場合における不鮮明な文字パターンの文字認識及び文字推測の例を説明する図である。例えば、ある原稿をスキャンして得られた画像データにおいて、ある文字パターン群mj2が不鮮明であったとする。そして、文字認識部102は、これら不鮮明な文字パターンから「q」「u」「k」については文字認識でき、他の文字パターンについては文字認識できなかったとする(文字パターンの存在は認識したが、文字までは認識できない)。この場合、文字推測部103は、文字認識部102が文字認識できなかった未知の2文字の前において文字「q」が文字認識部102により認識され、後において文字「c」「k」が認識されていることから、文法的規則に則って、文字認識できなかった未知の2文字の前に文字「q」があり、後ろにおいて文字「c」「k」があるという条件を満たす単語として「quick」及び「quack」を抽出し、ここから、文字認識できなかった未知の2文字の候補として「ic」及び「ac」を更に抽出する。そして、文字推測部103は、当該「ic」については「i」が母音、「c」が子音であると判定し、当該「ac」については、「a」が母音、「c」が子音であると判定する。そして、文字推測部103は、母音を「*」で、子音を「#」でそれぞれ表す。このため、画像データ再構成部104により、文字パターン群mj2は「qu*#k」として表される。なお、文字推測部103による母音及び子音の上記判定は一例である。
 画像データ再構成部104は、文字認識部102により認識された各文字、及び文字推測部103により推測された各文字を、画像読取部10により取得された画像データ中の各文字パターンの配置順と同じ順に配置して再構成画像データを生成する。画像データ再構成部104は、例えば、当該再構成画像データを、キャラクターコードとjpeg等の画像データの両方により生成する。
 図4Aは、画像読取部10により取得された画像データ及びその全体から生成された再構成画像データの例を示す図である。画像読取部10により取得された画像データ中の各文字パターンが図4Aに文字パターン群mj3として示すように不鮮明であったとしても、文字認識部102及び文字推測部103により各文字パターンを表す文字が認識及び推測されると、図4Aに再構成画像データmj4として示すように、画像データ再構成部104により、不鮮明な画像データが鮮明な再構成画像データに作り替えられる。制御部101は、生成された再構成画像データを記憶部50に保存させ、必要に応じて記憶部50から読み出して画像形成部20に印刷させる。
 領域指定受付部105は、表示部70に画像読取部10により取得された画像データが表示されているときに、ユーザーから、上記認識、推測、及び、再構成画像データの生成の処理の対象とする画像データの領域指定指示を受け付ける。領域指定受付部105が領域指定を受け付けた場合、画像データにおいて当該指定された領域に対して、文字認識部102及び文字推測部103が認識及び推測を行い、この認識及び推測に基づいて、画像データ再構成部104が再構成画像データを生成する。例えば、表示部70には、タッチパネル(操作部80として機能)が備えられ、ユーザーが表示部70の表示画面上における、画像読取部10により取得された画像データ表示部分で、表示画面に指をタッチさせたままスライドさせて直線TSに沿ってスライド操作を行うと、タッチパネルが当該スライド操作による軌跡を示す情報を領域指定受付部105に送り、当該直線TSを対角線とする領域Rが、領域指定受付部105により、上記認識、推測、及び、再構成画像データの生成の処理対象となる領域として受け付けられる。
 図4Bは、画像読取部10により取得された画像データ及びその一部から生成された再構成画像データの例を示す図である。画像読取部10により取得された画像データにおいて、上記のようにしてユーザーにより領域が指定されると、文字認識部102及び文字推測部103は、当該指定された領域内に存在する各文字パターンについて文字認識及び文字推測を行い、画像データ再構成部104は、文字認識部102及び文字推測部103により認識及び推測された文字を並べて、当該指定された領域に存在する各文字パターンにより構成される再構成画像データを生成する。
 編集指示受付部106は、表示部70に画像データ再構成部104により生成された再構成画像データが表示されているときに、ユーザーから再構成画像データに対する編集指示を受け付ける。
 文字認識部102により認識された文字及び/又は文字推測部103により推測された文字が誤っている場合、あるいは文字認識部102により認識できなかった文字パターンが2つ以上連続して文字推測部103により推測された文字が記号で表されている場合、ユーザーは再構成画像データを修正したい場合がある。編集指示受付部106は、ユーザーから再構成画像データに対する編集指示を受け付ける。具体的には、制御部101が、編集対象とする再構成画像データ及びソフトキーボードを表示部70に表示させ、編集指示受付部106は、再構成画像データにおける編集対象とする文字パターン部分へのユーザーによるタッチ操作に基づいて、上記タッチパネルにより、編集対象とする文字パターンを指定する編集対象指定指示を編集指示として受け付ける。更に、編集指示受付部106は、ユーザーによるソフトキーボードへのタッチ操作に基づいて、編集対象とする文字パターンに代えて用いる文字を指定する入替文字指定指示を、更なる編集指示として、上記タッチパネルにより受け付ける。
 画像データ編集部107は、編集指示受付部106が受け付けた上記各編集指示に従って再構成画像データを編集する。例えば、画像データ編集部107は、上記編集対象指定指示により示される文字パターンに対応する上記キャラクターコードを、上記入替文字指定指示により示される文字を示すキャラクターコードに入れ替える編集処理を行う。画像データ再構成部104は、画像データ編集部107による当該編集処理後の内容で、再構成画像データを生成する。画像データ再構成部104は、当該編集処理後の内容で、jpeg等の画像データを再度生成する。
 次に、画像読取部10により取得された画像データから文字を鮮明にした再構成画像データを生成する処理について説明する。図5A及び図5Bは、画像形成装置1による画像データの文字鮮明化処理の流れを示すフローチャートである。
 まず、画像読取部10が、原稿を光学的に読み取って画像データを取得する(S1)。原稿の画像データが取得されると、制御部101が、表示部70に、画像データの文字鮮明化範囲の選択を受け付けるための選択メニュー画面D1を表示させる(S2)。
 図6は、画像データの文字鮮明化範囲を選択するための選択メニュー画面の例を示す図である。例えば、図6に例を示すように、制御部101は、選択メニュー画面D1において、文字鮮明化範囲として画像データの全体を選択する指示を受け付けるためのドキュメント単位ボタン71と、画像データの一部領域を選択する指示を受け付けるための領域単位ボタン72とを表示させる。ユーザーがドキュメント単位ボタン71をタッチ操作すると、上記タッチパネルにより、文字鮮明化範囲として画像データの全体を選択する指示が領域指定受付部105に受け付けられる。ユーザーが領域単位ボタン72をタッチ操作すると、上記タッチパネルにより、文字鮮明化範囲として画像データの一部領域を選択する指示が領域指定受付部105に受け付けられる。
 ここで、領域指定受付部105に、文字鮮明化範囲として画像データの全体を選択する指示が受け付けられると(S3でYES)、画像データの全体が文字鮮明化(上記認識、推測、及び、再構成画像データの生成の処理)の対象とされる。
 一方、領域指定受付部105に、文字鮮明化範囲として画像データの一部領域を選択する指示が受け付けられた場合(S3でNO)、制御部101は、表示部70に、S1で取得された画像データを示す表示画面D2を表示させる(S5)。この状態で、領域指定受付部105が、ユーザーによる表示部70の表示画面上における上記スライド操作に基づいて、タッチパネルを介して、上記認識、推測、及び画像データ再構成の処理対象とする領域を受け付ける(S6)。
 図7は、画像データの領域指定指示中の画面表示例を示す図である。例えば、図7に示すように、制御部101が、表示部70に、S1で取得された画像データを表示させている状態で、ユーザーが表示部70の表示画面上で指をタッチさせたままスライドさせて直線TSに沿ってスライド操作を行うと、タッチパネルが当該スライド操作による軌跡を示す情報を領域指定受付部105に送り、当該直線TSを対角線とする領域Rが、文字鮮明化範囲73として、領域指定受付部105により受け付けられる。
 このようにして、S1で取得された画像データにおける文字鮮明化範囲がS3又はS6で受け付けられると、当該受け付けられた範囲において、文字認識部102が、画像データ中の文字パターンを文字として認識し、文字推測部103が、文字認識部102により認識できなかった文字パターンが表す文字を推測する(S8)。そして、画像データ再構成部104が、文字認識部102により認識された各文字及び文字推測部103により推測された各文字を、画像読取部10により取得された画像データ中の各文字パターンの配置順と同じ順に配置して再構成画像データを生成する(S9)。
 上記のように再構成画像データが生成されると、制御部101は、表示部70に、再構成画像データの処理メニューを示す処理メニュー画面D3(図8)を表示させる(S10)。図8は、再構成画像データの処理メニュー画面D3の例を示す図である。例えば、図8に示すように、制御部101は、表示部70に、再構成画像データをプレビューさせるプレビュー指示を受け付けるためのプレビューボタン74と、再構成画像データを印刷する印刷指示を受け付けるための印刷ボタン75が表示される。ユーザーは、プレビューボタン74又は印刷ボタン75をタッチ操作することで、再構成画像データのプレビュー又は印刷を行うことができる。
 ユーザーによる印刷ボタン75の操作で、タッチパネルを介して、制御部101に印刷指示が受け付けられると(S11でYES)、制御部101は、画像形成部20に、S9で生成された再構成画像データの印刷を行わせる(S12)。一方、ユーザーによるプレビューボタン74の操作で、タッチパネルを介して、制御部101にプレビュー指示が受け付けられると(S11でNO、S13でYES)、制御部101は、表示部70に、S9で生成された再構成画像データを表示させる(S14)。
 図9は、再構成画像データのプレビュー画面D5の例を示す図である。例えば、制御部101は、図9に示すように、再構成画像データのプレビュー画面D5において、再構成画像データを編集する編集指示を受け付けるための編集指示ボタン76を表示させる。ユーザーが編集指示ボタン76をタッチ操作すると、タッチパネルを介して、編集指示受付部106に、編集開始指示が受け付けられる。
 このように再構成画像データの編集開始指示が受け付けられると(S15でYES)、図10に例を示すように、編集指示受付部106が、表示部70に、ソフトキーボード78を有する編集指示受付画面D6を表示させ、再構成画像データの編集指示を受け付け可能な状態とする。画像データ編集部107は、この状態において編集指示受付部106が受け付けた編集指示に従って、再構成画像データを編集する(S16)。
 以上のように、本実施形態によれば、不鮮明な文字を含む原稿をスキャンし、読み取った文字の画像に生じたかすれを修復できない場合であっても、上述した上記認識、推測、及び、再構成画像データの生成の処理により、当該読取で得た原稿画像に含まれる文字を鮮明にすることができる。また、本実施形態によれば、文字を鮮明化する範囲をユーザーが自由に選択することができる。さらに、ユーザーは、文字を鮮明化して得られた再構成画像データを自由に編集することも可能である。
 <その他の変形例>
 上記の実施の形態では、画像処理装置の一例として画像形成装置を示したが,本発明は必ずしもこの場合に限定されない。本発明の一実施形態に係る画像処理装置は、画像形成装置の他、例えば、スキャナー装置又はファクシミリ機であってもよい。
 また、上記の実施の形態で説明した原稿読取処理プログラムをコンピューター読み取り可能な非一時的な記録媒体、例えば、ハードディスク、CD-ROM、DVD-ROM、半導体メモリー等に記録されたものとしてもよい。この場合、当該原稿読取処理プログラムを記録したコンピューター読み取り可能な非一時的な記録媒体が、本発明の一実施形態となる。

Claims (6)

  1.  原稿を光学的に読み取って画像データを取得する画像読取部と、
     前記画像データ中の文字パターンを文字として認識する文字認識部と、
     前記文字認識部が認識できなかった文字パターンについて、前記文字認識部により認識されたその前後の文字から文法的規則に則って当該文字パターンが表す文字を推測する文字推測部と、
     前記文字認識部により認識された各文字、及び前記文字推測部により推測された各文字を、前記画像データ中の各文字パターンの配置順と同じ順に配置して再構成画像データを生成する画像データ再構成部と、を備えた画像処理装置。
  2.  前記文字推測部は、前記文字認識部が認識できなかった文字パターンが2つ以上連続する場合、当該各文字パターンについて母音及び子音のいずれであるかを判定し、母音及び子音とで異なる記号を用いて当該各文字パターンを表す請求項1に記載の画像処理装置。
  3.  表示部と、
     前記表示部に前記再構成画像データを表示させる制御部と、
     前記表示部に前記再構成画像データが表示されているときに、ユーザーから前記再構成画像データに対する編集指示を受け付ける編集指示受付部と、
     前記編集指示受付部が受け付けた編集指示に従って前記再構成画像データを編集する画像データ編集部と、を備えた請求項1に記載の画像処理装置。
  4.  前記制御部は、前記表示部に前記画像データ又は前記再構成画像データを択一的に表示させ、
     前記表示部に前記画像データが表示されているときに、ユーザーから前記再構成画像データの生成対象となる前記画像データの領域指定指示を受け付ける領域指定受付部を更に備え、
     前記画像データ再構成部は、前記領域指定受付部が受け付けた領域指定指示が示す前記画像データの一部領域について、前記再構成画像データを生成する請求項3に記載の画像処理装置。
  5.  前記制御部は、前記画像読取部によって前記画像データが取得されると、前記表示部に、前記画像データの文字鮮明化範囲の選択を受け付けるための画面を表示させ、
     前記制御部は、前記領域指定受付部によって、前記文字鮮明化範囲として前記画像データの一部領域を選択する指示が受け付けられた場合、前記表示部に、前記領域指定指示を受け付けるために前記画像データを表示させる、請求項4に記載の画像処理装置。
  6.  前記制御部は、前記領域指定受付部によって、前記文字鮮明化範囲として前記画像データの全体領域を選択する指示が受け付けられた場合、前記表示部に、前記領域指定指示を受け付けるために前記画像データを表示させない、請求項5に記載の画像処理装置。
PCT/JP2018/019495 2017-07-24 2018-05-21 画像処理装置 WO2019021600A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/618,977 US10887487B2 (en) 2017-07-24 2018-05-21 Image processing apparatus
JP2019532399A JP6816828B2 (ja) 2017-07-24 2018-05-21 画像処理装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-142989 2017-07-24
JP2017142989 2017-07-24

Publications (1)

Publication Number Publication Date
WO2019021600A1 true WO2019021600A1 (ja) 2019-01-31

Family

ID=65039612

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/019495 WO2019021600A1 (ja) 2017-07-24 2018-05-21 画像処理装置

Country Status (3)

Country Link
US (1) US10887487B2 (ja)
JP (1) JP6816828B2 (ja)
WO (1) WO2019021600A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102226843B1 (ko) * 2019-02-26 2021-03-12 주식회사 핀그램 오브젝트 검출 시스템 및 그 방법
JP7408313B2 (ja) * 2019-08-13 2024-01-05 キヤノン株式会社 画像処理装置、その制御方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0795337A (ja) * 1993-09-21 1995-04-07 Kyocera Corp ファクシミリ装置
JPH1198292A (ja) * 1997-09-22 1999-04-09 Ricoh Co Ltd ファクシミリ装置
JP2015170129A (ja) * 2014-03-06 2015-09-28 株式会社東芝 認識装置、認識方法およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3272776B2 (ja) 1992-07-28 2002-04-08 株式会社日立製作所 文字パターン認識方法
JP3689455B2 (ja) * 1995-07-03 2005-08-31 キヤノン株式会社 情報処理方法及び装置
JP3411472B2 (ja) * 1997-05-30 2003-06-03 富士通株式会社 パターン抽出装置
JP4364107B2 (ja) * 2004-11-11 2009-11-11 株式会社日立製作所 ネットワーク機器の構成情報管理方法、管理装置及び管理システム
TW201407385A (zh) * 2012-08-15 2014-02-16 Arphic Technology Co Ltd 於嵌入式設備處理字串的方法
JP2014131257A (ja) * 2012-11-27 2014-07-10 Ricoh Co Ltd 画像補正システム、画像補正方法及びプログラム
JP6627746B2 (ja) * 2016-12-28 2020-01-08 京セラドキュメントソリューションズ株式会社 画像形成装置及び画像形成システム
JP6880763B2 (ja) * 2017-01-19 2021-06-02 株式会社リコー 情報解析システム、情報解析方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0795337A (ja) * 1993-09-21 1995-04-07 Kyocera Corp ファクシミリ装置
JPH1198292A (ja) * 1997-09-22 1999-04-09 Ricoh Co Ltd ファクシミリ装置
JP2015170129A (ja) * 2014-03-06 2015-09-28 株式会社東芝 認識装置、認識方法およびプログラム

Also Published As

Publication number Publication date
US10887487B2 (en) 2021-01-05
JPWO2019021600A1 (ja) 2020-03-26
JP6816828B2 (ja) 2021-01-20
US20200177762A1 (en) 2020-06-04

Similar Documents

Publication Publication Date Title
JP4311365B2 (ja) 文書処理装置およびプログラム
JP2006251902A (ja) 翻訳文書画像生成装置、翻訳文書画像生成プログラム及び翻訳文書画像生成方法
US8508795B2 (en) Information processing apparatus, information processing method, and computer program product for inserting information into in image data
JP5915628B2 (ja) 画像形成装置、テキストデータの埋め込み方法及び埋め込みプログラム
JP5672953B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2016015115A (ja) 情報処理装置、情報処理方法、及び記録媒体
WO2019021600A1 (ja) 画像処理装置
JP2003209643A (ja) 画像処理装置
JP2016163939A (ja) 画像形成装置、画像形成装置における文字の表示方法およびドライバーソフトウェア
JP2016062452A (ja) 情報処理装置およびプログラム
JP6593303B2 (ja) 問題作成装置、問題作成方法、及び画像形成装置
JP2006279107A (ja) 画像処理装置及び画像処理方法
JP7379876B2 (ja) 文字認識装置、文書ファイル生成方法、文書ファイル生成プログラム
JP2021114192A (ja) 情報処理装置及びプログラム
JP2006196976A (ja) Ocrによる自動清書機能を持つ複写システム
JP6394579B2 (ja) 画像読取装置及び画像形成装置
JP2006270589A (ja) 情報処理装置、情報処理方法、プログラムおよび記録媒体
JP2001052110A (ja) 文書処理方法、文書処理プログラムを記録した記録媒体及び文書処理装置
JP2020099030A (ja) 情報処理装置、及び情報処理方法
JP2020099031A (ja) 情報処理装置、及び情報処理方法
JP6046088B2 (ja) 画像処理装置及び画像処理方法
JP7409102B2 (ja) 情報処理装置及び画像形成装置
JP7497620B2 (ja) 文書データ生成装置、画像形成装置、及び文書データ生成プログラム
JP2004199483A (ja) 画像出力装置
JP2020155006A (ja) 情報処理装置およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18839073

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019532399

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18839073

Country of ref document: EP

Kind code of ref document: A1