JP2022054710A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2022054710A
JP2022054710A JP2020161884A JP2020161884A JP2022054710A JP 2022054710 A JP2022054710 A JP 2022054710A JP 2020161884 A JP2020161884 A JP 2020161884A JP 2020161884 A JP2020161884 A JP 2020161884A JP 2022054710 A JP2022054710 A JP 2022054710A
Authority
JP
Japan
Prior art keywords
character
image
unit
specific
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020161884A
Other languages
Japanese (ja)
Inventor
淳史 鈴木
Junji Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2020161884A priority Critical patent/JP2022054710A/en
Publication of JP2022054710A publication Critical patent/JP2022054710A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Character Discrimination (AREA)

Abstract

To provide an image processing apparatus and an image processing method that can improve the character recognition rate of handwritten characters without using data indicating the correspondence relationship between an image representing the handwritten characters and characters represented by the image.SOLUTION: An image processing apparatus 10 comprises: a character recognition unit 92 that, based on the match rate between character images included in image data and reference images representing predetermined characters, recognizes the character represented by the character image; a determination processing unit 94 that determines whether predetermined image processing can improve the match rate between a specific character image, of the character images, which represents a predetermined specific character and a specific reference image, of the reference images, which represents the specific character; and a processing execution unit 96 that, when the determination processing unit 94 determines that the image processing can improve the match rate between the specific character image and the specific reference image, executes the image processing on the character image in which the character is recognized.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method.

複合機のような画像処理装置では、画像データに含まれる文字画像が表す文字を認識する文字認識処理が実行されることがある。例えば、前記文字認識処理では、前記文字画像と予め定められた文字を表す基準画像各々との一致率に基づいて、当該文字画像が表す文字が認識される。 In an image processing device such as a multifunction device, character recognition processing for recognizing characters represented by a character image included in image data may be executed. For example, in the character recognition process, the character represented by the character image is recognized based on the matching rate between the character image and each of the reference images representing the predetermined characters.

ところで、画像データに含まれる前記文字画像がユーザーの手書き文字を表す画像である場合には、当該文字画像には当該ユーザーの癖が反映されており、それにより前記基準画像との差異が大きくなるため、前記文字認識処理における識字率が低下する。これに対し、ユーザーの手書き文字を表す画像と当該画像が表す文字との対応関係を示すデータを用いて、画像データに含まれるユーザーの手書き文字を認識する画像処理装置が関連技術として知られている(特許文献1参照)。 By the way, when the character image included in the image data is an image representing a user's handwritten character, the character image reflects the user's habit, and the difference from the reference image becomes large. Therefore, the literacy rate in the character recognition process is lowered. On the other hand, an image processing device that recognizes the user's handwritten characters included in the image data by using the data showing the correspondence between the image representing the user's handwritten characters and the characters represented by the image is known as a related technology. (See Patent Document 1).

特開平2-81190号公報Japanese Unexamined Patent Publication No. 2-81190

しかしながら、上述の関連技術に係る画像処理装置では、予めユーザーの手書き文字を表す画像と当該画像が表す文字との対応関係を示すデータを用意する必要がある。 However, in the image processing apparatus according to the above-mentioned related technology, it is necessary to prepare in advance data showing the correspondence relationship between the image representing the user's handwritten character and the character represented by the image.

本発明の目的は、手書き文字を表す画像と当該画像が表す文字との対応関係を示すデータを用いることなく、手書き文字の識字率を向上可能な画像処理装置、及び画像処理方法を提供することにある。 An object of the present invention is to provide an image processing device and an image processing method capable of improving the literacy rate of handwritten characters without using data showing the correspondence between an image representing handwritten characters and the characters represented by the image. It is in.

本発明の一の局面に係る画像処理装置は、文字認識部と、判断処理部と、処理実行部とを備える。前記文字認識部は、画像データに含まれる文字画像と予め定められた文字を表す基準画像各々との一致率に基づいて、当該文字画像が表す文字を認識する。前記判断処理部は、予め定められた画像処理が前記文字画像のうち予め定められた特定文字を表す特定文字画像と前記基準画像のうち前記特定文字を表す特定基準画像との一致率を向上可能であるか否かを判断する。前記処理実行部は、前記判断処理部によって前記画像処理が前記特定文字画像と前記特定基準画像との一致率を向上可能であると判断された場合に、前記文字認識部により文字が認識される前記文字画像に対して当該画像処理を実行する。 The image processing apparatus according to one aspect of the present invention includes a character recognition unit, a determination processing unit, and a processing execution unit. The character recognition unit recognizes the characters represented by the character image based on the matching rate between the character image included in the image data and each of the reference images representing the predetermined characters. The determination processing unit can improve the matching rate between the specific character image representing the predetermined specific character in the character image and the specific reference image representing the specific character in the reference image by the predetermined image processing. Judge whether or not. When the determination processing unit determines that the image processing can improve the matching rate between the specific character image and the specific reference image, the processing execution unit recognizes characters by the character recognition unit. The image processing is executed on the character image.

本発明の他の局面に係る画像処理方法は、文字認識ステップと、判断ステップと、処理実行ステップとを含む。前記文字認識ステップでは、画像データに含まれる文字画像と予め定められた文字を表す基準画像各々との一致率に基づいて、当該文字画像が表す文字が認識される。前記判断ステップでは、予め定められた画像処理が前記文字画像のうち予め定められた特定文字を表す特定文字画像と前記基準画像のうち前記特定文字を表す特定基準画像との一致率を向上可能であるか否かが判断される。前記処理実行ステップでは、前記判断ステップによって前記画像処理が前記特定文字画像と前記特定基準画像との一致率を向上可能であると判断された場合に、前記文字認識ステップにより文字が認識される前記文字画像に対して当該画像処理が実行される。 The image processing method according to another aspect of the present invention includes a character recognition step, a determination step, and a processing execution step. In the character recognition step, the character represented by the character image is recognized based on the matching rate between the character image included in the image data and each of the reference images representing the predetermined characters. In the determination step, the predetermined image processing can improve the matching rate between the specific character image representing the predetermined specific character in the character image and the specific reference image representing the specific character in the reference image. It is judged whether or not there is. In the processing execution step, when it is determined by the determination step that the image processing can improve the matching rate between the specific character image and the specific reference image, the character is recognized by the character recognition step. The image processing is executed for the character image.

本発明によれば、手書き文字を示す画像と当該画像が表す文字との対応関係を示すデータを用いることなく、手書き文字の識字率を向上させることが可能である。 According to the present invention, it is possible to improve the literacy rate of handwritten characters without using data showing the correspondence between an image showing handwritten characters and the characters represented by the image.

図1は、本発明の実施形態に係る画像処理装置の構成を示す図である。FIG. 1 is a diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention. 図2は、本発明の実施形態に係る画像処理装置のシステム構成を示すブロック図である。FIG. 2 is a block diagram showing a system configuration of the image processing apparatus according to the embodiment of the present invention. 図3は、本発明の実施形態に係る画像処理装置で実行される文字認識処理の一例を示すフローチャートである。FIG. 3 is a flowchart showing an example of character recognition processing executed by the image processing apparatus according to the embodiment of the present invention. 図4は、本発明の実施形態に係る画像処理装置で実行される第1再認識処理の一例を示すフローチャートである。FIG. 4 is a flowchart showing an example of the first re-recognition process executed by the image processing apparatus according to the embodiment of the present invention. 図5は、本発明の実施形態に係る画像処理装置で実行される第2再認識処理の一例を示すフローチャートである。FIG. 5 is a flowchart showing an example of a second re-recognition process executed by the image processing apparatus according to the embodiment of the present invention.

以下、添付図面を参照しながら、本発明の実施形態について説明する。なお、以下の実施形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定するものではない。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. The following embodiments are examples that embody the present invention, and do not limit the technical scope of the present invention.

[画像処理装置10の構成]
まず、図1及び図2を参照しつつ、本発明の実施形態に係る画像処理装置10の構成について説明する。
[Configuration of image processing device 10]
First, the configuration of the image processing apparatus 10 according to the embodiment of the present invention will be described with reference to FIGS. 1 and 2.

画像処理装置10は、原稿の画像を読み取るスキャン機能、及び画像データに基づいて画像を形成するプリント機能とともに、ファクシミリ機能、及びコピー機能などの複数の機能を有する複合機である。なお、画像処理装置10は、スキャナー、プリンター、ファクシミリ装置、コピー機、パーソナルコンピューター、ノートパソコン、スマートフォン、及びタブレット端末などであってもよい。 The image processing device 10 is a multifunction device having a scan function for reading an image of a document, a print function for forming an image based on image data, and a plurality of functions such as a facsimile function and a copy function. The image processing device 10 may be a scanner, a printer, a facsimile machine, a copier, a personal computer, a notebook computer, a smartphone, a tablet terminal, or the like.

図1及び図2に示されるように、画像処理装置10は、ADF(Auto Document Feeder)1、画像読取部2、画像形成部3、給紙部4、制御部5、操作表示部6、通信部7、及び記憶部8を備える。 As shown in FIGS. 1 and 2, the image processing device 10 includes an ADF (Auto Document Feeder) 1, an image reading unit 2, an image forming unit 3, a paper feeding unit 4, a control unit 5, an operation display unit 6, and communication. A unit 7 and a storage unit 8 are provided.

ADF1は、前記スキャン機能による読取対象の原稿を搬送する。例えば、ADF1は、原稿セット部、複数の搬送ローラー、原稿押さえ、及び排紙部を備える。 The ADF1 conveys a document to be read by the scanning function. For example, the ADF1 includes a document setting unit, a plurality of transport rollers, a document holder, and a paper ejection unit.

画像読取部2は、前記スキャン機能を実現する。例えば、画像読取部2は、原稿台、光源、複数のミラー、光学レンズ、及びCCD(Charge Coupled Device)を備える。画像読取部2は、原稿の画像を読み取り、読み取った当該画像を含む読取画像データを出力する。 The image reading unit 2 realizes the scanning function. For example, the image reading unit 2 includes a platen, a light source, a plurality of mirrors, an optical lens, and a CCD (Charge Coupled Device). The image scanning unit 2 reads the image of the original and outputs the scanned image data including the scanned image.

画像形成部3は、前記プリント機能を実現する。例えば、画像形成部3は、電子写真方式で画像を形成する。例えば、画像形成部3は、感光体ドラム、帯電ローラー、光走査装置、現像装置、転写ローラー、クリーニング装置、定着装置、及び排紙トレイを備える。 The image forming unit 3 realizes the printing function. For example, the image forming unit 3 forms an image by an electrophotographic method. For example, the image forming unit 3 includes a photoconductor drum, a charging roller, an optical scanning device, a developing device, a transfer roller, a cleaning device, a fixing device, and a paper ejection tray.

給紙部4は、画像形成部3にシートを供給する。例えば、給紙部4は、給紙カセット、手差しトレイ、シート搬送路、及び複数の搬送ローラーを備える。 The paper feeding unit 4 supplies the sheet to the image forming unit 3. For example, the paper feed unit 4 includes a paper feed cassette, a manual feed tray, a sheet transport path, and a plurality of transport rollers.

制御部5は、画像処理装置10を統括的に制御する。図2に示されるように、制御部5は、CPU51、ROM52、及びRAM53を備える。CPU51は、各種の演算処理を実行するプロセッサーである。ROM52は、CPU51に各種の処理を実行させるための制御プログラムなどの情報が予め記憶される不揮発性の記憶装置である。RAM53は、CPU51が実行する各種の処理の一時記憶メモリー(作業領域)として使用される揮発性の記憶装置である。制御部5では、CPU51によりROM52に予め記憶された各種の制御プログラムが実行される。これにより、画像処理装置10が制御部5により統括的に制御される。 The control unit 5 comprehensively controls the image processing device 10. As shown in FIG. 2, the control unit 5 includes a CPU 51, a ROM 52, and a RAM 53. The CPU 51 is a processor that executes various arithmetic processes. The ROM 52 is a non-volatile storage device in which information such as a control program for causing the CPU 51 to execute various processes is stored in advance. The RAM 53 is a volatile storage device used as a temporary storage memory (working area) for various processes executed by the CPU 51. In the control unit 5, various control programs stored in advance in the ROM 52 are executed by the CPU 51. As a result, the image processing device 10 is collectively controlled by the control unit 5.

なお、制御部5は、集積回路(ASIC)などの電子回路で構成されたものであってもよい。また、制御部5は、画像処理装置10を統括的に制御するメイン制御部とは別に設けられた制御部であってもよい。 The control unit 5 may be composed of an electronic circuit such as an integrated circuit (ASIC). Further, the control unit 5 may be a control unit provided separately from the main control unit that collectively controls the image processing device 10.

操作表示部6は、画像処理装置10のユーザーインターフェイスである。例えば、操作表示部6は、制御部5からの制御指示に応じて各種の情報を表示する液晶ディスプレーなどの表示部、及びユーザーの操作に応じて制御部5に各種の情報を入力する操作キー又はタッチパネルなどの操作部を備える。 The operation display unit 6 is a user interface of the image processing device 10. For example, the operation display unit 6 is a display unit such as a liquid crystal display that displays various information in response to a control instruction from the control unit 5, and an operation key for inputting various information to the control unit 5 in response to a user operation. Alternatively, it is provided with an operation unit such as a touch panel.

通信部7は、外部の通信機器との間で、インターネット又はLANなどの通信ネットワークを介して有線又は無線によるデータ通信を実行する通信インターフェイスである。 The communication unit 7 is a communication interface that executes wired or wireless data communication with an external communication device via a communication network such as the Internet or LAN.

記憶部8は、不揮発性の記憶装置である。例えば、記憶部8は、フラッシュメモリー及びEEPROM(登録商標)などの不揮発性メモリ、SSD(Solid State Drive)、又はHDD(Hard Disk Drive)などの記憶装置である。 The storage unit 8 is a non-volatile storage device. For example, the storage unit 8 is a storage device such as a flash memory, a non-volatile memory such as EEPROM (registered trademark), an SSD (Solid State Drive), or an HDD (Hard Disk Drive).

記憶部8には、画像処理装置10にログイン可能なユーザーに関するユーザー情報が格納されている。前記ユーザー情報には、ユーザーの認証に用いられる認証情報が含まれる。例えば、前記認証情報は、ユーザー名などのユーザー識別情報及びパスワードである。 The storage unit 8 stores user information about a user who can log in to the image processing device 10. The user information includes authentication information used for user authentication. For example, the authentication information is user identification information such as a user name and a password.

また、記憶部8には、画像処理装置10にログイン可能なユーザーが所属するグループに関するグループ情報が格納されている。前記グループ情報には、グループ名などのグループ識別情報及びそのグループに所属する一又は複数のユーザーに対応する一又は複数の前記ユーザー識別情報が含まれる。 Further, the storage unit 8 stores group information about a group to which a user who can log in to the image processing device 10 belongs. The group information includes group identification information such as a group name and one or more user identification information corresponding to one or more users belonging to the group.

なお、記憶部8は、画像処理装置10と通信可能に接続された情報処理装置に設けられてもよい。この場合、制御部5は、当該情報処理装置との間でデータ通信を行うことにより、記憶部8に格納されたデータを取得すればよい。 The storage unit 8 may be provided in an information processing device that is communicably connected to the image processing device 10. In this case, the control unit 5 may acquire the data stored in the storage unit 8 by performing data communication with the information processing device.

[制御部5の構成]
次に、図2を参照しつつ、制御部5の構成について説明する。
[Structure of control unit 5]
Next, the configuration of the control unit 5 will be described with reference to FIG. 2.

図2に示されるように、制御部5は、認証処理部91、文字認識部92、特徴判断部93、判断処理部94、第1対応付け部95、処理実行部96、文字取得部97、及び第2対応付け部98を含む。 As shown in FIG. 2, the control unit 5 includes an authentication processing unit 91, a character recognition unit 92, a feature determination unit 93, a determination processing unit 94, a first association unit 95, a processing execution unit 96, and a character acquisition unit 97. And the second mapping unit 98 are included.

具体的に、制御部5のROM52には、制御部5のCPU51に後述の文字認識処理(図3のフローチャート参照)を実行させるための文字認識プログラムが予め格納されている。そして、制御部5のCPU51は、ROM52に格納された前記文字認識プログラムを実行することにより、上述の各部として機能する。 Specifically, the ROM 52 of the control unit 5 stores in advance a character recognition program for causing the CPU 51 of the control unit 5 to execute the character recognition process (see the flowchart of FIG. 3) described later. Then, the CPU 51 of the control unit 5 functions as each of the above-mentioned units by executing the character recognition program stored in the ROM 52.

なお、前記文字認識プログラムは、CD、DVD、フラッシュメモリーなどのコンピューター読み取り可能な記録媒体に記録されており、前記記録媒体から読み取られて記憶部8などの記憶装置に格納されてもよい。 The character recognition program is recorded on a computer-readable recording medium such as a CD, DVD, or flash memory, and may be read from the recording medium and stored in a storage device such as a storage unit 8.

認証処理部91は、記憶部8に格納されている前記認証情報を用いて、画像処理装置10のユーザーを認証する。 The authentication processing unit 91 authenticates the user of the image processing device 10 by using the authentication information stored in the storage unit 8.

例えば、認証処理部91は、操作表示部6における予め定められたユーザーの操作に応じて、予め定められた認証操作に用いられる認証画面を操作表示部6に表示させる。そして、認証処理部91は、前記認証画面において前記認証操作を受け付ける。例えば、前記認証操作は、前記ユーザー識別情報及びパスワードを入力する操作である。その後、認証処理部91は、操作表示部6から入力された情報が記憶部8に格納されている前記認証情報のいずれかと一致する場合に、ユーザーを認証する。つまり、当該ユーザーを画像処理装置10にログインさせる。 For example, the authentication processing unit 91 causes the operation display unit 6 to display an authentication screen used for a predetermined authentication operation in response to a predetermined user operation in the operation display unit 6. Then, the authentication processing unit 91 accepts the authentication operation on the authentication screen. For example, the authentication operation is an operation of inputting the user identification information and the password. After that, the authentication processing unit 91 authenticates the user when the information input from the operation display unit 6 matches any of the authentication information stored in the storage unit 8. That is, the user is logged in to the image processing device 10.

なお、認証処理部91は、操作表示部6において予め定められたログアウト操作が行われた場合、予め設定された時間が経過した場合、又は他のユーザーをログインさせる場合に、現在ログイン中のユーザーをログアウトさせるログアウト処理を実行する。 The authentication processing unit 91 is a currently logged-in user when a predetermined logout operation is performed in the operation display unit 6, a preset time has elapsed, or another user is logged in. Executes the logout process to log out.

文字認識部92は、画像データに含まれる文字画像と予め定められた文字を表す基準画像各々との一致率に基づいて、当該文字画像が表す文字を認識する。 The character recognition unit 92 recognizes the characters represented by the character image based on the matching rate between the character image included in the image data and each of the reference images representing the predetermined characters.

例えば、画像処理装置10では、当該装置において認識可能な複数の文字に対応する複数の前記基準画像が予め記憶部8に格納されている。そして、文字認識部92は、記憶部8に格納されている複数の前記基準画像を用いて、画像データに含まれる前記文字画像が表す文字を認識する。 For example, in the image processing device 10, a plurality of the reference images corresponding to a plurality of characters recognizable by the device are stored in the storage unit 8 in advance. Then, the character recognition unit 92 recognizes the characters represented by the character image included in the image data by using the plurality of reference images stored in the storage unit 8.

例えば、文字認識部92は、記憶部8に格納されている前記基準画像各々について、当該基準画像と認識対象の前記文字画像との一致率を取得する。そして、文字認識部92は、認識対象の前記文字画像との一致率が最も高い前記基準画像が一つであって、当該基準画像と認識対象の前記文字画像との一致率が予め定められた第1閾値を超える場合に、当該基準画像が表す文字を、認識対象の前記文字画像が表す文字として認識する。 For example, the character recognition unit 92 acquires the matching rate between the reference image and the character image to be recognized for each of the reference images stored in the storage unit 8. Then, the character recognition unit 92 has one reference image having the highest matching rate with the character image to be recognized, and the matching rate between the reference image and the character image to be recognized is predetermined. When the first threshold value is exceeded, the character represented by the reference image is recognized as the character represented by the character image to be recognized.

一方、文字認識部92は、認識対象の前記文字画像との一致率が最も高い前記基準画像が一つであって、当該基準画像と認識対象の前記文字画像との一致率が前記第1閾値以下である場合に、認識対象の前記文字画像が表す文字の認識に失敗したと判断する。 On the other hand, in the character recognition unit 92, the reference image having the highest matching rate with the character image to be recognized is one, and the matching rate between the reference image and the character image to be recognized is the first threshold value. In the following cases, it is determined that the recognition of the character represented by the character image to be recognized has failed.

また、文字認識部92は、認識対象の前記文字画像との一致率が最も高い前記基準画像が複数である場合に、認識対象の前記文字画像が表す文字の認識に失敗したと判断する。 Further, the character recognition unit 92 determines that the recognition of the character represented by the character image to be recognized has failed when there are a plurality of reference images having the highest matching rate with the character image to be recognized.

例えば、文字認識部92は、画像読取部2から前記読取画像データが出力された場合に、当該読取画像データに含まれる前記文字画像が表す文字を認識する。 For example, when the read image data is output from the image reading unit 2, the character recognition unit 92 recognizes the characters represented by the character image included in the read image data.

ところで、画像データに含まれる前記文字画像がユーザーの手書き文字を表す画像である場合には、当該文字画像にはユーザーの癖が反映されており、それにより前記基準画像との差異が大きくなるため、文字認識部92による文字の認識率(識字率)が低下する。これに対し、ユーザーの手書き文字を表す画像と当該画像が表す文字との対応関係を示すデータを用いて、画像データに含まれるユーザーの手書き文字を認識する画像処理装置が関連技術として知られている。 By the way, when the character image included in the image data is an image representing a user's handwritten character, the character image reflects the user's habit, and as a result, the difference from the reference image becomes large. , The character recognition rate (character recognition rate) by the character recognition unit 92 decreases. On the other hand, an image processing device that recognizes the user's handwritten characters included in the image data by using the data showing the correspondence between the image representing the user's handwritten characters and the characters represented by the image is known as a related technology. There is.

しかしながら、上述の関連技術に係る画像処理装置では、予めユーザーの手書き文字を表す画像と当該画像が表す文字との対応関係を示すデータを用意する必要がある。 However, in the image processing apparatus according to the above-mentioned related technology, it is necessary to prepare in advance data showing the correspondence relationship between the image representing the user's handwritten character and the character represented by the image.

これに対し、本発明の実施形態に係る画像処理装置10では、以下に説明するように、手書き文字を表す画像と当該画像が表す文字との対応関係を示すデータを用いることなく、手書き文字の識字率を向上可能である。 On the other hand, in the image processing apparatus 10 according to the embodiment of the present invention, as described below, the handwritten characters are represented without using the data indicating the correspondence between the image representing the handwritten characters and the characters represented by the images. It is possible to improve the literacy rate.

特徴判断部93は、画像データに含まれる前記文字画像のうち予め定められた特定文字を表す特定文字画像と前記基準画像のうち前記特定文字を表す特定基準画像との比較結果に基づいて、前記特定文字画像が予め定められた特徴を有するか否かを判断する。 The feature determination unit 93 is based on a comparison result between a specific character image representing a predetermined specific character among the character images included in the image data and a specific reference image representing the specific character among the reference images. It is determined whether or not the specific character image has predetermined characteristics.

例えば、前記特定文字は、文字認識部92によって認識された文字を含む。 For example, the specific character includes a character recognized by the character recognition unit 92.

例えば、前記特徴には、前記特定文字画像が表す前記特定文字が右上がりである第1特徴が含まれる。例えば、特徴判断部93は、前記特定文字画像における中央よりも右側の部分だけが前記特定基準画像に対して上側にずれている場合に、前記特定文字画像が前記第1特徴を有すると判断する。 For example, the feature includes a first feature in which the specific character represented by the specific character image is rising to the right. For example, the feature determination unit 93 determines that the specific character image has the first feature when only the portion on the right side of the center of the specific character image is shifted upward with respect to the specific reference image. ..

また、前記特徴には、前記特定文字画像が表す前記特定文字の角部が丸い(前記特定文字が丸文字である)第2特徴が含まれる。例えば、特徴判断部93は、前記特定文字画像に含まれる第1角部が前記特定基準画像に含まれる当該第1角部に対応する第2角部よりも丸みを有する場合に、前記特定文字画像が前記第2特徴を有すると判断する。 Further, the feature includes a second feature in which the corner portion of the specific character represented by the specific character image is rounded (the specific character is a round character). For example, the feature determination unit 93 has the specific character when the first corner portion included in the specific character image has a rounder shape than the second corner portion corresponding to the first corner portion included in the specific reference image. It is determined that the image has the second feature.

また、前記特徴には、前記特定文字画像が表す前記特定文字の線がつながっている(前記特定文字に「とめ」がない)第3特徴が含まれる。例えば、特徴判断部93は、前記特定基準画像においては分離する二つの線が、前記特定文字画像においては連続している場合に、前記特定文字画像が前記第3特徴を有すると判断する。 Further, the feature includes a third feature in which the line of the specific character represented by the specific character image is connected (the specific character does not have a "stop"). For example, the feature determination unit 93 determines that the specific character image has the third feature when the two lines separated in the specific reference image are continuous in the specific character image.

例えば、特徴判断部93は、文字認識部92による文字の認識が失敗した場合に、前記特定文字画像と前記特定基準画像との比較結果に基づいて、前記特定文字画像が前記特徴を有するか否かを判断可能である。 For example, the feature determination unit 93 determines whether or not the specific character image has the characteristics based on the comparison result between the specific character image and the specific reference image when the character recognition by the character recognition unit 92 fails. It is possible to judge.

なお、特徴判断部93は、画像データに含まれるいずれかの前記文字画像を操作表示部6に表示させて、当該文字画像が表す文字の入力を受け付けてもよい。この場合、前記特定文字は、ユーザーによって入力された文字であってよい。 The feature determination unit 93 may display any of the character images included in the image data on the operation display unit 6 and accept input of characters represented by the character image. In this case, the specific character may be a character input by the user.

また、特徴判断部93は、文字認識部92による文字の認識が失敗する前に、前記特定文字画像と前記特定基準画像との比較結果に基づいて、前記特定文字画像が前記特徴を有するか否かを判断可能であってよい。 Further, the feature determination unit 93 determines whether or not the specific character image has the characteristics based on the comparison result between the specific character image and the specific reference image before the character recognition by the character recognition unit 92 fails. It may be possible to judge whether or not.

判断処理部94は、予め定められた画像処理が前記特定文字画像と前記特定基準画像との一致率を向上可能であるか否かを判断する。 The determination processing unit 94 determines whether or not the predetermined image processing can improve the matching rate between the specific character image and the specific reference image.

例えば、前記画像処理は、前記特徴に対応付けられた処理である。 For example, the image processing is a processing associated with the feature.

例えば、画像処理装置10では、画像を回転させる回転処理が前記第1特徴に対応付けられている。また、画像処理装置10では、画像に含まれる角部を強調する(鋭くする)角部強調処理が前記第2特徴に対応付けられている。また、画像処理装置10では、画像に含まれる幅が予め定められた基準値以下の細線を消去する細線消去処理が前記第3特徴に対応付けられている。 For example, in the image processing device 10, a rotation process for rotating an image is associated with the first feature. Further, in the image processing device 10, the corner portion enhancement process for emphasizing (sharpening) the corner portion included in the image is associated with the second feature. Further, in the image processing apparatus 10, a thin line erasing process for erasing thin lines whose width included in the image is equal to or less than a predetermined reference value is associated with the third feature.

そして、判断処理部94は、特徴判断部93によって前記特定文字画像が前記特徴を有すると判断された場合に、当該特徴に対応する前記画像処理が前記特定文字画像と前記特定基準画像との一致率を向上可能であると判断する。 Then, when the characteristic determination unit 93 determines that the specific character image has the characteristic, the determination processing unit 94 matches the specific character image with the specific reference image in the image processing corresponding to the characteristic. Judge that the rate can be improved.

なお、制御部5は、特徴判断部93を含んでいなくてもよい。この場合、前記画像処理は、前記特徴に対応付けられた処理でなくてもよい。また、判断処理部94は、文字認識部92による文字の認識が失敗した場合に、前記画像処理が前記特定文字画像と前記特定基準画像との一致率を向上可能であるか否かを判断してもよい。例えば、判断処理部94は、前記特定文字画像に対する前記画像処理の実行結果に基づいて、当該画像処理が前記特定文字画像と前記特定基準画像との一致率を向上可能であるか否かを判断してもよい。また、判断処理部94は、文字認識部92による文字の認識が失敗する前に、前記画像処理が前記特定文字画像と前記特定基準画像との一致率を向上可能であるか否かを判断してもよい。 The control unit 5 does not have to include the feature determination unit 93. In this case, the image processing does not have to be the processing associated with the feature. Further, the determination processing unit 94 determines whether or not the image processing can improve the matching rate between the specific character image and the specific reference image when the character recognition by the character recognition unit 92 fails. You may. For example, the determination processing unit 94 determines whether or not the image processing can improve the matching rate between the specific character image and the specific reference image based on the execution result of the image processing on the specific character image. You may. Further, the determination processing unit 94 determines whether or not the image processing can improve the matching rate between the specific character image and the specific reference image before the character recognition by the character recognition unit 92 fails. You may.

第1対応付け部95は、特徴判断部93によって前記特定文字画像が前記特徴を有すると判断された場合に、当該特徴を自装置にログイン中のユーザーに対応付ける。 When the feature determination unit 93 determines that the specific character image has the feature, the first association unit 95 associates the feature with the user logged in to the own device.

例えば、第1対応付け部95は、前記特徴を示す特徴情報を自装置にログイン中のユーザーに対応する前記ユーザー情報に付加する。 For example, the first mapping unit 95 adds the feature information indicating the feature to the user information corresponding to the user logged in to the own device.

なお、第1対応付け部95は、特徴判断部93によって前記特定文字画像が前記特徴を有すると判断された場合に、当該特徴を自装置にログイン中のユーザーが所属する前記グループに対応付けてもよい。例えば、第1対応付け部95は、前記特徴情報を自装置にログイン中のユーザーが所属する前記グループに対応する前記グループ情報に付加してもよい。また、第1対応付け部95は、前記特徴の対応付け先をユーザーの操作に応じて切り替えてもよい。 When the feature determination unit 93 determines that the specific character image has the feature, the first mapping unit 95 associates the feature with the group to which the user logged in to the own device belongs. May be good. For example, the first association unit 95 may add the feature information to the group information corresponding to the group to which the user logged in to the own device belongs. Further, the first mapping unit 95 may switch the mapping destination of the feature according to the operation of the user.

ここで、特徴判断部93は、自装置にログイン中のユーザー又は当該ユーザーが所属する前記グループに対応付けられた前記特徴が存在する場合に、前記特定文字画像が当該特徴を有するか否かを判断しない。なお、特徴判断部93は、自装置にログイン中のユーザー又は当該ユーザーが所属する前記グループに対応付けられた前記特徴が存在する場合に、前記特定文字画像が当該特徴とは異なる他の前記特徴を有するか否かを判断してもよい。 Here, the feature determination unit 93 determines whether or not the specific character image has the feature when the feature associated with the user logged in to the own device or the group to which the user belongs exists. Do not judge. In addition, when the feature associated with the user logged in to the own device or the group to which the user belongs exists, the feature determination unit 93 has another feature whose specific character image is different from the feature. You may decide whether or not to have.

また、制御部5は、第1対応付け部95を含んでいなくてもよい。 Further, the control unit 5 does not have to include the first association unit 95.

処理実行部96は、判断処理部94によって前記画像処理が前記特定文字画像と前記特定基準画像との一致率を向上可能であると判断された場合に、文字認識部92により文字が認識される前記文字画像に対して当該画像処理を実行する。 When the determination processing unit 94 determines that the image processing can improve the matching rate between the specific character image and the specific reference image, the processing execution unit 96 recognizes the characters by the character recognition unit 92. The image processing is executed on the character image.

また、処理実行部96は、自装置にログイン中のユーザー又は当該ユーザーが所属する前記グループに対応付けられた前記特徴が存在する場合に、前記文字画像に対して当該特徴に対応する前記画像処理を実行する。 Further, when the feature associated with the user logged in to the own device or the group to which the user belongs exists, the processing execution unit 96 processes the image corresponding to the feature with respect to the character image. To execute.

例えば、処理実行部96は、文字認識部92による文字の認識が失敗した前記文字画像に対して前記画像処理を実行する。 For example, the processing execution unit 96 executes the image processing on the character image in which the character recognition by the character recognition unit 92 fails.

なお、処理実行部96は、文字認識部92により文字が認識されていない前記文字画像に対して前記画像処理を実行してもよい。 The processing execution unit 96 may execute the image processing on the character image in which the character is not recognized by the character recognition unit 92.

文字取得部97は、前記画像処理後の前記文字画像が表す文字の認識が失敗した場合に、当該文字を取得する。 The character acquisition unit 97 acquires the character when the recognition of the character represented by the character image after the image processing fails.

例えば、文字取得部97は、前記画像処理後の前記文字画像が表す文字の認識が失敗した場合に、当該文字の入力に用いられる文字入力画面を操作表示部6に表示させる。そして、文字取得部97は、前記文字入力画面におけるユーザーの操作に応じて、文字認識が失敗した前記文字画像が表す文字を取得する。 For example, the character acquisition unit 97 causes the operation display unit 6 to display a character input screen used for inputting the character when the recognition of the character represented by the character image after the image processing fails. Then, the character acquisition unit 97 acquires the character represented by the character image whose character recognition has failed in response to the user's operation on the character input screen.

第2対応付け部98は、文字取得部97により取得される文字と当該文字に対応する前記文字画像との組み合わせを、自装置にログイン中のユーザーに対応付ける。 The second mapping unit 98 associates the combination of the character acquired by the character acquisition unit 97 with the character image corresponding to the character to the user logged in to the own device.

例えば、画像処理装置10では、前記組み合わせが書き込まれる変換ファイルが予め前記ユーザー情報に付加されている。 For example, in the image processing apparatus 10, a conversion file in which the combination is written is added to the user information in advance.

そして、第2対応付け部98は、文字取得部97により文字が取得された場合に、当該文字と当該文字に対応する前記文字画像との前記組み合わせを、自装置にログイン中のユーザーに対応する前記変換ファイルに書き込む。 Then, when the character is acquired by the character acquisition unit 97, the second mapping unit 98 corresponds to the user who is logged in to the own device with the combination of the character and the character image corresponding to the character. Write to the conversion file.

なお、第2対応付け部98は、前記組み合わせを自装置にログイン中のユーザーが所属する前記グループに対応付けてもよい。例えば、前記変換ファイルは前記グループ情報に付加されていてもよい。また、第2対応付け部98は、文字取得部97により文字が取得された場合に、当該文字と当該文字に対応する前記文字画像との前記組み合わせを、自装置にログイン中のユーザーが所属する前記グループに対応する前記変換ファイルに書き込んでもよい。また、第2対応付け部98は、前記組み合わせの対応付け先をユーザーの操作に応じて切り替えてもよい。 The second mapping unit 98 may map the combination to the group to which the user logged in to the own device belongs. For example, the conversion file may be added to the group information. Further, in the second mapping unit 98, when a character is acquired by the character acquisition unit 97, the user who is logged in to the own device belongs to the combination of the character and the character image corresponding to the character. You may write to the conversion file corresponding to the group. Further, the second mapping unit 98 may switch the mapping destination of the combination according to the operation of the user.

ここで、文字認識部92は、自装置にログイン中のユーザー又は当該ユーザーが所属する前記グループに対応付けられた前記組み合わせが存在する場合は、当該組み合わせを用いて、前記文字画像が表す文字を認識可能である。例えば、文字認識部92は、前記文字画像と前記基準画像各々との一致率に基づく当該文字画像が表す文字の認識に失敗した場合に、前記組み合わせを用いて、前記文字画像が表す文字を認識する。 Here, if the combination associated with the user logged in to the own device or the group to which the user belongs exists, the character recognition unit 92 uses the combination to display the characters represented by the character image. It is recognizable. For example, when the character recognition unit 92 fails to recognize the character represented by the character image based on the matching rate between the character image and each of the reference images, the character recognition unit 92 recognizes the character represented by the character image by using the combination. do.

なお、制御部5は、前記組み合わせの未使用期間が予め定められた特定時間を超えた場合は、当該組み合わせと自装置にログイン中のユーザー又は当該ユーザーが所属する前記グループとの対応付けを解除してもよい。例えば、制御部5は、前記組み合わせを前記変換ファイルから削除してもよい。 When the unused period of the combination exceeds a predetermined specific time, the control unit 5 cancels the association between the combination and the user logged in to the own device or the group to which the user belongs. You may. For example, the control unit 5 may delete the combination from the conversion file.

また、制御部5は、文字取得部97及び第2対応付け部98を含んでいなくてもよい。 Further, the control unit 5 may not include the character acquisition unit 97 and the second association unit 98.

[文字認識処理]
以下、図3を参照しつつ、画像処理装置10において制御部5により実行される文字認識処理の手順の一例とともに、本発明の画像処理方法について説明する。ここで、ステップS11、S12・・・は、制御部5により実行される処理手順(ステップ)の番号を表している。なお、前記文字認識処理は、操作表示部6において前記文字認識処理の実行を指示する旨のユーザーの操作が行われた場合に実行される。
[Character recognition processing]
Hereinafter, the image processing method of the present invention will be described together with an example of the procedure of the character recognition processing executed by the control unit 5 in the image processing apparatus 10 with reference to FIG. Here, steps S11, S12 ... Represent the number of the processing procedure (step) executed by the control unit 5. The character recognition process is executed when the user operates the operation display unit 6 to instruct the execution of the character recognition process.

<ステップS11>
まず、ステップS11において、制御部5は、画像データを取得する。
<Step S11>
First, in step S11, the control unit 5 acquires image data.

例えば、制御部5は、画像読取部2に前記スキャン機能を実行させる。そして、制御部5は、画像読取部2から出力される前記読取画像データを取得する。 For example, the control unit 5 causes the image reading unit 2 to execute the scanning function. Then, the control unit 5 acquires the scanned image data output from the image reading unit 2.

<ステップS12>
ステップS12において、制御部5は、ステップS11で取得された画像データに含まれる前記文字画像を抽出する。
<Step S12>
In step S12, the control unit 5 extracts the character image included in the image data acquired in step S11.

なお、制御部5は、抽出された前記文字画像各々に対して、正規化処理及び二値化処理などを実行してもよい。 The control unit 5 may execute a normalization process, a binarization process, or the like on each of the extracted character images.

<ステップS13>
ステップS13において、制御部5は、ステップS12で抽出されたいずれかの前記文字画像が表す文字を認識する。ここで、ステップS13の処理は、本発明の文字認識ステップの一例であって、制御部5の文字認識部92により実行される。
<Step S13>
In step S13, the control unit 5 recognizes the character represented by any of the character images extracted in step S12. Here, the process of step S13 is an example of the character recognition step of the present invention, and is executed by the character recognition unit 92 of the control unit 5.

具体的に、制御部5は、前記文字画像と前記基準画像各々との一致率に基づいて、当該文字画像が表す文字を認識する。 Specifically, the control unit 5 recognizes the characters represented by the character image based on the matching rate between the character image and each of the reference images.

<ステップS14>
ステップS14において、制御部5は、ステップS13において文字の認識が失敗したか否かを判断する。
<Step S14>
In step S14, the control unit 5 determines whether or not the character recognition has failed in step S13.

ここで、制御部5は、文字の認識が失敗したと判断すると(S14のYes側)、処理をステップS15に移行させる。また、文字の認識が失敗していなければ(S14のNo側)、制御部5は、処理をステップS16に移行させる。 Here, when the control unit 5 determines that the character recognition has failed (Yes side of S14), the control unit 5 shifts the process to step S15. If the character recognition has not failed (No side of S14), the control unit 5 shifts the process to step S16.

<ステップS15>
ステップS15において、制御部5は、ステップS13における文字の認識の失敗、及び認識に失敗した前記文字画像を記録する。
<Step S15>
In step S15, the control unit 5 records the character recognition failure in step S13 and the character image that failed to be recognized.

例えば、制御部5は、RAM53における予め定められた特定記憶領域に、ステップS13における文字の認識の失敗、及び認識に失敗した前記文字画像を記録する。 For example, the control unit 5 records the failure of character recognition in step S13 and the character image that failed in recognition in a predetermined specific storage area in the RAM 53.

<ステップS16>
ステップS16において、制御部5は、ステップS12で抽出された全ての前記文字画像に対してステップS13の処理が実行されたか否かを判断する。
<Step S16>
In step S16, the control unit 5 determines whether or not the process of step S13 has been executed for all the character images extracted in step S12.

ここで、制御部5は、全ての前記文字画像に対してステップS13の処理が実行されたと判断すると(S16のYes側)、処理をステップS17に移行させる。また、全ての前記文字画像に対してステップS13の処理が実行されていなければ(S16のNo側)、制御部5は、処理をステップS13に移行させる。 Here, when the control unit 5 determines that the process of step S13 has been executed for all the character images (Yes side of S16), the control unit 5 shifts the process to step S17. Further, if the process of step S13 is not executed for all the character images (No side of S16), the control unit 5 shifts the process to step S13.

<ステップS17>
ステップS17において、制御部5は、文字の認識に失敗した前記文字画像が存在するか否かを判断する。
<Step S17>
In step S17, the control unit 5 determines whether or not the character image that fails to recognize the character exists.

例えば、制御部5は、RAM53の前記特定記憶領域の記憶内容に基づいて、文字の認識に失敗した前記文字画像が存在するか否かを判断する。 For example, the control unit 5 determines whether or not the character image that fails to recognize the character exists based on the storage content of the specific storage area of the RAM 53.

ここで、制御部5は、文字の認識に失敗した前記文字画像が存在すると判断すると(S17のYes側)、処理をステップS18に移行させる。また、文字の認識に失敗した前記文字画像が存在しなければ(S17のNo側)、制御部5は、処理をステップS19に移行させる。 Here, when the control unit 5 determines that the character image that has failed in character recognition exists (Yes side of S17), the control unit 5 shifts the process to step S18. If the character image that failed to recognize the character does not exist (No side of S17), the control unit 5 shifts the process to step S19.

<ステップS18>
ステップS18において、制御部5は、後述する第1再認識処理を実行する。
<Step S18>
In step S18, the control unit 5 executes the first re-recognition process described later.

<ステップS19>
ステップS19において、制御部5は、ステップS11で取得された画像データに含まれる前記文字画像が表す文字の認識結果を出力する。
<Step S19>
In step S19, the control unit 5 outputs the recognition result of the character represented by the character image included in the image data acquired in step S11.

例えば、制御部5は、認識結果を示すデータを記憶部8に格納する。 For example, the control unit 5 stores data indicating the recognition result in the storage unit 8.

[第1再認識処理]
次に、図4を参照しつつ、前記文字認識処理のステップS18で実行される第1再認識処理について説明する。
[First re-recognition process]
Next, with reference to FIG. 4, the first re-recognition process executed in step S18 of the character recognition process will be described.

<ステップS21>
まず、ステップS21において、制御部5は、前記文字認識処理のステップS13で文字認識に失敗した前記文字画像を含む前記組み合わせが自装置にログイン中のユーザーに対応付けられているか否かを判断する。
<Step S21>
First, in step S21, the control unit 5 determines whether or not the combination including the character image that failed in character recognition in step S13 of the character recognition process is associated with the user logged in to the own device. ..

例えば、制御部5は、ログイン中のユーザーに対応する前記変換ファイルに、文字認識に失敗した前記文字画像を含む前記組み合わせが書き込まれている場合に、当該組み合わせがログイン中のユーザーに対応付けられていると判断する。 For example, when the combination including the character image that fails in character recognition is written in the conversion file corresponding to the logged-in user, the control unit 5 associates the combination with the logged-in user. Judge that it is.

ここで、制御部5は、文字認識に失敗した前記文字画像を含む前記組み合わせがログイン中のユーザーに対応付けられていると判断すると(S21のYes側)、処理をステップS22に移行させる。また、文字認識に失敗した前記文字画像を含む前記組み合わせがログイン中のユーザーに対応付けられていなければ(S21のNo側)、制御部5は、処理をステップS24に移行させる。 Here, when the control unit 5 determines that the combination including the character image whose character recognition has failed is associated with the logged-in user (Yes side of S21), the control unit 5 shifts the process to step S22. Further, if the combination including the character image for which character recognition has failed is not associated with the logged-in user (No side of S21), the control unit 5 shifts the process to step S24.

<ステップS22>
ステップS22において、制御部5は、前記文字認識処理のステップS13で文字認識に失敗した前記文字画像を含む前記組み合わせを用いて、当該文字画像を認識する。ここで、ステップS22の処理は、制御部5の文字認識部92により実行される。
<Step S22>
In step S22, the control unit 5 recognizes the character image by using the combination including the character image that failed in character recognition in step S13 of the character recognition process. Here, the process of step S22 is executed by the character recognition unit 92 of the control unit 5.

<ステップS23>
ステップS23において、制御部5は、前記文字認識処理のステップS12で抽出された前記文字画像のすべてについて文字が認識されたか否かを判断する。
<Step S23>
In step S23, the control unit 5 determines whether or not the characters have been recognized for all of the character images extracted in step S12 of the character recognition process.

ここで、制御部5は、前記文字認識処理のステップS12で抽出された前記文字画像のすべてについて文字が認識されたと判断すると(S23のYes側)、前記第1再認識処理を終了させる。また、前記文字認識処理のステップS12で抽出された前記文字画像のすべてについて文字が認識されていなければ(S23のNo側)、制御部5は、処理をステップS24に移行させる。 Here, when the control unit 5 determines that the characters have been recognized for all of the character images extracted in step S12 of the character recognition process (Yes side of S23), the control unit 5 ends the first re-recognition process. If the characters are not recognized for all of the character images extracted in step S12 of the character recognition process (No side of S23), the control unit 5 shifts the process to step S24.

<ステップS24>
ステップS24において、制御部5は、以下に説明する第2再認識処理を実行する。
<Step S24>
In step S24, the control unit 5 executes the second re-recognition process described below.

[第2再認識処理]
次に、図5を参照しつつ、前記第1再認識処理のステップS24で実行される第2再認識処理について説明する。
[Second re-recognition process]
Next, the second re-recognition process executed in step S24 of the first re-recognition process will be described with reference to FIG.

<ステップS31>
まず、ステップS31において、制御部5は、自装置にログイン中のユーザーに対応付けられた前記特徴が存在するか否かを判断する。
<Step S31>
First, in step S31, the control unit 5 determines whether or not the feature associated with the user logged in to the own device exists.

例えば、制御部5は、ログイン中のユーザーに対応する前記ユーザー情報に前記特徴情報が付加されている場合に、ログイン中のユーザーに対応付けられた前記特徴が存在すると判断する。 For example, the control unit 5 determines that the feature associated with the logged-in user exists when the feature information is added to the user information corresponding to the logged-in user.

ここで、制御部5は、ログイン中のユーザーに対応付けられた前記特徴が存在すると判断すると(S31のYes側)、処理をステップS35に移行させる。また、ログイン中のユーザーに対応付けられた前記特徴が存在しなければ(S31のNo側)、制御部5は、処理をステップS32に移行させる。 Here, when the control unit 5 determines that the feature associated with the logged-in user exists (Yes side of S31), the control unit 5 shifts the process to step S35. Further, if the feature associated with the logged-in user does not exist (No side of S31), the control unit 5 shifts the process to step S32.

<ステップS32>
ステップS32において、制御部5は、前記文字認識処理のステップS11で取得された画像データに含まれる前記特定文字画像と当該特定文字画像に対応する前記特定基準画像との比較結果に基づいて、当該特定文字画像が前記特徴を有するか否かを判断する。ここで、ステップS32の処理は、制御部5の特徴判断部93により実行される。
<Step S32>
In step S32, the control unit 5 determines that the specific character image included in the image data acquired in step S11 of the character recognition process is compared with the specific reference image corresponding to the specific character image. It is determined whether or not the specific character image has the above-mentioned characteristics. Here, the process of step S32 is executed by the feature determination unit 93 of the control unit 5.

例えば、制御部5は、前記文字認識処理のステップS13で文字認識に成功した前記文字画像のうち、前記基準画像との一致率が前記第1閾値よりも高い第2閾値を超える前記文字画像を前記特定文字画像に設定する。そして、制御部5は、設定された前記特定文字画像と当該特定文字画像に対応する前記特定基準画像との比較結果に基づいて、当該特定文字画像が前記特徴を有するか否かを判断する。 For example, the control unit 5 selects the character image whose matching rate with the reference image exceeds the second threshold value higher than the first threshold value among the character images that have succeeded in character recognition in step S13 of the character recognition process. It is set to the specific character image. Then, the control unit 5 determines whether or not the specific character image has the characteristics based on the comparison result between the set specific character image and the specific reference image corresponding to the specific character image.

なお、制御部5は、前記特定文字画像が複数の前記特徴を有すると判断してもよい。 The control unit 5 may determine that the specific character image has the plurality of features.

<ステップS33>
ステップS33において、制御部5は、前記画像処理が前記特定文字画像と前記特定基準画像との一致率を向上可能であるか否かを判断する。ここで、ステップS33の処理は、本発明の判断ステップの一例であって、制御部5の判断処理部94により実行される。
<Step S33>
In step S33, the control unit 5 determines whether or not the image processing can improve the matching rate between the specific character image and the specific reference image. Here, the process of step S33 is an example of the determination step of the present invention, and is executed by the determination processing unit 94 of the control unit 5.

具体的に、制御部5は、ステップS32において前記特定文字画像が前記特徴を有すると判断された場合に、当該特徴に対応する前記画像処理が前記特定文字画像と前記特定基準画像との一致率を向上可能であると判断する。 Specifically, when the control unit 5 determines in step S32 that the specific character image has the characteristic, the image processing corresponding to the characteristic has a matching rate between the specific character image and the specific reference image. Is judged to be possible to improve.

ここで、制御部5は、前記画像処理が前記特定文字画像と前記特定基準画像との一致率を向上可能であると判断すると(S33のYes側)、処理をステップS34に移行させる。また、前記画像処理が前記特定文字画像と前記特定基準画像との一致率を向上可能でなければ(S33のNo側)、制御部5は、処理をステップS38に移行させる。 Here, when the control unit 5 determines that the image processing can improve the matching rate between the specific character image and the specific reference image (Yes side of S33), the control unit 5 shifts the processing to step S34. Further, if the image processing cannot improve the matching rate between the specific character image and the specific reference image (No side of S33), the control unit 5 shifts the processing to step S38.

<ステップS34>
ステップS34において、制御部5は、ステップS32で前記特定文字画像が有すると判断された前記特徴を自装置にログイン中のユーザーに対応付ける第1対応付け処理を実行する。ここで、ステップS34の処理は、制御部5の第1対応付け部95により実行される。
<Step S34>
In step S34, the control unit 5 executes the first associating process of associating the feature determined to be possessed by the specific character image with the user logged in to the own device in step S32. Here, the process of step S34 is executed by the first mapping unit 95 of the control unit 5.

<ステップS35>
ステップS35において、制御部5は、未だ文字が認識されていない前記文字画像各々に対して前記画像処理を実行する。ここで、ステップS35の処理は、本発明の処理実行ステップの一例であって、制御部5の処理実行部96により実行される。
<Step S35>
In step S35, the control unit 5 executes the image processing for each of the character images for which the characters have not been recognized yet. Here, the process of step S35 is an example of the process execution step of the present invention, and is executed by the process execution unit 96 of the control unit 5.

具体的に、制御部5は、ステップS31でログイン中のユーザーに対応付けられた前記特徴が存在すると判断された場合は、当該特徴に対応する前記画像処理を実行する。また、制御部5は、ステップS33で前記画像処理が前記特定文字画像と前記特定基準画像との一致率を向上可能であると判断された場合は、ステップS32で前記特定文字画像が有すると判断された前記特徴に対応する前記画像処理を実行する。 Specifically, when it is determined in step S31 that the feature associated with the logged-in user exists, the control unit 5 executes the image processing corresponding to the feature. Further, when the control unit 5 determines in step S33 that the image processing can improve the matching rate between the specific character image and the specific reference image, the control unit 5 determines in step S32 that the specific character image has. The image processing corresponding to the said feature is executed.

例えば、制御部5は、ステップS32で前記特定文字画像が有すると判断された前記特徴が前記第1特徴である場合は、未だ文字が認識されていない前記文字画像各々に対して当該文字画像を時計回り方向に予め定められた基準角度だけ回転させる前記回転処理を実行する。 For example, when the feature determined to be possessed by the specific character image in step S32 is the first feature, the control unit 5 displays the character image for each of the character images for which the character has not been recognized yet. The rotation process of rotating a character by a predetermined reference angle in the clockwise direction is executed.

また、制御部5は、ステップS32で前記特定文字画像が有すると判断された前記特徴が前記第2特徴である場合は、未だ文字が認識されていない前記文字画像各々に対して前記角部強調処理を実行する。 Further, when the feature determined to be possessed by the specific character image in step S32 is the second feature, the control unit 5 emphasizes the corner portion for each of the character images for which the character has not been recognized yet. Execute the process.

また、制御部5は、ステップS32で前記特定文字画像が有すると判断された前記特徴が前記第3特徴である場合は、未だ文字が認識されていない前記文字画像各々に対して前記細線消去処理を実行する。 Further, when the feature determined to be possessed by the specific character image in step S32 is the third feature, the control unit 5 performs the fine line erasing process for each of the character images for which characters have not yet been recognized. To execute.

<ステップS36>
ステップS36において、制御部5は、ステップS35で前記画像処理が実行された前記文字画像各々が表す文字を認識する。ここで、ステップS36の処理は、制御部5の文字認識部92により実行される。
<Step S36>
In step S36, the control unit 5 recognizes the characters represented by each of the character images for which the image processing was executed in step S35. Here, the process of step S36 is executed by the character recognition unit 92 of the control unit 5.

<ステップS37>
ステップS37において、制御部5は、ステップS36で文字の認識に失敗した前記文字画像が存在するか否かを判断する。
<Step S37>
In step S37, the control unit 5 determines whether or not the character image whose character recognition has failed in step S36 exists.

ここで、制御部5は、文字の認識に失敗した前記文字画像が存在すると判断すると(S37のYes側)、処理をステップS38に移行させる。また、文字の認識に失敗した前記文字画像が存在しなければ(S37のNo側)、制御部5は、前記第2再認識処理を終了させる。 Here, when the control unit 5 determines that the character image that has failed in character recognition exists (Yes side of S37), the control unit 5 shifts the process to step S38. If the character image that failed to recognize the character does not exist (No side of S37), the control unit 5 ends the second re-recognition process.

なお、制御部5は、文字の認識に失敗した前記文字画像が存在する場合に、処理をステップS35に移行させて、当該文字画像に対して前回とは異なる実行条件で前記画像処理を実行してもよい。この場合、制御部5は、ステップS37において、ステップS35の処理における文字認識の失敗回数が予め定められた条件回数に達した場合に、処理をステップS38に移行させてもよい。 When the character image that fails to recognize the character exists, the control unit 5 shifts the processing to step S35 and executes the image processing on the character image under execution conditions different from the previous time. You may. In this case, the control unit 5 may shift the process to step S38 when the number of character recognition failures in the process of step S35 reaches a predetermined number of conditions in step S37.

<ステップS38>
ステップS38において、制御部5は、ステップS36で文字の認識に失敗した前記文字画像が表す文字を取得する。ここで、ステップS38の処理は、制御部5の文字取得部97により実行される。
<Step S38>
In step S38, the control unit 5 acquires the character represented by the character image that failed to recognize the character in step S36. Here, the process of step S38 is executed by the character acquisition unit 97 of the control unit 5.

具体的に、制御部5は、前記文字入力画面を操作表示部6に表示させる。そして、制御部5は、前記文字入力画面におけるユーザーの操作に応じて、文字認識が失敗した前記文字画像が表す文字を取得する。 Specifically, the control unit 5 causes the operation display unit 6 to display the character input screen. Then, the control unit 5 acquires the character represented by the character image whose character recognition has failed in response to the user's operation on the character input screen.

<ステップS39>
ステップS39において、制御部5は、ステップS38で取得された文字と当該文字に対応する前記文字画像との前記組み合わせを、自装置にログイン中のユーザーに対応付ける。ここで、ステップS39の処理は、制御部5の第2対応付け部98により実行される。
<Step S39>
In step S39, the control unit 5 associates the combination of the character acquired in step S38 with the character image corresponding to the character with the user logged in to the own device. Here, the process of step S39 is executed by the second mapping unit 98 of the control unit 5.

具体的に、制御部5は、前記組み合わせをログイン中のユーザーに対応する前記変換ファイルに書き込む。 Specifically, the control unit 5 writes the combination in the conversion file corresponding to the logged-in user.

このように、画像処理装置10では、前記画像処理が画像データに含まれる前記特定文字を表す前記特定文字画像と当該特定文字を表す前記特定基準画像との一致率を向上可能であるか否かが判断されて、向上可能であると判断された場合に、当該画像データに含まれる文字認識対象の前記文字画像に対して当該画像処理が実行される。これにより、手書き文字を表す画像と当該画像が表す文字との対応関係を示すデータを用いることなく、手書き文字の識字率を向上可能である。 As described above, in the image processing apparatus 10, whether or not the image processing can improve the matching rate between the specific character image representing the specific character included in the image data and the specific reference image representing the specific character. When it is determined that the image can be improved, the image processing is executed on the character image to be recognized as the character included in the image data. This makes it possible to improve the literacy rate of handwritten characters without using data indicating the correspondence between the image representing the handwritten characters and the characters represented by the image.

1 ADF
2 画像読取部
3 画像形成部
4 給紙部
5 制御部
6 操作表示部
7 通信部
8 記憶部
10 画像処理装置
91 認証処理部
92 文字認識部
93 特徴判断部
94 判断処理部
95 第1対応付け部
96 処理実行部
97 文字取得部
98 第2対応付け部
1 ADF
2 Image reading unit 3 Image forming unit 4 Paper feeding unit 5 Control unit 6 Operation display unit 7 Communication unit 8 Storage unit 10 Image processing device 91 Authentication processing unit 92 Character recognition unit 93 Feature judgment unit 94 Judgment processing unit 95 First correspondence Part 96 Processing execution part 97 Character acquisition part 98 Second mapping part

Claims (8)

画像データに含まれる文字画像と予め定められた文字を表す基準画像各々との一致率に基づいて、当該文字画像が表す文字を認識する文字認識部と、
予め定められた画像処理が前記文字画像のうち予め定められた特定文字を表す特定文字画像と前記基準画像のうち前記特定文字を表す特定基準画像との一致率を向上可能であるか否かを判断する判断処理部と、
前記判断処理部によって前記画像処理が前記特定文字画像と前記特定基準画像との一致率を向上可能であると判断された場合に、前記文字認識部により文字が認識される前記文字画像に対して当該画像処理を実行する処理実行部と、
を備える画像処理装置。
A character recognition unit that recognizes the characters represented by the character image based on the matching rate between the character image included in the image data and each of the reference images representing the predetermined characters.
Whether or not the predetermined image processing can improve the matching rate between the specific character image representing the predetermined specific character in the character image and the specific reference image representing the specific character in the reference image. Judgment processing unit to judge and
When the image processing determines that the matching rate between the specific character image and the specific reference image can be improved by the determination processing unit, the character recognition unit recognizes the character with respect to the character image. The processing execution unit that executes the image processing and
An image processing device comprising.
前記特定文字は、前記文字認識部によって認識された文字を含む、
請求項1に記載の画像処理装置。
The specific character includes a character recognized by the character recognition unit.
The image processing apparatus according to claim 1.
前記判断処理部は、前記文字認識部による文字の認識が失敗した場合に、前記画像処理が前記特定文字画像と前記特定基準画像との一致率を向上可能であるか否かを判断し、
前記処理実行部は、前記文字認識部による文字の認識が失敗した前記文字画像に対して前記画像処理を実行する、
請求項1又は2に記載の画像処理装置。
The determination processing unit determines whether or not the image processing can improve the matching rate between the specific character image and the specific reference image when the character recognition by the character recognition unit fails.
The processing execution unit executes the image processing on the character image in which the character recognition by the character recognition unit fails.
The image processing apparatus according to claim 1 or 2.
前記文字認識部による文字の認識が失敗した場合に、前記特定文字画像と前記特定基準画像との比較結果に基づいて、前記特定文字画像が予め定められた特徴を有するか否かを判断可能な特徴判断部を備え、
前記画像処理は、前記特徴に予め対応付けられた処理であって、
前記判断処理部は、前記特徴判断部によって前記特定文字画像が前記特徴を有すると判断された場合に、当該特徴に対応する前記画像処理が前記特定文字画像と前記特定基準画像との一致率を向上可能であると判断する、
請求項3に記載の画像処理装置。
When the character recognition by the character recognition unit fails, it is possible to determine whether or not the specific character image has predetermined characteristics based on the comparison result between the specific character image and the specific reference image. Equipped with a feature judgment unit
The image processing is a process associated with the feature in advance.
When the characteristic determination unit determines that the specific character image has the characteristic, the determination processing unit determines that the image processing corresponding to the characteristic determines the matching rate between the specific character image and the specific reference image. Judging that it can be improved,
The image processing apparatus according to claim 3.
前記特徴判断部によって前記特定文字画像が前記特徴を有すると判断された場合に、当該特徴を自装置にログイン中のユーザー又は当該ユーザーが所属するグループに対応付ける第1対応付け部を備え、
前記特徴判断部は、自装置にログイン中の前記ユーザー又は当該ユーザーが所属する前記グループに対応付けられた前記特徴が存在する場合に、前記特定文字画像が当該特徴を有するか否かを判断せず、
前記処理実行部は、自装置にログイン中の前記ユーザー又は当該ユーザーが所属する前記グループに対応付けられた前記特徴が存在する場合に、前記文字画像に対して当該特徴に対応する前記画像処理を実行する、
請求項4に記載の画像処理装置。
When the feature determination unit determines that the specific character image has the feature, the feature determination unit is provided with a first mapping unit that associates the feature with the user logged in to the own device or the group to which the user belongs.
The feature determination unit determines whether or not the specific character image has the feature when the feature associated with the user logged in to the own device or the group to which the user belongs exists. figure,
When the feature associated with the user logged in to the own device or the group to which the user belongs exists, the processing execution unit performs the image processing corresponding to the feature on the character image. Run,
The image processing apparatus according to claim 4.
前記画像処理後の前記文字画像が表す文字の認識が失敗した場合に、当該文字を取得する文字取得部と、
前記文字取得部により取得される文字と当該文字に対応する前記文字画像との組み合わせを自装置にログイン中のユーザー又は当該ユーザーが所属するグループに対応付ける第2対応付け部と、
を備え、
前記文字認識部は、自装置にログイン中の前記ユーザー又は当該ユーザーが所属する前記グループに対応付けられた前記組み合わせが存在する場合は、当該組み合わせを用いて前記文字画像が表す文字を認識可能である、
請求項1~5のいずれかに記載の画像処理装置。
When the recognition of the character represented by the character image after the image processing fails, the character acquisition unit for acquiring the character and the character acquisition unit.
A second mapping unit that associates a combination of a character acquired by the character acquisition unit with the character image corresponding to the character to a user logged in to the own device or a group to which the user belongs.
Equipped with
When the combination associated with the user logged in to the own device or the group to which the user belongs exists, the character recognition unit can recognize the character represented by the character image using the combination. be,
The image processing apparatus according to any one of claims 1 to 5.
原稿の画像を読み取り、読み取った前記画像を含む読取画像データを出力する画像読取部を備え、
前記画像データは、前記読取画像データを含む、
請求項1~6のいずれかに記載の画像処理装置。
It is equipped with an image reading unit that reads the image of the original and outputs the scanned image data including the scanned image.
The image data includes the read image data.
The image processing apparatus according to any one of claims 1 to 6.
画像データに含まれる文字画像と予め定められた文字を表す基準画像各々との一致率に基づいて、当該文字画像が表す文字を認識する文字認識ステップと、
予め定められた画像処理が前記文字画像のうち予め定められた特定文字を表す特定文字画像と前記基準画像のうち前記特定文字を表す特定基準画像との一致率を向上可能であるか否かを判断する判断ステップと、
前記判断ステップによって前記画像処理が前記特定文字画像と前記特定基準画像との一致率を向上可能であると判断された場合に、前記文字認識ステップにより文字が認識される前記文字画像に対して当該画像処理を実行する処理実行ステップと、
を含む画像処理方法。
A character recognition step for recognizing a character represented by the character image based on a matching rate between the character image included in the image data and each of the reference images representing the predetermined characters, and a character recognition step.
Whether or not the predetermined image processing can improve the matching rate between the specific character image representing the predetermined specific character in the character image and the specific reference image representing the specific character in the reference image. Judgment steps to judge and
When it is determined by the determination step that the image processing can improve the matching rate between the specific character image and the specific reference image, the character image is recognized by the character recognition step. Processing execution step to execute image processing and
Image processing methods including.
JP2020161884A 2020-09-28 2020-09-28 Image processing apparatus and image processing method Pending JP2022054710A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020161884A JP2022054710A (en) 2020-09-28 2020-09-28 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020161884A JP2022054710A (en) 2020-09-28 2020-09-28 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2022054710A true JP2022054710A (en) 2022-04-07

Family

ID=80997596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020161884A Pending JP2022054710A (en) 2020-09-28 2020-09-28 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2022054710A (en)

Similar Documents

Publication Publication Date Title
US20190297207A1 (en) Display control device, method, and non-transitory computer readable medium for recommending that a user use a normal screen rather than a simple screen
US8037513B2 (en) Image processing system including plurality of image processing apparatuses used by plurality of users, image processing apparatus included in the image processing system
US7611050B2 (en) Image processing system including plurality of image processing apparatuses connected to network for use by plurality of users, and image processing apparatus included in the image processing system
US8760675B2 (en) Image reading apparatus and image reading system having a reading preference input operation
CN104954612A (en) Image processing system, image processing apparatus, information processing apparatus and image processing method
JP4807068B2 (en) Image reading system
CN104683638B (en) The image processing system and its control method of user&#39;s setting can be reproduced
US10474798B2 (en) Information processing apparatus, control method of information processing apparatus, and storage medium
JP7192321B2 (en) Information processing device and information processing program
JP5971030B2 (en) Information processing system, cooperation management device, information processing device, information processing system control method, information processing system control program
JP5911795B2 (en) Image forming apparatus and image forming method
JP2018093306A (en) Image reading device, image formation device, and mage reading method
JP2021015490A (en) Image processing device and method for improving recognition accuracy
JP2022054710A (en) Image processing apparatus and image processing method
JP6536683B2 (en) Document reading apparatus and image forming apparatus
US11475213B2 (en) Information processing apparatus and image forming apparatus that add modification history to modified source image, according to modification made
JP6061903B2 (en) Image reading apparatus and image forming apparatus
US10855855B2 (en) Image processing apparatus eliminating redundancy in scanned text data
US8634093B2 (en) Image processing apparatus capable of recording user information into external recording medium, and control method and recording medium therefor
US20080056545A1 (en) Image processing apparatus, image processing method, program for image processing method and its storage medium
JP7428257B2 (en) image forming device
US11785152B2 (en) Image forming apparatus in which a desired function can be selectively executed, method of controlling the same, and storage medium
JP2019139423A (en) Information processing apparatus, image forming apparatus, and image selection method
JP5992751B2 (en) Image forming apparatus and control method thereof
JP6604314B2 (en) Image reading apparatus, image forming apparatus, and image reading method