JP2021144526A - Image processing device, image reader device, determination method, program, and storage medium - Google Patents
Image processing device, image reader device, determination method, program, and storage medium Download PDFInfo
- Publication number
- JP2021144526A JP2021144526A JP2020043304A JP2020043304A JP2021144526A JP 2021144526 A JP2021144526 A JP 2021144526A JP 2020043304 A JP2020043304 A JP 2020043304A JP 2020043304 A JP2020043304 A JP 2020043304A JP 2021144526 A JP2021144526 A JP 2021144526A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- input
- character
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像処理装置等に関する。 The present invention relates to an image processing apparatus and the like.
近年、デジタル画像処理システムが目覚ましい発達を遂げ、デジタル画像処理技術の構築が進んでいる。例えば、電子写真方式又はインクジェット方式を用いた複写機、複合機(MFP:Multi-Function Printer)等の分野では、文書の原稿がスキャナで読み取られて電子データである文書ファイルとして保存され、文書ファイルを圧縮してe-mailで送信することがなされている。 In recent years, digital image processing systems have made remarkable progress, and the construction of digital image processing technology is progressing. For example, in the fields of copiers and multi-function printers (MFPs) that use electrophotographic or inkjet methods, a document document is read by a scanner and saved as a document file that is electronic data, and is a document file. Is compressed and sent by e-mail.
昨今では、自動シートフィーダ(ADF:Auto Document Feeder)が搭載された複合機が広く普及している。利用者は、読み取る原稿をADFにセットすることで、スキャナに原稿を自動で順次搬送させて、一面ずつ、原稿の画像の読み取りを行わせることができる。ADFを備える複合機により、利用者に対して、原稿をスキャンするたびに読み取る面を原稿台にセットし直すといった負担を軽減させることができる。 In recent years, multifunction devices equipped with an automatic seat feeder (ADF: Auto Document Feeder) have become widespread. By setting the document to be read in the ADF, the user can automatically sequentially convey the document to the scanner and have the image of the document read one side at a time. The multifunction device provided with the ADF can reduce the burden on the user, such as resetting the scanning surface on the platen every time the document is scanned.
一方で、利用者は、複合機に複数の原稿を一度に読み取る場合、利用者にとって読みやすい方向に原稿の方向を揃えないと、得られる文書ファイルの利便性を低下させてしまうという問題がある。原稿の方向が利用者にとって読みやすい方向に揃っていないと、利用者は、複合機から得られる文書ファイルを表示装置等に表示させたとき、表示された原稿画像を回転させる操作を行わなければならない。一方で、利用者にとっては、ADFにセットする原稿の方向を手作業で揃えることは手間がかかる。その上、読み取る原稿によっては長辺綴じで両面に印字している場合もあれば、短辺綴じで両面に印字している場合もあり、これらが混在する複数の原稿の方向を、利用者の手作業だけで揃えることは不可能である。 On the other hand, when a user reads a plurality of documents at once on a multifunction device, there is a problem that the convenience of the obtained document file is reduced unless the directions of the documents are aligned in a direction that is easy for the user to read. .. If the orientation of the manuscript is not aligned in a direction that is easy for the user to read, the user must perform an operation to rotate the displayed manuscript image when the document file obtained from the multifunction device is displayed on a display device or the like. It doesn't become. On the other hand, it is troublesome for the user to manually align the directions of the documents to be set in the ADF. In addition, depending on the original to be read, it may be printed on both sides with long-edge binding, or it may be printed on both sides with short-edge binding. It is impossible to arrange them by hand.
上記のような状況を鑑みて、例えば、光学的文字認識(OCR:Optical Character Recognition)技術を用いて、原稿を読み取ることで入力された画像(入力画像)に含まれる個々の文字の画像を識別し、その識別の精度が高い方向を、入力画像の方向であるとして判断する技術が広く知られている。この技術を実現するソフトウェアを複合機などに組み込むことで、入力画像毎に方向を自動的に判定することができる。更に、判定した方向に応じて画像を入力回転させることで、入力画像を正しいページ方向、すなわち、文字が転倒していないこと(文字が正しい向きになっていること)が利用者によって認識される可能性が最も高い方向に揃えることが可能となる。 In view of the above situation, for example, using optical character recognition (OCR) technology, the image of each character included in the input image (input image) is identified by scanning the original. However, a technique for determining the direction in which the identification accuracy is high is widely known as the direction of the input image. By incorporating software that realizes this technology into a multifunction device or the like, the direction can be automatically determined for each input image. Furthermore, by inputting and rotating the image according to the determined direction, the user recognizes that the input image has the correct page orientation, that is, the characters have not fallen (the characters are in the correct orientation). It is possible to align in the direction with the highest possibility.
例えば、入力画像に対して、0°、90°、180°、270°の4方向で文字認識処理を行い、最も高い確からしさが得られた方向を入力画像の方向として決定する技術が提案されている(例えば、特許文献1参照)。 For example, a technique has been proposed in which character recognition processing is performed on an input image in four directions of 0 °, 90 °, 180 °, and 270 °, and the direction in which the highest certainty is obtained is determined as the direction of the input image. (See, for example, Patent Document 1).
また、OCRを不要とする技術として、入力画像の中で文字と判断した黒色画素をブロックに分割し、ブロックごとに黒色画素の方向性を示すベクトルを検出して入力画像の方向を判定する技術が提案されている(例えば、特許文献2参照)。 Further, as a technology that does not require OCR, a technology that divides black pixels judged to be characters in an input image into blocks, detects a vector indicating the directionality of the black pixels for each block, and determines the direction of the input image. Has been proposed (see, for example, Patent Document 2).
また、入力画像から抽出した字体要素から、相対位置毎に所定の画素パターンにマッチする特徴点の分布の特性を求め、その分布の特性と予めトレーニング画像データを用いて求めた分布の特性とを比較して、入力画像の方向を判定する技術が提案されている(例えば、特許文献3参照)。 In addition, from the font elements extracted from the input image, the characteristics of the distribution of feature points that match a predetermined pixel pattern for each relative position are obtained, and the characteristics of the distribution and the characteristics of the distribution obtained in advance using the training image data are obtained. A technique for determining the direction of an input image by comparison has been proposed (see, for example, Patent Document 3).
利用者の利便性を向上させるためには、複合機は、入力画像の方向を適切に判定する必要がある。しかし、特許文献1に開示された技術は、利用者によって複合機が利用される地域に応じた言語へOCRを対応させるためのコストを必要とするという課題がある。特許文献2に開示された技術は、文字のデータベースによる文字の認識を必要としており、幅広い言語に対応する場合にはデータベースの規模が膨大となるという課題がある。特許文献3に開示された技術は、画数が多く形状も複雑な漢字などでは方向毎の分布特性に違いが乏しく、アジア系の言語に対しては、方向を特定しづらいという課題がある。
In order to improve the convenience of the user, the multifunction device needs to appropriately determine the direction of the input image. However, the technology disclosed in
上述した課題に鑑み、本発明は、入力画像の方向を適切に判定することが可能な画像処理装置等を提供することを目的とする。 In view of the above-mentioned problems, it is an object of the present invention to provide an image processing apparatus or the like capable of appropriately determining the direction of an input image.
上述した課題を解決するために、本発明の画像処理装置は、
入力画像から文字を構成する要素を含む領域の画像を領域画像として抽出する抽出部と、
前記領域画像から、文字を構成する要素を示す部分画像を検出する検出部と、
前記検出した部分画像に基づいて、前記入力画像の方向を判定する判定部と、
を備えることを特徴とする。
In order to solve the above-mentioned problems, the image processing apparatus of the present invention
An extraction unit that extracts an image of the area containing elements that make up characters from the input image as an area image,
A detection unit that detects a partial image showing the elements that make up the character from the area image,
A determination unit that determines the direction of the input image based on the detected partial image,
It is characterized by having.
本発明の画像読み取り装置は
上述の画像処理装置と、
画像を読み取り、読み取った画像の入力画像を前記画像処理装置に入力する画像入力部と、
を備えることを特徴とする。
The image reading device of the present invention includes the above-mentioned image processing device and
An image input unit that reads an image and inputs the scanned image to the image processing device,
It is characterized by having.
本発明の判定方法は、
入力画像から文字を構成する要素を含む領域の画像を領域画像として抽出するステップと、
前記領域画像から、文字を構成する要素を示す部分画像を検出するステップと、
前記検出した部分画像に基づいて、前記入力画像の方向を判定するステップと、
を含むことを特徴とする。
The determination method of the present invention is
A step of extracting an image of an area containing elements constituting characters from an input image as an area image, and
A step of detecting a partial image showing an element constituting a character from the area image, and
A step of determining the direction of the input image based on the detected partial image, and
It is characterized by including.
本発明のプログラムは、
コンピュータに、
入力画像から文字を構成する要素を含む領域の画像を領域画像として抽出する機能と、
前記領域画像から、文字を構成する要素を示す部分画像を検出する機能と、
前記検出した部分画像に基づいて、前記入力画像の方向を判定する機能と、
を実現させることを特徴とする。
The program of the present invention
On the computer
A function to extract an image of an area containing elements that make up characters from an input image as an area image,
A function to detect a partial image showing elements constituting characters from the area image, and
A function of determining the direction of the input image based on the detected partial image, and
It is characterized by realizing.
本発明の記録媒体は、上記プログラムを記録したコンピュータ読み取り可能な記録媒体であることを特徴とする。 The recording medium of the present invention is a computer-readable recording medium on which the above program is recorded.
本発明によれば、入力画像の方向を適切に判定することが可能となる。 According to the present invention, it is possible to appropriately determine the direction of the input image.
以下、本発明の実施の形態について、図面を参照して説明する。なお、本実施形態では、一例として、本発明を適用した画像処理装置を備えた画像形成装置について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the present embodiment, as an example, an image forming apparatus provided with an image processing apparatus to which the present invention is applied will be described.
[1.第1実施形態]
[1.1 機能構成]
はじめに、図1を参照して、画像形成装置1の機能構成を説明する。図1に示すように、画像形成装置1は、画像入力装置10、画像処理装置20、画像出力装置30、送受信装置40、操作パネル50、記憶部60、制御部70を備えて構成される。
[1. First Embodiment]
[1.1 Functional configuration]
First, the functional configuration of the
画像形成装置1で実行される各種処理は、制御部70が画像入力装置10、画像処理装置20、画像出力装置30、送受信装置40、操作パネル50、記憶部60を制御して実行される。制御部70は、例えば、CPU(Central Processing Unit)によって構成される。また、制御部70は、ネットワークカードやLAN(Local Area Network)ケーブル等を介して、ネットワークに接続されたコンピュータ及び他のデジタル複合機等とデータ通信を行う。
Various processes executed by the
[1.1.1 画像読取装置]
画像入力装置10は、原稿から画像を光学的に読み取る装置である。画像入力装置10は、例えば、CCD(Charge Coupled Device)を有するカラースキャナにより構成される。画像入力装置10は、原稿からの反射光像を、CCDを用いてRGB(R:赤,G:緑,B:青)のアナログ信号として読み取る。
[1.1.1 Image Reader]
The image input device 10 is a device that optically reads an image from a document. The image input device 10 is composed of, for example, a color scanner having a CCD (Charge Coupled Device). The image input device 10 reads the reflected light image from the document as an RGB (R: red, G: green, B: blue) analog signal using a CCD.
また、画像入力装置10は、画像処理装置20が接続されている。画像入力装置10は、読み取ったRGBのアナログ信号を画像処理装置20へ出力する。
Further, the
[1.1.2 画像処理装置]
画像処理装置20は、入力画像の画像データに処理を施す。ここで、入力画像とは、画像処理装置20に入力された画像であり、例えば、画像入力装置10によって読み取られた画像や、送受信装置40によって外部の装置から受信した画像をいう。また、画像処理装置20は、外部の装置に送信するための圧縮ファイルを生成したり、記録シート等に形成(出力)する画像の画像データを生成したりする。なお、画像処理装置20は、記憶部60に接続し、処理が施された画像データを記憶部60に記憶してもよい。
[1.1.2 Image processing device]
The
画像処理装置20には、画像処理装置20が生成した画像データに基づく画像を出力する画像出力装置30及び画像処理装置20が生成した圧縮ファイルを外部の装置へ送信する送受信装置40が接続されている。
The
以下、画像処理装置20における各処理部について説明する。画像処理装置20は、画像入力装置10から入力されたRGBのアナログ信号に対して、A/D変換部202、シェーディング補正部204、原稿種別判定部206、ACS判定部208、方向補正部210、入力階調補正部212、領域分離処理部214にて画像処理を実行することによって、RGBのデジタル信号(以下、RGB信号という)からなる画像データを生成する。
Hereinafter, each processing unit in the
A/D変換部202は、画像入力装置10から画像処理装置20へ入力されたRGBのアナログ信号を受け付け、RGBのアナログ信号をRGBのデジタル信号(即ちRGB信号)へ変換する処理を行う。また、A/D変換部202は、変換したRGB信号をシェーディング補正部204へ出力する。
The A /
シェーディング補正部204は、A/D変換部202から入力されたRGB信号に対して、シェーディング補正の処理を行う。シェーディング補正部204は、シェーディング補正として、例えば、RGB信号に対して、画像入力装置10の照明系、結像系及び撮像系で生じる各種の歪みを取り除く処理を行う。次いで、シェーディング補正部204は、歪みを取り除いたRGB信号を原稿種別判定部206へ出力する。
The
原稿種別判定部206は、シェーディング補正部204から入力されたRGB信号を用いて、文字、写真、又は印画紙等の原稿のモードを判定する原稿種別判定処理を行う。また、原稿種別判定部206は、入力されたRGB信号を入力階調補正部212に出力する。原稿種別判定処理の処理結果は、後段の処理部における画像処理に反映される。
The manuscript
ACS判定部208は、原稿種別判定部206から入力されたRGB信号から、入力画像を有彩色を含むカラー画像として出力するか、もしくは有彩色を含まないモノクロ画像として出力するかの判定を行う。また、ACS判定部208は、入力されたRGB信号を方向補正部210に出力する。
The
方向補正部210は、ACS判定部208から入力されたRGB信号に基づき、入力画像の方向を判定し、入力画像の方向を補正する方向補正処理を実行する。
The
ここで、入力画像の方向とは、入力画像に表された文字が向いている方向として、最も適切な方向をいう。また、適切な方向とは、例えば、入力画像に表される文字の方向として、最も多く現れた方向である。具体的には、入力画像に表される文字の多くが反時計回りに90°回転した文字として現れている場合、方向補正部210は、入力画像の方向は反時計回りに90°回転した方向であると判定する。
Here, the direction of the input image means the most appropriate direction as the direction in which the characters represented in the input image are facing. Further, the appropriate direction is, for example, the direction in which the characters appear most frequently as the direction of the characters represented in the input image. Specifically, when many of the characters represented in the input image appear as characters rotated 90 ° counterclockwise, the
また、入力画像の方向の補正とは、入力画像を回転させることにより、入力画像が表示や出力されたときに、利用者によって転倒した文字を最も少なく認識されるようにRGB信号に対して回転させる処理をいう。例えば、入力画像の方向が反時計回りに90°回転した方向であれば、方向補正部210は、入力画像を時計回りに90°回転させることで、入力画像の方向を補正する。このようにすることで、補正後の入力画像に表される多くの文字は、転倒していない状態で表示や出力されることとなる。方向補正処理については後述する。
Further, the correction of the direction of the input image is to rotate the input image so that when the input image is displayed or output, the overturned character is recognized by the user as the least. It means the process to make it. For example, if the direction of the input image is rotated 90 ° counterclockwise, the
方向補正部210は、入力されたRGB信号又は入力されたRGB信号に対して回転処理を行ったRGB信号を入力階調補正部212に出力する。
The
入力階調補正部212は、方向補正部210から入力されたRGB信号に対して、階調を補正する処理を行う。入力階調補正部212は、階調の補正処理として、例えば、カラーバランスの調整、下地濃度の除去、及びコントラストの調整等の処理を行う。入力階調補正部212は、処理を行ったRGB信号を領域分離処理部214へ出力する。
The input
領域分離処理部214は、入力階調補正部212から入力されたRGB信号が表す画像中の各画素を、文字領域、網点領域、又は写真領域のいずれかに分離する処理を行う。また、領域分離処理部214は、分離結果に基づき、各画素がいずれの領域に属しているかを示す領域識別信号を、黒色生成下色除去部218、空間フィルタ処理部220、階調再現処理部226へ出力する。更に、領域分離処理部214は、入力階調補正部212から入力されたRGB信号を、色補正部216へ出力する。
The area
色補正部216は、画像データを画像出力装置30に最終的に出力する場合、領域分離処理部214から入力されたRGB信号をCMYのデジタル信号(以下、CMY信号という)へ変換し、色再現の忠実化実現のために、不要吸収成分を含むCMY色材の分光特性に基づいた色濁りをCMY信号から取り除く処理を行う。次いで、色補正部216は、色補正後のCMY信号を黒色生成下色除去部218へ出力する。
When the image data is finally output to the
一方、色補正部216は、画像データを送受信装置40に最終的に出力する場合、領域分離処理部214から入力されたRGB信号を色補正されたRGB信号又はグレー信号へ変換し、空間フィルタ処理部220へ出力する。
On the other hand, when the image data is finally output to the transmission /
黒色生成下色除去部218は、色補正部216から入力されたCMY信号に基づき、CMY信号から黒色(K)信号を生成する黒色生成処理と、CMY信号から黒色生成で得たK信号を差し引いて新たなCMY信号を生成する処理とを行う。この結果、CMY3色のデジタル信号は、CMYK4色のデジタル信号(以下、CMYK信号という)に変換される。次いで、黒色生成下色除去部218は、CMY信号を変換したCMYK信号を空間フィルタ処理部220へ出力する。
The black generation
黒色生成処理には、一般に、スケルトン・ブラックによる黒色生成を行う方法が用いられる。この方法は、入力されるデータであるC,M,Yから、出力するデータであるC’,M’,Y’,K’を求める方法である。ここで、スケルトン・カーブの入出力特性をy=f(x)、UCR(Under Color Removal)率をα(0<α<1)とすると、黒色生成下色除去処理では、下記の式(1)〜式(4)で表わされる式を用いて、CMY信号をCMYK信号に変換する。
K’=f(min(C,M,Y)) …(1)
C’=C−αK’ …(2)
M’=M−αK’ …(3)
Y’=Y−αK’ …(4)
Generally, a method of producing black by skeleton black is used for the black generation process. This method is a method of obtaining the output data C', M', Y', K'from the input data C, M, Y. Here, assuming that the input / output characteristics of the skeleton curve are y = f (x) and the UCR (Under Color Removal) rate is α (0 <α <1), the following equation (1) is used in the black generation undercolor removal process. ) ~ The CMY signal is converted into a CMYK signal by using the equation represented by the equation (4).
K'= f (min (C, M, Y)) ... (1)
C'= C-αK'… (2)
M'= M-αK'… (3)
Y'= Y-αK'… (4)
ここで、UCR率α(0<α<1)とは、CMYが重なっている部分をKに置き換えてCMYをどの程度削減するかを示すものである。式(1)は、CMYの各信号強度のうちの最も小さい信号強度に応じてK信号が生成されることを示している。 Here, the UCR rate α (0 <α <1) indicates how much the CMY is reduced by replacing the overlapping portion of the CMY with K. Equation (1) shows that a K signal is generated according to the lowest signal strength of each signal strength of CMY.
空間フィルタ処理部220は、画像データを画像出力装置30に最終的に出力する場合、黒色生成下色除去部218から入力されたCMYK信号の画像データに対して、領域分離処理部214から入力された領域識別信号に基づいてデジタルフィルタによる空間フィルタ処理を行い、空間周波数特性を補正する。この補正により、画像のぼやけ又は粒状性劣化を改善させる。例えば、領域分離処理部214にて文字に分離された領域に対しては、空間フィルタ処理部220は、文字の再現性を高めるために、高周波成分の強調量が大きいフィルタを用いて空間フィルタ処理を行う。また、領域分離処理部214にて網点に分離された領域に対しては、空間フィルタ処理部220は、入力網点成分を除去するためのローパス・フィルタ処理を行う。
When the spatial
一方、空間フィルタ処理部220は、画像データを送受信装置40に最終的に出力する場合、色補正部216から入力されたRGB信号もしくはグレー信号に対して、領域分離処理部214から入力された領域識別信号に基づいてデジタルフィルタによる空間フィルタ処理を行い、空間周波数特性を補正する。この補正により、画像のぼやけ又は粒状性劣化を改善させる。
On the other hand, when the spatial
次いで、空間フィルタ処理部220は、画像データを画像出力装置30に最終的に出力する場合、処理後のCMYK信号を出力階調補正部224へ出力する。一方、画像データを送受信装置40に最終的に出力する場合には、処理後のRGB信号を解像度変換処理部222へ出力する。
Next, when the spatial
解像度変換処理部222は、送受信装置40に出力する画像データが、操作パネル50で設定された解像度の画像データになるように、解像度変換処理を行う。例えば、入力画像の解像度が600DPI×300DPIの画像データで、操作パネル50で設定された解像度が300DPI×300DPIであった場合、主走査方向の2画素毎に平均値を求め、それを出力値とすることで、600DPI×300DPIから300DPI×300DPIへの解像度変換が実行される。解像度変換処理部222は、処理後のRGB信号を出力階調補正部224へ出力する。
The resolution
出力階調補正部224は、画像データを画像出力装置30に最終的に出力する場合、空間フィルタ処理部220から入力されたCMYK信号に対して、画像出力装置30の特性である網点面積率に基づく出力階調補正処理を行い、出力階調補正処理後のCMYK信号を階調再現処理部226へ出力する。
When the output
一方、出力階調補正部224は、画像データを送受信装置40に出力する場合、解像度変換処理部222から入力されたRGB信号に対して、必要に応じてかぶりやハイライトの下地が消える又は薄くなるように出力階調補正を行い、出力階調補正処理後のRGB信号を階調再現処理部226へ出力する。
On the other hand, when the output
階調再現処理部226は、画像データを画像出力装置30に最終的に出力する場合、出力階調補正部224から入力されたCMYK信号に対して、領域分離処理部214から入力された領域識別信号に基づいて、領域に応じた中間調処理を行う。例えば、領域分離処理部214にて文字に分離された領域に対しては、階調再現処理部226は、高域周波成分の再現に適した高解像度のスクリーンによる2値化又は多値化の処理を行う。また、領域分離処理部214にて網点に分離された領域に対しては、階調再現処理部226は、階調再現性を重視したスクリーンでの2値化又は多値化の処理を行う。次いで、階調再現処理部226は、処理後の画像データを画像出力装置30へ出力する。
When the image data is finally output to the
一方、階調再現処理部226は、画像データを送受信装置40に出力する場合には、操作パネル50でモノクロ2値が選択された場合のみ、出力階調補正部224から入力されたRGB信号に対して、2値化処理を行う。次いで、階調再現処理部226は、出力階調補正部224から入力されたRGB信号又は2値化処理を行ったRGB信号を圧縮処理部228に入力する。
On the other hand, when the gradation
圧縮処理部228は、RGB信号やグレー信号、白黒2値信号からなる画像データに対して、操作パネル50で設定されたファイルフォーマットの設定に従い、必要に応じてJPEG(Joint Photographic Experts Group)やMMR(Modified Modified Read)などの圧縮処理を行い、圧縮データを生成して画像ファイルを生成し、送受信装置40に出力する。なお、圧縮処理部228は、複数の画像データを含む文書ファイルを生成してもよい。
The
なお、画像処理装置20における各処理部の処理は、制御部70によって各処理部を制御することで実行されることとして説明したが、DSP(Digital Signal Processor)等のプロセッサを含むコンピュータが各処理部を制御することにより実行されてもよい。
Although it has been described that the processing of each processing unit in the
[1.1.3 画像出力装置]
画像出力装置30は、画像処理装置20から入力された画像データに基づいて、熱転写、電子写真、又はインクジェット等の方式により、記録シート上に画像を形成して出力する。画像出力装置30は、画像形成装置1の画像形成手段として機能する。
[1.1.3 Image output device]
The
[1.1.4 送受信装置]
送受信装置40は、公衆回線網、LAN又はインターネット等の通信ネットワークに接続可能であり、ファクシミリ又は電子メール等の通信方法により、通信ネットワークを介して外部へ圧縮ファイルを送信する。例えば、利用者によって操作パネル50においてScan to e−mailモードが選択されている場合、圧縮ファイルは、ネットワークカード、モデム等を用いてなる送受信装置40によってe−mailに添付され、設定された送信先へ送信される。
[1.1.4 Transmitter / receiver]
The transmission /
なお、ファクシミリの送信を行う場合は、制御部70が、モデムを用いてなる送受信装置40にて、相手先との通信手続きを行う。そして、制御部70は、送信可能な状態が確保されたときに、圧縮ファイルに対して圧縮形式の変更等の必要な処理を施してから、相手先に通信回線を介して順次送信する処理を行う。
When transmitting by facsimile, the
また、送受信装置40は、ファクシミリ等の通信方法により、他の装置から圧縮ファイルを受信してもよい。例えば、ファクシミリを受信する場合、制御部70は、送受信装置40にて通信手続きを行いながら、相手先から送信される圧縮ファイルを受信して、画像処理装置20に入力する。画像処理装置20は、受信した圧縮ファイルに対し伸張処理を施したり、伸張処理により得られた画像の画像データに対して、必要に応じて回転処理及び/又は解像度変換処理等を施したりする。また、画像処理装置20は、出力階調補正部224で出力階調補正を施したり、階調再現処理部226で階調再現処理を施したりする。画像処理装置20は、各種画像処理が施された画像データを、画像出力装置30へ出力する。また、画像出力装置30は、画像処理装置20から出力された画像データに基づき、記録シート上に出力画像を形成する。
Further, the transmission /
[1.1.5 操作パネル]
操作パネル50は、利用者が画像形成装置1の動作モード等を設定するための設定ボタン及びテンキー等のハードキーによって構成される操作部52と、液晶ディスプレイ、有機EL(electro-luminescence)ディスプレイ等の装置で構成される表示部54とを備える。なお、操作パネル50は、操作部52と表示部54とが一体に形成されるタッチパネルであってもよい。この場合において、タッチパネルの入力を検出する方式は、例えば、抵抗膜方式、赤外線方式、電磁誘導方式、静電容量方式といった、一般的な検出方式であればよい。
[1.1.5 Operation panel]
The
[1.1.6 記憶部]
記憶部60は、画像データ等の各種データや各種プログラムを記憶する機能部であり、例えば、不揮発性の記憶装置(例えば、HDD(Hard Disk Drive))や、半導体メモリの記憶装置(例えば、SSD(Solid State Drive))等により構成される。
[1.1.6 Storage unit]
The
[1.2 方向補正処理]
つづいて、方向補正部210が実行する方向補正処理について説明する。はじめに、図2を参照して、方向補正部210の構成を説明する。方向補正部210は、図2に示すように、抽出部2102、方向解析処理部2104、判定処理部2106、回転処理部2108を含んで構成され、この順に、ACS判定部208から入力されたRGB信号を処理し、入力階調補正部212に出力する。
[1.2 Direction correction processing]
Next, the direction correction process executed by the
抽出部2102は、入力画像から文字もしくは文字を構成する要素(パーツ)の範囲を示す文字領域や、1つ以上の文字領域からなる文字列領域を抽出する。ここで、文字とは、言葉を表記するために用いられる記号をいう。また、文字を構成する要素とは、文字の部分として含まれる記号や図形であり、例えば、部首や、直線、曲線、点といったものが含まれる。方向解析処理部2104は、文字領域及び文字列領域から、文字を構成する要素のうち特定の要素を検出し、検出された方向に応じてスコアを算出する。判定処理部2106は、入力画像全体にわたって算出されたスコアに応じて、入力画像毎に入力画像の方向を判定する。回転処理部2108は、入力画像毎に判定処理部2106によって判定された入力画像の方向に応じて、入力画像を回転させる。例えば、回転処理部2108が、判定処理部2106によって判定された入力画像の方向が正方向ではない場合、入力画像が正方向となる方向に回転させることで、入力画像の方向が補正される。なお、正方向とは、文字が正しく読める方向(文字の角度が0°の方向、文字が転倒していない方向)をいう。例えば、後述するが、図8(a)の方向に文字が配置される方向を正方向とする。
The
図3を参照して、方向補正処理について説明する。はじめに、抽出部2102は、文字を構成する要素を含む領域を抽出する(ステップS102)。抽出部2102は、文字を構成する要素を含む領域を、例えば、以下の方法によって抽出する。
The direction correction process will be described with reference to FIG. First, the
(1)文字領域の抽出
抽出部2102は、入力画像のうち、文字らしい画素の集合を、文字領域として抽出する。文字らしい画素とは、例えば、入力画像を前景レイヤと背景レイヤに分離したときに前景レイヤに含まれる画素であって、エッジ部分の画素を含む画素である。
(2)文字列領域の抽出
抽出部2102は、文字領域同士の位置や大きさの関係から、文字領域をグループに分割したときの各グループを文字列領域として抽出する。このとき、抽出部2102は、文字列領域を構成する文字領域の並び方より、文字列領域毎に、文字の並び方向(文字列方向)を判定してもよい。
(1) Extraction of character area The
(2) Extraction of character string area The
なお、文字領域の抽出方法及び文字列領域の抽出方法については、例えば、特開2012−114744号公報に開示された方法を利用することが可能であり、他の公知の技術を用いることもできる。特開2012−114744号公報に開示された方法のように、抽出された文字領域が大きすぎたり小さすぎたりした場合に、抽出された文字領域は文字らしくないとして除外しても良いし、グループに含まれる文字領域の数が少ない場合に、十分な文字数を構成した文字列ではないとして、当該グループに含まれる文字領域を全て除外するようにしても良い。このようにすることで、写真などの文字でない部分に含まれたエッジが、誤って文字領域として抽出されてしまうことを防ぐことが可能である。 As a method for extracting the character region and a method for extracting the character string region, for example, the method disclosed in Japanese Patent Application Laid-Open No. 2012-114744 can be used, and other known techniques can also be used. .. When the extracted character area is too large or too small as in the method disclosed in Japanese Patent Application Laid-Open No. 2012-114744, the extracted character area may be excluded as not being character-like, or a group. When the number of character areas included in is small, it is possible to exclude all the character areas included in the group, assuming that the character string does not constitute a sufficient number of characters. By doing so, it is possible to prevent edges included in non-character parts such as photographs from being mistakenly extracted as character areas.
また、文字領域の抽出は、文字列領域の抽出及び文字列方向の判定を行うための前段階であるため、個々の文字単位で正確に抽出されている必要はない。例えば、「へん」や「つくり」などのパーツ毎に分離して抽出されていてもよいし、複数の文字にまたがって1つの文字領域が抽出されていてもよい。 Further, since the extraction of the character area is a preliminary step for extracting the character string area and determining the character string direction, it is not necessary to accurately extract each character. For example, each part such as "hen" or "making" may be separated and extracted, or one character area may be extracted across a plurality of characters.
つづいて、方向解析処理部2104は、抽出部2102によって抽出された文字領域や文字列領域に基づき対象領域を設定し、設定した対象領域のうち1の領域の画像を領域画像として入力画像から抽出する(ステップS104)。対象領域とは、後述する方向解析処理の対象とする領域であり、入力画像の方向の判定に用いる画素が含まれる領域である。領域画像とは、入力画像から対象領域に基づいて抽出した画像である。方向解析処理部2104は、文字列領域そのものを対象領域としてもよいし、文字列領域を更に外側に所定画素数だけ拡大もしくは内側に所定画素数だけ縮小した領域や、1つの文字列領域を複数の領域に分割したそれぞれの領域を対象領域としてもよい。また、抽出部2102によって抽出された文字領域そのものを対象領域としてもよい。
Subsequently, the direction
また、抽出部2102によって、入力画像から複数の文字列領域や文字領域が抽出された場合は、方向解析処理部2104は、抽出部2102によって抽出された領域のうち、一部の領域を対象領域としてもよい。この場合、方向解析処理部2104は、所定の大きさ以上の領域を対象領域としてもよいし、特定の位置(例えば入力画像の上半分)に存在する領域を対象領域としてもよいし、所定の数だけランダムに選択した領域を対象領域としてもよい。
When a plurality of character string areas and character areas are extracted from the input image by the
つづいて、方向解析処理部2104は、領域画像から対象パーツを示す画像を検出し、その検出結果に基づくスコア(方向別スコア)を算出する方向解析処理を実行する(ステップS106)。ここで、対象パーツとは、領域画像から検出する対象となるパーツをいう。対象パーツは、方向解析処理を実行する前に定義されるパーツであり、例えば画像形成装置1の利用者や、設計者等によって予め定められていたり、選択されたりする。対象パーツとして適切なパーツについては後述する。
Subsequently, the direction
本実施形態では、方向解析処理として、領域画像を複数の方向に回転させ、それぞれ回転させた画像から正方向の対象パーツを検出して、検出結果に基づくスコアを算出する。正方向の対象パーツとは、正方向の文字に含まれる対象パーツをいう。 In the present embodiment, as the direction analysis process, the region image is rotated in a plurality of directions, the target parts in the positive direction are detected from the rotated images, and the score based on the detection result is calculated. The target part in the positive direction means the target part included in the characters in the positive direction.
また、領域画像を回転させる方向(以下、「領域画像の回転方向」という)には、画像が読み取られた状態の方向(入力画像の回転角度を0°とした方向)である入力方向に、以下の方向のうち少なくとも1つを加える。
(1)入力画像を反時計回りに90°回転させた反時計回り方向
(2)入力画像を180°回転させた状態の方向である逆(反転)方向
(3)入力画像を時計回りに90°(反時計回りに270°)回転させた状態の方向である時計回り方向
Further, in the direction in which the area image is rotated (hereinafter referred to as "rotation direction of the area image"), there is an input direction which is the direction in which the image is read (the direction in which the rotation angle of the input image is 0 °). Add at least one of the following directions:
(1) Counterclockwise direction in which the input image is rotated 90 ° counterclockwise (2) Reverse (reverse) direction in which the input image is rotated 180 ° (3) 90 ° clockwise rotation of the input image ° (270 ° counterclockwise) Clockwise, which is the direction of rotation
方向解析処理部2104は、領域画像の回転方向を前記の入力方向、反時計回り方向、逆方向、時計回り方向の4つの方向としてもよいし、領域画像の回転方向を入力方向と逆方向の2つに限定して、原稿の天地方向のみを判定するようにしてもよい。また、方向解析処理部2104は、領域画像の回転方向を入力方向と反時計回り方向(又は時計回り方向)の2つに限定して、縦原稿か横原稿かのみを判定するようにしてもよい。このようにして、領域画像の回転方向には、領域画像が正方向となる方向を含めるようにする。
The direction
なお、領域画像の回転方向は、利用者によって選択されてもよいし、方向解析処理部2104が方向解析処理を実行する前に、簡易的な方法によって自動的に判定してもよい。また、本実施形態では、領域画像の回転方向の数をAとする。
The rotation direction of the region image may be selected by the user, or may be automatically determined by a simple method before the direction
本実施形態の方向解析処理について、図4を参照して説明する。はじめに、方向解析処理部2104は、領域画像の回転方向を示す変数aに1を代入する(ステップS122)。
The direction analysis process of this embodiment will be described with reference to FIG. First, the direction
つづいて、方向解析処理部2104は、領域画像を第aの方向に回転させ、正方向の対象パーツを示す画像(以下、「部分画像」という)を検出する。
Subsequently, the direction
ここで、対象パーツとして適切なパーツについて説明する。本実施形態では、第aの方向に回転させた領域画像から正方向の対象パーツを検出する。検出するパーツとしては、例えば、一般的な文書において出現頻度が低くなかったり、パーツそのものを回転させたときに、そのパーツ自身や他のパーツと混同しづらかったりするパーツであることが望ましい。 Here, a part suitable as a target part will be described. In the present embodiment, the target part in the positive direction is detected from the region image rotated in the first direction a. It is desirable that the parts to be detected are, for example, parts that do not appear frequently in general documents or that are difficult to be confused with the part itself or other parts when the part itself is rotated.
パーツそのものを回転させたときについて、図5を参照して説明する。なお、本実施形態では、パーツを漢字の部首とする。また、漢字の部首のうち、対象パーツとして適切な部首の例を図5(a)に、不適切な部首の例を図5(b)にそれぞれ具体的に示す。 The case where the part itself is rotated will be described with reference to FIG. In this embodiment, the parts are radicals of Chinese characters. Further, among the radicals of Chinese characters, an example of a radical that is appropriate as a target part is shown in FIG. 5 (a), and an example of an inappropriate radical is shown in FIG. 5 (b).
図5(a)は、パーツと、当該パーツを正方向、反時計回り方向、逆方向、時計回り方向の4つに回転させた場合のパーツを示した図である。図5(a)のうち、例えば、P102に示す「きへん」は、正方向、反時計回り方向、逆方向、時計回り方向にそれぞれ回転させても、「きへん」又は他のパーツと混同する可能性は低い。また「きへん」を用いた漢字は一般的な文書でも高い頻度で使用されるため、対象パーツとしては適切であるといえる。対象パーツとして適切なパーツとしては、他には、P104に示す「たけかんむり」、P106に示す「あめかんむり」、P108に示す「かねへん」が挙げられる。
FIG. 5A is a diagram showing a part and a part when the part is rotated in four directions: a forward direction, a counterclockwise direction, a reverse direction, and a clockwise direction. In FIG. 5A, for example, the "kihen" shown on
一方で、図5(b)のうち、例えば、P112に示す「くさかんむり」や、P114に示す「くるまへん」は、パーツそのものを回転させたときに、そのパーツ自身と混同する可能性が高いパーツである。すなわち、「くさかんむり」や、「くるまへん」は、正方向のパーツと逆方向のパーツとがほぼ同じ形状となる。このようなパーツを対象パーツとして定義すると、方向解析処理部2104は、正方向となる向きに回転された領域画像の他に、文字が上下転倒した向きに回転された領域画像からも正方向の対象パーツを検出してしまう。この結果、検出結果の精度は落ちてしまう。
On the other hand, in FIG. 5B, for example, "Kusakanmuri" shown on
また、P116に示す「めへん」や、P118に示す「れんが」は、パーツを回転させたときに、他のパーツと混同する可能性が高いパーツである。例えば、「めへん」を反時計回り方向に回転させると、「さら」と混同しやすく、「れんが」を時計回り方向に回転させると、「さんずい」と混同しやすい。このようなパーツを対象パーツとして定義すると、方向解析処理部2104は、正方向ではない文字から、正方向の対象パーツを検出してしまう。この結果、検出結果の精度は落ちてしまう。例えば、P116に示す「めへん」を対象パーツとすると、「さら」を含む漢字(例えば、「益」「盆」「盛」)が時計回り方向に90°回転した状態で含まれる領域画像から、正方向の「めへん」を検出してしまう。
Further, the "mehen" shown on P116 and the "brick" shown on P118 are parts that are likely to be confused with other parts when the parts are rotated. For example, rotating "Mehen" counterclockwise is likely to be confused with "Sara", and rotating "Brick" clockwise is likely to be confused with "Sanzui". If such a part is defined as a target part, the direction
なお、対象パーツとして不適切な他の例として「しかへん」が挙げられる。「しかへん」は、パーツそのものを回転させたときに、そのパーツ自身や他のパーツと混同しづらいが、「しかへん」を用いた漢字自体が一般的に高い頻度で使用されているとは言い難いため、パーツとしては不適切である。 In addition, "Shikahen" can be mentioned as another example that is inappropriate as a target part. "Shikahen" is hard to confuse with the part itself or other parts when the part itself is rotated, but it is said that the Chinese characters themselves using "Shikahen" are generally used frequently. It's hard to say, so it's not suitable as a part.
領域画像から部分画像を検出する方法については、方向解析処理部2104は、機械学習やパターンマッチングを用いる方法を利用できる。
As for the method of detecting the partial image from the region image, the direction
ここでは、機械学習を用いる方法について説明する。まず、領域画像から部分画像を検出するための検出器を、予め学習により構築する。図6(a)は、検出器を構築するときにおける入力データと、正解データ(パーツ名)との組み合わせ(学習データ)を示す図である。 Here, a method using machine learning will be described. First, a detector for detecting a partial image from a region image is constructed in advance by learning. FIG. 6A is a diagram showing a combination (learning data) of the input data at the time of constructing the detector and the correct answer data (part name).
例えば、領域画像から正方向の「きへん」といった漢字の部首を検出する場合、領域画像から正方向の「きへん」を示す部分画像を検出する検出器を構築する。このとき、検出器には、正方向の「きへん」を示す画像を入力データとし、正解データとして「きへん」を与えることで、正方向の「きへん」の部分画像を検出することが可能なモデルを生成する。そして、生成された学習済みモデルを含む検出器に、領域画像を入力することで、領域画像から正方向の「きへん」を示す部分画像が検出される。このようにして、領域画像から正方向の「きへん」が検出される。なお、検出器や学習済みモデルは、例えば、記憶部60に記憶される。
For example, when detecting a radical of a Chinese character such as "kihen" in the positive direction from a region image, a detector is constructed to detect a partial image indicating "kihen" in the positive direction from the region image. At this time, the detector can detect a partial image of the positive direction "kihen" by inputting an image showing the positive direction "kihen" as input data and giving "kihen" as the correct answer data. Generate a possible model. Then, by inputting the region image into the detector including the generated trained model, a partial image indicating a positive direction "kihen" is detected from the region image. In this way, the positive "kihen" is detected from the area image. The detector and the trained model are stored in the
なお、図6(a)のP122やP124に示すように、「きへん」や「たけかんむり」を示す画像であっても、フォントによって形状が異なり、また同じフォントでもそのパーツを含む文字の構成によっては縦横比が変わるなどの変形が見られる。したがって、検出の精度を向上させるために、フォントや縦横比を変更した入力データを用いて、1つの対象パーツに対応する学習データを増やすことが望ましい。また、入力画像の画質が劣化している場合、検出精度が低下することも考えられる。検出精度の低下を防ぐため、傾いた画像やノイズが付加された画像等、意図的に画質を劣化させた入力データを利用してもよい。 As shown in P122 and P124 of FIG. 6A, even if the image shows "kihen" or "takekanmuri", the shape differs depending on the font, and even if the same font is used, the characters including the parts are included. Deformation such as a change in aspect ratio can be seen depending on the configuration. Therefore, in order to improve the detection accuracy, it is desirable to increase the learning data corresponding to one target part by using the input data in which the font and the aspect ratio are changed. Further, if the image quality of the input image is deteriorated, the detection accuracy may be lowered. In order to prevent a decrease in detection accuracy, input data whose image quality is intentionally deteriorated, such as a tilted image or an image to which noise is added, may be used.
なお、正方向の「きへん」以外の対象パーツを検出できるように検出器を学習させてもよい。このとき、正方向の「きへん」のような細長いパーツと、正方向の「しんにょう」のようなL字型に近いパーツとのように、対象パーツの大きさや形状にバラつきがあると、1つの検出器でそれらの対象パーツを全て検出するのは困難となる。この場合、入力データが常に同じサイズとなるように事前に入力データを拡大又は縮小するか、入力データを全て「へん」や「かんむり」などの細長いパーツに限定するなどして、検出が容易になるように学習させてもよい。また、対象パーツ毎に、それぞれ検出器を構築してもよい。 The detector may be trained so that a target part other than the positive direction "kihen" can be detected. At this time, if there are variations in the size and shape of the target parts, such as elongated parts such as "kihen" in the forward direction and parts that are close to L-shape such as "shinnyo" in the forward direction, 1 It is difficult for one detector to detect all of these target parts. In this case, it is easy to detect by enlarging or reducing the input data in advance so that the input data will always be the same size, or by limiting all the input data to elongated parts such as "hen" and "crown". You may learn to become. Further, a detector may be constructed for each target part.
また、入力データとして、対象パーツそのものでなく、図6(b)のP126やP128に示すように、正方向の対象パーツを含む文字そのものを学習させてもよい。この場合も、前述したようなフォントの違いや、入力画像の画質の劣化に対応可能なように学習させればよい。なお、「きへん」のように、そのパーツを含む文字が多数存在する場合もあるが、本実施形態は文字そのものを識別することが目的ではないため、代表的な文字に絞った入力データを作成して、学習データの規模を小さくしてもよい。 Further, as the input data, not the target part itself but the character itself including the target part in the positive direction may be learned as shown in P126 and P128 of FIG. 6B. In this case as well, the learning may be performed so as to cope with the difference in fonts and the deterioration of the image quality of the input image as described above. In addition, there may be a large number of characters including the part, such as "kihen", but since the purpose of this embodiment is not to identify the characters themselves, input data narrowed down to typical characters is used. It may be created to reduce the scale of the training data.
なお、図6では、正解データとしてパーツ名を与える場合について図示したが、パーツ名を正解データとして与える代わりに、正方向の対象パーツであるか否かの二択の分類結果等を正解データとして与えてもよい。 Although the case where the part name is given as the correct answer data is shown in FIG. 6, instead of giving the part name as the correct answer data, the classification result of two choices as to whether or not the part is the target part in the positive direction is used as the correct answer data. May be given.
方向解析処理部2104は、入力画像から得られた領域画像を第aの方向に回転させる(ステップS124)。つづいて、方向解析処理部2104は、学習データから構築された検出器を用いて、領域画像から部分画像を検出することで、領域画像から正方向の対象パーツを検出する(ステップS126)。方向解析処理部2104は、aに1を加算して、aがAを超えない場合はステップS124へ戻る(ステップS128→ステップS130;No→ステップS124)。このようにすることで、所定の方向に回転させたそれぞれの領域画像に対して、正方向の対象パーツの検出処理が実行される。
The direction
つづいて、方向解析処理部2104は、ステップS124で回転させた方向と、ステップS126の検出結果とに基づき算出したスコアを、方向別スコアに加算する(ステップS132)。ここで、方向別スコアとは、領域画像の回転方向毎に、所定の方法によって算出されたスコアを合算したスコアを示したものである。例えば、方向解析処理部2104は、1つの方向の領域画像でのみ正方向の対象パーツが検出された場合は、正方向の対象パーツが検出された領域画像が示す方向に対応する方向を検出方向として選ぶ。また、複数の方向の領域画像から正方向の対象パーツが検出された場合は、検出の確からしさ(尤度、信頼度)が最も高い方向を検出方向として選ぶ。そして、方向解析処理部2104は、選ばれた検出方向について、対応する方向別スコアに所定の方法でスコアを加算する。このようにすることで、スコアが高い方向ほど、その方向に回転させることで入力画像を正方向に補正することの妥当性が高いことを示すことができる。
Subsequently, the direction
ここで、領域画像の回転方向の中に、領域画像が正方向となる方向が含まれる場合、領域画像が正方向となる方向に回転させた領域画像から正方向の対象パーツが検出されるため、領域画像が正方向となる方向に対応する方向のスコアが高くなる。また、領域画像をスコアが高い方向から入力方向にするために回転させる方向を、入力画像の方向とすることの妥当性が高くなる。例えば、スコアが高い方向が時計回り方向である場合、時計回り方向の領域画像を入力方向の領域画像にするために回転させる方向は反時計回り方向である。したがって、入力画像の方向が、反時計回り方向であることの妥当性が高い。ここで、スコアが高い方向が入力方向(反時計回りに0°)の場合、入力画像の方向は入力方向と同一であり、スコアが高い方向が反時計回り方向(反時計回りに90°)の場合、入力画像の方向は時計回り方向(反時計回りに270°)であり、スコアが高い方向が逆方向(反時計回りに180°)である場合、入力画像の方向は逆方向と同一であり、スコアが高い方向が時計回り方向(反時計回りに270°)である場合、入力画像の方向は反時計回り方向(反時計回りに90°)である。 Here, when the rotation direction of the region image includes the direction in which the region image is in the positive direction, the target part in the positive direction is detected from the region image rotated in the direction in which the region image is in the positive direction. , The score in the direction corresponding to the direction in which the area image is in the positive direction becomes high. Further, it is highly appropriate to set the direction in which the region image is rotated from the direction in which the score is high to the input direction as the direction of the input image. For example, when the direction in which the score is high is the clockwise direction, the direction in which the region image in the clockwise direction is rotated to become the region image in the input direction is the counterclockwise direction. Therefore, it is highly valid that the direction of the input image is the counterclockwise direction. Here, when the direction with a high score is the input direction (counterclockwise 0 °), the direction of the input image is the same as the input direction, and the direction with a high score is the counterclockwise direction (counterclockwise 90 °). In the case of, the direction of the input image is clockwise (270 ° counterclockwise), and when the direction with the higher score is the opposite direction (180 ° counterclockwise), the direction of the input image is the same as the reverse direction. When the direction in which the score is high is the clockwise direction (counterclockwise 270 °), the direction of the input image is the counterclockwise direction (counterclockwise 90 °).
スコアを加算する所定の方法としては、選択された1つの方向に対して定数を与える方法であってもよいし、前述の確からしさが大きいほど大きな値を与える方法であってもよい。また、複数の方向の領域画像から正方向の対象パーツが検出された場合に、単一の方向を選択してその方向にのみスコアを加算するのではなく、前述の確からしさの大きさに基づいたスコアを、検出された複数の方向それぞれに加算する方法であってもよい。 As a predetermined method of adding the scores, a method of giving a constant in one selected direction may be used, or a method of giving a larger value as the above-mentioned certainty is larger may be used. Also, when a target part in the positive direction is detected from the area images in multiple directions, the score is not added only in that direction by selecting a single direction, but based on the magnitude of the above-mentioned certainty. The score may be added to each of the plurality of detected directions.
図3に戻り、つづいて、方向解析処理部2104は、全ての対象領域から領域画像を抽出したか否かを判定し、全ての対象領域から領域画像を抽出していない場合は、ステップS104へ戻る(ステップS108;No→ステップS104)。このようにして、方向解析処理部2104は、全ての対象領域から領域画像を抽出し、抽出した領域画像から部分画像を検出し、方向別スコアを算出する。また、方向解析処理部2104は、領域画像毎に算出した方向毎のスコアを、対応する方向の方向別スコアに順次加算することで、方向別に合算した方向別スコアを算出することができる。
Returning to FIG. 3, the direction
全ての対象領域から領域画像を抽出したら、判定処理部2106は、方向解析処理部2104によって算出された方向別スコアに基づき、入力画像の方向を判定する(ステップS108;Yes→ステップS110)。具体的には、判定処理部2106は、方向別スコアのうち最もスコアの高い方向に回転させた入力画像を、入力方向の入力画像にするために回転させる方向を、入力画像の方向として判定すればよい。
After extracting the area images from all the target areas, the
つづいて、回転処理部2108は、ステップS110において判定処理部2106によって判定された入力画像の方向に基づき、入力画像が正方向となる方向に、入力画像を回転させる(ステップS112)。例えば、回転処理部2108は、入力画像の方向が時計回り方向(反時計回りに270°)であれば入力画像を反時計回り方向に90°回転させ、入力画像の方向が逆方向(反時計回りに180°)であれば入力画像を180°回転させ、入力画像の方向が反時計回り方向(反時計回りに90°)であれば入力画像を時計回りに90°回転させる。なお、判定処理部2106によって入力画像の方向が正方向として判定された場合、回転処理部2108は、入力画像の回転は行わない(入力画像を回転させる処理をスキップする)。
Subsequently, the
上述した方向補正処理により、入力画像を回転させた後の画像データが方向補正部210から出力されるため、圧縮処理部228を介して出力される画像ファイルは適切な方向に入力画像が回転された画像データが表された画像ファイルとなる。また、方向補正部210は、入力された原稿の画像毎に方向補正処理を実行することで、入力される原稿の画像データが複数であっても、それぞれの画像データを正しい方向の画像データに回転させることができる。その結果、圧縮処理部228を介して出力される文書ファイルに含まれる画像は、正しい方向に揃った状態となる。
Since the image data after rotating the input image is output from the
なお、対象パーツを抽出する方法は、機械学習による方法のほか、テンプレートマッチングを利用することもできる。この場合、はじめに、対象パーツのテンプレート画像を記憶部60に記憶させておく。例えば、図6(a)で示した入力データの例(例えば、P122やP124)のように、フォントや縦横比に応じて複数のテンプレート画像を記憶させる。そして、方向解析処理部2104は、記憶部60に記憶されたテンプレート画像と、領域画像とのテンプレートマッチングを行う。テンプレート画像の数だけテンプレートマッチングの回数も増えるため処理時間はかかるが、機械学習のような大規模なフィルタ処理などを必要としないため、比較的小さな規模で実現できる。なお、処理量を減らすために、テンプレート画像及び領域画像の双方の解像度を低下させて、意図的に細部の情報を欠落させることで、大雑把な形状を特徴として利用して対象パーツを検出するようにしてもよい。
In addition to the machine learning method, template matching can also be used as the method for extracting the target parts. In this case, first, the template image of the target part is stored in the
[1.3 動作例]
図を参照して、本実施形態の動作例を説明する。図7は、入力画像から文字領域及び文字列領域を抽出する具体例を示す図である。図7(a)は、入力画像E100の例を示した図であり、入力画像には、領域E102に「販売促進部」という文字が現れているものとする。すなわち、領域E102には、「販売促進部」という文字を構成する画素が含まれている。
[1.3 Operation example]
An operation example of this embodiment will be described with reference to the figure. FIG. 7 is a diagram showing a specific example of extracting a character area and a character string area from an input image. FIG. 7A is a diagram showing an example of the input image E100, and it is assumed that the characters “sales promotion unit” appear in the area E102 in the input image. That is, the area E102 includes pixels constituting the characters "sales promotion unit".
入力画像に対して、抽出部2102は文字領域の抽出を行う。文字領域を抽出した結果、図7(b)に示すように、点線で囲まれた文字を構成するそれぞれのパーツが、文字領域として抽出される。文字領域としては、例えば、領域M100に示すような「販」の文字を構成する要素である「反」を含む領域や、領域M102に示すような「販」の文字を構成する点を含む領域が抽出される。このように、文字領域は、個々の文字単位ではなく、部首や部首の一部といった文字を構成する要素の単位で抽出される。
The
また、抽出部2102は文字領域に基づいて、文字列方向を判定したり、文字列領域を抽出したりしてもよい。例えば、特開2012−114744号公報に開示された方法を用いて、抽出部2102は、例えば、水平方向の文字領域における平坦画素ブロックの連続数と、垂直方向の文字領域における平坦画素ブロックの連続数とを比較することで、文字列方向を判定する。図7(b)の例では、垂直方向の連結数に比べて水平方向の連結数が多いので、抽出部2102は、水平方向に文字が並んでいるとして、図7(c)の領域E104に示すような、文字列方向が水平方向の文字列領域を抽出する。
Further, the
なお、抽出部2102は、文字領域を抽出した後、1つの文字列領域内において行方向に並ぶ複数の文字領域同士を統合してもよい。例えば、1つの文字列領域において、文字列方向と直交する行方向に複数の文字が並ぶことは原則として無いという仮定のもと、抽出部2102は、1つの文字列領域内において行方向に並ぶ複数の文字領域同士を統合してもよい。また、文字列方向で、複数の文字領域間において、文字を構成する前景画素同士は連結しないが文字領域の矩形同士が重複するような場合に、抽出部2102は、これらの文字領域同士を1つの文字領域として統合してもよい。
After extracting the character area, the
図7(d)は、文字領域を統合することにより、図7(b)に示した文字領域を再定義した例を示す図である。このように文字領域を統合することにより、領域M104に示したように個々の文字単位の領域や、領域M106と領域M108とに示したように1つの文字を構成するまとまった単位を含む領域を文字領域とすることができる。その結果、文字領域を連結しない場合に比べて、対象領域の数が少なくなり、方向解析処理部2104が部分画像を検出する処理を削減することができる。
FIG. 7D is a diagram showing an example in which the character area shown in FIG. 7B is redefined by integrating the character areas. By integrating the character areas in this way, an area containing individual character units as shown in the area M104 and an area including a group of units constituting one character as shown in the area M106 and the area M108 can be obtained. It can be a character area. As a result, the number of target areas is reduced as compared with the case where the character areas are not connected, and the process of detecting the partial image by the direction
方向解析処理部2104は、図7(b)に示すような文字領域(例えば、M100やM102)を対象領域にしてもよいし、図7(c)に示すような文字列領域(例えば、E104)を対象領域にしてもよいし、図7(d)に示すような文字領域を再定義した後の領域(例えば、M104、M106、M108)を対象領域にしてもよい。どのように方向解析処理部2104が対象領域を設定するかについては、予め決められていてもよいし、利用者によって決められてもよい。
The direction
図8は、入力画像の方向が正方向であるときにおける、領域画像と、当該領域画像から対象パーツを抽出したときの抽出結果を示す図である。図8は、「学校に筆箱を忘れた」という文字が表れた文字列領域を対象領域とし、対象パーツに「たけかんむり」と「きへん」が含まれる場合を示す。また、図8は、領域画像の回転方向は、第1の方向である入力方向(反時計回りに0°)、第2の方向である反時計回り方向(反時計回りに90°)、第3の方向である逆方向(反時計回りに180°)、第4の方向である時計回り方向(反時計回りに270°)の4つである場合を示す。
FIG. 8 is a diagram showing a region image when the direction of the input image is the positive direction and an extraction result when the target part is extracted from the region image. FIG. 8 shows a case where the character string area in which the characters “I forgot the pencil case at school” appears is the target area, and the target parts include “Takekanmuri” and “Kihen”. Further, in FIG. 8, the rotation direction of the region image is the input direction (counterclockwise 0 °) which is the first direction, the counterclockwise direction (counterclockwise 90 °) which is the second direction, and the second direction. It shows four cases of the reverse direction (180 ° counterclockwise) which is the
はじめに、方向解析処理部2104は、領域画像を第1の方向である入力方向にする。具体的には、方向解析処理部2104は、入力画像から、対象領域に含まれる画像を、そのまま領域画像として抽出する。図8(a)は、領域画像を入力方向にした画像を示す。図8(a)の領域E110は対象領域を示す。なお、領域E110内の画像は領域画像である。また、領域E112及び領域E114は領域E110の画像のうち、「たけかんむり」の部分画像が検出された領域を示し、領域E116及び領域E118は領域E110の画像のうち、「きへん」の部分画像が抽出された領域を示す。なお、領域E118は、「たけかんむり」が本来の部首である「箱」という文字が表された画像から、「きへん」の部分画像を抽出したことを示しているが、領域E118のように、本来の部首以外の要素から、部分画像が抽出されてもよい。
First, the direction
つづいて、方向解析処理部2104は、領域画像を第2の方向である反時計回り方向にする。図8(b)は、領域E110内の画像を反時計回り方向にした領域画像を示し、領域E120は対象領域を示す。同様に、方向解析処理部2104は、領域画像を第3の方向である逆方向及び第4の方向である時計回り方向にする。図8(c)は、領域E110内の画像を逆方向にした画像を示し、領域E130は対象領域を示す。図8(d)は、領域E110内の画像を時計回り方向にした画像を示し、領域E140は対象領域を示す。
Subsequently, the direction
また、方向解析処理部2104は、領域E120、領域E130、領域E140のそれぞれの領域内の画像である領域画像から対象パーツの部分画像を抽出する。しかし、図8(b)、図8(c)、図8(d)に示すように、領域E120、領域E130、領域E140の領域画像からは、部分画像は検出されない。
Further, the direction
図9は、領域画像の回転方向である、入力方向、反時計回り方向、逆方向、時計回り方向毎に、スコアを算出した場合の例を示した図であり、具体的には、図8の例におけるスコアの具体例を示した図である。図8の例では、1つの方向(入力方向)に回転させた領域画像からのみ正方向の対象パーツが検出されている。この検出結果に基づき、図9では、方向解析処理部2104が、対象パーツを検出するたびに、入力方向を検出方向として選び、対応する方向(入力方向)のスコアに1を加算した場合の方向別スコアを示している。すなわち、方向解析処理部2104は、入力方向を示す領域画像において正方向の「きへん」と「たけかんむり」をそれぞれ2つ抽出したので、入力方向の方向別スコアは4であり、それ以外の方向の方向別スコアは0である。
FIG. 9 is a diagram showing an example in which the score is calculated for each of the input direction, the counterclockwise direction, the reverse direction, and the clockwise direction, which are the rotation directions of the region image. Specifically, FIG. 8 is a diagram showing an example. It is a figure which showed the specific example of the score in the example of. In the example of FIG. 8, the target part in the positive direction is detected only from the region image rotated in one direction (input direction). Based on this detection result, in FIG. 9, the direction when the direction
この結果、入力方向の方向別スコアが他の方向(反時計回り方向、逆方向、時計回り方向)の方向別スコアに比べて高くなる。したがって、判定処理部2106は、領域画像の回転方向のうち、入力方向が、入力画像を正方向となるように回転するための方向であること、すなわち、入力画像の方向が正方向であることを判定することができる。また、判定処理部2106によって入力方向が正方向であると判定されるため、回転処理部2108は入力画像を回転しない。
As a result, the directional score in the input direction is higher than the directional score in the other directions (counterclockwise, counterclockwise, clockwise). Therefore, in the
なお、方向解析処理部2104は、対象パーツの検出において、対象パーツ毎に制約を設けて、制約に反して検出されるものは確からしさ(もしくは一致度)が高くても無視する(検出しない)ようにしてもよい。例えば、図10に示すように、180°回転した「螢」という文字において、領域E150において正方向(反時計回りに0°)の「たけかんむり」が検出されてしまう場合があるが、「たけかんむり」は本来、文字の上側に位置するので、検出結果は適当ではない。したがって、このまま正方向の「たけかんむり」を検出すると、誤った方向を入力画像の方向として判定するおそれがある。ここで、図10に示すように、「たけかんむり」が検出された位置の上に、同じ文字列領域に属する別の文字領域が存在した場合は、「たけかんむり」が下側に位置していることがわかる。そこで、「たけかんむり」に「正方向の場合は上側に位置する」とする制約を与えることで、図10に示すような場合であっても、方向解析処理部2104は、制約に反するとみなし、検出をキャンセルすることができる。「たけかんむり」以外の対象パーツであっても、その対象パーツが本来位置しない特定の位置から検出された場合は、その検出結果を無視(キャンセル)してもよい。このようにして、入力画像の方向の判定の精度の低下を防ぐことができる。
In addition, the direction
なお、上記では活字が印刷された原稿の画像を入力画像として対象パーツを抽出する例を挙げたが、手書きの原稿の入力画像の方向を判定するようにしてもよい。この場合、検出器の構築において、人により筆記された文字から入力データを抽出して作成してもよい。また、他の活字による部分画像と共に人により筆記された文字の部分画像を学習させてもよいし、手書きの部分画像のみで検出器を構築してもよい。また、方向補正処理において手書き原稿を検知する処理を追加することで、手書き原稿として検知された原稿に対してのみ方向補正処理を適用するようにしてもよい。 In the above example, the target part is extracted by using the image of the original printed with the type as the input image, but the direction of the input image of the handwritten original may be determined. In this case, in constructing the detector, input data may be extracted from characters written by a person to create the detector. Further, the partial image of the character written by a person may be learned together with the partial image of other print characters, or the detector may be constructed only with the handwritten partial image. Further, by adding a process for detecting a handwritten document in the direction correction process, the direction correction process may be applied only to the document detected as the handwritten document.
手書き原稿の検知処理方法としては、例えば、特開2007−087196号公報に開示された方法を利用することができ、他の公知技術を用いて実現してもよい。このようにすることで、OCRの適用が困難な手書きの原稿についても、入力画像の方向を判定して回転することが可能となり、利便性が向上する。 As a method for detecting the handwritten manuscript, for example, the method disclosed in Japanese Patent Application Laid-Open No. 2007-087196 can be used, and it may be realized by using other known techniques. By doing so, even for a handwritten document to which OCR is difficult to apply, it is possible to determine the direction of the input image and rotate it, which improves convenience.
なお、上述した説明以外であっても、矛盾のない範囲において、ステップの順番を変更したり、一部のステップを省略したりしても構わない。例えば、方向補正処理において、はじめに全ての対象領域の領域画像を抽出し、方向解析処理において、全ての領域画像を第aに回転させた上で部分画像を検出する処理をしてもよい。 In addition to the above description, the order of the steps may be changed or some steps may be omitted as long as there is no contradiction. For example, in the direction correction process, the area images of all the target areas may be first extracted, and in the direction analysis process, all the area images may be rotated to the ath position and then the partial image may be detected.
本実施形態によれば、個々の文字がどの文字であるかといった識別をすることなく、主要なパーツだけを検出し、そのパーツが検出されたときのパーツの方向に基づいて、入力画像の方向を判定することが可能となる。文字を認識する必要がないため、大規模なデータベースを必要とせず、また、簡易な処理で、入力画像の方向を判定することができる。また、漢字の部首といった、特徴的なパーツを対象パーツとして定義することで、漢字等の画数が多く形状も複雑な文字の画像が含まれる画像にも対応することができる。 According to the present embodiment, only the main part is detected without distinguishing which character each character is, and the direction of the input image is based on the direction of the part when the part is detected. Can be determined. Since it is not necessary to recognize characters, a large-scale database is not required, and the direction of the input image can be determined by a simple process. Further, by defining a characteristic part such as a radical of a Chinese character as a target part, it is possible to correspond to an image including an image of a character having a large number of strokes and a complicated shape such as a Chinese character.
[2.第2実施形態]
つづいて第2実施形態について説明する。第2実施形態は、第1実施形態と異なり、領域画像を回転させるのではなく、所定の方向に回転させた部分画像を領域画像から入力画像の方向を判定する実施形態である。
[2. Second Embodiment]
Next, the second embodiment will be described. The second embodiment is different from the first embodiment in that the direction of the input image is determined from the region image by rotating the partial image in a predetermined direction instead of rotating the region image.
本実施形態では、方向解析処理として、領域画像を入力方向のままとし、所定の方向に回転させた対象パーツを検出して、検出結果に基づくスコアを算出する。 In the present embodiment, as the direction analysis process, the area image is left as the input direction, the target part rotated in a predetermined direction is detected, and the score based on the detection result is calculated.
本実施形態では、部分画像を回転させる方向の数をAとする。また、第1実施形態で説明した方向補正処理のステップS124において、方向解析処理部2104は、正方向の対象パーツを示す部分画像を第aの方向に回転させる。また、ステップS126において、方向解析処理部2104は、入力方向の領域画像から、当該第aの方向に回転させた部分画像を検出する。例えば、検出する部分画像の方向が、正方向、反時計回り方向、逆方向、時計回り方向の4つであれば、方向解析処理部2104は、対象パーツを示す部分画像を正方向、反時計回り方向、逆方向、時計回り方向にそれぞれ回転させ、当該回転させた部分画像を入力方向の領域画像から検出する。
In the present embodiment, the number of directions in which the partial image is rotated is A. Further, in step S124 of the direction correction process described in the first embodiment, the direction
また、ステップS132において、方向解析処理部2104は、検出した部分画像の方向を検出方向として選び、スコアを算出し、算出したスコアを方向別スコアに加算する。すなわち、本実施形態では、第1実施形態とは異なり、検出した部分画像の方向毎にスコアを算出する。この場合、例えば、入力画像の方向が正方向であれば、正方向の部分画像が多く検出されるため、正方向の方向別スコアが高くなる。また、入力画像の方向が反時計回り方向であれば、反時計回り方向の部分画像が多く検出されるため、反時計回り方向の方向別スコアが高くなる。このように、本実施形態の方向別スコアは、第1実施形態と異なり、スコアが高いほど、その方向が入力画像の方向である妥当性が高いことを示すため、部分画像を検出したときの方向に基づくスコアが高い方向を、そのまま入力画像の方向と判定することができる。したがって、方向補正処理のステップS110において、判定処理部2106は、方向別スコアのうち、最もスコアの高い方向を、入力画像の方向として判定すればよい。なお、方向解析処理部2104は、1の領域画像から複数の方向の部分画像が検出した場合は、検出の確からしさ(尤度、信頼度)に基づきスコアを算出してもよい。
Further, in step S132, the direction
本実施形態では、方向の情報を持った学習データを用いて、部分画像を検出するための検出器を構築する。本実施形態における学習データの例を図11に示す。本実施形態では、図11に示すように、入力データを、検出する方向に対応付けて回転させたものとし、正解データをパーツ名と回転させた方向とを含めたものとしたものを学習データのペアとして、学習により検出器を構築する。 In the present embodiment, a detector for detecting a partial image is constructed by using learning data having direction information. An example of the learning data in this embodiment is shown in FIG. In the present embodiment, as shown in FIG. 11, the input data is rotated in association with the detection direction, and the correct answer data includes the part name and the rotated direction as learning data. As a pair of, a detector is constructed by learning.
本実施形態における動作例を図12に示す。図12(a)は、方向解析処理部2104が、対象領域E200内の画像から、領域E202及び領域E204において、正方向の「たけかんむり」を、領域E206及び領域E208において、正方向の「きへん」を検出した例を示す。また、図12(b)は、検出した部分画像の方向に対応するスコアを1ずつ加算した場合のスコアを示す図である。図12(b)に示すように、正方向のスコアが最も高いため、判定処理部2106は、正方向を入力画像の方向として判定できる。
An operation example in this embodiment is shown in FIG. In FIG. 12A, the direction
なお、機械学習の代わりにテンプレートマッチングを利用する場合は、対象パーツのテンプレート画像として、検出する方向毎に回転させたテンプレート画像を予め記憶部60に記憶させておけばよい。このとき、方向解析処理部2104は、記憶部60に記憶されたテンプレート画像と、領域画像とのテンプレートマッチングを行うことで、領域画像から、テンプレート画像とテンプレート画像の方向とを検出することができる。なお、テンプレートマッチングを利用する場合は、正方向のテンプレート画像を予め記憶部60に記憶させ、テンプレートマッチングを実行するときに、正方向のテンプレート画像を検出する方向に回転させたテンプレート画像を生成してもよい。このように、正方向の部分画像から複数の方向に回転させた部分画像を生成することで、正方向の部分画像のみを記憶部60に記憶している場合であっても、テンプレートマッチングを行うことができる。
When template matching is used instead of machine learning, the template image rotated in each detection direction may be stored in the
本実施形態によれば、方向補正部210に入力画像が入力される度に領域画像自体を回転することなく、方向を考慮した対象パーツの検出が可能となり、実使用上の処理時間を短縮することができる。
According to the present embodiment, it is possible to detect the target part in consideration of the direction without rotating the area image itself every time the input image is input to the
[3.第3実施形態]
つづいて第3実施形態について説明する。第3実施形態は、方向解析処理部2104が複数の方向解析処理手段を備え、それぞれの方向解析処理手段において算出された方向別スコアを統合して最終的に得られた総合的方向別スコアに基づいて、ページ毎に入力画像の方向を判定する実施形態である。
[3. Third Embodiment]
Next, the third embodiment will be described. In the third embodiment, the directional
本実施形態は、第1実施形態及び第2実施形態の何れにも適用可能である。また、本実施形態では、第1実施形態及び第2実施形態における方向補正処理に関する図3を図13に置き換える。なお、本実施形態では、第1実施形態及び第2実施形態と同一の機能部及び処理には同一の符号を付し、説明については省略する。 This embodiment is applicable to both the first embodiment and the second embodiment. Further, in the present embodiment, FIG. 3 relating to the direction correction processing in the first embodiment and the second embodiment is replaced with FIG. In this embodiment, the same functional parts and processes as those in the first embodiment and the second embodiment are designated by the same reference numerals, and the description thereof will be omitted.
なお、本実施形態では、方向解析処理部2104がN(>1)個の方向解析処理手段を備えるとき、それぞれ第1方向解析処理、……、第N方向解析処理と呼ぶこととする。また、本実施形態では、第k方向解析処理(1≦k≦N)によって算出された方向別スコアを第k方向別スコアといい、第k方向別スコアを統合して得られる方向別スコアを総合的方向別スコアという。また、そのうち第1方向解析処理では、第1実施形態で説明した方向解析処理部2104と同等の処理を実行するものとする。なお、本実施形態における方向補正部210は、方向解析処理部2104以外は第1実施形態と同様の構成をとることができるとし、説明を省略する。
In the present embodiment, when the direction
本実施形態における総合的方向別スコアは、第1実施形態で説明したような入力画像を正方向に補正するための方向に関するスコア又は第2実施形態で説明したような入力画像の方向に関するスコアの何れかである。総合的方向別スコアの種類(入力画像を正方向に補正するための方向に関するスコアであるか入力画像の方向に関するスコアであるか)は、例えば、予め定められている。 The overall direction-specific score in the present embodiment is the score related to the direction for correcting the input image in the positive direction as described in the first embodiment or the score related to the direction of the input image as described in the second embodiment. Either. The type of the overall direction-specific score (whether the score is related to the direction for correcting the input image in the positive direction or the score is related to the direction of the input image) is predetermined, for example.
ここで、第k方向別スコアと総合的方向別スコアとが同じ種類のスコアであれば、方向解析処理部2104は、第k方向別スコアを総合的方向別スコアにそのまま統合(例えば、加算)できる。したがって、複数の方向解析処理を、同様の種類のスコアを算出する方向解析処理とすることで、方向解析処理部2104は、総合的方向別スコアを効率的に算出できる。一方で、第k方向別スコアと総合的方向別スコアとが、異なる種類のスコアであれば、第k方向別スコアを総合的方向別スコアが示すスコアの種類に揃えた上で、総合的方向別スコアに統合する。
Here, if the k-direction score and the overall direction-specific score are of the same type, the direction
例えば、総合的方向別スコアが入力画像の方向を示すスコアであり、第k方向別スコアが入力画像を正方向に補正するための方向を示すスコアである場合は、第k方向別スコアを入力画像の方向を示すスコアに揃えた上で、総合的方向別スコアに統合する。 For example, if the overall score for each direction is a score indicating the direction of the input image, and the score for the kth direction is a score indicating the direction for correcting the input image in the positive direction, the score for each k direction is input. After aligning the scores that indicate the direction of the image, integrate them into the overall score for each direction.
入力画像を正方向に補正するための方向を示すスコアは、方向毎のスコアを、仮にそのスコアが最も高かった場合に判定される入力画像の方向に対応するスコアとみなすことで、入力画像の方向を示すスコアとして扱うことができる。 The score indicating the direction for correcting the input image in the positive direction is the score of the input image by regarding the score for each direction as the score corresponding to the direction of the input image determined if the score is the highest. It can be treated as a score indicating the direction.
入力画像の方向を示すスコアは、方向毎のスコアを、仮にそのスコアが最も高かった場合に、入力画像を正方向に補正するために回転させる方向に対応するスコアとみなすことで、入力画像を正方向に補正するための方向を示すスコアとして扱うことができる。 The score indicating the direction of the input image represents the input image by regarding the score for each direction as the score corresponding to the direction in which the input image is rotated to correct it in the positive direction if the score is the highest. It can be treated as a score indicating the direction for correction in the positive direction.
図13は、本実施例において方向補正部210が実行する方向補正処理の処理手順の例を示すフローである。なお、方向補正部210は、N個の方向解析処理手段を実行した場合における総合的方向別スコアの初期値として、総合的方向別スコアに統合する対象となる方向に対応する総合的方向別スコアをゼロで初期化する。
FIG. 13 is a flow showing an example of a processing procedure of the direction correction process executed by the
本実施形態では、方向解析処理部2104は、1の対象領域から領域画像を抽出したあと、k=1を初期値として(ステップS302)、第k方向解析処理により第k方向別スコアを算出する(ステップS304)。また、方向解析処理部2104は、第k方向別スコアの値を、総合的方向別スコアに加算することで、総合的方向別スコアを更新する(ステップS306)。
In the present embodiment, the direction
つづいて、方向解析処理部2104は、kに1を加算して(ステップS308)、k≦Nの場合は、更新されたkに基づいて、ステップS304に戻り(ステップS310;No→ステップS304)、同様の処理を繰り返し、k>Nとなるまで総合的方向別スコアを更新する。k>Nとなると、方向解析処理部2104は、ステップS104で抽出した領域画像における対象パーツの検出の処理を終了する。方向解析処理部2104は、全ての対象領域から領域画像を抽出するまで、ステップS304からステップS310までの処理を繰り返す。このようにして、方向解析処理部2104は、総合的方向別スコアを更新する。
Subsequently, the direction
全ての対象領域から領域画像を抽出した場合、方向解析処理部2104は、総合的方向別スコアを、入力画像に対応する方向別スコアであるとして、後段の判定処理部2106に入力する(ステップS310;Yes)。なお、図13では複数の方向解析処理手段について逐次実行する方法について図示したが、複数の方向解析処理手段を並列で実行しても構わない。また、全ての対象領域から領域画像を抽出した場合、判定処理部2106は、総合的方向別スコアに基づいて、入力画像の方向を判定する(ステップS108;Yes→ステップS312)。判定処理部2106は、総合的方向別スコアが入力画像を正方向に補正するための方向に関するスコアである場合は、最もスコアの高い方向に回転させた入力画像を入力方向の入力画像にするために回転させる方向を、入力画像の方向として判定する。一方で、判定処理部2106は、総合的方向別スコアが入力画像の方向を示すスコアである場合は、最もスコアの高い方向を、入力画像の方向として判定する。
When the area image is extracted from all the target areas, the direction
本実施形態における方向補正処理において、第k方向解析処理(k>1)が実行するパーツの検出方法及び第k方向別スコアの算出方法については、あらゆる方法をとることができる。例えば、第1実施形態や第2実施形態で説明した対象パーツを検出する方法の他に、文章に用いられる記号であって、その記号が現れる位置に特徴がある記号を検出する方法を用いることができる。 In the direction correction process of the present embodiment, any method can be adopted as the method of detecting the parts executed by the k-direction analysis process (k> 1) and the method of calculating the score for each k-direction. For example, in addition to the method of detecting the target part described in the first embodiment and the second embodiment, a method of detecting a symbol used in a sentence and having a characteristic at the position where the symbol appears is used. Can be done.
記号を検出する方法の一例として、図14を参照して、文字列領域に含まれる特定文字として一例である句読点を検出し、その検出結果に基づいて方向別スコアを算出する方法(以下、本解析処理と呼ぶ)について説明する。本解析処理における特定文字は、方向を判定するために使用する文字・記号等である。本実施形態では句読点を一例とするが、例えば、カンマ、ピリオド等の区切り記号であってもよいし、例えば解析対象となる言語でよく登場する文字(例えば、日本語の場合「は」等)を特定文字としてもよい。 As an example of the method of detecting the symbol, referring to FIG. 14, a method of detecting a punctuation mark as an example as a specific character included in the character string area and calculating a score for each direction based on the detection result (hereinafter, this book). This is called analysis processing). The specific characters in this analysis process are characters, symbols, etc. used to determine the direction. In this embodiment, punctuation marks are used as an example, but for example, they may be delimiters such as commas and periods, and for example, characters that often appear in the language to be analyzed (for example, "ha" in the case of Japanese). May be a specific character.
なお、図14に示す本解析処理では、方向解析処理部2104は、領域画像を回転させることなく、特定文字が含まれる位置に応じて特定文字の方向を検出することで、第2実施形態と同様に、入力画像の方向に関するスコアを算出する。したがって、本解析処理と対象パーツを検出する方向解析処理とを組み合わせる場合、対象パーツを検出する方向解析処理として、第1実施形態の方法よりも第2実施形態の方法が用いられることにより、方向解析処理部2104は、効率的に総合的方向別スコアを効率的に算出できる。
In the present analysis process shown in FIG. 14, the direction
句読点の検出を通じた本解析処理では、まず、方向解析処理部2104は、文字列領域から特定文字である句読点を検出する(ステップS322)。具体的には、方向解析処理部2104は、抽出部2102によって抽出された文字列領域に基づく対象領域を設定した上で領域画像を抽出し、領域画像から句読点を検出する。句読点の検出方法は、例えば、第1実施形態で説明した方向解析処理部2104の処理と同様に、句読点の部分画像を機械学習やパターンマッチングにより検出する方法でもよいし、公知の方法であってもよい。
In this analysis process through the detection of punctuation marks, the direction
なお、例えば、「、」(読点)は、正方向(反時計回りに0°)と反時計回り方向(反時計回りに90°)とでは向きの違いがあるが、正方向(反時計回りに0°)と逆方向(反時計回りに180°)とでは向きの違いが判らないため、総合的方向別スコアに統合する対象となる全ての方向に関して検出を試みる必要は無く、いずれかの方向で検出されたか否かのみ判明すればよい。 For example, "," (reading point) has a difference in direction between the positive direction (0 ° counterclockwise) and the counterclockwise direction (90 ° counterclockwise), but the positive direction (counterclockwise). Since the difference in orientation cannot be seen between (0 °) and the opposite direction (180 ° counterclockwise), it is not necessary to try to detect all the directions to be integrated into the overall directional score, and either one of them. It is only necessary to know whether or not it was detected in the direction.
また、かな文字の濁点や半濁点、「さんずいへん」の一部など、句読点ではないが、よく似た文字のパーツと区別するため、制約を設けて、制約を満たさない場合は句読点では無いとしてキャンセルするようにしてもよい。制約の例として、たとえば、句読点の候補として検出された領域から行方向に別の文字画素が存在しないことを挙げることができる。また、多くの文書レイアウトでは、句読点とその次の文字との間は字間の幅が大きくなるため、検出された句読点と、文字列領域において句読点の前後に位置する文字領域との距離を算出して、前方向に隣り合う文字領域との距離、もしくは後ろ方向に隣り合う文字領域との距離のうち、いずれか一方が所定値以上となることを、句読点であるか否かの条件として加えてもよい。 Also, although it is not a punctuation mark such as a dakuten or semi-voiced sound mark of kana characters, or a part of "Sanzuihen", a constraint is set to distinguish it from parts of similar characters, and if the constraint is not met, it is not a punctuation mark. You may cancel it. As an example of the constraint, for example, there is no other character pixel in the line direction from the area detected as a candidate for punctuation mark. Also, in many document layouts, the width between the punctuation mark and the next character is large, so the distance between the detected punctuation mark and the character area located before and after the punctuation mark in the character string area is calculated. Then, it is added as a condition of whether or not it is a punctuation mark that either one of the distances from the character areas adjacent to each other in the front direction and the character areas adjacent to each other in the rear direction is equal to or more than a predetermined value. You may.
図15を参照して、抽出されている文字領域及び文字列領域に対して句読点を検出した場合の例を示す。図15(a)は、点線で囲まれた範囲がそれぞれの文字領域であり、そのうち網掛けされた文字領域(領域M300、領域M302)が、句読点として検出されていることを示す図である。この場合、領域E300に示すように、5文字目の「で」など複数の文字において濁点が含まれるが、多くの場合、行方向において別の文字画素が存在し、また前方及び後方の文字領域との距離は小さいため、句読点としての検出はキャンセルされる。 With reference to FIG. 15, an example in which punctuation marks are detected in the extracted character area and character string area will be shown. FIG. 15A is a diagram showing that the range surrounded by the dotted line is each character area, and the shaded character area (area M300, area M302) is detected as a punctuation mark. In this case, as shown in the area E300, a dakuten is included in a plurality of characters such as the fifth character "de", but in many cases, another character pixel exists in the line direction, and the front and rear character areas are present. Since the distance to and is small, the detection as a punctuation mark is cancelled.
次に、方向解析処理部2104は、検出方向が未判定の句読点がある場合は、検出方向の判定の対象となる句読点を選択し(ステップS324;Yes→ステップS326)、選択した句読点と、前後の文字領域との位置関係を解析する(ステップS328)。
Next, when there is a punctuation mark whose detection direction has not been determined, the direction
位置関係の解析については、具体的には、まず、方向解析処理部2104は、句読点と、句読点が属する文字列領域において、文字列方向に基づき、句読点の前方に隣り合う文字領域との距離D1、後方に隣り合う文字領域との距離D2を算出する。なお、文字列方向が水平方向の場合は、句読点の前方とは句読点の左側であり、句読点の後方とは句読点の右側である。文字列方向が垂直方向の場合は、句読点の前方とは句読点の上側であり、句読点の後方とは句読点の下側である。そして、pを正の所定係数とし、
D1+p < D2 ・・・・・・ (式1)
を満たすとき、句読点は後方に余白を持つとする。一方、式1を満たさず、
D2+p < D1 ・・・・・・ (式2)
を満たすとき、句読点は前方に余白を持つとする。式1及び式2のいずれも満たさない場合、句読点は前方、後方のいずれにも十分な余白が無いとする。前方、後方のいずれにも十分な余白が無い場合、検出された句読点は検出誤りであるとして、以降の処理を中断するようにしてもよい。
Regarding the analysis of the positional relationship, first, the direction
D1 + p <D2 ... (Equation 1)
Suppose the punctuation marks have a trailing margin when satisfying. On the other hand, it does not satisfy
D2 + p <D1 ... (Equation 2)
Suppose that the punctuation mark has a margin in front when the condition is satisfied. If neither
更に、方向解析処理部2104は、句読点と、句読点が属する文字列領域との位置関係を解析する(ステップS330)。具体的には、方向解析処理部2104は、検出された句読点及び文字列領域を示す位置座標のうち、行方向に対応する成分の最小値をS1及びS2、最大値をE1及びE2とする。更に、方向解析処理部2104は、文字列領域の行方向における中間位置をM2=(S2+E2)÷2として定義する。そして、方向解析処理部2104は、句読点の位置S1及びE1、文字列領域の中間位置M2の関係から、句読点が文字列領域の上半分(もしくは左半分)にあるか、下半分(もしくは右半分)にあるか、もしくはそのどちらでも無いかを判定する。
Further, the direction
判定方法の例として、たとえば以下の条件に基づいて判定することができる。
E1 ≦ M2+β ・・・・・・ (式3)
S1 ≧ M2−β ・・・・・・ (式4)
式3を満たすとき、方向解析処理部2104は、句読点が文字列領域の上半分(もしくは左半分)にあるとする。式4を満たすとき、方向解析処理部2104は、句読点が文字列領域の下半分(もしくは右半分)にあるとする。式3及び式4の双方を満たす場合、もしくは逆に双方とも満たさない場合は、方向解析処理部2104は、句読点は中間位置周辺にあるか、文字列領域の行方向にわたって大きな幅を持っているとして、どちら側でも無いとする。係数βは式3及び式4の条件を満たす範囲を調整する係数であり、正の値を取る場合は、中間位置よりも多少はみ出ていても許容するための条件として緩和される一方、負の値を取る場合は条件がより厳しくなる。
As an example of the determination method, the determination can be made based on, for example, the following conditions.
E1 ≤ M2 + β ... (Equation 3)
S1 ≧ M2-β ・ ・ ・ ・ ・ ・ (Equation 4)
When the
図15(b)は、距離D1及びD2、位置S1、S2、E1、E2及び中間位置M2の例を示す図である。図15(b)に示す文字列領域は水平方向に文字領域が並ぶ水平方向の文字列であり、行方向は垂直方向となるため、位置の行方向に対応する成分はY成分となる。 FIG. 15B is a diagram showing an example of distances D1 and D2, positions S1, S2, E1, E2, and intermediate position M2. The character string area shown in FIG. 15B is a character string in the horizontal direction in which the character areas are arranged in the horizontal direction, and the line direction is the vertical direction. Therefore, the component corresponding to the line direction of the position is the Y component.
句読点の検出された文字領域と前後の文字領域との位置関係及び文字列領域との位置関係の解析結果から、方向解析処理部2104は、句読点毎に、検出方向を判定する(ステップS332)。また、方向解析処理部2104は、判定した検出方向に基づき、方向別スコアを算出し、加算する(ステップS334)。方向別スコアの算出方法の例として、たとえば、前記の位置関係の解析結果の組合せから最も適切な検出方向を1つ判定して、判定した検出方向に対応する方向別スコアを加算することができる。
The direction
つづいて、方向解析処理部2104は、ステップS324に戻り、判定方向が未判定の句読点があるか否かを判定する。このとき、候補判定が未判定の句読点がない場合、すなわち、全ての検出された句読点について方向別スコアの加算を終えた場合は、方向解析処理部2104は本解析処理を終了する(ステップS324;No)。
Subsequently, the direction
図16を参照して、本解析処理についての動作例を説明する。図16(a)及び図16(b)は、前記の位置関係の解析結果の組合せと、対応する最も適切な検出方向との関係を表すテーブルの例である。図16(a)は文字列方向が水平方向である場合、図16(b)は文字列方向が垂直方向である場合のテーブルを示す。 An operation example of this analysis process will be described with reference to FIG. 16 (a) and 16 (b) are examples of a table showing the relationship between the combination of the analysis results of the positional relationship and the corresponding most appropriate detection direction. FIG. 16A shows a table when the character string direction is horizontal, and FIG. 16B shows a table when the character string direction is vertical.
図16(a)を参照して、文字列方向が水平方向である場合を例に説明する。方向解析処理部2104は、句読点が文字列領域の下半分にあり、前後の文字領域との関係において右側(後方)に余白を持つ場合、検出方向として正方向(反時計回りに0°)を判定する。方向解析処理部2104は、句読点が文字列領域の上半分にあり、前後の文字領域との関係において左側(前方)に余白を持つ場合、検出方向として逆方向(反時計回りに180°)を判定する。方向解析処理部2104は、句読点が文字列領域の上半分にあり、前後の文字領域との関係において右側(後方)に余白を持つ場合、検出方向として反時計回り方向(反時計回りに90°)を判定する。方向解析処理部2104は、句読点が文字列領域の下半分にあり、前後の文字領域との関係において左側(前方)に余白を持つ場合、検出方向として時計回り方向(反時計回りに270°)を判定する。上記のいずれにも該当しない場合、適切な検出方向が見つからないとして、方向解析処理部2104は、検出なし(いずれの方向も検出方向としない)と判定する。方向解析処理部2104は、いずれかの検出方向を判定したとき、その検出方向に対応する方向別スコアを加算する。スコアは定数でもよいし、前記算出した距離や位置関係に基づいて動的に算出してもよい。
A case where the character string direction is the horizontal direction will be described as an example with reference to FIG. 16A. When the punctuation mark is in the lower half of the character string area and there is a margin on the right side (backward) in relation to the character area before and after, the direction
また、図16(b)を参照して、文字列方向が垂直方向である場合の例について説明する。方向解析処理部2104は、文字列方向が垂直方向である場合は、句読点が文字列領域の右半分にあり、前後の文字領域との関係において下側(後方)に余白を持つ場合、検出方向として正方向(反時計回りに0°)を判定する。方向解析処理部2104は、句読点が文字列領域の左半分にあり、前後の文字領域との関係において上側(前方)に余白を持つ場合、検出方向として逆方向(反時計回りに180°)を判定する。方向解析処理部2104は、句読点が文字列領域の右半分にあり、前後の文字領域との関係において上側(前方)に余白を持つ場合、検出方向として反時計回り方向(反時計回りに90°)を判定する。方向解析処理部2104は、句読点が文字列領域の左半分にあり、前後の文字領域との関係において下側(後方)に余白を持つ場合、検出方向として時計回り方向(反時計回りに270°)を判定する。文字列方向が垂直方向である場合も、上記のいずれにも該当しないときは、方向解析処理部2104は、適切な検出方向が見つからないとして、検出なしと判定すればよい。また、方向解析処理部2104は、いずれかの検出方向を判定したとき、その検出方向に対応する方向別スコアを加算する。スコアは定数でもよいし、前記算出した距離や位置関係に基づいて動的に算出してもよい。
Further, an example in the case where the character string direction is the vertical direction will be described with reference to FIG. 16 (b). The direction
文字列方向が水平方向の場合に方向解析処理部2104が判定する検出方向について説明する。図16(c)は文字列方向が水平方向である文字列領域E310を示した図である。文字列領域E310に現れた文字は転倒しておらず、正方向の方向を示している。また、文字列領域E310には、読点M310が含まれている。図16(c)に記載した格子G310は、読点M310の位置を説明するために記載したものである。ここで、読点M310は、格子G310の左下に位置しており、前後の文字領域との関係において右側に広い余白を持ち、文字列領域の下半分にあることに対応する。したがって、方向解析処理部2104は、読点M310の検出方向として、文字列領域E310の文字の方向と同じ正方向と判定することができる。
The detection direction determined by the direction
別の例について説明する。図16(d)は、文字列方向が水平方向である文字列領域E320を示した図である。文字列領域E320に現れた文字は、反時計回り方向を向いている。文字列領域E320には、格子G320の左上の位置に読点M320が含まれている。すなわち、読点M320は、前後の文字領域との関係において右側に広い余白を持ち、文字列領域の上半分にある。したがって、方向解析処理部2104は、読点M320の検出方向として、文字列領域E320の文字の方向と同じ反時計回り方向と判定することができる。
Another example will be described. FIG. 16D is a diagram showing a character string area E320 in which the character string direction is the horizontal direction. The characters appearing in the character string area E320 face counterclockwise. The character string area E320 includes a reading point M320 at the upper left position of the grid G320. That is, the reading point M320 has a wide margin on the right side in relation to the front and rear character areas, and is in the upper half of the character string area. Therefore, the direction
つづいて、文字列方向が垂直方向の場合に方向解析処理部2104が判定する検出方向について説明する。図16(e)は、文字列方向が垂直方向である文字列領域E330を示した図である。文字列領域E330に現れた文字は、転倒しておらず、正方向の方向を向いている。文字列領域E330には、格子G330の右上の位置に読点M330が含まれている。すなわち、読点M330は、前後の文字領域との関係において下側に広い余白を持ち、文字列領域の右半分にある。したがって、方向解析処理部2104は、読点M330の検出方向として、文字列領域E330の文字の方向と同じ反時計回り方向と判定することができる。
Next, the detection direction determined by the direction
別の例について説明する。図16(f)は、文字列方向が垂直方向である文字列領域E340を示した図である。文字列領域E340に現れた文字は、反時計回り方向を向いている。文字列領域E340には、格子G340の右下に位置に読点M340が含まれている。すなわち、読点M340は、前後の文字領域との関係において上側に広い余白を持ち、文字列領域の右半分にある。したがって、方向解析処理部2104は、読点M340の検出方向として、文字列領域E340の文字の方向と同じ反時計回り方向と判定することができる。
Another example will be described. FIG. 16 (f) is a diagram showing a character string area E340 in which the character string direction is the vertical direction. The characters appearing in the character string area E340 are facing counterclockwise. The character string area E340 includes a reading point M340 at a position at the lower right of the grid G340. That is, the comma M340 has a wide margin on the upper side in relation to the front and rear character areas, and is located on the right half of the character string area. Therefore, the direction
このように、方向解析処理部2104は、ステップS304の第k方向解析処理を実行する。そして、方向解析処理部2104は、ステップS304の第k方向解析処理によって得られた最終的な第k方向別スコアを、ステップS306において総合的方向別スコアに加算することで、他の方向解析処理手段で得られた方向別スコアと加算する。
In this way, the direction
第k方向解析処理は前述した方法と異なる別の方法を取ることもできる。また、第k方向解析処理においても、第1実施形態に記載した方向解析処理と同じ方法を採用してもよく、一方は機械学習によるパーツ検出を採用して他方はパターンマッチングによるパーツ検出を採用するといった差異を設けてもよい。 The k-th direction analysis process may be performed by another method different from the method described above. Further, in the k-direction analysis process, the same method as the direction analysis process described in the first embodiment may be adopted, one adopts part detection by machine learning and the other adopts parts detection by pattern matching. You may make a difference such as.
また、方向解析処理部2104は、方向解析処理毎に対象領域の設定方法を変更したりスコアの与え方を変更したりすることで、方向解析処理に対して差異を設けて、第1実施形態に記載した処理方法の強化を図ってもよい。
Further, the direction
また、方向解析処理部2104は、複数の方向解析処理に共通する処理をまとめて実行したり、共通して用いられるデータを共有したりしてもよい。例えば、方向解析処理部2104は、2つの方向解析処理において、領域画像を回転させる処理が含まれる場合は、一方の方向解析処理において回転させた領域画像を一時的に記憶し、他方の方向解析処理で、当該回転させた領域画像を再利用してもよい。このようにすることで、方向解析処理部2104は、複数の方向解析処理を効率的に実行することができる。
Further, the direction
このように方向解析処理を組み合わせることにより、本実施形態では、入力画像の方向の判定の精度を向上させたり、入力画像に応じた方向解析処理を実行したりすることが可能となる。 By combining the direction analysis processing in this way, in the present embodiment, it is possible to improve the accuracy of determining the direction of the input image and to execute the direction analysis processing according to the input image.
[4.第4実施形態]
つづいて、第4実施形態について説明する。第4実施形態は、入力画像から抽出された文字領域の特徴から、文書中の言語のタイプを判定し、その言語のタイプに対応する方向補正処理を実行する実施形態である。本実施形態は、第1実施形態の図3を図17に置き換えたものである。なお、同一の機能部及び処理には同一の符号を付し、説明については省略する。
[4. Fourth Embodiment]
Next, the fourth embodiment will be described. The fourth embodiment is an embodiment in which a language type in a document is determined from the characteristics of a character area extracted from an input image, and direction correction processing corresponding to the language type is executed. In this embodiment, FIG. 3 of the first embodiment is replaced with FIG. The same functional parts and processes are designated by the same reference numerals, and the description thereof will be omitted.
本実施形態における方向補正部210は、M(≧1)通りの言語タイプに対応し、方向解析処理部2104は言語タイプ毎にそれぞれ異なる方向解析処理手段を備える。ここで、言語タイプは、1言語毎に1つ割り当ててもよいし、類似した文字や文法を用いる言語同士を1つの言語タイプとしてまとめてもよい。便宜上、M通りの言語タイプをそれぞれ第1言語タイプ、……、第M言語タイプと呼ぶ。
The
図17は、本実施形態において、方向補正部210が実行する方向補正処理の手順を示した図である。本実施形態では、文字を構成する要素を含む領域を抽出したあと、方向解析処理部2104は、入力画像の言語タイプの判定を行う(ステップS402)。なお、本実施形態では、言語タイプを判定したら、判定した言語タイプに対応する番号L(1≦L≦M)を決定する。これを、言語タイプLとよぶ。
FIG. 17 is a diagram showing a procedure of direction correction processing executed by the
言語タイプの判定手段は公知の方法を利用することができ、例えば、特許文献3に記載の方法により、特定された言語ファミリを言語タイプとして利用することができる。特許文献3に記載の方法では、画素パターンに基づく特徴から言語ファミリを判定しており、たとえばラテン語系のアルファベットと、アジア系の言語とを、文字あたりの画素パターンの特徴の数により判定する。そこで、例えば、方向解析処理部2104は、ラテン語系をL=1、アジア系をL=2、それ以外をL=3とし、M=3として分類を行うようにしてもよい。
A known method can be used as the language type determining means, and for example, the language family specified by the method described in
言語タイプを判定すると、方向解析処理部2104は、領域画像を抽出し、抽出した領域画像を対象に言語タイプの番号Lに対応する第L方向解析処理を実行する(ステップS404)。方向解析処理部2104の方向解析処理手段としては、例えば、第1実施形態や第2実施形態で述べた方法を、番号Lの言語タイプに対応する対象パーツのみ限定して適用する手段とする。なお、方向解析処理部2104は、第3実施形態のように、言語タイプ毎に異なる方向解析処理手段を複数組み合わせてもよい。
When the language type is determined, the direction
また、例えば、対応可能な言語タイプが見つからなかった場合(上述の例ではL=3の「それ以外」がこの場合にあたる)、方向解析処理部2104は、言語タイプに応じた対象パーツの限定を行わずに全ての対象パーツを検出対象としてもよい。なお、方向解析処理部2104は、対応外の言語であるとして、入力画像の方向の判定及び回転を行わずに、入力画像をそのまま(反時計回りに0°のまま)出力するようにしてもよい。
Further, for example, when a compatible language type is not found (in the above example, “other” of L = 3 corresponds to this case), the direction
本実施形態によれば、言語タイプを判定してそれに基づいて処理を切り替えることで、複数の言語に対応した膨大な対象パーツを対象とすること無く、文書中に含まれていると判断された言語タイプに対応する対象パーツに限定して方向解析処理を実行できる。その結果、入力画像の方向の判定にかかる処理量の短縮につながり、また無関係な対象パーツの検出を回避することで、誤判定を減らすこともできる。 According to the present embodiment, by determining the language type and switching the processing based on the language type, it is determined that the enormous target parts corresponding to a plurality of languages are included in the document without being targeted. Direction analysis processing can be executed only for the target parts corresponding to the language type. As a result, the amount of processing required for determining the direction of the input image can be shortened, and erroneous determination can be reduced by avoiding the detection of irrelevant target parts.
[5.第5実施形態]
第1実施形態から第4実施形態では、画像処理装置を画像形成装置が有する画像処理装置に適用した構成について説明したが、これに限るものではない。そこで、第5実施形態として、第1実施形態から第4実施形態において説明した画像処理装置を、フラットベッドスキャナ等の画像読取装置が有する画像処理装置に適用した場合について説明する。
[5. Fifth Embodiment]
In the first to fourth embodiments, the configuration in which the image processing device is applied to the image processing device included in the image forming device has been described, but the present invention is not limited to this. Therefore, as a fifth embodiment, a case where the image processing apparatus described in the first to fourth embodiments is applied to an image processing apparatus included in an image reading apparatus such as a flatbed scanner will be described.
本実施形態は第1実施形態から第4実施形態のいずれにも適用できるが、第1実施形態に適用した場合について説明する。この場合、本実施形態は、第1実施形態の図1を図18に置き換えたものである。なお、同一の機能部及び処理には同一の符号を付し、説明については省略する。 The present embodiment can be applied to any of the first to fourth embodiments, but a case where the present embodiment is applied to the first embodiment will be described. In this case, this embodiment replaces FIG. 1 of the first embodiment with FIG. The same functional parts and processes are designated by the same reference numerals, and the description thereof will be omitted.
図18は、本実施形態に係る画像処理装置20を備える画像読取装置2の構成を示すブロック図である。図18に示すように、画像読取装置2は、画像入力装置10、画像処理装置20、送受信装置40、操作パネル50、記憶部60、制御部70を備えている。画像処理装置20は、A/D変換部202、シェーディング補正部204、原稿種別判定部206、ACS判定部208、方向補正部210、入力階調補正部212、領域分離処理部214、色補正部216、空間フィルタ処理部220、解像度変換処理部222、出力階調補正部224、階調再現処理部226、及び圧縮処理部228を備えている。方向補正部210が方向補正処理を実行することで、第1実施形態と同様に、入力画像の方向の判定処理及び回転処理が実行される。
FIG. 18 is a block diagram showing a configuration of an
画像読取装置2で実行される各種処理は、画像読取装置2に備えられる制御部70(CPUあるいはDSP等のプロセッサを含むコンピュータ)により制御される。本実施形態では、画像読取装置2は、スキャナに限定されることはなく、例えば、デジタルスチルカメラ、書画カメラ、あるいは、カメラを搭載した電子機器類(例えば、携帯電話、スマートフォン、タブレット端末等)であってもよい。
Various processes executed by the
なお、本実施形態を第2実施形態から第4実施形態に適用する場合は、それぞれの実施形態で説明した方向補正処理を実行する画像処理装置20を備えて画像読取装置2を構成すればよい。
When applying this embodiment to the second to fourth embodiments, the
このように、本実施形態によれば、スキャナやデジタルスチルカメラやカメラを搭載した電子機器類といった装置であっても、入力画像の方向を判定及び入力画像の方向の補正を行うことが可能となる。 As described above, according to the present embodiment, it is possible to determine the direction of the input image and correct the direction of the input image even in a device such as a scanner, a digital still camera, or an electronic device equipped with a camera. Become.
[6.第6実施形態]
第1実施形態から第5実施形態では、画像入力装置10によって読み取られた原稿の画像それぞれについて、各入力画像の方向を判定し、判定した方向に従って回転した画像を出力する画像処理装置20について説明した。それに対して、第6実施形態は、画像処理装置20では入力画像の方向の判定及び回転は行わずに画像ファイルとして送信させた後に、受信したコンピュータにおいて、ソフトウェアによって、各入力画像の方向の判定を行う実施形態である。本実施形態では、読み取った画像の方向が正しくない(正方向でない)可能性を利用者に伝えることで、回転するか否かを利用者に判断させる。
[6. 6th Embodiment]
In the first to fifth embodiments, the
図19は、本実施形態のソフトウェアである、入力画像それぞれに対して推奨される方向(入力画像を正方向にするために回転させる方向)を判定し、利用者に入力画像の回転を促すソフトウェアを実行したときに表示される画面W600の例である。入力画像毎の推奨される方向の判定は、例えば、第1実施形態から第4実施形態で説明した方向補正部210で実行される方向補正処理のうち、ステップS102からステップS110までを実行して得られる方向別スコアに基づいて判定することで実現できる。
FIG. 19 is software of the present embodiment, which determines a recommended direction for each input image (direction to rotate the input image in order to make it positive) and prompts the user to rotate the input image. Is an example of the screen W600 displayed when the above is executed. For the determination of the recommended direction for each input image, for example, among the direction correction processes executed by the
図19の例では、画面W600の左側の領域E600に、入力画像に対応するサムネイル画像がページ番号と紐づけて一覧表示されており、利用者が選択したページに対応するサムネイル画像は他のページに対応するサムネイル画像に比べて太い枠線で強調表示されている。また、標識のアイコンM600及びM602は、判定された入力画像の方向が正方向(反時計回りに0°)でないことを示す方法の例である。判定された入力画像の方向が正方向ではない場合、ページ番号と紐づけて注意を促す図もしくは文字列を表示することで、利用者はそのページが正しい方向(正方向)で読み取りできていなかった可能性があることを知ることができる。 In the example of FIG. 19, thumbnail images corresponding to the input images are displayed in a list in the area E600 on the left side of the screen W600 in association with the page number, and the thumbnail images corresponding to the page selected by the user are other pages. It is highlighted with a thicker border than the thumbnail image corresponding to. Further, the icon icons M600 and M602 are examples of a method for indicating that the direction of the determined input image is not the positive direction (0 ° counterclockwise). If the direction of the determined input image is not in the positive direction, the user cannot read the page in the correct direction (positive direction) by displaying a figure or character string that calls attention in association with the page number. You can know that there is a possibility.
また、図19の例において、画面W600の右側の領域E602には、利用者が選択したページに該当する入力画像と、本実施形態のソフトウェアによって判定された推奨される方向に基づいて入力画像を回転した画像とを並べて表示している。また、2つの画像の間に配置されている右向きの矢印A600は、入力画像(オリジナル)を、推奨される方向に基づいて回転させた状態を、そのページの画像の最新状態として更新する処理の指示を受け付けるものである。また、左向きの矢印A602は、前述の方法で回転させた状態から、入力された状態での画像の状態に戻す、すなわち回転をキャンセルする処理の指示を受け付けるものである。各ページの画像の初期状態は入力された時点での画像の状態とし、前述の左右の矢印をクリックするなどの方法により、ページ毎に画像の最新状態を更新する。 Further, in the example of FIG. 19, in the area E602 on the right side of the screen W600, the input image corresponding to the page selected by the user and the input image based on the recommended direction determined by the software of the present embodiment are displayed. The rotated image is displayed side by side. Further, the right-pointing arrow A600 arranged between the two images is a process of updating the state in which the input image (original) is rotated based on the recommended direction as the latest state of the image on the page. It accepts instructions. Further, the arrow A602 pointing to the left receives an instruction of a process of returning from the state of being rotated by the above method to the state of the image in the input state, that is, canceling the rotation. The initial state of the image on each page is the state of the image at the time of input, and the latest state of the image is updated for each page by a method such as clicking the left and right arrows described above.
図19では、入力画像と、推奨される方向に基づいて回転した画像とのうち、最新状態に対応する画像の方について、太枠によって強調表示することにより、選択されているページの最新状態がどちらであるかを利用者が判断し易いようにしている。利用者は選択したページ毎に、入力画像と、推奨される方向に基づいて回転した画像とを見比べ、必要に応じて、どちらを採用するかを切り替えることが可能となる。 In FIG. 19, the latest state of the selected page is displayed by highlighting the image corresponding to the latest state among the input image and the image rotated based on the recommended direction with a thick frame. It makes it easier for the user to determine which is the case. For each selected page, the user can compare the input image with the image rotated based on the recommended direction, and switch which one to use as needed.
各画像の最新状態が切り替わる度に最新状態に合わせて画像を保存してもよいし、本実施形態のソフトウェアに設けられたメニューから保存を指示したタイミングに、選択中のページについて保存を実行してもよい。また、本実施形態のソフトウェアを終了するまでの間は各ページの最新状態の変更を破棄せず記憶しておき、メニューから保存を指示したタイミングでまとめて保存するようにしてもよい。また、推奨される方向が正方向(反時計回りに0°)でないページについて、一括で推奨される方向に回転させることを指示する機能を設けてもよい。 Each time the latest state of each image is switched, the image may be saved according to the latest state, or the selected page is saved at the timing when saving is instructed from the menu provided in the software of the present embodiment. You may. Further, until the software of the present embodiment is terminated, the latest changes of each page may be stored without being discarded, and may be collectively saved at the timing instructed to save from the menu. In addition, a function may be provided to instruct the pages whose recommended direction is not the positive direction (0 ° counterclockwise) to be rotated in the recommended direction at once.
本実施形態によれば、入力画像の方向の判定や入力画像の方向の補正を、画像形成装置や画像処理装置といった装置ではなく、入力画像を受信したコンピュータにおいて、ソフトウェアによって実現することが可能となる。 According to the present embodiment, it is possible to determine the direction of the input image and correct the direction of the input image by software not in a device such as an image forming device or an image processing device but in a computer that receives the input image. Become.
[7.第7実施形態]
第1実施形態では対象パーツの例として漢字の部首を挙げたが、基準を満たすものであれば他の文字種、及びその文字を構成するパーツを対象パーツとして定義してもよい。本実施形態では、漢字の部首以外を対象パーツとして定義した場合について説明する。
[7. Seventh Embodiment]
In the first embodiment, the radical of the Chinese character is given as an example of the target part, but other character types and the parts constituting the character may be defined as the target part as long as they satisfy the criteria. In this embodiment, a case where a part other than the radical of the Chinese character is defined as a target part will be described.
例えば、対象パーツとしては、図20(a)や図20(b)のように、ハングルを利用してもよいし、「あ」や「き」のようなひらがなを利用してもよい。 For example, as the target part, Hangul may be used as shown in FIGS. 20 (a) and 20 (b), or hiragana such as “a” or “ki” may be used.
また、欧文においては、単語間に余白が挿入されることを利用して、文字単体や文字の一部分でなく、比較的少ない文字数で構成された単語単位で対象パーツを構成してもよい。このとき、文字列方向に並ぶ文字領域間の距離が所定距離以内となるような文字領域同士の組を連結関係にあるとし、連結関係にある文字領域の集合を1つの文字領域として再定義することで、単語を1つの文字領域として扱うことができる。例えば、図20(c)、図20(d)、図20(e)は、単語を対象パーツとした例である。単語をパーツとすることで非対称性が向上するほか、欧文では余白によって1行の文字列を単語ごとに分離しやすいという利点もあるため、分離された単語単位で対象領域を設けて対象パーツの検出を行うことで、検出の効率も向上する。 Further, in European languages, the target part may be configured not by a single character or a part of a character but by a word unit composed of a relatively small number of characters by utilizing the fact that a margin is inserted between words. At this time, it is assumed that the pair of character areas in which the distance between the character areas arranged in the character string direction is within a predetermined distance is in a concatenated relationship, and the set of the concatenated character areas is redefined as one character area. Therefore, the word can be treated as one character area. For example, FIGS. 20 (c), 20 (d), and 20 (e) are examples in which words are targeted parts. In addition to improving asymmetry by using words as parts, there is also the advantage that it is easy to separate one line of character string for each word in European languages, so a target area is provided for each separated word and the target part By performing the detection, the efficiency of the detection is also improved.
また、図20(d)や(e)に示すように、先頭を大文字にしたパーツを定義しておくと、登場頻度は低下するが、誤検出の頻度も低下するため有用である。 Further, as shown in FIGS. 20 (d) and 20 (e), it is useful to define a part in which the beginning is capitalized, because the frequency of appearance is reduced, but the frequency of false detection is also reduced.
[8.変形例]
本発明は上述した各実施の形態に限定されるものではなく、種々の変更が可能である。すなわち、本発明の要旨を逸脱しない範囲内において適宜変更した技術的手段を組み合わせて得られる実施の形態についても本発明の技術的範囲に含まれる。また、上述した実施形態では、画像入力装置10から画像処理装置20へはRGBのアナログ信号が入力されるものとして、カラーの画像データを扱う構成としたが、これに限るものではなく、白黒の画像データを扱う構成であってもよい。
[8. Modification example]
The present invention is not limited to the above-described embodiments, and various modifications can be made. That is, the technical scope of the present invention also includes embodiments obtained by combining technical means appropriately modified within a range that does not deviate from the gist of the present invention. Further, in the above-described embodiment, color image data is handled assuming that an RGB analog signal is input from the image input device 10 to the
また、上述した実施形態は、説明の都合上、それぞれ別に説明している部分があるが、技術的に可能な範囲で組み合わせて実行してもよいことは勿論である。例えば、第3実施形態と第4実施形態とを組み合わせて、判定した言語タイプに対応して、複数の方向解析処理手段を実行するように構成してもよい。 In addition, although the above-described embodiments are described separately for convenience of explanation, it is needless to say that they may be combined and executed within a technically possible range. For example, the third embodiment and the fourth embodiment may be combined to execute a plurality of direction analysis processing means corresponding to the determined language type.
また、実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、各種ROM(Read Only Memory)やHDD等の記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行なわれる。 Further, the program that operates in each device in the embodiment is a program that controls a CPU or the like (a program that causes a computer to function) so as to realize the functions of the above-described embodiment. Then, the information handled by these devices is temporarily stored in a temporary storage device (for example, RAM) at the time of processing, and then stored in various storage devices such as ROM (Read Only Memory) and HDD, if necessary. Is read, modified, and written by the CPU.
ここで、プログラムを格納する記録媒体としては、半導体媒体(例えば、ROMや、不揮発性のメモリカード等)、光記録媒体・光磁気記録媒体(例えば、DVD(Digital Versatile Disc)、MO(Magneto Optical Disc)、MD(Mini Disc)、CD(Compact Disc)、BD(Blu-ray Disc)(登録商標)等)、磁気記録媒体(例えば、磁気テープ、フレキシブルディスク等)等の何れであってもよい。また、ロードしたプログラムを実行することにより、上述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、オペレーティングシステムあるいは他のアプリケーションプログラム等と共同して処理することにより、本発明の機能が実現される場合もある。 Here, as the recording medium for storing the program, a semiconductor medium (for example, ROM, a non-volatile memory card, etc.), an optical recording medium / magneto-optical recording medium (for example, a DVD (Digital Versatile Disc), MO (Magneto Optical), etc.) Disc), MD (Mini Disc), CD (Compact Disc), BD (Blu-ray Disc) (registered trademark), etc.), magnetic recording medium (for example, magnetic tape, flexible disc, etc.) may be used. .. In addition, by executing the loaded program, not only the functions of the above-described embodiment are realized, but also by processing in collaboration with the operating system or other application programs based on the instructions of the program, the present invention In some cases, the functions of the invention are realized.
また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバコンピュータの記憶装置も本発明に含まれるのは勿論である。 Further, in the case of distribution to the market, the program can be stored and distributed in a portable recording medium, or transferred to a server computer connected via a network such as the Internet. In this case, it goes without saying that the storage device of the server computer is also included in the present invention.
1 画像形成装置
10 画像入力装置
20 画像処理装置
202 A/D変換部
204 シェーディング補正部
206 原稿種別判定部
208 ACS判定部
210 方向補正部
2102 抽出部
2104 方向解析処理部
2106 判定処理部
2108 回転処理部
212 入力階調補正部
214 領域分離処理部
216 色補正部
218 黒色生成下色除去部
220 空間フィルタ処理部
222 解像度変換処理部
224 出力階調補正部
226 階調再現処理部
228 圧縮処理部
30 画像出力装置
40 送受信装置
50 操作パネル
60 記憶部
70 制御部
2 画像読取装置
1 Image forming device 10
Claims (17)
前記領域画像から、文字を構成する要素を示す部分画像を検出する検出部と、
前記検出した部分画像に基づいて、前記入力画像の方向を判定する判定部と、
を備えることを特徴とする画像処理装置。 An extraction unit that extracts an image of the area containing elements that make up characters from the input image as an area image,
A detection unit that detects a partial image showing the elements that make up the character from the area image,
A determination unit that determines the direction of the input image based on the detected partial image,
An image processing device comprising.
前記判定部は、前記検出部が検出した部分画像に基づき前記領域画像を回転させた方向別にスコアを算出し、当該算出したスコアに基づいて入力画像の方向を判定する
ことを特徴とする請求項1に記載の画像処理装置。 The detection unit detects a partial image from an image obtained by rotating the region image in a plurality of directions.
The claim is characterized in that the determination unit calculates a score for each direction in which the region image is rotated based on the partial image detected by the detection unit, and determines the direction of the input image based on the calculated score. The image processing apparatus according to 1.
前記判定部は、前記検出部が検出した部分画像に基づき前記部分画像を回転させた方向別にスコアを算出し、当該算出したスコアに基づいて入力画像の方向を判定する
ことを特徴とする請求項1に記載の画像処理装置。 The detection unit detects the partial image rotated in a plurality of directions from the region image, and then detects the partial image.
The claim is characterized in that the determination unit calculates a score for each direction in which the partial image is rotated based on the partial image detected by the detection unit, and determines the direction of the input image based on the calculated score. The image processing apparatus according to 1.
前記判定部は、前記検出部が検出した前記部分画像と前記特定文字とに基づき、前記入力画像の方向を判定する、
ことを特徴とする請求項1から10の何れか一項に記載の画像処理装置。 The detection unit further detects a specific character different from the partial image from the area image, and then detects the specific character.
The determination unit determines the direction of the input image based on the partial image detected by the detection unit and the specific character.
The image processing apparatus according to any one of claims 1 to 10.
前記検出部は、前記領域画像から前記言語タイプに応じた部分画像を検出することを特徴とする請求項1に記載の画像処理装置。 A language type determination unit for determining a language type from the input image is further provided.
The image processing apparatus according to claim 1, wherein the detection unit detects a partial image corresponding to the language type from the region image.
画像を読み取り、読み取った画像の入力画像を前記画像処理装置に入力する画像入力部と、
を備えることを特徴とする画像読取装置。 The image processing apparatus according to any one of claims 1 to 13.
An image input unit that reads an image and inputs the scanned image to the image processing device,
An image reading device comprising.
前記領域画像から、文字を構成する要素を示す部分画像を検出するステップと、
前記検出した部分画像に基づいて、前記入力画像の方向を判定するステップと、
を含むことを特徴とする判定方法。 A step of extracting an image of an area containing elements constituting characters from an input image as an area image, and
A step of detecting a partial image showing an element constituting a character from the area image, and
A step of determining the direction of the input image based on the detected partial image, and
A determination method characterized by including.
入力画像から文字を構成する要素を含む領域の画像を領域画像として抽出する機能と、
前記領域画像から、文字を構成する要素を示す部分画像を検出する機能と、
前記検出した部分画像に基づいて、前記入力画像の方向を判定する機能と、
を実現させることを特徴とするプログラム。 On the computer
A function to extract an image of an area containing elements that make up characters from an input image as an area image,
A function to detect a partial image showing elements constituting characters from the area image, and
A function of determining the direction of the input image based on the detected partial image, and
A program characterized by realizing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020043304A JP2021144526A (en) | 2020-03-12 | 2020-03-12 | Image processing device, image reader device, determination method, program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020043304A JP2021144526A (en) | 2020-03-12 | 2020-03-12 | Image processing device, image reader device, determination method, program, and storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021144526A true JP2021144526A (en) | 2021-09-24 |
Family
ID=77766762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020043304A Pending JP2021144526A (en) | 2020-03-12 | 2020-03-12 | Image processing device, image reader device, determination method, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021144526A (en) |
-
2020
- 2020-03-12 JP JP2020043304A patent/JP2021144526A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5280425B2 (en) | Image processing apparatus, image reading apparatus, image forming apparatus, image processing method, program, and recording medium thereof | |
US8320683B2 (en) | Image processing method, image processing apparatus, image reading apparatus, and image forming apparatus | |
JP4333708B2 (en) | Method, apparatus, and computer program for processing input data related to generation of electronic file | |
US7889395B2 (en) | Image processing apparatus, image processing method, and program | |
US8848240B2 (en) | Image processing apparatus, image reading apparatus, image forming apparatus, image processing method, and recording medium | |
JP4927122B2 (en) | Image processing method, image processing apparatus, image forming apparatus, program, and recording medium | |
US8144994B2 (en) | Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, and recording medium | |
US20100245870A1 (en) | Image processing apparatus, image forming apparatus, and image processing method | |
US11308318B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US8363963B2 (en) | Apparatus, method and computer readable medium that associates a plurality of possible word recognition results with an image | |
US20080101698A1 (en) | Area testing method, area testing device, image processing apparatus, and recording medium | |
US10855882B2 (en) | Image processing to set an output gradation number based on an information-loss evaluation value | |
US8184912B2 (en) | Image processing apparatus, image forming apparatus, image processing system, and image processing method | |
JP2013123119A (en) | Image processing apparatus, image forming apparatus, image reading apparatus, image processing method, computer program, and recording medium | |
JP2012118863A (en) | Image reading device, image formation device, image reading method, program and recording medium therefor | |
JP2009015819A (en) | Image processing apparatus, image forming apparatus, image transmitting apparatus, image reading apparatus, image processing system, image processing method, image processing program, and recording medium therefor | |
JP2009042942A (en) | Image processing device, image processing method, image processing program, and recording medium in which its program is stored | |
JP4393556B2 (en) | Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, computer program, and computer-readable recording medium | |
JP2021144526A (en) | Image processing device, image reader device, determination method, program, and storage medium | |
JP6262102B2 (en) | Image processing apparatus, image processing system, computer program, and recording medium | |
US20080181534A1 (en) | Image processing method, image processing apparatus, image reading apparatus, image forming apparatus and recording medium | |
JP2010273119A (en) | Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium | |
US11863717B2 (en) | Image reading apparatus and image reading method | |
JP6441772B2 (en) | Image processing apparatus, image forming apparatus, and image processing method | |
JP6618307B2 (en) | Image processing apparatus, image forming apparatus, and resolution determination method |