JP2016054564A - Image processing system and image processing method - Google Patents
Image processing system and image processing method Download PDFInfo
- Publication number
- JP2016054564A JP2016054564A JP2016007423A JP2016007423A JP2016054564A JP 2016054564 A JP2016054564 A JP 2016054564A JP 2016007423 A JP2016007423 A JP 2016007423A JP 2016007423 A JP2016007423 A JP 2016007423A JP 2016054564 A JP2016054564 A JP 2016054564A
- Authority
- JP
- Japan
- Prior art keywords
- character
- image
- area
- edge detection
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
本発明は、画像内の文字を判定する画像処理装置、画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method for determining characters in an image.
近年、カラープリンタやカラースキャナ等の普及により、カラー化された文書が増え、この文書をスキャンにより取り込んで電子ファイルとして保存したり、インターネット等を介して第三者等に送付したりする機会が増えてきている。しかし、フルカラーデータのままでは記憶装置や回線への負荷が大きいため、圧縮処理を行ってデータ量を小さくする必要がある。 In recent years, with the widespread use of color printers and color scanners, the number of colorized documents has increased, and there is an opportunity to capture these documents by scanning and save them as electronic files or send them to third parties via the Internet. It is increasing. However, if full color data is used as it is, the load on the storage device and the line is large, so it is necessary to perform compression processing to reduce the amount of data.
従来、カラー画像を圧縮する方法として、例えば、誤差拡散等で擬似階調を持った2値画像にして圧縮する方法、JPEG形式で圧縮する方法、8ビットのパレットカラーに変換を行ってZIP圧縮やLZW圧縮をする方法等があった。 Conventionally, as a method for compressing a color image, for example, a method of compressing a binary image having a pseudo gradation by error diffusion or the like, a method of compressing in a JPEG format, and a ZIP compression by converting to an 8-bit palette color And a method of performing LZW compression.
また、特許文献1では、入力画像に含まれる文字領域を検出し、当該検出した文字の部分を2値画像にしてMMR圧縮(2値非可逆圧縮)して、各文字の文字色情報とともにファイルに保存する。更に、入力画像上の文字部分を周囲の色で塗りつぶしたものを背景画像として解像度を落としてJPEG圧縮(非可逆圧縮)して該ファイルに保存する。この圧縮方法により圧縮されたファイルは、文字領域については高い品位が得られるとともに、圧縮率も高くすることができる。
Further, in
特許文献1では、入力画像を2値化して得られた2値画像において、黒画素の集まりのサイズ(幅や高さ)、及びサイズが同程度である黒画素の集まりが近傍にあるかなどに基づいて、各黒画素の集まりが文字らしいか判定し、文字領域の検出を行っている。
In
一方で、単純2値化で文字と背景を分離するのが困難な入力画像に対して、特許文献1のように2値画像にもとづいて領域判定を行う方法を適用した場合、文字を構成する画素の識別が難しくなる。例えば、白の背景の上の黒文字(文字と背景の濃度差が大きい文字画像)に対して単純2値化を行う場合は、背景画素と文字画素の分離が容易である。一方、濃い濃度の背景の上の黒文字(文字と背景の濃度差が小さい文字画像画像)に対して2値化を行う場合は、背景画素と文字画素の分離が難しい。特に、濃い濃度の背景を有する文字は、2値化の際に背景の濃度よりも小さい値の閾値で2値化が行われると、2値の文字画像が黒くつぶれてしまう。このとき、濃い濃度の背景領域のサイズが文字と同程度のサイズであった場合、背景と文字が黒く潰れて2値化された状態の2値画像が、文字画素の部分として誤判定されてしまう場合もありうる。例えば、文字列の一部を濃いマーカーペンでマーキングした文書をスキャンし、そのスキャン画像を2値化した場合、マーカーペンでマーキングした箇所全体が黒くなってしまう場合がある。そして、そのマーカーペンでマーキングした箇所のサイズが文字サイズに近ければ、マーカーペンでマーキングした箇所の画素全体が2値化で黒く潰れた状態で1つの文字として扱われることになる。換言すれば、2値化の際に黒く潰れた状態の領域の全ての黒画素を、文字の画素として扱ってしまう場合がある。
On the other hand, when a method of performing region determination based on a binary image as in
上記課題を解決するために、本発明の画像処理装置は、入力画像に対して2値化処理を実行することによって2値画像を生成する2値化手段と、前記2値画像内の文字領域を判定する第1の判定手段と、前記文字領域内に含まれる文字それぞれを囲む領域を、文字切り矩形情報として得る文字切出し手段と、前記文字切り矩形情報に基づいて特定される前記2値画像内の領域に対して細らせ処理を実行することにより、細線化画像を得る細線化手段と、前記文字切り矩形情報に基づいて特定される領域のエッジ検出処理を実行することにより、エッジ検出画像を得るエッジ検出手段と、前記細線化画像と前記エッジ検出画像の論理積を取る論理演算手段と、前記論理演算手段による論理積の結果に基づいて、前記文字切り矩形情報により特定される各文字が、前記2値化処理により背景から分離される文字であるか否か判定する第2の判定手段と、を有することを特徴とする。 In order to solve the above problems, an image processing apparatus according to the present invention includes a binarizing unit that generates a binary image by executing binarization processing on an input image, and a character region in the binary image. First determination means for determining the character, character extraction means for obtaining a region surrounding each character included in the character region as character cut rectangle information, and the binary image specified based on the character cut rectangle information By performing thinning processing on the inner area, thinning means for obtaining a thinned image and edge detection processing for the area specified based on the character cut rectangle information are performed to detect edges. An edge detection unit that obtains an image, a logical operation unit that obtains a logical product of the thinned image and the edge detection image, and the character cut rectangle information based on the result of the logical product by the logical operation unit Each character is characterized by having a second determination means for determining whether a character to be separated from the background by the binarization processing.
本発明の一実施形態によれば、2値化処理で黒潰れした領域を文字であるか判定できる。 According to an embodiment of the present invention, it is possible to determine whether a blackened area by binarization processing is a character.
(実施例1)
図1は、実施例1におけるシステム構成を示す概略図である。図1では、複合機(MFP)101とコンピュータ(以下、PC)102が、ネットワーク103を介して接続されている。
(Example 1)
FIG. 1 is a schematic diagram illustrating a system configuration according to the first embodiment. In FIG. 1, a multifunction peripheral (MFP) 101 and a computer (hereinafter, PC) 102 are connected via a
点線104と105は処理の流れを示しており、104は、ユーザがMFP101のスキャナを用いて紙文書を読み込ませる処理を示す。その際、ユーザは、後述するMFP101のユーザーインターフェース(図2の203)を用いて、スキャン画像を送信する宛先(例えば、PC102)と、スキャンや送信に関わる各種設定を行うことができる。その各種設定として、ユーザは、解像度、圧縮率、データ書式(例えば、JPEG、TIFF、PDF、PDF高圧縮、PDF高圧縮(OCR結果付き))などを指定できる。本実施例では、データ書式としてPDF高圧縮(OCR結果付き)が指定された場合についての説明を行う。PDF高圧縮の技術詳細については後述する。105は、指定された各種設定に基づいて、MFP101のソフトウェアあるいはハードウェア機能を利用してデータを生成し、指定された宛先に送信する処理を示す。ここで、PC102へ送信された画像は、PDFなどのファイルフォーマットで送信されることになるので、PC102の有する汎用的なビューアで閲覧可能である。
Dotted
図2は、MFP101の詳細構成を示す図である。MFP101は、画像入力デバイスであるスキャナ部201と、画像出力デバイスであるプリンタ部202、MFP全体の制御を行う制御ユニット204、ユーザーインタフェースである操作部203等を有する。
制御ユニット204は、スキャナ部201、プリンタ部202、操作部203と接続し、一方では、LAN209と接続することで、画像情報やデバイス情報の入出力を行うコントローラである。CPU205はシステム全体を制御するプロセッサである。RAM206はCPU205が動作するためのシステムワークメモリであり、画像データを一時記憶するための画像メモリでもある。ROM210はブートROMであり、システムのブートプログラム等のプログラムが格納されている。記憶部211は、ハードディスクドライブ等の不揮発性記憶媒体であり、システム制御ソフトウェアや画像データを格納する。操作部I/F207は操作部(UI)203とのインターフェース部で、操作部203に表示するための画像データを操作部203に対して出力する。また、操作部I/F207は、操作部203を介して本画像処理装置のユーザが指示した情報を、CPU205に伝える役割をする。ネットワークI/F208は本画像処理装置をLAN209に接続し、データの入出力を行う(例えば、PDF形式の圧縮データを別の装置に送信したり、別の装置からPDF形式の圧縮データを受信したりする)。以上のデバイスがシステムバス216上に配置される。また、イメージバスインターフェース212は、システムバス216と画像データを高速で転送する画像バス217とを接続し、データ構造を変換するバスブリッジである。画像バス217は、例えば、PCIバスやIEEE1394で構成される。
画像バス217上には以下のデバイスが配置される。ラスターイメージプロセッサ(RIP)213は、PDL(ページ記述言語)コードを解析し、指定された解像度のビットマップイメージに展開する、いわゆるレンダリング処理を実現する。デバイスI/F部214は、信号線218を介して画像入力デバイスであるスキャナ部201を接続し、信号線219を介して画像出力デバイスであるプリンタ部202を接続しており、画像データの同期系/非同期系の変換を行う。データ処理部215では、PDF高圧縮やOCRなどの処理を行うことで、PDF形式の圧縮データ(515)を生成する。生成された圧縮データ(515)は、ネットワークI/F208及びLAN209を介して、指定された宛先(例えば、クライアントPC102)に送信される。また、このデータ処理部215は、ネットワークI/F208及びLAN209を介して受信した圧縮データの伸長を行うこともできる。伸長画像は、デバイスI/F214を介してプリンタ部202に送られ、印刷されることになる。
FIG. 2 is a diagram illustrating a detailed configuration of the
The
The following devices are arranged on the
<データ処理部215の説明>
次に、図2のデータ処理部215により実現される画像圧縮処理部の構成と画像伸長処理部の構成について、図5及び図6のブロック図を用いて説明する。データ処理部215は、プロセッサがコンピュータプログラムを実行することにより、図5または図6の各処理部として機能するように構成してもよいし、その一部または全部をASICや電子回路等のハードウェアで構成するようにしてもよい。
<Description of
Next, the configuration of the image compression processing unit and the configuration of the image decompression processing unit realized by the
PDF高圧縮処理は、特許文献1で述べられているように、属性毎の領域判定を行い、各領域の属性に応じて、MMRによる2値可逆圧縮とJPEGによる多値非可逆圧縮とを適応的に変えて圧縮する。すなわち、文字領域に対してはMMR圧縮し、文字領域を周りの色で塗りつぶした画像をJPEG圧縮することにより、圧縮率を高くできるとともに、文字領域については高い品位が得られるようにする。このPDF高圧縮の処理は、カラーまたはモノクロの多値画像に対して有効な圧縮技術である。詳細は後述するが、本実施例では、2値化すると潰れてしまう領域が文字領域であるか否かを判定することができる。
そうすることにより、本当の文字領域だけをMMR圧縮すべき対象であると判定できるようになる。
As described in
By doing so, it becomes possible to determine that only the true character region is the object to be subjected to MMR compression.
図5は、データ処理部215により実現される画像圧縮処理部の構成を示すブロック図であり、入力画像を圧縮して高圧縮PDF(OCR結果付き)を生成するための各処理部を示す。
FIG. 5 is a block diagram showing a configuration of an image compression processing unit realized by the
2値化部502は、多値画像である入力画像501から2値画像を生成する。2値画像では、入力画像において閾値より濃い画素が例えば黒画素、閾値以下の画素が例えば白画素となる(もちろん、2値化結果は、黒、白で表されず、他の色で表されても良いし、色は無く、1、0や0、1で表されてもよい)。また、2値化部502では、閾値より濃い画素と、閾値以下の画素を区別することを目的としているが、同じ目的を達成できるのであれば、2値化以外の方法でも良い(例えば、3値化、4値化でも良い)。ただし、以下は、2値化部502で2値化がされたものとして説明を行う。なお、入力画像が701のような画像である場合、2値画像は702のようになる。なお、入力画像がカラーの多値画像である場合には、2値化は、その多値画像の輝度(例えば、YUVのうちのY)に対してのみ行われることになる。
A
領域判定部503は、2値化部502で生成された2値画像から、文字領域と写真領域を検出する。これにより、例えば、704と706が文字領域として、705が写真領域として検出される。この処理は、公知の領域識別手法(例えば、特開平06−068301号公報)によってなされる。概要を説明すると例えば以下の通りとなる。
An
(1)2値画像702に対して8連結で繋がる黒画素の輪郭を追跡することにより、8方向の何れかの方向で連続して存在する黒画素の塊(黒画素塊)を抽出する。8連結とは、左上、左、左下、下、右下、右、右上、上の8つの方向の何れかで同じ色(今回のケースでは黒)の画素が連続しているという意味である。一方、4連結とは、左、下、右、上の4つの方向の何れかで同じ色の画素が連続しているという意味である。
(1) By tracking the contours of black pixels that are connected to the
(2)抽出された黒画素塊の中に、一定の大きさを越える黒画素塊(例えば、黒画素塊によって囲まれる領域の面積が一定の面積を超えるような黒画素塊。)があれば、その領域内に白画素塊があるかを特定する。即ち、その領域内の4連結で繋がる白画素の輪郭を追跡することにより、白画素塊を抽出する。更に、抽出した白画素塊が一定の大きさを越える場合には、再度同様の黒画素の輪郭を追跡することにより黒画素塊の抽出を行う。これらの処理は、画素塊が一定の大きさ以下になるまで繰り返し行う。 (2) If there is a black pixel block exceeding a certain size in the extracted black pixel block (for example, a black pixel block whose area surrounded by the black pixel block exceeds a certain area). Then, it is specified whether there is a white pixel block in the area. That is, a white pixel block is extracted by tracking the outline of white pixels connected by four connections in the region. Further, when the extracted white pixel block exceeds a certain size, the black pixel block is extracted by tracking the outline of the same black pixel again. These processes are repeated until the pixel block becomes a certain size or less.
(3)得られた黒画素塊を、大きさや形状、黒画素密度のうちの少なくとも1つを用いて、文字か写真かに分類する。例えば、縦横比が1に近く(即ち、1プラスマイナスαに収まる。αは固定の閾値で例えば0.1。)、かつ、大きさが定められた範囲(例えば、黒画素塊によって囲まれる画素の数が100画素以下)の黒画素塊を、文字を構成する黒画素塊と判定する。そして、残りの黒画素塊を写真を構成する画素塊と判定する。 (3) The obtained black pixel block is classified into characters or photographs using at least one of size, shape, and black pixel density. For example, the aspect ratio is close to 1 (that is, falls within 1 plus or minus α. Α is a fixed threshold value, for example, 0.1), and a size range (for example, pixels surrounded by a black pixel block) Of black pixels) is determined as a black pixel block constituting a character. Then, the remaining black pixel block is determined as the pixel block constituting the photograph.
(4)文字を構成する黒画素塊同士の距離が所定の距離(例えば、3画素。)内である場合に、その黒画素塊同士を同じグループに分類する。その上で、同じグループに分類された黒画素塊の何れをも包含する外接矩形領域を文字領域(704、706)と判定する。なお、文字を構成する他の黒画素塊が所定の距離内に無い、文字を構成する黒画素塊は、それ単独で一つのグループを構成することになる。従って、その単独の黒画素塊の外接矩形領域が文字領域と判定されることになる。なお、写真を構成する黒画素塊に対して(4)で説明した処理と同様の処理がなされるものとする。 (4) When the distance between black pixel blocks constituting a character is within a predetermined distance (for example, 3 pixels), the black pixel blocks are classified into the same group. Then, a circumscribed rectangular area including any of the black pixel blocks classified into the same group is determined as a character area (704, 706). In addition, the black pixel block which comprises a character and the other black pixel block which comprises a character does not exist within predetermined distance will comprise one group by itself. Therefore, the circumscribed rectangular area of the single black pixel block is determined as the character area. It is assumed that the same processing as that described in (4) is performed on the black pixel block constituting the photograph.
(5)各領域の位置と、その領域の属性判定情報(文字か写真か)とを判定結果として出力する。 (5) The position of each area and the attribute determination information (character or photo) of the area are output as determination results.
上記の(1)から(5)の処理により、704と706が文字領域、705が写真領域であるという判定結果が出力されることになる。以上で領域判定部503の説明を終える。
As a result of the processes (1) to (5) described above, a determination result that 704 and 706 are character areas and 705 is a photo area is output. This is the end of the description of the
文字切出し部504は、領域判定部503で生成された文字領域の夫々に対して、文字切り矩形の切り出し処理を行う。切り出された結果は、710、711、712、713のようになる。この切り出し処理は以下の処理から構成される。
The
(1)文字領域の一つを選択する(例えば、708を選択する)。 (1) Select one of the character areas (for example, select 708).
(2)文字領域によって特定される一の2値画像に対して横方向から射影を取る。具体的には、横方向に伸びるラインに黒画素がいくつあるかを数え、その数えた結果が射影となる。取られた射影を715に表す。この射影715において、閾値より多くの黒画素があった縦方向に連続するラインを一つのグループにする。この結果、三つのグループが生じることになる。三つのグループは、ABCDの存在するライン群から構成されるグループ、EFGの存在するライン群から構成されるグループ、及び、Hの存在するライン群から構成されるグループである。
(2) Take a projection from the lateral direction for one binary image specified by the character region. Specifically, the number of black pixels on the line extending in the horizontal direction is counted, and the counted result is a projection. The projection taken is represented at 715. In this
(3)各グループに対して、縦方向から射影を取る。716は、ABCDの存在するライン群に対して取った射影を表す。
(3) Take projections from the vertical direction for each group.
(4)各グループの射影において、閾値より多くの黒画素があった横方向に連続するラインを一つのグループにする。例えば、射影716では、四つのグループに生じることになる。四つのグループは、Aの存在するライン群から構成されるグループ、Bの存在するライン群から構成されるグループ、Cの存在するライン群から構成されるグループ、Dの存在するライン群から構成されるグループからなる。
(4) In the projection of each group, the lines that are continuous in the horizontal direction where there are more black pixels than the threshold are combined into one group. For example, in
(5)(4)で得られた各ライン群のグループの外接矩形を文字切出し矩形として切り出す。その結果、例えば、各文字の外接矩形が文字切出し矩形として切り出されることになる。切り出された結果は、711、712、713、710に示す通りである。 (5) The circumscribed rectangle of each line group obtained in (4) is cut out as a character cut out rectangle. As a result, for example, the circumscribed rectangle of each character is cut out as a character cut-out rectangle. The cut out results are as shown in 711, 712, 713, and 710.
(6)以上(1)−(5)の処理を、選択されていない文字領域が無くなるまで繰り返す。 (6) The above processes (1) to (5) are repeated until there is no character area not selected.
ここで、図7を用いて、処理対象となる画像と、2値化・領域判定・文字切出しの処理結果の画像の例を示す。画像701は入力画像501の例であり、7011は白の背景上に記載された文字画像、7012は薄い濃度の背景上に記載された文字画像、7013は濃い濃度の背景上に記載された文字画像の例を示している。すなわち、文字7011と7012は、文字と背景の濃度差が大きい文字画像であり、文字画像7013は文字と背景の濃度差が小さい文字画像である。
Here, FIG. 7 is used to show an example of an image to be processed and an image of a processing result of binarization, area determination, and character extraction. An
702は、2値化部502において画像701を2値化した結果の2値画像の例であり、文字7013は、背景の濃度よりも小さい値の閾値で2値化が行われて、黒く潰れてしまっている状態を示している。
本実施例では、2値化すると潰れてしまう文字画像(例えば、閾値より濃い背景上のさらに濃い文字など、背景と文字の濃度差が小さくて2値化しても背景と文字を分離するのが困難な画像)を、「背景から分離困難な文字画像」と呼ぶこととする。また、2値化した場合に潰れない文字画像(例えば、白または閾値より薄い背景上の黒文字など、背景と文字の濃度差が大きて2値化したときに背景と文字を分離するのが容易な画像)を、「背景から分離容易な文字画像」と呼ぶこととする。すなわち、「背景から分離容易な文字画像」は、2値化すると文字画像部分が黒画素となり文字以外の背景部分は白画素になる文字領域の画像である。 In this embodiment, character images that are crushed when binarized (for example, darker characters on a background that is darker than the threshold), the background and characters are separated even when binarized because the density difference between the background and characters is small. The difficult image) is referred to as a “character image that is difficult to separate from the background”. In addition, character images that are not crushed when binarized (for example, white characters or black characters on a background thinner than a threshold), it is easy to separate the background and characters when the density difference between the background and characters is large and binarized. ) Is referred to as a “character image that can be easily separated from the background”. In other words, the “character image that can be easily separated from the background” is an image of a character area in which, when binarized, the character image portion becomes a black pixel and the background portion other than the character becomes a white pixel.
703は、領域判定部503で2値画像702に対して領域判定を行った結果を示す。
領域判定の結果、704と706は文字領域と判定され、705は写真領域として判定されたものとする。文字領域707と708は、2値画像703から、領域判定部503により文字領域と判定された部分画像を抽出したものである。709は、文字切り出し部504により切り出された文字切り矩形の概略図を示す。710は文字領域704内から切り出された文字切り矩形である。また、711、712、713は、文字領域706内から切り出された文字切り矩形である。
As a result of the area determination, 704 and 706 are determined as character areas, and 705 is determined as a photograph area.
領域判定部2(505)は、文字切り出し部504により切り出された文字切り矩形内の文字画像について、2値化すると潰れてしまう文字(背景から分離困難な文字画像)であるか否かを判定する。領域判定部2の判定方法の詳細については後述する。領域判定部2(505)で「背景から分離困難な文字画像」であると判断された文字領域の情報に基づいて、領域判定部503で生成された文字領域情報と、文字切り出し部504で生成された文字切り矩形情報とを修正する。すなわち、領域判定部503で生成された文字領域情報と、文字切り出し部504で生成された文字切り矩形情報とから、領域判定部2(505)で「背景から分離困難な文字画像」であると判断された文字領域の情報を除去する。そうすることにより、「背景から分離困難な文字画像」であると判断された文字領域は、文字ではないと判定されることにより、後述のMMR圧縮がかからず、文字画像が見えなくなってしまうという問題を解決できることになる。
The area determination unit 2 (505) determines whether the character image in the character cut rectangle cut out by the
MMR圧縮部506は、2値化部502で生成された2値画像から、領域判定部2(505)で修正した後の文字領域情報に基づいて文字領域の2値画像を抽出する(即ち、「背景から分離容易な文字画像」と判断された文字切り矩形領域に含まれる2値画像のみを抽出する)。そして、当該抽出した文字領域の2値画像に対してMMR圧縮を行い、圧縮コード1(511)を生成する。
The
縮小部507は、入力画像501を縮小処理(低解像度化処理)し、縮小多値画像(不図示)を生成する。
The
代表色抽出部508は、領域判定部2(505)で修正した後の文字領域情報と文字切り矩形情報とに基づいて、2値画像における各文字を構成する画素(黒画素)の位置を特定する。そして、当該特定した文字の画素の位置に基づいて、縮小多値画像における対応する位置の色を参照して、文字切り矩形領域単位で文字の代表色を算出し、各文字の文字色情報513を得る。例えば、代表色は、文字切り矩形領域における2値画像で黒となった画素群の多値画像における色の平均や重み付け平均である。あるいは、そうした画素群の中で最も頻度の多い色である。このように代表色の取り方は様々考えられるが、文字切り矩形領域における2値画像で黒となった画素群のうちの少なくとも一画素の、多値画像における色が、代表職の算出には用いられることになる。
The representative
文字領域穴埋め部509は、領域判定部2(505)で修正した後の文字領域情報と文字切り矩形情報とに基づいて、2値画像における各文字を構成する画素(黒画素)の位置を特定する。そして、当該特定した画素の位置に基づいて縮小多値画像における対応する位置の画素を、その周辺色で塗り潰す処理を行う。周辺色は文字の周囲の画素の画素値の平均値を用い、文字の画素の画素値を当該求めた周辺色で置き換えればよい。文字領域穴埋め部による穴埋め処理の詳細については、特許文献1に記載されている。
The character
JPEG圧縮部510は、文字領域穴埋め部509で穴埋め処理した後の画像をJPEG圧縮して、圧縮コード2(514)を生成する。
The
OCR部(516)は、領域判定部(503)で文字領域と判定された領域に対してステップ904において生成された文字切り矩形情報を参照しながら、公知の文字認識処理を行う。文字コード517は、その文字認識処理により得られた文字コードである。
The OCR unit (516) performs a known character recognition process while referring to the character cut rectangle information generated in
ここで、MMR圧縮部(506)で、MMR圧縮する際には、領域判定部2(505)で文字として判定された領域、すなわち「背景から分離容易な文字画像」と判断された領域を対象としてMMR圧縮したのに対し、OCR部(516)でOCRする際には、領域判定部(503)で文字領域として判定された領域を対象としてOCRする。 Here, when MMR compression is performed by the MMR compression unit (506), a region determined as a character by the region determination unit 2 (505), that is, a region determined as “a character image that can be easily separated from the background” is targeted. However, when OCR is performed by the OCR unit (516), the region determined as the character region by the region determination unit (503) is subjected to OCR.
このうち「背景から分離容易な文字画像」は、領域判定部(503)で文字領域と判定した領域のうちの一部の領域となっていることから、「背景から分離容易な文字画像」の方が狭い。即ち、OCR対象領域は広く、MMR圧縮領域は狭い。 Among these, the “character image that can be easily separated from the background” is a part of the region determined as the character region by the region determination unit (503). Narrower. That is, the OCR target area is wide and the MMR compression area is narrow.
なぜOCRされる領域の方が広くなっているのか。それは、OCR対象領域の中にたとえ本当は文字でないものが存在していたとしても、余計な文字コードが得られるだけであり、それほど大きな問題とはならないためである(余計だと思うのであればそうした文字コードを消せば良い)。これに対し、MMR圧縮時に、本当は文字でない領域をMMR圧縮してしまうと、その領域の画質劣化が起きてしまう。そのため、OCRでは広めの領域を対象として、MMR圧縮では狭めの領域を対象とした処理を行っているのである。 Why is the OCR area wider? That is because even if there is something that is not really a character in the OCR target area, it will only give an extra character code, and it will not be a big problem. Just erase the character code). On the other hand, if MMR compression is performed on an area that is not actually a character during MMR compression, image quality degradation of that area will occur. For this reason, the OCR process is performed on a wider area, and the MMR compression process is performed on a narrow area.
このようにして、各構成要素から得られた圧縮コード1(511)と、修正後の文字領域情報(512)と、文字色情報(513)と、圧縮コード2(514)と、文字コード(517)を含む圧縮データ(515)のファイルがPDF形式で生成される。生成されたPDF形式のファイルは、上述の通り、ユーザにより指定された宛先へと送信されることになる。 In this way, the compressed code 1 (511), the corrected character area information (512), the character color information (513), the compressed code 2 (514), the character code ( A file of compressed data (515) including 517) is generated in PDF format. The generated PDF file is transmitted to the destination designated by the user as described above.
図6は、別の装置から送られてきたPDF形式の圧縮データを伸長する画像伸長処理部の構成を示すブロック図である。図6の処理は、圧縮データを伸長して印刷する場合などに実行される。ここでは、別の装置から送られてきた圧縮データが515と同じファイルであった場合を例に説明する。 FIG. 6 is a block diagram illustrating a configuration of an image decompression processing unit that decompresses compressed data in PDF format sent from another apparatus. The process of FIG. 6 is executed when the compressed data is decompressed and printed. Here, a case where the compressed data sent from another apparatus is the same file as 515 will be described as an example.
MMR伸長部601は、圧縮データ(515)のファイルに含まれている圧縮コード1(511)に対してMMR伸長処理を行い、2値画像を再現する。JPEG伸長部603は圧縮コード2(514)に対してJPEG伸長処理を行い、縮小多値画像を再現する。
拡大部604は、JPEG伸長部(603)で伸長された縮小多値画像に対して、拡大処理を行うことで、圧縮前の入力画像501のサイズと同じサイズの多値画像を生成する。
The MMR decompression unit 601 performs an MMR decompression process on the compressed code 1 (511) included in the compressed data (515) file to reproduce a binary image. The
The
合成部602は、文字領域情報(512)を参照しながら、MMR伸長部で伸長された2値画像の黒画素に文字色情報の色(以下、文字色と称する。513)を割り当る。更に、当該文字色が割り当てられた2値画像を、拡大部604で生成された多値画像の上に合成することにより、伸長画像605を生成する。合成する際、2値画像における白画素に対しては透明色が割り当てられており、背景の多値画像を透過する。このように、画像伸長処理部は、画像圧縮処理部により生成された圧縮データを伸長し、伸長画像605を生成する。この伸長画像605は、デバイスI/F214を介してプリンタ部202に送られ、印刷されることになる。なお、この画像伸長処理部は、文字コード517は無視する。これは、伸長画像を印刷する上で文字コードは不要だからである。文字コードを必要とするのは、伸長画像605をディスプレイに表示するクライアントPC102のような装置であって、MFP101ではない。従って、MFP101は、文字コード517は無視する。なお、正確に言うと、文字コードを必要としているのは、PC102というより、PC102を利用するユーザである。文字列の切り貼り、編集をしたい場合に、文字コードは活用されることになる。
The
次に、上述した領域判定部2(505)が実行する処理の詳細について説明する。領域判定部2(505)は、2値化部502で生成された2値画像と、縮小部507で生成された縮小多値画像と、文字切出し部504で生成された文字切り矩形情報とに基づいて、文字切り矩形内の文字画像は2値化によって潰れるかどうかの判定を行う。なお、記憶部211において、入力画像501が保持されている場合は、縮小多値画像の代わりに、入力画像501を用いてもよい。
Next, details of processing executed by the above-described region determination unit 2 (505) will be described. The area determination unit 2 (505) converts the binary image generated by the
領域判定部2(505)の詳細構成について図3を用いて説明する。説明を行う上で、図4の文字画像の例を適宜参照する。ここで、図4の401は、白の背景上に記載された文字(背景と文字の濃度差が大きい画像)の例を示しており、2値化部502で画像401を2値化すると、402に示すような2値画像となる。また、406は、濃い濃度の背景上に記載された文字(背景と文字の濃度差が小さい画像)の例を示しており、背景407の濃度よりも小さい値の閾値で画像406を2値化すると、408に示すような黒く潰れた画像となる。尚、薄い濃度の背景上に記載された文字は、背景の濃度と文字の濃度の間の閾値で2値化が行われることによって、画像402と同様になるため説明を省略する。403〜405、及び409〜411については、後述する。
A detailed configuration of the area determination unit 2 (505) will be described with reference to FIG. In the description, the example of the character image in FIG. 4 will be referred to as appropriate. Here, 401 in FIG. 4 shows an example of a character (an image having a large density difference between the background and the character) written on a white background. When the
領域判定部2(505)は、細線化部301、エッジ検出部302、論理演算部303、エッジカウント部304、エッジ数比較部305から構成される。
The area determination unit 2 (505) includes a thinning
領域判定部2(505)は、閾値よりも濃い領域(即ち、402、408で黒くなっている領域)の内部のエッジ画素を抽出する(1)。そして、抽出されたエッジ画素の数が閾値より少ない場合に「背景から分離容易な文字画像」であると判定する(2)。また、閾値以上である場合に、「背景から分離困難な文字画像」であると判定する(2)。 The area determination unit 2 (505) extracts the edge pixels inside the area darker than the threshold (that is, the area blackened at 402 and 408) (1). When the number of extracted edge pixels is smaller than the threshold value, it is determined that the character image is easily separated from the background (2). If it is equal to or greater than the threshold, it is determined that the character image is difficult to separate from the background (2).
例えば、402の黒くなっている領域の内部には、エッジ画素が無い。一方、408で黒くなっている領域の内部には、エッジ画素(410で表されるHのエッジ画素)がある。ここでいうエッジ画素とは、もちろん二値画像から抽出されたエッジ画素ではなく、多値画像(入力画像)から抽出されたエッジ画素という意味である。
For example, there are no edge pixels inside the blackened
下記構成は、以上の処理(1)(2)を実現するための一構成であり、この構成に限られるわけではない。他に考えられる構成については後述する。 The following configuration is one configuration for realizing the above processes (1) and (2), and is not limited to this configuration. Other possible configurations will be described later.
細線化部301は、2値画像に対して文字切り矩形情報を参照しながら、文字切り矩形単位で細らせ処理を実行する。細らせ処理は、2値画像内の黒画素塊の外側の2画素を削る(すなわち、黒画素塊の輪郭にある黒画素を白画素に置換する)ことによって、黒画素塊を細らせるための処理である。例えば、対象とする一つの文字切り矩形に含まれる2値画像内の各画素を順に注目画素として、5×5のウインドウを利用して走査を行う。そして、5×5のウインドウ中で1画素でも白画素が存在すれば、注目画素(5×5の中心)を白画素に置き換えることで、細らせ処理を行う。ここで、2値画像402に対して細らせ処理を行うと、403のような細線化画像になる。また、2値画像408に対して細線化を行うと、409のような細線化画像になる。
The thinning
エッジ検出部302は、入力された縮小多値画像に対して、文字切り矩形情報を参照しながら、文字切り矩形単位でエッジ検出を行う。エッジであると判定された画素を黒画素として、エッジでないと判定された画素を白画素として表現した画像を、エッジ検出画像とする。エッジ検出は、公知の手法を用いればよいため、詳細については省略するが、以下の処理が考えられる。例えば、縮小多値画像の輝度成分に対して微分フィルタ処理を実行して各画素のエッジ強度を求め、該エッジ強度が所定閾値以上の画素を黒画素とし、エッジ強度が所定閾値より小さい画素を白画素とすることでエッジ検出画像を生成する。ただし、実施例4で説明するエッジ検出方法を利用するとより高精度なエッジ検出が実現できる。入力画像401を縮小することによって得られる不図示の縮小多値画像に対してエッジ検出を行うと、404のようなエッジ検出画像が得られる。また、入力画像406を縮小することによって得られる不図示の縮小多値画像に対してエッジ検出を行うと、410のようなエッジ検出画像が得られる。ここで、入力画像401や406を縮小することによって得られる不図示の縮小多値画像が、入力画像の1/2の解像度である場合は、404や410も、入力画像の1/2の解像度となるが、説明の簡略化のため、同じ大きさで図示している。なお、記憶部211において、入力画像401や406が保持されている場合は、縮小多値画像の代わりに、入力画像401や406を用いてエッジ検出を行ってもよい。
The
論理演算部303は、細線化部301によって生成された細線化画像と、エッジ検出部302によって生成されたエッジ検出画像との論理積(AND)をとって、論理積(AND)画像を生成する処理を行う。具体的には、細線化部301によって生成された細線化画像に黒画素があり、且つエッジ検出部302によって生成されたエッジ検出画像の同じ位置に黒画素がある場合のみ、論理積を取ると黒画素になる。なお、エッジ検出部302によって生成されたエッジ検出画像が、細線化画像の1/2の解像度である場合は、エッジ検出画像を0次補間によって、細線化画像の解像度に合わせてから論理積をとる。または、細線化画像を間引くことによって、エッジ検出画像の解像度に合わせてから論理積をとる。細線化画像403とエッジ検出画像404との論理積をとると、細線化画像403の黒画素とエッジ検出画像404の黒画素は、同じ位置にないため、論理積画像405内の黒画素は基本的に無くなる(ただし、ノイズ等の影響により少し残る場合はある)。一方、細線化画像409とエッジ検出画像410との論理積を取ると、論理積画像411のように、文字の輪郭部分に黒画素が残る。このように、「背景から分離容易な文字画像」に対する論理積画像内の黒画素の数は少なく、「背景から分離困難な文字画像」に対する論理積画像内の黒画素数は多いという特徴がある。
The
なお、412は、細線化画像403とエッジ検出画像404とを重ね合わせた場合を示す図である。413は細線化画像403の黒画素に相当し、414はエッジ検出画像404の黒画素に相当しており、細線化画像413の黒画素とエッジ検出画像414の黒画素は、同じ位置にないので、論理積を取ると黒画素は生成されないことになる。
エッジカウント部304は、論理演算部303によって論理積(AND)をとった結果(論理積画像)における黒画素の数を、エッジ数としてカウントする処理を行う。
The
エッジ数比較部305は、エッジカウント部304によってカウントされたエッジ数と所定の閾値とを比較し、「背景から分離容易な文字画像」であるか「背景から分離困難な文字画像」であるかを判定する。すなわち、エッジ数が所定閾値より少なければ、「背景から分離容易な文字画像(2値化したときに潰れない文字画像)」であると判定し、エッジ数が所定閾値以上であれば、「背景から分離困難な文字画像(2値化したときに潰れる文字画像)」であると判定する。
The edge
なお、黒画素塊の画素の幅が、細らせ処理の細らせ幅よりも小さい場合には、細らせ処理により、2値画像内の黒画素塊がすべてなくなってしまう場合がある。例えば、2値画像の黒画素塊が3画素幅で構成される細線文字で、細らせ処理の細らせ幅が4画素の場合、2値画像を細らせると黒画素塊がなくなってしまう。このように黒画素塊がなくなってしまう場合には、処理スピード向上の観点で、エッジ検出部302と論理演算部303とエッジカウント部304とエッジ数比較部305の処理を省くことが好ましい。これは、エッジ検出部302でエッジ画素を検出したとしても、細線化画像との間で論理積を取り、その結果得られるエッジ数をカウントすると、カウント結果が0になることが明らかだからである。カウント結果が0になると、エッジ数が所定閾値より少ないということになるので、「背景から分離容易な文字画像(2値化したときに潰れない文字画像)」であると判定できる。従って、対象とする文字切り矩形における黒画素が細らせ処理により全てなくなってしまう場合には、エッジ検出部302−エッジ数比較部305の処理を行わずして、その文字切り矩形を「背景から分離容易な文字画像(2値化したときに潰れない文字画像)」であると判定することになる。このように302−305の処理を省いた場合には、次の文字切り矩形領域を対象として、その領域に対して細線化部301−エッジ数比較部305の処理に移る。なお、上述の処理を省く理由は、以下のようにも説明できる。即ち、細線化したくらいで黒画素がなくなるようであれば元の二値画像の黒画素群はかなり細いといえ、細い黒画素群は一般に文字や線である。よって、上述の処理を省いて、対象とする文字切り矩形領域は、「背景から分離容易な文字画像(2値化したときに潰れない文字画像)」であると判定するのが処理スピードの面で好ましいというようにも説明できる。
When the pixel width of the black pixel block is smaller than the thinning width of the thinning process, all black pixel blocks in the binary image may be lost due to the thinning process. For example, if the black pixel block of the binary image is a thin line character having a width of 3 pixels and the thinning width of the thinning process is 4 pixels, if the binary image is thinned, the black pixel block disappears. End up. When the black pixel block disappears as described above, it is preferable to omit the processing of the
あるいは、2値画像内の黒画素がすべてなくなる場合には、削る画素数を減らす事も可能である。例えば、5×5のウインドウ中で1画素でも白画素が存在すれば、注目画素(5×5の中心)を白画素に置き換えると黒画素塊がすべて白画素となってしまう場合にはウインドウサイズを小さくし、3×3のウインドウで処理する事も可能である。なお、細線化と細らせ処理は同義である。 Alternatively, when all the black pixels in the binary image are eliminated, the number of pixels to be cut can be reduced. For example, if at least one white pixel exists in a 5 × 5 window, if the pixel of interest (the center of 5 × 5) is replaced with a white pixel and the black pixel block becomes all white pixels, the window size It is also possible to process with a 3 × 3 window. Note that thinning and thinning are synonymous.
なお、上述の説明では、エッジカウント部304によってカウントされたエッジ数と所定の閾値とを比較すると記載したが、エッジ数を、細線化画像の黒画素数で割った値を、所定の閾値と比べるのも好ましい。そうすることにより、文字切り矩形領域のサイズによらず適切な判断ができることになる。また、文字切り矩形領域を構成する全ての画素数や、その矩形領域を二値化した後の黒画素の数でエッジ数を割ることも考えられる。ただし、一番精度が高いのは、上述の通り、細線化画像の黒画素数でエッジ数を割ることである。そのようにすると、二値画像の内側(濃い領域の内側)にどれだけの割合でエッジが存在するかがわかるからである。この割合が高ければ高いほど、二値画像の内側にエッジが高い割合で存在すると言え、よって、この二値画像が文字でない可能性が高いと言えることになる。
In the above description, the number of edges counted by the
次に、図8のフローチャートを用いて、データ処理部215が実行する各処理の説明を行う。説明を行う上で、図2、3、5を適宜参照する。なお、領域判定部2(505)は、図8の905〜911の処理を実行する。
Next, each process executed by the
ステップ901にて、2値化部502は、入力画像501に対して2値化処理を実行する。
In
ステップ902にて、領域判定部503は、2値画像に対して領域判定処理を実行し、2値画像内に含まれる各領域を識別し、当該識別された領域が文字領域か非文字領域かの判定を行う。
In
ステップ903にて、領域判定部で判定された領域の1つを順に注目領域とし、その注目領域が領域判定部で文字領域と判定された領域である場合は、ステップ904へ進み、非文字領域と判定された領域である場合は、ステップ913へ進む。
In
ステップ904にて、文字切出し部504は、当該注目領域内の画像に対して文字切り出しを行うことによって、文字切り矩形情報を生成する。
In
ステップ916にて、OCR部516は、領域判定部(503)で文字領域と判定された領域に対して、ステップ904において生成された文字切り矩形情報を参照しながら、公知の文字認識処理を行う。
In
ステップ905にて、細線化部301は、ステップ902において2値化された2値画像に対して、ステップ904において生成された文字切り矩形情報を参照しながら、文字切り矩形内の2値画像ごとに細線化処理を実行する。
In
ステップ906にて、エッジ検出部302は、入力画像を縮小した縮小多値画像(または入力画像501)と、ステップ904において生成された文字切り矩形情報とを用いて、文字切り矩形内の縮小多値画像(または文字切り矩形内の入力画像。)ごとにエッジ検出処理を実行する。
In
ステップ907にて、論理演算部303は、ステップ905において細線化部301によって生成された細線化画像と、ステップ906において生成されたエッジ画像の論理積(AND)をとる。
In
ステップ908にて、エッジカウント部304は、ステップ907において、論理演算部303によって論理積(AND)をとった結果の論理積画像の黒画素をカウントし、エッジ数を求める。ここで、求めたエッジ数は、更に、文字切り矩形領域の面積(文字切り矩形領域内の画素総数)で割ることにより、単位面積あたりのエッジ数を求めるように正規化を行っても構わない。このようにしておけば、文字切り矩形領域の大きさに依存せずにステップ909で閾値と比較できるという利点がある。
In
次に、ステップ909にて、エッジ数比較部305は、ステップ908でカウントされたエッジ数と閾値thとの比較を行う。ここで、エッジ数が閾値thよりも大きい場合は、ステップ910にて、対象とする文字切り矩形領域を「背景から分離困難な文字画像」であると判断する。また、エッジ数が閾値th以下の場合は、ステップ911にて対象とする文字切り矩形領域を「背景から分離容易な文字画像」と判断する。
Next, in step 909, the edge
ステップ912にて、文字切出し部504は、当該着目している文字領域内の全ての文字切り矩形について処理が終了しているかどうか判断し、終了していると判断するとステップ913へ進む。一方、未処理の文字切り矩形があると判断した場合は、ステップ914にて次の文字切り矩形を処理対象として設定して、ステップ905に戻る。
In
ステップ913にて、全ての領域についての判定が終了したと判断すると本処理を終了し、未処理の領域があると判断した場合は、ステップ915にて未処理の次の領域を注目領域として設定して、ステップ903に戻る。
If it is determined in
以上のように、領域判定部2(505)において、文字切り矩形領域ごとに、細線化画像とエッジ検出画像との論理積を取った結果の黒画素の数(残ったエッジ数)にもとづいて、各文字切り矩形領域が「背景から分離容易な文字画像。」であるか「背景から分離困難な文字画像」であるかを、高精度に判定できるようになる。 As described above, in the area determination unit 2 (505), the number of black pixels (the number of remaining edges) as a result of the logical product of the thinned image and the edge detection image for each character-cut rectangular area. Thus, it is possible to determine with high accuracy whether each character-cut rectangular area is “a character image that can be easily separated from the background” or “a character image that is difficult to separate from the background”.
「背景から分離困難な文字画像」(例えば図7の713)に対しては、文字領域情報から除去するので、MMR圧縮部506の処理対象にならない。すなわち、「背景から分離困難な文字画像」は、2値化されずに、背景画像とともにJPEG圧縮部510で圧縮処理されることになる。
The “character image that is difficult to separate from the background” (for example, 713 in FIG. 7) is removed from the character area information and is not a processing target of the
以上のように、2値化すると潰れる文字画像であるか否かを判定することができるので、PDF高圧縮に適用した場合は、文字画像が潰れるのを防ぐことができる。 As described above, since it can be determined whether or not a character image is crushed when binarized, the character image can be prevented from being crushed when applied to PDF high compression.
尚、本実施例では、「背景から分離困難な文字画像(2値化すると潰れてしまう文字画像。)」として、図4の406と408で示したように、1文字の「H」の場合を例にあげたが、これに限るものではなく、例えば、図9の入力画像1001に示すように2文字以上であっても構わない。なお、この入力画像1001を2値化すると2値画像1002となる。また、2値化で潰れた文字画像は矩形である必要はなく、例えば、図9の1003に示すように文字画像の一部が潰れる画像であっても構わない。なお、この入力画像1003を2値化すると、2値画像1004となる。
In this embodiment, “character image that is difficult to separate from the background (character image that is crushed when binarized)” is a case of “H” of one character as indicated by 406 and 408 in FIG. However, the present invention is not limited to this. For example, it may be two or more characters as shown in the
続いて、領域判定部2(505)の別の構成について説明する。 Next, another configuration of the area determination unit 2 (505) will be described.
別の構成では、(A)まず領域判定部2に入力された画像を閾値より濃い領域と、閾値以下の領域に切り分ける(二値化でも三値化でも他の方法でもよい)。その結果、402、408のような領域が手に入る。
In another configuration, (A) First, the image input to the
そして、(B)その入力された画像における、閾値より濃いと判定された領域(401のH領域や、406の全体領域)からエッジ画素を抽出する(抽出方法は上述の通りである)。このエッジを抽出する際には、閾値より濃いと判定された領域の端の部分(例えば、端から一画素内に入った画素や二画素内に入った画素)は非対象とする。即ち、このBの構成では、閾値より濃いと判定された領域の端の部分から一定距離以上離れた(中に入った)エッジ画素のみを抽出するのである。または、そうした端の部分(一定距離以上離れていない画素)も対象としてエッジ画素を抽出し、そうした端の部分を除去する構成としても良い。そうすることにより、405や411の結果と同じ結果が得られる。なお、この例では、一定距離は、3画素となっているが、他の値であっても良い。
Then, (B) edge pixels are extracted from regions (the
(C)後は、得られた結果である所のエッジ画素の数をカウントし、そのエッジ画素の数が閾値thより大きいか、閾値th以下であるか判定する。 After (C), the number of edge pixels as the obtained result is counted, and it is determined whether the number of edge pixels is greater than the threshold th or less than the threshold th.
そうすることにより、上述の方法と同様の結果(「背景から分離困難な文字画像」であるか、「背景から分離容易な文字画像」であるかの判断結果)が得られることになる。 なお、(B)の処理の代わりに、領域判定部2に入力された画像全体からエッジ画素を抽出しても良い。その場合、入力された画像全体から抽出されたエッジ画素のうち、閾値より濃いと判定された領域の端の部分、及び、閾値以下の領域を除く。そうすることにより、上述の(B)の構成と同じ結果が得られることになる。
By doing so, a result similar to the above-described method (determination result as to “a character image that is difficult to separate from the background” or “a character image that can be easily separated from the background”) is obtained. Instead of the process (B), edge pixels may be extracted from the entire image input to the
なお、本実施例では文字切出し部504で切り出された文字切り出し904結果の文字単位での処理を説明した。この処理は、文字単位ではなく、その文字単位を更に分割して行う事も可能である。例えば、文字切出し部504に対し、領域を4等分に区切り、それぞれの領域での処理を行う事も可能である。例えば、図16の1300〜1304は、文字切りされた406を均等に4分割行った例である。1300〜1304それぞれにおいて処理を行う。更に、均等に区切るのではなく、文字切り出しされた領域の中心部のみ(例えば、文字切り領域の中心部60%のみを使用)で判定を行う事もできる。例えば、図16の1305は、文字切りされた406の中心部60%を抜き出したものであり、この1305に対して処理を行う。また、文字切り出しされた領域での判定と、この領域分割および・又は中心部での判定を合わせて、「背景から分離容易な文字画像」であるか「背景から分離困難な文字画像」であるかの判定を行う事も可能である。
In the present embodiment, the processing in units of characters of the
(実施例2) 実施例1では、領域判定部2(505)において「背景から分離困難な文字画像」と判定された領域はMMR圧縮処理を行わないようにした。実施例2では、領域判定部2(505)で「背景から分離困難な文字画像」と判定された領域に対して、2値化部502と異なるアルゴリズムの高精度な2値化処理を再度実行して、背景から文字画像部分の画素を分離するようにしてもよい。この場合、高精度な再2値化処理を行った結果の文字領域を用いてMMR圧縮処理を行えば、文字領域の画質の向上を図れる。例えば、図7の713の領域は「背景から分離困難な文字画像」と判定されるので、その領域713に対応する入力画像701における領域7013のみを、他の領域と異なる閾値で2値化を行う。
(Example 2) In Example 1, the area determined as "a character image difficult to separate from the background" by the area determination unit 2 (505) is not subjected to the MMR compression process. In the second embodiment, high-precision binarization processing with an algorithm different from that of the
その結果、図7の714に示すような2値画像を生成することができ、この文字領域をMMR圧縮することができる。なお、高精度の再2値化処理の一例は、固定の閾値で2値化処理を行うのではなく、対象となる領域の濃度あるいは輝度の平均値を閾値として2値化処理する方法である。 As a result, a binary image as shown at 714 in FIG. 7 can be generated, and this character region can be subjected to MMR compression. An example of the high-precision re-binarization processing is a method of performing binarization processing using the average value of the density or luminance of the target region as a threshold value instead of performing the binarization processing with a fixed threshold value. .
(実施例3)
実施例1では、図4の401に示すように比較的文字品位の良い入力画像を例として挙げた。しかしながら、図10の1101に示すように文字品位が悪くノイズ等が多い画像(例えば、スキャン原稿や圧縮画像)に対してエッジ検出処理を行うと、図11の1102に示すように文字の内部で多くのエッジが出現する場合がある。文字内部におけるエッジの出現は、特に大きな文字になるほど、顕著になりやすい。
(Example 3)
In the first embodiment, an input image with relatively good character quality is given as an example as indicated by 401 in FIG. However, if edge detection processing is performed on an image (for example, a scanned document or a compressed image) with poor character quality and a lot of noise as shown by 1101 in FIG. 10, the inside of the character as shown by 1102 in FIG. Many edges may appear. The appearance of an edge inside a character tends to become more prominent as the character becomes particularly large.
ここで、エッジ検出画像1102と細線化画像1103から得られる論理積(AND)画像1104では、文字内部のエッジが残りやすい。文字内部のエッジが多く残ると、本来、「背景から分離容易な文字画像」であるにも関わらず、「背景から分離困難な文字画像」と判定されてしまう。
Here, in the logical product (AND)
実施例3では、文字切り領域のサイズが大きい場合、細線化部301での細らせ処理の削減量を大きくすることにより、文字内部に残ってしまうエッジを低減することができる。この処理を、図10の1105〜1112を用いて説明する。
In the third embodiment, when the size of the character cut region is large, the edge remaining inside the character can be reduced by increasing the reduction amount of the thinning process in the thinning
1105は、文字品位が悪くノイズ等が多い入力画像の小文字を示す。1106は、小文字の画像1105に対してエッジ検出処理を実行した結果のエッジ検出画像を示す。1107は、小文字の画像1105に対して細らせ処理を実行した結果の細線化画像を示している。細らせ処理では、5×5のウインドウを利用して、5×5の中で1画素でも白画素が存在すれば、注目画素(5×5の中心)を白画素に置き換える処理を行っている。
1108は、エッジ検出画像1106と細線化画像1107との論理積をとった結果の論理積(AND)画像を示している。ここで、文字品位が悪くノイズ等が多い入力画像の小文字であったとしても、大文字の論理積(AND)画像1104と比較すると、エッジ数が少ない。
また、1109は、文字品位が悪くノイズ等が多い入力画像の大文字(1101と同様の文字画像)を示す。1110は、大文字の画像1109に対してエッジ検出処理を実行した結果のエッジ検出画像を示す。1111は、大文字の画像1109に対して細らせ処理を実行した結果の細線化画像を示している。大文字の画像に対する細らせ処理では、9×9のウインドウを利用して、9×9の中で1画素でも白画素が存在すれば、注目画素(9×9の中心)を白画素に置き換える処理を行う。すなわち、文字画像の大きさ(文字切り領域の大きさ)にもとづいて、ウインドウの大きさを変更することで細らせ処理の削減量を大きくしている。なお、上述したウインドウの大きさは一例であり、5×5や9×9に限るものではない。
1112は、エッジ検出画像1110と細線化画像1111との論理積をとった結果の論理積(AND)画像を示している。論理積(AND)画像1112は、前述の論理積(AND)画像1104と比較して、エッジ数が少なくなる。したがって、ノイズが多い大文字であっても、文字画像のサイズが大きければ細らせ処理の削減量を大きくすることで、「背景から分離容易な文字画像」と判定することができる。
以上のように、実施例3によれば、文字切り領域の大きさにもとづいて細線化部による細らせ処理の削減量を制御することで、入力画像がスキャン原稿のような場合であっても、ノイズ等の影響を低減することができ、高精度な判定を行うことができる。 As described above, according to the third embodiment, the input image is like a scanned document by controlling the reduction amount of the thinning process by the thinning unit based on the size of the character cutting area. However, the influence of noise or the like can be reduced, and highly accurate determination can be performed.
(実施例4)
次に、図11を用いて図5の領域判定部2(505)内のエッジ検出部(302)が行う処理の詳細について説明を行う。エッジ検出部(302)は、分散値検出部1001、エッジ判定閾値算出部1002、エッジ抽出部1003から構成される。エッジ検出部(302)の処理をより詳細に説明するため、図12も合わせて説明を行う。図12の1101、1102、1103はそれぞれ図4内に示した401及び、406と同じく入力画像に対し文字切り矩形情報を参照しながら、文字切り矩形単位で切り出された入力画像を示している。1101、1102、1103はそれぞれ、スキャナ部201で取得された際の信号値が異なっている画像例である。より具体化するために、L*a*b*表色系での信号値をしめしており、L*が明度、a*およびb*で色度を示している。なお、本例ではL*a*b*表色系で示しているが、限定するものでなく例えば、RGB表色系など別の色空間の信号値でも同様の処理が可能である。1101の1104で示す領域の信号値は{L*, a*, b*}={1128, −50, +30}である。1105で示す領域の信号値は{L*, a*, b*}={128, +50, −60}である。1104と1105の領域間で大きな信号値差がある例を示している。一方、1102の1106で示す領域の信号値は{L*, a*, b*}={128, −50, +30}である。1107で示す領域の信号値は{L*, a*, b*}={128, −60, +30}である。1106と1107の領域間で小さな信号値差しかない例を示している。更に、1103の1108で示す領域の信号値は{L*, a*, b*}={128, −50, +30}である。1109で示す領域の信号値は{L*, a*, b*}={128, −52, +30}である。1108と1109の領域間ではほぼ信号値差がない例を示している。例えば、エッジ検出部(302)を本構成ではなく、単純に隣り合う画素との信号値比較を元に行うエッジ検出や、フィルタ処理によって行うエッジ検出を行った場合には以下の問題がある。即ち、闘値によっては1101では1104と1105との境界で輪郭エッジが取得できるが、1102の1106と1107との境界で輪郭エッジが取得できない。また、1102の1106と1107との境界で輪郭エッジを取得できる閾値にした場合には1103の1108と1109との境界の輪郭エッジが取得されてしまう。その結果、スキャナの読み取りバラつきやJpegノイズなどの小さなノイズもエッジとして検出されてしまう。
Example 4
Next, details of processing performed by the edge detection unit (302) in the region determination unit 2 (505) of FIG. 5 will be described with reference to FIG. The edge detection unit (302) includes a variance
以上の課題を解決する構成が図11であり、分散値検出部1001は、文字切り矩形単位で切り出された入力画像の信号値での分散値を演算する演算部である。算出方法は、例えば以下の式で算出する。
FIG. 11 shows a configuration that solves the above problem, and the variance
ここで、切り出された入力画像の画素数をn、各画素の信号値(本実施例では、L*、a*、b*のそれぞれの値)をXi(i=1,2,… ,n)、領域内の画素数の信号値の平均をXaveで示す。尚、本実施例ではL*、a*、b*のそれぞれの値での分散値を示すが、限定するものではなく、例えば、a*、b*信号値での共分散値であってもよい。図12に示した1101、1102、1103の例では、1101は信号値差が大きくいことから分散値も大きくなり、1102と1103は信号値差が小さいことから分散値も比較的小さくなる。 Here, the number of pixels of the cut-out input image is n, and the signal value of each pixel (each value of L *, a *, b * in this embodiment) is Xi (i = 1, 2,..., N ), The average of the signal values of the number of pixels in the region is indicated by Xave. In this embodiment, the dispersion values at the values of L *, a *, and b * are shown. However, the present invention is not limited. For example, the covariance values at the a * and b * signal values may be used. Good. In the example of 1101, 1102, 1103 shown in FIG. 12, 1101 has a large signal value difference, so the variance value is large, and 1102 and 1103 have a small signal value difference, so the variance value is relatively small.
これ以降の説明で用いる用語の定義として、「エッジが取得されやすい閾値」とは隣り合う画素間の信号値差を比較し、差がある場合にエッジと判定する処理では信号値差が小さくてもエッジと判定するものである。逆に、「エッジが取得されにくい閾値」は、信号値差が大きくなければエッジと判定されず、信号値差が少ない場合にはエッジと判定されないものをいう。 As the definition of the term used in the following description, the “threshold for which an edge is easy to acquire” is a signal value difference in the process of comparing the signal value difference between adjacent pixels and determining an edge when there is a difference. Are also determined as edges. On the other hand, the “threshold for which it is difficult to acquire an edge” refers to a threshold that is not determined as an edge unless the signal value difference is large, and is not determined as an edge when the signal value difference is small.
エッジ判定閾値算出部1002は、分散値検出部1001によって算出された分散値を元にエッジ抽出を行うための閾値の算出を行う。例えば、1101に示すように分散値が大きい画像に対してはエッジが取得されにくい閾値を割り当てる。一方で、1102と1103に対しては、エッジが取得されやすい閾値を割り当てる。
The edge determination threshold
エッジ抽出部1003は、エッジ判定閾値算出部1002により決定した閾値を元に、エッジ抽出処理を行う処理部である。処理の方法は、汎用的な処理でよく、たとえば近接する画素の信号値差の比較を行い、その差が特定の閾値を越えるか否かで判定するものや、一次微分を算出するフィルタによりエッジ量を求め、特定の閾値を越えるか否かで判定する方法などが挙げられる。
The
エッジ判定閾値算出部1002によって算出した条件で切り分ける場合、1101はエッジが取得されにくい閾値を割り当ててエッジ抽出を行う。ここでは例えば、分散値を元に決定した閾値が5となった場合の例を示す。その閾値で判定した場合、1104と1105の領域間の信号値差は大きいため、正確に1104と1105の領域間にあるエッジを抽出できる。この結果を1110に示す。一方、1102の場合には、1106と1107の信号値差は小さいものの、エッジが取得されやすい閾値を割り当てる事で、1106と1107の領域間にあるエッジを抽出できる。この結果を1111に示す。1103の場合にはエッジが取得されやすい閾値を割り当てているが、1108と1109の間の信号値差が、1106と1107の信号値差に比べ非常に小さい。そのため、エッジが取得されやすい閾値であったとしても、1108と1109の領域間にあるエッジを抽出する事はない。この結果を1112に示す。
When carving is performed based on the condition calculated by the edge determination threshold
次に、図13のフローチャートを用いて、図11のエッジ検出部(302)の説明を行う。説明を行う上で、図11を適宜参照する。 Next, the edge detection unit (302) in FIG. 11 will be described with reference to the flowchart in FIG. In the description, FIG. 11 will be referred to as appropriate.
まず、ステップ1201にて、分散値算出部(1001)は、入力画像(501)に対して信号の分散値を算出する。この際、その画像が持つチャンネル数が3の場合には3つとも求めてもよいし、1チャンネル化して1つでも良い。
First, in
次に、ステップ1202にて、エッジ閾値算出部(1002)は、ステップ1201で算出した画像の信号の分散値が所定の値を越えているか否かを判定する。もし、所定の閾値以上の場合には、1203において「エッジが取得されやすい閾値」を取得する。逆に、所定の閾値未満の場合には、1204において「エッジが取得されにくい値」を取得する。
Next, in
最後に、ステップ1205にて、エッジ抽出部(1003)は、1203又は1204で決定した閾値を元にエッジ抽出処理を行う。
Finally, in
以上のように、本実施例では、エッジ抽出を行う場合に、文字切り矩形単位で切り出された入力画像毎に、画像の分散値を元に閾値を適応的に切り替える構成としている。そうすることにより、より高精度に「背景から分離困難な文字画像」と「背景から分離容易な文字画像」を精度よく切り分ける事ができるようになる。 As described above, in this embodiment, when performing edge extraction, the threshold value is adaptively switched based on the image dispersion value for each input image cut out in units of character cut rectangles. By doing so, it becomes possible to accurately separate the “character image difficult to separate from the background” and the “character image easy to separate from the background” with higher accuracy.
(実施例5)
実施例4では、エッジの抽出を行う際の閾値算出において、信号値の分散値を元に閾値を切り替える手法を説明した。入力画像が3チャンネル等を持つカラー画像の場合には、チャンネル数に応じた数だけの分散値を算出ができ、精度よく閾値の決定に用いる事ができる。しかしながら、入力画像がグレースケールの場合には、チャンネル数が1つのため、閾値算出に用いる事ができる分散値が1つになってしまい、高精度に閾値を算出する事が難しい。
(Example 5)
In the fourth embodiment, the method of switching the threshold value based on the variance value of the signal value in the threshold value calculation when extracting the edge has been described. When the input image is a color image having 3 channels or the like, it is possible to calculate as many variance values as the number of channels, and to use the threshold values with high accuracy. However, when the input image is grayscale, since the number of channels is one, there is only one variance value that can be used for threshold calculation, and it is difficult to calculate the threshold with high accuracy.
そこで、本実施例では図14に示すようにエッジ検出部(302)の構成を、分散値検出部1001、エッジ判定閾値算出部1002、エッジ抽出部1003に加え、黒画素密度算出部1004から構成される。また、入力画像に加え、2値化画像として使用する。
Therefore, in this embodiment, as shown in FIG. 14, the configuration of the edge detection unit (302) is composed of a black pixel
黒画素密度算出部1004は、入力される2値化画像を元に、文字切り矩形の面積に対する黒画素数の比率を算出する演算部である。入力されてくる2値化画像内で、黒画素数をカウントし、そのカウント数を文字切り矩形の面積で除算を行う。
The black pixel
次に、エッジ閾値算出部1002において、黒画素密度算出部1004で算出した黒画素密度を元に、最適な閾値を算出する。ここでも実施例1の分散値に応じてエッジの閾値を切り替えたのと同様に黒画素密度に応じてエッジの閾値を算出する。具体的には、黒画素密度が高い場合には「エッジが取得されやすい閾値」とし、黒画素密度が低い場合には「エッジが取得されにくい閾値」に設定する。このように設定する事で、「濃い濃度の背景を有する文字」の場合には黒画素密度が高く、「エッジが取得されやすい閾値」によりエッジ抽出が行え、正確にエッジの算出を行う事が可能となる。
Next, the edge threshold
尚、分散値を元に算出した閾値と、黒画素密度を元に算出した閾値のいずれか一つを使う事も可能であるが、両方とも使用して閾値算出に用いることも可能である。その際には、エッジをより多く取得する観点で「エッジが取得されやすい閾値」の方を使用する事が望ましいが、「エッジが取得されにくい閾値」を選ぶことも可能である。また、それぞれの閾値の重みを切り替える事で、例えば分散値を元に算出した閾値を優先させることなども可能である。 Note that either one of the threshold value calculated based on the variance value and the threshold value calculated based on the black pixel density can be used, but both can be used for threshold calculation. In that case, from the viewpoint of acquiring more edges, it is desirable to use the “threshold with which an edge is easily acquired”, but it is also possible to select a “threshold with which an edge is difficult to acquire”. Further, by switching the weights of the respective threshold values, for example, priority can be given to the threshold value calculated based on the variance value.
また、図15に示す通りエッジ検出部(302)の構成を、分散値検出部1001、エッジ判定閾値算出部1002、エッジ抽出部1003、黒画素密度算出部1004に加え、閉ループ数算出部1005から構成しても良い。
Further, as shown in FIG. 15, the configuration of the edge detection unit (302) is changed from a closed loop
閉ループ数算出部1005は、入力される2値化画像に対し白の部分の連続した画素により閉ループができている数を算出するラベリングの処理を行う演算部である。
The closed loop
次に、エッジ閾値算出部1002において、閉ループ数算出部1005で算出した閉ループ数を元に、最適な閾値を算出する。ここでも実施例1同様に、閉ループ数の多少によりエッジ抽出に用いる閾値を算出する。具体的には、閉ループ数が多い場合には「エッジが取得されにくい閾値」を使用し、逆に閉ループ数が少ない場合には「エッジが取得されやすい閾値」を使用する。
Next, the edge threshold
以上の処理により、グレースケールのようなチャンネル数が少なく信号値の分散を元にエッジの閾値を算出できない画像に対しても、最適なエッジ閾値の算出を行う事が可能となる。 With the above processing, it is possible to calculate an optimum edge threshold value even for an image having a small number of channels such as a gray scale and for which an edge threshold value cannot be calculated based on the dispersion of signal values.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
Claims (14)
前記決定された濃い領域において、当該濃い領域の端から一定距離以上離れた内側にエッジ画素が閾値以上あるか判定する判定手段と、
エッジ画素が閾値以上あると判定された場合に、前記決定された濃い領域を文字領域ではないと判定する手段とを有することを特徴とする画像処理装置。 Determining means for determining an area darker than a threshold in the input image;
In the determined dark region, a determination unit that determines whether an edge pixel is equal to or greater than a threshold value on the inner side of a certain distance or more away from an end of the dark region
An image processing apparatus comprising: means for determining that the determined dark area is not a character area when it is determined that the edge pixel is equal to or greater than a threshold value.
前記入力画像に対して前記閾値を用いて2値化を行う手段であり、
当該2値化結果における黒画素により前記濃い領域は構成されることを特徴とする請求項1に記載の画像処理装置。 The determining means includes
Means for binarizing the input image using the threshold value;
The image processing apparatus according to claim 1, wherein the dark area is configured by black pixels in the binarization result.
前記判定手段は、
前記細らせ処理の結果と、前記抽出されたエッジ画素の論理積を取ることで、
前記決定された濃い領域において、当該濃い領域の端から一定距離以上離れた内側にエッジ画素が閾値以上あるか判定することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。 Thinning processing means for performing thinning processing on the binarization result;
The determination means includes
By taking the logical product of the result of the thinning process and the extracted edge pixels,
4. The image processing according to claim 1, wherein in the determined dark region, it is determined whether an edge pixel is greater than or equal to a threshold value inside at a predetermined distance or more from an end of the dark region. apparatus.
前記2値画像内の文字領域を判定する第1の判定手段と、
前記文字領域内に含まれる文字それぞれを囲む領域を、文字切り矩形情報として得る文字切出し手段と、
前記文字切り矩形情報に基づいて特定される前記2値画像内の領域に対して細らせ処理を実行することにより、細線化画像を得る細線化手段と、
前記文字切り矩形情報に基づいて特定される領域のエッジ検出処理を実行することにより、エッジ検出画像を得るエッジ検出手段と、
前記細線化画像と前記エッジ検出画像の論理積を取る論理演算手段と、
前記論理演算手段による論理積の結果に基づいて、前記文字切り矩形情報により特定される各文字が、前記2値化処理により背景から分離される文字であるか否か判定する第2の判定手段と、
を有することを特徴とする画像処理装置。 Binarization means for generating a binary image by executing binarization processing on the input image;
First determination means for determining a character region in the binary image;
Character extraction means for obtaining an area surrounding each character included in the character area as character cut rectangle information;
Thinning means for obtaining a thinned image by performing a thinning process on a region in the binary image specified based on the character cut rectangle information;
Edge detection means for obtaining an edge detection image by executing edge detection processing of an area specified based on the character cut rectangle information;
Logical operation means for taking a logical product of the thinned image and the edge detection image;
Second determination means for determining whether each character specified by the character cut rectangle information is a character separated from the background by the binarization processing based on the result of logical product by the logical operation means. When,
An image processing apparatus comprising:
前記第2の判定手段で前記2値化処理により背景から分離されない文字であると判定された文字に対しては、多値非可逆圧縮を実行する第2の圧縮手段と、を更に有することを特徴とする請求項5に記載の画像処理装置。 First compression means for executing binary reversible compression on a character determined by the second determination means to be a character separated from a background by the binarization processing;
A second compression unit that performs multi-level irreversible compression on the character determined by the second determination unit as a character that is not separated from the background by the binarization process. The image processing apparatus according to claim 5, wherein:
前記エッジ検出手段は、前記縮小多値画像において、前記文字切り矩形情報に基づいて特定される領域のエッジ検出処理を実行することにより、前記エッジ検出画像を得ることを特徴とする請求項5に記載の画像処理装置。 A reduction means for reducing the input image to obtain a reduced multi-valued image;
The said edge detection means obtains the said edge detection image by performing the edge detection process of the area | region specified based on the said character cut rectangle information in the said reduction | restoration multi-value image, The said edge detection image is obtained. The image processing apparatus described.
前記第2の判定手段は、前記論理演算手段で生成された論理積画像に含まれる黒画素の数に基づいて、前記文字切り矩形情報により特定される各文字が、前記2値化処理により背景から分離される文字であるか否か判定することを特徴とする請求項5に記載の画像処理装置。 The logical operation means generates a logical product image by taking a logical product of the thinned image and the edge detection image,
The second determination unit is configured to convert each character specified by the character cut rectangle information based on the number of black pixels included in the logical product image generated by the logical operation unit into a background by the binarization process. 6. The image processing apparatus according to claim 5, wherein it is determined whether or not the character is separated from the character.
第1の判定手段が、前記2値画像内の文字領域を判定する第1の判定ステップと、
文字切出し手段が、前記文字領域内に含まれる文字それぞれを囲む領域を、文字切り矩形情報として得る文字切出しステップと、
細線化手段が、前記文字切り矩形情報に基づいて特定される前記2値画像内の領域に対して細らせ処理を実行することにより、細線化画像を得る細線化ステップと、
エッジ検出手段が、前記文字切り矩形情報に基づいて特定される領域のエッジ検出処理を実行することにより、エッジ検出画像を得るエッジ検出ステップと、
論理演算手段が、前記細線化画像と前記エッジ検出画像の論理積を取る論理演算ステップと、
第2の判定手段が、前記論理演算ステップでの論理積の結果に基づいて、前記文字切り矩形情報により特定される各文字が、前記2値化処理により背景から分離される文字であるか否か判定する第2の判定ステップと、を有することを特徴とする画像処理方法。 A binarization step in which binarization means generates a binary image by executing binarization processing on the input image;
A first determination step in which a first determination unit determines a character region in the binary image;
A character cutting step in which a character cutting means obtains a region surrounding each character included in the character region as character cutting rectangle information; and
A thinning step in which a thinning unit obtains a thinned image by performing a thinning process on a region in the binary image specified based on the character cut rectangle information; and
An edge detection step in which an edge detection unit obtains an edge detection image by executing an edge detection process of an area specified based on the character cut rectangle information; and
A logical operation step in which a logical operation means takes a logical product of the thinned image and the edge detection image;
Whether or not each character specified by the character cut rectangle information is a character separated from the background by the binarization processing based on the result of the logical product in the logical operation step. And a second determination step for determining whether or not the image processing method.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013262763 | 2013-12-19 | ||
JP2013262763 | 2013-12-19 | ||
JP2014054163 | 2014-03-17 | ||
JP2014054163 | 2014-03-17 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014139870A Division JP5875637B2 (en) | 2013-12-19 | 2014-07-07 | Image processing apparatus and image processing method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018116076A Division JP6743092B2 (en) | 2013-12-19 | 2018-06-19 | Image processing apparatus, image processing control method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016054564A true JP2016054564A (en) | 2016-04-14 |
JP2016054564A5 JP2016054564A5 (en) | 2017-08-17 |
JP6362632B2 JP6362632B2 (en) | 2018-07-25 |
Family
ID=55745364
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016007423A Active JP6362632B2 (en) | 2013-12-19 | 2016-01-18 | Image processing apparatus and image processing method |
JP2018116076A Active JP6743092B2 (en) | 2013-12-19 | 2018-06-19 | Image processing apparatus, image processing control method, and program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018116076A Active JP6743092B2 (en) | 2013-12-19 | 2018-06-19 | Image processing apparatus, image processing control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP6362632B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805116A (en) * | 2018-05-18 | 2018-11-13 | 浙江蓝鸽科技有限公司 | Image text detection method and its system |
CN112001392A (en) * | 2019-05-27 | 2020-11-27 | 株式会社东芝 | Reading system, reading method, storage medium, and moving object |
CN112070708A (en) * | 2020-08-21 | 2020-12-11 | 杭州睿琪软件有限公司 | Image processing method, image processing apparatus, electronic device, and storage medium |
CN115995091A (en) * | 2023-02-09 | 2023-04-21 | 清华大学 | Method and device for reading flow chart, electronic equipment and storage medium |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7382834B2 (en) | 2020-01-07 | 2023-11-17 | シャープ株式会社 | Image processing device, image processing method, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007251820A (en) * | 2006-03-17 | 2007-09-27 | Ricoh Co Ltd | Image processing device, image forming apparatus, image processing method, and program for computer to execute the method |
JP2007282210A (en) * | 2006-04-05 | 2007-10-25 | Toshiba Corp | Image processing device and method |
JP2012074852A (en) * | 2010-09-28 | 2012-04-12 | Sharp Corp | Image processing device, image formation device, image reading device, image processing method, image processing program and recording medium |
JP2013172335A (en) * | 2012-02-21 | 2013-09-02 | Canon Inc | Image encoder and control method of the same |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5875637B2 (en) * | 2013-12-19 | 2016-03-02 | キヤノン株式会社 | Image processing apparatus and image processing method |
-
2016
- 2016-01-18 JP JP2016007423A patent/JP6362632B2/en active Active
-
2018
- 2018-06-19 JP JP2018116076A patent/JP6743092B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007251820A (en) * | 2006-03-17 | 2007-09-27 | Ricoh Co Ltd | Image processing device, image forming apparatus, image processing method, and program for computer to execute the method |
JP2007282210A (en) * | 2006-04-05 | 2007-10-25 | Toshiba Corp | Image processing device and method |
JP2012074852A (en) * | 2010-09-28 | 2012-04-12 | Sharp Corp | Image processing device, image formation device, image reading device, image processing method, image processing program and recording medium |
JP2013172335A (en) * | 2012-02-21 | 2013-09-02 | Canon Inc | Image encoder and control method of the same |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108805116A (en) * | 2018-05-18 | 2018-11-13 | 浙江蓝鸽科技有限公司 | Image text detection method and its system |
CN108805116B (en) * | 2018-05-18 | 2022-06-24 | 浙江蓝鸽科技有限公司 | Image text detection method and system |
CN112001392A (en) * | 2019-05-27 | 2020-11-27 | 株式会社东芝 | Reading system, reading method, storage medium, and moving object |
CN112070708A (en) * | 2020-08-21 | 2020-12-11 | 杭州睿琪软件有限公司 | Image processing method, image processing apparatus, electronic device, and storage medium |
CN112070708B (en) * | 2020-08-21 | 2024-03-08 | 杭州睿琪软件有限公司 | Image processing method, image processing apparatus, electronic device, and storage medium |
US11985287B2 (en) | 2020-08-21 | 2024-05-14 | Hangzhou Glority Software Limited | Image processing method, image processing device, electronic apparatus and storage medium |
CN115995091A (en) * | 2023-02-09 | 2023-04-21 | 清华大学 | Method and device for reading flow chart, electronic equipment and storage medium |
CN115995091B (en) * | 2023-02-09 | 2023-08-25 | 清华大学 | Method and device for reading flow chart, electronic equipment and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP2018139457A (en) | 2018-09-06 |
JP6362632B2 (en) | 2018-07-25 |
JP6743092B2 (en) | 2020-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5875637B2 (en) | Image processing apparatus and image processing method | |
JP5132530B2 (en) | Image coding apparatus, image processing apparatus, and control method thereof | |
JP6743092B2 (en) | Image processing apparatus, image processing control method, and program | |
US20060029280A1 (en) | Image processing apparatus, image processing method, and program and storage medium therefor | |
JP6939449B2 (en) | Image processing equipment, image processing method and image processing program | |
US8774511B2 (en) | Image processing apparatus and image processing method | |
US8620081B2 (en) | Image processing apparatus, method, and storage medium for determining attributes | |
US8971647B2 (en) | Image compression apparatus, image compression method, and storage medium | |
US11736652B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP6370080B2 (en) | Image processing apparatus, image processing method, and program. | |
US8810877B2 (en) | Image processing apparatus, image processing method, and storage medium for eliminating blurring of scanned image | |
JP5005732B2 (en) | Image forming apparatus and image processing method | |
US8577132B2 (en) | Electronic document generation system, electronic document generation method, and program | |
JP2012205133A (en) | Image processor and control method therefor | |
JP7134045B2 (en) | Image processing device, image processing method, and program | |
JP7362405B2 (en) | Image processing device, image processing method, and program | |
US11924390B2 (en) | Apparatus, method, and storage medium for performing color reduction processing | |
JP7185451B2 (en) | Image processing device, image processing method, and program | |
JP2012231261A (en) | Image processing apparatus and control method thereof | |
JP2010218106A (en) | Image processing apparatus, image processing method and program | |
JP2020102148A (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170707 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170707 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180313 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180510 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180529 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180626 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6362632 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |