JP6451693B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP6451693B2 JP6451693B2 JP2016097932A JP2016097932A JP6451693B2 JP 6451693 B2 JP6451693 B2 JP 6451693B2 JP 2016097932 A JP2016097932 A JP 2016097932A JP 2016097932 A JP2016097932 A JP 2016097932A JP 6451693 B2 JP6451693 B2 JP 6451693B2
- Authority
- JP
- Japan
- Prior art keywords
- document
- character string
- image data
- string direction
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Record Information Processing For Printing (AREA)
- Editing Of Facsimile Originals (AREA)
Description
本発明は、画像処理装置、及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method.
複写機などの画像処理装置では、原稿から読み取られた画像データに基づいて印刷処理などの出力処理が実行される。ここで、画像データから画像領域を抽出して、抽出された画像領域に応じたサイズのシートに抽出された画像領域を印刷可能な画像処理装置が知られている(特許文献1参照)。 In an image processing apparatus such as a copying machine, output processing such as printing processing is executed based on image data read from a document. Here, there is known an image processing apparatus capable of extracting an image area from image data and printing the extracted image area on a sheet having a size corresponding to the extracted image area (see Patent Document 1).
ところで、画像処理装置で文書の画像データが読み取られる場合に、その文書において文字列及び図形などの文書の構成要素が文書の文字列方向で不揃いとなっていることがある。この場合、画像処理装置のユーザーは、文書の視認性を向上させるために、文書の構成要素各々の文字列方向における位置を揃えたいと考えることがある。また、画像処理装置のユーザーは、文書の右端にメモを書き込むためのスペースを設けるために、文書の構成要素各々の位置を文書の左端に揃えたいと考えることがある。しかしながら、従来の画像処理装置では、文書の構成要素各々の文字列方向における位置を揃えることはできない。 By the way, when image data of a document is read by the image processing apparatus, the document components such as character strings and graphics may be uneven in the document character string direction. In this case, the user of the image processing apparatus may want to align the positions of the constituent elements of the document in the character string direction in order to improve the visibility of the document. The user of the image processing apparatus may want to align the position of each component of the document with the left end of the document in order to provide a space for writing a memo at the right end of the document. However, the conventional image processing apparatus cannot align the positions in the character string direction of each component of the document.
本発明の目的は、文書の構成要素各々の文字列方向における位置を揃えることが可能な画像処理装置及び画像処理方法を提供することにある。 An object of the present invention is to provide an image processing apparatus and an image processing method capable of aligning positions in a character string direction of each component of a document.
本発明の一の局面に係る画像処理装置は、取得処理部と、検出処理部と、変更処理部と、出力処理部とを備える。前記取得処理部は、文書の画像データを取得する。前記検出処理部は、前記文書の画像データに基づいて前記文書の構成要素を検出する。前記変更処理部は、前記文書の画像データにおける前記構成要素各々の位置を前記文書の文字列方向における予め定められた特定位置に変更する。前記出力処理部は、前記変更処理部による変更処理後の前記文書の画像データを出力する。 An image processing apparatus according to an aspect of the present invention includes an acquisition processing unit, a detection processing unit, a change processing unit, and an output processing unit. The acquisition processing unit acquires image data of a document. The detection processing unit detects a component of the document based on the image data of the document. The change processing unit changes the position of each component in the image data of the document to a predetermined specific position in the character string direction of the document. The output processing unit outputs the image data of the document after the change processing by the change processing unit.
本発明の他の局面に係る画像処理方法は、以下の取得ステップ、検出ステップ、変更ステップ、及び出力ステップを含む。前記取得ステップでは、文書の画像データが取得される。前記検出ステップでは、前記文書の画像データに基づいて前記文書の構成要素が検出される。前記変更ステップでは、前記文書の画像データにおける前記構成要素各々の位置が前記文書の文字列方向における予め定められた特定位置に変更される。前記出力ステップでは、前記変更ステップによる変更処理後の前記文書の画像データが出力される。 An image processing method according to another aspect of the present invention includes the following acquisition step, detection step, change step, and output step. In the obtaining step, image data of the document is obtained. In the detection step, components of the document are detected based on the image data of the document. In the changing step, the position of each component in the image data of the document is changed to a predetermined specific position in the character string direction of the document. In the output step, the image data of the document after the change process in the change step is output.
本発明によれば、文書の構成要素各々の文字列方向における位置を揃えることが可能である。 According to the present invention, it is possible to align the positions of the constituent elements of a document in the character string direction.
以下、添付図面を参照しながら、本発明の実施形態について説明する。なお、以下の実施形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定するものではない。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. The following embodiment is an example embodying the present invention, and does not limit the technical scope of the present invention.
[画像処理装置10の概略構成]
まず、図1及び図2を参照しつつ、本発明の実施形態に係る画像処理装置10の概略構成について説明する。ここで、図1は画像処理装置10の構成を示す断面模式図である。
[Schematic Configuration of Image Processing Apparatus 10]
First, a schematic configuration of an
画像処理装置10は、原稿から画像データを読み取るスキャン機能、及び画像データに基づいて画像を形成するプリント機能と共に、ファクシミリ機能、及びコピー機能などの複数の機能を有する複合機である。また、本発明は、スキャナー装置、プリンター装置、ファクシミリ装置、及びコピー機などの画像処理装置に適用可能である。
The
図1及び図2に示すように、画像処理装置10は、ADF(自動原稿搬送装置)1、画像読取部2、画像形成部3、給紙部4、制御部5、操作表示部6、及び記憶部7を備える。
As shown in FIGS. 1 and 2, the
ADF1は、原稿セット部、複数の搬送ローラー、原稿押さえ、及び排紙部を備え、画像読取部2によって読み取られる原稿を搬送する。画像読取部2は、原稿台、光源、複数のミラー、光学レンズ、及びCCDを備え、原稿から画像データを読み取ることが可能である。
The ADF 1 includes a document setting unit, a plurality of conveyance rollers, a document pressing unit, and a paper discharge unit, and conveys a document read by the
画像形成部3は、画像読取部2で読み取られた画像データ又は外部のパーソナルコンピューター等の情報処理装置から入力された画像データに基づいて、電子写真方式で画像を形成可能である。具体的に、画像形成部3は、感光体ドラム、帯電装置、光走査装置、現像装置、転写ローラー、クリーニング装置、定着ローラー、加圧ローラー、及び排紙トレイを備える。そして、画像形成部3では、給紙部4から供給されるシートに画像が形成されて、画像形成後のシートが前記排紙トレイに排出される。
The
制御部5は、不図示のCPU、ROM、RAM、及びEEPROM(登録商標)などの制御機器を備える。前記CPUは、各種の演算処理を実行するプロセッサーである。前記ROMは、前記CPUに各種の処理を実行させるための制御プログラムなどの情報が予め記憶される不揮発性の記憶媒体である。前記RAMは揮発性の記憶媒体であり、前記EEPROMは不揮発性の記憶媒体である。前記RAM及び前記EEPROMは、前記CPUが実行する各種の処理の一時記憶メモリー(作業領域)として使用される。制御部5では、前記CPUにより前記ROMに予め記憶された各種の制御プログラムが実行される。これにより、画像処理装置10が制御部5により統括的に制御される。なお、制御部5は、集積回路(ASIC)などの電子回路で構成されたものであってもよく、画像処理装置10を統括的に制御するメイン制御部とは別に設けられた制御部であってもよい。
The control unit 5 includes control devices such as a CPU, ROM, RAM, and EEPROM (registered trademark) (not shown). The CPU is a processor that executes various arithmetic processes. The ROM is a non-volatile storage medium in which information such as a control program for causing the CPU to execute various processes is stored in advance. The RAM is a volatile storage medium, and the EEPROM is a nonvolatile storage medium. The RAM and the EEPROM are used as a temporary storage memory (working area) for various processes executed by the CPU. In the control unit 5, various control programs stored in advance in the ROM are executed by the CPU. As a result, the
操作表示部6は、制御部5からの制御指示に応じて各種の情報を表示する液晶ディスプレーなどの表示部、及びユーザーの操作に応じて制御部5に各種の情報を入力する操作キー又はタッチパネルなどの操作部を有する。 The operation display unit 6 is a display unit such as a liquid crystal display that displays various types of information in response to control instructions from the control unit 5, and an operation key or touch panel that inputs various types of information to the control unit 5 in response to user operations. And so on.
記憶部7は、不揮発性の記憶媒体である。例えば、記憶部7は、フラッシュメモリー、SSD(ソリッドステートドライブ)、又はHDD(ハードディスクドライブ)などの記憶媒体である。 The storage unit 7 is a nonvolatile storage medium. For example, the storage unit 7 is a storage medium such as a flash memory, an SSD (solid state drive), or an HDD (hard disk drive).
ところで、画像処理装置10で文書の画像データが読み取られる場合に、その文書において文字列及び図形などの文書の構成要素が文書の文字列方向で不揃いとなっていることがある。この場合、画像処理装置10のユーザーは、文書の視認性を向上させるために、文書の構成要素各々の文字列方向における位置を揃えたいと考えることがある。また、画像処理装置10のユーザーは、文書の右端にメモを書き込むためのスペースを設けるために、文書の構成要素各々の位置を文書の左端に揃えたいと考えることがある。しかしながら、従来の画像処理装置では、文書の構成要素各々の文字列方向における位置を揃えることはできない。
By the way, when image data of a document is read by the
これに対し、本発明の実施形態に係る画像処理装置10では、以下に説明するように、文書の構成要素各々の文字列方向における位置を揃えることが可能である。
On the other hand, in the
具体的に、制御部5の前記ROMには、前記CPUに後述の位置変更処理(図3のフローチャート参照)を実行させるための位置変更プログラムが予め記憶されている。なお、前記位置変更プログラムは、CD、DVD、フラッシュメモリーなどのコンピューター読み取り可能な記録媒体に記録されており、前記記録媒体から読み取られて記憶部7にインストールされるものであってもよい。 Specifically, the ROM of the control unit 5 stores in advance a position change program for causing the CPU to execute a position change process described later (see the flowchart in FIG. 3). The position change program may be recorded on a computer-readable recording medium such as a CD, a DVD, or a flash memory, and read from the recording medium and installed in the storage unit 7.
そして、制御部5は、図2に示すように、取得処理部51、エッジ検出部52、第1検出部53、特定処理部54、第2検出部55、変更処理部56、及び出力処理部57を含む。具体的に、制御部5は、前記CPUを用いて前記ROMに記憶されている前記位置変更プログラムを実行する。これにより、制御部5は、取得処理部51、エッジ検出部52、第1検出部53、特定処理部54、第2検出部55、変更処理部56、及び出力処理部57として機能する。
As shown in FIG. 2, the control unit 5 includes an
取得処理部51は、文書の画像データを取得する。
The
例えば、取得処理部51は、画像読取部2を用いて文書の画像データを取得する。具体的に、取得処理部51は、ADF1の前記原稿セット部に原稿が載置されている場合には、ADF1及び画像読取部2を用いて、前記原稿セット部に載置された原稿から文書の画像データを読み取る。また、取得処理部51は、画像読取部2の前記原稿台に原稿が載置されている場合には、画像読取部2を用いて、前記原稿台に載置された原稿から文書の画像データを読み取る。
For example, the
また、取得処理部51は、外部の情報処理装置から送信される文書の画像データを受信することで、文書の画像データを取得してもよい。また、取得処理部51は、画像読取部2によって読み取られて、又は外部の情報処理装置から送信されて記憶部7に格納された文書の画像データを読み出すことで、文書の画像データを取得してもよい。
Further, the
エッジ検出部52、第1検出部53、特定処理部54、及び第2検出部55は、文書の画像データに基づいて文書の構成要素を検出する。ここに、エッジ検出部52、第1検出部53、特定処理部54、及び第2検出部55が、本発明における検出処理部の一例である。
The
具体的に、前記構成要素には、文字列、図形、及び写真が含まれる。なお、前記構成要素は、文字列、図形、及び写真のいずれか一つ又は二つであってもよい。 Specifically, the constituent elements include character strings, figures, and photographs. In addition, the said component may be any one or two of a character string, a figure, and a photograph.
エッジ検出部52は、文書の画像データに含まれるエッジ画素を検出する。例えば、エッジ検出部52は、文書の画像データに含まれる画素各々に対して微分フィルター処理を実行することで、文書の画像データに含まれる前記エッジ画素を検出する。
The
第1検出部53、特定処理部54、及び第2検出部55は、エッジ検出部52によって検出された前記エッジ画素に基づいて、前記構成要素を検出する。ここに、第1検出部53、特定処理部54、及び第2検出部55が、本発明における構成検出部の一例である。
The
第1検出部53は、文書の画像データが文書の文字列方向と直交する行方向に等間隔で分割された分割領域ごとに、前記分割領域に含まれる前記エッジ画素のうち前記文字列方向において最も離間した一対の端画素を検出する。
For each divided region in which the document image data is divided at equal intervals in a row direction orthogonal to the document character string direction, the
例えば、画像処理装置10では、取得処理部51によって取得される文書の画像データの書式が、予め横書きに設定されている。なお、取得処理部51によって取得される文書の画像データの書式は、操作表示部6に対するユーザー操作に応じて縦書きに変更可能であってよい。ここで、前記文字列方向は、取得処理部51によって取得される文書の画像データの書式が横書きに設定されている場合は文書の横方向である。また、前記文字列方向は、取得処理部51によって取得される文書の画像データの書式が縦書きに設定されている場合は文書の縦方向である。
For example, in the
例えば、画像処理装置10では、前記分割領域の前記行方向における幅が予め定められた初期値に設定されている。なお、前記分割領域の前記行方向における幅は、取得処理部51によって取得される文書の画像データのサイズに応じて変更されてもよい。また、前記分割領域の前記行方向における幅は、操作表示部6に対するユーザー操作に応じて任意の値に設定されてもよい。
For example, in the
特定処理部54は、隣接する前記分割領域各々に含まれる前記文字列方向の一方側の前記端画素各々の前記文字列方向における離間距離、及び前記文字列方向の他方側の前記端画素各々の前記文字列方向における離間距離に基づいて、共通の前記構成要素を含む一又は複数の前記分割領域を特定する。
The
具体的に、特定処理部54は、隣接する二つの前記分割領域各々に含まれる前記文字列方向の一方側の前記端画素各々の前記文字列方向における離間距離が予め定められた閾値以下であって、且つ前記文字列方向の他方側の前記端画素各々の前記文字列方向における離間距離が前記閾値以下である場合に、隣接する二つの前記分割領域が共通の前記構成要素を含むと判断する。
Specifically, the
例えば、画像処理装置10では、前記閾値が予め定められた初期値に設定されている。例えば、前記閾値の初期値は10画素である。なお、前記閾値は、取得処理部51によって取得される文書の画像データのサイズに応じて変更されてもよい。また、前記閾値は、操作表示部6に対するユーザー操作に応じて任意の値に設定されてもよい。
For example, in the
第2検出部55は、特定処理部54により特定された一又は複数の前記分割領域において前記文字列方向に最も離間した前記端画素各々から前記文字列方向の内側の領域を前記構成要素として検出する。
The
なお、制御部5は、文書の画像データから文字領域及び非文字領域を検出して、検出された前記文字領域及び前記非文字領域を前記構成要素としてもよい。例えば、制御部5は、エッジ検出部52により検出された前記エッジ画素に基づいて、文書の画像データから前記文字領域及び前記非文字領域を検出して、検出された前記文字領域及び前記非文字領域を前記構成要素としてもよい。
The control unit 5 may detect a character area and a non-character area from the image data of the document, and may use the detected character area and the non-character area as the constituent elements. For example, the control unit 5 detects the character region and the non-character region from the image data of the document based on the edge pixel detected by the
変更処理部56は、文書の画像データにおける前記構成要素各々の位置を、前記文字列方向における予め定められた特定位置に変更する。
The
例えば、前記特定位置は、文書の画像データにおける前記文字列方向(文書の横方向)の左側の端部から中央側へ予め定められた設定距離だけ離間した位置である。ここで、前記設定距離は、文書の画像データにおける左側の余白領域の幅に対応する。なお、前記特定位置は、文書の画像データにおける前記文字列方向(文書の横方向)の右側の端部から中央側へ前記設定距離だけ離間した位置であってもよい。また、前記設定距離は、操作表示部6に対するユーザー操作に応じて任意の値に設定されてもよい。また、前記設定距離は、取得処理部51によって取得される文書の画像データのサイズに応じて変更されてもよい。
For example, the specific position is a position separated from the left end in the character string direction (the horizontal direction of the document) in the document image data by a predetermined set distance from the left side to the center side. Here, the set distance corresponds to the width of the left margin area in the image data of the document. The specific position may be a position separated from the right end in the character string direction (lateral direction of the document) in the document image data by the set distance from the right end. The set distance may be set to an arbitrary value in accordance with a user operation on the operation display unit 6. The set distance may be changed according to the size of the image data of the document acquired by the
例えば、変更処理部56は、文書の画像データにおける前記構成要素各々の前記文字列方向の一方の端部の位置を前記特定位置に変更する。
For example, the
なお、前記特定位置は、文書の画像データにおける前記文字列方向の中央の位置であってもよい。この場合、変更処理部56は、文書の画像データにおける前記構成要素各々の前記文字列方向の中央部の位置を前記特定位置に変更する。
The specific position may be a central position in the character string direction in the image data of the document. In this case, the
出力処理部57は、変更処理部56による変更処理後の文書の画像データを出力する。
The
例えば、出力処理部57は、画像形成部3を用いて変更処理部56による変更処理後の文書の画像データを印刷する。
For example, the
また、出力処理部57は、変更処理部56による変更処理後の文書の画像データを記憶部7に格納してもよい。また、出力処理部57は、変更処理部56による変更処理後の文書の画像データを外部の情報処理装置に送信してもよい。
The
[位置変更処理]
以下、図3を参照しつつ、画像処理装置10において制御部5により実行される位置変更処理の手順の一例と共に、本発明における画像処理方法の手順について説明する。ここで、ステップS11、S12・・・は、制御部5により実行される処理手順(ステップ)の番号を表している。なお、制御部5は、操作表示部6に対して前記位置変更処理の実行を指示する旨のユーザー操作があった場合に、前記位置変更処理を実行する。また、以下においては、取得処理部51によって取得される文書の画像データの書式が、予め横書きに設定されていると仮定して説明を行う。即ち、前記文字列方向が文書の横方向であると仮定して説明を行う。
[Position change processing]
Hereinafter, the procedure of the image processing method according to the present invention will be described together with an example of the procedure of the position change process executed by the control unit 5 in the
<ステップS11>
まず、ステップS11において、制御部5は、文書の画像データを取得する。ここに、ステップS11の処理が、本発明における取得ステップの一例であって、制御部5の取得処理部51により実行される。
<Step S11>
First, in step S11, the control unit 5 acquires image data of a document. Here, the process of step S <b> 11 is an example of the acquisition step in the present invention, and is executed by the
例えば、制御部5は、ADF1の前記原稿セット部に原稿が載置されている場合には、ADF1及び画像読取部2を用いて、前記原稿セット部に載置された原稿から文書の画像データを読み取る。また、制御部5は、画像読取部2の前記原稿台に原稿が載置されている場合には、画像読取部2を用いて、前記原稿台に載置された原稿から文書の画像データを読み取る。
For example, when a document is placed on the document set unit of the ADF 1, the control unit 5 uses the ADF 1 and the
また、制御部5は、外部の情報処理装置から送信される文書の画像データを受信することで、文書の画像データを取得してもよい。また、制御部5は、画像読取部2によって読み取られて、又は外部の情報処理装置から送信されて記憶部7に格納された文書の画像データを読み出すことで、文書の画像データを取得してもよい。
Further, the control unit 5 may acquire the document image data by receiving the document image data transmitted from the external information processing apparatus. Further, the control unit 5 acquires the image data of the document by reading the image data of the document read by the
<ステップS12>
ステップS12において、制御部5は、文書の画像データに含まれる前記エッジ画素を検出する。ここで、ステップS12の処理は、制御部5のエッジ検出部52により実行される。
<Step S12>
In step S12, the control unit 5 detects the edge pixel included in the image data of the document. Here, the process of step S <b> 12 is executed by the
例えば、制御部5は、文書の画像データに含まれる画素各々に対して前記微分フィルター処理を実行することで、文書の画像データに含まれる前記エッジ画素を検出する。 For example, the control unit 5 detects the edge pixel included in the image data of the document by executing the differential filter processing on each pixel included in the image data of the document.
ここで、図4に、ステップS12によって前記エッジ画素が検出された文書の画像データの一例を示す。なお、以下においては、図4における紙面左右方向を文字列方向D1、紙面上下方向を行方向D2と定義する。 Here, FIG. 4 shows an example of image data of a document in which the edge pixel is detected in step S12. In the following, the horizontal direction in FIG. 4 is defined as the character string direction D1, and the vertical direction in the plane is defined as the row direction D2.
図4に示される画像データA1は、ステップS12によって前記エッジ画素が検出された文書の画像データの一部である。なお、図4における破線は、分割領域R1〜R8を示すためのものである。また、図4における直線L11は、端画素G21を通り、文字列方向D1に垂直な直線である。また、図4における直線L12は、端画素G42を通り、文字列方向D1に垂直な直線である。また、図4における直線L21は、端画素G51を通り、文字列方向D1に垂直な直線である。また、図4における直線L22は、端画素G62を通り、文字列方向D1に垂直な直線である。 Image data A1 shown in FIG. 4 is a part of the image data of the document in which the edge pixel is detected in step S12. In addition, the broken line in FIG. 4 is for showing division area R1-R8. A straight line L11 in FIG. 4 is a straight line that passes through the end pixel G21 and is perpendicular to the character string direction D1. A straight line L12 in FIG. 4 is a straight line that passes through the end pixel G42 and is perpendicular to the character string direction D1. A straight line L21 in FIG. 4 is a straight line that passes through the end pixel G51 and is perpendicular to the character string direction D1. A straight line L22 in FIG. 4 is a straight line that passes through the end pixel G62 and is perpendicular to the character string direction D1.
<ステップS13>
ステップS13において、制御部5は、前記分割領域ごとに、前記分割領域に含まれる前記エッジ画素のうち前記文字列方向において最も離間した一対の端画素を検出する。ここで、ステップS13の処理は、制御部5の第1検出部53により実行される。
<Step S13>
In step S <b> 13, the control unit 5 detects, for each of the divided regions, a pair of end pixels that are most separated in the character string direction from among the edge pixels included in the divided region. Here, the process of step S <b> 13 is executed by the
例えば、制御部5は、図4に示される分割領域R1から、文字列方向D1において最も離間した端画素G11及び端画素G12を検出する。また、制御部5は、図4に示される分割領域R2から、文字列方向D1において最も離間した端画素G21及び端画素G22を検出する。なお、図4に示される分割領域R2のように、文字列方向D1における左端に位置する前記エッジ画素が複数存在する場合は、いずれか一つの画素が文字列方向D1における左側の前記端画素として検出されればよい。図4に示される分割領域R2のように、文字列方向D1における右端に位置する前記エッジ画素が複数存在する場合についても同様である。 For example, the control unit 5 detects the end pixel G11 and the end pixel G12 that are farthest apart in the character string direction D1 from the divided region R1 illustrated in FIG. Further, the control unit 5 detects the end pixel G21 and the end pixel G22 that are farthest apart in the character string direction D1 from the divided region R2 shown in FIG. When there are a plurality of the edge pixels located at the left end in the character string direction D1 as in the divided region R2 shown in FIG. 4, any one pixel is used as the left end pixel in the character string direction D1. It only has to be detected. The same applies to the case where there are a plurality of the edge pixels located at the right end in the character string direction D1 as in the divided region R2 shown in FIG.
同様に、制御部5は、図4に示される分割領域R3〜R8から、文字列方向D1において最も離間した端画素G31〜G81及び端画素G32〜G82を検出する。 Similarly, the control unit 5 detects the end pixels G31 to G81 and the end pixels G32 to G82 that are farthest apart in the character string direction D1 from the divided regions R3 to R8 shown in FIG.
<ステップS14>
ステップS14において、制御部5は、隣接する前記分割領域各々に含まれる前記文字列方向の一方側の前記端画素各々の前記文字列方向における離間距離、及び前記文字列方向の他方側の前記端画素各々の前記文字列方向における離間距離に基づいて、共通の前記構成要素を含む一又は複数の前記分割領域を特定する。ここで、ステップS14の処理は、制御部5の特定処理部54により実行される。
<Step S14>
In step S <b> 14, the control unit 5 determines the separation distance in the character string direction of each of the end pixels on one side in the character string direction included in each of the adjacent divided regions, and the end on the other side in the character string direction. Based on the separation distance of each pixel in the character string direction, one or a plurality of the divided regions including the common component are specified. Here, the process of step S <b> 14 is executed by the
例えば、制御部5は、画像データA1において、行方向D2における上端の分割領域R1から順に、隣接する二つの前記分割領域が共通の前記構成要素を含むか否かを判断する。 For example, in the image data A1, the control unit 5 determines whether or not two adjacent divided regions include the common component in order from the upper divided region R1 in the row direction D2.
具体的に、制御部5は、図4に示される分割領域R1及び分割領域R2に含まれる文字列方向D1の左側の端画素G11及び端画素G21の文字列方向D1における離間距離が前記閾値以下であって、且つ文字列方向D1の右側の端画素G12及び端画素G22の文字列方向D1における離間距離が前記閾値以下であるか否かを判断する。そして、制御部5は、文字列方向D1の左側の端画素G11及び端画素G21の文字列方向D1における離間距離が前記閾値以下であって、且つ文字列方向D1の右側の端画素G12及び端画素G22の文字列方向D1における離間距離が前記閾値以下である場合に、分割領域R1及び分割領域R2が共通の前記構成要素を含むと判断する。 Specifically, the control unit 5 determines that the separation distance in the character string direction D1 between the left end pixel G11 and the end pixel G21 in the character string direction D1 included in the divided region R1 and the divided region R2 illustrated in FIG. In addition, it is determined whether or not the distance between the right end pixel G12 and the end pixel G22 in the character string direction D1 in the character string direction D1 is equal to or less than the threshold value. Then, the control unit 5 determines that the separation distance in the character string direction D1 between the left end pixel G11 and the end pixel G21 in the character string direction D1 is equal to or less than the threshold value and the right end pixel G12 and the end pixel G1 in the character string direction D1. When the separation distance in the character string direction D1 of the pixel G22 is equal to or less than the threshold value, it is determined that the divided region R1 and the divided region R2 include the common constituent element.
次に、制御部5は、図4に示される分割領域R2及び分割領域R3に含まれる文字列方向D1の左側の端画素G21及び端画素G31の文字列方向D1における離間距離が前記閾値以下であって、且つ文字列方向D1の右側の端画素G22及び端画素G32の文字列方向D1における離間距離が前記閾値以下であるか否かを判断する。そして、制御部5は、文字列方向D1の左側の端画素G21及び端画素G31の文字列方向D1における離間距離が前記閾値以下であって、且つ文字列方向D1の右側の端画素G22及び端画素G32の文字列方向D1における離間距離が前記閾値以下である場合に、分割領域R2及び分割領域R3が共通の前記構成要素を含むと判断する。 Next, the control unit 5 determines that the separation distance in the character string direction D1 between the left end pixel G21 and the end pixel G31 in the character string direction D1 included in the divided region R2 and the divided region R3 illustrated in FIG. In addition, it is determined whether or not the distance between the right end pixel G22 and the end pixel G32 in the character string direction D1 in the character string direction D1 is equal to or less than the threshold value. Then, the control unit 5 determines that the separation distance in the character string direction D1 between the left end pixel G21 and the end pixel G31 in the character string direction D1 is equal to or less than the threshold value, and the right end pixel G22 and the end pixel in the character string direction D1. When the separation distance of the pixel G32 in the character string direction D1 is equal to or less than the threshold value, it is determined that the divided region R2 and the divided region R3 include the common component.
ここで、制御部5は、分割領域R1及び分割領域R2が共通の前記構成要素を含むと判断し、且つ分割領域R2及び分割領域R3が共通の前記構成要素を含むと判断した場合は、分割領域R1〜R3が共通の前記構成要素を含むと判断する。 Here, when the control unit 5 determines that the divided region R1 and the divided region R2 include the common constituent elements, and determines that the divided region R2 and the divided region R3 include the common constituent elements, It is determined that the regions R1 to R3 include the common components.
以上に説明した手順で、制御部5は、画像データA1に含まれる全ての前記分割領域について、隣接する前記分割領域と共通の前記構成要素を含むか否かを判断する。例えば、図4に示される例において、制御部5は、分割領域R1〜R4が共通の前記構成要素を含むと判断する。また、図4に示される例において、制御部5は、分割領域R4及び分割領域R5が共通の前記構成要素を含まないと判断する。また、図4に示される例において、制御部5は、分割領域R5〜R8が共通の前記構成要素を含むと判断する。 With the procedure described above, the control unit 5 determines whether or not all of the divided areas included in the image data A1 include the constituent elements common to the adjacent divided areas. For example, in the example illustrated in FIG. 4, the control unit 5 determines that the divided regions R1 to R4 include the common constituent elements. In the example shown in FIG. 4, the control unit 5 determines that the divided region R4 and the divided region R5 do not include the common component. In the example shown in FIG. 4, the control unit 5 determines that the divided regions R5 to R8 include the common constituent elements.
<ステップS15>
ステップS15において、制御部5は、ステップS14で特定された一又は複数の前記分割領域において前記文字列方向に最も離間した前記端画素各々から前記文字列方向の内側の領域を前記構成要素として検出する。ここに、ステップS12〜ステップS15の処理が、本発明における検出ステップの一例である。また、ステップS15の処理は、制御部5の第2検出部55により実行される。
<Step S15>
In step S15, the control unit 5 detects, as the constituent element, an inner region in the character string direction from each of the end pixels most spaced in the character string direction in one or a plurality of the divided regions specified in step S14. To do. Here, the process of step S12-step S15 is an example of the detection step in this invention. Further, the process of step S15 is executed by the
例えば、図4に示される例において、制御部5は、ステップS14で共通の前記構成要素を含むと判断された分割領域R1〜R4において、分割領域R1〜R4に含まれる端画素G11〜G41及び端画素G12〜G42のうち、文字列方向D1に最も離間した端画素G21及び端画素G42から文字列方向D1の内側の領域(図4における直線L11と直線L12とで囲まれた領域)を構成要素X1として検出する。 For example, in the example illustrated in FIG. 4, the control unit 5 includes the end pixels G11 to G41 included in the divided regions R1 to R4 and the divided pixels R1 to R4 that are determined to include the common components in step S14. Among the end pixels G12 to G42, the end pixel G21 and the end pixel G42 that are farthest in the character string direction D1 and the inner region in the character string direction D1 from the end pixel G42 (region surrounded by the straight line L11 and the straight line L12 in FIG. 4) are configured. Detect as element X1.
また、図4に示される例において、制御部5は、ステップS14で共通の前記構成要素を含むと判断された分割領域R5〜R8において、分割領域R5〜R8に含まれる端画素G51〜G81及び端画素G52〜G82のうち、文字列方向D1に最も離間した端画素G51及び端画素G62から文字列方向D1の内側の領域(図4における直線L21と直線L22とで囲まれた領域)を構成要素X2として検出する。 In the example illustrated in FIG. 4, the control unit 5 includes the end pixels G51 to G81 included in the divided regions R5 to R8 and the divided pixels R5 to R8 that are determined to include the common components in step S14. Among the end pixels G52 to G82, the end pixel G51 and the end pixel G62 farthest from each other in the character string direction D1 constitute a region inside the character string direction D1 (region surrounded by the straight line L21 and the straight line L22 in FIG. 4). Detect as element X2.
<ステップS16>
ステップS16において、制御部5は、ステップS15で検出された前記構成要素各々の文書の画像データにおける位置を、前記文字列方向における前記特定位置に変更する。ここに、ステップS16の処理が、本発明における変更ステップの一例であって、制御部5の変更処理部56により実行される。
<Step S16>
In step S16, the control unit 5 changes the position in the document image data of each of the component elements detected in step S15 to the specific position in the character string direction. Here, the process of step S <b> 16 is an example of a change step in the present invention, and is executed by the
例えば、制御部5は、ステップS15で検出された構成要素X1を、画像データA1における文字列方向D1の左側の端部から中央側へ前記設定距離だけ離間した特定位置P1(図4参照)に移動させる。具体的に、制御部5は、図5に示されるように、構成要素X1における文字列方向D1の左側の端部(端画素G21)が特定位置P1に配置されるように、構成要素X1を移動させる。 For example, the control unit 5 moves the component X1 detected in step S15 from the left end in the character string direction D1 in the image data A1 to the specific position P1 (see FIG. 4) that is separated from the center by the set distance. Move. Specifically, as illustrated in FIG. 5, the control unit 5 moves the constituent element X1 so that the left end (end pixel G21) in the character string direction D1 in the constituent element X1 is arranged at the specific position P1. Move.
また、制御部5は、ステップS15で検出された構成要素X2を、特定位置P1に移動させる。具体的に、制御部5は、図5に示されるように、構成要素X2における文字列方向D1の左側の端部(端画素G51)が特定位置P1に配置されるように、構成要素X2を移動させる。 Moreover, the control part 5 moves the component X2 detected by step S15 to the specific position P1. Specifically, as illustrated in FIG. 5, the control unit 5 moves the component X2 so that the left end (end pixel G51) in the character string direction D1 of the component X2 is arranged at the specific position P1. Move.
なお、前記特定位置が文書の画像データにおける前記文字列方向の中央の位置である場合、制御部5は、ステップS15で検出された構成要素X1を、画像データA1における文字列方向D1の中央の特定位置P2(図4参照)に移動させる。具体的に、制御部5は、図6に示されるように、構成要素X1における文字列方向D1の中央部C1が特定位置P2に配置されるように、構成要素X1を移動させる。 When the specific position is the center position in the character string direction in the image data of the document, the control unit 5 moves the component X1 detected in step S15 to the center in the character string direction D1 in the image data A1. Move to a specific position P2 (see FIG. 4). Specifically, as illustrated in FIG. 6, the control unit 5 moves the constituent element X1 so that the central portion C1 of the constituent element X1 in the character string direction D1 is disposed at the specific position P2.
また、制御部5は、ステップS15で検出された構成要素X2を、特定位置P2に移動させる。具体的に、制御部5は、図6に示されるように、構成要素X2における文字列方向D1の中央部C2が特定位置P2に配置されるように、構成要素X2を移動させる。 Moreover, the control part 5 moves the component X2 detected by step S15 to the specific position P2. Specifically, as illustrated in FIG. 6, the control unit 5 moves the constituent element X2 so that the central portion C2 of the constituent element X2 in the character string direction D1 is disposed at the specific position P2.
<ステップS17>
ステップS17において、制御部5は、ステップS16による変更処理後の文書の画像データを出力する。ここにステップS17の処理が、本発明における出力ステップの一例であって、制御部5の出力処理部57により実行される。
<Step S17>
In step S17, the control unit 5 outputs the image data of the document after the change process in step S16. The process of step S17 is an example of the output step in the present invention, and is executed by the
例えば、制御部5は、画像形成部3を用いてステップS16による変更処理後の文書の画像データを印刷する。
For example, the control unit 5 uses the
また、制御部5は、ステップS16による変更処理後の文書の画像データを記憶部7に格納してもよい。また、制御部5は、ステップS16による変更処理後の文書の画像データを外部の情報処理装置に送信してもよい。 Further, the control unit 5 may store the image data of the document after the change processing in step S16 in the storage unit 7. Further, the control unit 5 may transmit the image data of the document after the change process in step S16 to an external information processing apparatus.
このように、画像処理装置10では、文書の画像データから前記構成要素が検出されて、検出された前記構成要素各々の位置が前記文字列方向における前記特定位置に変更される。従って、文書の前記構成要素各々の前記文字列方向における位置を揃えることが可能である。
As described above, in the
また、画像処理装置10では、エッジ検出部52により検出される前記エッジ画素のうち、前記分割領域ごとに検出される一対の前記端画素各々のみに基づいて前記構成要素が検出される。従って、文書の画像データから前記文字領域及び前記非文字領域が検出される構成と比較して、前記構成要素の検出処理を簡素化することが可能である。
Further, in the
1 ADF
2 画像読取部
3 画像形成部
4 給紙部
5 制御部
6 操作表示部
7 記憶部
10 画像処理装置
51 取得処理部
52 エッジ検出部
53 第1検出部
54 特定処理部
55 第2検出部
56 変更処理部
57 出力処理部
1 ADF
2
Claims (5)
前記文書の画像データに基づいて前記文書の構成要素を検出する検出処理部と、
前記文書の画像データにおける前記構成要素各々の位置を前記文書の文字列方向における予め定められた特定位置に変更する変更処理部と、
前記変更処理部による変更処理後の前記文書の画像データを出力する出力処理部と、
を備え、
前記検出処理部は、
前記文書の画像データに含まれるエッジ画素を検出するエッジ検出部と、
前記エッジ検出部によって検出された前記エッジ画素に基づいて前記構成要素を検出する構成検出部と、
を含み、
前記構成検出部は、
前記文書の画像データが前記文字列方向と直交する行方向に等間隔で分割された分割領域ごとに、前記分割領域に含まれる前記エッジ画素のうち前記文字列方向において最も離間した一対の端画素を検出する第1検出部と、
隣接する前記分割領域各々に含まれる前記文字列方向の一方側の前記端画素各々の前記文字列方向における離間距離及び前記文字列方向の他方側の前記端画素各々の前記文字列方向における離間距離に基づいて、共通の前記構成要素を含む一又は複数の前記分割領域を特定する特定処理部と、
前記特定処理部により特定された一又は複数の前記分割領域において前記文字列方向に最も離間した前記端画素各々から前記文字列方向の内側の領域を前記構成要素として検出する第2検出部と、
を含む画像処理装置。 An acquisition processing unit for acquiring image data of a document;
A detection processing unit for detecting a component of the document based on image data of the document;
A change processing unit that changes the position of each of the components in the image data of the document to a predetermined specific position in the character string direction of the document;
An output processing unit for outputting image data of the document after the change processing by the change processing unit;
Equipped with a,
The detection processing unit
An edge detection unit for detecting edge pixels included in the image data of the document;
A configuration detection unit that detects the component based on the edge pixels detected by the edge detection unit;
Including
The configuration detection unit
For each divided region in which the image data of the document is divided at equal intervals in the row direction orthogonal to the character string direction, a pair of end pixels that are the farthest apart in the character string direction among the edge pixels included in the divided region A first detector for detecting
The separation distance in the character string direction of each of the end pixels on one side in the character string direction and the separation distance in the character string direction of each of the end pixels on the other side in the character string direction included in each of the adjacent divided regions A specific processing unit that identifies one or a plurality of the divided regions including the common component,
A second detection unit that detects an inner region in the character string direction as the component from each of the end pixels farthest in the character string direction in the one or a plurality of divided regions specified by the specification processing unit;
An image processing apparatus.
前記変更処理部は、前記文書の画像データにおける前記構成要素各々の前記文字列方向の一方の端部の位置を前記特定位置に変更する請求項1に記載の画像処理装置。 The specific position is a position that is spaced from the one end in the character string direction by a predetermined set distance to the center side,
The image processing apparatus according to claim 1 , wherein the change processing unit changes the position of one end of the component in the character string direction in the image data of the document to the specific position.
前記取得処理部は、前記画像読取部を用いて前記文書の画像データを取得する請求項1又は2に記載の画像処理装置。 An image reading unit for reading image data from the document;
The acquisition processing unit, an image processing apparatus according to claim 1 or 2 acquires image data of the document using the image reading unit.
前記出力処理部は、前記画像形成部を用いて前記変更処理部による変更処理後の前記文書の画像データを印刷する請求項1〜3のいずれかに記載の画像処理装置。 An image forming unit that forms an image based on the image data;
The output processing unit, an image processing apparatus according to claim 1 for printing the image data of the document after change processing performed by the change processing unit by using the image forming unit.
前記文書の画像データに基づいて前記文書の構成要素を検出する検出ステップと、
前記文書の画像データにおける前記構成要素各々の位置を前記文書の文字列方向における予め定められた特定位置に変更する変更ステップと、
前記変更ステップによる変更処理後の前記文書の画像データを出力する出力ステップと、
を含み、
前記検出ステップは、
前記文書の画像データに含まれるエッジ画素を検出するエッジ検出ステップと、
前記エッジ検出ステップによって検出された前記エッジ画素に基づいて前記構成要素を検出する構成検出ステップと、
を含み、
前記構成検出ステップは、
前記文書の画像データが前記文字列方向と直交する行方向に等間隔で分割された分割領域ごとに、前記分割領域に含まれる前記エッジ画素のうち前記文字列方向において最も離間した一対の端画素を検出する第1検出ステップと、
隣接する前記分割領域各々に含まれる前記文字列方向の一方側の前記端画素各々の前記文字列方向における離間距離及び前記文字列方向の他方側の前記端画素各々の前記文字列方向における離間距離に基づいて、共通の前記構成要素を含む一又は複数の前記分割領域を特定する特定ステップと、
前記特定ステップにより特定された一又は複数の前記分割領域において前記文字列方向に最も離間した前記端画素各々から前記文字列方向の内側の領域を前記構成要素として検出する第2検出ステップと、
を含む画像処理方法。 An acquisition step of acquiring image data of the document;
Detecting a component of the document based on image data of the document;
Changing the position of each of the components in the image data of the document to a predetermined specific position in the character string direction of the document;
An output step of outputting image data of the document after the change processing by the change step;
Only including,
The detecting step includes
An edge detection step of detecting edge pixels included in the image data of the document;
A configuration detection step of detecting the component based on the edge pixels detected by the edge detection step;
Including
The configuration detecting step includes
For each divided region in which the image data of the document is divided at equal intervals in the row direction orthogonal to the character string direction, a pair of end pixels that are the farthest apart in the character string direction among the edge pixels included in the divided region A first detection step of detecting
The separation distance in the character string direction of each of the end pixels on one side in the character string direction and the separation distance in the character string direction of each of the end pixels on the other side in the character string direction included in each of the adjacent divided regions A specific step of identifying one or a plurality of the divided regions including the common component based on
A second detection step of detecting, as the component, an inner region in the character string direction from each of the end pixels most spaced in the character string direction in the one or a plurality of the divided regions identified in the identifying step;
Including image processing methods.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016097932A JP6451693B2 (en) | 2016-05-16 | 2016-05-16 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016097932A JP6451693B2 (en) | 2016-05-16 | 2016-05-16 | Image processing apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017208605A JP2017208605A (en) | 2017-11-24 |
JP6451693B2 true JP6451693B2 (en) | 2019-01-16 |
Family
ID=60415667
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016097932A Expired - Fee Related JP6451693B2 (en) | 2016-05-16 | 2016-05-16 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6451693B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6097773A (en) * | 1983-11-02 | 1985-05-31 | Canon Inc | Image forming device |
JP3096123B2 (en) * | 1992-01-31 | 2000-10-10 | キヤノン株式会社 | Document processing apparatus and method |
JP5114114B2 (en) * | 2007-07-03 | 2013-01-09 | 京セラドキュメントソリューションズ株式会社 | Image forming apparatus |
-
2016
- 2016-05-16 JP JP2016097932A patent/JP6451693B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2017208605A (en) | 2017-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6269455B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6451693B2 (en) | Image processing apparatus and image processing method | |
US10356261B2 (en) | Image-forming apparatus with document reading unit that automatically feeds and reads documents | |
US10091373B2 (en) | Image processing device having removal failure prevention feature | |
JP2016092479A (en) | Image reader and image forming apparatus | |
US20170289397A1 (en) | Image processing apparatus | |
US20160337538A1 (en) | Display device for displaying character information, information processing apparatus including display device, and character information display method | |
JP6638690B2 (en) | Image forming apparatus and display control method | |
JP3987850B2 (en) | Image processing apparatus and image forming apparatus | |
JP6141237B2 (en) | Image processing apparatus and image processing method | |
JP2016119546A (en) | Image processor, and image processing method | |
JP5822865B2 (en) | Image processing apparatus, ruled line determination method, and ruled line determination program | |
JP6547658B2 (en) | Image processing apparatus, image processing method | |
JP6524941B2 (en) | Image processing apparatus, image processing method | |
JP6572852B2 (en) | Image forming apparatus and image forming method | |
JP6794716B2 (en) | Display control device and display control program | |
JP6095558B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6311599B2 (en) | Image reading apparatus and image forming apparatus | |
JP5670302B2 (en) | Image forming apparatus | |
JP6138064B2 (en) | Sheet conveying apparatus, image reading apparatus, image forming apparatus, and sheet conveying method | |
JP2020068474A (en) | Image processing apparatus and image correction method | |
JP2012222822A (en) | Image processing device and image processing program | |
JP2020120359A (en) | Image forming apparatus and image forming method | |
JP2019114933A (en) | Image processing apparatus | |
JP2017108298A (en) | Image reading device and image forming apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181030 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181113 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181126 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6451693 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |