JP6451693B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP6451693B2
JP6451693B2 JP2016097932A JP2016097932A JP6451693B2 JP 6451693 B2 JP6451693 B2 JP 6451693B2 JP 2016097932 A JP2016097932 A JP 2016097932A JP 2016097932 A JP2016097932 A JP 2016097932A JP 6451693 B2 JP6451693 B2 JP 6451693B2
Authority
JP
Japan
Prior art keywords
document
character string
image data
string direction
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016097932A
Other languages
Japanese (ja)
Other versions
JP2017208605A (en
Inventor
俊樹 間村
俊樹 間村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2016097932A priority Critical patent/JP6451693B2/en
Publication of JP2017208605A publication Critical patent/JP2017208605A/en
Application granted granted Critical
Publication of JP6451693B2 publication Critical patent/JP6451693B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Record Information Processing For Printing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は、画像処理装置、及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

複写機などの画像処理装置では、原稿から読み取られた画像データに基づいて印刷処理などの出力処理が実行される。ここで、画像データから画像領域を抽出して、抽出された画像領域に応じたサイズのシートに抽出された画像領域を印刷可能な画像処理装置が知られている(特許文献1参照)。   In an image processing apparatus such as a copying machine, output processing such as printing processing is executed based on image data read from a document. Here, there is known an image processing apparatus capable of extracting an image area from image data and printing the extracted image area on a sheet having a size corresponding to the extracted image area (see Patent Document 1).

特開2009−14891号公報JP 2009-14891 A

ところで、画像処理装置で文書の画像データが読み取られる場合に、その文書において文字列及び図形などの文書の構成要素が文書の文字列方向で不揃いとなっていることがある。この場合、画像処理装置のユーザーは、文書の視認性を向上させるために、文書の構成要素各々の文字列方向における位置を揃えたいと考えることがある。また、画像処理装置のユーザーは、文書の右端にメモを書き込むためのスペースを設けるために、文書の構成要素各々の位置を文書の左端に揃えたいと考えることがある。しかしながら、従来の画像処理装置では、文書の構成要素各々の文字列方向における位置を揃えることはできない。   By the way, when image data of a document is read by the image processing apparatus, the document components such as character strings and graphics may be uneven in the document character string direction. In this case, the user of the image processing apparatus may want to align the positions of the constituent elements of the document in the character string direction in order to improve the visibility of the document. The user of the image processing apparatus may want to align the position of each component of the document with the left end of the document in order to provide a space for writing a memo at the right end of the document. However, the conventional image processing apparatus cannot align the positions in the character string direction of each component of the document.

本発明の目的は、文書の構成要素各々の文字列方向における位置を揃えることが可能な画像処理装置及び画像処理方法を提供することにある。   An object of the present invention is to provide an image processing apparatus and an image processing method capable of aligning positions in a character string direction of each component of a document.

本発明の一の局面に係る画像処理装置は、取得処理部と、検出処理部と、変更処理部と、出力処理部とを備える。前記取得処理部は、文書の画像データを取得する。前記検出処理部は、前記文書の画像データに基づいて前記文書の構成要素を検出する。前記変更処理部は、前記文書の画像データにおける前記構成要素各々の位置を前記文書の文字列方向における予め定められた特定位置に変更する。前記出力処理部は、前記変更処理部による変更処理後の前記文書の画像データを出力する。   An image processing apparatus according to an aspect of the present invention includes an acquisition processing unit, a detection processing unit, a change processing unit, and an output processing unit. The acquisition processing unit acquires image data of a document. The detection processing unit detects a component of the document based on the image data of the document. The change processing unit changes the position of each component in the image data of the document to a predetermined specific position in the character string direction of the document. The output processing unit outputs the image data of the document after the change processing by the change processing unit.

本発明の他の局面に係る画像処理方法は、以下の取得ステップ、検出ステップ、変更ステップ、及び出力ステップを含む。前記取得ステップでは、文書の画像データが取得される。前記検出ステップでは、前記文書の画像データに基づいて前記文書の構成要素が検出される。前記変更ステップでは、前記文書の画像データにおける前記構成要素各々の位置が前記文書の文字列方向における予め定められた特定位置に変更される。前記出力ステップでは、前記変更ステップによる変更処理後の前記文書の画像データが出力される。   An image processing method according to another aspect of the present invention includes the following acquisition step, detection step, change step, and output step. In the obtaining step, image data of the document is obtained. In the detection step, components of the document are detected based on the image data of the document. In the changing step, the position of each component in the image data of the document is changed to a predetermined specific position in the character string direction of the document. In the output step, the image data of the document after the change process in the change step is output.

本発明によれば、文書の構成要素各々の文字列方向における位置を揃えることが可能である。   According to the present invention, it is possible to align the positions of the constituent elements of a document in the character string direction.

図1は、本発明の実施形態に係る画像処理装置の構成を示す図である。FIG. 1 is a diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention. 図2は、本発明の実施形態に係る画像処理装置のシステム構成を示すブロック図である。FIG. 2 is a block diagram showing a system configuration of the image processing apparatus according to the embodiment of the present invention. 図3は、本発明の実施形態に係る画像処理装置で実行される位置変更処理の一例を示すフローチャートである。FIG. 3 is a flowchart illustrating an example of the position change process executed by the image processing apparatus according to the embodiment of the present invention. 図4は、本発明の実施形態に係る画像処理装置で実行される位置変更処理における文書の構成要素の検出方法を説明するための図である。FIG. 4 is a diagram for explaining a method for detecting a component of a document in the position change process executed by the image processing apparatus according to the embodiment of the present invention. 図5は、本発明の実施形態に係る画像処理装置で実行される位置変更処理によって位置が変更された文書の構成要素の一例を示す図である。FIG. 5 is a diagram illustrating an example of components of a document whose position has been changed by the position change process executed by the image processing apparatus according to the embodiment of the present invention. 図6は、本発明の実施形態に係る画像処理装置で実行される位置変更処理によって位置が変更された文書の構成要素の他の一例を示す図である。FIG. 6 is a diagram illustrating another example of the components of the document whose position has been changed by the position change process executed by the image processing apparatus according to the embodiment of the present invention.

以下、添付図面を参照しながら、本発明の実施形態について説明する。なお、以下の実施形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定するものではない。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. The following embodiment is an example embodying the present invention, and does not limit the technical scope of the present invention.

[画像処理装置10の概略構成]
まず、図1及び図2を参照しつつ、本発明の実施形態に係る画像処理装置10の概略構成について説明する。ここで、図1は画像処理装置10の構成を示す断面模式図である。
[Schematic Configuration of Image Processing Apparatus 10]
First, a schematic configuration of an image processing apparatus 10 according to an embodiment of the present invention will be described with reference to FIGS. 1 and 2. Here, FIG. 1 is a schematic cross-sectional view showing the configuration of the image processing apparatus 10.

画像処理装置10は、原稿から画像データを読み取るスキャン機能、及び画像データに基づいて画像を形成するプリント機能と共に、ファクシミリ機能、及びコピー機能などの複数の機能を有する複合機である。また、本発明は、スキャナー装置、プリンター装置、ファクシミリ装置、及びコピー機などの画像処理装置に適用可能である。   The image processing apparatus 10 is a multifunction machine having a plurality of functions such as a facsimile function and a copy function, as well as a scan function for reading image data from a document and a print function for forming an image based on the image data. The present invention is also applicable to image processing apparatuses such as scanner apparatuses, printer apparatuses, facsimile apparatuses, and copiers.

図1及び図2に示すように、画像処理装置10は、ADF(自動原稿搬送装置)1、画像読取部2、画像形成部3、給紙部4、制御部5、操作表示部6、及び記憶部7を備える。   As shown in FIGS. 1 and 2, the image processing apparatus 10 includes an ADF (automatic document feeder) 1, an image reading unit 2, an image forming unit 3, a paper feeding unit 4, a control unit 5, an operation display unit 6, and A storage unit 7 is provided.

ADF1は、原稿セット部、複数の搬送ローラー、原稿押さえ、及び排紙部を備え、画像読取部2によって読み取られる原稿を搬送する。画像読取部2は、原稿台、光源、複数のミラー、光学レンズ、及びCCDを備え、原稿から画像データを読み取ることが可能である。   The ADF 1 includes a document setting unit, a plurality of conveyance rollers, a document pressing unit, and a paper discharge unit, and conveys a document read by the image reading unit 2. The image reading unit 2 includes a document table, a light source, a plurality of mirrors, an optical lens, and a CCD, and can read image data from the document.

画像形成部3は、画像読取部2で読み取られた画像データ又は外部のパーソナルコンピューター等の情報処理装置から入力された画像データに基づいて、電子写真方式で画像を形成可能である。具体的に、画像形成部3は、感光体ドラム、帯電装置、光走査装置、現像装置、転写ローラー、クリーニング装置、定着ローラー、加圧ローラー、及び排紙トレイを備える。そして、画像形成部3では、給紙部4から供給されるシートに画像が形成されて、画像形成後のシートが前記排紙トレイに排出される。   The image forming unit 3 can form an image by electrophotography based on the image data read by the image reading unit 2 or image data input from an information processing apparatus such as an external personal computer. Specifically, the image forming unit 3 includes a photosensitive drum, a charging device, an optical scanning device, a developing device, a transfer roller, a cleaning device, a fixing roller, a pressure roller, and a paper discharge tray. In the image forming unit 3, an image is formed on the sheet supplied from the paper feeding unit 4, and the sheet after the image formation is discharged to the paper discharge tray.

制御部5は、不図示のCPU、ROM、RAM、及びEEPROM(登録商標)などの制御機器を備える。前記CPUは、各種の演算処理を実行するプロセッサーである。前記ROMは、前記CPUに各種の処理を実行させるための制御プログラムなどの情報が予め記憶される不揮発性の記憶媒体である。前記RAMは揮発性の記憶媒体であり、前記EEPROMは不揮発性の記憶媒体である。前記RAM及び前記EEPROMは、前記CPUが実行する各種の処理の一時記憶メモリー(作業領域)として使用される。制御部5では、前記CPUにより前記ROMに予め記憶された各種の制御プログラムが実行される。これにより、画像処理装置10が制御部5により統括的に制御される。なお、制御部5は、集積回路(ASIC)などの電子回路で構成されたものであってもよく、画像処理装置10を統括的に制御するメイン制御部とは別に設けられた制御部であってもよい。   The control unit 5 includes control devices such as a CPU, ROM, RAM, and EEPROM (registered trademark) (not shown). The CPU is a processor that executes various arithmetic processes. The ROM is a non-volatile storage medium in which information such as a control program for causing the CPU to execute various processes is stored in advance. The RAM is a volatile storage medium, and the EEPROM is a nonvolatile storage medium. The RAM and the EEPROM are used as a temporary storage memory (working area) for various processes executed by the CPU. In the control unit 5, various control programs stored in advance in the ROM are executed by the CPU. As a result, the image processing apparatus 10 is comprehensively controlled by the control unit 5. The control unit 5 may be an electronic circuit such as an integrated circuit (ASIC), and is a control unit provided separately from the main control unit that comprehensively controls the image processing apparatus 10. May be.

操作表示部6は、制御部5からの制御指示に応じて各種の情報を表示する液晶ディスプレーなどの表示部、及びユーザーの操作に応じて制御部5に各種の情報を入力する操作キー又はタッチパネルなどの操作部を有する。   The operation display unit 6 is a display unit such as a liquid crystal display that displays various types of information in response to control instructions from the control unit 5, and an operation key or touch panel that inputs various types of information to the control unit 5 in response to user operations. And so on.

記憶部7は、不揮発性の記憶媒体である。例えば、記憶部7は、フラッシュメモリー、SSD(ソリッドステートドライブ)、又はHDD(ハードディスクドライブ)などの記憶媒体である。   The storage unit 7 is a nonvolatile storage medium. For example, the storage unit 7 is a storage medium such as a flash memory, an SSD (solid state drive), or an HDD (hard disk drive).

ところで、画像処理装置10で文書の画像データが読み取られる場合に、その文書において文字列及び図形などの文書の構成要素が文書の文字列方向で不揃いとなっていることがある。この場合、画像処理装置10のユーザーは、文書の視認性を向上させるために、文書の構成要素各々の文字列方向における位置を揃えたいと考えることがある。また、画像処理装置10のユーザーは、文書の右端にメモを書き込むためのスペースを設けるために、文書の構成要素各々の位置を文書の左端に揃えたいと考えることがある。しかしながら、従来の画像処理装置では、文書の構成要素各々の文字列方向における位置を揃えることはできない。   By the way, when image data of a document is read by the image processing apparatus 10, document components such as character strings and graphics may be misaligned in the document character string direction. In this case, the user of the image processing apparatus 10 may want to align the positions of the constituent elements of the document in the character string direction in order to improve the visibility of the document. Further, the user of the image processing apparatus 10 may want to align the position of each component of the document with the left end of the document in order to provide a space for writing a memo at the right end of the document. However, the conventional image processing apparatus cannot align the positions in the character string direction of each component of the document.

これに対し、本発明の実施形態に係る画像処理装置10では、以下に説明するように、文書の構成要素各々の文字列方向における位置を揃えることが可能である。   On the other hand, in the image processing apparatus 10 according to the embodiment of the present invention, as described below, it is possible to align the positions in the character string direction of the constituent elements of the document.

具体的に、制御部5の前記ROMには、前記CPUに後述の位置変更処理(図3のフローチャート参照)を実行させるための位置変更プログラムが予め記憶されている。なお、前記位置変更プログラムは、CD、DVD、フラッシュメモリーなどのコンピューター読み取り可能な記録媒体に記録されており、前記記録媒体から読み取られて記憶部7にインストールされるものであってもよい。   Specifically, the ROM of the control unit 5 stores in advance a position change program for causing the CPU to execute a position change process described later (see the flowchart in FIG. 3). The position change program may be recorded on a computer-readable recording medium such as a CD, a DVD, or a flash memory, and read from the recording medium and installed in the storage unit 7.

そして、制御部5は、図2に示すように、取得処理部51、エッジ検出部52、第1検出部53、特定処理部54、第2検出部55、変更処理部56、及び出力処理部57を含む。具体的に、制御部5は、前記CPUを用いて前記ROMに記憶されている前記位置変更プログラムを実行する。これにより、制御部5は、取得処理部51、エッジ検出部52、第1検出部53、特定処理部54、第2検出部55、変更処理部56、及び出力処理部57として機能する。   As shown in FIG. 2, the control unit 5 includes an acquisition processing unit 51, an edge detection unit 52, a first detection unit 53, a specific processing unit 54, a second detection unit 55, a change processing unit 56, and an output processing unit. 57. Specifically, the control unit 5 executes the position change program stored in the ROM using the CPU. Thereby, the control unit 5 functions as an acquisition processing unit 51, an edge detection unit 52, a first detection unit 53, a specific processing unit 54, a second detection unit 55, a change processing unit 56, and an output processing unit 57.

取得処理部51は、文書の画像データを取得する。   The acquisition processing unit 51 acquires image data of a document.

例えば、取得処理部51は、画像読取部2を用いて文書の画像データを取得する。具体的に、取得処理部51は、ADF1の前記原稿セット部に原稿が載置されている場合には、ADF1及び画像読取部2を用いて、前記原稿セット部に載置された原稿から文書の画像データを読み取る。また、取得処理部51は、画像読取部2の前記原稿台に原稿が載置されている場合には、画像読取部2を用いて、前記原稿台に載置された原稿から文書の画像データを読み取る。   For example, the acquisition processing unit 51 acquires image data of a document using the image reading unit 2. Specifically, when a document is placed on the document set unit of the ADF 1, the acquisition processing unit 51 uses the ADF 1 and the image reading unit 2 to convert the document from the document placed on the document set unit. Read image data. In addition, when a document is placed on the document table of the image reading unit 2, the acquisition processing unit 51 uses the image reading unit 2 to convert the image data of the document from the document placed on the document table. Read.

また、取得処理部51は、外部の情報処理装置から送信される文書の画像データを受信することで、文書の画像データを取得してもよい。また、取得処理部51は、画像読取部2によって読み取られて、又は外部の情報処理装置から送信されて記憶部7に格納された文書の画像データを読み出すことで、文書の画像データを取得してもよい。   Further, the acquisition processing unit 51 may acquire the image data of the document by receiving the image data of the document transmitted from the external information processing apparatus. Further, the acquisition processing unit 51 acquires the image data of the document by reading out the image data of the document read by the image reading unit 2 or transmitted from the external information processing apparatus and stored in the storage unit 7. May be.

エッジ検出部52、第1検出部53、特定処理部54、及び第2検出部55は、文書の画像データに基づいて文書の構成要素を検出する。ここに、エッジ検出部52、第1検出部53、特定処理部54、及び第2検出部55が、本発明における検出処理部の一例である。   The edge detection unit 52, the first detection unit 53, the specific processing unit 54, and the second detection unit 55 detect the constituent elements of the document based on the image data of the document. Here, the edge detection part 52, the 1st detection part 53, the specific process part 54, and the 2nd detection part 55 are examples of the detection process part in this invention.

具体的に、前記構成要素には、文字列、図形、及び写真が含まれる。なお、前記構成要素は、文字列、図形、及び写真のいずれか一つ又は二つであってもよい。   Specifically, the constituent elements include character strings, figures, and photographs. In addition, the said component may be any one or two of a character string, a figure, and a photograph.

エッジ検出部52は、文書の画像データに含まれるエッジ画素を検出する。例えば、エッジ検出部52は、文書の画像データに含まれる画素各々に対して微分フィルター処理を実行することで、文書の画像データに含まれる前記エッジ画素を検出する。   The edge detection unit 52 detects edge pixels included in the image data of the document. For example, the edge detection unit 52 detects the edge pixel included in the image data of the document by performing a differential filter process on each pixel included in the image data of the document.

第1検出部53、特定処理部54、及び第2検出部55は、エッジ検出部52によって検出された前記エッジ画素に基づいて、前記構成要素を検出する。ここに、第1検出部53、特定処理部54、及び第2検出部55が、本発明における構成検出部の一例である。   The first detection unit 53, the specific processing unit 54, and the second detection unit 55 detect the constituent element based on the edge pixel detected by the edge detection unit 52. Here, the first detection unit 53, the specific processing unit 54, and the second detection unit 55 are examples of the configuration detection unit in the present invention.

第1検出部53は、文書の画像データが文書の文字列方向と直交する行方向に等間隔で分割された分割領域ごとに、前記分割領域に含まれる前記エッジ画素のうち前記文字列方向において最も離間した一対の端画素を検出する。   For each divided region in which the document image data is divided at equal intervals in a row direction orthogonal to the document character string direction, the first detection unit 53 in the character string direction among the edge pixels included in the divided region. A pair of end pixels that are farthest apart are detected.

例えば、画像処理装置10では、取得処理部51によって取得される文書の画像データの書式が、予め横書きに設定されている。なお、取得処理部51によって取得される文書の画像データの書式は、操作表示部6に対するユーザー操作に応じて縦書きに変更可能であってよい。ここで、前記文字列方向は、取得処理部51によって取得される文書の画像データの書式が横書きに設定されている場合は文書の横方向である。また、前記文字列方向は、取得処理部51によって取得される文書の画像データの書式が縦書きに設定されている場合は文書の縦方向である。   For example, in the image processing apparatus 10, the format of the image data of the document acquired by the acquisition processing unit 51 is set to horizontal writing in advance. Note that the format of the image data of the document acquired by the acquisition processing unit 51 may be changed to vertical writing in accordance with a user operation on the operation display unit 6. The character string direction is the horizontal direction of the document when the format of the image data of the document acquired by the acquisition processing unit 51 is set to horizontal writing. The character string direction is the vertical direction of the document when the format of the image data of the document acquired by the acquisition processing unit 51 is set to vertical writing.

例えば、画像処理装置10では、前記分割領域の前記行方向における幅が予め定められた初期値に設定されている。なお、前記分割領域の前記行方向における幅は、取得処理部51によって取得される文書の画像データのサイズに応じて変更されてもよい。また、前記分割領域の前記行方向における幅は、操作表示部6に対するユーザー操作に応じて任意の値に設定されてもよい。   For example, in the image processing apparatus 10, the width of the divided region in the row direction is set to a predetermined initial value. Note that the width of the divided regions in the row direction may be changed according to the size of the image data of the document acquired by the acquisition processing unit 51. Further, the width of the divided region in the row direction may be set to an arbitrary value according to a user operation on the operation display unit 6.

特定処理部54は、隣接する前記分割領域各々に含まれる前記文字列方向の一方側の前記端画素各々の前記文字列方向における離間距離、及び前記文字列方向の他方側の前記端画素各々の前記文字列方向における離間距離に基づいて、共通の前記構成要素を含む一又は複数の前記分割領域を特定する。   The specific processing unit 54 includes a separation distance in the character string direction of each of the end pixels on one side in the character string direction included in each of the adjacent divided regions, and each of the end pixels on the other side in the character string direction. Based on the separation distance in the character string direction, one or a plurality of the divided regions including the common component are specified.

具体的に、特定処理部54は、隣接する二つの前記分割領域各々に含まれる前記文字列方向の一方側の前記端画素各々の前記文字列方向における離間距離が予め定められた閾値以下であって、且つ前記文字列方向の他方側の前記端画素各々の前記文字列方向における離間距離が前記閾値以下である場合に、隣接する二つの前記分割領域が共通の前記構成要素を含むと判断する。   Specifically, the specific processing unit 54 determines that the separation distance in the character string direction of each of the end pixels on one side in the character string direction included in each of the two adjacent divided regions is equal to or less than a predetermined threshold value. And the separation distance in the character string direction of each of the end pixels on the other side in the character string direction is equal to or less than the threshold value, it is determined that two adjacent divided regions include the common component. .

例えば、画像処理装置10では、前記閾値が予め定められた初期値に設定されている。例えば、前記閾値の初期値は10画素である。なお、前記閾値は、取得処理部51によって取得される文書の画像データのサイズに応じて変更されてもよい。また、前記閾値は、操作表示部6に対するユーザー操作に応じて任意の値に設定されてもよい。   For example, in the image processing apparatus 10, the threshold value is set to a predetermined initial value. For example, the initial value of the threshold is 10 pixels. The threshold value may be changed according to the size of the image data of the document acquired by the acquisition processing unit 51. The threshold value may be set to an arbitrary value according to a user operation on the operation display unit 6.

第2検出部55は、特定処理部54により特定された一又は複数の前記分割領域において前記文字列方向に最も離間した前記端画素各々から前記文字列方向の内側の領域を前記構成要素として検出する。   The second detection unit 55 detects, as the constituent element, an inner region in the character string direction from each of the end pixels that are most separated in the character string direction in the one or more divided regions specified by the specification processing unit 54. To do.

なお、制御部5は、文書の画像データから文字領域及び非文字領域を検出して、検出された前記文字領域及び前記非文字領域を前記構成要素としてもよい。例えば、制御部5は、エッジ検出部52により検出された前記エッジ画素に基づいて、文書の画像データから前記文字領域及び前記非文字領域を検出して、検出された前記文字領域及び前記非文字領域を前記構成要素としてもよい。   The control unit 5 may detect a character area and a non-character area from the image data of the document, and may use the detected character area and the non-character area as the constituent elements. For example, the control unit 5 detects the character region and the non-character region from the image data of the document based on the edge pixel detected by the edge detection unit 52, and detects the detected character region and the non-character. A region may be the component.

変更処理部56は、文書の画像データにおける前記構成要素各々の位置を、前記文字列方向における予め定められた特定位置に変更する。   The change processing unit 56 changes the position of each component in the image data of the document to a predetermined specific position in the character string direction.

例えば、前記特定位置は、文書の画像データにおける前記文字列方向(文書の横方向)の左側の端部から中央側へ予め定められた設定距離だけ離間した位置である。ここで、前記設定距離は、文書の画像データにおける左側の余白領域の幅に対応する。なお、前記特定位置は、文書の画像データにおける前記文字列方向(文書の横方向)の右側の端部から中央側へ前記設定距離だけ離間した位置であってもよい。また、前記設定距離は、操作表示部6に対するユーザー操作に応じて任意の値に設定されてもよい。また、前記設定距離は、取得処理部51によって取得される文書の画像データのサイズに応じて変更されてもよい。   For example, the specific position is a position separated from the left end in the character string direction (the horizontal direction of the document) in the document image data by a predetermined set distance from the left side to the center side. Here, the set distance corresponds to the width of the left margin area in the image data of the document. The specific position may be a position separated from the right end in the character string direction (lateral direction of the document) in the document image data by the set distance from the right end. The set distance may be set to an arbitrary value in accordance with a user operation on the operation display unit 6. The set distance may be changed according to the size of the image data of the document acquired by the acquisition processing unit 51.

例えば、変更処理部56は、文書の画像データにおける前記構成要素各々の前記文字列方向の一方の端部の位置を前記特定位置に変更する。   For example, the change processing unit 56 changes the position of one end in the character string direction of each of the constituent elements in the image data of the document to the specific position.

なお、前記特定位置は、文書の画像データにおける前記文字列方向の中央の位置であってもよい。この場合、変更処理部56は、文書の画像データにおける前記構成要素各々の前記文字列方向の中央部の位置を前記特定位置に変更する。   The specific position may be a central position in the character string direction in the image data of the document. In this case, the change processing unit 56 changes the position of the central portion in the character string direction of each of the constituent elements in the image data of the document to the specific position.

出力処理部57は、変更処理部56による変更処理後の文書の画像データを出力する。   The output processing unit 57 outputs the image data of the document after the change processing by the change processing unit 56.

例えば、出力処理部57は、画像形成部3を用いて変更処理部56による変更処理後の文書の画像データを印刷する。   For example, the output processing unit 57 uses the image forming unit 3 to print the image data of the document after the change processing by the change processing unit 56.

また、出力処理部57は、変更処理部56による変更処理後の文書の画像データを記憶部7に格納してもよい。また、出力処理部57は、変更処理部56による変更処理後の文書の画像データを外部の情報処理装置に送信してもよい。   The output processing unit 57 may store the image data of the document after the change processing by the change processing unit 56 in the storage unit 7. Further, the output processing unit 57 may transmit the image data of the document after the change processing by the change processing unit 56 to an external information processing apparatus.

[位置変更処理]
以下、図3を参照しつつ、画像処理装置10において制御部5により実行される位置変更処理の手順の一例と共に、本発明における画像処理方法の手順について説明する。ここで、ステップS11、S12・・・は、制御部5により実行される処理手順(ステップ)の番号を表している。なお、制御部5は、操作表示部6に対して前記位置変更処理の実行を指示する旨のユーザー操作があった場合に、前記位置変更処理を実行する。また、以下においては、取得処理部51によって取得される文書の画像データの書式が、予め横書きに設定されていると仮定して説明を行う。即ち、前記文字列方向が文書の横方向であると仮定して説明を行う。
[Position change processing]
Hereinafter, the procedure of the image processing method according to the present invention will be described together with an example of the procedure of the position change process executed by the control unit 5 in the image processing apparatus 10 with reference to FIG. Here, steps S11, S12,... Represent the numbers of processing procedures (steps) executed by the control unit 5. The control unit 5 executes the position change process when there is a user operation for instructing the operation display unit 6 to execute the position change process. In the following description, it is assumed that the format of the image data of the document acquired by the acquisition processing unit 51 is set to horizontal writing in advance. That is, the description will be made assuming that the character string direction is the horizontal direction of the document.

<ステップS11>
まず、ステップS11において、制御部5は、文書の画像データを取得する。ここに、ステップS11の処理が、本発明における取得ステップの一例であって、制御部5の取得処理部51により実行される。
<Step S11>
First, in step S11, the control unit 5 acquires image data of a document. Here, the process of step S <b> 11 is an example of the acquisition step in the present invention, and is executed by the acquisition processing unit 51 of the control unit 5.

例えば、制御部5は、ADF1の前記原稿セット部に原稿が載置されている場合には、ADF1及び画像読取部2を用いて、前記原稿セット部に載置された原稿から文書の画像データを読み取る。また、制御部5は、画像読取部2の前記原稿台に原稿が載置されている場合には、画像読取部2を用いて、前記原稿台に載置された原稿から文書の画像データを読み取る。   For example, when a document is placed on the document set unit of the ADF 1, the control unit 5 uses the ADF 1 and the image reading unit 2 to convert the image data of the document from the document placed on the document set unit. Read. In addition, when a document is placed on the document table of the image reading unit 2, the control unit 5 uses the image reading unit 2 to obtain image data of the document from the document placed on the document table. read.

また、制御部5は、外部の情報処理装置から送信される文書の画像データを受信することで、文書の画像データを取得してもよい。また、制御部5は、画像読取部2によって読み取られて、又は外部の情報処理装置から送信されて記憶部7に格納された文書の画像データを読み出すことで、文書の画像データを取得してもよい。   Further, the control unit 5 may acquire the document image data by receiving the document image data transmitted from the external information processing apparatus. Further, the control unit 5 acquires the image data of the document by reading the image data of the document read by the image reading unit 2 or transmitted from the external information processing apparatus and stored in the storage unit 7. Also good.

<ステップS12>
ステップS12において、制御部5は、文書の画像データに含まれる前記エッジ画素を検出する。ここで、ステップS12の処理は、制御部5のエッジ検出部52により実行される。
<Step S12>
In step S12, the control unit 5 detects the edge pixel included in the image data of the document. Here, the process of step S <b> 12 is executed by the edge detection unit 52 of the control unit 5.

例えば、制御部5は、文書の画像データに含まれる画素各々に対して前記微分フィルター処理を実行することで、文書の画像データに含まれる前記エッジ画素を検出する。   For example, the control unit 5 detects the edge pixel included in the image data of the document by executing the differential filter processing on each pixel included in the image data of the document.

ここで、図4に、ステップS12によって前記エッジ画素が検出された文書の画像データの一例を示す。なお、以下においては、図4における紙面左右方向を文字列方向D1、紙面上下方向を行方向D2と定義する。   Here, FIG. 4 shows an example of image data of a document in which the edge pixel is detected in step S12. In the following, the horizontal direction in FIG. 4 is defined as the character string direction D1, and the vertical direction in the plane is defined as the row direction D2.

図4に示される画像データA1は、ステップS12によって前記エッジ画素が検出された文書の画像データの一部である。なお、図4における破線は、分割領域R1〜R8を示すためのものである。また、図4における直線L11は、端画素G21を通り、文字列方向D1に垂直な直線である。また、図4における直線L12は、端画素G42を通り、文字列方向D1に垂直な直線である。また、図4における直線L21は、端画素G51を通り、文字列方向D1に垂直な直線である。また、図4における直線L22は、端画素G62を通り、文字列方向D1に垂直な直線である。   Image data A1 shown in FIG. 4 is a part of the image data of the document in which the edge pixel is detected in step S12. In addition, the broken line in FIG. 4 is for showing division area R1-R8. A straight line L11 in FIG. 4 is a straight line that passes through the end pixel G21 and is perpendicular to the character string direction D1. A straight line L12 in FIG. 4 is a straight line that passes through the end pixel G42 and is perpendicular to the character string direction D1. A straight line L21 in FIG. 4 is a straight line that passes through the end pixel G51 and is perpendicular to the character string direction D1. A straight line L22 in FIG. 4 is a straight line that passes through the end pixel G62 and is perpendicular to the character string direction D1.

<ステップS13>
ステップS13において、制御部5は、前記分割領域ごとに、前記分割領域に含まれる前記エッジ画素のうち前記文字列方向において最も離間した一対の端画素を検出する。ここで、ステップS13の処理は、制御部5の第1検出部53により実行される。
<Step S13>
In step S <b> 13, the control unit 5 detects, for each of the divided regions, a pair of end pixels that are most separated in the character string direction from among the edge pixels included in the divided region. Here, the process of step S <b> 13 is executed by the first detection unit 53 of the control unit 5.

例えば、制御部5は、図4に示される分割領域R1から、文字列方向D1において最も離間した端画素G11及び端画素G12を検出する。また、制御部5は、図4に示される分割領域R2から、文字列方向D1において最も離間した端画素G21及び端画素G22を検出する。なお、図4に示される分割領域R2のように、文字列方向D1における左端に位置する前記エッジ画素が複数存在する場合は、いずれか一つの画素が文字列方向D1における左側の前記端画素として検出されればよい。図4に示される分割領域R2のように、文字列方向D1における右端に位置する前記エッジ画素が複数存在する場合についても同様である。   For example, the control unit 5 detects the end pixel G11 and the end pixel G12 that are farthest apart in the character string direction D1 from the divided region R1 illustrated in FIG. Further, the control unit 5 detects the end pixel G21 and the end pixel G22 that are farthest apart in the character string direction D1 from the divided region R2 shown in FIG. When there are a plurality of the edge pixels located at the left end in the character string direction D1 as in the divided region R2 shown in FIG. 4, any one pixel is used as the left end pixel in the character string direction D1. It only has to be detected. The same applies to the case where there are a plurality of the edge pixels located at the right end in the character string direction D1 as in the divided region R2 shown in FIG.

同様に、制御部5は、図4に示される分割領域R3〜R8から、文字列方向D1において最も離間した端画素G31〜G81及び端画素G32〜G82を検出する。   Similarly, the control unit 5 detects the end pixels G31 to G81 and the end pixels G32 to G82 that are farthest apart in the character string direction D1 from the divided regions R3 to R8 shown in FIG.

<ステップS14>
ステップS14において、制御部5は、隣接する前記分割領域各々に含まれる前記文字列方向の一方側の前記端画素各々の前記文字列方向における離間距離、及び前記文字列方向の他方側の前記端画素各々の前記文字列方向における離間距離に基づいて、共通の前記構成要素を含む一又は複数の前記分割領域を特定する。ここで、ステップS14の処理は、制御部5の特定処理部54により実行される。
<Step S14>
In step S <b> 14, the control unit 5 determines the separation distance in the character string direction of each of the end pixels on one side in the character string direction included in each of the adjacent divided regions, and the end on the other side in the character string direction. Based on the separation distance of each pixel in the character string direction, one or a plurality of the divided regions including the common component are specified. Here, the process of step S <b> 14 is executed by the specific processing unit 54 of the control unit 5.

例えば、制御部5は、画像データA1において、行方向D2における上端の分割領域R1から順に、隣接する二つの前記分割領域が共通の前記構成要素を含むか否かを判断する。   For example, in the image data A1, the control unit 5 determines whether or not two adjacent divided regions include the common component in order from the upper divided region R1 in the row direction D2.

具体的に、制御部5は、図4に示される分割領域R1及び分割領域R2に含まれる文字列方向D1の左側の端画素G11及び端画素G21の文字列方向D1における離間距離が前記閾値以下であって、且つ文字列方向D1の右側の端画素G12及び端画素G22の文字列方向D1における離間距離が前記閾値以下であるか否かを判断する。そして、制御部5は、文字列方向D1の左側の端画素G11及び端画素G21の文字列方向D1における離間距離が前記閾値以下であって、且つ文字列方向D1の右側の端画素G12及び端画素G22の文字列方向D1における離間距離が前記閾値以下である場合に、分割領域R1及び分割領域R2が共通の前記構成要素を含むと判断する。   Specifically, the control unit 5 determines that the separation distance in the character string direction D1 between the left end pixel G11 and the end pixel G21 in the character string direction D1 included in the divided region R1 and the divided region R2 illustrated in FIG. In addition, it is determined whether or not the distance between the right end pixel G12 and the end pixel G22 in the character string direction D1 in the character string direction D1 is equal to or less than the threshold value. Then, the control unit 5 determines that the separation distance in the character string direction D1 between the left end pixel G11 and the end pixel G21 in the character string direction D1 is equal to or less than the threshold value and the right end pixel G12 and the end pixel G1 in the character string direction D1. When the separation distance in the character string direction D1 of the pixel G22 is equal to or less than the threshold value, it is determined that the divided region R1 and the divided region R2 include the common constituent element.

次に、制御部5は、図4に示される分割領域R2及び分割領域R3に含まれる文字列方向D1の左側の端画素G21及び端画素G31の文字列方向D1における離間距離が前記閾値以下であって、且つ文字列方向D1の右側の端画素G22及び端画素G32の文字列方向D1における離間距離が前記閾値以下であるか否かを判断する。そして、制御部5は、文字列方向D1の左側の端画素G21及び端画素G31の文字列方向D1における離間距離が前記閾値以下であって、且つ文字列方向D1の右側の端画素G22及び端画素G32の文字列方向D1における離間距離が前記閾値以下である場合に、分割領域R2及び分割領域R3が共通の前記構成要素を含むと判断する。   Next, the control unit 5 determines that the separation distance in the character string direction D1 between the left end pixel G21 and the end pixel G31 in the character string direction D1 included in the divided region R2 and the divided region R3 illustrated in FIG. In addition, it is determined whether or not the distance between the right end pixel G22 and the end pixel G32 in the character string direction D1 in the character string direction D1 is equal to or less than the threshold value. Then, the control unit 5 determines that the separation distance in the character string direction D1 between the left end pixel G21 and the end pixel G31 in the character string direction D1 is equal to or less than the threshold value, and the right end pixel G22 and the end pixel in the character string direction D1. When the separation distance of the pixel G32 in the character string direction D1 is equal to or less than the threshold value, it is determined that the divided region R2 and the divided region R3 include the common component.

ここで、制御部5は、分割領域R1及び分割領域R2が共通の前記構成要素を含むと判断し、且つ分割領域R2及び分割領域R3が共通の前記構成要素を含むと判断した場合は、分割領域R1〜R3が共通の前記構成要素を含むと判断する。   Here, when the control unit 5 determines that the divided region R1 and the divided region R2 include the common constituent elements, and determines that the divided region R2 and the divided region R3 include the common constituent elements, It is determined that the regions R1 to R3 include the common components.

以上に説明した手順で、制御部5は、画像データA1に含まれる全ての前記分割領域について、隣接する前記分割領域と共通の前記構成要素を含むか否かを判断する。例えば、図4に示される例において、制御部5は、分割領域R1〜R4が共通の前記構成要素を含むと判断する。また、図4に示される例において、制御部5は、分割領域R4及び分割領域R5が共通の前記構成要素を含まないと判断する。また、図4に示される例において、制御部5は、分割領域R5〜R8が共通の前記構成要素を含むと判断する。   With the procedure described above, the control unit 5 determines whether or not all of the divided areas included in the image data A1 include the constituent elements common to the adjacent divided areas. For example, in the example illustrated in FIG. 4, the control unit 5 determines that the divided regions R1 to R4 include the common constituent elements. In the example shown in FIG. 4, the control unit 5 determines that the divided region R4 and the divided region R5 do not include the common component. In the example shown in FIG. 4, the control unit 5 determines that the divided regions R5 to R8 include the common constituent elements.

<ステップS15>
ステップS15において、制御部5は、ステップS14で特定された一又は複数の前記分割領域において前記文字列方向に最も離間した前記端画素各々から前記文字列方向の内側の領域を前記構成要素として検出する。ここに、ステップS12〜ステップS15の処理が、本発明における検出ステップの一例である。また、ステップS15の処理は、制御部5の第2検出部55により実行される。
<Step S15>
In step S15, the control unit 5 detects, as the constituent element, an inner region in the character string direction from each of the end pixels most spaced in the character string direction in one or a plurality of the divided regions specified in step S14. To do. Here, the process of step S12-step S15 is an example of the detection step in this invention. Further, the process of step S15 is executed by the second detection unit 55 of the control unit 5.

例えば、図4に示される例において、制御部5は、ステップS14で共通の前記構成要素を含むと判断された分割領域R1〜R4において、分割領域R1〜R4に含まれる端画素G11〜G41及び端画素G12〜G42のうち、文字列方向D1に最も離間した端画素G21及び端画素G42から文字列方向D1の内側の領域(図4における直線L11と直線L12とで囲まれた領域)を構成要素X1として検出する。   For example, in the example illustrated in FIG. 4, the control unit 5 includes the end pixels G11 to G41 included in the divided regions R1 to R4 and the divided pixels R1 to R4 that are determined to include the common components in step S14. Among the end pixels G12 to G42, the end pixel G21 and the end pixel G42 that are farthest in the character string direction D1 and the inner region in the character string direction D1 from the end pixel G42 (region surrounded by the straight line L11 and the straight line L12 in FIG. 4) are configured. Detect as element X1.

また、図4に示される例において、制御部5は、ステップS14で共通の前記構成要素を含むと判断された分割領域R5〜R8において、分割領域R5〜R8に含まれる端画素G51〜G81及び端画素G52〜G82のうち、文字列方向D1に最も離間した端画素G51及び端画素G62から文字列方向D1の内側の領域(図4における直線L21と直線L22とで囲まれた領域)を構成要素X2として検出する。   In the example illustrated in FIG. 4, the control unit 5 includes the end pixels G51 to G81 included in the divided regions R5 to R8 and the divided pixels R5 to R8 that are determined to include the common components in step S14. Among the end pixels G52 to G82, the end pixel G51 and the end pixel G62 farthest from each other in the character string direction D1 constitute a region inside the character string direction D1 (region surrounded by the straight line L21 and the straight line L22 in FIG. 4). Detect as element X2.

<ステップS16>
ステップS16において、制御部5は、ステップS15で検出された前記構成要素各々の文書の画像データにおける位置を、前記文字列方向における前記特定位置に変更する。ここに、ステップS16の処理が、本発明における変更ステップの一例であって、制御部5の変更処理部56により実行される。
<Step S16>
In step S16, the control unit 5 changes the position in the document image data of each of the component elements detected in step S15 to the specific position in the character string direction. Here, the process of step S <b> 16 is an example of a change step in the present invention, and is executed by the change processing unit 56 of the control unit 5.

例えば、制御部5は、ステップS15で検出された構成要素X1を、画像データA1における文字列方向D1の左側の端部から中央側へ前記設定距離だけ離間した特定位置P1(図4参照)に移動させる。具体的に、制御部5は、図5に示されるように、構成要素X1における文字列方向D1の左側の端部(端画素G21)が特定位置P1に配置されるように、構成要素X1を移動させる。   For example, the control unit 5 moves the component X1 detected in step S15 from the left end in the character string direction D1 in the image data A1 to the specific position P1 (see FIG. 4) that is separated from the center by the set distance. Move. Specifically, as illustrated in FIG. 5, the control unit 5 moves the constituent element X1 so that the left end (end pixel G21) in the character string direction D1 in the constituent element X1 is arranged at the specific position P1. Move.

また、制御部5は、ステップS15で検出された構成要素X2を、特定位置P1に移動させる。具体的に、制御部5は、図5に示されるように、構成要素X2における文字列方向D1の左側の端部(端画素G51)が特定位置P1に配置されるように、構成要素X2を移動させる。   Moreover, the control part 5 moves the component X2 detected by step S15 to the specific position P1. Specifically, as illustrated in FIG. 5, the control unit 5 moves the component X2 so that the left end (end pixel G51) in the character string direction D1 of the component X2 is arranged at the specific position P1. Move.

なお、前記特定位置が文書の画像データにおける前記文字列方向の中央の位置である場合、制御部5は、ステップS15で検出された構成要素X1を、画像データA1における文字列方向D1の中央の特定位置P2(図4参照)に移動させる。具体的に、制御部5は、図6に示されるように、構成要素X1における文字列方向D1の中央部C1が特定位置P2に配置されるように、構成要素X1を移動させる。   When the specific position is the center position in the character string direction in the image data of the document, the control unit 5 moves the component X1 detected in step S15 to the center in the character string direction D1 in the image data A1. Move to a specific position P2 (see FIG. 4). Specifically, as illustrated in FIG. 6, the control unit 5 moves the constituent element X1 so that the central portion C1 of the constituent element X1 in the character string direction D1 is disposed at the specific position P2.

また、制御部5は、ステップS15で検出された構成要素X2を、特定位置P2に移動させる。具体的に、制御部5は、図6に示されるように、構成要素X2における文字列方向D1の中央部C2が特定位置P2に配置されるように、構成要素X2を移動させる。   Moreover, the control part 5 moves the component X2 detected by step S15 to the specific position P2. Specifically, as illustrated in FIG. 6, the control unit 5 moves the constituent element X2 so that the central portion C2 of the constituent element X2 in the character string direction D1 is disposed at the specific position P2.

<ステップS17>
ステップS17において、制御部5は、ステップS16による変更処理後の文書の画像データを出力する。ここにステップS17の処理が、本発明における出力ステップの一例であって、制御部5の出力処理部57により実行される。
<Step S17>
In step S17, the control unit 5 outputs the image data of the document after the change process in step S16. The process of step S17 is an example of the output step in the present invention, and is executed by the output processing unit 57 of the control unit 5.

例えば、制御部5は、画像形成部3を用いてステップS16による変更処理後の文書の画像データを印刷する。   For example, the control unit 5 uses the image forming unit 3 to print the image data of the document after the change processing in step S16.

また、制御部5は、ステップS16による変更処理後の文書の画像データを記憶部7に格納してもよい。また、制御部5は、ステップS16による変更処理後の文書の画像データを外部の情報処理装置に送信してもよい。   Further, the control unit 5 may store the image data of the document after the change processing in step S16 in the storage unit 7. Further, the control unit 5 may transmit the image data of the document after the change process in step S16 to an external information processing apparatus.

このように、画像処理装置10では、文書の画像データから前記構成要素が検出されて、検出された前記構成要素各々の位置が前記文字列方向における前記特定位置に変更される。従って、文書の前記構成要素各々の前記文字列方向における位置を揃えることが可能である。   As described above, in the image processing apparatus 10, the constituent elements are detected from the image data of the document, and the positions of the detected constituent elements are changed to the specific positions in the character string direction. Accordingly, it is possible to align the positions in the character string direction of the respective constituent elements of the document.

また、画像処理装置10では、エッジ検出部52により検出される前記エッジ画素のうち、前記分割領域ごとに検出される一対の前記端画素各々のみに基づいて前記構成要素が検出される。従って、文書の画像データから前記文字領域及び前記非文字領域が検出される構成と比較して、前記構成要素の検出処理を簡素化することが可能である。   Further, in the image processing apparatus 10, the component is detected based only on each of the pair of end pixels detected for each of the divided regions among the edge pixels detected by the edge detection unit 52. Therefore, it is possible to simplify the detection process of the component as compared with a configuration in which the character region and the non-character region are detected from the image data of the document.

1 ADF
2 画像読取部
3 画像形成部
4 給紙部
5 制御部
6 操作表示部
7 記憶部
10 画像処理装置
51 取得処理部
52 エッジ検出部
53 第1検出部
54 特定処理部
55 第2検出部
56 変更処理部
57 出力処理部
1 ADF
2 Image reading unit 3 Image forming unit 4 Paper feeding unit 5 Control unit 6 Operation display unit 7 Storage unit 10 Image processing device 51 Acquisition processing unit 52 Edge detection unit 53 First detection unit 54 Specific processing unit 55 Second detection unit 56 Change Processing unit 57 Output processing unit

Claims (5)

文書の画像データを取得する取得処理部と、
前記文書の画像データに基づいて前記文書の構成要素を検出する検出処理部と、
前記文書の画像データにおける前記構成要素各々の位置を前記文書の文字列方向における予め定められた特定位置に変更する変更処理部と、
前記変更処理部による変更処理後の前記文書の画像データを出力する出力処理部と、
を備え
前記検出処理部は、
前記文書の画像データに含まれるエッジ画素を検出するエッジ検出部と、
前記エッジ検出部によって検出された前記エッジ画素に基づいて前記構成要素を検出する構成検出部と、
を含み、
前記構成検出部は、
前記文書の画像データが前記文字列方向と直交する行方向に等間隔で分割された分割領域ごとに、前記分割領域に含まれる前記エッジ画素のうち前記文字列方向において最も離間した一対の端画素を検出する第1検出部と、
隣接する前記分割領域各々に含まれる前記文字列方向の一方側の前記端画素各々の前記文字列方向における離間距離及び前記文字列方向の他方側の前記端画素各々の前記文字列方向における離間距離に基づいて、共通の前記構成要素を含む一又は複数の前記分割領域を特定する特定処理部と、
前記特定処理部により特定された一又は複数の前記分割領域において前記文字列方向に最も離間した前記端画素各々から前記文字列方向の内側の領域を前記構成要素として検出する第2検出部と、
を含む画像処理装置。
An acquisition processing unit for acquiring image data of a document;
A detection processing unit for detecting a component of the document based on image data of the document;
A change processing unit that changes the position of each of the components in the image data of the document to a predetermined specific position in the character string direction of the document;
An output processing unit for outputting image data of the document after the change processing by the change processing unit;
Equipped with a,
The detection processing unit
An edge detection unit for detecting edge pixels included in the image data of the document;
A configuration detection unit that detects the component based on the edge pixels detected by the edge detection unit;
Including
The configuration detection unit
For each divided region in which the image data of the document is divided at equal intervals in the row direction orthogonal to the character string direction, a pair of end pixels that are the farthest apart in the character string direction among the edge pixels included in the divided region A first detector for detecting
The separation distance in the character string direction of each of the end pixels on one side in the character string direction and the separation distance in the character string direction of each of the end pixels on the other side in the character string direction included in each of the adjacent divided regions A specific processing unit that identifies one or a plurality of the divided regions including the common component,
A second detection unit that detects an inner region in the character string direction as the component from each of the end pixels farthest in the character string direction in the one or a plurality of divided regions specified by the specification processing unit;
An image processing apparatus.
前記特定位置は、前記文字列方向の一方の端部から中央側へ予め定められた設定距離だけ離間した位置であって、
前記変更処理部は、前記文書の画像データにおける前記構成要素各々の前記文字列方向の一方の端部の位置を前記特定位置に変更する請求項に記載の画像処理装置。
The specific position is a position that is spaced from the one end in the character string direction by a predetermined set distance to the center side,
The image processing apparatus according to claim 1 , wherein the change processing unit changes the position of one end of the component in the character string direction in the image data of the document to the specific position.
原稿から画像データを読み取る画像読取部を更に備え、
前記取得処理部は、前記画像読取部を用いて前記文書の画像データを取得する請求項1又は2に記載の画像処理装置。
An image reading unit for reading image data from the document;
The acquisition processing unit, an image processing apparatus according to claim 1 or 2 acquires image data of the document using the image reading unit.
画像データに基づいて画像を形成する画像形成部を更に備え、
前記出力処理部は、前記画像形成部を用いて前記変更処理部による変更処理後の前記文書の画像データを印刷する請求項1〜3のいずれかに記載の画像処理装置。
An image forming unit that forms an image based on the image data;
The output processing unit, an image processing apparatus according to claim 1 for printing the image data of the document after change processing performed by the change processing unit by using the image forming unit.
文書の画像データを取得する取得ステップと、
前記文書の画像データに基づいて前記文書の構成要素を検出する検出ステップと、
前記文書の画像データにおける前記構成要素各々の位置を前記文書の文字列方向における予め定められた特定位置に変更する変更ステップと、
前記変更ステップによる変更処理後の前記文書の画像データを出力する出力ステップと、
を含み、
前記検出ステップは、
前記文書の画像データに含まれるエッジ画素を検出するエッジ検出ステップと、
前記エッジ検出ステップによって検出された前記エッジ画素に基づいて前記構成要素を検出する構成検出ステップと、
を含み、
前記構成検出ステップは、
前記文書の画像データが前記文字列方向と直交する行方向に等間隔で分割された分割領域ごとに、前記分割領域に含まれる前記エッジ画素のうち前記文字列方向において最も離間した一対の端画素を検出する第1検出ステップと、
隣接する前記分割領域各々に含まれる前記文字列方向の一方側の前記端画素各々の前記文字列方向における離間距離及び前記文字列方向の他方側の前記端画素各々の前記文字列方向における離間距離に基づいて、共通の前記構成要素を含む一又は複数の前記分割領域を特定する特定ステップと、
前記特定ステップにより特定された一又は複数の前記分割領域において前記文字列方向に最も離間した前記端画素各々から前記文字列方向の内側の領域を前記構成要素として検出する第2検出ステップと、
を含む画像処理方法。
An acquisition step of acquiring image data of the document;
Detecting a component of the document based on image data of the document;
Changing the position of each of the components in the image data of the document to a predetermined specific position in the character string direction of the document;
An output step of outputting image data of the document after the change processing by the change step;
Only including,
The detecting step includes
An edge detection step of detecting edge pixels included in the image data of the document;
A configuration detection step of detecting the component based on the edge pixels detected by the edge detection step;
Including
The configuration detecting step includes
For each divided region in which the image data of the document is divided at equal intervals in the row direction orthogonal to the character string direction, a pair of end pixels that are the farthest apart in the character string direction among the edge pixels included in the divided region A first detection step of detecting
The separation distance in the character string direction of each of the end pixels on one side in the character string direction and the separation distance in the character string direction of each of the end pixels on the other side in the character string direction included in each of the adjacent divided regions A specific step of identifying one or a plurality of the divided regions including the common component based on
A second detection step of detecting, as the component, an inner region in the character string direction from each of the end pixels most spaced in the character string direction in the one or a plurality of the divided regions identified in the identifying step;
Including image processing methods.
JP2016097932A 2016-05-16 2016-05-16 Image processing apparatus and image processing method Expired - Fee Related JP6451693B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016097932A JP6451693B2 (en) 2016-05-16 2016-05-16 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016097932A JP6451693B2 (en) 2016-05-16 2016-05-16 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2017208605A JP2017208605A (en) 2017-11-24
JP6451693B2 true JP6451693B2 (en) 2019-01-16

Family

ID=60415667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016097932A Expired - Fee Related JP6451693B2 (en) 2016-05-16 2016-05-16 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6451693B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6097773A (en) * 1983-11-02 1985-05-31 Canon Inc Image forming device
JP3096123B2 (en) * 1992-01-31 2000-10-10 キヤノン株式会社 Document processing apparatus and method
JP5114114B2 (en) * 2007-07-03 2013-01-09 京セラドキュメントソリューションズ株式会社 Image forming apparatus

Also Published As

Publication number Publication date
JP2017208605A (en) 2017-11-24

Similar Documents

Publication Publication Date Title
JP6269455B2 (en) Image processing apparatus, image processing method, and image processing program
JP6451693B2 (en) Image processing apparatus and image processing method
US10356261B2 (en) Image-forming apparatus with document reading unit that automatically feeds and reads documents
US10091373B2 (en) Image processing device having removal failure prevention feature
JP2016092479A (en) Image reader and image forming apparatus
US20170289397A1 (en) Image processing apparatus
US20160337538A1 (en) Display device for displaying character information, information processing apparatus including display device, and character information display method
JP6638690B2 (en) Image forming apparatus and display control method
JP3987850B2 (en) Image processing apparatus and image forming apparatus
JP6141237B2 (en) Image processing apparatus and image processing method
JP2016119546A (en) Image processor, and image processing method
JP5822865B2 (en) Image processing apparatus, ruled line determination method, and ruled line determination program
JP6547658B2 (en) Image processing apparatus, image processing method
JP6524941B2 (en) Image processing apparatus, image processing method
JP6572852B2 (en) Image forming apparatus and image forming method
JP6794716B2 (en) Display control device and display control program
JP6095558B2 (en) Image processing apparatus, image processing method, and image processing program
JP6311599B2 (en) Image reading apparatus and image forming apparatus
JP5670302B2 (en) Image forming apparatus
JP6138064B2 (en) Sheet conveying apparatus, image reading apparatus, image forming apparatus, and sheet conveying method
JP2020068474A (en) Image processing apparatus and image correction method
JP2012222822A (en) Image processing device and image processing program
JP2020120359A (en) Image forming apparatus and image forming method
JP2019114933A (en) Image processing apparatus
JP2017108298A (en) Image reading device and image forming apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181126

R150 Certificate of patent or registration of utility model

Ref document number: 6451693

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees