JP2013149210A - Image processing program, image processing method and image processor - Google Patents

Image processing program, image processing method and image processor Download PDF

Info

Publication number
JP2013149210A
JP2013149210A JP2012011396A JP2012011396A JP2013149210A JP 2013149210 A JP2013149210 A JP 2013149210A JP 2012011396 A JP2012011396 A JP 2012011396A JP 2012011396 A JP2012011396 A JP 2012011396A JP 2013149210 A JP2013149210 A JP 2013149210A
Authority
JP
Japan
Prior art keywords
block
area
block area
image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012011396A
Other languages
Japanese (ja)
Other versions
JP5794154B2 (en
Inventor
Hiroshi Tanaka
宏 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012011396A priority Critical patent/JP5794154B2/en
Publication of JP2013149210A publication Critical patent/JP2013149210A/en
Application granted granted Critical
Publication of JP5794154B2 publication Critical patent/JP5794154B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To acquire a proper partial image corresponding to an area designated from a prescribed image.SOLUTION: An area of a partial image acquired from a prescribed image is designated, the prescribed image is recognized as one or a plurality of block areas on the basis of an analysis parameter analyzing an image layout, the recognized one or plurality of block areas are compared with the designated area to perform a first block determination for classifying the block areas into any one of a first block area included in the designated area, a second block area which is not included in the designated area and a third block area which is an undecided area. After the analysis parameter is changed for the block areas determined as the third block area and the block areas are re-recognized, a second block determination for classifying the block areas into the first block area or the second block area is performed. The partial image is generated on the basis of a set of the first block area obtained in the first block determination and the second block determination.

Description

本発明は、所定の画像内の指定した領域に対応する適切な部分画像を取得するための画像処理プログラム、画像処理方法、及び画像処理装置に関する。   The present invention relates to an image processing program, an image processing method, and an image processing apparatus for acquiring an appropriate partial image corresponding to a specified region in a predetermined image.

従来では、紙文書の一部を切り出して保存したい場合、昔からの新聞切り抜きのように、保存したい部分を切って画像化するという方法が知られている。また、従来では、紙を実際に切らなくても、保存したい領域をマーカーペンの線で囲んで、スキャン画像から囲まれた部分のみ切り出すという方法が知られている(例えば、特許文献1参照)。なお、上述した従来技術は、何れも原本を傷めてしまい、また操作も煩雑であった。   Conventionally, when a part of a paper document is to be cut out and stored, a method is known in which a part to be stored is cut and imaged, as in a conventional newspaper cutout. Conventionally, a method is known in which an area to be saved is surrounded by a marker pen line and only a portion surrounded by a scan image is cut out without actually cutting the paper (see, for example, Patent Document 1). . Note that all of the above-described conventional techniques have damaged the original document, and the operation has been complicated.

そこで、別の手法としては、文書全体をスキャンして、画面上で領域を指定して部分画像を生成するという方法が考えられる。例えば、従来では、文書の部分領域を切り出した画像を並べて、画面上に設けられた白紙の台紙領域に並べ直す方法が知られている。また、従来では、文書をテキスト・図表・タイトル等の領域に分割するレイアウト解析を行い、領域毎に定めた得点ルール等により各領域の画像を保存すべきか否かを判定する方法が知られている。更に、従来では、上述したレイアウト解析の結果から、ユーザが指定した領域の輪郭を補正する方法が知られている(例えば、特許文献2〜4参照)。   Therefore, as another method, a method of scanning the entire document and designating a region on the screen to generate a partial image can be considered. For example, conventionally, a method is known in which images obtained by cutting out partial regions of a document are arranged and rearranged on a blank mount region provided on a screen. Conventionally, there is a known method for performing layout analysis to divide a document into areas such as text, diagrams, and titles, and determining whether or not to save an image in each area according to a scoring rule determined for each area. Yes. Furthermore, conventionally, a method for correcting the contour of a region designated by the user from the result of the layout analysis described above is known (see, for example, Patent Documents 2 to 4).

特開2006−340103号公報JP 2006-340103 A 特開昭61−15280号公報JP 61-15280 A 特開平09−091450号公報JP 09-091450 A 特開2001−274969号公報JP 2001-274969 A

ところで、上述した従来手法では、画像全体から切り出したい部分画像の領域を指定するためにマウス等の座標入力手段が用いられ、その指定された部分領域は矩形(四角形)に限定される。そのため、部分画像が矩形でない場合には、指定領域に含まれる保存対象ではない不要な画像まで含めて保存されていた。   By the way, in the conventional method described above, coordinate input means such as a mouse is used to designate a region of a partial image to be cut out from the entire image, and the designated partial region is limited to a rectangle (quadrangle). For this reason, if the partial image is not rectangular, unnecessary images that are not to be saved and are included in the designated area are stored.

一方、従来手法では、マウス等で部分画像の領域の外枠に沿って曲線を描くような方法もあるが、正確に領域を指定するのが困難であるため、操作が煩雑で、かつ不正確であった。   On the other hand, in the conventional method, there is a method of drawing a curve along the outer frame of the partial image area with a mouse or the like. However, since it is difficult to specify the area accurately, the operation is complicated and inaccurate. Met.

また、従来のレイアウト解析の結果を用いる方法は、テキストや図表等のレイアウト要素の単位でしか領域が指定できないため、ユーザが希望する領域が適切に選択できなかった。ここで、上述の問題点を具体的に説明する。図1は、従来技術の問題点を説明するための図である。なお、図1(A)〜(C)は、一例として、それぞれが新聞記事等の文書画像を示す。また、「AAA」とは、文字や数字等で構成されるタイトルや本文等の文書データの配置を意味し、文書以外にも図表等が配置される領域も含む(以下の説明についても同様とする)。   In addition, in the conventional method using the result of layout analysis, an area can be specified only in units of layout elements such as text and charts, so that the area desired by the user cannot be selected appropriately. Here, the above-mentioned problem will be described specifically. FIG. 1 is a diagram for explaining the problems of the prior art. 1A to 1C show document images such as newspaper articles, as an example. “AAA” means an arrangement of document data such as a title and a body composed of letters, numbers, etc., and includes an area in which diagrams and the like are arranged in addition to the document (the same applies to the following description). To do).

従来技術では、例えば図1に示すような文書画像に対して、図1(A)の点線部分に示すように選択したい領域があった場合に、レイアウト解析で、図1(B)に示すような正しいブロック領域が得られたとする。このような場合には、ブロック領域(1)〜(5)を組み合わせることによって所望の領域を得ることができる。一方、レイアウト解析で、図1(C)の示すような誤ったブロック領域が得られた場合には、例えばブロック領域(a)〜(c)を組み合わせても所望の領域には足りず、またブロック領域(a)〜(d)では余分となる。したがって、従来手法では、レイアウト解析が誤ると正しい部分画像は得られない。更に、レイアウト解析により選択された領域は、ユーザにフィードバックされないため、不適切な領域が選ばれても気づかないという問題があった。   In the prior art, for example, when there is an area to be selected as shown by a dotted line portion in FIG. 1A with respect to a document image as shown in FIG. 1, as shown in FIG. Assume that a correct block area is obtained. In such a case, a desired area can be obtained by combining the block areas (1) to (5). On the other hand, when an incorrect block area as shown in FIG. 1C is obtained in the layout analysis, for example, even if the block areas (a) to (c) are combined, the desired area is not sufficient. The block areas (a) to (d) are redundant. Therefore, in the conventional method, if the layout analysis is incorrect, a correct partial image cannot be obtained. Furthermore, since the area selected by the layout analysis is not fed back to the user, there is a problem that even if an inappropriate area is selected, the area is not noticed.

開示の技術は、かかる問題を鑑み、所定の画像から指定した領域に対応する適切な部分画像を取得することを目的とする。   In view of such a problem, the disclosed technique aims to acquire an appropriate partial image corresponding to a specified region from a predetermined image.

開示の一態様における画像処理プログラムは、所定の画像から取得する部分画像の領域を指定し、画像レイアウトを解析する解析パラメータに基づいて、前記所定の画像を1又は複数のブロック領域として認識し、前記認識した1又は複数のブロック領域と、前記指定した領域とを比較して、前記指定した領域に含まれる第1のブロック領域、前記指定した領域に含まれない第2のブロック領域、及び未確定領域である第3のブロック領域のうちの何れかに分類する第1のブロック判定を行い、前記第3のブロック領域と判定されたブロック領域に対して、前記解析パラメータを変更し、前記ブロック領域を再認識した後に、前記第1のブロック領域又は前記第2のブロック領域に分類する第2のブロック判定を行い、前記第1のブロック判定及び前記第2のブロック判定で得られる第1のブロック領域の集合に基づいて部分画像を生成する、処理をコンピュータに実行させる。   The image processing program according to an aspect of the disclosure specifies a region of a partial image acquired from a predetermined image, recognizes the predetermined image as one or a plurality of block regions based on an analysis parameter for analyzing an image layout, The recognized one or more block areas are compared with the designated area, and a first block area included in the designated area, a second block area not included in the designated area, and an unspecified First block determination to be classified into any of the third block areas that are fixed areas is performed, the analysis parameter is changed for the block area determined to be the third block area, and the block After re-recognizing the area, a second block determination for classifying the first block area or the second block area is performed, and the first block determination is performed. And generating a partial image based on the first set of block area obtained by the second block determination to execute the process to the computer.

開示の技術によれば、所定の画像から指定した領域に対応する適切な部分画像を取得することができる。   According to the disclosed technique, an appropriate partial image corresponding to a specified region can be acquired from a predetermined image.

従来技術の問題点を説明するための図である。It is a figure for demonstrating the problem of a prior art. 画像処理装置の概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of an image processing apparatus. 本実施形態における画像処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the image processing apparatus in this embodiment. 第1実施例におけるブロック領域判定手段の機能構成を示す図である。It is a figure which shows the function structure of the block area determination means in 1st Example. セパレータによるレイアウト解析結果の一例を示す図である。It is a figure which shows an example of the layout analysis result by a separator. 細密度パラメータの具体例を示す図である。It is a figure which shows the specific example of a fine density parameter. 空白セパレータの抽出の一例を示す図である。It is a figure which shows an example of extraction of a blank separator. レイアウト解析パラメータによる動作の違いについて説明するための図である。It is a figure for demonstrating the difference in operation | movement by a layout analysis parameter. 第1実施例におけるブロック領域分類例を示す図である。It is a figure which shows the block area classification example in 1st Example. 第1実施例における画像処理の一例を示すフローチャートである。It is a flowchart which shows an example of the image process in 1st Example. 第1実施例におけるグループ統合によるレイアウト解析の一例を示す図である。It is a figure which shows an example of the layout analysis by the group integration in 1st Example. ユーザ指定領域の再入力を促す画面の一例を示す図である。It is a figure which shows an example of the screen which prompts re-input of a user designation area. 第1実施例により得られる部分画像の具体例を説明するための図である。It is a figure for demonstrating the specific example of the partial image obtained by 1st Example. 第2実施例におけるブロック領域判定手段の機能構成を示す図である。It is a figure which shows the function structure of the block area determination means in 2nd Example. 第2実施例における画像処理の一例を示すフローチャートである。It is a flowchart which shows an example of the image process in 2nd Example. 第3実施例におけるブロック領域判定手段の機能構成を示す図である。It is a figure which shows the function structure of the block area determination means in 3rd Example. 第3実施例における画像処理の一例を示すフローチャートである。It is a flowchart which shows an example of the image process in 3rd Example.

以下、添付図面を参照しながら実施例について詳細に説明する。   Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

<画像処理装置:概略構成例>
本実施形態における画像処理装置の概略構成例について図を用いて説明する。図2は、画像処理装置の概略構成の一例を示す図である。図1に示す画像処理装置10は、画像入力手段11と、領域指定手段12と、ブロック領域判定手段13と、部分画像生成手段14とを有する。
<Image processing apparatus: schematic configuration example>
A schematic configuration example of the image processing apparatus according to the present embodiment will be described with reference to the drawings. FIG. 2 is a diagram illustrating an example of a schematic configuration of the image processing apparatus. The image processing apparatus 10 illustrated in FIG. 1 includes an image input unit 11, an area designation unit 12, a block area determination unit 13, and a partial image generation unit 14.

画像入力手段11は、部分画像を取得する対象画像を入力する。具体的には、新聞や雑誌、インターネットのホームページ等の文書データや写真等の画像データを入力する。   The image input unit 11 inputs a target image for acquiring a partial image. Specifically, document data such as newspapers, magazines, and Internet homepages, and image data such as photographs are input.

領域指定手段12は、画像入力手段11により得られる画像(以下、必要に応じて「全体画像」という)から、ユーザ等により指定された切り出したい部分画像の領域(ユーザ指定領域)の情報を取得する。なお、領域指定は、予め設定されていてもよく、必要に応じてユーザに指定させてもよい。また、領域指定手段12は、1つの画像に対して1又は複数の部分画像の領域を指定することができる。   The area designating unit 12 obtains information on the area (user designated area) of the partial image that is designated by the user or the like from the image obtained by the image input unit 11 (hereinafter referred to as “whole image” as necessary). To do. The area designation may be set in advance, or may be designated by the user as necessary. The area designating unit 12 can designate one or a plurality of partial image areas for one image.

ブロック領域判定手段13は、画像入力手段11により得られる全体画像を、レイアウト解析により所定の文書等の集合からなる1又は複数のブロック領域として認識する。また、ブロック領域判定手段13は、レイアウト解析により得られたブロック領域毎に、上述したユーザ指定領域と比較を行い、予め設定された閾値に基づいて、例えば第1〜第3のブロック領域に分類する。具体的には、ブロック領域判定手段13は、レイアウト解析により得られたブロック領域毎に、ユーザが指定した領域に含まれる第1のブロック領域と、ユーザが指定した領域に含まれない第2のブロック領域とに分類する。更に、ブロック領域判定手段13は、上述した第1及び第2のブロック領域に分類できない未確定領域を第3のブロック領域として分類する。   The block area determination unit 13 recognizes the entire image obtained by the image input unit 11 as one or a plurality of block areas including a set of predetermined documents and the like by layout analysis. The block area determination unit 13 compares the block areas obtained by the layout analysis with the user-specified areas described above, and classifies them into, for example, first to third block areas based on preset threshold values. To do. Specifically, the block area determination unit 13 includes, for each block area obtained by layout analysis, a first block area included in the area specified by the user and a second block not included in the area specified by the user. Classify into block areas. Furthermore, the block area determination unit 13 classifies the undefined area that cannot be classified into the first and second block areas described above as the third block area.

また、ブロック領域判定手段13は、画像レイアウトを解析し所定のブロック領域として認識するためのレイアウト解析パラメータを変更して再度レイアウト解析を行い、ブロック領域の再分類を行う。その後、ブロック領域判定手段13は、再分類されたブロック領域毎に、上述した第1〜第3のブロック領域の判定を行う。なお、上述したブロック領域判定手段13の具体的な処理については後述する。   The block area determination unit 13 analyzes the image layout and changes the layout analysis parameter for recognizing the image as a predetermined block area, performs the layout analysis again, and reclassifies the block area. Thereafter, the block area determination unit 13 determines the first to third block areas described above for each reclassified block area. In addition, the specific process of the block area determination means 13 mentioned above is mentioned later.

部分画像生成手段14は、ブロック領域判定手段13により、第1のブロック領域に含まれるブロック領域の集合から部分画像を生成し、生成した部分画像を出力する。これにより、本実施形態では、所定の画像から指定した領域に対応する適切な部分画像を取得することができる。   The partial image generation means 14 generates a partial image from the set of block areas included in the first block area by the block area determination means 13 and outputs the generated partial image. Thereby, in this embodiment, the suitable partial image corresponding to the area | region designated from the predetermined image can be acquired.

<画像処理装置:ハードウェア構成例>
図3は、本実施形態における画像処理装置のハードウェア構成の一例を示す図である。また、画像処理装置10は、制御部21と、通信部22と、主制御部23と、補助記憶部24と、ドライブ装置25とを有する。また、本実施形態では、制御部21、通信部22、主記憶部23、補助記憶部24、及びドライブ装置25は、共通バスによりデータや信号等の送受信が可能な状態で接続されている。
<Image processing apparatus: hardware configuration example>
FIG. 3 is a diagram illustrating an example of a hardware configuration of the image processing apparatus according to the present embodiment. In addition, the image processing apparatus 10 includes a control unit 21, a communication unit 22, a main control unit 23, an auxiliary storage unit 24, and a drive device 25. In the present embodiment, the control unit 21, the communication unit 22, the main storage unit 23, the auxiliary storage unit 24, and the drive device 25 are connected in a state where data and signals can be transmitted and received through a common bus.

また、図3の例では、画像処理装置10に接続される外部装置として、画像入力部31と、座標入力部32と、表示部33と、記録媒体34とを有する。   In the example of FIG. 3, the external device connected to the image processing apparatus 10 includes an image input unit 31, a coordinate input unit 32, a display unit 33, and a recording medium 34.

制御部21は、Operating System(OS)等の制御プログラム、及び主記憶部23に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して、本実施形態における各処理を実現することができる。なお、プログラムの実行中に必要な各種情報等は、補助記憶部24から取得することができ、また実行結果等を格納することもできる。   Based on a control program such as an operating system (OS) and an execution program stored in the main storage unit 23, the control unit 21 performs various operations, data input / output with each hardware component, etc. Each process in this embodiment can be realized by controlling the process. Various information necessary during the execution of the program can be acquired from the auxiliary storage unit 24, and an execution result or the like can be stored.

具体的には、制御部21は、画像入力部31からの画像情報の入力や座標入力部32からの座標情報の入力を行い、本実施形態における画像処理を行うために画像処理装置10全体を制御する。また、制御部21は、本実施形態における画像処理を実行するための各種画面を表示部23に表示させるための制御を行う。また、制御部21は、ドライブ装置25を介して記録媒体34から本実施形態に必要な各種情報やプログラムを読み出したり、本実施形態における処理を実行した結果や経過等の情報を記録媒体34に書き込むための制御等を行う。なお、制御部21は、例えばCentral Processing Unit(CPU)等からなる。   Specifically, the control unit 21 inputs image information from the image input unit 31 and input coordinate information from the coordinate input unit 32, and performs the entire image processing apparatus 10 in order to perform image processing in the present embodiment. Control. Further, the control unit 21 performs control for causing the display unit 23 to display various screens for executing image processing in the present embodiment. Further, the control unit 21 reads various information and programs necessary for the present embodiment from the recording medium 34 via the drive device 25, and stores information such as results and progress of execution of processing in the present embodiment on the recording medium 34. Control for writing, etc. The control unit 21 includes, for example, a central processing unit (CPU).

通信部22は、インターネットやLocal Area Network(LAN)等に代表される通信ネットワークを用いて、外部装置と接続してデータの送受信等を行う。なお、通信部22は、外部装置と接続し、例えば新聞や雑誌等の文書画像情報等を取得することもできる。   The communication unit 22 uses a communication network typified by the Internet or a local area network (LAN) to connect to an external device and perform data transmission / reception. The communication unit 22 can also connect to an external device and acquire document image information such as newspapers and magazines.

また、通信部22は、通信ネットワークを通じて外部端末から本実施形態における画像処理プログラムや入力情報等を取得したり、画像処理の実行結果や経過等の情報を外部装置に送信することができる。   In addition, the communication unit 22 can acquire the image processing program, input information, and the like in the present embodiment from an external terminal through a communication network, and can transmit information such as the execution result and progress of the image processing to the external device.

主記憶部23は、実行プログラム等を格納する。なお、主記憶部23は、例えばRead Only Memory(ROM)やRandom Access Memory(RAM)等のメモリ等からなる。本実施形態では、例えば処理対象の全体画像等が主記憶部23に記憶されて画像処理等が行われる。   The main storage unit 23 stores an execution program and the like. Note that the main storage unit 23 includes a memory such as a read only memory (ROM) or a random access memory (RAM). In the present embodiment, for example, the entire image to be processed is stored in the main storage unit 23 and image processing or the like is performed.

補助記憶部24は、例えばハードディスク等のストレージ手段であり、実行プログラムやコンピュータに設けられた制御プログラム等を蓄積し、必要に応じて入出力を行うことができる。また、補助記憶部24は、画像処理を行う前の全体画像や処理結果としての部分画像も記憶することができる。また、補助記憶部24は、全体画像が大きなデータである場合に、主記憶部に23で記憶しきれない画像を部分的に記憶することができる。   The auxiliary storage unit 24 is a storage unit such as a hard disk, for example. The auxiliary storage unit 24 stores an execution program, a control program provided in a computer, and the like, and can perform input / output as necessary. The auxiliary storage unit 24 can also store an entire image before image processing and a partial image as a processing result. Further, the auxiliary storage unit 24 can partially store an image that cannot be stored in the main storage unit 23 when the entire image is large data.

ドライブ装置25は、例えば本実施形態における画像処理等の実行プログラムが記録された記録媒体34をセットすることができる。また、ドライブ装置25は、制御部21の制御により、記録媒体34に含まれる実行プログラムを読み出し、補助記憶部24に出力してインストールさせる。また、ドライブ装置25は、制御部21の制御によりドライブ装置25を介して記録媒体34に各種データを書き込むこともできる。   The drive device 25 can set a recording medium 34 on which an execution program such as image processing in the present embodiment is recorded. In addition, the drive device 25 reads the execution program included in the recording medium 34 under the control of the control unit 21, and outputs it to the auxiliary storage unit 24 for installation. The drive device 25 can also write various data to the recording medium 34 via the drive device 25 under the control of the control unit 21.

画像入力部31は、スキャナ装置やデジタルカメラ(撮像手段)等である。具体的には、画像入力部31は、部分画像を生成するための全体画像を入力する。つまり、図3の構成は、例えばスキャナ等の画像入力部31によって取得した文書画像等の全体画像を対象として画像処理を行うものであるが、これに限定されるものではなく、例えば記録媒体34等から全体画像等を取得してもよい。   The image input unit 31 is a scanner device, a digital camera (imaging means), or the like. Specifically, the image input unit 31 inputs an entire image for generating a partial image. That is, the configuration of FIG. 3 performs image processing on the entire image such as a document image acquired by the image input unit 31 such as a scanner, but is not limited to this. The whole image or the like may be acquired from the above.

座標入力部32は、全体画像から部分画像を生成するために、ユーザ等により指定されるユーザ指定領域(トリミング領域)の位置を予め設定された画像上の座標値で入力するものである。座標入力部32としては、例えばPersonal Computer(PC)であれば、マウスやペン等からなり、また携帯電話やスマートフォン等の携帯情報端末であれば、ユーザの指により指定されるタッチパネル等からなるがこれに限定されるものではない。   The coordinate input unit 32 inputs the position of a user-designated area (trimming area) designated by the user or the like as a preset coordinate value on the image in order to generate a partial image from the entire image. As the coordinate input unit 32, for example, a personal computer (PC) includes a mouse and a pen, and a mobile information terminal such as a mobile phone and a smartphone includes a touch panel specified by a user's finger. It is not limited to this.

表示部33は、本実施形態における画像処理を実現するための入力画像や、ユーザ指定領域、各種設定情報、実行結果、実行経過等を表示する。これらの表示内容は、制御部21により制御される。表示部33は、例えばディスプレイやモニタ等からなる。本実施形態では、表示部33の表示される文書画像等の全体画像に対してユーザが対象領域を指定することができる。   The display unit 33 displays an input image for realizing the image processing in the present embodiment, a user specified area, various setting information, an execution result, an execution progress, and the like. These display contents are controlled by the control unit 21. The display unit 33 includes, for example, a display or a monitor. In the present embodiment, the user can specify a target area for an entire image such as a document image displayed on the display unit 33.

記録媒体34は、例えば、Universal Serial Bus(USB)メモリやCD−ROM等の可搬型の記録媒体である。記録媒体34には、例えば、画像処理装置10等のコンピュータ本体にインストールされる実行プログラム等の各種情報が記録されている。記録媒体34は、ドライブ装置25にセットされて、予め記録された各種情報を読み出されたり、実行結果や実行経過等が書き込まれる。また、記録媒体34は、画像処理を行う前の全体画像や処理結果としての部分画像も記録することができる。これらの記録は、制御部21の制御によりドライブ装置25を介して行われる。   The recording medium 34 is a portable recording medium such as a Universal Serial Bus (USB) memory or a CD-ROM. In the recording medium 34, for example, various information such as an execution program installed in a computer main body such as the image processing apparatus 10 is recorded. The recording medium 34 is set in the drive device 25, and various information recorded in advance is read out, and an execution result and an execution progress are written. The recording medium 34 can also record an entire image before image processing and a partial image as a processing result. These recordings are performed via the drive device 25 under the control of the control unit 21.

なお、図3に示す画像入力部31及び座標入力部32は、上述した図2に示す画像入力手段11及び領域指定手段12として画像処理装置10内に有していてもよい。   Note that the image input unit 31 and the coordinate input unit 32 illustrated in FIG. 3 may be included in the image processing apparatus 10 as the image input unit 11 and the region designation unit 12 illustrated in FIG. 2 described above.

本実施形態では、上述したようなハードウェア構成により、本実施形態における画像処理を実行することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で画像処理を容易に実現することができる。   In the present embodiment, the image processing in the present embodiment can be executed with the hardware configuration described above. Further, by installing the program, image processing can be easily realized by a general-purpose personal computer or the like.

<ブロック領域判定手段:第1実施例>
次に、上述したブロック領域判定手段13の第1実施例について図を用いて説明する。図4は、第1実施例におけるブロック領域判定手段の機能構成を示す図である。図4におけるブロック領域判定手段13は、細密度パラメータ設定手段41と、レイアウト解析手段42と、ブロック領域分類手段43と、ブロック領域確定手段44と、繰り返し制御手段45とを有する。
<Block area determination means: first embodiment>
Next, a first embodiment of the block area determination means 13 will be described with reference to the drawings. FIG. 4 is a diagram showing a functional configuration of the block area determination means in the first embodiment. 4 has fine density parameter setting means 41, layout analysis means 42, block area classification means 43, block area determination means 44, and repetition control means 45.

細密度パラメータ設定手段41は、例えば画像入力手段11から得られた全体画像に対して1又は複数のブロック領域として認識するためのレイアウト解析パラメータとして、細密度パラメータを設定する。具体的には、細密度パラメータ設定手段41は、ブロック領域の区切りを予め所定幅及び所定長さの空白部を用いて追跡するため、その条件となる幅及び長さを細密度パラメータとして設定する。なお、細密度パラメータの具体例については、後述する。   The fine density parameter setting unit 41 sets the fine density parameter as a layout analysis parameter for recognizing the entire image obtained from the image input unit 11 as one or a plurality of block areas, for example. Specifically, the fine density parameter setting means 41 sets the width and length as the conditions as the fine density parameter in order to track the block area delimiter using a blank portion having a predetermined width and a predetermined length in advance. . A specific example of the fine density parameter will be described later.

レイアウト解析手段42は、処理対象の全体画像に対して細密度パラメータ設定手段41により設定されたパラメータに基づいて、レイアウト解析を行い、その解析結果から全体画像を1又は複数のブロック領域として認識する。なお、レイアウト解析手段42は、画像の全体に対してレイアウト解析を行ってもよく、また上述した領域指定手段12により指定されたユーザ指定領域の座標を基準とし、ユーザ指定領域の外側の所定の範囲を含む領域を対象にレイアウト解析を行ってもよい。これにより、ユーザ指定領域の外側の所定の範囲のみをレイアウト解析する場合には、レイアウト解析を迅速に行うことができる。   The layout analysis unit 42 performs layout analysis on the entire image to be processed based on the parameters set by the fine density parameter setting unit 41, and recognizes the entire image as one or a plurality of block regions from the analysis result. . Note that the layout analysis unit 42 may perform layout analysis on the entire image. The layout analysis unit 42 may perform a predetermined analysis on the outside of the user specified region with reference to the coordinates of the user specified region specified by the region specifying unit 12 described above. Layout analysis may be performed on a region including a range. As a result, layout analysis can be quickly performed when layout analysis is performed only on a predetermined range outside the user-specified area.

ブロック領域分類手段43は、レイアウト解析手段42により得られる解析結果のブロック領域毎に、ユーザ指定領域と比較し、上述した第1〜第3のブロック領域のうち、何れかのブロック領域に分類する(第1のブロック判定)。ここで、ブロック領域とユーザ指定領域との比較については、例えばレイアウト解析時に得られるブロック領域の位置(例えば、座標等)と、領域指定時に設定されるユーザ指定領域の位置(例えば、座標等)とを比較する。また、第1〜第3のブロック領域への分類については、例えば上述した位置から、ブロック領域がどの程度ユーザ指定領域内に含まれているかを判定することで分類を行う。   The block area classification unit 43 compares each block area of the analysis result obtained by the layout analysis unit 42 with the user-specified area and classifies it into any one of the above-described first to third block areas. (First block determination). Here, for comparison between the block area and the user-specified area, for example, the position of the block area (for example, coordinates) obtained at the time of layout analysis and the position of the user-specified area set at the time of area specification (for example, coordinates) And compare. The classification into the first to third block areas is performed by determining how much the block area is included in the user designated area from the above-described position, for example.

ブロック領域確定手段44は、ブロック領域分類手段43により確定したブロック領域をそれぞれの分類結果と共に部分画像生成手段14に出力する。   The block area determining unit 44 outputs the block areas determined by the block area classifying unit 43 to the partial image generating unit 14 together with the respective classification results.

繰り返し制御手段45は、ブロック領域分類手段43による分類結果で第3のブロック領域が存在する場合に、第3のブロック領域に対してのみ、細密度パラメータの値を変更して再度レイアウト解析を行う。更に、繰り返し制御手段45は、再度のレイアウト解析結果により得られるブロック領域に対してブロック領域分類手段43による第1〜第3のブロック領域への再分類(第2のブロック判定)を行わせるための繰り返し制御を行う。   When the third block area exists as a result of the classification by the block area classification unit 43, the iterative control unit 45 changes the value of the fine density parameter and performs the layout analysis again only for the third block area. . Further, the repeat control unit 45 causes the block area obtained by the second layout analysis result to be reclassified into the first to third block areas (second block determination) by the block area classifying unit 43. Repeat control.

つまり、第1実施例では、レイアウト解析パラメータとしての細密度パラメータの値を変更しながら、第3のブロック領域についての再判定(再分類化)を、例えば所定の終了条件を満たすまで繰り返し行い、第1のブロック領域又は第2のブロック領域に何れかに分類させる。   That is, in the first embodiment, while changing the value of the fine density parameter as the layout analysis parameter, re-determination (re-classification) for the third block region is repeatedly performed until, for example, a predetermined end condition is satisfied, It is classified into either the first block area or the second block area.

なお、所定の終了条件とは、例えば所定回数(例えば、上限値)に達するまで、又は第3のブロック領域がなくなるまで等があるが、これに限定されるものではない。また、上述した所定回数に達する場合には、その時点での第1ブロック領域と第2ブロック領域と第3ブロック領域とを出力してもよく、その時点で、第1のブロック領域の集合のみを出力してもよい。また、第3ブロックが存在する場合には、エラーメッセージやユーザ指定領域の最入力を要求するメッセージ等をユーザに通知する処理を行ってもよい。   The predetermined termination condition includes, for example, until a predetermined number of times (for example, an upper limit value) is reached, or until the third block area disappears, but is not limited thereto. When the predetermined number of times described above is reached, the first block area, the second block area, and the third block area at that time may be output, and at that time, only the first block area set is output. May be output. Further, when the third block exists, a process of notifying the user of an error message, a message requesting the most input of the user designated area, or the like may be performed.

<細密度パラメータと、細密度パラメータによる領域分類の具体例>
ここで、細密度パラメータと、細密度パラメータによる領域分類の具体例について説明する。図5は、セパレータによるレイアウト解析結果の一例を示す図である。また、図6は、細密度パラメータの具体例を示す図である。また、図7は、空白セパレータの抽出の一例を示す図である。なお、図5(A)〜(C)は、一例として、それぞれが新聞記事等の文書画像を示す。
<Fine density parameters and specific examples of region classification based on fine density parameters>
Here, a fine density parameter and a specific example of region classification based on the fine density parameter will be described. FIG. 5 is a diagram illustrating an example of a layout analysis result by the separator. FIG. 6 is a diagram showing a specific example of the fine density parameter. FIG. 7 is a diagram illustrating an example of extraction of a blank separator. 5A to 5C show document images such as newspaper articles, as an example.

例えば、上述したレイアウト解析手段42は、図5(A)に示す入力画像に対し、全体画像に含まれる罫線切り出し処理によって画像中から罫線を検出し、更に空白領域検出処理によってブロックを分割する空白領域を検出する。上述した罫線及び空白領域は、領域同士を分けるセパレータとして働き、例えば図5(B)に示すように罫線のセパレータ(黒い矩形)と空白のセパレータ(白い矩形)とを取得することができる。したがって、第1実施例では、これらのセパレータによって画像を分割し、各分割領域で背景以外の画素が存在する領域を囲むことで、図5(C)の太線枠に示すようなブロック領域を認識することができる。   For example, the layout analysis unit 42 described above detects a ruled line from the image by a ruled line cutout process included in the entire image, and further divides a block by a blank area detection process for the input image shown in FIG. Detect areas. The ruled line and the blank area described above function as a separator that separates the areas, and for example, as shown in FIG. 5B, a ruled line separator (black rectangle) and a blank separator (white rectangle) can be acquired. Therefore, in the first embodiment, an image is divided by these separators, and a block area as shown by a thick line frame in FIG. 5C is recognized by enclosing an area where pixels other than the background exist in each divided area. can do.

ここで、例えば空白矩形を抽出する処理は、所定幅以上で所定長さ以上の空白部を追跡する。この所定幅や所定長さが、一定値の場合や不適切な値の場合には、レイアウト解析の結果は大きく変わってしまう。そこで、第1実施例では、レイアウト解析パラメータとして、細密度パラメータという値を用い、例えば所定幅等の値を変化させる。なお、第1実施例では、所定幅のみを異なる値に変更し、所定長さは一定値とするが、これに限定されるものではなく、例えば所定幅及び所定長さを異なる値に変更してもよく、所定幅を一定値とし、所定長さのみを異なる値に変更してもよい。   Here, for example, in the process of extracting a blank rectangle, a blank portion having a predetermined width or more and a predetermined length or more is traced. When the predetermined width or predetermined length is a constant value or an inappropriate value, the result of layout analysis changes greatly. Therefore, in the first embodiment, a value called a fine density parameter is used as a layout analysis parameter, and a value such as a predetermined width is changed. In the first embodiment, only the predetermined width is changed to a different value, and the predetermined length is a constant value. However, the present invention is not limited to this. For example, the predetermined width and the predetermined length are changed to different values. Alternatively, the predetermined width may be a constant value, and only the predetermined length may be changed to a different value.

具体的には、図6に示すように、細密度パラメータのレベルを1から5まで増加させると、空白矩形の所定幅は30画素から10画素へと所定画素数単位(例えば、5画素)に減少するというような設定を用いる。なお、レベルの種類については、図6に限定されるものではない。また、所定画素数については、5画素に限定されるものではなく、また所定画素数単位でなくてもよく、任意に所定幅を変更することができる。第1実施例では、上述したように細密度パラメータのレベルに幅を持たせておくことで、適切なブロック領域の分割を行うことができる。   Specifically, as shown in FIG. 6, when the level of the fine density parameter is increased from 1 to 5, the predetermined width of the blank rectangle is increased from 30 pixels to 10 pixels in a predetermined number of pixels (for example, 5 pixels). Use a setting that decreases. The type of level is not limited to that shown in FIG. Further, the predetermined number of pixels is not limited to five pixels, and may not be a predetermined number of pixels, and the predetermined width can be arbitrarily changed. In the first embodiment, as described above, it is possible to divide an appropriate block region by giving a range to the fine density parameter level.

なお、上述したようにセパレータを用いて領域を分割し、分割された領域を各ブロック領域として認識する手法では、どの程度の大きな空白をセパレータとみなすかを決定しなければならない。その場合には、例えば空白のセパレータとして、図7に示すように、複数の空白矩形の集合R(i=1,・・・,n)から極大空白矩形を求めて、空白矩形のサイズが所定の値(パラメータ)に達したところで終了する。これにより、空白のセパレータを、適切に抽出することができる。つまり、上述の手法を用いた場合には、セパレータを抽出する画素サイズのパラメータを小さくすることで、より小さなレイアウト要素が得られるようになる。 Note that, as described above, in the method of dividing a region using a separator and recognizing the divided region as each block region, it is necessary to determine how much white space is regarded as a separator. In that case, for example, as a blank separator, as shown in FIG. 7, a maximum blank rectangle is obtained from a set R i (i = 1,..., N) of a plurality of blank rectangles, and the size of the blank rectangle is determined. The process is terminated when a predetermined value (parameter) is reached. Thereby, a blank separator can be extracted appropriately. That is, when the above method is used, a smaller layout element can be obtained by reducing the pixel size parameter for extracting the separator.

図8は、レイアウト解析パラメータによる動作の違いについて説明するための図である。上述したように、画像で空白矩形を抽出してブロック領域を分割する手法において、図8(A)に示すように、細密度パラメータが小さい場合には、タイトル(右側A列)と本文とに分割される。一方、図8(B)に示すように、細密度パラメータが大きい場合には、行間の狭い空白まで抽出されるため、ブロック領域はより細かく分割される。このように、第1実施例では、細密度パラメータを変更することによって大きなブロック領域をより細かく分割することができる。   FIG. 8 is a diagram for explaining a difference in operation depending on layout analysis parameters. As described above, in the method of extracting a block rectangle by extracting a blank rectangle from an image, as shown in FIG. 8A, when the fine density parameter is small, the title (right A column) and the text are divided. Divided. On the other hand, as shown in FIG. 8B, when the fine density parameter is large, a narrow space between lines is extracted, so that the block region is divided more finely. As described above, in the first embodiment, a large block area can be divided more finely by changing the fine density parameter.

<ブロック領域分類手段による分類例>
ここで、上述したブロック領域分類手段43による第1〜第3のブロック領域の分類例について図を用いて説明する。図9は、第1実施例におけるブロック領域の分類例を示す図である。
<Example of classification by block area classification means>
Here, a classification example of the first to third block areas by the block area classification means 43 described above will be described with reference to the drawings. FIG. 9 is a diagram illustrating a classification example of block areas in the first embodiment.

図9に示す例では、全体画像50に対して、ユーザが指定したユーザ指定領域51と、レイアウト解析により得られたブロック領域52との比較により、ブロック領域52がどのように分類されるかについて説明する。図9において、ブロック領域分類手段43は、まずユーザ指定領域51の位置と判定対象のブロック領域52の位置とを用いて重なり面積を求める。また、ブロック領域分類43は、予め2つの閾値を設定しておく。   In the example shown in FIG. 9, how the block area 52 is classified by comparing the user-specified area 51 specified by the user and the block area 52 obtained by the layout analysis with respect to the entire image 50. explain. In FIG. 9, the block area classifying unit 43 first obtains an overlapping area using the position of the user designated area 51 and the position of the block area 52 to be determined. The block area classification 43 has two threshold values set in advance.

次に、ブロック領域分類手段43は、求めた重なり面積と第1の閾値とを比較し、ブロック領域全体に対する重なり面積の比率が第1の閾値(例えば、85%)以上の場合に、ブロック領域52を第1のブロック領域と判断する。また、ブロック領域分類43は、ブロック領域全体に対する重なり面積の比率が第2の閾値(例えば、10%)以下の場合に、ブロック領域52を第2のブロック領域に分類する。更に、第1及び第2の閾値により、第1のブロック領域又は第2のブロック領域に属さない場合に、ブロック領域52を未確定領域として第3のブロック領域に分類する。なお、上述した第1の閾値及び第2の閾値は、全体画像の内容やレイアウト解析によるブロックサイズ、ブロック数等に応じて適宜変更することができる。このように、ブロック領域分類手段43は、ユーザ指定領域との重なり度合によってブロック領域を分類することができる。   Next, the block area classification unit 43 compares the obtained overlap area with the first threshold value, and if the ratio of the overlap area to the entire block area is equal to or greater than the first threshold value (for example, 85%), the block area 52 is determined as the first block area. The block area classification 43 classifies the block area 52 as the second block area when the ratio of the overlapping area to the entire block area is equal to or less than a second threshold (for example, 10%). Furthermore, when the first and second threshold values do not belong to the first block area or the second block area, the block area 52 is classified as an undetermined area as the third block area. The first threshold value and the second threshold value described above can be changed as appropriate according to the contents of the entire image, the block size by the layout analysis, the number of blocks, and the like. As described above, the block area classification unit 43 can classify the block area based on the degree of overlap with the user-specified area.

<第1実施例における画像処理手順>
ここで、上述した第1実施例における画像処理手順について、フローチャートを用いて説明する。なお、以下に示す画像処理は、例えば画像処理プログラム(ソフトウェア)が図3に示すようなハードウェア資源にインストールされることで協働して実行される処理である。
<Image Processing Procedure in First Embodiment>
Here, the image processing procedure in the first embodiment will be described with reference to a flowchart. Note that the image processing shown below is processing that is executed in cooperation by installing, for example, an image processing program (software) in hardware resources as shown in FIG.

図10は、第1実施例における画像処理の一例を示すフローチャートである。図10に示す例において、画像処理は、部分画像を切り出す対象となる画像を入力し(S01)、S01の処理で入力した画像に対し、ユーザ等により切り出したい部分が指定されたユーザ指定領域を入力する(S02)。   FIG. 10 is a flowchart illustrating an example of image processing in the first embodiment. In the example shown in FIG. 10, in the image processing, an image to be cut out of a partial image is input (S01), and a user designated area in which a portion to be cut out is designated by a user or the like with respect to the image input in the processing of S01. Input (S02).

次に、画像処理は、画像全体を処理対象の領域に設定し(S03)、レイアウト解析パラメータを初期値に設定する(S04)。ここで、レイアウト解析パラメータとは、例えば上述した細密度パラメータを意味するが、これに限定されるものではない。また、初期値とは、例えば上述した細密度パラメータのレベルが一番小さい(所定幅(画素数)が一番大きい)ものを意味するが、これに限定されるものではない。   Next, in the image processing, the entire image is set as a processing target area (S03), and layout analysis parameters are set to initial values (S04). Here, the layout analysis parameter means, for example, the fine density parameter described above, but is not limited thereto. The initial value means, for example, a value with the smallest fine density parameter level (the predetermined width (number of pixels) is the largest), but is not limited to this.

次に、画像処理は、S04の処理で得られたレイアウト解析パラメータに基づいて、レイアウトを解析し(S05)、解析結果として得られる1又は複数のブロック領域を上述した第1〜第3の何れかのブロック領域に分類する(S06)(第1のブロック判定)。なお、S06の処理では、例えば各ブロック領域と、S02の処理で得られたユーザ指定領域との位置情報(例えば、画像上に設定された座標情報等)に基づいて、ユーザ指定領域に含まれる第1のブロック領域と、ユーザ指定領域に含まれない第2のブロック領域と、第1及び第2のブロック領域に属さない第3のブロック領域(未確定領域)とに分類する。また、画像処理は、S06の処理で得られた第1のブロック領域と、第2のブロック領域を確定する(S07)。   Next, in the image processing, the layout is analyzed based on the layout analysis parameter obtained in the process of S04 (S05), and one or a plurality of block areas obtained as an analysis result are any of the first to third described above. (S06) (first block determination). In the process of S06, for example, based on position information (for example, coordinate information set on the image, etc.) between each block area and the user-specified area obtained in S02, the user-specified area is included. Classification is made into a first block area, a second block area not included in the user-specified area, and a third block area (undetermined area) not belonging to the first and second block areas. In the image processing, the first block area and the second block area obtained by the process of S06 are determined (S07).

次に、画像処理は、第1のブロック領域又は第2のブロック領域に属さない第3のブロック領域(未確定領域)が存在するか否かを判断する(S08)。ここで、画像処理は、第3のブロック領域が存在する場合(S08において、YES)、繰り返し回数が予め設定された上限値に達したか否かを判断する(S09)。また、画像処理は、繰り返し回数が上限値に達していない場合(S09において、NO)、第3のブロック領域を処理対象の領域に設定する(S10)。また、画像処理は、レイアウト解析パラメータを細密度が高い値(すなわち、所定幅(画素数)が小さいパラメータ)に更新して(S11)、S05の処理に戻り、再度レイアウト解析と、ブロック領域の再分類化を行う(第2のブロック判定)。   Next, the image processing determines whether there is a third block area (undefined area) that does not belong to the first block area or the second block area (S08). Here, in the image processing, when the third block area exists (YES in S08), it is determined whether or not the number of repetitions reaches a preset upper limit value (S09). In the image processing, when the number of repetitions has not reached the upper limit (NO in S09), the third block area is set as a processing target area (S10). In the image processing, the layout analysis parameter is updated to a value with a high fine density (that is, a parameter having a small predetermined width (number of pixels)) (S11), and the process returns to the process of S05. Reclassification is performed (second block determination).

また、画像処理は、第3のブロック領域が存在しない場合(S08において、NO)、又は繰り返し回数が上限値に達している場合(S09において、YES)、その時点で得られている第1のブロック領域の集合から部分画像を生成し(S12)、生成した部分画像を出力する(S13)。   Further, in the image processing, if the third block area does not exist (NO in S08), or if the number of repetitions has reached the upper limit (YES in S09), the first obtained at that time point A partial image is generated from the set of block areas (S12), and the generated partial image is output (S13).

すなわち、第1実施例では、ユーザが指定した領域と境界線が一致していないブロック領域(つまり、第3のブロック領域)を、細密度パラメータの変更によって、より細かく分割することにより、適切な部分画像を取得することができる。   In other words, in the first embodiment, a block area whose boundary line does not coincide with the area specified by the user (that is, the third block area) is divided more finely by changing the fine density parameter. A partial image can be acquired.

上述した第1の実施例では、パラメータを再設定することによってレイアウト解析の細分化の程度を制御することができる。そのため、ユーザ指定領域と合致していないレイアウト要素(ブロック領域)については、このパラメータをより細分化する方向に変更してレイアウト解析を再実行することにより、適切な部分画像を取得することができる。   In the first embodiment described above, the degree of subdivision of the layout analysis can be controlled by resetting the parameters. For this reason, for layout elements (block areas) that do not match the user-specified area, an appropriate partial image can be acquired by changing this parameter to a more subdivided direction and re-executing the layout analysis. .

なお、上述の例では、細密度パラメータの使用方法として、所定幅(画素数)を段階的に減少させる例について説明したが、これに限定されるものではない。具体的には、第1実施例では、例えば最初に所定幅(画素数)を小さくし、それを段階的に増加させることで、最初に得られる小さなブロック領域を順に統合することによってレイアウト解析を行うことができる。   In the above-described example, the example in which the predetermined width (the number of pixels) is decreased stepwise has been described as a method for using the fine density parameter. However, the present invention is not limited to this. Specifically, in the first embodiment, for example, the predetermined width (number of pixels) is first reduced and then increased stepwise so that layout analysis is performed by sequentially integrating the small block regions obtained first. It can be carried out.

図11は、第1実施例におけるグループ統合によるレイアウト解析の一例を示す図である。レイアウト解析手段42は、図11に示すように、例えば文字等の小さな領域を設定し、これらの領域を統合して大きな領域を生成することによってレイアウトを解析することができる。例えば、図11の例では、文字単位に分割し(図11(A))、所定幅(画素数)を段階的に増加させ、所定の距離以内にある隣接文字を行として統合し(図11(B))、更に所定の距離以内にある複数の行についても同様の処理を行って領域を統合する。これにより、第1実施例では、図11(C)に示すようなブロック領域を生成することができる。   FIG. 11 is a diagram illustrating an example of layout analysis by group integration in the first embodiment. As shown in FIG. 11, the layout analysis unit 42 can analyze a layout by setting a small region such as a character and integrating these regions to generate a large region. For example, in the example of FIG. 11, the character is divided into character units (FIG. 11A), the predetermined width (number of pixels) is increased stepwise, and adjacent characters within a predetermined distance are integrated as rows (FIG. 11). (B)) Further, the same processing is performed for a plurality of rows within a predetermined distance to integrate the regions. Thereby, in the first embodiment, a block area as shown in FIG. 11C can be generated.

なお、図11に示す手法を用いる場合には、例えば隣接する文字や行を統合するか否かを、所定のパラメータ等を用いて判定する。具体的には、例えば「文字間の間隔がそれぞれの文字サイズの平均値の50%よりも小さい場合に統合する」というような基準を設定したとする。この場合には、「それぞれの文字サイズの平均値の50%よりも小さい」というレイアウト解析パラメータに基づいて、レイアウト解析を行う。また、上述の例では、50%という数値を大きくすれば、より大きなレイアウト要素が得られることになる。   When using the method shown in FIG. 11, for example, whether or not adjacent characters and lines are to be integrated is determined using a predetermined parameter or the like. Specifically, for example, it is assumed that a standard such as “integration when the interval between characters is smaller than 50% of the average value of each character size” is set. In this case, layout analysis is performed based on the layout analysis parameter “smaller than 50% of the average value of each character size”. In the above example, if the value of 50% is increased, a larger layout element can be obtained.

また同様に、行と行とを統合する場合には、例えば「行間の間隔が、行の高さの平均値の70%よりも小さい場合に行を統合する」等のように、上述と同様にパラメータを設定することができる。   Similarly, in the case of integrating the rows, for example, “the rows are integrated when the interval between the rows is smaller than 70% of the average value of the row heights”, and the like. Parameters can be set.

<ユーザ指定領域の再入力指示の具体例>
また、上述した第1実施例では、レイアウト解析パラメータを異なる値に変更させながら所定回数繰り返しても未確定領域(第3のブロック領域)が存在する場合がある。そのような場合に、第1実施例では、ユーザ指定領域の再入力を要求するメッセージをユーザに通知する処理を行うこともできる。
<Specific example of re-input instruction for user specified area>
In the first embodiment described above, there is a case where an undetermined region (third block region) exists even if the layout analysis parameter is changed to a different value and repeated a predetermined number of times. In such a case, in the first embodiment, it is possible to perform processing for notifying the user of a message requesting re-input of the user designated area.

ここで、図12は、ユーザ指定領域の再入力を促す画面の一例を示す図である。なお、図12(A)は、PC等のディスプレイ(大画面)における表示例を示し、図12(B)は、例えば携帯端末等の小画面における表示例を示している。   Here, FIG. 12 is a diagram illustrating an example of a screen that prompts re-input of the user-specified area. 12A shows a display example on a display (large screen) such as a PC, and FIG. 12B shows a display example on a small screen such as a portable terminal.

例えば、所定回数繰り返しても第3のブロック領域が存在する場合には、ユーザに領域の再入力を要求する画面を表示部33に表示する。   For example, if the third block area exists even after repeating a predetermined number of times, a screen requesting the user to re-enter the area is displayed on the display unit 33.

例えば図12(A)に示すPCのディスプレイのような大きな画面60の場合には、第3のブロック領域のみ原画像を残し、それ以外は確定した領域として塗り潰して(図12(A)−(2))、ユーザに再入力を要求する。この場合、ユーザへの要求メッセージ61は、第3のブロック領域が隠れることがないように、例えば画面60中に表示される全体画像62の外側に表示するのが好ましい(図12(A)−(3))が、表示位置や内容についてはこれに限定されるものではない。また、図12(B)に示す携帯電話等の小さな画面63の場合には、座標を詳細に入力できるように、例えば確定したブロック領域は表示せず、領域を再入力するブロック領域64のみを拡大表示することができる。また、ユーザへの要求メッセージ65は、画面63の下部に短い文章で表示するのが好ましい(図12(B)−(3))が、表示位置や内容についてはこれに限定されるものではない。   For example, in the case of a large screen 60 such as a PC display shown in FIG. 12A, the original image is left only in the third block area, and the other areas are filled as defined areas (FIG. 12A- ( 2)), request the user to input again. In this case, the request message 61 to the user is preferably displayed, for example, outside the entire image 62 displayed in the screen 60 so that the third block area is not hidden (FIG. 12A). (3)), however, the display position and contents are not limited to this. Further, in the case of a small screen 63 such as a cellular phone shown in FIG. 12B, for example, a block area that has been confirmed is not displayed and only a block area 64 for re-inputting the area is displayed so that coordinates can be input in detail. It can be enlarged. The request message 65 to the user is preferably displayed with a short sentence at the bottom of the screen 63 (FIGS. 12B to 12), but the display position and contents are not limited to this. .

このように、ユーザ指定領域の再入力をさせることで、未確定となる領域をなくして、より適切な部分画像を生成することができる。なお、上述した要求メッセージ61,65は、音声等により出力されてもよい。   As described above, by re-inputting the user-specified area, it is possible to eliminate the area that is not confirmed and generate a more appropriate partial image. Note that the request messages 61 and 65 described above may be output by voice or the like.

<第1実施例により得られる部分画像の具体例>
ここで、上述した第1実施例により得られる部分画像の具体例について図を用いて説明する。図13は、第1実施例により得られる部分画像の具体例を説明するための図である。
<Specific Example of Partial Image Obtained by First Example>
Here, a specific example of the partial image obtained by the first embodiment will be described with reference to the drawings. FIG. 13 is a diagram for explaining a specific example of the partial image obtained by the first embodiment.

第1実施例では、対象となる全体画像70に対して、例えばユーザが図13(A)のようなユーザ指定領域71を指定する。また、第1実施例では、レイアウト解析によって図13(B)のようなブロック領域72−1〜72−5が得られたとする。次に、第1実施例では、ユーザ指定領域71の内部にあるブロック領域72−1〜72−3(斜線の領域)と、外部にあるブロック領域72−5(白塗りの領域)とを分類する。   In the first embodiment, for example, the user designates a user designation area 71 as shown in FIG. In the first embodiment, it is assumed that block regions 72-1 to 72-5 as shown in FIG. 13B are obtained by layout analysis. Next, in the first embodiment, the block areas 72-1 to 72-3 (shaded area) inside the user-specified area 71 and the block area 72-5 (white area) outside are classified. To do.

この時点で、図13(C)の右下に位置するブロック領域72−4は、ユーザ指定領域の内部か外部かを決めることができず、未確定領域(第3のブロック領域)となっている。そこで、第1実施例では、この未確定領域のみを対象として、再びレイアウト解析を実行する。その場合には、より小さなブロック領域に細分化されるように、レイアウト解析パラメータを変えてレイアウト解析を実行する。   At this time, the block area 72-4 located in the lower right of FIG. 13C cannot be determined whether it is inside or outside the user-specified area, and becomes an undetermined area (third block area). Yes. Therefore, in the first embodiment, the layout analysis is executed again only for this undefined area. In this case, layout analysis is executed by changing layout analysis parameters so that the block area is subdivided.

これにより、第1実施例では、図13(D)に示すように、ブロック領域72−4が更に細かく分割され(ブロック領域72−4a,72−4b)、最終的に図13(E)のように全ての領域がユーザ指定領域の内側と外側の何れかに分類される。したがって、第1実施例では、この内側のブロック領域72−1〜72−4a(図13(E)における斜線の領域)の集合を部分画像として生成することで、図13(F)のように、ユーザが指定した所望する部分画像を得ることができる。   As a result, in the first embodiment, as shown in FIG. 13D, the block area 72-4 is further finely divided (block areas 72-4a and 72-4b), and finally, as shown in FIG. As described above, all the regions are classified as either inside or outside the user-specified region. Therefore, in the first embodiment, a set of the inner block areas 72-1 to 72-4a (shaded areas in FIG. 13E) is generated as a partial image, as shown in FIG. 13F. A desired partial image designated by the user can be obtained.

<ブロック領域判定手段:第2実施例>
次に、上述したブロック領域判定手段の第2実施例について図を用いて説明する。第2実施例は、予め設定した複数のレイアウト解析パラメータを用いて最初から複数のブロック領域判定処理を行い、最終結果を直接取得するものである。
<Block area determination means: second embodiment>
Next, a second embodiment of the block area determination means described above will be described with reference to the drawings. In the second embodiment, a plurality of block area determination processes are performed from the beginning using a plurality of preset layout analysis parameters, and the final result is directly acquired.

図14は、第2実施例におけるブロック領域判定手段の機能構成を示す図である。なお、第2実施例におけるブロック領域判定手段を有する画像処理装置の概略構成については、上述した図2と略同様であるため、ここでの説明は省略する。また、以下の説明において、上述した第1実施例と略同様の動作を行う構成については、同一の符号を付するものとし、ここでの具体的な説明は省略する。   FIG. 14 is a diagram showing a functional configuration of the block area determination means in the second embodiment. Note that the schematic configuration of the image processing apparatus having the block area determination unit in the second embodiment is substantially the same as that in FIG. 2 described above, and thus the description thereof is omitted here. In the following description, components that perform substantially the same operations as those in the first embodiment described above are denoted by the same reference numerals, and detailed description thereof is omitted here.

図14におけるブロック領域判定手段80は、繰り返し制御手段81−1,81−2と、細密度パラメータ設定手段41と、レイアウト解析手段42と、ブロック領域分類手段43と、ブロック領域確定手段44と、重なりブロック削除手段82とを有する。なお、第2実施例のブロック領域判定手段80は、図2に示す画像処理装置10内のブロック領域判定手段13と置き換わるものである。   14 includes a repeat control means 81-1, 81-2, a fine density parameter setting means 41, a layout analysis means 42, a block area classification means 43, a block area determination means 44, And an overlapping block deleting means 82. The block area determination unit 80 of the second embodiment is replaced with the block area determination unit 13 in the image processing apparatus 10 shown in FIG.

第2実施例では、2つの繰り返し制御手段81−1,81−2を有する。繰り返し制御手段81−1は、全体画像に対するレイアウト解析を予め設定された細密度パラメータの全ての条件(レベル)で行うように繰り返し制御を行う。したがって、レイアウト解析手段42により出力されるレイアウト解析結果は、各細密度パラメータを用いて行った複数の解析結果が出力される。   In the second embodiment, two repetitive control means 81-1 and 81-2 are provided. The repetitive control means 81-1 performs repetitive control so that the layout analysis for the entire image is performed under all conditions (levels) of preset fine density parameters. Therefore, as the layout analysis result output by the layout analysis means 42, a plurality of analysis results performed using each fine density parameter are output.

ブロック領域分類手段43は、上述にて出力された複数の解析結果に対してブロック領域分類を行う。また、ブロック領域確定手段44は、上述したブロック領域から第1〜第3の何れかのブロック領域を確定する。   The block area classification unit 43 performs block area classification on the plurality of analysis results output as described above. Further, the block area determination unit 44 determines any one of the first to third block areas from the above-described block areas.

なお、重なりブロック削除手段82は、他の細密度パラメータにより既に第1のブロック領域又は第2のブロック領域であると確定しているブロック領域と重なりがあるブロック領域を削除する。   Note that the overlapping block deletion unit 82 deletes a block area that overlaps with a block area that has already been determined to be the first block area or the second block area by another fine density parameter.

上述した構成により、第2実施例では、第1実施例と異なり、最初から複数の細密度パラメータ(レイアウト解析パラメータ)(例えば、パラメータID=1〜N)でレイアウト解析を行い、その結果から第1〜3の領域を直接取得する。   With the above-described configuration, unlike the first embodiment, the second embodiment performs layout analysis from the beginning with a plurality of fine density parameters (layout analysis parameters) (for example, parameter ID = 1 to N). The areas 1 to 3 are acquired directly.

したがって、第2実施例では、例えば最初にレベルの小さい(所定幅(画素数)の大きい)細密度パラメータを用いて得られた各ブロック領域に対して、上述した第1〜第3のブロック領域に分類する。その後、第2の実施例では、次のパラメータレベルを用いて得られた各ブロック領域に対して、上述した第1〜第3のブロック領域に分類する。つまり、第2の実施例では、例えばパラメータレベルを段階的に大きく(所定幅(画素数)を段階的に小さく)しながら、全てのパラメータレベルを用いて得られた各ブロック領域に対して、上述した第1〜第3のブロック領域に分類する。   Therefore, in the second embodiment, for example, the first to third block areas described above are obtained for each block area obtained using a fine density parameter having a small level (a predetermined width (number of pixels)) at first. Classify into: Thereafter, in the second embodiment, each block area obtained using the following parameter level is classified into the above-described first to third block areas. That is, in the second embodiment, for example, for each block region obtained using all the parameter levels while increasing the parameter level stepwise (decreasing the predetermined width (number of pixels) stepwise) It classify | categorizes into the 1st-3rd block area | region mentioned above.

次に、第2実施例では、細密度パラメータ一番小さい(所定幅の一番大きい)レベルで得られた第1のブロック領域及び第2のブロック領域を確定する。また、第2実施例では、次のパラメータレベルで得られたブロック領域に対する分類結果を用いてブロックを確定する。このとき、第2実施例では、次のレベルの分類結果において、既に第1のブロック領域又は第2のブロック領域が確定しているブロック領域と重なるブロック領域については、そのブロック領域を削除する。   Next, in the second embodiment, the first block area and the second block area obtained at the level where the fine density parameter is the smallest (the largest predetermined width) are determined. In the second embodiment, the block is determined using the classification result for the block area obtained at the next parameter level. At this time, in the second embodiment, in the classification result of the next level, the block area is deleted for the block area that overlaps the block area in which the first block area or the second block area is already determined.

つまり、第2実施例では、確定したブロックと重なりがあるものを削除し、この処理をパラメータの数だけ繰り返すことで、第1のブロック領域を高精度に判定し、適切な部分画像を取得することができる。なお、第2実施例では、パラメータの数だけ繰り返した場合でも第3のブロック領域が存在する場合に、例えば上述したようにユーザに領域の再入力を要求してもよい。   In other words, in the second embodiment, those that overlap with the confirmed block are deleted, and this process is repeated as many times as the number of parameters, whereby the first block area is determined with high accuracy and an appropriate partial image is acquired. be able to. In the second embodiment, even when the number of parameters is repeated, if the third block area exists, the user may be requested to re-input the area as described above, for example.

<第2実施例における画像処理手順>
ここで、上述した第2実施例における画像処理手順について、フローチャートを用いて説明する。なお、以下に示す画像処理は、例えば画像処理プログラム(ソフトウェア)が図3に示すようなハードウェア資源にインストールされることで協働して実行される処理である。
<Image Processing Procedure in Second Embodiment>
Here, the image processing procedure in the second embodiment will be described with reference to a flowchart. Note that the image processing shown below is processing that is executed in cooperation by installing, for example, an image processing program (software) in hardware resources as shown in FIG.

図15は、第2実施例における画像処理の一例を示すフローチャートである。図15に示す例において、画像処理は、部分画像を切り出す対象となる画像を入力し(S21)、S21の処理で入力した画像に対し、ユーザ等により切り出したい部分が指定されたユーザ指定領域を入力する(S22)。   FIG. 15 is a flowchart illustrating an example of image processing in the second embodiment. In the example shown in FIG. 15, in the image processing, an image to be cut out of a partial image is input (S 21), and a user specified area in which a portion to be cut out is specified by a user or the like with respect to the image input in the processing of S 21. Input (S22).

次に、画像処理は、入力された画像全体を処理対象の領域に設定し(S23)、レイアウト解析パラメータを初期値(ID=1)に設定する(S24)。ここで、第2実施例における初期値とは、例えば上述した細密度パラメータのレベルが一番小さい(所定幅(画素数)が一番大きい)ものをID=1として設定するが、これに限定されるものではない。   Next, in the image processing, the entire input image is set as a processing target area (S23), and the layout analysis parameter is set to an initial value (ID = 1) (S24). Here, as the initial value in the second embodiment, for example, the above-described fine density parameter having the smallest level (the largest predetermined width (number of pixels)) is set as ID = 1, but is not limited thereto. Is not to be done.

次に、画像処理は、S24の処理で得られたレイアウト解析パラメータに基づいて、レイアウトを解析し、その結果をバッファ等へ格納する(S25)。なお、バッファは、レイアウト解析手段42等に設けられていてもよく、バッファ用の記憶手段を有していてもよい。   Next, in the image processing, the layout is analyzed based on the layout analysis parameter obtained in the processing of S24, and the result is stored in a buffer or the like (S25). The buffer may be provided in the layout analysis unit 42 or the like, and may have a buffer storage unit.

次に、画像処理は、全パラメータで解析を行ったか否か(ID==N?)を判断し(S26)、全パラメータで解析を行っていない場合(S26において、NO)、次のパラメータ(ID=ID+1)を設定し(S27)S25の処理に戻る。また、画像処理は、全パラメータで解析を行った場合(S26において、YES)、各解析結果から1又は複数のブロック領域に分類する(S28)。なお、S28の処理では、各ブロック領域とS22の処理で得られたユーザ指定領域との位置情報に基づいて、上述した第1のブロック領域と、第2のブロック領域と、第3のブロック領域(未確定領域)とに分類する。   Next, in the image processing, it is determined whether or not analysis is performed with all parameters (ID == N?) (S26). When analysis is not performed with all parameters (NO in S26), the next parameter ( ID = ID + 1) is set (S27) and the process returns to S25. Further, in the image processing, when analysis is performed with all parameters (YES in S26), the image processing is classified into one or a plurality of block regions from each analysis result (S28). In the process of S28, the first block area, the second block area, and the third block area described above based on the position information of each block area and the user-specified area obtained in S22. (Undetermined area).

次に、画像処理は、レイアウト解析パラメータを初期値(ID=1)に設定し(S29)、現在のパラメータIDで分類された第1及び第2のブロック領域の分類を確定する(S30)。次に、画像処理は、確定したブロック領域と重なりのあるブロックを削除する(S31)。なお、S31の処理を最初に行う場合は、まだ繰り返して処理を行っていないため、重なりのあるブロックは存在しない。   Next, in the image processing, the layout analysis parameter is set to an initial value (ID = 1) (S29), and the classification of the first and second block areas classified by the current parameter ID is determined (S30). Next, the image processing deletes a block that overlaps the determined block area (S31). Note that when the process of S31 is performed for the first time, there is no overlapping block because the process has not been repeated yet.

次に、画像処理は、全パラメータで解析したか否か(ID==N?)を判断し(S32)、全パラメータで解析していない場合(S32において、NO)、次のパラメータ(ID=ID+1)を設定し(S33)、S30の処理に戻る。   Next, it is determined whether or not the image processing has been analyzed with all parameters (ID == N?) (S32). If the analysis has not been performed with all parameters (NO in S32), the next parameter (ID = ID + 1) is set (S33), and the process returns to S30.

また、画像処理は、全パラメータで解析した場合(S32において、YES)、第3のブロック領域が存在するか否かを判断する(S34)。画像処理は、第3のブロックが存在する場合(S34において、YES)、ユーザに領域の再入力を要求するメッセージを出力する(S35)。   Further, when the image processing is analyzed with all parameters (YES in S32), it is determined whether or not the third block area exists (S34). When the third block exists (YES in S34), the image processing outputs a message requesting the user to re-enter the area (S35).

また、画像処理は、第3のブロック領域が存在しない場合(S34において、NO)、第1のブロック領域の集合から部分画像を生成し(S36)、生成した部分画像を出力する(S37)。   In the image processing, if the third block area does not exist (NO in S34), a partial image is generated from the set of first block areas (S36), and the generated partial image is output (S37).

すなわち、第2の実施例では、ブロック領域の細かさを変動させながら、ブロック領域を適切に分類させることができ、複数の細密度パラメータを用いた解析結果により、適切な部分領域を抽出することができる。なお、上述したS35の処理については、ユーザからユーザ指定領域が再入力されるまで待機し、再入力された後にS23の処理に戻ってもよい。   That is, in the second embodiment, the block area can be appropriately classified while changing the fineness of the block area, and an appropriate partial area is extracted based on the analysis result using a plurality of fine density parameters. Can do. In addition, about the process of S35 mentioned above, it waits until a user designation | designated area | region is input again, and may return to the process of S23, after being input again.

<ブロック領域判定手段:第3実施例>
次に、上述したブロック領域判定手段の第3実施例について図を用いて説明する。例えば、未確定領域である第3のブロック領域が、例えば図や表、画像等(以下、「図表」と総称する)である場合に、パラメータを変えてもそれ以上細かく分割されることはない。そこで、第3実施例は、第3のブロック領域が図表である場合には、第1のブロック領域又は第2のブロック領域に強制的に分類する。
<Block area determination means: third embodiment>
Next, a third embodiment of the block area determination means described above will be described with reference to the drawings. For example, if the third block area, which is an undetermined area, is, for example, a figure, table, image, or the like (hereinafter collectively referred to as “chart”), it is not further divided even if the parameter is changed . Therefore, in the third embodiment, when the third block area is a chart, it is forcibly classified into the first block area or the second block area.

図16は、第3実施例におけるブロック領域判定手段の機能構成を示す図である。なお、第3実施例におけるブロック領域判定手段を有する画像処理装置の概略構成については、上述した図2と略同様であるため、ここでの説明は省略する。また、以下の説明において、上述した第1実施例と略同様の動作を行う構成については、同一の符号を付するものとし、ここでの具体的な説明は省略する。   FIG. 16 is a diagram showing a functional configuration of the block area determination means in the third embodiment. Note that the schematic configuration of the image processing apparatus having the block area determination unit in the third embodiment is substantially the same as that in FIG. 2 described above, and thus the description thereof is omitted here. In the following description, components that perform substantially the same operations as those in the first embodiment described above are denoted by the same reference numerals, and detailed description thereof is omitted here.

図16におけるブロック領域判定手段90は、細密度パラメータ設定手段41と、レイアウト解析手段42と、ブロック領域分類手段43と、ブロック領域確定手段44と、繰り返し制御手段45と、図表ブロック領域分類手段91とを有する。なお、第3実施例のブロック領域判定手段90は、図2に示す画像処理装置10内のブロック領域判定手段13と置き換わるものである。   16 includes a fine density parameter setting means 41, a layout analysis means 42, a block area classification means 43, a block area determination means 44, a repetition control means 45, and a chart block area classification means 91. And have. The block area determination unit 90 of the third embodiment is replaced with the block area determination unit 13 in the image processing apparatus 10 shown in FIG.

図表ブロック領域分類手段91は、図表を含むブロック領域に対して、ユーザ指定領域との重なり面積(囲み領域内)が、例えば50%以上であれば第1のブロック領域とする。また、図表ブロック領域分類手段91は、図表を含むブロック領域に対して、ユーザ指定領域との重なり面積が、例えば50%未満であれば第2のブロック領域とする。   The chart / block area classification unit 91 determines the first block area if the overlapping area (within the enclosed area) with the user-specified area is 50% or more with respect to the block area including the chart, for example. Further, the chart block region classification unit 91 sets the second block region if the overlapping area with the user designated region is less than 50%, for example, with respect to the block region including the diagram.

つまり、図表ブロック領域分類手段91は、ブロック領域分類手段43において、ブロック領域に図表が含まれていると判断された場合に、そのブロック領域に対して所定の閾値を用いてブロック領域を第1又は第2のブロック領域に強制的に分類する。図表ブロック領域分類手段91は、分類されたブロック領域の情報をブロック領域分類手段43に出力する。これにより、ブロック領域分類手段43は、第3のブロック領域が図表に対応するものであれば、図表ブロック領域分類手段91によって得られる分類結果に基づいて、第1のブロック領域又は第2のブロック領域に強制的に分類することができる。なお、第3のブロック領域が図表であるか否かの判断は、例えば予め画像入力手段11等により入力される画像に図表の位置情報が含まれている場合には、その位置情報に基づいて判断することができるが、これに限定されるものではない。例えば、ブロック領域分類手段43は、入力される画像に対して、予め設定された図表パターンとのパターンマッチングや、人物顔を探す画像解析等を行うことで、ブロック領域内の図表の有無を判断することができる。   That is, when the block area classification unit 43 determines that the block area contains a chart, the chart block area classification unit 91 assigns the block area to the first block area using a predetermined threshold value. Alternatively, it is forcibly classified into the second block area. The chart / block area classifying unit 91 outputs information on the classified block areas to the block area classifying unit 43. Thereby, the block area classification means 43, if the third block area corresponds to the chart, based on the classification result obtained by the chart block area classification means 91, the first block area or the second block It can be forcibly classified into regions. Whether or not the third block area is a chart is determined based on the position information, for example, when the position information of the chart is included in an image input in advance by the image input means 11 or the like. Although it can be determined, it is not limited to this. For example, the block area classification unit 43 determines the presence / absence of a chart in the block area by performing pattern matching with a preset chart pattern, image analysis for searching for a human face, or the like on the input image. can do.

つまり、第3実施例では、ブロック領域に図表が含まれている場合に、そのブロック領域がユーザ指定領域に属するか否かの分類を迅速に行うことができる。また、第3実施例においても上述した実施例と同様に、第3のブロック領域が存在する場合には、レイアウト解析パラメータを異なる値に変更してブロック領域の再判定(再分類化)を行うため、適切な部分領域を抽出することができる。   In other words, in the third embodiment, when a chart is included in the block area, it is possible to quickly classify whether or not the block area belongs to the user designated area. Also in the third embodiment, as in the above-described embodiment, when the third block area exists, the layout analysis parameter is changed to a different value and the block area is re-determined (reclassified). Therefore, an appropriate partial area can be extracted.

<第3実施例における画像処理手順>
ここで、上述した第3実施例における画像処理手順について、フローチャートを用いて説明する。なお、以下に示す画像処理は、例えば画像処理プログラム(ソフトウェア)が図3に示すようなハードウェア資源にインストールされることで協働して実行される処理である。
<Image Processing Procedure in Third Embodiment>
Here, the image processing procedure in the third embodiment will be described with reference to a flowchart. Note that the image processing shown below is processing that is executed in cooperation by installing, for example, an image processing program (software) in hardware resources as shown in FIG.

図17は、第3実施例における画像処理の一例を示すフローチャートである。図17に示す例において、画像処理は、部分画像を切り出す対象となる画像を入力し(S41)、S41の処理で入力した画像に対し、ユーザ等により切り出したい部分が指定されたユーザ指定領域を入力する(S42)。   FIG. 17 is a flowchart illustrating an example of image processing in the third embodiment. In the example shown in FIG. 17, in the image processing, an image to be cut out of a partial image is input (S41), and a user specified area in which a portion to be cut out is specified by a user or the like with respect to the image input in the processing of S41. Input (S42).

次に、画像処理は、画像全体を所定の対象の領域に設定し(S43)、レイアウト解析パラメータを初期値に設定する(S44)。次に、画像処理は、S44の処理で得られたレイアウト解析パラメータに基づいて、レイアウトを解析し(S45)、解析結果として得られる1又は複数のブロック領域を上述した第1〜第3の何れかのブロック領域に分類する(S46)。   Next, in the image processing, the entire image is set as a predetermined target area (S43), and layout analysis parameters are set to initial values (S44). Next, in the image processing, the layout is analyzed based on the layout analysis parameter obtained in the process of S44 (S45), and one or a plurality of block areas obtained as an analysis result are any of the first to third described above. These block areas are classified (S46).

ここで、画像処理は、図表を含むブロック領域が第3のブロック領域に分類されていれば、上述した閾値等を用いて、第1のブロック領域又は第2のブロック領域に分類し(S47)、第1のブロック領域と第2のブロック領域を確定する(S48)。   Here, in the image processing, if the block area including the chart is classified into the third block area, it is classified into the first block area or the second block area using the threshold value described above (S47). The first block area and the second block area are determined (S48).

次に、画像処理は、第1のブロック領域又は第2のブロック領域に属さない第3のブロック領域(未確定領域)が存在するか否かを判断する(S49)。画像処理は、第3のブロック領域が存在する場合(S49において、YES)、繰り返し回数が上限値に達したか否かを判断する(S50)。画像処理は、繰り返し回数が上限値に達していない場合(S40において、NO)、第3のブロック領域を処理対象の領域に設定する(S51)。また、画像処理は、レイアウト解析パラメータを細密度が高い値(すなわち、画素数が小さいパラメータ)に更新して(S52)、S45の処理に戻り、再度レイアウト解析と、ブロック領域の再分類化を行う。   Next, the image processing determines whether there is a third block area (undefined area) that does not belong to the first block area or the second block area (S49). In the image processing, if the third block area exists (YES in S49), it is determined whether or not the number of repetitions has reached the upper limit (S50). In the image processing, when the number of repetitions has not reached the upper limit (NO in S40), the third block area is set as a process target area (S51). In the image processing, the layout analysis parameter is updated to a value with a high fine density (that is, a parameter with a small number of pixels) (S52), and the process returns to the process of S45 to perform layout analysis and block area reclassification again. Do.

また、画像処理は、S50の処理において、繰り返し回数が上限値に達した場合(S50において、YES)、第3のブロックが存在する場合(S34において、YES)、ユーザに領域の再入力を要求するメッセージを出力する(S53)。   Further, in the image processing, when the number of repetitions reaches the upper limit value in the processing of S50 (YES in S50), when there is a third block (YES in S34), the user is requested to re-enter the area. Message is output (S53).

また、画像処理は、S49の処理において、第3のブロック領域が存在しない場合(S49において、NO)、その時点での第1のブロック領域の集合から部分画像を生成し(S54)、生成した部分画像を出力する(S55)。   Further, in the image processing, when the third block area does not exist in the process of S49 (NO in S49), a partial image is generated from the set of the first block areas at that time (S54). A partial image is output (S55).

すなわち、第3実施例では、第3のブロック領域に図表が含まれる場合には、迅速に第1のブロック領域か第2のブロック領域に分類することができるため、部分画像を容易に生成することができる。なお、上述したS53の処理については、ユーザからユーザ指定領域が再入力されるまで待機し、再入力された後にS43の処理に戻ってもよい。   That is, in the third embodiment, when a chart is included in the third block area, it can be quickly classified into the first block area or the second block area, so that a partial image is easily generated. be able to. In addition, about the process of S53 mentioned above, it waits until a user designation | designated area is input again from a user, and after re-inputting, you may return to the process of S43.

ここで、上述した第1〜第3実施例については、組み合わせて適用することもできる。また、上述した各実施例では、1つの画像について1つのユーザ指定領域が設定されていたが、これに限定されるものではなく、1つの画像に複数のユーザ指定領域が設定されていてもよい。その場合には、ユーザ指定領域ごとに、上述した処理が行われ、それぞれの部分画像が出力される。   Here, the first to third embodiments described above can be applied in combination. In each of the embodiments described above, one user designated area is set for one image. However, the present invention is not limited to this, and a plurality of user designated areas may be set for one image. . In that case, the above-described processing is performed for each user-specified area, and each partial image is output.

上述したように、各実施例によれば、所定の画像から指定した領域に対応する適切な部分画像を取得することができる。また、上述した各実施例では、例えばユーザがトリミング(部分切り出し)したい領域を正確に指定しなくても、所望の領域を適切に切り出した部分画像を容易に生成することができる。また、上述した各実施例では、実行するレイアウト解析に誤りがあっても、レイアウト解析パラメータを異なる値に変更してレイアウト解析を再実行することで、より適切な結果を得ることができる。そのため、上述した各実施例は、従来技術と比較して、より適切な領域の部分画像の生成が可能となる。   As described above, according to each embodiment, it is possible to acquire an appropriate partial image corresponding to a specified region from a predetermined image. Further, in each of the above-described embodiments, for example, a partial image in which a desired area is appropriately cut out can be easily generated without specifying the area to be trimmed (partially cut out) accurately. In each of the embodiments described above, even if there is an error in the layout analysis to be executed, a more appropriate result can be obtained by changing the layout analysis parameter to a different value and re-executing the layout analysis. Therefore, in each of the above-described embodiments, it is possible to generate a partial image of a more appropriate region as compared with the related art.

以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形、変更が可能である。   Each embodiment has been described in detail above, but is not limited to a specific embodiment, and various modifications and changes can be made within the scope described in the claims.

なお、以上の実施例に関し、更に以下の付記を開示する。
(付記1)
所定の画像から取得する部分画像の領域を指定し、
画像レイアウトを解析する解析パラメータに基づいて、前記所定の画像を1又は複数のブロック領域として認識し、前記認識した1又は複数のブロック領域と、前記指定した領域とを比較して、前記指定した領域に含まれる第1のブロック領域、前記指定した領域に含まれない第2のブロック領域、及び未確定領域である第3のブロック領域のうちの何れかに分類する第1のブロック判定を行い、
前記第3のブロック領域と判定されたブロック領域に対して、前記解析パラメータを変更し、前記ブロック領域を再認識した後に、前記第1のブロック領域又は前記第2のブロック領域に分類する第2のブロック判定を行い、
前記第1のブロック判定及び前記第2のブロック判定で得られる第1のブロック領域の集合に基づいて部分画像を生成する、処理をコンピュータに実行させるための画像処理プログラム。
(付記2)
前記第2のブロック判定は、所定の終了条件を満足するまで判定を繰り返すことを特徴とする付記1に記載の画像処理プログラム。
(付記3)
所定の画像から取得する部分画像の領域を指定し、
画像レイアウトを解析する解析パラメータを複数用いて、前記所定の画像を1又は複数のブロック領域として認識し、前記認識した1又は複数のブロック領域と、前記指定した領域とを比較して、前記指定した領域に含まれる第1のブロック領域、前記指定した領域に含まれない第2のブロック領域、及び未確定領域である第3のブロック領域のうちの何れかに分類するブロック判定を解析パラメータ毎に行い、
前記解析パラメータ毎のブロック判定結果を用いて、前記第1のブロック領域、前記第2のブロック領域、及び前記第3のブロック領域を確定する際、既に前記第1のブロック領域又は前記第2のブロック領域に確定したブロック領域と重なるブロック領域を削除する、処理をコンピュータに実行させるための画像処理プログラム。
(付記4)
前記解析パラメータとして前記ブロック領域をどの程度の細かさで認識するかを制御するための細密度パラメータを設定することを特徴とする付記1乃至3の何れか1項に記載の画像処理プログラム。
(付記5)
前記細密度パラメータとして、前記ブロック領域間の空白矩形領域の画素数を設定することを特徴とする付記4に記載の画像処理プログラム。
(付記6)
前記ブロック領域全体に含まれる前記指定した領域の比率と、予め設定された閾値とを比較して、前記第1のブロック領域、前記第2のブロック領域、及び前記第3のブロック領域の何れかに分類することを特徴とする付記1乃至5の何れか1項に記載の画像処理プログラム。
(付記7)
前記第3のブロック領域が図表を含むブロック領域である場合に、前記ブロック領域全体に含まれる前記指定した領域の比率に応じて前記第1のブロック領域又は前記第2のブロック領域に分類することを特徴とする付記1乃至6の何れか1項に記載の画像処理プログラム。
(付記8)
第2のブロック判定後に前記第3のブロック領域が存在する場合に、前記部分画像の領域を再指定させる要求を出力することを特徴とする付記1乃至7の何れか1項に記載の画像処理プログラム。
(付記9)
所定の画像から取得する部分画像の領域を指定し、
画像レイアウトを解析する解析パラメータに基づいて、前記所定の画像を1又は複数のブロック領域として認識し、前記認識した1又は複数のブロック領域と、前記指定した領域とを比較して、前記指定した領域に含まれる第1のブロック領域、前記指定した領域に含まれない第2のブロック領域、及び未確定領域である第3のブロック領域のうちの何れかに分類する第1のブロック判定を行い、
前記第3のブロック領域と判定されたブロック領域に対して、前記解析パラメータを変更し、前記ブロック領域を再認識した後に、前記第1のブロック領域又は前記第2のブロック領域に分類する第2のブロック判定を行い、
前記第1のブロック判定及び前記第2のブロック判定で得られる第1のブロック領域の集合に基づいて部分画像を生成する、処理を有することを特徴とする画像処理方法。
(付記10)
所定の画像から取得する部分画像の領域を指定する領域指定手段と、
画像レイアウトを解析する解析パラメータに基づいて、前記所定の画像を1又は複数のブロック領域として認識し、前記認識した1又は複数のブロック領域と、前記領域指定手段により得られる指定領域とを比較して、前記指定領域に含まれる第1のブロック領域、前記指定領域に含まれない第2のブロック領域、及び未確定領域である第3のブロック領域の何れかに分類するブロック領域判定手段と、
前記ブロック領域判定手段により得られる第1のブロック領域の集合に基づいて部分画像を生成する部分画像生成手段とを有し、
前記ブロック領域判定手段は、前記第3のブロック領域と判定されたブロック領域に対して、前記解析パラメータを変更し、前記ブロック領域を再認識した後に、前記第1のブロック領域又は前記第2のブロック領域に分類することを特徴とする画像処理装置。
In addition, the following additional remarks are disclosed regarding the above Example.
(Appendix 1)
Specify a partial image area to be acquired from a given image,
Based on the analysis parameter for analyzing the image layout, the predetermined image is recognized as one or a plurality of block areas, the recognized one or a plurality of block areas are compared with the specified area, and the specified area is specified. The first block determination is performed to classify the block into any one of a first block area included in the area, a second block area not included in the specified area, and a third block area that is an indeterminate area. ,
A second block that is classified into the first block area or the second block area after changing the analysis parameter for the block area determined to be the third block area and re-recognizing the block area. Block judgment of
An image processing program for causing a computer to execute a process of generating a partial image based on a set of first block areas obtained by the first block determination and the second block determination.
(Appendix 2)
The image processing program according to appendix 1, wherein the second block determination is repeated until a predetermined end condition is satisfied.
(Appendix 3)
Specify a partial image area to be acquired from a given image,
Recognizing the predetermined image as one or a plurality of block areas using a plurality of analysis parameters for analyzing an image layout, comparing the recognized one or a plurality of block areas with the designated area, and Block determination to be classified into any one of the first block area included in the specified area, the second block area not included in the specified area, and the third block area that is an indeterminate area for each analysis parameter To
When determining the first block area, the second block area, and the third block area using the block determination result for each analysis parameter, the first block area or the second block area has already been determined. An image processing program for causing a computer to execute a process of deleting a block area overlapping with a block area determined as a block area.
(Appendix 4)
The image processing program according to any one of appendices 1 to 3, wherein a fine density parameter for controlling how finely the block area is recognized is set as the analysis parameter.
(Appendix 5)
The image processing program according to appendix 4, wherein the number of pixels of a blank rectangular area between the block areas is set as the fine density parameter.
(Appendix 6)
One of the first block area, the second block area, and the third block area by comparing a ratio of the designated area included in the entire block area with a preset threshold value. The image processing program according to any one of appendices 1 to 5, wherein the image processing program is classified into:
(Appendix 7)
When the third block area is a block area including a chart, the third block area is classified into the first block area or the second block area according to the ratio of the designated area included in the entire block area. The image processing program according to any one of appendices 1 to 6, characterized by:
(Appendix 8)
The image processing according to any one of appendices 1 to 7, wherein when the third block area exists after the second block determination, a request for re-designating the partial image area is output. program.
(Appendix 9)
Specify a partial image area to be acquired from a given image,
Based on the analysis parameter for analyzing the image layout, the predetermined image is recognized as one or a plurality of block areas, the recognized one or a plurality of block areas are compared with the specified area, and the specified area is specified. The first block determination is performed to classify the block into any one of a first block area included in the area, a second block area not included in the specified area, and a third block area that is an indeterminate area. ,
A second block that is classified into the first block area or the second block area after changing the analysis parameter for the block area determined to be the third block area and re-recognizing the block area. Block judgment of
An image processing method comprising: processing for generating a partial image based on a set of first block areas obtained by the first block determination and the second block determination.
(Appendix 10)
Area designating means for designating an area of a partial image acquired from a predetermined image;
Based on the analysis parameter for analyzing the image layout, the predetermined image is recognized as one or a plurality of block regions, and the recognized one or a plurality of block regions are compared with the designated region obtained by the region designating means. Block area determination means for classifying the block area into any one of a first block area included in the specified area, a second block area not included in the specified area, and a third block area that is an undetermined area;
Partial image generation means for generating a partial image based on a set of first block areas obtained by the block area determination means,
The block area determination means changes the analysis parameter for the block area determined to be the third block area, and after re-recognizing the block area, the first block area or the second block area An image processing apparatus that is classified into block areas.

10 画像処理装置
11 画像入力手段
12 領域指定手段
13,80,90 ブロック領域判定手段
13 部分画像生成手段
21 制御部
22 通信部
23 主制御部
24 補助記憶部
25 ドライブ装置
31 画像入力部
32 座標入力部
33 表示部
34 記録媒体
41 細密度パラメータ設定手段
42,81 繰り返し制御手段
43 ブロック領域分類手段
44 ブロック領域確定手段
45 繰り返し制御手段
50,62,70 全体画像
51,71 ユーザ指定領域
52,64,72 ブロック領域
60,63 画面
61,65 要求メッセージ
82 重なりブロック削除手段
91 図表ブロック領域分類手段
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 11 Image input means 12 Area designation means 13, 80, 90 Block area determination means 13 Partial image generation means 21 Control part 22 Communication part 23 Main control part 24 Auxiliary storage part 25 Drive apparatus 31 Image input part 32 Coordinate input Unit 33 Display unit 34 Recording medium 41 Fine density parameter setting means 42, 81 Repetition control means 43 Block area classification means 44 Block area determination means 45 Repetition control means 50, 62, 70 Whole image 51, 71 User specified areas 52, 64, 72 Block area 60, 63 Screen 61, 65 Request message 82 Overlapping block deletion means 91 Chart block area classification means

Claims (8)

所定の画像から取得する部分画像の領域を指定し、
画像レイアウトを解析する解析パラメータに基づいて、前記所定の画像を1又は複数のブロック領域として認識し、前記認識した1又は複数のブロック領域と、前記指定した領域とを比較して、前記指定した領域に含まれる第1のブロック領域、前記指定した領域に含まれない第2のブロック領域、及び未確定領域である第3のブロック領域のうちの何れかに分類する第1のブロック判定を行い、
前記第3のブロック領域と判定されたブロック領域に対して、前記解析パラメータを変更し、前記ブロック領域を再認識した後に、前記第1のブロック領域又は前記第2のブロック領域に分類する第2のブロック判定を行い、
前記第1のブロック判定及び前記第2のブロック判定で得られる第1のブロック領域の集合に基づいて部分画像を生成する、処理をコンピュータに実行させるための画像処理プログラム。
Specify a partial image area to be acquired from a given image,
Based on the analysis parameter for analyzing the image layout, the predetermined image is recognized as one or a plurality of block areas, the recognized one or a plurality of block areas are compared with the specified area, and the specified area is specified. The first block determination is performed to classify the block into any one of a first block area included in the area, a second block area not included in the specified area, and a third block area that is an indeterminate area. ,
A second block that is classified into the first block area or the second block area after changing the analysis parameter for the block area determined to be the third block area and re-recognizing the block area. Block judgment of
An image processing program for causing a computer to execute a process of generating a partial image based on a set of first block areas obtained by the first block determination and the second block determination.
前記第2のブロック判定は、所定の終了条件を満足するまで判定を繰り返すことを特徴とする請求項1に記載の画像処理プログラム。   The image processing program according to claim 1, wherein the second block determination is repeated until a predetermined end condition is satisfied. 所定の画像から取得する部分画像の領域を指定し、
画像レイアウトを解析する解析パラメータを複数用いて、前記所定の画像を1又は複数のブロック領域として認識し、前記認識した1又は複数のブロック領域と、前記指定した領域とを比較して、前記指定した領域に含まれる第1のブロック領域、前記指定した領域に含まれない第2のブロック領域、及び未確定領域である第3のブロック領域のうちの何れかに分類するブロック判定を解析パラメータ毎に行い、
前記解析パラメータ毎のブロック判定結果を用いて、前記第1のブロック領域、前記第2のブロック領域、及び前記第3のブロック領域を確定する際、既に前記第1のブロック領域又は前記第2のブロック領域に確定したブロック領域と重なるブロック領域を削除する、処理をコンピュータに実行させるための画像処理プログラム。
Specify a partial image area to be acquired from a given image,
Recognizing the predetermined image as one or a plurality of block areas using a plurality of analysis parameters for analyzing an image layout, comparing the recognized one or a plurality of block areas with the designated area, and Block determination to be classified into any one of the first block area included in the specified area, the second block area not included in the specified area, and the third block area that is an indeterminate area for each analysis parameter To
When determining the first block area, the second block area, and the third block area using the block determination result for each analysis parameter, the first block area or the second block area has already been determined. An image processing program for causing a computer to execute a process of deleting a block area overlapping with a block area determined as a block area.
前記ブロック領域全体に含まれる前記指定した領域の比率と、予め設定された閾値とを比較して、前記第1のブロック領域、前記第2のブロック領域、及び前記第3のブロック領域の何れかに分類することを特徴とする請求項1乃至3の何れか1項に記載の画像処理プログラム。   One of the first block area, the second block area, and the third block area by comparing a ratio of the designated area included in the entire block area with a preset threshold value. The image processing program according to claim 1, wherein the image processing program is classified into: 前記第3のブロック領域が図表を含むブロック領域である場合に、前記ブロック領域全体に含まれる前記指定した領域の比率に応じて前記第1のブロック領域又は前記第2のブロック領域に分類することを特徴とする請求項1乃至4の何れか1項に記載の画像処理プログラム。   When the third block area is a block area including a chart, the third block area is classified into the first block area or the second block area according to the ratio of the designated area included in the entire block area. The image processing program according to any one of claims 1 to 4, wherein: 第2のブロック判定後に前記第3のブロック領域が存在する場合に、前記部分画像の領域を再指定させる要求を出力することを特徴とする請求項1乃至5の何れか1項に記載の画像処理プログラム。   6. The image according to claim 1, wherein when the third block area exists after the second block determination, a request to re-specify the area of the partial image is output. Processing program. 所定の画像から取得する部分画像の領域を指定し、
画像レイアウトを解析する解析パラメータに基づいて、前記所定の画像を1又は複数のブロック領域として認識し、前記認識した1又は複数のブロック領域と、前記指定した領域とを比較して、前記指定した領域に含まれる第1のブロック領域、前記指定した領域に含まれない第2のブロック領域、及び未確定領域である第3のブロック領域のうちの何れかに分類する第1のブロック判定を行い、
前記第3のブロック領域と判定されたブロック領域に対して、前記解析パラメータを変更し、前記ブロック領域を再認識した後に、前記第1のブロック領域又は前記第2のブロック領域に分類する第2のブロック判定を行い、
前記第1のブロック判定及び前記第2のブロック判定で得られる第1のブロック領域の集合に基づいて部分画像を生成する、処理を有することを特徴とする画像処理方法。
Specify a partial image area to be acquired from a given image,
Based on the analysis parameter for analyzing the image layout, the predetermined image is recognized as one or a plurality of block areas, the recognized one or a plurality of block areas are compared with the specified area, and the specified area is specified. The first block determination is performed to classify the block into any one of a first block area included in the area, a second block area not included in the specified area, and a third block area that is an indeterminate area. ,
A second block that is classified into the first block area or the second block area after changing the analysis parameter for the block area determined to be the third block area and re-recognizing the block area. Block judgment of
An image processing method comprising: processing for generating a partial image based on a set of first block areas obtained by the first block determination and the second block determination.
所定の画像から取得する部分画像の領域を指定する領域指定手段と、
画像レイアウトを解析する解析パラメータに基づいて、前記所定の画像を1又は複数のブロック領域として認識し、前記認識した1又は複数のブロック領域と、前記領域指定手段により得られる指定領域とを比較して、前記指定領域に含まれる第1のブロック領域、前記指定領域に含まれない第2のブロック領域、及び未確定領域である第3のブロック領域の何れかに分類するブロック領域判定手段と、
前記ブロック領域判定手段により得られる第1のブロック領域の集合に基づいて部分画像を生成する部分画像生成手段とを有し、
前記ブロック領域判定手段は、前記第3のブロック領域と判定されたブロック領域に対して、前記解析パラメータを変更し、前記ブロック領域を再認識した後に、前記第1のブロック領域又は前記第2のブロック領域に分類することを特徴とする画像処理装置。
Area designating means for designating an area of a partial image acquired from a predetermined image;
Based on the analysis parameter for analyzing the image layout, the predetermined image is recognized as one or a plurality of block regions, and the recognized one or a plurality of block regions are compared with the designated region obtained by the region designating means. Block area determination means for classifying the block area into any one of a first block area included in the specified area, a second block area not included in the specified area, and a third block area that is an undetermined area;
Partial image generation means for generating a partial image based on a set of first block areas obtained by the block area determination means,
The block area determination means changes the analysis parameter for the block area determined to be the third block area, and after re-recognizing the block area, the first block area or the second block area An image processing apparatus that is classified into block areas.
JP2012011396A 2012-01-23 2012-01-23 Image processing program, image processing method, and image processing apparatus Expired - Fee Related JP5794154B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012011396A JP5794154B2 (en) 2012-01-23 2012-01-23 Image processing program, image processing method, and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012011396A JP5794154B2 (en) 2012-01-23 2012-01-23 Image processing program, image processing method, and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2013149210A true JP2013149210A (en) 2013-08-01
JP5794154B2 JP5794154B2 (en) 2015-10-14

Family

ID=49046622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012011396A Expired - Fee Related JP5794154B2 (en) 2012-01-23 2012-01-23 Image processing program, image processing method, and image processing apparatus

Country Status (1)

Country Link
JP (1) JP5794154B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020198529A (en) * 2019-05-31 2020-12-10 京セラドキュメントソリューションズ株式会社 Information processing apparatus and image forming apparatus
JP2021152901A (en) * 2020-04-21 2021-09-30 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method and apparatus for creating image
CN114827590A (en) * 2022-06-22 2022-07-29 浙江力嘉电子科技有限公司 Camera position distribution rationality analysis method and device and electronic equipment

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020198529A (en) * 2019-05-31 2020-12-10 京セラドキュメントソリューションズ株式会社 Information processing apparatus and image forming apparatus
JP7318319B2 (en) 2019-05-31 2023-08-01 京セラドキュメントソリューションズ株式会社 Information processing device and image forming device
JP2021152901A (en) * 2020-04-21 2021-09-30 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method and apparatus for creating image
JP7213291B2 (en) 2020-04-21 2023-01-26 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Method and apparatus for generating images
US11810333B2 (en) 2020-04-21 2023-11-07 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for generating image of webpage content
CN114827590A (en) * 2022-06-22 2022-07-29 浙江力嘉电子科技有限公司 Camera position distribution rationality analysis method and device and electronic equipment
CN114827590B (en) * 2022-06-22 2022-09-13 浙江力嘉电子科技有限公司 Camera position distribution rationality analysis method and device and electronic equipment

Also Published As

Publication number Publication date
JP5794154B2 (en) 2015-10-14

Similar Documents

Publication Publication Date Title
US7627176B2 (en) Apparatus, method, and computer program for analyzing document layout
US9785864B2 (en) Image processing method, image processing apparatus, program, and recording medium
KR101015663B1 (en) Method for recognizing character and apparatus therefor
KR102399508B1 (en) Layout analysis method, reading assisting device, circuit and medium
JP5774558B2 (en) Handwritten document processing apparatus, method and program
CN109697414B (en) Text positioning method and device
US7796817B2 (en) Character recognition method, character recognition device, and computer product
EP3910550A1 (en) Image processing apparatus and image processing method each for obtaining a region of object and pixels of the object using neural network
JP2000200350A (en) Method and device for processing information
CN106991422A (en) Character segmentation method, device and computer-readable recording medium and electronic equipment
JP6353893B2 (en) Method, program, and apparatus for scraping articles from paper image taken by camera of portable terminal device
JP5794154B2 (en) Image processing program, image processing method, and image processing apparatus
JP4232679B2 (en) Image forming apparatus and program
US10452943B2 (en) Information processing apparatus, control method of information processing apparatus, and storage medium
JP5049922B2 (en) Image processing apparatus and image processing method
JP2013171309A (en) Character segmentation method, and character recognition device and program using the same
JP2010002991A (en) Image processor, image processing method, and computer program
JP2018055256A (en) Information processing apparatus, information processing method, and program
JP4706764B2 (en) Image processing apparatus and image processing program
US9692936B2 (en) Image processing apparatus and image processing method for clipping, from a second image, an area at a position corresponding to designated position in a first image
JP2004080341A (en) Image processor, image processing method, program, and recording medium
JP5612975B2 (en) Serif data generation apparatus, serif data generation method, and program
JP2006072839A (en) Image processing method, image processing apparatus, image processing program and recording medium
US20220406083A1 (en) Image processing apparatus, control method thereof, and storage medium
JP2020004124A (en) Writing selection program, writing selection method, and information processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150727

R150 Certificate of patent or registration of utility model

Ref document number: 5794154

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees