JP2006261772A - Image forming apparatus and image forming method - Google Patents
Image forming apparatus and image forming method Download PDFInfo
- Publication number
- JP2006261772A JP2006261772A JP2005073019A JP2005073019A JP2006261772A JP 2006261772 A JP2006261772 A JP 2006261772A JP 2005073019 A JP2005073019 A JP 2005073019A JP 2005073019 A JP2005073019 A JP 2005073019A JP 2006261772 A JP2006261772 A JP 2006261772A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- original
- image forming
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Editing Of Facsimile Originals (AREA)
Abstract
Description
本発明は、手書きや画像合成により修正がなされた画像とオリジナル画像データを比較し、修正をベクトル化してサーバに登録する画像形成装置及び画像形成方法に関するものである。 The present invention relates to an image forming apparatus and an image forming method in which an image corrected by handwriting or image synthesis is compared with original image data, and the correction is vectorized and registered in a server.
近年、ワードプロセッサやパーソナルコンピュータ上で文書作成用のアプリケーションを使用して電子的な文書を作成することが多い。この電子的な文書の他の人に送付するための方法としては、プリンタにより文書の内容を用紙上に印刷して従来の回覧用紙と同様に相手に手渡す方法、文書情報をフロッピー(登録商標)ディスク等の記憶媒体に記録し、あるいは、さらにネットワークにて伝送する方法がある。 In recent years, an electronic document is often created using a document creation application on a word processor or a personal computer. As a method for sending this electronic document to another person, the content of the document is printed on a sheet by a printer and handed over to the other party in the same manner as a conventional circulation sheet. Document information is stored in a floppy (registered trademark). There is a method of recording in a storage medium such as a disk or further transmitting through a network.
受取人は、記憶媒体から読み出された、あるいはネットワークを介して送られてきた文書情報をプリンタにより用紙上に印刷するか、あるいは電子ディスプレイに表示する等の過程を経て情報の共有化をはかる。受取人は、それを知識として将来のために蓄えるか、加工して新しい文書情報とするか、新たな文書情報で発信人に答えるかして、文書活用のサイクルがなされる。 The recipient shares the information through a process such as printing the document information read from the storage medium or sent via the network on a sheet of paper or displaying it on an electronic display. . The recipient uses a document utilization cycle by storing it as knowledge for the future, processing it into new document information, or answering the sender with new document information.
受け取った文書に対して修正を行うためには、印刷された紙の文書に直接手書きで追記をする場合や、元の文書を編集し直して電子メールで送る等の場合が考えられる。 In order to correct the received document, it is conceivable to add the handwritten information directly to the printed paper document, or to edit the original document and send it by e-mail.
しかしながら、文書が印刷された印刷物に直接上書きする以外は、見る文書が電子的手段で表現されているため、紙の印刷物に比べて視認性が悪く、ユーザに対する視覚的なインターフェイス特性が悪いという問題がある。また、会議などでは配布文書は印刷された紙であることが多い。 However, since the document to be viewed is expressed by electronic means other than directly overwriting the printed matter on which the document is printed, the problem is that the visibility is poor compared to the printed matter on paper and the visual interface characteristics to the user are poor. There is. In a meeting or the like, the distribution document is often printed paper.
このため、視認性の良い紙の上での情報を元に、書かれた文書を読み、手書きで情報を追加し、伝送し、さらには文書の編集処理・修正等を行うための文書処理装置および方法を提供するものとして、特許文献1のような発明がなされている。
しかしながら、特許文献1では、オリジナルの画像と、手書き画像をビット単位で比べる差分法を示しているが、オリジナル画像の拡大縮小やレイアウトの変更に対応することができない。また、特許文献1では手書きはあくまでも修正の指示を指定するだけのもので、重要な手書きの修正内容をデータとして共有することができない。また、複数の人間により修正された内容をマージすることもできない。 However, although Patent Document 1 shows a difference method in which an original image and a handwritten image are compared in bit units, it cannot cope with enlargement / reduction of the original image or layout change. Further, in Patent Document 1, handwriting only specifies a correction instruction, and important handwritten correction contents cannot be shared as data. In addition, contents modified by a plurality of people cannot be merged.
本発明はこのような従来の問題点を解消すべく創案されたもので、紙文書に追加された手書きの修正を電子情報に変換し、オリジナル文書の修正を共有することの出来る画像形成装置及び画像形成方法を提供することを目的とする。 The present invention was devised to solve such a conventional problem, and an image forming apparatus capable of converting a handwritten correction added to a paper document into electronic information and sharing the correction of the original document. An object is to provide an image forming method.
上述した問題点を解決するために、本発明では第1に、画像を入力する画像入力手段と画像に関連付けられたオリジナル電子情報を取得するオリジナル情報取得手段と、画像をベクトルデータに変換するベクトルデータ変換手段と、オリジナル電子情報と画像から差分ベクトル情報を作成する差分抽出手段と、を含む画像形成装置において、抽出した差分ベクトル情報を、オリジナル電子データに関連付けて登録することを特徴とするように構成する。 In order to solve the above-described problems, in the present invention, first, an image input means for inputting an image, an original information acquisition means for acquiring original electronic information associated with the image, and a vector for converting the image into vector data An image forming apparatus including data conversion means and difference extraction means for creating difference vector information from original electronic information and an image, wherein the extracted difference vector information is registered in association with the original electronic data. Configure.
第2に第1の画像形成装置であって、画像を入力する画像入力手段は原稿を光学的に読込み画像情報を得る原稿読込手段であることを特徴とするように構成する。 Second, in the first image forming apparatus, the image input means for inputting an image is a document reading means for optically reading a document to obtain image information.
第3に、第1または第2の画像形成装置であって、画像出力手段を含み、さらにオリジナル電子データに関連付けされた差分ベクトル情報をオリジナル電子データと合成して出力する時に、出力画像に差分ベクトル情報とオリジナル電子データを関連付けることを特徴とするように構成される。 Third, the first or second image forming apparatus includes an image output unit, and further outputs a difference to the output image when the difference vector information associated with the original electronic data is combined with the original electronic data and output. The vector information and the original electronic data are associated with each other.
第4に、画像を入力する画像入力ステップと、画像に関連付けられたオリジナル電子情報を取得するオリジナル情報取得ステップと、画像をベクトルデータに変換するベクトルデータ変換ステップと、オリジナル電子情報と画像から差分ベクトル情報を作成する差分抽出ステップとを含む画像形成方法において、抽出した差分ベクトル情報を、オリジナル電子データに関連付けて登録することを特徴とするように構成する。 Fourth, an image input step for inputting an image, an original information acquisition step for acquiring original electronic information associated with the image, a vector data conversion step for converting the image into vector data, a difference from the original electronic information and the image In an image forming method including a difference extraction step of creating vector information, the extracted difference vector information is registered in association with original electronic data.
第5に、第4の画像形成方法であって、画像を入力する画像入力ステップは原稿を光学的に読込み画像情報を得る原稿読込ステップであることを特徴とするように構成する。 Fifth, according to a fourth image forming method, the image input step for inputting an image is a document reading step for optically reading a document to obtain image information.
第6に、第4または第5の画像形成方法であって、画像出力ステップを含み、さらにオリジナル電子データに関連付けされた差分ベクトル情報をオリジナル電子データと合成して出力する時に、出力画像に差分ベクトル情報とオリジナル電子データを関連付けることを特徴とするように構成する。 Sixth, in the fourth or fifth image forming method, an image output step is included, and when the difference vector information associated with the original electronic data is combined with the original electronic data and output, the difference is output to the output image. The vector information and the original electronic data are associated with each other.
本発明の第1または第4の構成により、入力した画像から、オリジナル原稿を取得し、その差分をサーバに登録することが出来る。これにより、手書きによる修正をオリジナル原稿と結びつけることが容易にできる。 According to the first or fourth configuration of the present invention, it is possible to acquire an original document from an input image and register the difference in the server. This makes it easy to link handwritten corrections with the original document.
本発明の第2または第5の構成により、利用者は原稿読み取り用のスキャナを用いて画像の入力を行うこととなり、紙に直接手書きで記入した画像を容易に入力することが出来る。 According to the second or fifth configuration of the present invention, the user inputs an image using a scanner for reading an original, and can easily input an image that is directly handwritten on paper.
本発明の第3または第6の構成により、利用者は登録された修正画像をいろいろな形式で出力することが可能となり、手書きによる修正を共有することが可能となる。 According to the third or sixth configuration of the present invention, the user can output the registered corrected image in various formats, and can share the correction by handwriting.
発明を実施するための最良の形態について実施例により詳しく説明する。 The best mode for carrying out the invention will be described in detail with reference to examples.
次に本発明に係る画像処理方法の第1実施形態を図面に基づいて説明する。 Next, a first embodiment of an image processing method according to the present invention will be described with reference to the drawings.
[画像処理システム]
図1において、本発明に係る画像処理方法の第1実施形態を実施する画像処理システムは、オフィス10とオフィス20とをインターネット104で接続した環境において使用される。
[Image processing system]
In FIG. 1, an image processing system that implements the first embodiment of the image processing method according to the present invention is used in an environment in which an office 10 and an office 20 are connected via the Internet 104.
オフィス10内に構築されたLAN107には、記録装置としてのMFP(マルチファンクション複合機)100、MFP100を制御するマネージメントPC101、クライアントPC(外部記憶手段)102、文書管理サーバ106、文書管理サーバ106のためのデータベース105が接続されている。 A LAN 107 constructed in the office 10 includes an MFP (multifunction multifunction peripheral) 100 as a recording device, a management PC 101 that controls the MFP 100, a client PC (external storage means) 102, a document management server 106, and a document management server 106. A database 105 is connected.
オフィス20内にはLAN108が構築され、LAN108には文書管理サーバ106、および文書管理サーバ106のためのデータベース105が接続されている。 A LAN 108 is constructed in the office 20, and a document management server 106 and a database 105 for the document management server 106 are connected to the LAN 108.
LAN107、108にはプロキシサーバ103が接続され、LAN107、108はプロキシサーバ103を介してインターネットに接続される。 A proxy server 103 is connected to the LANs 107 and 108, and the LANs 107 and 108 are connected to the Internet via the proxy server 103.
MFP100は原稿から読み取った入力画像に対する画像処理の一部を担当し、処理結果としての画像データはLAN109を通じてマネージメントPC101に入力される。マネージメントPC101は、画像記憶手段、画像処理手段、表示手段、入力手段等を含むコンピュータであり、機能的にはこれら構成要素の一部がMFP100と一体化して、画像処理システムの構成要素となっている。なお、本実施形態では、マネージメントPC101において、下記に記載の検索処理などが実行されるものとするが、マネージメントPC101で行われる処理すべてをMFPで実行するようにしても構わない。 The MFP 100 is in charge of part of the image processing for the input image read from the document, and the image data as the processing result is input to the management PC 101 via the LAN 109. The management PC 101 is a computer including an image storage unit, an image processing unit, a display unit, an input unit, and the like. Functionally, some of these components are integrated with the MFP 100 and become components of the image processing system. Yes. In this embodiment, the management PC 101 executes the search process described below, but all the processes performed by the management PC 101 may be executed by the MFP.
さらにMFP100は、LAN109によってマネージメントPC101に直接接続されている。 Further, the MFP 100 is directly connected to the management PC 101 via the LAN 109.
[MFPの構成]
図2において、MFP100は、オートドキュメントフィーダ(ADF)を有する画像読み取り部110を備える。画像読み取り部110は束状の或いは1枚の原稿の画像を光源で照射し、反射画像をレンズで固体撮像素子上に結像する。固体撮像素子は所定解像度(例えば600dpi)および所定濃度レベル(例えば8ビット)の画像読み取り信号を生成し、画像読み取り信号からラスターデータよりなる画像データが構成される。
[MFP configuration]
In FIG. 2, the MFP 100 includes an image reading unit 110 having an auto document feeder (ADF). The image reading unit 110 irradiates an image of a bundle or one original with a light source, and forms a reflected image on a solid-state image sensor with a lens. The solid-state imaging device generates an image reading signal having a predetermined resolution (for example, 600 dpi) and a predetermined density level (for example, 8 bits), and image data including raster data is configured from the image reading signal.
MFP100は、記憶装置111および印刷機能を有する記録装置112を有する。複写機能を実行する際には、画像読み取り部110から出力されたイメージデータをデータ処理装置115によって画像処理して記録信号に変換し、記録装置112に出力する。複数枚複写の場合には、1頁分の記録信号を一旦記憶装置111に記憶保持した後、記録装置112に順次出力して、記録紙上に記録画像を形成する。 The MFP 100 includes a storage device 111 and a recording device 112 having a printing function. When executing the copying function, the image data output from the image reading unit 110 is subjected to image processing by the data processing device 115 and converted into a recording signal, which is output to the recording device 112. In the case of copying a plurality of sheets, a recording signal for one page is temporarily stored in the storage device 111 and then sequentially output to the recording device 112 to form a recorded image on the recording paper.
MFP100は、LAN107との接続のためのネットワークIF114を有し、クライアントPC102が出力したイメージデータを、記録装置112によって記録し得る。クライアントPC102から出力されたイメージデータはLAN107からネットワークIF114を経てデータ処理装置115で記録可能な記録信号に変換された後、MFP100において、記録紙上に記録画像として記録される。 The MFP 100 includes a network IF 114 for connection with the LAN 107, and the image data output from the client PC 102 can be recorded by the recording device 112. The image data output from the client PC 102 is converted into a recording signal that can be recorded by the data processing device 115 from the LAN 107 via the network IF 114 and then recorded as a recorded image on the recording paper in the MFP 100.
記憶装置111はネットワークIF117を介して、マネージメントPC101から直接制御し得る。 The storage device 111 can be directly controlled from the management PC 101 via the network IF 117.
MFP100は表示装置116を有し、操作入力の状態と、処理すべきイメージデータとを、表示装置116によって表示し得る。 The MFP 100 includes a display device 116, and the display device 116 can display an operation input state and image data to be processed.
MFP100は、MFP100に設けられたキー操作部を含む入力装置113、表示装置116を利用したタッチパネル、あるいはマネージメントPC101のキーボード、ポインティングデバイス等の入力装置を通じて操作される。これらの操作のために、データ処理装置115は内部の制御部(図示せず。)によって所定の制御を実行する。 The MFP 100 is operated through an input device 113 including a key operation unit provided in the MFP 100, a touch panel using the display device 116, or an input device such as a keyboard and a pointing device of the management PC 101. For these operations, the data processing apparatus 115 performs predetermined control by an internal control unit (not shown).
LAN109は、MFP100とマネージメントPC1 01との間のデータの授受、制御信号授受に用いられる。 The LAN 109 is used for data exchange and control signal exchange between the MFP 100 and the management PC 101.
[画像処理方法の全体の流れ]
本発明に係る画像処理方法の第1実施形態は図3の各ステップにより実行される。
[Overall flow of image processing method]
The first embodiment of the image processing method according to the present invention is executed by each step of FIG.
ステップS301では、MFP100の画像読み取り部110を動作させて、1枚の原稿をラスター状に走査し、所定解像度および所定濃度レベルの、画像読み取り信号を取得する。画像読み取り信号はデータ処理部115によって前処理され、入力画像の1頁分のイメージデータとして、記憶装置111に保存される。次にステップS302に進む。 In step S <b> 301, the image reading unit 110 of the MFP 100 is operated to scan a single original in a raster shape, and obtain an image reading signal having a predetermined resolution and a predetermined density level. The image reading signal is preprocessed by the data processing unit 115 and stored in the storage device 111 as image data for one page of the input image. Next, the process proceeds to step S302.
ステップS302(ブロックセレクション(領域分割)ステップ)では、マネージメントPC101によって、記憶装置111に格納されたイメージデータの領域を、文字あるいは線画を含む文字・線画領域と、ハーフトーンの写真領域、不定形の画像領域その他に分ける。さらに文字・線画領域について、主に文字を含む文字領域と、主に表、図形等を含む線画領域とを分離し、線画領域は表領域と図形領域に分離する。なお、本実施形態では連結画素を検知し、該連結画素の外接矩形領域の形状・サイズ・画素密度等を用いて、属性毎の領域に分割するものとするが、その他の領域分割手法を用いても構わない。 In step S302 (block selection (area division) step), the management PC 101 divides the image data area stored in the storage device 111 into a character / line drawing area including characters or line drawings, a halftone photographic area, and an indefinite shape. Divide into image area and others. Further, with respect to the character / line drawing area, a character area mainly including characters and a line drawing area mainly including tables and figures are separated, and the line drawing area is separated into a table area and a graphic area. In this embodiment, connected pixels are detected and divided into regions for each attribute using the shape, size, pixel density, etc. of the circumscribed rectangular region of the connected pixels, but other region dividing methods are used. It doesn't matter.
文字領域については、文字段落ごとの纏まった塊をブロックとして矩形ブロック(文字領域矩形ブロック)にセグメント化し、線画領域では、表、図形等の個々のオブジェクト(表領域矩形ブロック、線画領域矩形ブロック)ごとに矩形ブロックにセグメント化する。 For the character area, the clustered blocks of each character paragraph are segmented into rectangular blocks (character area rectangular blocks), and in the line drawing area, individual objects such as tables and figures (table area rectangular block, line drawing area rectangular block) Segment into rectangular blocks every time.
ハーフトーンで表現される写真領域は、画像領域矩形ブロック、背景領域矩形ブロック等のオブジェクトごとに、矩形ブロックにセグメント化する。これらの矩形ブロックの情報を「領域分割情報」という。 The photograph area expressed in halftone is segmented into rectangular blocks for each object such as an image area rectangular block and a background area rectangular block. Information on these rectangular blocks is referred to as “region division information”.
ステップS303では、ブロックセレクションステップで得られた領域分割情報と入力画像とを合成して、MFP100の表示装置116における操作画面上に表示する。 In step S303, the region division information obtained in the block selection step and the input image are combined and displayed on the operation screen on the display device 116 of the MFP 100.
表示装置116に表示される操作画面の一例を図4に示す。 An example of the operation screen displayed on the display device 116 is shown in FIG.
操作画面には、左半部に入力画像そのものが画像41として表示され、右半部に矩形ブロックにより領域分割情報を示す画像42が表示される。 On the operation screen, the input image itself is displayed as an image 41 on the left half, and an image 42 indicating region division information is displayed on the right half by a rectangular block.
画像42では、入力画像を簡略表示するとともに、各矩形ブロックを矩形で示す。 In the image 42, the input image is simply displayed and each rectangular block is indicated by a rectangle.
矩形ブロックの概念の理解を容易にするため、各矩形ブロックには、その属性を示す、TEXT、PICTURE、LINE、TABLEの表示が付されているが、実際には属性情報は表示されず、分割された矩形領域が枠線として表示される。 In order to facilitate understanding of the concept of the rectangular block, each rectangular block is provided with TEXT, PICTURE, LINE, and TABLE indicating the attribute, but the attribute information is not actually displayed and divided. The rectangular area is displayed as a frame line.
TEXT、PICTURE、LINE、TABLEは文字領域矩形ブロック、図面領域矩形ブロック、線図形領域矩形ブロック、表領域矩形ブロックの属性表示であり、写真領域矩形ブロックを示すPHOTO、その他の属性表示が用いられる。 TEXT, PICTURE, LINE, and TABLE are attribute displays for a character area rectangular block, a drawing area rectangular block, a line figure area rectangular block, and a table area rectangular block. PHOTO indicating a photograph area rectangular block and other attribute displays are used.
なお、図4では入力画像と領域分割情報を左右に並べて表示しているが、これらを重ねて入力画像上に分割された矩形ブロックを表示する等、多様な表示形態が可能である。 In FIG. 4, the input image and the area division information are displayed side by side, but various display forms are possible, such as displaying a rectangular block divided on the input image by overlapping them.
ステップS304(特定領域指定ステップ)では、ステップS303で表示された領域分割情報について、手書き部分が含まれる矩形ブロックを特定領域として指定する。特定領域の指定方法としては、例えば、ユーザがポインティングデバイスを用いて、画像42中の1個または複数の矩形ブロックを指示することによって行う。なお操作画面116をタッチパネルとし、ユーザが所望の矩形ブロックを指で指示する方法等、種々の方法を採用し得る。 In step S304 (specific area specifying step), a rectangular block including a handwritten part is specified as the specific area for the area division information displayed in step S303. As a specific area designating method, for example, the user designates one or a plurality of rectangular blocks in the image 42 by using a pointing device. Various methods such as a method in which the operation screen 116 is a touch panel and the user designates a desired rectangular block with a finger may be employed.
また、領域を指定させず、表示されている矩形すべてを対象としても良い。 Alternatively, all the displayed rectangles may be targeted without designating the area.
ステップS305では、ステップS304で指定された特定領域をイメージデータとして切り出し、切り出されたイメージデータに対して以下の処理を行う。 In step S305, the specific area specified in step S304 is cut out as image data, and the following processing is performed on the cut out image data.
ステップS306では、原稿画像にオリジナルデータファイルのポインタ情報が埋め込まれているか否かの判定を行うため、OCR、OMR処理を行う。 In step S306, OCR and OMR processing is performed to determine whether or not pointer information of the original data file is embedded in the document image.
原稿画像中に付加情報として記録された2次元バーコード、あるいはURLに該当するオブジェクトを検出し、OCRによってURLを文字認識し、OMRによって2次元バーコードを解読して入力画像のオリジナルデータファイルが格納されている記憶装置内のポインタ情報を検出する。 A two-dimensional barcode recorded as additional information in a document image or an object corresponding to a URL is detected, the URL is character-recognized by OCR, the two-dimensional barcode is decoded by OMR, and an original data file of the input image is obtained. Pointer information in the stored storage device is detected.
ポインタ情報を付加する手段は2次元バーコードに限定されるものではなく、隣接文字列間隔の変化として情報を埋め込む方法、ハーフトーンの画像に埋め込む方法等、直接視認されない、いわゆる電子透かしによる方法等がある。 The means for adding pointer information is not limited to a two-dimensional barcode, but a method of embedding information as a change in adjacent character string spacing, a method of embedding in a halftone image, or the like, a so-called digital watermarking method that is not directly visible There is.
ステップS307(ポインタ情報抽出ステップ)では、ステップS306におけるOCR、OMR、もしくは電子透かしの情報から、ポインタ情報を抽出する。 In step S307 (pointer information extraction step), pointer information is extracted from the OCR, OMR, or digital watermark information in step S306.
ステップS308では、ポインタ情報が取得されたか否か判断する。ポインタ情報が取得されたときは、オリジナルデータファイルに直接アクセスすべく、ステップS309に遷移する。 In step S308, it is determined whether pointer information has been acquired. When the pointer information is acquired, the process proceeds to step S309 to directly access the original data file.
ステップS309では、オリジナルデータファイルを検索する。オリジナルファイルは、電子ファイルの形態で、図1のクライアントPC102のハードディスク内、文書管理サーバ106内のデータベース105内、MFP100に設けられた記憶装置111等に格納されており、ステップS308で得られたアドレス情報(ポインタ情報)に従ってこれらの記憶装置内を検索する。電子ファイルの検索が成功した場合、ステップS311に遷移する。そうでなければ処理を終了する。 In step S309, the original data file is searched. The original file is stored in the form of an electronic file in the hard disk of the client PC 102 in FIG. 1, the database 105 in the document management server 106, the storage device 111 provided in the MFP 100, and the like obtained in step S308. These storage devices are searched according to address information (pointer information). If the electronic file search is successful, the process proceeds to step S311. Otherwise, the process is terminated.
ステップS311では、ステップS310で抽出されたオリジナルデータファイルがラスターデータファイルあるいは、BMP、tiffに代表される、ラスターデータを符号化したイメージデータファイルであるかどうかを判定する。抽出されたデータファイルがイメージデータファイルのときは、ステップS311に遷移する。 In step S311, it is determined whether the original data file extracted in step S310 is a raster data file or an image data file encoded with raster data represented by BMP and tiff. When the extracted data file is an image data file, the process proceeds to step S311.
抽出されたデータファイルが、文字コードやベクトルデータ等、再利用が容易なデータファイルであったときはステップS312に遷移する。 If the extracted data file is a data file that can be easily reused, such as a character code or vector data, the process proceeds to step S312.
ステップS312(ベクトル化ステップ)では、ベクトル化処理に移り、ベクトル化処理により各特定領域のイメージデータをベクトルデータに変換する。 In step S312 (vectorization step), the process proceeds to a vectorization process, and the image data of each specific area is converted into vector data by the vectorization process.
ベクトル化の方法は、以下(a)〜(f)等が存在する。 The vectorization methods include the following (a) to (f).
(a)特定領域が文字領域のとき、さらにOCRによる文字画像のコード変換を行う、あるいは文字のサイズ、スタイル、字体を認識し、原稿を走査して得られた文字に可視的に忠実なフォントデータに変換する。 (A) When the specific area is a character area, further font conversion is performed on the character image by OCR, or the character size, style, and font are recognized, and the font is visually faithful to the character obtained by scanning the document. Convert to data.
(b)特定領域が文字領域であり、かつOCRによる認識が不可能であったとき、文字の輪郭を追跡し、輪郭情報(アウトライン)を線分のつながりとして表現する形式に変換する。 (B) When the specific area is a character area and cannot be recognized by OCR, the outline of the character is traced, and the outline information (outline) is converted into a format that represents the connection of line segments.
(c)特定領域が図形領域のとき、図形オブジェクトの輪郭を追跡し、輪郭情報を線分のつながりとして表現する形式に変換する。 (C) When the specific area is a graphic area, the outline of the graphic object is tracked and converted into a format in which the outline information is expressed as a connection of line segments.
(d)前述の(b)、(c)の線分形式のアウトライン情報をベジエ関数などでフィッティングして、関数情報に変換する。 (D) The outline information in the line segment format of (b) and (c) described above is fitted with a Bezier function or the like and converted into function information.
(e)前述の(c)の図形オブジェクトの輪郭情報から、図形の形状を認識し、円、矩形、多角形、等の図形定義情報に変換する。 (E) The shape of the figure is recognized from the outline information of the figure object in (c) described above, and converted into figure definition information such as a circle, a rectangle, and a polygon.
(f)特定領域が図形領域であって、特定領域における表形式オブジェクトの場合、罫線や枠線を認識し、所定のフォーマットの帳票フォーマット情報に変換する。 (F) If the specific area is a graphic area and is a tabular object in the specific area, ruled lines and frame lines are recognized and converted into form format information of a predetermined format.
以上の方法以外に、イメージデータをコード情報、図形情報、関数情報等のコマンド定義形の情報に置きかえる種々のベクトル化処理が考えられる。 In addition to the above methods, various vectorization processes can be considered in which image data is replaced with command definition information such as code information, graphic information, and function information.
ステップS312では、ステップS309で得られたベクトル化された電子ファイルもしくはステップS311で得られたオリジナル画像のベクトル化データと、画像の読込によって得られたファイルとの差分を抽出する。差分を抽出する部分はステップS304で指定された領域だけとする。 In step S312, the difference between the vectorized electronic file obtained in step S309 or the vectorized data of the original image obtained in step S311 and the file obtained by reading the image is extracted. The part from which the difference is extracted is only the area designated in step S304.
ステップS313では、ステップS312で抽出された差分のベクトル情報を、オリジナルファイルの属性としてサーバに登録する。 In step S313, the difference vector information extracted in step S312 is registered in the server as an attribute of the original file.
以上の構成により、ユーザが希望する領域のみから、手書き等による修正をベクトルデータに変換し、サーバに登録することが出来る。 With the above configuration, correction by handwriting or the like can be converted into vector data from only an area desired by the user and registered in the server.
次に図3の主要なステップについて詳細に説明する。 Next, the main steps of FIG. 3 will be described in detail.
[ブロックセレクションステップ]
ステップS302(ブロックセレクションステップ)においては、図4右半部の画像42に示すように、入力画像を属性ごとに矩形ブロックに分割する。前述のように、矩形ブロックの属性としては、文字(TEXT)/図面(PICTURE)/線画(Line)/表(Table)/写真(PHOTO)等がある。
ブロックセレクションステップにおいては、まず入力画像を白黒に2値化し、黒画素輪郭で囲まれる画素塊を抽出する。
[Block selection step]
In step S302 (block selection step), as shown in the image 42 in the right half of FIG. 4, the input image is divided into rectangular blocks for each attribute. As described above, the attributes of the rectangular block include character (TEXT) / drawing (PICTURE) / line drawing (Line) / table (Table) / photograph (PHOTO).
In the block selection step, first, the input image is binarized into black and white, and a pixel block surrounded by a black pixel outline is extracted.
さらに、このように抽出された黒画素塊の大きさを評価し、大きさが所定値以上の黒画素塊の内部にある白画素塊に対する輪郭追跡を行う。白画素塊に対する大きさ評価、内部黒画素塊の追跡というように、内部の画素塊が所定値以上である限り、再帰的に内部画素塊の抽出、輪郭追跡を行う。 Further, the size of the black pixel block extracted in this way is evaluated, and the contour tracking is performed for the white pixel block inside the black pixel block whose size is a predetermined value or more. As long as the internal pixel block is equal to or greater than a predetermined value, such as size evaluation for the white pixel block and tracking of the internal black pixel block, the internal pixel block is extracted recursively and the contour is traced.
画素塊の大きさは、例えば画素塊の面積によって評価される。 The size of the pixel block is evaluated by, for example, the area of the pixel block.
このようにして得られた画素塊に外接する矩形ブロックを生成し、矩形ブロックの大きさ、形状に基づき属性を判定する。 A rectangular block circumscribing the pixel block thus obtained is generated, and attributes are determined based on the size and shape of the rectangular block.
例えば、縦横比が1に近く、大きさが一定の範囲の矩形ブロックは文字領域矩形ブロックの可能性がある文字相当ブロックとし、近接する文字相当ブロックが規則正しく整列しているときに、これら文字相当ブロックをまとめた新たな矩形ブロックを生成し、新たな矩形ブロックを文字領域矩形ブロックとする。 For example, a rectangular block whose aspect ratio is close to 1 and whose size is constant is a character-corresponding block that may be a character area rectangular block. When adjacent character-corresponding blocks are regularly aligned, these characters are equivalent. A new rectangular block in which the blocks are collected is generated, and the new rectangular block is set as a character area rectangular block.
また扁平な画素塊を線画領域矩形ブロック、一定大きさ以上でかつ四角形の白画素塊を整列よく内包する黒画素塊を表領域矩形ブロック、不定形の画素塊が散在している領域を写真領域矩形ブロック、それ以外の不定形の画素塊を写真領域矩形ブロックとする。 In addition, flat pixel blocks are line drawing area rectangular blocks, black pixel blocks that are larger than a certain size and square white pixel blocks are arranged in a well-aligned manner, front area rectangular blocks, and regions where irregular pixel blocks are scattered are photo areas. A rectangular block and other irregular pixel blocks are defined as a photographic area rectangular block.
ブロックセレクションステップでは、このようにして生成された矩形ブロックのそれぞれについて、図5に示す、属性等のブロック情報および入力ファイル情報を生成する。 In the block selection step, block information such as attributes and input file information shown in FIG. 5 are generated for each of the rectangular blocks generated in this way.
図5において、ブロック情報には各ブロックの属性、位置の座標X、座標Y、幅W、高さH、OCR情報が含まれる。属性は1〜5の数値で与えられ、1は文字領域矩形ブロック、2は図面領域矩形ブロック、3は表領域矩形ブロック、4は線画領域矩形ブロック、5は写真領域矩形ブロックを示す。座標X、座標Yは入力画像における各矩形ブロックの始点のX、Y座標(左上角の座標)である。幅W、高さHは矩形ブロックのX座標方向の幅、Y座標方向の高さである。OCR情報は入力画像におけるポインタ情報の有無を示す。 In FIG. 5, the block information includes attributes of each block, position coordinates X, coordinates Y, width W, height H, and OCR information. The attribute is given by a numerical value of 1 to 5, where 1 is a character area rectangular block, 2 is a drawing area rectangular block, 3 is a table area rectangular block, 4 is a line drawing area rectangular block, and 5 is a photographic area rectangular block. The coordinates X and Y are the X and Y coordinates (upper left corner coordinates) of the start point of each rectangular block in the input image. The width W and the height H are the width in the X coordinate direction and the height in the Y coordinate direction of the rectangular block. The OCR information indicates the presence or absence of pointer information in the input image.
さらに入力ファイル情報として矩形ブロックの個数を示すブロック総数Nが含まれる。 Furthermore, the total number N of blocks indicating the number of rectangular blocks is included as input file information.
これらの矩形ブロックごとのブロック情報は、特定領域のベクトル化に利用される。 The block information for each rectangular block is used for vectorization of a specific area.
[ポインタ情報抽出ステップ]
ステップS307(ポインタ情報抽出ステップ)は図6の各ステップによって実行される。図7は、ポインタ情報抽出ステップの処理対象となる原稿710を示し、原稿710はデータ処理装置115内に格納される。原稿710には、文字領域矩形ブロック702、703、図面領域矩形ブロック704、2次元バーコード(QRコード)のシンボル701が記録されている。
[Pointer information extraction step]
Step S307 (pointer information extraction step) is executed by each step of FIG. FIG. 7 shows a document 710 to be processed in the pointer information extraction step, and the document 710 is stored in the data processing device 115. In the document 710, character area rectangular blocks 702 and 703, a drawing area rectangular block 704, and a two-dimensional barcode (QR code) symbol 701 are recorded.
ステップS601では、マネージメントPC101のCPUにより、記憶装置111に格納された原稿710の入力画像を走査して、ブロックセレクションステップの処理結果から、2次元バーコードシンボル701の位置を検出する。QRコードシンボルは、4隅のうちの3隅に、特定の位置検出要素パターンが設けられ、位置検出要素パターンを検出することにより、QRコードシンボルを検出し得る。 In step S601, the CPU of the management PC 101 scans the input image of the document 710 stored in the storage device 111, and detects the position of the two-dimensional barcode symbol 701 from the processing result of the block selection step. The QR code symbol is provided with specific position detection element patterns at three of the four corners, and the QR code symbol can be detected by detecting the position detection element pattern.
ステップS602では、位置検出パターンに隣接する形式情報を復元し、シンボルに適用されている誤り訂正レベルおよびマスクパターンを得る。 In step S602, the format information adjacent to the position detection pattern is restored, and the error correction level and mask pattern applied to the symbol are obtained.
ステップS603では、次にシンボルの型番(モデル)を決定する。 In step S603, the symbol model number (model) is determined.
ステップS604では、ステップS602の形式情報から得られたマスクパターンを使って、QRコードのシンボルの符号化領域ビットパターンをXOR演算し、QRコードのシンボルのマスク処理を解除する。 In step S604, the mask pattern obtained from the format information in step S602 is used to XOR the encoded area bit pattern of the QR code symbol, and the mask process of the QR code symbol is cancelled.
ステップS605では、ステップS603で得られたモデルに基づいて配置規則を取得し、この配置規則に基づいて、シンボルキャラクタを読み取り、メッセージのデータ及び誤り訂正コード語を復元する。 In step S605, an arrangement rule is acquired based on the model obtained in step S603. Based on the arrangement rule, a symbol character is read, and message data and an error correction code word are restored.
ステップS606では、復元されたメッセージについて、誤り訂正コード語に基づいて、誤りがあるかどうかの検出を行う。誤りが検出されたときは、訂正のためにステップS607に分岐する。 In step S606, it is detected whether there is an error in the restored message based on the error correction code word. If an error is detected, the process branches to step S607 for correction.
ステップS607では、復元されたメッセージを訂正する。 In step S607, the restored message is corrected.
ステップS608では、誤り訂正されたデータより、モード指示子および文字数指示子に基づいて、データコード語をセグメントに分割し、データコード語を復元する。 In step S608, the data code word is divided into segments based on the mode indicator and the character number indicator from the error-corrected data, and the data code word is restored.
ステップS609では、検出された仕様モードに基づいてデータコード文字を復号し、結果を出力する。 In step S609, the data code character is decoded based on the detected specification mode, and the result is output.
2次元バーコードに組み込まれたデータは、オリジナルデータファイルのポインタ情報を表しており、例えばファイルサーバ名およびファイル名からなるパス情報で構成される。あるいは、対応するファイルへのURI/URL等で構成される。 The data incorporated in the two-dimensional barcode represents pointer information of the original data file, and is composed of path information including a file server name and a file name, for example. Alternatively, it consists of a URI / URL to the corresponding file.
本実施形態ではポインタ情報を2次元バーコードの形で付与した原稿710について説明したが、種々のポインタ情報の記録形態を採用し得る。 In the present embodiment, the document 710 provided with pointer information in the form of a two-dimensional barcode has been described, but various pointer information recording forms may be employed.
例えば、所定のルールに従った文字列によってポインタ情報を直接文字列で記録し、ブロックセレクションステップによって文字列の矩形ブロックを検出してもよい。検出された文字列を認識することによりポインタ情報を取得し得る。 For example, pointer information may be directly recorded as a character string according to a character string according to a predetermined rule, and a rectangular block of the character string may be detected by a block selection step. The pointer information can be acquired by recognizing the detected character string.
あるいは文字領域矩形ブロック702や文字領域矩形ブロック703において、隣接文字列の間隔に視認し難い程度の変調を加え、該文字列間隔変調の情報によってポインタ情報を表現し得る。このような透かし情報は、後述する文字認識処理を行う際に各文字の間隔を検出することによって検出でき、ポインタ情報を取得し得る。また図面領域矩形ブロック704の中に電子透かしとしてポインタ情報を付加する事も可能である。 Alternatively, in the character area rectangular block 702 and the character area rectangular block 703, modulation that is difficult to visually recognize is added to the interval between adjacent character strings, and the pointer information can be expressed by the information on the character string interval modulation. Such watermark information can be detected by detecting an interval between characters when performing character recognition processing described later, and pointer information can be acquired. It is also possible to add pointer information as a digital watermark in the drawing area rectangular block 704.
以上のようなポインタ情報抽出に関しても、本実施形態のようにベクトル化すべき特定領域を指定することにより、迅速かつ確実にポインタ情報を取得し得る。すなわち、バーコード、電子透かし等が埋め込まれている矩形ブロックをユーザが指定することで、効率のよいポインタ情報抽出を行うことが可能である。 Regarding the pointer information extraction as described above, the pointer information can be acquired quickly and reliably by designating a specific area to be vectorized as in the present embodiment. That is, when the user designates a rectangular block in which a barcode, digital watermark or the like is embedded, efficient pointer information extraction can be performed.
[ベクトル化ステップ]
ステップS311(ベクトル化ステップ)は図8の各ステップによって実行される。
[Vectorization step]
Step S311 (vectorization step) is executed by each step of FIG.
ステップS801では、特定領域が文字領域矩形ブロックであるか否か判断し、文字領域矩形ブロックであればステップS802以下のステップに進み、パターンマッチングの一手法を用いて認識を行い、対応する文字コードを得る。特定領域が文字領域矩形ブロックでないときは、ステップS812に移行する。
ステップS802では、特定領域に対し横書き、縦書きの判定(組み方向判定)を行うために、特定領域内で画素値に対する水平・垂直の射影を取る。
In step S801, it is determined whether or not the specific area is a character area rectangular block. If the specific area is a character area rectangular block, the process proceeds to step S802 and the subsequent steps, recognition is performed using one method of pattern matching, and the corresponding character code is determined. Get. If the specific area is not a character area rectangular block, the process proceeds to step S812.
In step S802, in order to perform horizontal writing and vertical writing determination (assembly direction determination) on the specific area, a horizontal / vertical projection is performed on the pixel value within the specific area.
ステップS803では、ステップS802の射影の分散を評価する。水平射影の分散が大きい場合は横書き、垂直射影の分散が大きい場合は縦書きと判断する。 In step S803, the variance of the projection in step S802 is evaluated. If the horizontal projection variance is large, it is determined as horizontal writing, and if the vertical projection variance is large, it is determined as vertical writing.
ステップS804では、ステップS803の評価結果に基づき、組み方向を判定し、行の切り出しを行い、その後文字を切り出して文字画像を得る。 In step S804, the composition direction is determined based on the evaluation result in step S803, the line is cut out, and then the character is cut out to obtain a character image.
文字列および文字への分解は、横書きならば水平方向の射影を利用して行を切り出し、切り出された行に対する垂直方向の射影から、文字を切り出す。縦書きの文字領域に対しては、水平と垂直について逆の処理を行う。行、文字切り出しに際して、文字のサイズも検出し得る。 In the case of horizontal writing, character strings and characters are cut out using horizontal projection, and characters are cut out from the projection in the vertical direction with respect to the cut lines. For vertically written character areas, the process is reversed for horizontal and vertical. When cutting out lines and characters, the size of characters can also be detected.
ステップS805では、ステップS804で切り出された各文字について、文字画像から得られる特徴を数十次元の数値列に変換した観測特徴ベクトルを生成する。特徴ベクトルの抽出には種々の公知手法があり、例えば、文字をメッシュ状に分割し、各メッシュ内の文字線を方向別に線素としてカウントしたメッシュ数次元ベクトルを特徴ベクトルとする方法がある。 In step S805, for each character extracted in step S804, an observation feature vector is generated by converting the feature obtained from the character image into a numerical sequence of several tens of dimensions. There are various known methods for extracting feature vectors. For example, there is a method in which characters are divided into meshes, and a mesh number-dimensional vector obtained by counting character lines in each mesh as line elements according to directions is used as a feature vector.
ステップS806では、ステップS805で得られた観測特徴ベクトルと、あらかじめ字種ごとに求められている辞書特徴ベクトルとを比較し、観測特徴ベクトルと辞書特徴ベクトルとの距離を算出する。 In step S806, the observation feature vector obtained in step S805 is compared with the dictionary feature vector obtained for each character type in advance, and the distance between the observation feature vector and the dictionary feature vector is calculated.
ステップS807では、ステップS806で算出された距離を評価し、最も距離の近い字種を認識結果とする。 In step S807, the distance calculated in step S806 is evaluated, and the character type with the closest distance is used as the recognition result.
ステップS808では、ステップS807における距離評価において、最短距離が所定値よりも大きいか否か、類似度を判断する。類似度が所定値以上の場合は、辞書特徴ベクトルにおいて、形状が類似する他の文字に誤認識している可能性が高い。そこで類似度が所定値以上の場合は、ステップS807の認識結果を採用せず、ステップS811の処置に進む。類似度が所定値より低い(小さい)ときは、ステップS807の認識結果を採用し、ステップS809に進む。 In step S808, it is determined whether or not the shortest distance is larger than a predetermined value in the distance evaluation in step S807. When the similarity is equal to or greater than a predetermined value, there is a high possibility that the dictionary feature vector is erroneously recognized as another character having a similar shape. Therefore, if the similarity is greater than or equal to a predetermined value, the recognition result in step S807 is not adopted, and the process proceeds to step S811. When the similarity is lower (smaller) than the predetermined value, the recognition result in step S807 is adopted, and the process proceeds to step S809.
ステップS809(フォント認識ステップ)では、文字認識の際に用いる字種数ぶんの辞書特徴ベクトルを、文字形状種すなわちフォント種に対して複数用意しておき、パターンマッチングの際に、文字コードとともにフォント種を出力することで、文字フォントを認識し得る。 In step S809 (font recognition step), a plurality of dictionary feature vectors for the number of character types used for character recognition are prepared for the character shape type, that is, the font type, and the character code and the font are used for pattern matching. The character font can be recognized by outputting the seed.
ステップS810では、文字認識およびフォント認識よって得られた文字コードおよびフォント情報を用いて、各々あらかじめ用意されたアウトラインデータを用いて、各文字をベクトルデータに変換する。なお、入力画像がカラーの場合は、カラー画像から各文字の色を抽出してベクトルデータとともに記録する。 In step S810, each character is converted into vector data using outline data prepared in advance using the character code and font information obtained by character recognition and font recognition. When the input image is color, the color of each character is extracted from the color image and recorded together with vector data.
ステップS811では、文字を一般的な線画と同様に扱い、該文字をアウトライン化する。すなわち誤認識を起こす可能性の高い文字については、可視的にイメージデータに忠実なアウトラインのベクトルデータを生成する。 In step S811, the character is handled in the same manner as a general line drawing, and the character is outlined. In other words, outline vector data that is visually faithful to the image data is generated for characters that are likely to cause erroneous recognition.
ステップS812では、特定領域が文字領域矩形ブロックでないときは、画像の輪郭に基づいてベクトル化の処理を実行する。 In step S812, when the specific area is not a character area rectangular block, vectorization processing is executed based on the contour of the image.
以上の処理により、文字領域矩形ブロックに属するイメージ情報をほぼ形状、大きさ、色が忠実なベクトルデータに変換出来る。 Through the above processing, the image information belonging to the character area rectangular block can be converted into vector data that is substantially faithful in shape, size, and color.
[文字領域以外の領域のベクトル化]
ステップS812の文字領域矩形ブロック以外の領域、すなわち図面領域矩形ブロック、線画領域矩形ブロック、表領域矩形ブロック等と判断されたときは、特定領域内で抽出された黒画素塊の輪郭をベクトルデータに変換する。
[Vectorization of areas other than character areas]
If it is determined in step S812 that the area is other than the character area rectangular block, that is, the drawing area rectangular block, the line drawing area rectangular block, the table area rectangular block, or the like, the outline of the black pixel block extracted in the specific area is used as vector data. Convert.
文字領域以外の領域のベクトル化においては、まず線画等を直線および/または曲線の組合せとして表現するために、曲線を複数の区間(画素列)に区切る「角」を検出する。角とは曲率が極大となる点であり、図9の曲線上の画素Piが角か否かの判断は以下のように行う。 In vectorization of regions other than character regions, first, “corners” that divide a curve into a plurality of sections (pixel columns) are detected in order to represent a line drawing or the like as a combination of straight lines and / or curves. A corner is a point at which the curvature is maximized, and whether or not the pixel Pi on the curve in FIG. 9 is a corner is determined as follows.
すなわち、Piを起点とし、曲線に沿ってPiから両方向に所定画素(k個とする)離れた画素Pi−k、Pi+kを線分Lで結ぶ。画素Pi−k、Pi+k間の距離をd1、線分Lと画素Piとの距離をd2、曲線の画素Pi−k、Pi+k間の弧の長さをAとするとき、d2が極大となるとき、あるいは比(d1/A)が閾値以下となるときに画素Piを角と判断する。 That is, pixels Pi-k and Pi + k that are separated by a predetermined pixel (k pixels) in both directions from Pi along the curve are connected by line segment L. When the distance between the pixels Pi-k and Pi + k is d1, the distance between the line segment L and the pixel Pi is d2, and the arc length between the curved pixels Pi-k and Pi + k is A, and d2 becomes a maximum. Alternatively, when the ratio (d1 / A) is equal to or less than the threshold value, the pixel Pi is determined to be a corner.
角によって分割された画素列を、直線あるいは曲線で近似する。直線への近似は最小二乗法等により実行し、曲線への近似は3次スプライン関数などを用いる。画素列を分割する角の画素は近似直線あるいは近似直線における、始端または終端となる。 The pixel row divided by the corner is approximated by a straight line or a curve. The approximation to a straight line is executed by the least square method or the like, and the approximation to a curve uses a cubic spline function or the like. The pixel at the corner that divides the pixel row is the approximate line or the start or end of the approximate line.
さらにベクトル化された輪郭内に白画素塊の内輪郭が存在するか否かを判断し、内輪郭が存在するときはその輪郭をベクトル化し、内輪郭の内輪郭というように、再帰的に反転画素の内輪郭をベクトル化する。 Furthermore, it is judged whether or not the inner contour of the white pixel block exists in the vectorized contour, and when there is an inner contour, the contour is vectorized and recursively inverted as the inner contour of the inner contour. The inner contour of the pixel is vectorized.
以上のように、輪郭の区分線近似を用いれば、任意形状の図形のアウトラインをベクトル化することができる。元原稿がカラーの場合は、カラー画像から図形の色を抽出してベクトルデータとともに記録する。 As described above, the outline of a figure having an arbitrary shape can be vectorized by using the contour line approximation. If the original document is in color, the figure color is extracted from the color image and recorded together with vector data.
図10に示すように、ある注目区間で外輪郭PRjと、内輪郭PRj+1あるいは別の外輪郭が近接している場合、2個あるいは複数の輪郭線をひとまとめにし、太さを持った線として表現することができる。例えば、輪郭Pj+1の各画素Piから輪郭PRj上で最短距離となる画素Qiまでの距離PiQiを算出し、PQiのばらつきがわずかである場合には、注目区間を画素Pi、Qiの中点Miの点列に沿った直線または曲線で近似し得る。近似直線、近似曲線の太さは、例えば距離PiQiの平均値とする。 As shown in FIG. 10, when the outer contour PRj and the inner contour PRj + 1 or another outer contour are close to each other in a certain section of interest, two or a plurality of contour lines are grouped together and expressed as a thick line. can do. For example, the distance PiQi from each pixel Pi of the contour Pj + 1 to the pixel Qi that is the shortest distance on the contour PRj is calculated. It can be approximated by a straight line or curve along the point sequence. The thickness of the approximate line and the approximate curve is, for example, an average value of the distance PiQi.
線や線の集合体である表罫線は、太さを持つ線の集合とすることにより、効率よくベクトル表現することができる。 A table ruled line, which is a line or a set of lines, can be efficiently expressed as a vector by using a set of lines having a thickness.
なお写真領域矩形ブロックについては、ベクトル化せず、イメージデータのままとする。 Note that the photographic area rectangular block is not vectorized and remains as image data.
[修正部分抽出処理]
次に、図3のステップS312で示す修正部分抽出処理の詳細について図11のフローチャートを参照しつつ説明する。
[Correction part extraction processing]
Next, details of the corrected portion extraction process shown in step S312 of FIG. 3 will be described with reference to the flowchart of FIG.
ここでは、図4の画像41を読み込み、ステップS302の結果、抽出された各矩形ブロック及び入力画像データが、図5に示すブロック情報および入力ファイル情報を備えるものとし、かつ特定領域内のベクトル化情報を保持しているものとする。 Here, it is assumed that the image 41 of FIG. 4 is read, and each rectangular block and input image data extracted as a result of step S302 include the block information and input file information shown in FIG. Assume that information is retained.
また、ステップS311までの処理により、読込んだ原稿のオリジナルのブロック情報とベクトル情報が得られているものとする。 Further, it is assumed that the original block information and vector information of the read original are obtained by the processing up to step S311.
ステップS1101では、ステップS304でユーザが指定したブロックのうち、未比較のブロックの1つを選択する。 In step S1101, one of the uncompared blocks is selected from the blocks designated by the user in step S304.
ステップS1102では、選択されているブロックとオリジナル原稿のブロック情報を比較する。比較には、ブロックの位置とサイズを用いる。同じ位置に異なる大きさのブロックがあれば、大きい方のブロックをさらに分割して複数のブロックに分けて比較を行う。これにより、ブロックの認識誤差により比較が出来ないことを防止できる。読み込み原稿側のブロックを分割した場合は、分割したブロックのうち比較対象のもの意外は、未比較のブロックリストに加える。 In step S1102, the block information of the selected block is compared with the block information of the original document. For comparison, the position and size of the block are used. If there are blocks of different sizes at the same position, the larger block is further divided into a plurality of blocks for comparison. As a result, it is possible to prevent comparisons from being made due to block recognition errors. When the block on the read original side is divided, the blocks other than those to be compared among the divided blocks are added to the uncompared block list.
ステップS1103では、ステップS1102で行った比較の結果を判断する。ブロックの位置と大きさにが、あらかじめ設定してある誤差範囲内に収まる場合、近似ブロックがあると判断してステップS1104に遷移し、そうでなければ、そのブロック自体が追加修正された部分であると判断し、ステップS1109に遷移する。 In step S1103, the result of the comparison performed in step S1102 is determined. When the position and size of the block are within the preset error range, it is determined that there is an approximate block, and the process proceeds to step S1104. Otherwise, the block itself is an additionally modified part. It is determined that there is, and the process proceeds to step S1109.
ステップS1109では、洗濯されているブロックを差分ベクトルとするためベクトル化を行う。そして差分ベクトルリストに得られたベクトル情報を追加する。 In step S1109, vectorization is performed to set the washed block as a difference vector. Then, the obtained vector information is added to the difference vector list.
ステップS1104では、近似ブロック内のベクトル情報を比較する。もしも、比較するブロックが図形領域である場合は、画像同士を比較しその差分を作成する。そして、画像の差分についてベクトル化を行う。また、比較するブロックの領域が文字領域の場合は文字コードで比較を行う。領域の属性が異なる場合は、領域を図形領域に変換し画像の差分を取得する。 In step S1104, the vector information in the approximate block is compared. If the block to be compared is a graphic area, the images are compared to create a difference. Then, the image difference is vectorized. When the block area to be compared is a character area, the comparison is performed using a character code. If the attributes of the areas are different, the area is converted into a graphic area and an image difference is acquired.
ステップS1105では、ステップS1105の比較の結果、差分ベクトルが取得できたかどうかを判別する。差分ベクトルが取得できていれば、ステップS1106へ、そうでなければ、ステップS1107に遷移する。 In step S1105, it is determined whether the difference vector has been acquired as a result of the comparison in step S1105. If the difference vector has been acquired, the process proceeds to step S1106; otherwise, the process proceeds to step S1107.
ステップS1106では、ステップS1104で得られた差分ベクトル情報を差分ベクトルリストに追加する。 In step S1106, the difference vector information obtained in step S1104 is added to the difference vector list.
ステップS1107では、ステップS304でユーザが指定したブロックのうち、未選択のものがあるかどうかチェックする。全ブロック比較が終わっていれば、ステップS1108に、そうでなければ、ステップS1101に遷移する。 In step S1107, it is checked whether there is an unselected block among the blocks designated by the user in step S304. If all block comparisons have been completed, the process proceeds to step S1108; otherwise, the process proceeds to step S1101.
ステップS1108では、前記ステップで得られた差分ベクトル情報を図形オブジェクト毎にグループ化する。図形のグループ化については、後述の図12のフローチャートを参照して詳しく説明する。 In step S1108, the difference vector information obtained in the above step is grouped for each graphic object. The grouping of figures will be described in detail with reference to the flowchart of FIG.
[図形認識]
以上の線図形等のアウトラインをベクトル化した後、ベクトル化された区分線を図形オブジェクトごとにグループ化する。
[Figure recognition]
After the outlines of the above line figures and the like are vectorized, the vectorized dividing lines are grouped for each graphic object.
図12の各ステップは、ベクトルデータを図形オブジェクトごとにグループ化する処理を示す。 Each step of FIG. 12 shows a process of grouping vector data for each graphic object.
ステップS1201では、まず各ベクトルデータの始点、終点を算出する。 In step S1201, first, the start point and end point of each vector data are calculated.
ステップS1202では、ステップS1201で求められた始点、終点情報を用いて、図形要素を検出する。図形要素とは、区分線が構成している閉図形であり、検出に際しては、始点、終端となっている共通の角の画素においてベクトルを連結する。すなわち、閉形状を構成する各ベクトルはその両端にそれぞれ連結するベクトルを有しているという原理を応用する。 In step S1202, a graphic element is detected using the start point and end point information obtained in step S1201. A graphic element is a closed graphic formed by a dividing line, and a vector is connected at a common corner pixel serving as a start point and an end point for detection. That is, the principle that each vector constituting the closed shape has a vector connected to each of both ends thereof is applied.
まず、ベクトルデータより両端に連結していない不要なベクトルを除去し、閉図形を構成するベクトルを抽出する。次に閉図形を構成するベクトルについて、いずれかのベクトルの端点(始点または終点)を開始点とし、一定方向、例えば時計回りに、順にベクトルを探索する。すなわち、他端点において他のベクトルの端点を探索し、所定距離内の最近接端点を連結ベクトルの端点とする。閉図形を構成するベクトルを1回りして開始点に戻ったとき、通過したベクトルを全て一つの図形要素を構成する閉図形としてグループ化する。また、閉図形内部にある閉図形構成ベクトルも全てグループ化する。さらにまだグループ化されていないベクトルの始点を開始点とし、同様の処理を繰り返す。最後に、ステップS1201で除去された不要ベクトルのうち、ステップS1202で閉図形としてグループ化されたベクトルに端点が近接しているベクトルを検出し、一つの図形要素としてグループ化する。 First, unnecessary vectors that are not connected to both ends are removed from the vector data, and a vector constituting the closed figure is extracted. Next, for the vectors constituting the closed figure, the vectors are searched in order in a certain direction, for example, clockwise, with the end point (start point or end point) of one of the vectors as the start point. That is, the end point of another vector is searched at the other end point, and the closest end point within a predetermined distance is set as the end point of the connected vector. When the vector constituting the closed figure is rotated once and returned to the starting point, all the passed vectors are grouped as a closed figure constituting one graphic element. In addition, all closed graphic constituent vectors inside the closed graphic are also grouped. Further, the same processing is repeated with the starting point of a vector not yet grouped as a starting point. Finally, among the unnecessary vectors removed in step S1201, a vector whose end point is close to the vector grouped as a closed graphic in step S1202 is detected and grouped as one graphic element.
ステップS1203では、次に図形要素内に存在する他の図形要素、もしくは区分線をグループ化し、一つの図形オブジェクトとする。また、図形要素内に他の図形要素、区分線が存在しない場合は図形要素を図形オブジェクトとする。
以上の処理によって図形ブロックを、再利用可能な個別の図形オブジェクトとして扱う事が可能になる。
In step S1203, next, other graphic elements or division lines existing in the graphic element are grouped into one graphic object. If there is no other graphic element or dividing line in the graphic element, the graphic element is set as a graphic object.
With the above processing, a graphic block can be handled as a reusable individual graphic object.
この処理により、差分ベクトル情報が図形オブジェクトとしてグループ化される。 By this processing, the difference vector information is grouped as a graphic object.
以上の処理により、図4に示す原稿のオリジナル画像を図13の131であるとすると、図形オブジェクトは132のように得ることができる。 As a result of the above processing, if the original image of the document shown in FIG. 4 is 131 in FIG. 13, a graphic object can be obtained as 132.
以上により、手書きやコピー処理により、オリジナル原稿に追加された情報がベクトル情報からなる図形オブジェクトとして得られ、サーバに登録がなされる。 As described above, information added to the original document is obtained as a graphic object made up of vector information by handwriting or copy processing, and is registered in the server.
図14はデータベース105に保存される文書の構造を示した図である。この例では、データベース105に文書a:1302と文書b:1305が保存されている。文書a:1302には修正情報として、手書き情報1:1303と手書き情報2:1304が登録されている。同様に、文書b:1305には修正情報として、手書き情報3:1306と手書き情報4:1307が登録されている。手書き情報には修正図形のベクトル情報や、それぞれ追加した日時や追加者の情報が記録されている。 FIG. 14 is a diagram showing the structure of a document stored in the database 105. In this example, a document a 1302 and a document b: 1305 are stored in the database 105. In the document a: 1302, handwritten information 1: 1030 and handwritten information 2: 1304 are registered as correction information. Similarly, handwritten information 3: 1306 and handwritten information 4307 are registered in the document b: 1305 as correction information. In the handwritten information, vector information of the corrected figure, date and time of addition, and information of the adder are recorded.
このようにして登録された文書の印刷について説明する。例えば、データベース105に登録された文書a:1302を印刷する際には、文書a:1302のオリジナルを印刷する方法だけでなく、文書a:1302と手書き情報1:1303を合成させて印刷出力することができる。 The printing of a document registered in this way will be described. For example, when printing the document a 1302 registered in the database 105, not only the method of printing the original of the document a 1302, but also the document a 1302 and the handwritten information 1: 1303 are combined and printed out. be able to.
まず、表示装置116と入力装置113を用いてデータベース105中の文書a:1301を選択する。次に、ユーザに合成する修正情報を指定させる。この際、修正情報の合成方法には(g)〜(k)等が存在する。 First, the document a: 1301 in the database 105 is selected using the display device 116 and the input device 113. Next, the user is caused to specify correction information to be synthesized. At this time, there are (g) to (k) and the like in the correction information synthesizing method.
(g)読み取った時の状態を復元して合成する。 (G) Restore and synthesize the read state.
(h)修正情報をオリジナル画像とは異なった色で合成する。 (H) The correction information is synthesized with a color different from that of the original image.
(i)オリジナル画像と修正情報が重なる場合や、修正情報が2つ以上指定され、それらが重なる場合は、お互いが重ならない位置に移動して合成する。 (I) When the original image and the correction information overlap, or when two or more correction information are specified and they overlap, they are moved to a position where they do not overlap and are combined.
(j)オリジナル画像と修正情報が重なる場合や、修正情報が2つ以上指定され、それらが重なる場合は、修正情報を縮小して合成する。 (J) When the original image and the correction information overlap, or when two or more correction information are specified and they overlap, the correction information is reduced and combined.
(k)上記の組合せで合成する。 (K) Synthesize with the above combination.
これらの合成方法は修正情報が、ベクトルデータとして格納されており、移動、拡大縮小、色の変更が行えるため、従来技術で容易に実現ができる。 In these combining methods, correction information is stored as vector data and can be moved, enlarged / reduced, and changed in color.
第1実施形態では、ユーザがベクトル化対象とする特定領域を指定する際に、BS(ブロックセレクション処理)によって自動的に生成された矩形ブロックのうちの1個もしくは複数を、入力手段等により指定したが、本発明がこれに限定されないことはいうまでもない。 In the first embodiment, when a user designates a specific area to be vectorized, one or more of rectangular blocks automatically generated by a BS (block selection process) are designated by an input means or the like. However, it goes without saying that the present invention is not limited to this.
BS(ブロックセレクション処理)による矩形ブロックを生成せず、入力画像そのものをMFP100の操作部画面に表示し、ユーザが希望する領域を開始座標、終了座標によって指定してもよい。例えば開始座標、終了座標により特定領域を指定する。開始座標、終了座標の指定方法としては、操作画面をタッチパネルとして、このタッチパネルで行う方法、数値キー等により座標を入力する方法等がある。 Instead of generating a rectangular block by BS (block selection processing), the input image itself may be displayed on the operation unit screen of MFP 100, and an area desired by the user may be designated by start coordinates and end coordinates. For example, the specific area is designated by the start coordinate and the end coordinate. As a method for designating the start coordinate and the end coordinate, there are a method in which the operation screen is used as a touch panel, a method in which the touch screen is used, a method in which coordinates are input by a numerical key, and the like.
第1実施形態では、オリジナル画像を原稿画像に含まれるポインタ情報から得ていたが、ポインタ情報にさらに、修正情報の情報を入れておいても良い。
例えば、図13の文書a:1302を印刷する際に、手書き情報1を加えて印刷する場合を想定する。この場合には、ポインタ情報としてデータベース105上の文書a:1302の情報と手書き情報1:1303の情報も付加しておく。これにより印刷された画像に修正を加えその修正を登録する際には、文書a:1302に手書き情報1:1303を加えた画像からの差分を登録することが可能となる。つまり、手書き情報1:1303が2重に登録することを防ぐことが出来る。
In the first embodiment, the original image is obtained from the pointer information included in the document image. However, the correction information may be added to the pointer information.
For example, it is assumed that the document a: 1302 in FIG. 13 is printed with the handwritten information 1 added. In this case, the information of the document a 1302 on the database 105 and the information of handwritten information 1: 1030 are also added as pointer information. Thus, when a correction is made to the printed image and the correction is registered, it is possible to register a difference from the image obtained by adding the handwritten information 1: 10303 to the document a 1302. That is, it is possible to prevent the handwritten information 1: 10303 from being registered twice.
以上が、本発明に係る実施形態である。 The above is an embodiment according to the present invention.
なお以上の実施形態においては、画像読み取り装置110等から入力された入力画像の処理について説明したが、記憶媒体に格納されたラスターデータあるいはその符号化データよりなるイメージデータ、通信手段によって供給されたイメージデータ等、入力画像以外のイメージデータについても、本発明は有効である。 In the above embodiment, processing of an input image input from the image reading device 110 or the like has been described. However, raster data stored in a storage medium or image data composed of encoded data thereof, supplied by communication means. The present invention is also effective for image data other than the input image, such as image data.
本発明に係る画像処理方法を実施する手段は図1、図2に記載した画像処理システムに限定されるものではなく、専用の画像処理装置、汎用コンピュータ等種々の手段を採用し得る。 Means for carrying out the image processing method according to the present invention is not limited to the image processing system described in FIGS. 1 and 2, and various means such as a dedicated image processing apparatus and a general-purpose computer may be employed.
汎用コンピュータにおいて実行する際には、画像処理方法の各ステップを汎用コンピュータに実行させるためプログラムコードを含むコンピュータ実行可能なプログラムを、汎用コンピュータに読み込ませる。 When executed on a general-purpose computer, a computer-executable program including program code for causing the general-purpose computer to execute each step of the image processing method is read into the general-purpose computer.
汎用コンピュータが画像処理を実行するためのプログラムは、汎用コンピュータに内蔵されたROMや、汎用コンピュータが読み取り得る記憶媒体から読み込まれ、あるいはネットワークを通じてサーバ等から読み込まれる。 A program for the general-purpose computer to execute image processing is read from a ROM built in the general-purpose computer, a storage medium readable by the general-purpose computer, or read from a server or the like through a network.
また本発明の趣旨と範囲は、本発明の特定の説明と図に限定されるものではなく、本願特許請求の範囲に述べられた内容の様々な修正および変更に及ぶことは当業者にとって理解されるであろう。 Further, it is understood by those skilled in the art that the spirit and scope of the present invention are not limited to the specific description and drawings of the present invention, but cover various modifications and changes in the contents described in the claims of the present application. It will be.
本発明によれば、印刷画像について手書きや合成により修正がなされた情報を、ベクトルデータに変換し、オリジナルデータと関連付けを行い登録することができる。そして、複数人による手書き修正情報を共有し、紙と電子データの融合を容易することができる。 According to the present invention, it is possible to convert information that has been corrected by handwriting or synthesis of a print image into vector data, associate it with the original data, and register it. And handwriting correction information by a plurality of people can be shared, and the fusion of paper and electronic data can be facilitated.
10 オフィス
20 オフィス
100 MFP
101 マネージメントPC
102 クライアントPC
103 プロキシサーバ
104 インターネット
105 データベース
106 文書管理サーバ
107 LAN
108 LAN
109 LAN
10 Office 20 Office 100 MFP
101 Management PC
102 Client PC
103 Proxy Server 104 Internet 105 Database 106 Document Management Server 107 LAN
108 LAN
109 LAN
Claims (6)
画像に関連付けられたオリジナル電子情報を取得するオリジナル情報取得手段と、
画像をベクトルデータに変換するベクトルデータ変換手段と、
オリジナル電子情報と画像から差分ベクトル情報を作成する差分抽出手段と、
を含む画像形成装置において、
抽出した差分ベクトル情報を、オリジナル電子データに関連付けて登録することを特徴とする画像形成装置。 An image input means for inputting an image;
Original information acquisition means for acquiring original electronic information associated with the image;
Vector data conversion means for converting an image into vector data;
Difference extraction means for creating difference vector information from the original electronic information and the image;
In an image forming apparatus including:
An image forming apparatus, wherein the extracted difference vector information is registered in association with original electronic data.
画像を入力する画像入力手段は、
原稿を光学的に読込み画像情報を得る原稿読込手段であることを特徴とした画像形成装置。 The image forming apparatus according to claim 1,
Image input means for inputting an image is
An image forming apparatus comprising: a document reading unit that optically reads a document and obtains image information.
画像出力手段を含み、
さらにオリジナル電子データに関連付けされた差分ベクトル情報をオリジナル電子データと合成して出力する時に、
出力画像に差分ベクトル情報とオリジナル電子データを関連付けることを特徴とする画像形成装置。 The image forming apparatus according to claim 1, wherein:
Including image output means,
Furthermore, when the difference vector information associated with the original electronic data is combined with the original electronic data and output,
An image forming apparatus, wherein difference vector information and original electronic data are associated with an output image.
画像に関連付けられたオリジナル電子情報を取得するオリジナル情報取得ステップと、
画像をベクトルデータに変換するベクトルデータ変換ステップと、
オリジナル電子情報と画像から差分ベクトル情報を作成する差分抽出ステップと、
を含む画像形成方法において、
抽出した差分ベクトル情報を、オリジナル電子データに関連付けて登録することを特徴とする画像形成方法。 An image input step for inputting an image;
An original information acquisition step of acquiring original electronic information associated with the image;
A vector data conversion step for converting the image into vector data;
A difference extraction step of creating difference vector information from the original electronic information and the image;
In an image forming method including:
An image forming method, wherein the extracted difference vector information is registered in association with original electronic data.
画像を入力する画像入力ステップは、
原稿を光学的に読込み画像情報を得る原稿読込ステップであることを特徴とした画像形成方法。 The image forming method according to claim 4,
The image input step to input an image is
An image forming method comprising: an original reading step for optically reading an original to obtain image information.
画像出力ステップを含み、
さらにオリジナル電子データに関連付けされた差分ベクトル情報をオリジナル電子データと合成して出力する時に、
出力画像に差分ベクトル情報とオリジナル電子データを関連付けることを特徴とする画像形成方法。 The image forming method according to claim 4 or 5, wherein:
Including an image output step,
Furthermore, when the difference vector information associated with the original electronic data is combined with the original electronic data and output,
An image forming method comprising associating difference vector information and original electronic data with an output image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005073019A JP2006261772A (en) | 2005-03-15 | 2005-03-15 | Image forming apparatus and image forming method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005073019A JP2006261772A (en) | 2005-03-15 | 2005-03-15 | Image forming apparatus and image forming method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006261772A true JP2006261772A (en) | 2006-09-28 |
Family
ID=37100572
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005073019A Withdrawn JP2006261772A (en) | 2005-03-15 | 2005-03-15 | Image forming apparatus and image forming method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006261772A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013109724A (en) * | 2011-11-24 | 2013-06-06 | Oki Data Corp | Image processing apparatus, image processing program, and image processing system |
-
2005
- 2005-03-15 JP JP2005073019A patent/JP2006261772A/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013109724A (en) * | 2011-11-24 | 2013-06-06 | Oki Data Corp | Image processing apparatus, image processing program, and image processing system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4251629B2 (en) | Image processing system, information processing apparatus, control method, computer program, and computer-readable storage medium | |
JP5247601B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP4557765B2 (en) | Image processing apparatus and method | |
JP4502385B2 (en) | Image processing apparatus and control method thereof | |
US7640269B2 (en) | Image processing system and image processing method | |
JP4854491B2 (en) | Image processing apparatus and control method thereof | |
JP4533187B2 (en) | Image processing apparatus and control method thereof | |
US20080100624A1 (en) | Image processing apparatus and method, and program | |
JP2006023945A (en) | Image processing system and image processing method | |
JP4227432B2 (en) | Image processing method | |
JP4557875B2 (en) | Image processing method and apparatus | |
JP5020698B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2008028716A (en) | Image processing method and apparatus | |
JP2007129557A (en) | Image processing system | |
CN100501728C (en) | Image processing method, system, program, program storage medium and information processing apparatus | |
JP2006261772A (en) | Image forming apparatus and image forming method | |
JP4323856B2 (en) | Image processing method | |
JP2005149097A (en) | Image processing system and image processing method | |
JP2006309622A (en) | Image processor, image processing method, image processing program and recording medium | |
JP4159948B2 (en) | Two-dimensional code reading device, two-dimensional code reading method, two-dimensional code reading program, and storage medium | |
JP4665754B2 (en) | Image generating apparatus, image generating method, and program | |
JP2005157905A (en) | Image processing device and method and program | |
JP2006146486A (en) | Image processor | |
JP2008084127A (en) | Image forming device | |
JP2005165674A (en) | Image processor, image processing method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20080603 |