JP2005253005A - Information processing apparatus and method therefor, computer program and computer-readable storage medium - Google Patents

Information processing apparatus and method therefor, computer program and computer-readable storage medium Download PDF

Info

Publication number
JP2005253005A
JP2005253005A JP2004064493A JP2004064493A JP2005253005A JP 2005253005 A JP2005253005 A JP 2005253005A JP 2004064493 A JP2004064493 A JP 2004064493A JP 2004064493 A JP2004064493 A JP 2004064493A JP 2005253005 A JP2005253005 A JP 2005253005A
Authority
JP
Japan
Prior art keywords
character
information
character image
image
embedding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004064493A
Other languages
Japanese (ja)
Inventor
Takami Eguchi
貴巳 江口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004064493A priority Critical patent/JP2005253005A/en
Publication of JP2005253005A publication Critical patent/JP2005253005A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique for embedding the information of both types of characters without hardly causing the sense of incongruity for a document image in which the character types having different character widths such as Japanese or English. <P>SOLUTION: A document analyzer 102 obtains the position and the size of part circumscription rectangle each character image from a document image inputted from an input 101, forms the result of an analysis into a data format for each line, and outputs it to a normalizer 104. In the normalizer 104, a Japanese character image is set between characters that correspond to Japanese characters, and an English character is normalized between characters that correspond to English characters. An information embed part 108 embeds a division by utilizing an embedding technology that exerts an influence upon the blank length between the adjacent characters with respect to the Japanese characters, and embeds information by adjusting the vertical position of a character with respect to the English characters. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、文書画像への情報の埋め込み、並びに、埋め込まれた情報を抽出する技術に関するものである。   The present invention relates to a technique for embedding information in a document image and extracting the embedded information.

近年、文字データ、画像データ、音声データなどメディアの電子化やネットワーク化が促進されていくなかで、デジタルデータそのものの不正コピー防止や、デジタルデータとメタデータの関連付けが求められている。   In recent years, with the progress of computerization and networking of media such as character data, image data, and audio data, prevention of unauthorized copying of digital data itself and association between digital data and metadata are required.

一方、文書・画像において配布形態は依然として印刷物で行われることが多い。このように、デジタルデータと印刷物とが併用されているので、デジタルデータを印刷物として配布する際の配布先の形態や、印刷物とデジタルデータとをリンクさせるような何らかの手段が求められてきている。   On the other hand, in the case of documents / images, the distribution form is still often printed. As described above, since digital data and printed material are used in combination, there is a need for a form of a distribution destination when digital data is distributed as printed material and some means for linking the printed material and digital data.

このような状況において、静止画などの多値画像や文書画像については、電子透かしによって透かし情報を埋め込む手法が提案されてきており、注目されている。電子透かしによる埋め込みとは、ディジタルの画像データや音声データ、文字データなどに人に知覚出来ないようにオリジナルデータの一部を変更して透かし情報を埋め込む技術のことを言う。   Under such circumstances, a technique for embedding watermark information with a digital watermark has been proposed for a multi-valued image such as a still image or a document image. The digital watermark embedding means a technique for embedding watermark information by changing a part of original data so that digital image data, audio data, character data, etc. cannot be perceived by humans.

多値画像に対する電子透かし技術としては、一般的に画素の濃度の冗長性を利用した種々の方法が知られている。例えば、各画素値を変化させて埋め込む方法である(非特許文献1)。   As a digital watermark technique for a multi-valued image, various methods using the redundancy of pixel density are generally known. For example, it is a method of embedding by changing each pixel value (Non-Patent Document 1).

一方、文字等で構成される文書画像のような二値画像は冗長度が少なく、電子透かし技術を実現するのが難しいが、文書画像特有の特徴を利用した電子透かし方法がいくつか知られている。例えば、行のベースラインを動かす方法(特許文献1)、単語間空白長を操作する方法(特許文献2、特許文献3)、文字間の空白長を操作する方法(非特許文献2)、文字を回転して傾斜を変化させる方法(非特許文献3)などが挙げられる。   On the other hand, binary images such as document images composed of characters and the like have little redundancy, and it is difficult to realize digital watermark technology. However, there are some known digital watermark methods using characteristics unique to document images. Yes. For example, a method of moving the baseline of a line (Patent Document 1), a method of operating a space length between words (Patent Document 2, Patent Document 3), a method of operating a space length between characters (Non-Patent Document 2), a character And a method of changing the inclination by rotating (Non-Patent Document 3).

ここでは、文字間の空白長を操作して情報を埋め込む方法を図20と図21を用いて説明する。   Here, a method of embedding information by manipulating the space length between characters will be described with reference to FIGS.

図20は、透かし情報の埋め込み前の文書画像の一部を示している。また、図21は、図20の文書画像の一部に対して透かし情報を埋め込んだ後の文書画像の一部を示す図である。   FIG. 20 shows a part of a document image before embedding watermark information. FIG. 21 is a diagram showing a part of the document image after watermark information is embedded in a part of the document image of FIG.

図20に示される各文字間の空白長P0、S0、P1、S1は、透かし情報が埋め込まれると、図21に示される各文字間の空白長P0’、S0’、P1’、S1’になる。図20及び図21では、文字が5文字、文字間の空白が4つある。埋め込む情報1ビットに対して2つの空白長を割り当てることになるので、4つの空白によって2ビットの情報を埋め込むことが可能である。   The space lengths P0, S0, P1, and S1 between the characters shown in FIG. 20 become the space lengths P0 ′, S0 ′, P1 ′, and S1 ′ between the characters shown in FIG. 21 when watermark information is embedded. Become. 20 and 21, there are five characters and four spaces between characters. Since two blank lengths are assigned to one bit of information to be embedded, it is possible to embed 2-bit information with four blanks.

従って、今、バイナリ(二進)の「01」を埋め込む場合には、図20においてP0とS0との間の「子」という文字画像を左に、P1とS1との間の「か」という文字画像を右にシフト(移動)させて、図21に示す様な文書画像を生成することになる。   Therefore, when embedding binary (binary) “01”, the character image “child” between P0 and S0 in FIG. 20 is on the left and “ka” between P1 and S1. The character image is shifted (moved) to the right to generate a document image as shown in FIG.

図22は、文字を回転して傾斜を変化させることによる電子透かしによって透かし情報が埋め込まれた場合の文字画像を示している。例えば,時計回りに回転された場合に「1」が埋め込まれ(図22における1)、反時計回りに回転された場合に「0」が埋め込まれるものとする(図22における2)。図22では,「透」の文字画像が時計回りに回転され、また「し」の文字画像が反時計回りに回転されているので、この場合にはバイナリで「10」という情報が埋め込まれていることになる。
Techniques for data hiding W. Bender, D. Gruhl, N. Morimoto, A. Lu IBM Systems Journal, vol.35, nos.3&4, 1996. King Mongkut大学による“Electronic document data hiding technique using inter-character space”, The 1998 IEEE Asia-Pacific Conf. On Circuits and Systems,1998,pp.419-422.) “和文書へのシール画像による電子透かし”(中村康弘,松井甲子雄),情報処理学会論文誌 Vol.38 No.11 Nov. 1997. 特許第3136061号公報 米国特許第6086706号公報 特開平9−186603号公報
FIG. 22 shows a character image when watermark information is embedded by digital watermarking by rotating the character and changing the inclination. For example, “1” is embedded when rotated clockwise (1 in FIG. 22), and “0” is embedded when rotated counterclockwise (2 in FIG. 22). In FIG. 22, the character image of “through” is rotated clockwise and the character image of “shi” is rotated counterclockwise. In this case, information “10” is embedded in binary. Will be.
Techniques for data hiding W. Bender, D. Gruhl, N. Morimoto, A. Lu IBM Systems Journal, vol. 35, nos. 3 & 4, 1996. ("Electronic document data hiding technique using inter-character space" by King Mongkut University, The 1998 IEEE Asia-Pacific Conf. On Circuits and Systems, 1998, pp.419-422.) “Digital Watermarking with Sealed Images on Japanese Documents” (Yasuhiro Nakamura, Kokoo Matsui), Transactions of Information Processing Society of Japan Vol. Japanese Patent No. 3136061 US Pat. No. 6,086,706 JP-A-9-186603

上記のように文書画像中に情報を埋め込む技術は幾つか存在するが、重要な点は、人間の目から、埋め込みが行われたかを知覚しにくい状態にすることである。   As described above, there are several techniques for embedding information in a document image. However, an important point is to make it difficult for human eyes to perceive whether embedding has been performed.

ところで、日本語(漢字や平かな等の文字セット)に着目すると、一部の例外的な文字は存在するものの、各文字のサイズは殆ど同じであり、整然と並ぶ傾向が高い。一方、英文の場合、英文字には大文字、小文字があり、なおかつ、それぞれの文字のサイズは日本語の文字と比較して一様ではないし、単語を構成する文字間隔も狭い。このような特性の相違に鑑み、日本語文字セットと英語文字セットとが混在した文書画像に、情報を埋め込む際には、いずれの場合であっても違和感のないように埋め込むことが望まれる。   By the way, focusing on Japanese (a character set such as kanji or flat), although there are some exceptional characters, the sizes of the characters are almost the same, and there is a high tendency to orderly. On the other hand, in the case of English sentences, there are uppercase letters and lowercase letters in English letters, and the size of each letter is not uniform as compared with Japanese letters, and the spacing between the letters constituting the word is narrow. In view of such a difference in characteristics, when embedding information in a document image in which a Japanese character set and an English character set are mixed, it is desired to embed the information so that there is no sense of incongruity in any case.

本発明はかかる問題点に鑑みなされたものであり、日本語や英語等、異なる文字幅を有する文字タイプが混在した文書画像に対し、違和感が発生しにくく、双方のタイプに情報を埋め込む技術を提供しようとするものである。   The present invention has been made in view of such problems, and a technique for embedding information in both types is unlikely to occur in a document image in which character types having different character widths such as Japanese and English are mixed. It is something to be offered.

この課題を解決するため、例えば本発明の文書処理装置は以下の構成を備える。すなわち、
文書画像に情報を埋め込む情報処理装置であって、
隣接する文字画像間の空白長に影響を与え、情報を埋め込む第1の埋め込み手段と、
文字の並び方向に対して直交する方向の位置に影響を与え、情報を埋め込む第2の埋め込み手段と、
入力した文書画像中の各文字画像の外接矩形の位置とサイズに関する情報を抽出する抽出手段と、
抽出された各文字画像の位置とサイズに基づき、各文字画像を、第1の文字幅を有する第1の文字画像タイプと、前記第1の文字幅よりも狭い第2の文字幅を有する第2の文字画像タイプに分類する分類手段と、
前記第1の文字画像タイプの文字画像については前記第1の埋め込み手段を、前記第2の文字画像タイプの文字画像については前記第2の埋め込み手段を選択する選択手段とを備える。
In order to solve this problem, for example, the document processing apparatus of the present invention has the following configuration. That is,
An information processing apparatus for embedding information in a document image,
A first embedding unit that affects the blank length between adjacent character images and embeds information;
A second embedding means for influencing the position in the direction orthogonal to the character arrangement direction and embedding information;
Extraction means for extracting information about the position and size of the circumscribed rectangle of each character image in the input document image;
Based on the position and size of each extracted character image, each character image is divided into a first character image type having a first character width and a second character width having a second character width smaller than the first character width. A classification means for classifying into two character image types;
Selecting means for selecting the first embedding means for the character image of the first character image type, and selecting the second embedding means for the character image of the second character image type;

本発明によれば、第1の文字幅を有する第1の文字画像タイプ、第1の文字幅より狭い第2の文字画像タイプ別に、それぞれに適した埋め込み処理を行うことで、これら異なるタイプの文字が混在した画像において、違和感が発生しにくく、双方のタイプに情報を埋め込むことが可能になる。   According to the present invention, by performing embedding processing suitable for each of the first character image type having the first character width and the second character image type narrower than the first character width, In an image in which characters are mixed, a sense of incongruity hardly occurs, and information can be embedded in both types.

以下、添付図面に従って本発明に係る実施形態を詳細に説明する。   Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

<第1の実施形態>
図1は、第1の実施形態における電子透かし埋め込み装置の構成概念図である。
<First Embodiment>
FIG. 1 is a conceptual diagram of the configuration of the digital watermark embedding apparatus according to the first embodiment.

本第1の実施形態による電子透かし情報埋め込み装置は、入力部101(イメージスキャナ等)から入力された文書画像100内の文書解析を行って文字の大きさおよび位置情報を認識する文書解析部102と、文字認識を行って文字コード情報、フォント情報を認識する認識処理部103と、認識処理部103における文字認識に用いられる辞書である認識辞書105と、文字認識結果に基づいて、文書画像を正規化する正規化部104と、入力された検証画像100及び正規化された文書画像106を利用して透かし情報入力部107(予めユーザによって入力もしくは登録された情報)より入力した情報を埋め込む透かし情報埋め込み部108と、電子透かし埋め込み済み画像110を生成する画像出力部109から構成される。   The digital watermark information embedding device according to the first embodiment performs document analysis in the document image 100 input from the input unit 101 (image scanner or the like) and recognizes character size and position information. A recognition processing unit 103 that recognizes character code information and font information by performing character recognition, a recognition dictionary 105 that is a dictionary used for character recognition in the recognition processing unit 103, and a document image based on a character recognition result. A watermark for embedding information input from a watermark information input unit 107 (information input or registered in advance by the user) using the normalization unit 104 for normalization and the input verification image 100 and the normalized document image 106 It comprises an information embedding unit 108 and an image output unit 109 that generates a digital watermark embedded image 110.

図1に電子透かし埋め込み装置の構成概念図を示したが、その具体的構成を示すのであれば図23のようになる。なお、電子透かし抽出する側の装置も同様の構成で実現できるものである。   FIG. 1 is a conceptual diagram of the configuration of the digital watermark embedding apparatus. FIG. 23 shows a specific configuration thereof. The apparatus on the digital watermark extracting side can also be realized with the same configuration.

図23において,コンピュータ2301は、一般に普及しているパーソナルコンピュータ等の汎用の情報処理装置であり、スキャナ等の画像入力装置2317から読み取られた画像を入力し、編集や保管を行うことが可能である。また、画像入力装置2317で得られた画像をプリンタ2316から印刷させることができる。尚、ユーザからの各種指示等は、マウス(登録商標)2313、キーボード2314からの入力操作により行われる。コンピュータ2301の内部では、バス2307により後述する各ブロックが接続され、種々のデータの受け渡しが可能である。   In FIG. 23, a computer 2301 is a general-purpose information processing device such as a personal computer that is generally used. The computer 2301 can input an image read from an image input device 2317 such as a scanner, and can edit and store the image. is there. Further, an image obtained by the image input device 2317 can be printed from the printer 2316. Various instructions and the like from the user are performed by input operations from a mouse (registered trademark) 2313 and a keyboard 2314. Inside the computer 2301, each block to be described later is connected by a bus 2307, and various data can be transferred.

図23において、MPU2302は、コンピュータ2301内部の各ブロックの動作を制御し、あるいは内部に記憶されたプログラムを実行することができる。主記憶装置(RAMで構成される)2303は、MPU2302において行われる処理のために、一時的にプログラムや処理対象の画像データを格納しておく装置である。ハードディスク(HDD)2304は、主記憶装置2303等に転送されるOS、アプリケーションプログラムや画像データをあらかじめ格納したり、処理後の画像データを保存することのできる装置である。   In FIG. 23, the MPU 2302 can control the operation of each block inside the computer 2301, or can execute a program stored therein. A main storage device (configured by a RAM) 2303 is a device that temporarily stores a program and image data to be processed for processing performed in the MPU 2302. A hard disk (HDD) 2304 is an apparatus that can store in advance an OS, application programs, and image data to be transferred to the main storage device 2303 and the like, and can store processed image data.

スキャナインタフェース(I/F)2315は、原稿やフィルム等を読み取って、画像データを生成するスキャナ2317と接続され、スキャナ2317で得られた画像データを入力することのできるI/Fである。プリンタインタフェース2308は、画像データを印刷するプリンタ2316と接続され、印刷する画像データをプリンタ2316に送信することのできるI/Fである。   A scanner interface (I / F) 2315 is an I / F that is connected to a scanner 2317 that reads an original, a film, and the like and generates image data, and can input image data obtained by the scanner 2317. The printer interface 2308 is connected to a printer 2316 that prints image data, and is an I / F that can transmit image data to be printed to the printer 2316.

CDドライブ2309は、外部記憶媒体の一つであるCD(CD−R/CD−RW)に記憶されたデータを読み込んだり、あるいは書き出すことができる装置である。FDDドライブ2311は、CDドライブ2309と同様にFDDからの読み込みや、FDDへの書き出しをすることができる装置である。DVDドライブ2310は、FDDドライブ2311と同様に、DVDからの読み込みや、DVDへの書き出しをすることができる装置である。尚、CD、FDD、DVD等に画像編集用のプログラム、あるいはプリンタドライバが記憶されている場合には、これらプログラムをHDD2304上にインストールし、必要に応じて主記憶装置2303に転送されるようになっている。   The CD drive 2309 is a device that can read or write data stored in a CD (CD-R / CD-RW) that is one of external storage media. The FDD drive 2311 is a device that can read from the FDD and write to the FDD in the same manner as the CD drive 2309. Similar to the FDD drive 2311, the DVD drive 2310 is a device that can read from and write to a DVD. If an image editing program or printer driver is stored on a CD, FDD, DVD or the like, these programs are installed on the HDD 2304 and transferred to the main storage device 2303 as necessary. It has become.

インタフェース(I/F)2312は、マウス2313やキーボード2314からの入力指示を受け付けるために、これらと接続されるI/Fである。また、モニタ2306は、透かし情報の抽出処理結果や処理過程を表示することのできる表示装置である。さらに、ビデオコントローラ2305は、表示データをモニタ2306に送信するための装置である。   An interface (I / F) 2312 is an I / F connected to these in order to receive input instructions from the mouse 2313 and the keyboard 2314. The monitor 2306 is a display device capable of displaying the watermark information extraction processing result and the processing process. Further, the video controller 2305 is a device for transmitting display data to the monitor 2306.

尚、実施形態における装置は、複数の機器(例えば、ホストコンピュータ、インタフェース機器、リーダ、プリンタ等)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置等)に適用してもよい。   Note that the apparatus according to the embodiment may be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), or a device (for example, a copier, a facsimile apparatus) including a single device. Etc.).

上記構成において、マウス2313やキーボード2314からの入力指示により主記憶装置2303にロードしたプログラムを2302のMPUなどを用いて実行することによって電子透かしの埋め込み装置、或いは、抽出装置として機能することになる。このとき、モニタ2306により実行状況や、その結果をモニタすることも可能である。   In the above configuration, by executing a program loaded into the main storage device 2303 in response to an input instruction from the mouse 2313 or the keyboard 2314 using the MPU of 2302, the digital watermark embedding device or the extraction device functions. . At this time, it is possible to monitor the execution status and the result by the monitor 2306.

以上、実施形態の装置構成を説明したが、図1の構成にける文書解析部102、認識処理部103、正規化部104、透かし情報埋め込み部108等は、MPU2302が実行するプログラムによって実現しているものとし、図1の各構成部分について詳しく説明する。   Although the apparatus configuration of the embodiment has been described above, the document analysis unit 102, the recognition processing unit 103, the normalization unit 104, the watermark information embedding unit 108, and the like in the configuration of FIG. 1 are realized by a program executed by the MPU 2302. 1 will be described in detail.

文書解析部102においては、入力された文書画像から外接四角形(矩形)の抽出が行われる。文字の外接矩形は、文字に外接する矩形であって、本来は、文字認識を行う領域を指す情報であるが、電子透かしにおいては、埋め込み操作の対象となる文字領域を示すものである。文書画像の各画素値を垂直座標軸に対して射影し、空白部分(黒色である文字のない部分)を探索して行を判別して行分割を行う。その後、行単位で文書画像を水平座標軸に対して射影し、空白部分を探索して文字単位に分割する。これによって、各文字を外接矩形で切り出すことが可能となる。文字解析部102での解析結果と、入力部101より入力した文書画像データは認識処理部103に渡されることになる。   The document analysis unit 102 extracts a circumscribed rectangle (rectangle) from the input document image. The circumscribing rectangle of a character is a rectangle circumscribing the character, and is originally information indicating a region where character recognition is performed, but in a digital watermark, it indicates a character region to be embedded. Each pixel value of the document image is projected onto the vertical coordinate axis, and a blank portion (a portion having no black character) is searched to determine a row, and line division is performed. Thereafter, the document image is projected on the horizontal coordinate axis line by line, and a blank portion is searched and divided into characters. As a result, each character can be cut out by a circumscribed rectangle. The analysis result in the character analysis unit 102 and the document image data input from the input unit 101 are passed to the recognition processing unit 103.

文字解析部102が認識処理部103に渡す解析結果は、例えば図24に示すような形式であり、記憶手段である主記憶装置2303(もしくはHDD2304)に格納される。図示の如く、行単位の情報であって、先頭には何行目かを示す情報、該当する行内にいくつの外接矩形があるかを示す情報、そして、各外接矩形に関するデータがその個数分だけ後続し、最後に行末を示す情報(EOL(=End Of Line))で構成される。最終行の行末には行末情報ではなく、1ページの終わりであることを示す情報(EOP(End Of Page))が付加される。ここで、1つの外接矩形に関するデータは、図示のように、外接矩形の位置(実施形態では矩形の左下隅の座標位置)、外接矩形のサイズ(高さと幅)、並びに、文字コード、フォン種別を格納するフィールドで構成される。ただし、この段階では、文字コード、フォント種別は不明である。なお、図24に示されるデータを、以後、文書画像属性データと呼ぶことにする。   The analysis result passed from the character analysis unit 102 to the recognition processing unit 103 is in a format as shown in FIG. 24, for example, and is stored in the main storage device 2303 (or HDD 2304) as a storage unit. As shown in the figure, the information is line-by-line, the information indicating the number of lines at the top, the information indicating how many circumscribed rectangles are in the corresponding line, and the number of data related to each circumscribed rectangle. It consists of information (EOL (= End Of Line)) that follows and ends at the end. Information (EOP (End Of Page)) indicating the end of one page is added to the end of the last line, not the end-of-line information. Here, as shown in the figure, the data relating to one circumscribed rectangle includes the position of the circumscribed rectangle (the coordinate position of the lower left corner of the rectangle in the embodiment), the size (height and width) of the circumscribed rectangle, the character code, and the phone type. It consists of a field that stores However, at this stage, the character code and font type are unknown. The data shown in FIG. 24 is hereinafter referred to as document image attribute data.

図2は、認識処理部103の細部構成を示すブロック図である。本実施形態では、認識処理部103は、光学的文字認識(OCR)によって文字認識が行われるものとする。OCR技術を用いることによって、文字の微小な回転等を施した文書画像からでも文字を識別することが可能である。また、文字情報(文字コード)だけではなく、マルチフォントの識別も可能である。なお、フォント識別に関する技術は、例えば、「橋本新一郎編著、「文字認識概論」電子通信協会刊」を参照されたい。   FIG. 2 is a block diagram illustrating a detailed configuration of the recognition processing unit 103. In the present embodiment, it is assumed that the recognition processing unit 103 performs character recognition by optical character recognition (OCR). By using the OCR technique, it is possible to identify a character even from a document image subjected to a minute rotation of the character. In addition to character information (character code), multi-font identification is also possible. For the technology related to font identification, see, for example, “Shinichiro Hashimoto,“ Introduction to Character Recognition ”published by the Electronic Communication Association”.

さて、認識処理部103における特徴抽出部103aは、文書解析部102からの解析結果である文書画像属性データ(図24参照)に基づき、入力した文書画像から該当する外接矩形を切り出し、その切り出した文字画像の特徴量を抽出する。認識部103bは、特徴抽出部103aで得られた特徴量と、認識辞書105(図23でのHDD2304等に予め格納されている)で保持している標準的な各フォントセット(字体)毎の文字の特徴量とを比較して文字認識を行うと共にフォント種別をも識別する。そして、文書画像造成データを、文字認識結果を反映させるために更新する。すなわち、文書画像属性データ内の各「外接矩形データ」中の文字コード及びフォント種別のフィールドに、認識した結果を格納する処理を行うことになる。このとき、日本語文字の文字コードは2バイトで表わされ、英語文字は1バイトで表わされることになる。   The feature extraction unit 103a in the recognition processing unit 103 cuts out a corresponding circumscribed rectangle from the input document image based on the document image attribute data (see FIG. 24) as an analysis result from the document analysis unit 102, and cuts out the cut out rectangle. Extracts feature values of character images. The recognizing unit 103b uses the feature amount obtained by the feature extracting unit 103a and each standard font set (font) stored in the recognition dictionary 105 (stored in advance in the HDD 2304 in FIG. 23). Character recognition is performed by comparing the character feature amount, and the font type is also identified. Then, the document image creation data is updated to reflect the character recognition result. That is, a process of storing the recognized result in the character code and font type fields in each “circumscribed rectangle data” in the document image attribute data is performed. At this time, the character code of the Japanese character is represented by 2 bytes, and the English character is represented by 1 byte.

なお、文字認識技術において、個々の文字が日本語のような全角文字であるか、英語のような半角文字であるかの識別方法は周知であるので、詳細は省略するが、実施形態では、図24に示すように、文書画像属性データが生成されているので、この情報から各外接矩形の幅に関するヒストグラムを作成する。日本語と英語が混在している場合には、ヒストグラムに2つのピークが出現するので、その2つのピークから閾値(例えば2つのピークの中央値)を求め、その閾値以上を日本語文字、閾値未満を英語文字と仮判定し、文字認識結果の文字コードを、この仮判定結果を用いて修正することで、英語文字と日本語文字とを区別するようにしてもよい。例えば、文字認識結果が「A」であり、該当する文字画像の外接矩形幅が英語文字と仮判定されていれば半角の「A」に修正する等である。   In the character recognition technology, since a method for identifying whether each character is a full-width character such as Japanese or a half-width character such as English is well known, details are omitted. As shown in FIG. 24, since document image attribute data has been generated, a histogram relating to the width of each circumscribed rectangle is created from this information. When Japanese and English are mixed, two peaks appear in the histogram, and a threshold value (for example, the median value of the two peaks) is obtained from the two peaks. It is also possible to tentatively determine less than English characters and correct the character code of the character recognition result using the tentative determination result to distinguish between English characters and Japanese characters. For example, if the character recognition result is “A” and the circumscribed rectangle width of the corresponding character image is provisionally determined to be an English character, the character recognition result is corrected to “A”.

図3は、正規化部104の細部構成を示すブロック図である。正規化部104は、図示のように、フォント記憶部104e(実施形態ではスケーラブルなアウトラインベクトルフォントデータがHDD2304に記憶されているとする)、画像生成部104f、文字間スペース得算出部104g、ピッチ判定部104iで構成される。   FIG. 3 is a block diagram illustrating a detailed configuration of the normalization unit 104. As illustrated, the normalization unit 104 includes a font storage unit 104e (in the embodiment, scalable outline vector font data is stored in the HDD 2304), an image generation unit 104f, an inter-character space acquisition calculation unit 104g, a pitch It is comprised by the determination part 104i.

画像生成部104fは、文字認識処理後の文書画像属性データから、1行分のデータを読み出す。すなわち、或る行の文字コード情報104a、フォント情報104b、文字画像(外接矩形)の位置及びサイズ情報を、その行中に含まれる外接矩形の数だけ入力する。文字間スペース算出部104gは、「文字コード」フィールドに格納された文字コードに基づいて、日本語文字と英語文字とを区別し、それぞれの空白長を累積加算する。つまり、日本語文字であると判定された文字とそれに後続する文字との間の空白長を累積加算し、英語文字であると判定された文字とそれに後続する文字との間の空白帳を累積加算する。   The image generation unit 104f reads data for one line from the document image attribute data after the character recognition process. That is, the character code information 104a, font information 104b, and character image (circumscribed rectangle) position and size information of a certain line are input by the number of circumscribed rectangles included in the line. The inter-character space calculation unit 104g distinguishes Japanese characters from English characters based on the character codes stored in the “character code” field, and cumulatively adds the respective blank lengths. In other words, the space length between the character determined to be a Japanese character and the character following it is cumulatively added, and the space book between the character determined to be an English character and the character following it is accumulated. to add.

ピッチ判定部104iは、文字間スペース算出部104gにて算出された日本語文字の空白帳を、その行に含まれる「日本語文字数−1」で除算することで、日本語平均文字ピッチ、すなわち、隣接する文字間の平均空白長を算出する。英語平均文字ピッチも同様にして算出する。   The pitch determination unit 104i divides the Japanese character blank book calculated by the inter-character space calculation unit 104g by “the number of Japanese characters−1” included in the line, so that the Japanese average character pitch, that is, The average space length between adjacent characters is calculated. The English average character pitch is similarly calculated.

そして、算出された各平均文字ピッチに基づき、文書画像属性データ内の該当する行に含まれる全「外接矩形データ」中の「位置」フィールドを更新し正規化する。この結果、原画像の注目行中に、日本語文字と英語文字とはそれぞれに応じた文字ピッチで正規化されることになり、極端に文字間隔が狭い箇所があったとしても、或る程度の長さの空白長さが割り当てられるようになる。   Then, based on each calculated average character pitch, the “position” field in all “circumscribed rectangle data” included in the corresponding row in the document image attribute data is updated and normalized. As a result, Japanese characters and English characters are normalized at the character pitch corresponding to each in the target line of the original image, and even if there is a place where the character spacing is extremely narrow, to some extent A blank length of length is assigned.

正規化部104は、この更新されたデータに従い、フォント記憶部104eから文字コードに応じたフォントデータを読出し、外接矩形サイズに合致する文字パターンを生成し、正規化後の位置に従ってその発生した文字パターンを主記記憶装置2303に確保された領域に展開する。注意したい点は、日本語文字と英語文字(英単語)の場合には、それぞれ異なる文字ピッチにて文書画像が生成される点である。そして、この処理を注目行に含まれる全文字について繰り返し行う。1行分の文字パターンの展開処理が終わると、次の行の文字パターンの展開を行い、最終行の行末文字まで繰り返すことになる。   In accordance with the updated data, the normalization unit 104 reads out font data corresponding to the character code from the font storage unit 104e, generates a character pattern that matches the circumscribed rectangle size, and generates the generated character according to the normalized position. The pattern is developed in an area secured in the main memory 2303. It should be noted that document images are generated at different character pitches for Japanese characters and English characters (English words). This process is repeated for all characters included in the line of interest. When the character pattern expansion process for one line is completed, the character pattern for the next line is expanded and repeated until the end-of-line character of the last line.

こうして正規化後の1ページ分の文書画像が生成されると、その結果及び図24の文書画像属性データを透かし情報埋め込み部108に渡す。透かし情報埋め込み部108は、最終的な文書画像属性データ(図24参照)を参照し、日本語文字(2バイト文字)と英語文字(1バイト文字)に応じて、予め用意された2種類の埋め込み方法のいずれか一方を選択し、透かし情報の埋め込みを行う。   When the normalized document image for one page is generated in this way, the result and the document image attribute data of FIG. 24 are passed to the watermark information embedding unit 108. The watermark information embedding unit 108 refers to final document image attribute data (see FIG. 24), and prepares two types of prepared in advance according to Japanese characters (2-byte characters) and English characters (1-byte characters). One of the embedding methods is selected, and watermark information is embedded.

詳細は後述するが、日本語文字については、その外接矩形の高さがもともと一様であり、なおかつ、文字間隔も適度な空白部分が確保されていることに鑑み、その属性が維持される埋め込み処理を行うべく、文字画像の回転によって情報埋め込みを行うようにした。一方、英語文字は、文字間隔が狭く、回転処理で埋め込みを行うと隣接する文字と接触する可能性が高い点、並びに、文字の高さ方向が一様ではない点に鑑み、文字画像の上下移動によって情報を埋め込みを行うものとした。   Although details will be described later, for Japanese characters, the height of the circumscribing rectangle is originally uniform, and the embedding that maintains the attributes in view of the fact that adequate space between characters is secured. In order to perform processing, information is embedded by rotating character images. On the other hand, in view of the fact that English characters have a narrow character spacing and are likely to come into contact with adjacent characters when embedded by rotation processing, and the height direction of characters is not uniform, Information is embedded by movement.

以上であるが、実施形態における電子透かし埋め込み装置の動作処理手順を整理するため、図6のフローチャートに従って説明することとする。同図は、図23に示すMPU2302が実行する処理手順(主記憶装置2303にロードされるプログラム)である。   As described above, the operation processing procedure of the digital watermark embedding apparatus according to the embodiment will be described with reference to the flowchart of FIG. This figure is a processing procedure (program loaded to the main storage device 2303) executed by the MPU 2302 shown in FIG.

まず、透かし情報の埋め込み対象となる文書原稿100が図23のスキャナ2317に代表される画像入力部101で読取られ、文書画像データとして文書解析部102に入力される(ステップS601)。なお、ここでは、この文書画像データは印刷物をスキャナ2317などから入力し、それをビットマップ化したものとなるが、文書編集アプリケーションプログラムを利用して作成された電子データ、またはハードディスク2304やCDドライブ2309、DVDドライブ2310、FDDドライブ2311などに接続された各記憶媒体に格納されたアプリケーションプログラム固有の形式、テキスト形式などをはじめとする種々の電子データを画像処理ソフトなどによって変換し、ビットマップ化したものでも勿論構わない。   First, the document original 100 to be embedded with watermark information is read by the image input unit 101 typified by the scanner 2317 in FIG. 23 and is input to the document analysis unit 102 as document image data (step S601). In this case, the document image data is obtained by inputting a printed matter from the scanner 2317 or the like and converting it into a bitmap. Electronic data created by using a document editing application program, or a hard disk 2304 or a CD drive 2309, various electronic data including application program specific format and text format stored in each storage medium connected to DVD drive 2310, FDD drive 2311, etc. are converted into bitmaps by image processing software etc. Of course, it does not matter.

次に、文書解析部102では、入力された文書画像データから外接矩形の抽出が行われ、第1段階の文書画像属性データを生成する(ステップS602)。   Next, the document analysis unit 102 extracts circumscribed rectangles from the input document image data, and generates first-stage document image attribute data (step S602).

次いで、認識処理部103により文字認識が行われ、文書画像属性データを更新する(ステップS603)。このとき、日本語文字、英語文字の区別が文字コードに反映されることになる。   Next, character recognition is performed by the recognition processing unit 103, and the document image attribute data is updated (step S603). At this time, the distinction between Japanese characters and English characters is reflected in the character code.

図7はこの文字認識処理の動作手順を示すフローチャートである。まず、文書解析部102で得られた文書画像属性データに基づいて、全文字画像の外接矩形の幅のヒストグラムを作成し、各文字画像が日本語の全角文字であるか、英語の半角文字であるかを仮判定すると共に、各文字画像の外接矩形の位置及びサイズに従い、1文字画像単位に切り出し、特徴抽出部部103aにおいて、文字の特徴が抽出される(ステップS603a)。ここで、文字の特徴抽出とは、切り出された文字を具体的に判別するために、文字に含まれる所定の特徴量を取り出す操作のことである。本実施形態における特徴量としては、例えば、各文字の外接矩形領域をさらに小領域に分割し、その小領域内の方向成分のヒストグラムをとって文字の特徴量としたり、画素値の分布の偏りを特徴量とすることができる。また、外接矩形の中心等を当該文字の位置情報とする。   FIG. 7 is a flowchart showing the operation procedure of the character recognition process. First, based on the document image attribute data obtained by the document analysis unit 102, a histogram of the width of the circumscribed rectangle of all character images is created, and each character image is either a Japanese full-width character or an English half-width character. A provisional determination is made as to whether or not the character image is present, and the character extraction unit 103a extracts a character feature in accordance with the position and size of the circumscribed rectangle of each character image (step S603a). Here, character feature extraction refers to an operation of extracting a predetermined feature amount included in a character in order to specifically determine the extracted character. As the feature amount in the present embodiment, for example, the circumscribed rectangular region of each character is further divided into small regions, and a histogram of direction components in the small region is taken as a character feature amount, or the distribution of pixel values is uneven. Can be used as a feature amount. In addition, the center of the circumscribed rectangle is used as the position information of the character.

そして、識別部103bにおいて、抽出された特徴量と認識辞書105で保持されている文字やフォントが有する特徴量とが比較され、且つ、日本語文字であるか英語文字であるかの判定結果を加味して、文字の特定(文字コードの生成)やフォントの識別が行われる(ステップS603b)。得られた文字コード、フォント種別で文書画像属性データを更新することは既に説明した通りである。   Then, in the identification unit 103b, the extracted feature value is compared with the feature value of the character or font held in the recognition dictionary 105, and the determination result of whether it is a Japanese character or an English character is obtained. In consideration, character identification (character code generation) and font identification are performed (step S603b). As described above, the document image attribute data is updated with the obtained character code and font type.

図6の説明に戻る。上記のようにして得られた各外接矩形に関する情報(位置、サイズ、文字コード、フォント種別)に基づいて、正規化部104は正規化文書画像106を生成する(ステップS604)。   Returning to the description of FIG. Based on the information (position, size, character code, font type) regarding each circumscribed rectangle obtained as described above, the normalization unit 104 generates a normalized document image 106 (step S604).

図8のフローチャートに従い、実施形態における正規化部104の処理内容を説明する。   The processing contents of the normalization unit 104 in the embodiment will be described with reference to the flowchart of FIG.

先ず、文書画像属性データから1行分の属性データを入力する(ステップS604a)。そして、文字間スペース算出部104gにて、注目行の日本語文字のスペース長(各文字間スペースの合算)を算出する(ステップS604b)。このあと、ピッチ判定部104iにて、注目行に含まれる日本語文字数で、各日本語文字の文字間の平均ピッチ(平均空白長)を算出する(ステップS604c)。そして、ステップS604d、S604eにて英語文字についても同様の処理を行い、英語文字の文字ピッチを算出する。そして、算出された文字ピッチに基づいて、入力した文書画像属性データの注目行の外接矩形の位置を更新する(ステップS604f)。このとき、同一行中の各外接矩形の、文字の並び方向に直交する方向(横書き文章の場合の垂直方向)の座標位置を同じにする。そして、注目行の文字画像イメージをフォントデータ、並びに外接矩形サイズを参照して生成する(ステップS604g)。そして、全行に対して処理したか否かを判断し(ステップS604h)、全行に対する処理が完了していないと判断した場合には、ステップS604a以降の処理を繰り返すことになる。   First, attribute data for one line is input from the document image attribute data (step S604a). Then, the character space calculation unit 104g calculates the space length of the Japanese characters in the target line (the sum of the spaces between characters) (step S604b). Thereafter, the pitch determination unit 104i calculates an average pitch (average space length) between characters of each Japanese character by the number of Japanese characters included in the target line (step S604c). In steps S604d and S604e, the same processing is performed for English characters, and the character pitch of the English characters is calculated. Based on the calculated character pitch, the position of the circumscribed rectangle of the target line of the input document image attribute data is updated (step S604f). At this time, the coordinate positions of the circumscribed rectangles in the same line in the direction orthogonal to the character arrangement direction (vertical direction in the case of horizontal writing) are made the same. Then, the character image image of the target line is generated with reference to the font data and the circumscribed rectangle size (step S604g). Then, it is determined whether or not processing has been performed for all rows (step S604h). If it is determined that processing has not been completed for all rows, the processing from step S604a is repeated.

再び図6の説明に戻る。上記のようにして正規化処理が行われ、正規化後の文書画像の生成、及び、その際の文書画像属性データが求められると、処理はステップS605に進み、透かし情報(例えば、PC等に適用する場合にはキーボードより入力した文字列(ユーザ名等)、或いは、予め記憶された情報等でも良いが、複写機等に適用する場合には、その複写機を特定する情報等でも良い)を埋め込む。そして、埋め込まれた文書画像を出力(実施形態では印刷出力とするが、記憶媒体への格納、ネットワークを介しての送信でも構わない)し、原稿1枚に対する埋め込み処理を終了する。   Returning to the description of FIG. When the normalization process is performed as described above, the generation of the normalized document image and the document image attribute data at that time are obtained, the process proceeds to step S605, and the watermark information (for example, in the PC or the like) is obtained. When applied, it may be a character string (user name, etc.) input from a keyboard, or information stored in advance, but when applied to a copying machine, information specifying the copying machine may be used) Embed. Then, the embedded document image is output (in the embodiment, it is a print output, but it may be stored in a storage medium or transmitted via a network), and the embedding process for one original is finished.

ここで実施形態における、ステップS605における埋め込み処理を図9のフローチャートに従って更に詳しく説明する。なお、埋め込まれる透かし情報は予め二進(バイナリ)で用意されているものとする。   Here, the embedding process in step S605 in the embodiment will be described in more detail with reference to the flowchart of FIG. Note that watermark information to be embedded is prepared in advance in binary (binary).

先ず、情報を埋め込む1つの外接矩形を文書画像属性データを参照して決定する(ステップS605a)。   First, one circumscribed rectangle in which information is embedded is determined with reference to the document image attribute data (step S605a).

次に、選択した外接矩形データの「文字コード」フィールドが日本語文字(2バイト文字コード=全角文字)か英語文字(1バイト文字コード=半角文字)かを判定する(ステップS605b)。日本語文字であると判定した場合には、回転による埋め込み処理を行う(ステップS605c)。また、英語文字であると判定した場合には、上下移動による埋め込み処理を行う(ステップS605d)。   Next, it is determined whether the “character code” field of the selected circumscribed rectangle data is a Japanese character (2-byte character code = full-width character) or an English character (1-byte character code = half-width character) (step S605b). If it is determined that the character is a Japanese character, an embedding process by rotation is performed (step S605c). If it is determined that the character is an English character, an embedding process by vertical movement is performed (step S605d).

いずれかの埋め込みを行うと、埋め込み情報の最終ビットに対する埋め込みが完了したか否かを判断する。否の場合にはステップS605a以降の処理を繰り返す。   When any of the embeddings is performed, it is determined whether or not embedding of the last bit of the embedding information is completed. If not, the processing after step S605a is repeated.

ここで、ステップS605cの処理を図4のフローチャートに従って説明する。   Here, the process of step S605c will be described with reference to the flowchart of FIG.

先ず、埋め込むべき情報の1ビットを選択する(ステップS401)。そして、そのビットが「1」であるか「0」であるかを判断する(ステップS402)。   First, 1 bit of information to be embedded is selected (step S401). Then, it is determined whether the bit is “1” or “0” (step S402).

「1」であると判断した場合には、注目文字画像の外接矩形を、その中心位置を中心として時計回りにθだけ回転させる(ステップS403)。一方、埋め込むビットが「0」であると判断した場合には、注目文字画像の外接矩形を、その中心位置を中心として反時計回りにθだけ回転させる。   If it is determined that it is “1”, the circumscribed rectangle of the character image of interest is rotated clockwise by θ around the center position (step S403). On the other hand, when it is determined that the bit to be embedded is “0”, the circumscribed rectangle of the character image of interest is rotated counterclockwise by θ around the center position.

次に、ステップS605dの処理、すなわち、英語文字に対する埋め込み処理を図5のフローチャートに従って説明する。   Next, the process of step S605d, that is, the embedding process for English characters will be described with reference to the flowchart of FIG.

先ず、埋め込むべき情報の1ビットを選択する(ステップS501)。そして、そのビットが「1」であるか「0」であるかを判断する(ステップS502)。   First, 1 bit of information to be embedded is selected (step S501). Then, it is determined whether the bit is “1” or “0” (step S502).

「1」であると判断した場合には、注目文字画像の外接矩形を、上方向に所定距離移動させ、その結果を文書画像属性データに反映させる(ステップS403)。一方、埋め込むビットが「0」であると判断した場合には、注目文字画像の外接矩形を、下方向に所定距離だけ移動させ、その結果を文書画像属性データに反映させる。   If it is determined that it is “1”, the circumscribed rectangle of the character image of interest is moved upward by a predetermined distance, and the result is reflected in the document image attribute data (step S403). On the other hand, if it is determined that the bit to be embedded is “0”, the circumscribed rectangle of the target character image is moved downward by a predetermined distance, and the result is reflected in the document image attribute data.

なお、日本語、英語のいずれの埋め込みにおいても、実施形態では、行頭の文字は埋め込み対象外とするようにした。この理由は、英語文字の場合、上記のように上或いは下への移動するわけであるから、上下方向への移動の際の基準位置が必要になり、行頭の文字をその基準とするためである。日本語の場合にも、回転していない文字が基準となるからでもある。従って、基準となる文字が決まればよいので、行末文字でも構わないし、所定番目の文字にしてもよい。   In both the Japanese and English embeddings, the character at the beginning of the line is excluded from the embedding target in the embodiment. The reason for this is that, in the case of English characters, it moves up or down as described above, so a reference position is required when moving up and down, and the character at the beginning of the line is used as the reference. is there. This is also because Japanese characters are not rotated. Accordingly, it is sufficient that the reference character is determined, so the end-of-line character may be used, or a predetermined character may be used.

また、場合によっては、図13に示す様に、上下移動で情報を埋め込む場合には、行中の奇数番目の文字画像の上下方向の移動は行わず、偶数番目の文字の位置をその直前の文字(奇数番目の文字)の位置を基準にして上下移動させるようにしても構わない。すなわち、図13における文字(2)に埋め込むデータが「0」の場合には、文字(1)のベース位置よりH1だけ下に文字(2)を移動する。また、文字(4)に「1」を埋め込む場合には、文字(3)のベース位置よりH2だけ上に文字(4)を移動する。この場合、埋め込み可能な文字数は、1行の文字数の約半分になってしまうものの、直前の奇数番めの文字を基準にすればよいので、その都度、基準となる位置を決めることができ、精度の良い埋め込みが期待できる。   In some cases, as shown in FIG. 13, when embedding information by vertical movement, the odd-numbered character image in the line is not moved in the vertical direction, and the position of the even-numbered character is moved to the immediately preceding position. You may make it move up and down on the basis of the position of a character (odd-numbered character). That is, when the data to be embedded in the character (2) in FIG. 13 is “0”, the character (2) is moved H1 below the base position of the character (1). Further, when “1” is embedded in the character (4), the character (4) is moved by H2 above the base position of the character (3). In this case, although the number of characters that can be embedded is about half of the number of characters in one line, it is sufficient to use the immediately preceding odd-numbered character as a reference, so that each time a reference position can be determined. Highly accurate embedding can be expected.

次に、実施形態における電子透かし情報抽出装置での処理は、図25のフローチャートに従って説明する。なお、基本的な構成は図23と同様であるものとする。   Next, processing in the digital watermark information extraction apparatus according to the embodiment will be described with reference to the flowchart of FIG. The basic configuration is the same as in FIG.

先ず、検証しようとする画像をスキャナ2317等を介して入力する(ステップS1001)。但し、画像の入力する装置は、スキャナに限らず、その画像データは記憶媒体に記憶されているのであれば、その記憶媒体を駆動するドライブを介して入力してもよいし、ネットワークからダウンロードしても構わない。   First, an image to be verified is input via the scanner 2317 or the like (step S1001). However, the image input device is not limited to a scanner, and if the image data is stored in a storage medium, it may be input via a drive that drives the storage medium, or downloaded from a network. It doesn't matter.

次に、入力した画像データの文書解析処理を行う(ステップS1002)。この解析処理は、先に説明した電子透かし埋め込み装置と同じであり、文字画像の外接矩形の位置及びサイズを検出し、図24に示すような文書画像属性データを生成することになる。   Next, document analysis processing of the input image data is performed (step S1002). This analysis process is the same as that of the digital watermark embedding apparatus described above, and detects the position and size of the circumscribed rectangle of the character image, and generates document image attribute data as shown in FIG.

次に、ステップS1003に進んで、文字認識を行う。この文字認識処理も第1の実施形態と同様である。   In step S1003, character recognition is performed. This character recognition process is also the same as in the first embodiment.

以上の結果、図24に示す文書画像属性データ中の文字コード、フォント種別には該当する情報が格納されることになる。   As a result, information corresponding to the character code and font type in the document image attribute data shown in FIG. 24 is stored.

次いで、文書画像属性データの外接矩形、サイズ、文字コード、フォント情報に基づき、文字の種別に応じた、埋め込み情報抽出処理を行い(ステップS1004)、最後に抽出した情報をモニタ2306へ表示する等の出力処理を行うことになる。   Next, based on the circumscribed rectangle, size, character code, and font information of the document image attribute data, embedded information extraction processing is performed according to the character type (step S1004), and the last extracted information is displayed on the monitor 2306. Will be output.

以上であるが、ステップS1003の文字認識処理までの処理は既に説明した電子透かし埋め込み処理と同様であるのでその説明は省略し、以下では、ステップS1004の透かし情報抽出処理について説明することとする。   Although the processing up to the character recognition processing in step S1003 is the same as the digital watermark embedding processing described above, the description thereof will be omitted, and the watermark information extraction processing in step S1004 will be described below.

図12は、ステップS1004の処理内容を示すフローチャートである。   FIG. 12 is a flowchart showing the processing content of step S1004.

先ず、抽出する外接矩形の1つを文書画像属性データを参照して選択する(ステップS1004a)。なお、外接矩形の選択は、基本的に行頭の文字画像の外接矩形から、行末に向かうように選択し、1行を処理が済んだ場合には2行めに移ることを最終行の行末位置まで行う。ただし、各行の行頭文字の外接矩形は選択から除外する。理由は、実施形態では、行頭の文字は埋め込みを行っていないからである。   First, one of circumscribed rectangles to be extracted is selected with reference to the document image attribute data (step S1004a). Note that the circumscribed rectangle is basically selected from the circumscribed rectangle of the character image at the beginning of the line toward the end of the line, and when one line has been processed, the process moves to the second line at the end of the last line. Do until. However, the circumscribed rectangle of the first letter of each line is excluded from the selection. The reason is that the character at the beginning of the line is not embedded in the embodiment.

さて、1つの外接矩形が選択されると、その外接矩形の「文字コード」を調べることで日本語文字か否かを判断する。日本語文字であると判断した場合には、ステップS1004に進んで回転による情報抽出を行う。また、日本語文字ではない、すなわち、英語文字であると判断した場合には、ステップS1004に進んで、上下移動量に基づく埋め込み情報抽出処理を行う。   When one circumscribed rectangle is selected, it is determined whether or not it is a Japanese character by examining the “character code” of the circumscribed rectangle. If it is determined that the character is a Japanese character, the process proceeds to step S1004 to extract information by rotation. If it is determined that the character is not a Japanese character, that is, an English character, the process advances to step S1004 to perform an embedded information extraction process based on the vertical movement amount.

そして、文書画像の最終行、最終文字まで処理が行われたと判断するまで、上記処理を繰り返すことになる。   The above process is repeated until it is determined that the process has been performed up to the last line and the last character of the document image.

ここでステップS1004cの処理は図10のフローチャートに従って説明する。   Here, the process of step S1004c will be described with reference to the flowchart of FIG.

先ず、注目外接矩形の重心位置を求める(ステップS1004c−1)。次に、注目外接矩形内の文字画像の文字認識結果である文字コード、サイズ、並びにフォント種別に基づき、標準文字パターンを作成し、その標準文字パターンと、外接矩形で示された文字画像を角度を±θだけ回転した際のいずれがマッチングするかを判断することで、文書画像中の外接矩形内の文字画像の傾き角を判定する(ステップS1004c−2)。   First, the position of the center of gravity of the circumscribed rectangle of interest is obtained (step S1004c-1). Next, a standard character pattern is created based on the character code, size, and font type that are the character recognition results of the character image in the circumscribed rectangle, and the standard character pattern and the character image indicated by the circumscribed rectangle are angled. By determining which of the two is rotated by ± θ, the inclination angle of the character image in the circumscribed rectangle in the document image is determined (step S1004c-2).

注目文字画像が時計回りにθだけ回転していると判断した場合には、注目文字に埋め込まれたビットは「1」と判定する(ステップS1004c−3)。また、反時計回りにθだけ回転していると判断した場合には、埋め込まれたデータは「0」と判定する(ステップS1004c−4)。   If it is determined that the character image of interest is rotated clockwise by θ, the bit embedded in the character of interest is determined to be “1” (step S1004c-3). If it is determined that the rotation is counterclockwise by θ, the embedded data is determined to be “0” (step S1004c-4).

次に、ステップS1004dの処理を、図11のフローチャートに従って説明する。   Next, the process of step S1004d will be described with reference to the flowchart of FIG.

先ず、注目外接矩形の座標位置(文字の並び方向に直交する方向の座標)と、行頭の文字画像(基準外接矩形)の同座標位置とを比較する。基準外接矩形よりも上方向に所定量だけ移動していると判断した場合には、注目文字画像に埋め込まれたビットは「1」、逆に下方向に所定量移動していると判断した場合には埋め込まれたビットは「0」と判定する。   First, the coordinate position of the circumscribed rectangle of interest (the coordinate in the direction orthogonal to the character arrangement direction) and the coordinate position of the character image at the beginning of the line (reference circumscribed rectangle) are compared. When it is determined that a predetermined amount has moved upward from the reference circumscribed rectangle, the bit embedded in the target character image is “1”, and conversely, it has been determined that the bit has moved downward by a predetermined amount The embedded bit is determined to be “0”.

以上説明したように本実施形態によれば、日本語、英語が混在した文書画像内の文字画像位置を変更して情報を埋め込む場合に、日本語文字についてはそのサイズがほぼ一様で、文字間スペースもある程度確保されているという特性に基づき、文字画像の回転によって情報を埋め込むことで、違和感の発生しにくいものとすることができる。また、英語の場合には、文字間スペースが狭いものの、個々の文字のサイズが不揃いである特性に基づき、上下移動により情報を埋め込むことで、英語文字についても違和感の発生しにくいものとすることが可能となる。従って、日本語、英語が混在した文書画像のほぼすべて(実施形態では各行頭の文字は埋め込み対象外)について情報を埋め込むことができ、且つ、文書画像全体として見た場合にも、情報埋め込みが目視で確認しずらく、且つ自然な文書画像を生成することが可能になる。   As described above, according to this embodiment, when embedding information by changing the position of a character image in a document image in which Japanese and English are mixed, the size of Japanese characters is almost uniform. By embedding information by rotation of the character image based on the characteristic that the space is secured to some extent, it is possible to make it unlikely to cause a sense of incongruity. In the case of English, the space between characters is narrow, but based on the characteristic that the size of individual characters is uneven, embedding information by moving up and down makes it difficult for English characters to feel strange. Is possible. Accordingly, it is possible to embed information about almost all document images in which Japanese and English are mixed (in the embodiment, the characters at the beginning of each line are not to be embedded), and information embedding is also possible when viewed as the entire document image. It is possible to generate a natural document image that is difficult to visually confirm.

<変形例の説明>
なお、上記実施形態では、情報を埋め込む場合に無条件に正規化し、その後で埋め込みを行ったが、埋め込み対象の文書画像に既に電子透かしにより情報が埋め込まれていることもあり得る。
<Description of modification>
In the above embodiment, normalization is performed unconditionally when embedding information, and then embedding is performed. However, information may already be embedded in a document image to be embedded with a digital watermark.

従って、先ず、電子透かし埋め込みを行う場合には、一旦、埋め込み情報の抽出処理を行うことが望ましい。そして、もし埋め込まれた情報が抽出できた場合には、その情報を表示させるようにする。   Therefore, first, when embedding a digital watermark, it is desirable to perform a process of extracting embedded information. If the embedded information can be extracted, the information is displayed.

特に、実施形態における電子透かし情報の埋め込み及び抽出装置が、例えば複写機に適用するのであれば、装置構成は図1に代えて図25の構成にすればよい。図1と異なる点は、透かし情報入力部107の代わりに、透かし情報抽出部112を設けた点である。すなわち、すなわち、複写しようとする原稿画像を読み取り、透かし情報抽出部112で埋め込まれた情報の抽出を行い、その抽出された情報を再度埋め込み情報として利用するものである。通常、複写機で複写を繰り返ししていくと、徐々に原稿が汚れていくが、上記のような構成にすると、透かし情報は埋め込まれたままの状態で、しかも複写結果は毎回文字認識、文字パターンを生成して印刷されるので、汚れていくこともない。   In particular, if the digital watermark information embedding and extracting apparatus according to the embodiment is applied to, for example, a copying machine, the apparatus configuration may be the configuration shown in FIG. 25 instead of FIG. The difference from FIG. 1 is that a watermark information extraction unit 112 is provided instead of the watermark information input unit 107. That is, a document image to be copied is read, information embedded in the watermark information extraction unit 112 is extracted, and the extracted information is used again as embedded information. Normally, when copying is repeated with a copying machine, the document gradually gets dirty. With the above configuration, the watermark information remains embedded, and the result of copying is character recognition, character Since the pattern is generated and printed, it does not get dirty.

なお、上記実施形態では、文字画像の回転角θを特に限定していないが、違和感を抱かず、且つ、ある程度の埋め込み抽出精度となる値が望ましいので、上限は10度程度であろう。   In the above embodiment, the rotation angle θ of the character image is not particularly limited. However, a value that does not give a sense of incongruity and has a certain degree of embedding extraction accuracy is desirable, so the upper limit will be about 10 degrees.

<第2の実施形態>
上記実施形態では文書画像内の文字画像に情報を埋め込む際に、正規化処理を行うものであったが、正規化を必要としない例を第2の実施形態として説明する。すなわち、電子透かし埋め込み済み画像に直接埋め込む方法である。この方法は、埋め込み方法にある制限を課すことにより、第1の実施形態における文字認識等の処理が不要になるだけ、装置、取り分けMPUにかかる負荷が少なくでき、処理速度を向上させることが可能なる。
<Second Embodiment>
In the above embodiment, normalization processing is performed when information is embedded in a character image in a document image. However, an example in which normalization is not required will be described as a second embodiment. That is, it is a method of directly embedding in a digital watermark embedded image. This method imposes certain restrictions on the embedding method, so that processing such as character recognition in the first embodiment is unnecessary, and the load on the device and especially the MPU can be reduced, and the processing speed can be improved. Become.

図14は本第2の実施形態の装置の構成概念図である。   FIG. 14 is a conceptual diagram of the configuration of the apparatus according to the second embodiment.

本第2の実施形態による透かし情報抽出・埋め込み装置は、入力部201から入力された検証画像200内の文書解析を行って文字の大きさおよび位置情報を認識する文書解析部202と、各文字画像のピッチ種別を判別するピッチ種別認識部203と、透かし情報207を抽出する透かし情報抽出部206と、入力された検証画像200を利用して透かし情報207を埋め込む透かし情報埋め込み部208と、電子透かし埋め込み済み画像210を生成する画像出力部209から構成される。   The watermark information extraction / embedding apparatus according to the second embodiment performs a document analysis in the verification image 200 input from the input unit 201 to recognize the character size and position information, and each character. A pitch type recognition unit 203 that determines the pitch type of the image, a watermark information extraction unit 206 that extracts the watermark information 207, a watermark information embedding unit 208 that embeds the watermark information 207 using the input verification image 200, an electronic The image output unit 209 generates the watermark embedded image 210.

以下では第1の実施形態との差異を説明する。本第2の実施形態では、上記のように認識処理部、正規化部は必要ない。そのかわり、第1の実施形態での正規化部の一部として機能する、ピッチ種別認識部203を必要とする点で異なる。また、実施形態では、電子透かしの抽出処理を経て、再度埋め込む例を説明し、日本語文字については文字間を調整して埋め込み、英語文字については上下移動させて埋め込むものとして説明する。   Hereinafter, differences from the first embodiment will be described. In the second embodiment, the recognition processing unit and the normalization unit are not necessary as described above. Instead, it is different in that the pitch type recognition unit 203 that functions as a part of the normalization unit in the first embodiment is required. Also, in the embodiment, an example of embedding again through the digital watermark extraction process will be described, and it is assumed that Japanese characters are embedded by adjusting the space between characters, and English characters are embedded by moving up and down.

図16は本第2の実施形態における処理手順を示すフローチャートである。   FIG. 16 is a flowchart showing a processing procedure in the second embodiment.

検証画像を入力部201を介して入力する(ステップS1601)と、文書解析部202で外接矩形情報を取得し、文書画像属性データを作成する(ステップS1602)。ここまでは第1の実施形態と同じである。ただし、本第2の実施形態では文字認識処理が不要なため、図24に示した文書画像属性データ中、「文字コード」、「フォント情報」の2つのフィールドは不要で、その代わりに、日本語文字か、英語文字かを識別するためのフィールドを設けることになる(以下、このフィールドを文字種フィールドという)。   When the verification image is input via the input unit 201 (step S1601), the document analysis unit 202 acquires circumscribed rectangle information and creates document image attribute data (step S1602). The steps so far are the same as those in the first embodiment. However, since the character recognition processing is not required in the second embodiment, the two fields of “character code” and “font information” are not required in the document image attribute data shown in FIG. A field for identifying a word character or an English character is provided (hereinafter, this field is referred to as a character type field).

次いで、ピッチ種別判別部203は文書画像属性データの文字間空白長に基づいて、日本語文字か英語文字かを判別する(ステップS1603)。   Next, the pitch type determination unit 203 determines whether the character is a Japanese character or an English character based on the inter-character space length of the document image attribute data (step S1603).

ピッチ種別判別部203の詳細を図15、その処理手順を図17に示し、以下、これらの図に従って説明する。   The details of the pitch type determination unit 203 are shown in FIG. 15 and the processing procedure is shown in FIG.

先ず、文書画像属性情報203aから、1ページ分のデータの各文字のサイズ、位置に関する情報を取得する(ステップS1603a)。次いで、入力した文字画像属性データの各文字サイズ(幅)と、後続する文字との間の文字間スペースのヒストグラムを作成し、日本語の全角文字を、英語の半角文字から区別するための、文字サイズと文字間スペースの閾値を算出する(ステップS1603b)。   First, information about the size and position of each character of data for one page is acquired from the document image attribute information 203a (step S1603a). Next, create a histogram of the inter-character space between each character size (width) of the input character image attribute data and the following characters, to distinguish Japanese full-width characters from English half-width characters, A threshold value of the character size and the space between characters is calculated (step S1603b).

次いで、この算出された文字サイズと文字間スペースの閾値に基づいて、個々の文字画像が如何なるピッチであるか、すなわち、日本語文字であるか否かを判断する(ステップS1603c)。そして、この判断結果、文書画像属性データ内の各外接矩形データ中の「文字種」フィールドに格納する。   Next, based on the calculated character size and the inter-character space threshold, it is determined what pitch each character image has, that is, whether it is a Japanese character (step S1603c). Then, as a result of this determination, the data is stored in the “character type” field in each circumscribed rectangle data in the document image attribute data.

図16のフローチャートに戻る。ステップS1603での文字種判別処理が行われると、透かし情報の抽出を行う(ステップS1604)。この処理の詳細は図18に従って説明する。   Returning to the flowchart of FIG. When the character type determination process in step S1603 is performed, watermark information is extracted (step S1604). Details of this processing will be described with reference to FIG.

先ず、文書画像属性データを参照して、外接矩形の1つが選択される(ステップS1604a)。外接矩形の選択順は、第1の実施形態と同様であり、各行頭の文字を除外することも同様である。   First, referring to the document image attribute data, one of the circumscribed rectangles is selected (step S1604a). The selection order of circumscribed rectangles is the same as that in the first embodiment, and the characters at the beginning of each line are also excluded.

そして、次いで、ステップS1604bにて、その外接矩形文字が日本語文字ピッチの文字であるか否かを文字種フィールドを参照して判断する。日本語文字ピッチであると判断した場合には、ステップS1604cにて文字間隔調整に基づく情報の抽出処理を行う。また、日本語文字ピッチではない、すなわち、英語文字ピッチであると判断した場合には、上下位置判定に基づく情報抽出処理を行う(ステップS1604d)。   In step S1604b, it is determined with reference to the character type field whether the circumscribed rectangular character is a character having a Japanese character pitch. If it is determined that the character pitch is Japanese, the information is extracted based on the character spacing adjustment in step S1604c. If it is determined that the pitch is not a Japanese character pitch, that is, an English character pitch, information extraction processing based on the vertical position determination is performed (step S1604d).

そして、ステップS1604eにて、この処理を最終行の行末位置の処理が完了したと判断するまで、上記処理を繰り返す。   In step S1604e, this process is repeated until it is determined that the process at the end position of the last line has been completed.

なお、文字間スペースによる情報の埋め込み及び抽出方法について先の従来技術で説明した。また、文字の上下移動量による情報抽出は第1の実施形態の図10で既に説明したので、ここでの詳述は省略する。   The information embedding and extracting method using the inter-character space has been described in the prior art. Further, since the information extraction based on the vertical movement amount of the characters has already been described with reference to FIG. 10 of the first embodiment, detailed description thereof is omitted here.

図16のフローチャートに戻る。上記のようにして、情報抽出処理を終えると、処理はステップS1605に進み、透かし情報の更新処理を行う。この透かし情報更新処理では、先のステップS1604で抽出された情報はそのままにし、それに新に追加するものである。追加する情報としては、複写機固有の識別情報等、複写の経歴追跡が容易になるようにするためである。このように,多値画像に比べて冗長度の低い文書画像においても、元の透かし情報を破壊することなく、透かし情報の追加・更新が容易に行えるようになる。   Returning to the flowchart of FIG. When the information extraction process is completed as described above, the process advances to step S1605 to perform a watermark information update process. In this watermark information update process, the information extracted in the previous step S1604 is left as it is and is newly added to it. The information to be added is intended to facilitate copying history tracking such as identification information unique to the copying machine. As described above, even in a document image having a lower redundancy than that of a multi-valued image, watermark information can be easily added / updated without destroying the original watermark information.

次いで、ステップS1606に進んで、追加した透かし情報を、入力した文書画像に反映させる。追加した透かし情報は、透かし情報の存在が確認された最後の文字の次の文字、類は、次行から行う。処理は図19に示すフローチャートのようになる。   In step S1606, the added watermark information is reflected in the input document image. The added watermark information is performed from the next line for the next character after the last character for which the presence of the watermark information is confirmed. The processing is as shown in the flowchart of FIG.

先ず、ステップS1606aにて、外接矩形を選択し、その外接矩形の文字種フィールドを検査して、日本語文字ピッチであるか否かを判断する。日本語文字ピッチの文字画像であると判断した場合には、ステップS1606cにて文字間隔調整による情報の埋め込みを行う。また、日本語文字ピッチではない、すなわち、英語文字ピッチであると判断した場合には、ステップS1606dにて上下移動に基づく情報の埋め込みを行う。   First, in step S1606a, a circumscribed rectangle is selected, and the character type field of the circumscribed rectangle is inspected to determine whether it is a Japanese character pitch. If it is determined that the character image has a Japanese character pitch, information is embedded by adjusting the character spacing in step S1606c. If it is determined that the pitch is not a Japanese character pitch, that is, an English character pitch, information is embedded based on the vertical movement in step S1606d.

そして、ステップS1606eにて、全情報の埋め込みが完了したと判断するまで、上記処理を繰り返す。   In step S1606e, the above process is repeated until it is determined that all information has been embedded.

以上第2の実施形態を説明した。本第2の実施形態によれば、文字認識処理を行わない分だけ、日本語文字か英語文字かを精度良く判別することはできないものの、日本語文字ピッチ、英語文字ピッチによりおおよその判断結果に基づいて情報の埋め込みをおこなうので、第1の実施形態と比較すると、その処理速度は高速なものとなり、複写機のような複写速度が要求されるものに対して特に有効である。   The second embodiment has been described above. According to the second embodiment, although it is not possible to accurately discriminate whether it is a Japanese character or an English character as much as character recognition processing is not performed, an approximate judgment result is obtained based on the Japanese character pitch and the English character pitch. Since the information is embedded on the basis of this, the processing speed is higher than that of the first embodiment, which is particularly effective for a device requiring a copying speed such as a copying machine.

<その他の実施形態>
上記各実施形態では、文字間空白長、上下位置、回転に適合する例を説明したが、上記実施形態に限定されるものではない。要するに、日本語等の文字と、その約半分の幅程度の英語等の文字が混在し、それぞれに適した埋め込みを行うものであればよい。
<Other embodiments>
In each of the above-described embodiments, an example of adapting to the inter-character space length, vertical position, and rotation has been described. However, the present invention is not limited to the above-described embodiment. In short, it suffices if a character such as Japanese and a character such as English about half the width are mixed and embedding suitable for each character is performed.

また更に、実施形態におけるそのほとんどの機能は、パーソナルコンピュータ上で実行されるコンピュータプログラムによって実現できるのは明らかであるから、本発明は当然、そのようなコンピュータプログラムをも範疇とする。また、通常、コンピュータプログラムは、CDROM等のコンピュータ可読記憶媒体に記憶されていて、コンピュータにセットしてシステムにコピー、もしくはインストールすることで実行可能となるから、このようなコンピュータ可読記憶媒体も本発明の範疇に含まれる。   Furthermore, since it is obvious that most of the functions in the embodiments can be realized by a computer program executed on a personal computer, the present invention naturally includes such a computer program. Further, since the computer program is usually stored in a computer-readable storage medium such as a CDROM and can be executed by being set in a computer and copied or installed in the system, such a computer-readable storage medium is also this book. It is included in the category of the invention.

第1の実施形態における電子透かし埋め込み装置の構成概念図である。1 is a conceptual diagram of a configuration of a digital watermark embedding device according to a first embodiment. 図1における認識処理部のブロック構成図である。It is a block block diagram of the recognition process part in FIG. 図1における正規化部104のブロック構成図である。It is a block block diagram of the normalization part 104 in FIG. 文字回転処理による透かし情報の埋め込み手順を示すフローチャートである。It is a flowchart which shows the embedding procedure of the watermark information by a character rotation process. 文字の上下位置移動による透かし情報の埋め込み手順を示すフローチャートである。It is a flowchart which shows the embedding procedure of the watermark information by the vertical position movement of a character. 第1の実施形態における電子透かし埋め込み装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the digital watermark embedding apparatus in 1st Embodiment. 図1における認識処理部の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the recognition process part in FIG. 図1における正規化部の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the normalization part in FIG. 図6における電子透かし埋め込み処理手順を示すフローチャートである。It is a flowchart which shows the digital watermark embedding process procedure in FIG. 文字回転角からの情報抽出処理を示すフローチャートである。It is a flowchart which shows the information extraction process from a character rotation angle. 文字上下位置からの情報抽出処理を示すフローチャートである。It is a flowchart which shows the information extraction process from a character up-and-down position. 情報抽出処理手順を示すフローチャートである。It is a flowchart which shows an information extraction process procedure. 文字上下位置による情報埋め込みと抽出の他の例を示すフローチャートである。It is a flowchart which shows the other example of the information embedding and extraction by a character vertical position. 第2の実施形態における電子透かし埋め込み装置の構成概念図である。FIG. 6 is a conceptual diagram of a configuration of a digital watermark embedding device according to a second embodiment. 図14のピッチ種別認識部の構成を示す図である。It is a figure which shows the structure of the pitch classification recognition part of FIG. 第2の実施形態の装置における透かし情報埋め込み処理手順を示すフローチャートである。It is a flowchart which shows the watermark information embedding processing procedure in the apparatus of 2nd Embodiment. 図14のピッチ種別認識部の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the pitch classification recognition part of FIG. 図16の透かし情報抽出処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the watermark information extraction process of FIG. 図16の透かし情報埋め込み処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the watermark information embedding process of FIG. 文字の間隔を利用した電子透かし埋め込みを行う場合の原画像の例を示す図である。It is a figure which shows the example of the original image in the case of performing digital watermark embedding using the space | interval of a character. 文字の間隔を利用した電子透かし埋め込みを行った後の画像を示す図である。It is a figure which shows the image after performing digital watermark embedding using the space | interval of a character. 文字の傾きを利用した電子透かし埋め込み方法を説明するための概要図である。It is a schematic diagram for demonstrating the electronic watermark embedding method using the inclination of a character. 実施形態における装置の具体的なブロック構成図である。It is a concrete block block diagram of the apparatus in embodiment. 第1の実施形態で生成する文書画像属性データの構造を示す図である。It is a figure which shows the structure of the document image attribute data produced | generated in 1st Embodiment. 第1の実施形態の電子透かし埋め込み装置の他の構成概念図である。It is another structure conceptual diagram of the digital watermark embedding device of the first embodiment.

Claims (14)

文書画像に情報を埋め込む情報処理装置であって、
入力した文書画像中の各文字画像の外接矩形の位置とサイズに関する情報を抽出する抽出手段と、
抽出された各文字画像の位置とサイズに基づき、各文字画像を、第1の文字幅を有する第1の文字画像タイプと、前記第1の文字幅と異なる第2の文字幅を有する第2の文字画像タイプに分類する分類手段と、
前記第1の文字画像タイプの文字画像については第1の埋め込み方法で除法を埋め込み、前記第2の文字画像タイプの文字画像については第2の埋め込み方法で情報を埋め込む埋め込み手段と
を備えることを特徴とする情報処理装置。
An information processing apparatus for embedding information in a document image,
Extraction means for extracting information about the position and size of the circumscribed rectangle of each character image in the input document image;
Based on the position and size of each extracted character image, each character image is divided into a first character image type having a first character width and a second character width having a second character width different from the first character width. Classification means for classifying the character image type of
Embedding means for embedding a division by a first embedding method for a character image of the first character image type, and embedding information by a second embedding method for a character image of the second character image type. A characteristic information processing apparatus.
前記第1の埋め込み方法は、隣接する文字画像間の空白長に影響を与え、情報を埋め込み、
前記第2の埋め込み方法は、文字の並び方向に対して直交する方向の位置に影響を与え情報を埋め込むことを特徴とする請求項1に記載の情報処理装置。
The first embedding method affects the blank length between adjacent character images, embeds information,
The information processing apparatus according to claim 1, wherein the second embedding method embeds information by affecting a position in a direction orthogonal to a character arrangement direction.
前記第2の文字幅は、前記第1の文字幅よりも狭いことを特徴とする請求項1又は2に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the second character width is narrower than the first character width. 更に、前記抽出手段の抽出結果に基づいて既埋め込み情報を抽出し、抽出された情報を、前記埋め込み手段による埋め込み対象の情報として設定する抽出手段を備えることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。   4. The apparatus according to claim 1, further comprising extraction means for extracting already-embedded information based on an extraction result of the extraction means, and setting the extracted information as information to be embedded by the embedding means. The information processing apparatus according to any one of claims. 更に、前記分類手段で分類した第1、第2の文字画像タイプに従って、入力した文字画像の外接矩形の間隔を正規化手段と、
各文字画像を文字認識して文字コードを出力する文字認識手段と、
認識した文字コード、該当する外接矩形サイズ、正規化後の位置に応じて文書画像を生成する生成する画像生成手段とを備え、
前記埋め込み手段による情報埋め込みは、前記画像生成手段で生成された文書画像データに対して行うことを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
Furthermore, according to the first and second character image types classified by the classification means, normalizing means for the interval of the circumscribed rectangle of the input character image;
Character recognition means for recognizing each character image and outputting a character code;
Image generating means for generating a document image according to the recognized character code, the corresponding circumscribed rectangle size, and the normalized position;
5. The information processing apparatus according to claim 1, wherein the information embedding by the embedding unit is performed on the document image data generated by the image generating unit.
前記第1の文字画像タイプは全角文字画像タイプ、前記第2の文字画像タイプはアルファベット文字であることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。   6. The information processing apparatus according to claim 1, wherein the first character image type is a full-width character image type, and the second character image type is an alphabet character. 前記第1の埋め込み方法は、文字画像をその外接矩形の中心にした時計回り、反時計回り方向への所定角度の回転で、1ビットを埋め込み、
前記第2の埋め込み方法は、文字画像の文字の並びである行方向に対し直交する方向への移動量で1ビットを埋め込むことを特徴とする請求項2乃至6のいずれか1項に記載の情報処理装置。
The first embedding method embeds 1 bit by rotating the character image at the center of the circumscribed rectangle in a clockwise direction and a counterclockwise direction by a predetermined angle,
The said 2nd embedding method embeds 1 bit by the moving amount | distance to the direction orthogonal to the line direction which is a sequence of the character of a character image, The one of Claim 2 thru | or 6 characterized by the above-mentioned. Information processing device.
前記第1の埋め込み方法は、文字画像の両隣の空白長に差を設定すべく、注目文字画像を直前の文字画像、直後の文字画像のいずれかに移動することで1ビットの情報を埋め込み、
前記第2の埋め込み方法は、文字画像の文字の並びである行方向に対し直交する方向への移動量で1ビットを埋め込むことを特徴とする請求項2乃至6のいずれか1項に記載の情報処理装置。
The first embedding method embeds 1-bit information by moving the target character image to either the immediately preceding character image or the immediately following character image in order to set a difference between the blank lengths on both sides of the character image.
The said 2nd embedding method embeds 1 bit by the moving amount | distance to the direction orthogonal to the line direction which is a sequence of the character of a character image, The one of Claim 2 thru | or 6 characterized by the above-mentioned. Information processing device.
文書画像に埋め込まれた情報を抽出する情報処理装置であって、
入力した文書画像中の各文字画像の外接矩形の位置とサイズに関する属性情報を抽出する文書画像属性抽出手段と、
抽出された各文字画像の位置とサイズに基づき、各文字画像を、第1の文字幅を有する第1の文字画像タイプと、前記第1の文字幅と異なる第2の文字幅を有する第2の文字画像タイプに分類する分類手段と、
前記第1の文字画像タイプの文字画像については前記第1の抽出方法で情報を抽出し、前記第2の文字画像タイプの文字画像については第2の抽出方法で情報を抽出する抽出手段と
を備えることを特徴とする情報処理装置。
An information processing apparatus for extracting information embedded in a document image,
Document image attribute extraction means for extracting attribute information related to the position and size of the circumscribed rectangle of each character image in the input document image;
Based on the position and size of each extracted character image, each character image is divided into a first character image type having a first character width and a second character width having a second character width different from the first character width. Classification means for classifying the character image type of
Extracting means for extracting information about the first character image type character image by the first extracting method, and extracting information about the second character image type character image using the second extracting method; An information processing apparatus comprising:
前記第1の抽出方法は、隣接する文字画像間の空白長に影響を与える埋め込み処理で埋め込まれた情報を抽出し、
前記第1の抽出方法は、文字の並び方向に対して直交する方向の位置に影響を与える埋め込み処理で埋め込まれた情報を抽出することを特徴とする請求項9に記載の情報処理装置。
The first extraction method extracts information embedded by an embedding process that affects a blank length between adjacent character images;
The information processing apparatus according to claim 9, wherein the first extraction method extracts information embedded by an embedding process that affects a position in a direction orthogonal to a character arrangement direction.
文書画像に情報を埋め込む情報処理方法であって、
入力した文書画像中の各文字画像の外接矩形の位置とサイズに関する情報を抽出する抽出工程と、
抽出された各文字画像の位置とサイズに基づき、各文字画像を、第1の文字幅を有する第1の文字画像タイプと、前記第1の文字幅と異なる第2の文字幅を有する第2の文字画像タイプに分類する分類工程と、
前記第1の文字画像タイプの文字画像については第1の埋め込み方法で情報を埋め込み、第2の文字画像タイプの文字画像については第2の埋め込み方法で情報を埋めこむ埋めこみ工程と
を備えることを特徴とする情報処理方法。
An information processing method for embedding information in a document image,
An extraction step of extracting information about the position and size of the circumscribed rectangle of each character image in the input document image;
Based on the position and size of each extracted character image, each character image is divided into a first character image type having a first character width and a second character width having a second character width different from the first character width. A classification process for classifying the character image types into
An embedding step of embedding information by the first embedding method for the first character image type character image and embedding information by the second embedding method for the character image of the second character image type. A characteristic information processing method.
文書画像に埋め込まれた情報を抽出する情報処理方法であって、
入力した文書画像中の各文字画像の外接矩形の位置とサイズに関する属性情報を抽出する文書画像属性抽出工程と、
抽出された各文字画像の位置とサイズに基づき、各文字画像を、第1の文字幅を有する第1の文字画像タイプと、前記第1の文字幅と異なる第2の文字幅を有する第2の文字画像タイプに分類する分類工程と、
前記第1の文字画像タイプの文字画像については第1の抽出方法で情報を抽出し、前記第2の文字画像タイプの文字画像については第2の抽出方法で抽出する抽出工程と
を備えることを特徴とする情報処理方法。
An information processing method for extracting information embedded in a document image,
A document image attribute extraction step for extracting attribute information related to the position and size of the circumscribed rectangle of each character image in the input document image;
Based on the position and size of each extracted character image, each character image is divided into a first character image type having a first character width and a second character width having a second character width different from the first character width. A classification process for classifying the character image types into
An extraction step of extracting information on the first character image type character image by a first extraction method and extracting the second character image type character image by a second extraction method. A characteristic information processing method.
請求項1乃至10のいずれか1項に記載の情報処理装置の機能をコンピュータに実現させるためのプログラム。   The program for making a computer implement | achieve the function of the information processing apparatus of any one of Claims 1 thru | or 10. 請求項13に記載のコンピュータプログラムを格納することを特徴とするコンピュータ可読記憶媒体。   A computer-readable storage medium storing the computer program according to claim 13.
JP2004064493A 2004-03-08 2004-03-08 Information processing apparatus and method therefor, computer program and computer-readable storage medium Withdrawn JP2005253005A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004064493A JP2005253005A (en) 2004-03-08 2004-03-08 Information processing apparatus and method therefor, computer program and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004064493A JP2005253005A (en) 2004-03-08 2004-03-08 Information processing apparatus and method therefor, computer program and computer-readable storage medium

Publications (1)

Publication Number Publication Date
JP2005253005A true JP2005253005A (en) 2005-09-15

Family

ID=35033026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004064493A Withdrawn JP2005253005A (en) 2004-03-08 2004-03-08 Information processing apparatus and method therefor, computer program and computer-readable storage medium

Country Status (1)

Country Link
JP (1) JP2005253005A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009100232A (en) * 2007-10-16 2009-05-07 Canon Inc Image processor
JP2009200800A (en) * 2008-02-21 2009-09-03 Fuji Xerox Co Ltd Image processor and image processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009100232A (en) * 2007-10-16 2009-05-07 Canon Inc Image processor
JP2009200800A (en) * 2008-02-21 2009-09-03 Fuji Xerox Co Ltd Image processor and image processing program

Similar Documents

Publication Publication Date Title
JP4310288B2 (en) Image processing apparatus and method, program, and storage medium
JP4854491B2 (en) Image processing apparatus and control method thereof
CN100454293C (en) Document editing method, document editing device
JP4194462B2 (en) Digital watermark embedding method, digital watermark embedding apparatus, program for realizing them, and computer-readable storage medium
JP4393161B2 (en) Image processing apparatus and image processing method
JP2003230001A (en) Apparatus for embedding electronic watermark to document, apparatus for extracting electronic watermark from document, and control method therefor
JP2008109394A (en) Image processor, its method, and program
JP2010009509A (en) Image processor, image processing method, program thereof, and storage medium
JP2010055354A (en) Image processing apparatus and image processing program
JP2006050551A (en) Image processing apparatus, image processing method, program and storage medium
JP4673200B2 (en) Print processing system and print processing method
US20030118211A1 (en) Watermark information extraction apparatus and method of controlling thereof
KR100905857B1 (en) Information processing device and method of controlling the same
JP5950700B2 (en) Image processing apparatus, image processing method, and program
JP4164458B2 (en) Information processing apparatus and method, computer program, and computer-readable storage medium
JP3728209B2 (en) Image processing method and apparatus, computer program, and storage medium
JP2004193756A (en) Electronic watermark embedding method
JP2005253005A (en) Information processing apparatus and method therefor, computer program and computer-readable storage medium
JP2009278181A (en) Electronic watermark information embedding apparatus and method, and electronic watermark information extraction apparatus and method
JP4804433B2 (en) Image processing apparatus, image processing method, and image processing program
JP4324058B2 (en) Image processing apparatus and method
JP2010108296A (en) Information processor and information processing method
JP2005157928A (en) Stamp processor, electronic approval system, program and recording medium
US20090097699A1 (en) Information processing apparatus and method, computer program and computer-readable recording medium
JP3823005B2 (en) Bitmap font creation device and document restoration device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070605