JP2008172758A - Image processing method, image processing device and image processing program - Google Patents

Image processing method, image processing device and image processing program Download PDF

Info

Publication number
JP2008172758A
JP2008172758A JP2007262266A JP2007262266A JP2008172758A JP 2008172758 A JP2008172758 A JP 2008172758A JP 2007262266 A JP2007262266 A JP 2007262266A JP 2007262266 A JP2007262266 A JP 2007262266A JP 2008172758 A JP2008172758 A JP 2008172758A
Authority
JP
Japan
Prior art keywords
information
image
embedding
identification information
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007262266A
Other languages
Japanese (ja)
Other versions
JP5005490B2 (en
Inventor
Masaaki Ishikawa
雅朗 石川
Takashi Saito
高志 齋藤
Hiroshi Shimura
浩 志村
Haike Guan
海克 関
Taeko Ishizu
妙子 石津
Hideaki Yamagata
秀明 山形
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2007262266A priority Critical patent/JP5005490B2/en
Priority to US12/000,642 priority patent/US8238599B2/en
Priority to CN2007101988579A priority patent/CN101207680B/en
Publication of JP2008172758A publication Critical patent/JP2008172758A/en
Application granted granted Critical
Publication of JP5005490B2 publication Critical patent/JP5005490B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method, an image processing device and an image processing program capable of efficiently performing information extraction when embedding information in an image by using plural kinds of methods. <P>SOLUTION: The image processing method for an image processing device to embed information in an image comprises: an information embedding step of embedding target information in the image by using one or more methods selected from plural information embedding methods; and a method identification information embedding step of embedding method identification information for identifying the selected one or more methods in the image. In the method identification information embedding step, the method identification information is embedded in a method allowing an amount of the embedded information to be less than an amount of the embedded information in each of the selected one or more methods. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像処理方法、画像処理装置及び画像処理プログラムに関し、特に画像に対する情報の埋め込み又は抽出を実行する画像処理方法、画像処理装置及び画像処理プログラムに関する。   The present invention relates to an image processing method, an image processing apparatus, and an image processing program, and more particularly to an image processing method, an image processing apparatus, and an image processing program that execute embedding or extraction of information with respect to an image.

近年、画像処理技術及び画像形成技術等の向上によって、デジタルカラー複写機を用いて紙幣や有価証券等を複写した場合、その複写物と原本である本物とが容易に区別できないほど忠実な複写が可能となってきている。このため、紙幣や有価証券等のような特殊原稿については、複写を全く行なうことができないようにするか、あるいは、正しく複写を行なうことができないようにする措置をとることが必要である。   In recent years, due to improvements in image processing technology and image forming technology, when copying banknotes and securities using a digital color copier, the copy is faithful enough that the original copy cannot be easily distinguished from the original copy. It has become possible. For this reason, it is necessary to take measures so that special manuscripts such as banknotes and securities cannot be copied at all or cannot be copied correctly.

また、例えば、企業においては、紙幣や証券など特殊原稿以外の一般文書の場合にあっても、文書内容の機密保持の観点から、複写等の出力が禁止されている機密文書が多数存在する。このような機密文書についても、複写を全く行なうことができないようにするか、あるいは、正しく複写を行なうことができないようにする措置をとることが必要である。   Further, for example, even in the case of general documents other than special manuscripts such as banknotes and securities, there are many confidential documents that are prohibited from being output such as copying from the viewpoint of maintaining confidentiality of the document contents. It is necessary to take measures to prevent such confidential documents from being copied at all, or from being copied correctly.

このようなことから、従来、特殊原稿や機密文書等を複写することに規制力を及ぼすことを目的とする種々の発明がなされている。例えば、特許文献1には、スキャナで読み取られた画像から所定のドットパターンが検知された場合は、出力を禁止する技術が提案されている。したがって、コピーを禁止する機密文書等に予め所定のドットパターンを埋め込んでおくことにより、その再現処理を効果的に防止することができる。   For this reason, various inventions have been made in the past that aim to exert restrictions on copying special manuscripts and confidential documents. For example, Patent Literature 1 proposes a technique for prohibiting output when a predetermined dot pattern is detected from an image read by a scanner. Therefore, by embedding a predetermined dot pattern in a confidential document or the like that prohibits copying, the reproduction process can be effectively prevented.

但し、特許文献1に記載された発明によれば、機密文書の複写を効果的に防止することはできるが、文書に対して埋め込める情報量は、機密文書であるか無いか、すなわち1ビット分である。しかし、例えばユーザ認証と組み合わせて、ユーザの役職に応じて複写の許否を切り替えたるといったような柔軟性の高い情報セキュリティ機能を実現するためには少なくとも数ビット程度の情報量が必要とされる。また、複写時に出力禁止を制御するだけでなく、上記のドットパターン等の出力禁止データの検出機能のない複写機で複写されたものが流出した場合に流出元を特定できるような追跡情報を埋め込むためには100ビット程度以上の情報量が必要とされる。   However, according to the invention described in Patent Document 1, it is possible to effectively prevent copying of a confidential document, but the amount of information that can be embedded in the document is whether it is a confidential document, that is, 1 bit. Minutes. However, in order to realize a highly flexible information security function such as switching the permission / prohibition of copying according to the user's job, for example, in combination with user authentication, an information amount of at least several bits is required. In addition to controlling output prohibition at the time of copying, embedding tracking information that can identify the outflow source when a copy that does not have the output prohibition data detection function such as the dot pattern described above flows out For this purpose, an information amount of about 100 bits or more is required.

そこで、本出願人は、100ビット程度の情報の抽出を可能とする背景ドットパターンによる情報埋め込み方法を既に提案している(例えば、特許文献2)。また、100ビット程度の情報が抽出できる情報埋め込み方法は、他にも様々なものが存在しており、それぞれに一長一短がある。例えば、背景ドットパターンによる方法は、原稿の背景部にドットパターンを繰り返し埋め込むため、原稿の読み易さはある程度低下してしまうが隠蔽には強い。一方、一般的なバーコードや2次元バーコード等、特定領域にコード画像を埋め込む方法は、汎用性には富むが、複写禁止制御用途では、複写時に容易に隠されてしまうという問題がある。また文書画像であれば、文字間隔を変化させる方法(例えば、非特許文献1)や、文字輪郭部の変形させる方法(例えば、非特許文献2)によれば、ほとんど人間によっては視認されないように情報を埋め込むことができる。   Therefore, the present applicant has already proposed an information embedding method using a background dot pattern that enables extraction of information of about 100 bits (for example, Patent Document 2). There are various other information embedding methods that can extract information of about 100 bits, and each has advantages and disadvantages. For example, the method using the background dot pattern repeatedly embeds the dot pattern in the background portion of the document, so the readability of the document is reduced to some extent, but it is strong against concealment. On the other hand, a method of embedding a code image in a specific area, such as a general bar code or a two-dimensional bar code, is rich in versatility, but has a problem that it is easily hidden during copying in a copy prohibition control application. Further, in the case of a document image, according to a method for changing the character spacing (for example, Non-Patent Document 1) and a method for deforming the character outline (for example, Non-Patent Document 2), it is hardly seen by humans. Information can be embedded.

従って、各種の方式から用途に応じて一つ又は複数の埋め込み方式を選択して情報を埋め込むことができれば利便性の向上が期待される。
特開2004−274092号公報 特開2006−287902号公報 天野富夫、平山唯樹著、「レイアウト構造を利用したページ記述への電子透かし埋め込み手法」、(1998年9月17日)、(社)情報処理学会発行、45頁〜50頁 辻合秀一、上辻雅義著、「文字形状を利用したレタリングへの電子透かし法」、(1999年11月25日)、(社)電子情報通信学会発行、2175頁〜2177頁
Therefore, if one or a plurality of embedding methods can be selected from various methods according to the purpose of embedding information, improvement in convenience is expected.
JP 2004-274092 A JP 2006-287902 A Tomio Amano and Yuki Hirayama, “Digital watermark embedding method in page description using layout structure” (September 17, 1998), published by Information Processing Society of Japan, pages 45-50 Shuichi Sugoi, Masayoshi Kamijo, “Digital watermarking method for lettering using character shapes” (November 25, 1999), published by The Institute of Electronics, Information and Communication Engineers, pp. 2175-2177

しかしながら、多数ビット情報の埋め込み方式を複数の埋め込み方式の中から任意に選択可能とすると、情報の抽出時にはどの方式で埋め込まれているかが特定できない。したがって、可能性のある全ての埋め込み方式について情報抽出処理を行う必要があり、情報抽出処理の性能が劣化してしまうという問題がある。   However, if the multi-bit information embedding method can be arbitrarily selected from a plurality of embedding methods, it is not possible to specify which method is embedded when extracting information. Therefore, it is necessary to perform information extraction processing for all possible embedding methods, and there is a problem that the performance of the information extraction processing deteriorates.

また、そもそも多数ビット情報が埋め込まれていない一般文書についても情報抽出処理が実行されてしまい、複写制御等をする必要のない一般文書の複写処理まで性能が劣化してしまうという問題がある。   In addition, information extraction processing is also executed for general documents in which a large number of bit information is not embedded in the first place, and there is a problem that the performance deteriorates to copy processing of general documents that do not require copy control or the like.

一般的に、一定の面積の原稿に埋め込む情報量を増加させればさせるほど、その抽出処理にはより大きなメモリ、処理量が必要となる。したがって、上記の多ビット情報の埋め込み方式によって埋め込まれた情報を、複写機で複写時にリアルタイムに抽出する(すなわち画像をラインセンサでライン単位にスキャンしながら並行して情報抽出処理を行う)ことは非常に困難である。したがって、斯かる情報を複写時において抽出するためには、フレームメモリに画像全体または情報抽出に必要な分の画像情報が取り込まれるまで出力処理を止めておく必要があり、上記した複写処理の性能の劣化は無視できない程大きなものとなってしまいかねない。   In general, the larger the amount of information embedded in a document of a certain area, the larger the memory and processing amount required for the extraction process. Therefore, it is possible to extract information embedded by the above-described multi-bit information embedding method in real time at the time of copying with a copying machine (that is, to perform information extraction processing in parallel while scanning an image line by line with a line sensor). It is very difficult. Therefore, in order to extract such information at the time of copying, it is necessary to stop the output processing until the entire image or image information necessary for information extraction is captured in the frame memory. Degradation of the material can become so great that it cannot be ignored.

本発明は、上記の点に鑑みてなされたものであって、画像に対し複数種類の方式によって情報を埋め込む場合に、その情報の抽出処理の効率的に行うことができる画像処理方法、画像処理装置、及び画像処理プログラムの提供を目的とする。   The present invention has been made in view of the above points, and in the case where information is embedded in an image by a plurality of types of methods, an image processing method and image processing capable of efficiently performing the information extraction processing An object is to provide an apparatus and an image processing program.

そこで上記課題を解決するため、本発明は、画像処理装置が画像に対して情報を埋め込む画像処理方法であって、前記画像に対して情報を埋め込む複数の方式の中から選択された一つ以上の方式を用いて前記情報を埋め込む情報埋め込み手順と、前記選択された一つ以上の方式を識別するための方式識別情報を前記画像に対して埋め込む方式識別情報埋め込み手順とを有し、前記方式識別情報埋め込み手順は、前記情報埋め込み手順により用いられたいずれの方式よりも埋め込める情報量が少ない方式によって前記方式識別情報を埋め込むことを特徴とする。   Accordingly, in order to solve the above-described problem, the present invention provides an image processing method in which an image processing apparatus embeds information in an image, and one or more selected from a plurality of methods for embedding information in the image An information embedding procedure for embedding the information by using the method, and a method identification information embedding procedure for embedding method identification information for identifying the one or more selected methods in the image. In the identification information embedding procedure, the method identification information is embedded by a method that embeds less information than any method used in the information embedding procedure.

このような画像処理方法では、画像に対し複数種類の方式によって情報を埋め込む場合に、その情報の抽出処理の効率的に行うことができる。   In such an image processing method, when information is embedded in an image by a plurality of types of methods, the information extraction process can be performed efficiently.

また、上記課題を解決するため、本発明は、上記画像処理方法を実行する画像処理装置、又は上記画像処理方法をコンピュータに実行させるための画像処理プログラムとしてもよい。   In order to solve the above problem, the present invention may be an image processing apparatus that executes the image processing method or an image processing program that causes a computer to execute the image processing method.

本発明によれば、画像に対し複数種類の方式によって情報を埋め込む場合に、その情報の抽出処理の効率的に行うことができる画像処理方法、画像処理装置、及び画像処理プログラムを提供することができる。   According to the present invention, it is possible to provide an image processing method, an image processing apparatus, and an image processing program capable of efficiently performing information extraction processing when information is embedded in an image by a plurality of types of methods. it can.

まず、本実施の形態の概要について説明する。本実施の形態では、画像に対して三種類の方式によって情報が埋め込まれる可能性がある場合について説明する。ここで、「画像」とは、紙等の媒体に記録(印刷)されているものや、電子データとして電磁的に記録媒体にされるもの等、その状態を問わず、人間の視覚によって認識可能な情報、又はその情報を表現するデータ全般をいう。   First, an outline of the present embodiment will be described. In this embodiment, a case will be described in which information may be embedded in an image by three types of methods. Here, “image” can be recognized by human vision regardless of the state, such as what is recorded (printed) on a medium such as paper, or electromagnetically recorded as electronic data. Information, or general data that represents the information.

本実施の形態において、画像の状態は、大きく次の4つの状態に分類される。
(1)三種類のうちのいずれか一つの方式によって情報が埋め込まれている状態。
(2)三種類のうちのいずれか二つの方式によって情報が埋め込まれている状態。
(3)三種類の全ての方式によって情報が埋め込まれている状態。
(4)いずれの方式によっても情報が埋め込まれていない状態。
In the present embodiment, the state of an image is roughly classified into the following four states.
(1) A state in which information is embedded by any one of three methods.
(2) A state in which information is embedded by any two of the three methods.
(3) A state in which information is embedded by all three methods.
(4) A state in which information is not embedded by any method.

そこで、本実施の形態では、いずれの方式によって情報が埋め込まれているのかを識別するための情報(すなわち、上記(1)〜(4)の状態を識別するための情報。以下「埋め込み方式識別情報」という。)を当該画像に対して埋め込む。三種類のいずれかの方式によって埋め込まれている情報(以下「埋め込み情報」という。)を抽出する際は、まず、埋め込み方式識別情報を抽出することで、上記(1)〜(4)の状態を判別する。続いて、判別された状態に対応した抽出処理によって埋め込み情報を抽出する。したがって、上記(1)、(2)、及び(4)の場合において余計な処理の実行が抑止され、効率的な埋め込み情報の抽出処理が可能となる。   Therefore, in the present embodiment, information for identifying by which method the information is embedded (that is, information for identifying the states (1) to (4) above. Hereinafter, “embedding method identification”. Information ”) is embedded in the image. When extracting information embedded by any of the three methods (hereinafter referred to as “embedded information”), first, the above-described states (1) to (4) are obtained by extracting the embedded method identification information. Is determined. Subsequently, the embedded information is extracted by an extraction process corresponding to the determined state. Therefore, in the above cases (1), (2), and (4), execution of unnecessary processing is suppressed, and efficient embedded information extraction processing becomes possible.

なお、埋め込み情報を埋め込むために用いられる方式は、数十〜数百ビットの情報量の埋め込みが可能であるものである。このような方式は、一般的に、情報の抽出時に「非リアルタイムな処理」が必要とされる。「非リアルタイムな処理」とは、例えば、情報が埋め込まれた画像が印刷された原稿を複写する場合、フレームメモリに画像全体または情報の抽出に必要な分の画像情報が取り込まれるまで出力処理が止められる処理のことをいう。情報の抽出時に「非リアルタイムな処理」が必要とされる情報の埋め込み方式を本実施の形態では「非リアルタイム方式」という。一般的に、数十〜数百ビットの情報量の埋め込みが可能な方式は、非リアルタイム方式に相当する。   Note that the method used to embed the embedded information can embed an information amount of several tens to several hundreds of bits. Such a method generally requires “non-real-time processing” when extracting information. “Non-real-time processing” means, for example, when copying a document on which an image with embedded information is printed, output processing is performed until the entire image or the amount of image information necessary for information extraction is captured in the frame memory. The process that can be stopped. An information embedding method that requires “non-real-time processing” when extracting information is referred to as a “non-real-time method” in the present embodiment. In general, a method capable of embedding information amount of several tens to several hundreds of bits corresponds to a non-real time method.

本実施の形態における三種類の方式についても、いずれも非リアルタイム方式に相当する。但し、本実施の形態における三種類の方式はあくまでも例示であり、他の方式によって埋め込み情報が埋め込まれてもよい。また、二種類又は四種類以上の方式によって埋め込み情報が埋め込まれても良い。また、各方式によって同時に埋め込み情報が埋め込まれる場合(すなわち、上記(2)又は(3)の状態)、各埋め込み情報は同一の情報であってもよいし、異なる情報であってもよい。   All of the three types of methods in the present embodiment correspond to non-real time methods. However, the three types of methods in the present embodiment are merely examples, and the embedded information may be embedded by other methods. Further, the embedded information may be embedded by two types or four or more types. Further, when embedded information is embedded simultaneously by each method (that is, the state of (2) or (3) above), the embedded information may be the same information or different information.

一方、埋め込み方式識別情報を埋め込むための方式は、埋め込み方式の種類を識別できる程度のビット数(数ビット程度)の情報量を埋め込めることができればよい。埋め込み可能な情報量と、当該情報量の情報の抽出処理の性能との間にはある程度の相関関係が認められる。すなわち、埋め込め可能な情報量が少ない程、情報の抽出処理は単純となり、「非リアルタイムな処理」は不要となる。言い換えれば、画像をラインセンサでライン単位にスキャンしながら並行して情報抽出処理を行うことが可能となる。したがって、本実施の形態では、上記3種類のいずれの方式よりも埋め込める情報量の少ない方式によって、すなわち、非リアルタイムな処理は必要とされない方式によって埋め込み方式識別情報を埋め込む。なお、「非リアルタイムな処理」が必要とされない方式を、本実施の形態では「リアルタイム方式」という。   On the other hand, the method for embedding the embedding method identification information only needs to be able to embed the information amount of the number of bits (about several bits) that can identify the type of embedding method. There is a certain degree of correlation between the amount of information that can be embedded and the performance of information extraction processing for the information amount. That is, the smaller the amount of information that can be embedded, the simpler the information extraction process, and the “non-real-time process” becomes unnecessary. In other words, information extraction processing can be performed in parallel while scanning an image line by line with a line sensor. Therefore, in the present embodiment, the embedding method identification information is embedded by a method that embeds less information than any of the above three methods, that is, by a method that does not require non-real-time processing. A method that does not require “non-real time processing” is referred to as “real time method” in the present embodiment.

すなわち、本実施の形態では、複数の非リアルタイム方式で埋め込み情報を埋め込み、埋め込み情報の埋め込みに利用された方式を識別するための情報を、複数の非リアルタイム方式のいずれの方式よりも埋め込める情報量が少ないリアルタイム方式で埋め込むことにより、埋め込み情報の抽出処理を効率化するも。   That is, in the present embodiment, information for embedding embedded information in a plurality of non-real-time methods and identifying information used for embedding embedded information can be embedded more than any of the plurality of non-real-time methods. The embedding information extraction process is made more efficient by embedding it in a small amount in real time.

以下、図面に基づいて本発明の実施の形態を説明する。埋め込み方式識別情報を埋め込むための方式について説明する。本実施の形態では、複数のドットより構成されるパターン(以下「ドットパターン」という。)を画像の背景に合成する(重畳させる)ことにより、埋め込み方式識別情報を当該画像に埋め込む。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. A method for embedding embedding method identification information will be described. In the present embodiment, the embedding method identification information is embedded in the image by synthesizing (superimposing) a pattern composed of a plurality of dots (hereinafter referred to as “dot pattern”) on the background of the image.

例えば、ドットパターンとしては次のようなものが用いられる。図1は、本発明の実施の形態において用いられるドットパターンの例を示す図である。図1において、ドットパターンaは、それぞれ相対的な位置関係が規定された3つのドットより構成される。なお、本発明の実施にあたり、一つのドットパターンを構成するドットの数は3つ以上であってもよい。また、必ずしもドットによって構成されるパターンでなくてもよい。例えば、線分又は線分とドットとの組み合わせによって構成されるパターンであってもよい。   For example, the following dot patterns are used. FIG. 1 is a diagram showing an example of a dot pattern used in the embodiment of the present invention. In FIG. 1, a dot pattern a is composed of three dots each having a relative positional relationship. In implementing the present invention, the number of dots constituting one dot pattern may be three or more. Further, the pattern is not necessarily formed by dots. For example, a pattern constituted by a line segment or a combination of a line segment and a dot may be used.

図2は、ドットパターンが合成された画像の例を示す図である。図2では、画像500に対してドットパターンaが繰り返し合成されている例が示されている。なお、図中では、視認し易いようにドットパターンaが拡大されて示されているが、実際には、より微小なパターンとして構成される。   FIG. 2 is a diagram illustrating an example of an image in which dot patterns are combined. FIG. 2 shows an example in which the dot pattern a is repeatedly combined with the image 500. In the figure, the dot pattern a is shown enlarged so that it can be easily seen, but actually, it is configured as a finer pattern.

ドットパターンaを画像に対して合成することにより、少なくとも1ビットの情報を画像500に対して埋め込むことができる。すなわち、ドットパターンaが合成されている状態と合成されていない状態である。但し、上記(1)〜(4)の状態を識別するためには、1ビットでは足りない。厳密には(1)の状態は、いずれか一つの方式として採用されている方式を区別すれば、更に3通りの状態に分類される。同様に(2)の状態は、いずれか二つの方式として採用されている方式を区別すれば、更に3通りの状態に分類される。したがって、合計8通りの状態を区別する必要があり、そのためには埋め込み方式識別情報として少なくとも3ビットの情報量が必要とされる。   By synthesizing the dot pattern a with the image, at least one bit of information can be embedded in the image 500. That is, there are a state where the dot pattern a is synthesized and a state where it is not synthesized. However, one bit is not enough to identify the states (1) to (4). Strictly speaking, the state (1) is further classified into three states if the method adopted as any one method is distinguished. Similarly, the state of (2) is further classified into three states, if the methods adopted as any two methods are distinguished. Therefore, it is necessary to distinguish a total of eight states, and for this purpose, an information amount of at least 3 bits is required as embedding method identification information.

そこで、本実施の形態では、ドットパターンa同士の相対的な角度差に対して意味を持たせる。すなわち、ドットパターンa又はドットパターンaを任意の角度回転させたパターン(以下「基本パターン」という。)と、基本パターンを所定の角度回転させたドットパターン(以下「追加パターン」という。)との相対的な角度によって埋め込み方式識別情報を表現する。ここで、ドットパターンaを回転させる際の回転中心は特定の位置に限定されないが、情報を抽出する際における回転の中心と整合性が図られている必要がある。本実施の形態では、図17において後述されるパターン辞書を用いて情報の抽出が行われる。図17のパターン辞書では、ドットパターンaを含む矩形領域における中心座標に位置する画素(当該矩形領域の幅をW、高さをHとした場合、(W/2、H/2)に位置する画素)が回転の中心とされている。したがって、本実施の形態において、情報を埋め込む際の回転の中心も、ドットパターンaを含む矩形領域において中心座標に位置する画素となる。   Therefore, in the present embodiment, a meaning is given to the relative angle difference between the dot patterns a. That is, a dot pattern a or a pattern obtained by rotating the dot pattern a by an arbitrary angle (hereinafter referred to as “basic pattern”) and a dot pattern obtained by rotating the basic pattern by a predetermined angle (hereinafter referred to as “additional pattern”). The embedding method identification information is expressed by a relative angle. Here, the center of rotation when rotating the dot pattern a is not limited to a specific position, but it is necessary to be consistent with the center of rotation when extracting information. In the present embodiment, information is extracted using a pattern dictionary described later in FIG. In the pattern dictionary of FIG. 17, a pixel located at the center coordinate in a rectangular area including the dot pattern a (when the width of the rectangular area is W and the height is H, it is located at (W / 2, H / 2). Pixel) is the center of rotation. Therefore, in the present embodiment, the center of rotation when embedding information is also a pixel located at the center coordinate in the rectangular region including the dot pattern a.

図3は、基本パターンと追加パターンとの例を示す図である。図3では、基本パターンaと追加パターンbとが相対的に45度の角度を有している例が示されている。すなわち、図中における追加パターンbは、基本パターンaを時計回りに45度回転させてものである。   FIG. 3 is a diagram illustrating examples of basic patterns and additional patterns. FIG. 3 shows an example in which the basic pattern a and the additional pattern b have an angle of 45 degrees relatively. That is, the additional pattern b in the figure is obtained by rotating the basic pattern a 45 degrees clockwise.

図4は、基本パターン及び追加パターンの相対角度によって情報が埋め込まれた画像の例を示す図である。図4において画像500の描画要素(家の絵)は便宜上省略されている。また、図中における矢印は、それぞれのドットパターンの向き(角度)を示すためのものであり、画像上の描画要素ではない。図4では、二つの基本パターンaと、基本パターンaを時計回りに45度回転させた追加パターンbとがそれぞれ複数合成されている例が示されている。図4では、便宜上二つずつしか合成されていないが、実用性を考慮すると、後述されるようにより多数のドットパターンが合成されることが望ましい。また、基本パターンaの数及び追加パターンbの数は、検出精度の観点より、同数又はほぼ同数であることが好ましい。なお、この方式では、基本パターンaと追加パターンbとの絶対的又は相対的な配置位置は問われない。   FIG. 4 is a diagram illustrating an example of an image in which information is embedded according to the relative angle of the basic pattern and the additional pattern. In FIG. 4, the drawing elements (the house picture) of the image 500 are omitted for convenience. Also, the arrows in the drawing are for indicating the direction (angle) of each dot pattern, and are not drawing elements on the image. FIG. 4 shows an example in which two basic patterns a and a plurality of additional patterns b obtained by rotating the basic pattern a 45 degrees clockwise are combined. In FIG. 4, only two are combined for convenience, but considering practicality, it is desirable that a larger number of dot patterns be combined as will be described later. The number of basic patterns a and the number of additional patterns b are preferably the same or substantially the same from the viewpoint of detection accuracy. In this method, the absolute or relative arrangement position of the basic pattern a and the additional pattern b is not questioned.

また、相対的な角度が問題とされるため、埋め込み方式識別情報の埋め込み処理及び抽出処理においては、いずれが基本パターンで、いずれが追加パターンであるかは問われない。すなわち、この方式において、基本パターン及び追加パターンという呼び名は便宜的なものに過ぎない。   Since the relative angle is a problem, it does not matter which is the basic pattern and which is the additional pattern in the embedding method identification information embedding process and extraction process. That is, in this method, the names of the basic pattern and the additional pattern are merely convenient.

二つのドットパターンの相対的な角度によって情報を埋め込む方式によれば、両パターンの相対的な角度を変化させることで、数ビット程度の情報の埋め込みが可能となる。基本パターンa及び追加パターンbの相対的な角度の最大値は180度であるから、例えば、22.5度ずつ8段階に量子化すれば、3ビットの情報の埋め込みが可能となる。なお、本実施の形態では、埋め込み情報を埋め込むための三種類の方式のうち、ドットパターンを利用して埋め込み情報を埋め込むための方式(詳細については後述される。)の成立性を考慮して、相対角度が0度という状態は埋め込み方式識別情報の埋め込みに利用しない。したがって、22.5度ずつに量子化する場合、相対角度として取り得る値は、22.5×n(1≦n≦8)となる。   According to the method of embedding information according to the relative angle of the two dot patterns, it is possible to embed information of about several bits by changing the relative angle of both patterns. Since the maximum value of the relative angle between the basic pattern a and the additional pattern b is 180 degrees, for example, if quantization is performed in 8 steps by 22.5 degrees, 3-bit information can be embedded. In this embodiment, among the three types of methods for embedding embedded information, consideration is given to the feasibility of a method for embedding embedded information using a dot pattern (details will be described later). The state where the relative angle is 0 degrees is not used for embedding the embedding method identification information. Accordingly, when quantization is performed in increments of 22.5 degrees, the value that can be taken as the relative angle is 22.5 × n (1 ≦ n ≦ 8).

本実施の形態では、22.5度ずつに量子化されたそれぞれの相対角度に対して、図5に示されるように埋め込み方式識別情報を割り当てる。   In the present embodiment, embedding method identification information is assigned to each relative angle quantized by 22.5 degrees as shown in FIG.

図5は、埋め込み方式識別情報と相対角度との対応を示す図である。図5に示される表では、相対角度22.5×n(1≦n≦8)に対して、nの値に応じて000、001、010、011、100、101、110、111の値が割り当てられている。この値によって、画像に対する埋め込み情報の埋め込み方式(いずれの方式によって埋め込み情報が埋め込まれているのか)が識別される。なお、二つのドットパターンの相対角度に対して情報を埋め込む方式が、リアルタイム方式に相当する理由については後述する。   FIG. 5 is a diagram illustrating the correspondence between the embedding method identification information and the relative angle. In the table shown in FIG. 5, the values of 000, 001, 010, 011, 100, 101, 110, and 111 are set according to the value of n for a relative angle of 22.5 × n (1 ≦ n ≦ 8). Assigned. By this value, the embedding method of embedding information in the image (which method is used to embed the embedding information) is identified. The reason why the method of embedding information with respect to the relative angle between the two dot patterns corresponds to the real-time method will be described later.

次に、埋め込み情報を埋め込むための三種類の非リアルタイム方式について説明する。本実施の形態では、バーコード方式、文字輪郭部形状変形による情報埋め込み方式、角度の異なるドットパターンの配置情報による情報埋め込み方式が、埋め込み情報を埋め込むための方式の候補として予定される場合を例とする。   Next, three types of non-real time methods for embedding embedded information will be described. In this embodiment, an example in which a barcode method, an information embedding method based on character outline shape deformation, and an information embedding method based on arrangement information of dot patterns with different angles are planned as candidates for embedding information is exemplified. And

バーコード方式は、埋め込み情報を表現するバーコード画像を画像の一部(例えば、四隅のうちの一箇所)に対して合成することにより情報を埋め込む方式である。バーコードは、2次元バーコードであってもよい。以下、バーコード方式を「非リアルタイム第一方式」ともいう。   The barcode method is a method of embedding information by combining a barcode image representing embedded information with a part of an image (for example, one of four corners). The barcode may be a two-dimensional barcode. Hereinafter, the barcode method is also referred to as “non-real-time first method”.

文字輪郭部形状変形による情報埋め込み方式は、描画要素として文字が含まれる画像に対して有効な方式であり、文字の輪郭部を変形させることにより情報を埋め込む方式である。この方式については、「文字形状を利用したレタリングへの電子透かし法」(1999年11月25日、辻合秀一、上辻雅義著、(社)電子情報通信学会発行、2175頁〜2177頁)に詳しい。以下、文字輪郭部形状変形による情報埋め込み方式を「非リアルタイム第二方式」ともいう。   The information embedding method by deforming the shape of the character outline is an effective method for an image including characters as drawing elements, and is a method of embedding information by deforming the outline of the character. For this method, “Digital Watermarking Method for Lettering Using Character Shape” (November 25, 1999, Shuichi Sugoi, Masayoshi Kamijo, published by The Institute of Electronics, Information and Communication Engineers, pages 2175-2177) Be familiar with. Hereinafter, the information embedding method by deforming the character outline portion is also referred to as “non-real-time second method”.

角度の異なるドットパターンの配置情報による情報埋め込み方式について説明する。当該方式は、埋め込み方式識別情報を埋め込むために用いる方式(すなわち、二つのドットパターンの相対角度に対して情報を埋め込む方式)における基本パターンaと追加パターンbとの相対的な配置情報(言い換えれば、基本パターンaと追加パターンbとによって構成される配列)に対して情報を埋め込む方式である。以下、この方式を「非リアルタイム第三方式」ともいう。   An information embedding method based on arrangement information of dot patterns having different angles will be described. In this method, the relative arrangement information (in other words, the basic pattern a and the additional pattern b) in the method used for embedding the embedding method identification information (that is, the method of embedding information with respect to the relative angle of two dot patterns). This is a method of embedding information in an array composed of a basic pattern a and an additional pattern b. Hereinafter, this method is also referred to as “non-real-time third method”.

図6は、基本パターン及び追加パターンの配列によって情報が埋め込まれた画像の例を示す図である。図6では、配列長が4の場合が例とされており、左から右、上から下の順で配列を走査すると、基本パターンa、追加パターンb、基本パターンa、追加パターンbの順で、ドットパターンが配置されている。例えば、基本パターンaに「0」、追加パターンbに「1」を割り当てたとすると、図6の画像500には、「0110」という値が埋め込まれていることになる。したがって、この方式の場合、基本パターンaと追加パターンbとは明確に区別される。但し、この方式では、基本パターンaと追加パターンbとの相対角度については問われない。両ドットパターンとの間に判別可能な角度差があればよく、その角度差が何度であれ、埋め込まれる情報には影響しない。   FIG. 6 is a diagram illustrating an example of an image in which information is embedded by an arrangement of basic patterns and additional patterns. FIG. 6 shows an example in which the array length is 4, and when the array is scanned in order from left to right and from top to bottom, the basic pattern a, the additional pattern b, the basic pattern a, and the additional pattern b are sequentially displayed. A dot pattern is arranged. For example, if “0” is assigned to the basic pattern a and “1” is assigned to the additional pattern b, the value “0110” is embedded in the image 500 of FIG. Therefore, in this method, the basic pattern a and the additional pattern b are clearly distinguished. However, in this method, the relative angle between the basic pattern a and the additional pattern b is not questioned. It is sufficient that there is an identifiable angle difference between the two dot patterns, and the embedded information is not affected no matter what the angle difference is.

この方式においても、情報の抽出精度を考慮すると、基本パターンaと追加パターンbとは、一つの配列中に同数ずつ埋め込まれることが望ましい。そうすると、図6のように配列長が「4」の場合、この方式によって埋め込める埋め込み情報は、図7のようになる。   Also in this method, in consideration of information extraction accuracy, it is desirable that the same number of basic patterns a and additional patterns b are embedded in one array. Then, when the array length is “4” as shown in FIG. 6, the embedding information that can be embedded by this method is as shown in FIG.

図7は、配列長が4の場合の配列と埋め込み情報との対応を示す図である。図7に示されるように、配列長が4の場合、基本パターンaと追加パターンbとが同数ずつという制限の下では、6通りの埋め込み情報を埋め込めることができる。したがって、2ビット強の情報量を埋め込めることになる。但し、図6には、理解を容易にするためドットパターンを拡大して示した関係上、配列長が極端に小さくなってしまっている例が示されている。実際にはより微小なドットパターンが画像全面に多数埋め込まれ得るため、配列長も長くなる。したがって、100ビット程度の情報を埋め込むことができる。なお、図7では、埋め込み情報の値が単なる数値(0〜5)とされているが、各配列にどのような情報を割り当てるかは任意である。100ビット程度であれば、当該画像の文書IDを割り当てることも可能である。   FIG. 7 is a diagram illustrating a correspondence between an array and embedded information when the array length is 4. As shown in FIG. 7, when the arrangement length is 4, under the restriction that the same number of basic patterns a and additional patterns b are provided, six types of embedding information can be embedded. Therefore, an information amount of more than 2 bits can be embedded. However, FIG. 6 shows an example in which the arrangement length has become extremely small due to the enlarged dot pattern for easy understanding. In practice, since a lot of finer dot patterns can be embedded on the entire surface of the image, the arrangement length also becomes longer. Therefore, information of about 100 bits can be embedded. In FIG. 7, the value of the embedded information is simply a numerical value (0 to 5), but what information is assigned to each array is arbitrary. If it is about 100 bits, the document ID of the image can be assigned.

ところで、本実施の形態において、埋め込み方式識別情報を埋め込むため方式は、ドットパターンを画像の背景全体に合成するものである。したがって、埋め込み情報を埋め込むための方式との間で干渉(すなわち、バーコードや文字と、ドットパターンが重なってしまう状況)が生じ、埋め込み情報の抽出に支障が生じる可能性がある。斯かる干渉を回避するため、バーコード領域や文字周辺部に対しては、ドットパターンを合成しないようにするとよい。   By the way, in the present embodiment, a method for embedding embedding method identification information is to synthesize a dot pattern with the entire background of an image. Therefore, interference with a method for embedding embedded information (that is, a situation in which a barcode or a character overlaps with a dot pattern) may occur, which may hinder extraction of embedded information. In order to avoid such interference, it is preferable not to synthesize a dot pattern for the barcode area or the character peripheral area.

図8は、バーコード領域又は文字周辺部とドットパターンとの干渉を回避した第一の例を示す図である。図8の例では、バーコードb1の周辺や文字c1の周辺にはドットパターンが合成されていない。こうすることにより、バーコードや文字の輪郭とドットパターンとの干渉が回避され、バーコードや文字の輪郭から情報を抽出する際の抽出誤りを防止することができる。なお、斯かる技術については、特開2006−229924号公報に詳しい。   FIG. 8 is a diagram illustrating a first example in which interference between the barcode area or the character peripheral portion and the dot pattern is avoided. In the example of FIG. 8, no dot pattern is synthesized around the barcode b1 or the character c1. By doing so, interference between the barcode or character outline and the dot pattern is avoided, and an extraction error when extracting information from the barcode or character outline can be prevented. Such a technique is described in detail in JP-A-2006-229924.

また、図9に示されるようにドットパターンを合成するようにしてもよい。図9は、バーコード領域又は文字周辺部とドットパターンとの干渉を回避した第二の例を示す図である。図9には、画像の周辺部(印刷された際の余白部)のみにドットパターンが合成された例が示されている。このような形態によっても、ドットパターンによる干渉を効果的に回避することができる。   Further, a dot pattern may be synthesized as shown in FIG. FIG. 9 is a diagram illustrating a second example in which interference between the barcode area or the character peripheral portion and the dot pattern is avoided. FIG. 9 shows an example in which a dot pattern is synthesized only in the peripheral portion of the image (the blank portion when printed). Even with such a configuration, it is possible to effectively avoid interference due to the dot pattern.

なお、ドットパターンの配列によって情報を埋め込む方式に関しては、ドットパターンの相対角度によって埋め込む方式と同じドットパターンを用いるようにすればよい。そうすることにより、同じドットパターンによって二重に情報を埋め込むことができ、両方式による干渉を回避することができる。例えば、図5と図7とに基づいて説明すると、基本パターンa及び追加パターンbの相対角度によって「001」という埋め込み方式識別情報を埋め込む必要があり、両パターンの配列によって「1」と埋め込み情報を埋め込む必要がある場合は、基本パターンaと追加パターンbとの相対角度を45度とし、基本パターンaと追加パターンbとを図6に示されるような順番で配置すればよい。そうすることにより、情報の抽出時には、基本パターンaと追加パターンbとの相対角度は45度と検出され、また両パターンの配列は、図6に示されるように検出される。したがって、いずれの方式からも適切に情報が抽出される。これは、ドットパターンの配列に情報を埋め込む方式では両ドットパターンの相対角度については問われず、ドットパターンの相対角度に対して情報を埋め込む方式では両ドットパターンの配置位置については問われず、両方式は双方向に互換性を有していることによる。   As for the method for embedding information by the dot pattern arrangement, the same dot pattern as that for embedding by the relative angle of the dot pattern may be used. By doing so, information can be embedded twice by the same dot pattern, and interference by both methods can be avoided. For example, referring to FIGS. 5 and 7, it is necessary to embed embedding method identification information “001” according to the relative angle between the basic pattern a and the additional pattern b, and “1” is embedded according to the arrangement of both patterns. If it is necessary to embed the pattern, the relative angle between the basic pattern a and the additional pattern b may be 45 degrees, and the basic pattern a and the additional pattern b may be arranged in the order shown in FIG. By doing so, when extracting information, the relative angle between the basic pattern a and the additional pattern b is detected as 45 degrees, and the arrangement of both patterns is detected as shown in FIG. Therefore, information is appropriately extracted from any method. In the method of embedding information in the dot pattern arrangement, the relative angle of both dot patterns is not questioned. In the method of embedding information with respect to the relative angle of the dot pattern, the arrangement position of both dot patterns is not questioned. This is because of compatibility in both directions.

以上に説明した三種類の非リアルタイム方式が埋め込み情報を埋め込むための方式の候補として予定されている本実施の形態では、埋め込み方式識別情報と、画像に対する埋め込み情報の埋め込み状態とを次のように対応付ける。   In the present embodiment in which the three types of non-real-time methods described above are scheduled as candidates for the method for embedding embedded information, the embedding method identification information and the embedded state of the embedded information in the image are as follows: Associate.

図10は、埋め込み方式識別情報と埋め込み情報の埋め込み状態との対応表を示す図である。図10では、3ビットの埋め込み方式識別情報の上位ビットから順に、非リアルタイム第一方式、非リアルタイム第二方式、非リアルタイム第三方式が割り当てられている。ビット値が「1」のときは、当該ビットに対応する方式によって埋め込み情報が埋め込まれていることを示す。ビット値が「0」のときは、当該ビットに対応する方式によっては埋め込み情報は埋め込まれていないことを示す。したがって、例えば、埋め込み方式識別情報の値が「000」のときは、いずれの方式によっても埋め込み情報が埋め込まれていないことを示す。埋め込み方式識別情報の値が「100」のときは、非リアルタイム第一方式のみによって埋め込み情報が埋め込まれていることを示す。埋め込み方式識別情報の値が「111」のときは、三種類の全ての非リアルタイム方式によって埋め込み情報が埋め込まれていることを示す。   FIG. 10 is a diagram showing a correspondence table between the embedding method identification information and the embedding state of embedding information. In FIG. 10, a non-real-time first method, a non-real-time second method, and a non-real-time third method are allocated in order from the upper bit of the 3-bit embedding method identification information. When the bit value is “1”, it indicates that the embedded information is embedded by a method corresponding to the bit. When the bit value is “0”, it indicates that the embedded information is not embedded depending on the method corresponding to the bit. Therefore, for example, when the value of the embedding method identification information is “000”, it indicates that the embedding information is not embedded by any method. When the value of the embedding method identification information is “100”, it indicates that the embedding information is embedded only by the non-real-time first method. When the value of the embedding method identification information is “111”, it indicates that the embedding information is embedded by all three types of non-real time methods.

以下、上記において説明した方法を実現するための装置等について説明する。   Hereinafter, an apparatus and the like for realizing the method described above will be described.

図11は、情報の埋め込み処理を実行する画像処理装置の構成例を示す図である。画像処理装置10は、例えば、汎用的なコンピュータや、アプリケーションを実装可能なプリンタ若しくは複合機等によって構築され得る。図11において、画像処理装置10は、画像データ取得部101、情報入力部102、第一ドットパターン生成部103、第二ドットパターン生成部104、バーコード生成部105、文字輪郭変形部106、情報埋め込み制御部107、セレクタ108、合成処理部109、及び印刷部110等より構成される。   FIG. 11 is a diagram illustrating a configuration example of an image processing apparatus that executes an information embedding process. The image processing apparatus 10 can be constructed by, for example, a general-purpose computer, a printer or a multi-function machine capable of mounting an application. In FIG. 11, the image processing apparatus 10 includes an image data acquisition unit 101, an information input unit 102, a first dot pattern generation unit 103, a second dot pattern generation unit 104, a barcode generation unit 105, a character outline deformation unit 106, information It comprises an embedding control unit 107, a selector 108, a composition processing unit 109, a printing unit 110, and the like.

画像データ取得部101は、情報の埋め込み対象となる画像(以下「対象画像」という。)を含むデータ(対象画像データ)を取得又は生成する。例えば、画像データ取得部101は、文書データを生成するワープロソフトと、当該ワープロソフトによって生成された文書データを画像データに変換するプログラム等によって構成されていてもよいし、予め保存されている画像データの読み込む処理を実行するものであってもよい。情報入力部102は、対象画像に対して埋め込む情報(埋め込み情報)と、非リアルタイム第一〜第三方式のいずれの方式を選択して埋め込み情報を埋め込むのかを示す情報(以下「埋め込み方式選択情報」という。)との入力を受け付ける。   The image data acquisition unit 101 acquires or generates data (target image data) including an image (hereinafter referred to as “target image”) that is an information embedding target. For example, the image data acquisition unit 101 may be configured by word processing software that generates document data, a program that converts document data generated by the word processing software into image data, or the like, or an image stored in advance. Data reading processing may be executed. The information input unit 102 selects information to be embedded in the target image (embedding information) and information indicating whether to embed the embedded information by selecting one of the non-real-time first to third methods (hereinafter referred to as “embedding method selection information”). ")."

第一ドットパターン生成部103は、埋め込み方式選択情報を入力情報として受け付ける。第一ドットパターン生成部103は、埋め込み方式選択情報に応じて埋め込み方式識別情報の値を判定し、その値を表現する相対角度を有する二つのドットパターン(基本パターンa及び追加パターンa)の画像データ(ドットパターンデータ)を生成し、出力する。埋め込み方式選択情報に応じた埋め込み方式識別情報の値を判定は、例えば、埋め込み方式選択情報と埋め込み方式識別情報との対応表を画像処理装置10の記憶装置に登録しておき、当該対応表に基づいて行えばよい。   The first dot pattern generation unit 103 receives embedding method selection information as input information. The first dot pattern generation unit 103 determines the value of the embedding method identification information according to the embedding method selection information, and images of two dot patterns (basic pattern a and additional pattern a) having a relative angle representing the value. Data (dot pattern data) is generated and output. For determining the value of the embedding method identification information according to the embedding method selection information, for example, a correspondence table between the embedding method selection information and the embedding method identification information is registered in the storage device of the image processing apparatus 10, and the correspondence table is displayed. Based on this.

第二ドットパターン生成部104は、埋め込み方式選択情報と埋め込み情報とを入力情報として受け付ける。第二ドットパターン生成部104は、埋め込み方式選択情報に応じて埋め込み方式識別情報の値を判定し、その値を表現する相対角度を判定する。第二ドットパターン生成部104は、また、埋め込み情報を表現するドットパターンの配列を判定する。第二ドットパターン生成部104は、更に、判定された相対角度を有する基本パターンaと追加パターンbとが、判定された配列を形成するようにドットパターンデータを生成し、出力する。   The second dot pattern generation unit 104 receives embedding method selection information and embedding information as input information. The second dot pattern generation unit 104 determines the value of the embedding method identification information according to the embedding method selection information, and determines the relative angle that expresses the value. The second dot pattern generation unit 104 also determines the arrangement of dot patterns that represent the embedded information. The second dot pattern generation unit 104 further generates and outputs dot pattern data so that the basic pattern a having the determined relative angle and the additional pattern b form the determined array.

バーコード生成部105は、埋め込み情報を入力情報として受け付ける。バーコード生成部105は、埋め込み情報に応じたバーコードの画像データ(バーコードデータ)を生成し、出力する。   The barcode generation unit 105 accepts embedded information as input information. The barcode generation unit 105 generates and outputs barcode image data (barcode data) according to the embedded information.

文字輪郭変形部106は、対象画像データと埋め込み情報とを入力情報として受け付ける。文字輪郭変形部106は、対象画像に含まれている文字の輪郭を、埋め込み情報に応じて変形する。文字輪郭変形部106は、文字輪郭が変形された対象画像データを出力する。   The character outline deforming unit 106 receives target image data and embedded information as input information. The character outline deforming unit 106 deforms the outline of the character included in the target image according to the embedded information. The character outline deforming unit 106 outputs target image data in which the character outline is deformed.

情報埋め込み制御部107は、情報入力部102によって受け付けられた埋め込み方式選択情報に応じて、セレクタ108を制御することにより、埋め込み情報の埋め込み方式を選択する。すなわち、情報埋め込み制御部107及びセレクタ108によって、第一ドットパターン生成部103、第二ドットパターン生成部104、バーコード生成部105、又は文字輪郭変形部106より出力されるデータの取捨選択が行われる。   The information embedding control unit 107 selects the embedding method of embedding information by controlling the selector 108 according to the embedding method selection information received by the information input unit 102. That is, the information embedding control unit 107 and the selector 108 perform selection of data output from the first dot pattern generation unit 103, the second dot pattern generation unit 104, the barcode generation unit 105, or the character outline transformation unit 106. Is called.

合成処理部109は、セレクタ108によって選択されたデータを対象画像に合成等することにより、埋め込み情報が埋め込まれた画像データを生成する。印刷部110は、合成処理部109よって生成さされる画像データの紙媒体(印刷用紙)への印刷を制御する。   The composition processing unit 109 generates image data in which the embedding information is embedded by combining the data selected by the selector 108 with the target image. The printing unit 110 controls printing of image data generated by the synthesis processing unit 109 on a paper medium (printing paper).

なお、上記各部は、ハードウェア(回路)によって構成されていてもよいし、ソフトウェアによって構成されていてもよい。ハードウェアによって構成される場合、例えば、埋め込み情報及び埋め込み方式選択情報の入力に応じて、第一ドットパターン生成部103、第二ドットパターン生成部104、バーコード生成部105、及び文字輪郭変形部106による処理は、並列的に実行される。これら各部から出力されるデータを、埋め込み方式選択情報に基づく情報埋め込み制御部107の制御によって、セレクタ108が取捨選択し、合成処理部109に出力する。   In addition, each said part may be comprised by hardware (circuit), and may be comprised by software. In the case of being configured by hardware, for example, the first dot pattern generation unit 103, the second dot pattern generation unit 104, the barcode generation unit 105, and the character outline transformation unit according to the input of the embedding information and the embedding method selection information The processing by 106 is executed in parallel. The data output from these units is selected by the selector 108 under the control of the information embedding control unit 107 based on the embedding method selection information, and is output to the synthesis processing unit 109.

例えば、埋め込方式選択情報において、非リアルタイム第一方式が指定されている場合は、バーコード生成部105からのバーコードデータと、第一ドットパターン生成部103からのドットパターンデータが合成処理部109に出力される。合成処理部109は、当該バーコードデータと当該ドットパターンデータとを対象画像データに合成する。   For example, when the non-real-time first method is specified in the embedding method selection information, the barcode data from the barcode generation unit 105 and the dot pattern data from the first dot pattern generation unit 103 are combined. 109 is output. The synthesis processing unit 109 synthesizes the barcode data and the dot pattern data with the target image data.

非リアルタイム第二方式が指定されている場合は、文字輪郭変形部106からの対象画像データと、第一ドットパターン生成部103からのドットパターンデータが合成処理部109に出力される。合成処理部109は、文字輪郭変形部106からの対象画像データに対して当該ドットパターンデータを合成する。すなわち、非リアルタイム第二方式が指定されている場合は、文字輪郭変形部106より出力される対象画像が、バーコード、ドットパターン等の合成対象とされる。   When the non-real-time second method is designated, the target image data from the character outline deformation unit 106 and the dot pattern data from the first dot pattern generation unit 103 are output to the synthesis processing unit 109. The composition processing unit 109 synthesizes the dot pattern data with the target image data from the character outline deforming unit 106. That is, when the non-real-time second method is designated, the target image output from the character outline deforming unit 106 is a target to be synthesized such as a barcode or a dot pattern.

非リアルタイム第三方式が指定されている場合は、第二ドットパターン生成部104からのドットパターンデータが合成処理部109に出力される。合成処理部109は、当該ドットパターンを対象画像データに合成する。   When the non-real-time third method is designated, the dot pattern data from the second dot pattern generation unit 104 is output to the synthesis processing unit 109. The composition processing unit 109 synthesizes the dot pattern with the target image data.

また、いずれの方式によっても埋め込み情報が埋め込まれないことが指定されている場合は、第一ドットパターン生成部103からのドットパターンデータが合成処理部109に出力される。   If it is specified that no embedding information is embedded by any of the methods, the dot pattern data from the first dot pattern generation unit 103 is output to the synthesis processing unit 109.

一方、ソウトウェアによって図11の各部を実現する場合は、当該ソフトウェアに係るプログラムは、当該コンピュータ等のCPUに図12に示されるような処理を実行させる。なお当該プログラムはあらかじめ当該装置のROM等に記録されていてもよいし、ネットワークを介してダウンロードされてもよい。また、CD−ROM等の記録媒体600よりインストールされてもよい。   On the other hand, when each part of FIG. 11 is implement | achieved by software, the program concerning the said software makes CPU, such as the said computer, perform the process as shown in FIG. The program may be recorded in advance in the ROM of the device, or may be downloaded via a network. Further, it may be installed from a recording medium 600 such as a CD-ROM.

図12は、画像処理装置による情報の埋め込み処理を説明するためのフローチャートである。   FIG. 12 is a flowchart for explaining information embedding processing by the image processing apparatus.

ステップS101において、画像データ取得部101は、情報の埋め込み対象とする画像(対象画像)を取得し、対象画像を画像処理装置10のメモリ上に展開する。続いて、情報入力部102は、埋め込み情報及び埋め込み方式選択情報の入力を受け付ける(S102)。埋め込み情報等は、例えば、表示装置に入力画面を表示させ、当該入力画面において入力させてもよい。埋め込み情報が入力されなかった場合(S103でNo)、第一ドットパターン生成部103は、埋め込み方式識別情報の値は「000」であると判定し、「000」に対応する相対角度(22.5度)を有する基本パターンa及び追加パターンbのドットパターンデータ(第一ドットパターン)を生成する(S104)。続いて、合成処理部18は、当該ドットパターンデータを対象画像に合成する(S105)。印刷部110は、当該対象画像をプリンタに印刷させる(S114)。   In step S <b> 101, the image data acquisition unit 101 acquires an image (target image) that is an information embedding target, and develops the target image on the memory of the image processing apparatus 10. Subsequently, the information input unit 102 receives input of embedding information and embedding method selection information (S102). For example, the embedded information may be input on the input screen by displaying the input screen on the display device. When the embedding information is not input (No in S103), the first dot pattern generation unit 103 determines that the value of the embedding method identification information is “000”, and the relative angle corresponding to “000” (22. The dot pattern data (first dot pattern) of the basic pattern a and the additional pattern b having 5 degrees is generated (S104). Subsequently, the synthesis processing unit 18 synthesizes the dot pattern data with the target image (S105). The printing unit 110 causes the printer to print the target image (S114).

一方、埋め込み情報が入力された場合(S103でYes)、埋め込み情報制御部107は、埋め込み方式選択情報に基づいて非リアルタイム第一方式が選択されているか否かを判定する(S106)。非リアルタイム第一方式が選択されている場合(S106でYes)、バーコード生成部105は、埋め込み情報に応じたバーコードデータを生成する(S107)。合成処理部109は、当該バーコードデータを対象画像に合成する(S108)。なお、非リアルタイム第一方式が選択されていない場合(S106でNo)、ステップS107及びS108は実行されない。   On the other hand, when the embedded information is input (Yes in S103), the embedded information control unit 107 determines whether the non-real-time first method is selected based on the embedded method selection information (S106). When the non-real-time first method is selected (Yes in S106), the barcode generation unit 105 generates barcode data corresponding to the embedded information (S107). The composition processing unit 109 synthesizes the barcode data with the target image (S108). If the non-real-time first method is not selected (No in S106), steps S107 and S108 are not executed.

続いて、埋め込み情報制御部107は、埋め込み方式選択情報に基づいて非リアルタイム第二方式が選択されているか否かを判定する(S109)。非リアルタイム第二方式が選択されている場合(S109でYes)、文字輪郭変形部106は、埋め込み情報に応じて対象画像中の文字の輪郭を変形する(S110)。なお、非リアルタイム第二方式が選択されていない場合(S109でNo)、ステップS110は実行されない。   Subsequently, the embedded information control unit 107 determines whether the non-real-time second method is selected based on the embedded method selection information (S109). When the non-real-time second method is selected (Yes in S109), the character outline deforming unit 106 deforms the outline of the character in the target image according to the embedded information (S110). If the non-real-time second method is not selected (No in S109), step S110 is not executed.

続いて、埋め込み情報制御部107は、埋め込み方式選択情報に基づいて非リアルタイム第三方式が選択されているか否かを判定する(S111)。非リアルタイム第三方式が選択されている場合(S111でYes)、第二ドットパターン生成部104は、埋め込み情報と埋め込み方式選択情報とに応じたドットパターンデータ(第二ドットパターン)を生成する(S112)。合成処理部109は、当該ドットパターンデータを対象画像に合成する(S113)。続いて、印刷部110は、当該対象画像をプリンタに印刷させる(S114)。なお、非リアルタイム第三方式が選択されていない場合(S111でNo)、ステップS112及びS113の代わりにステップS104及びS105が実行される。第二ドットパターン生成部104によって生成されるドットパターンには、埋め込み方式識別情報も含まれているところ、第二ドットパターン生成部104によって生成されるドットパターンが合成されない場合は、第一ドットパターン生成部103によって生成されるドットパターンを合成しなければ、対象画像に埋め込み方式識別情報が埋め込まれないからである。   Subsequently, the embedding information control unit 107 determines whether or not the non-real-time third method is selected based on the embedding method selection information (S111). When the non-real-time third method is selected (Yes in S111), the second dot pattern generation unit 104 generates dot pattern data (second dot pattern) according to the embedding information and the embedding method selection information ( S112). The composition processing unit 109 synthesizes the dot pattern data with the target image (S113). Subsequently, the printing unit 110 causes the printer to print the target image (S114). If the non-real-time third method is not selected (No in S111), steps S104 and S105 are executed instead of steps S112 and S113. The dot pattern generated by the second dot pattern generation unit 104 also includes embedding method identification information. If the dot pattern generated by the second dot pattern generation unit 104 is not synthesized, the first dot pattern This is because the embedding method identification information is not embedded in the target image unless the dot pattern generated by the generation unit 103 is synthesized.

なお、情報の埋め込み処理において、いずれの非リアルタイム方式によっても情報が埋め込まれない場合は、埋め込み方式識別情報を示すドットパターンも対象画像に合成しないようにしてもよい。   In the information embedding process, if information is not embedded by any non-real time method, the dot pattern indicating the embedding method identification information may not be combined with the target image.

次に、情報の抽出について説明する。図13は、情報の抽出処理を実行する画像処理装置のハードウェア構成例を示す図である。図13において、画像処理装置20は、スキャナ21、RAM22、DSP(Digital Signal Processor)23、プロッタ24、埋め込み方式判別部25、コントローラ26、HDD(Hard Disk Drive)27、及び操作パネル28等を有する。   Next, information extraction will be described. FIG. 13 is a diagram illustrating a hardware configuration example of an image processing apparatus that executes information extraction processing. 13, the image processing apparatus 20 includes a scanner 21, a RAM 22, a DSP (Digital Signal Processor) 23, a plotter 24, an embedding method determination unit 25, a controller 26, an HDD (Hard Disk Drive) 27, an operation panel 28, and the like. .

スキャナ21は、原稿700より画像を読み取る。読み取られた画像データはRAM22に入力される。RAM22は、入力される画像データをFIFO方式で出力するラインメモリとして用いられるメモリ領域を実現する。ラインメモリは、画像処理の高速化及び画像処理装置10のコストの抑制の観点より、例えば、数十ライン程度のライン数を格納可能な容量を有している。すなわち、ラインメモリには、画像データの一部しか格納(展開)することはできない。DSP23は、画像データに対して、各種の画像処理(例えば、地肌除去、ガンマ補正、階調変換等)を実行するプロセッサである。埋め込み方式判別部25は、画像データよりドットパターンを検出し、当該ドットパターンの相対的な角度差に基づいて埋め込み方式識別情報を抽出する回路である。但し、埋め込み方式判別部25は、ソフトウェアによって構成されてもよい。この場合、当該ソフトウェアに係るプログラムがRAM22にロードされ、DSP23によって処理されることにより、埋め込み方式判別部25の機能が実現される。   The scanner 21 reads an image from the document 700. The read image data is input to the RAM 22. The RAM 22 implements a memory area that is used as a line memory that outputs input image data by the FIFO method. The line memory has a capacity capable of storing, for example, about several tens of lines from the viewpoint of speeding up image processing and reducing the cost of the image processing apparatus 10. That is, only part of the image data can be stored (expanded) in the line memory. The DSP 23 is a processor that executes various kinds of image processing (for example, background removal, gamma correction, gradation conversion, etc.) on the image data. The embedding method determination unit 25 is a circuit that detects a dot pattern from image data and extracts embedding method identification information based on a relative angle difference between the dot patterns. However, the embedding method determination unit 25 may be configured by software. In this case, the program of the software is loaded into the RAM 22 and processed by the DSP 23, whereby the function of the embedding method determination unit 25 is realized.

コントローラ26は、CPU261、RAM262、及びROM263等によって構成され、メモリ消費量や処理の複雑さ又は煩雑さ等によりRAM22及びDSP23等では処理できない(処理させるのは適切ではない)画像処理(情報抽出処理も含む。)や、画像処理装置20の他の機能を制御するための処理を実行する。ROM263には、当該処理を実行するためのプログラム等が記録されている。RAM262には、当該プログラムが実行時にロードされる。RAM262は、また、コントローラ26において実行される画像処理のために画像データを格納するためのフレームメモリとして用いられる。フレームメモリの容量は、少なくとも当該画像処理に必要な分の画像データが格納可能である程度、例えば、原稿700より読み取られる画像全体を格納可能である程度のものである必要がある。そのために、フレームメモリの容量は、少なくともRAM22におけるラインメモリの容量よりも大きい。   The controller 26 includes a CPU 261, a RAM 262, a ROM 263, and the like, and image processing (information extraction processing) that cannot be processed by the RAM 22 and the DSP 23 or the like due to memory consumption, processing complexity, complexity, or the like. And a process for controlling other functions of the image processing apparatus 20 is executed. The ROM 263 stores a program for executing the processing. The program is loaded into the RAM 262 at the time of execution. The RAM 262 is also used as a frame memory for storing image data for image processing executed in the controller 26. The capacity of the frame memory needs to be at a level that can store at least the amount of image data necessary for the image processing, for example, a level that can store the entire image read from the document 700. Therefore, the capacity of the frame memory is at least larger than the capacity of the line memory in the RAM 22.

CPU261は、RAM262にロードされたプログラムを実行することにより、当該処理を実行する。HDD27には、例えば、文書管理情報が登録されている。ここで、文書管理情報とは、文書ごとに文書IDや属性情報等によって構成される情報をいう。操作パネル28は、液晶パネルやボタン等によって構成され、ユーザによる操作を受け付ける。   The CPU 261 executes the processing by executing the program loaded in the RAM 262. For example, document management information is registered in the HDD 27. Here, the document management information refers to information configured by document ID, attribute information, and the like for each document. The operation panel 28 is composed of a liquid crystal panel, buttons, and the like, and accepts user operations.

なお、原稿700は、画像処理装置10によって印刷された原稿である。   The document 700 is a document printed by the image processing apparatus 10.

ところで、画像処理装置20の構成要素を、本実施の形態でいうところの「非リアルタイムな処理」を実行する部分とそうでない部分とで区別し、前者を「非リアルタイム処理部」といい、後者を「リアルタイム処理部」と便宜上言うこととすると、スキャナ21、RAM22、DSP23、プロッタ24、及び埋め込み情報判別部25は、リアルタイム処理部に含まれる。一方、コントローラ26及びHDD27は、非リアルタイム処理部に含まれる。   By the way, the components of the image processing apparatus 20 are distinguished from the part that executes “non-real-time processing” in this embodiment and the part that does not, and the former is called “non-real-time processing unit”, and the latter For convenience, the scanner 21, RAM 22, DSP 23, plotter 24, and embedded information determination unit 25 are included in the real-time processing unit. On the other hand, the controller 26 and the HDD 27 are included in the non-real-time processing unit.

CPU261に埋め込み情報の抽出機能(情報抽出機能)を実行させるためのプログラムによって実現されるソフトウェアについて説明する。図14は、情報抽出機能のソフトウェア構成例を示す図である。図14において、CPU261によって実行される情報抽出機能は、バーコード情報抽出部261a、文字輪郭情報抽出部261b、ドットパターン情報抽出部261c、及び抽出情報処理部261dより構成される。   Software implemented by a program for causing the CPU 261 to execute an embedded information extraction function (information extraction function) will be described. FIG. 14 is a diagram illustrating a software configuration example of the information extraction function. In FIG. 14, the information extraction function executed by the CPU 261 includes a barcode information extraction unit 261a, a character outline information extraction unit 261b, a dot pattern information extraction unit 261c, and an extraction information processing unit 261d.

バーコード情報抽出部261aは、非リアルタイム第一方式によって埋め込まれた情報を画像より抽出する。すなわち、バーコード情報抽出部261aは、画像に合成されたバーコードを検出し、当該バーコードより埋め込み情報を抽出する。文字輪郭情報抽出部261bは、非リアルタイム第二方式によって埋め込まれた情報を画像より抽出する。すなわち、文字輪郭情報抽出部261bは、画像に含まれている文字の輪郭より埋め込み情報を抽出する。ドットパターン情報抽出部261cは、非リアルタイム第三方式によって埋め込まれた情報を画像より抽出する。すなわち、ドットパターン情報抽出部261cは、画像に合成されたドットパターンを検出し、当該ドットパターンの配列より埋め込み情報を抽出する。抽出情報処理部261dは、抽出された埋め込み情報の値に応じた処理制御を実行する。   The barcode information extraction unit 261a extracts information embedded by the non-real-time first method from the image. That is, the barcode information extraction unit 261a detects a barcode combined with an image and extracts embedded information from the barcode. The character outline information extraction unit 261b extracts information embedded by the non-real-time second method from the image. That is, the character outline information extraction unit 261b extracts embedded information from the outlines of characters included in the image. The dot pattern information extraction unit 261c extracts information embedded by the non-real-time third method from the image. That is, the dot pattern information extraction unit 261c detects a dot pattern combined with an image, and extracts embedded information from the dot pattern arrangement. The extracted information processing unit 261d executes processing control according to the value of the extracted embedded information.

以下、図13の画像処理装置20の処理手順について説明する。図15は、画像処理装置による情報の抽出処理を説明するためのフローチャートである。なお、図15では、原稿700に対する埋め込み情報が文書IDであり、文書IDに基づいて原稿700の複写制御を行う例を説明する。ここで、文書IDとは、原稿700に印刷された画像データのコンピュータシステム(例えば、文書管理システム)上における文書IDをいう。当該コンピュータシステムでは、文書ごとにアクセス制御情報(コピーの可否等)が管理されていることとする。   Hereinafter, the processing procedure of the image processing apparatus 20 in FIG. 13 will be described. FIG. 15 is a flowchart for explaining information extraction processing by the image processing apparatus. FIG. 15 illustrates an example in which the embedding information for the document 700 is a document ID, and copy control of the document 700 is performed based on the document ID. Here, the document ID is a document ID on a computer system (for example, a document management system) of image data printed on the original 700. In this computer system, it is assumed that access control information (e.g. whether copying is possible) is managed for each document.

操作パネル28より原稿700のコピーの実行指示が入力されると、画像処理装置20のスキャナ21は、原稿700の画像(以下「対象画像」という。)を読み取る(S201)。対象画像は、読み取られたライン分随時RAM22のラインメモリとRAM262のフレームメモリに書き込まれる(格納される)(S202、S203)。   When an instruction to copy the original 700 is input from the operation panel 28, the scanner 21 of the image processing apparatus 20 reads an image of the original 700 (hereinafter referred to as “target image”) (S201). The target image is written (stored) in the line memory of the RAM 22 and the frame memory of the RAM 262 as needed for the read lines (S202, S203).

ラインメモリのライン数分の対象画像がラインメモリに書き込まれると、埋め込み方式判別部25は、ラインメモリに読み込まれた対象画像よりドットパターン(基本パターンa及び追加パターンb)を検出し、基本パターンaと追加パターンbとの相対角度を判定することにより埋め込み方式識別情報を抽出する(S204)。また、リアルタイム処理部では、リルタイム方式判別部25による処理と前後して、DSP23による画像処理がラインメモリ内の対象画像に対して実行される。   When the target images for the number of lines in the line memory are written into the line memory, the embedding method determination unit 25 detects the dot pattern (basic pattern a and additional pattern b) from the target image read into the line memory, and the basic pattern The embedding method identification information is extracted by determining the relative angle between a and the additional pattern b (S204). Further, in the real-time processing unit, image processing by the DSP 23 is executed on the target image in the line memory before and after the processing by the real-time method determining unit 25.

ところで、ラインメモリ内の画像は、新たなラインが入力されると、最も古いラインは出力されるといったように、一ライン又は数ラインずつその内容が変化していく。リアルタイム処理部の処理は、ラインメモリの内容の変化に応じて随時リアルタイムに実行される。検出精度の観点より、埋め込み方式判別部25によるドットパターンの検出は、ラインメモリの内容が変化するたびに行われることが望ましい。但し、後述されるように、埋め込み方式識別情報の抽出は、原稿700の画像の全ラインの読み取りが完了する前に抽出され得る。   By the way, the contents of the image in the line memory change by one line or several lines so that when a new line is input, the oldest line is output. The processing of the real-time processing unit is executed in real time as needed according to changes in the contents of the line memory. From the viewpoint of detection accuracy, it is desirable that the detection of the dot pattern by the embedding method determination unit 25 is performed every time the contents of the line memory change. However, as will be described later, the embedding method identification information can be extracted before the reading of all lines of the image of the original 700 is completed.

埋め込み方式識別情報が抽出された場合(S205でYes)、埋め込み方式判別部25は、埋め込み方式識別情報の値に基づいて対象画像に埋め込み情報が埋め込まれているか否かを判定する(S206)。この判定は、図10に示される表に基づいて行われる。なお、図10に示される表に相当する情報は、画像処理装置20の記憶装置に記録されている。   When the embedding method identification information is extracted (Yes in S205), the embedding method determination unit 25 determines whether the embedding information is embedded in the target image based on the value of the embedding method identification information (S206). This determination is made based on the table shown in FIG. Note that information corresponding to the table shown in FIG. 10 is recorded in the storage device of the image processing apparatus 20.

埋め込み方式識別情報の値が「000」の以外の場合(S206でYes)、埋め込み方式判別部25は、プロッタ24に対して出力処理の待機を指示する(S207)。リアルタイム処理部では、原稿700の画像の全ラインが読み取られていなくても、DSP23による画像処理の完了に応じてプロッタ24による出力処理が開始され得るところ、埋め込み情報として埋め込まれている文書IDに係る文書については、複写(コピー)が禁止されているかもしれないからである。続いて、埋め込み方式判別部25は、埋め込み方式識別情報の値に応じた方式による埋め込み情報の抽出をコントローラ26の情報抽出機能(バーコード情報抽出部261a、文字輪郭情報抽出部261b、及びドットパターン情報抽出部261cの少なくともいずれか一つ)に対して指示する。   If the value of the embedding method identification information is other than “000” (Yes in S206), the embedding method determination unit 25 instructs the plotter 24 to wait for output processing (S207). The real-time processing unit can start output processing by the plotter 24 in response to completion of image processing by the DSP 23 even if not all lines of the image of the original 700 have been read. This is because copying such a document may be prohibited. Subsequently, the embedding method discriminating unit 25 extracts the embedding information by a method according to the value of the embedding method identification information, and performs the information extraction function (the barcode information extracting unit 261a, the character outline information extracting unit 261b, and the dot pattern) of the controller 26. Instruct to at least one of the information extraction units 261c).

埋め込み情報の抽出指示を受けたコントローラ26では、埋め込み情報の抽出に十分なライン数分の対象画像がRAM262のフレームメモリに書き込まれるまで処理を待機する。バーコード、文字輪郭、及びドットパターンの配列のいずれについても、対象画像が読み取られる方向に影響されるところ、原稿700がセットされる向きがユーザの任意に応じて変化することを考慮すれば、基本的に対象画像のほぼ全ライン分がフレームメモリに書き込まれるまで待機する。   Receiving the embedded information extraction instruction, the controller 26 waits for processing until the target images for the number of lines sufficient to extract the embedded information are written in the frame memory of the RAM 262. With regard to any of the barcode, character outline, and dot pattern arrangement, it is affected by the direction in which the target image is read. Basically, it waits until almost all lines of the target image are written in the frame memory.

フレームメモリに十分なライン数分の対象画像が格納されると、バーコード情報抽出部261a、文字輪郭情報抽出部261b、及びドットパターン情報抽出部261cのうち埋め込み情報の抽出を指示された抽出部は、それぞれの方式に基づいて埋め込み情報(文書ID)を抽出する(S209)。続いて、抽出情報処理部261dは、抽出された文書IDに基づいて原稿700の複写の許否を判定する(S210)。例えば、抽出情報処理部261dは、当該文書IDに対するセキュリティ情報を、HDD27又はネットワークを介して接続するコンピュータ等に構築されている文書管理システムより取得し、当該セキュリティ情報に基づいて複写の可否を判定する(S211)。   When the target images for a sufficient number of lines are stored in the frame memory, the barcode information extraction unit 261a, the character outline information extraction unit 261b, and the extraction unit instructed to extract the embedded information among the dot pattern information extraction unit 261c Extracts embedded information (document ID) based on the respective methods (S209). Subsequently, the extracted information processing unit 261d determines whether or not the original 700 can be copied based on the extracted document ID (S210). For example, the extracted information processing unit 261d acquires security information for the document ID from a document management system built in the HDD 27 or a computer connected via the network, and determines whether or not copying is possible based on the security information. (S211).

複写が許可される場合(S211でYes)、抽出情報処理部261dは、プロッタ24における出力の待機を解除する。これによって、原稿700のコピーがプロッタ24によって印刷用紙に印刷される(出力される)(S212)。一方、複写が禁止される場合(S211でNo)、抽出情報処理部261dは、プロッタ24に対し出力の中止を指示する(S213)。これによって原稿700の複写は中止される。また、抽出情報処理部261dは、DSP23に対して出力画像を塗りつぶす等の画像処理の実行を指示してもよい。その上でプロッタ24の出力待機を解除すれば、原稿700の画像に対して塗りつぶしが実行された画像が印刷用紙に出力され、実質的に複写の実行は回避される。   When copying is permitted (Yes in S211), the extraction information processing unit 261d cancels standby for output in the plotter 24. As a result, a copy of the original 700 is printed (output) on the printing paper by the plotter 24 (S212). On the other hand, when copying is prohibited (No in S211), the extraction information processing unit 261d instructs the plotter 24 to stop output (S213). As a result, the copying of the original 700 is stopped. The extracted information processing unit 261d may instruct the DSP 23 to execute image processing such as painting an output image. Then, if the output standby of the plotter 24 is canceled, an image in which the image of the original 700 is filled is output to the printing paper, and the execution of copying is substantially avoided.

ところで、原稿700の画像から埋め込み方式識別情報が抽出されなかった場合(S205でNo)、又は埋め込み方式識別情報の値が「000」であった場合(S206でNo)、埋め込み方式判別部25は、プロッタ24に対する出力の待機指示や、コントローラ26に対して埋め込み情報の抽出指示は行わない。したがって、この場合、プロッタ24は、埋め込み情報の抽出を待機することなく画像を出力する。よって、通常の複写時と同様の性能で、プロッタ24より原稿700のコピーが印刷用紙に印刷される(S212)。ここで、通常の複写時とは、埋め込み情報の抽出機能を無効とした場合の複写時をいう。通常の複写時と同様の性能で複写が実行され得るのは、複写処理に対する埋め込み方式判別部25による埋め込み方式識別情報の抽出処理の影響が小さいことによる。   By the way, when the embedding method identification information is not extracted from the image of the document 700 (No in S205) or when the value of the embedding method identification information is “000” (No in S206), the embedding method determination unit 25 No output standby instruction for the plotter 24 or embedded information extraction instruction for the controller 26 is performed. Therefore, in this case, the plotter 24 outputs an image without waiting for extraction of embedded information. Therefore, a copy of the original 700 is printed on the printing paper from the plotter 24 with the same performance as in normal copying (S212). Here, normal copying means copying when the embedded information extraction function is disabled. The reason why copying can be executed with the same performance as in normal copying is that the influence of the extraction process of the embedding method identification information by the embedding method determination unit 25 on the copying process is small.

埋め込み方式識別情報の抽出処理について説明する。図16は、埋め込み方式判別部による埋め込み方式識別情報の抽出処理を説明するためのフローチャートである。   The process of extracting embedding method identification information will be described. FIG. 16 is a flowchart for explaining the process of extracting embedding method identification information by the embedding method discrimination unit.

まず、ラインメモリよりドットパターンを検出する(S2041)。ドットパターンの検出は、例えば、画像処理装置10の記憶装置に登録されているパターン辞書を用いたパターンマッチングにより行われる。   First, a dot pattern is detected from the line memory (S2041). The dot pattern is detected by, for example, pattern matching using a pattern dictionary registered in the storage device of the image processing apparatus 10.

図17は、パターン辞書の例を示す図である。図17では、ドットパターンaを22.5度ずつ回転させた16個のパターンより構成されるパターン辞書の例が示されている。以下、パターン辞書を構成する各パターンを「マスタパターン」という。なお、図17では、ドットパターンaを含む矩形領域の中心座標が回転の中心とされた例が示されている。   FIG. 17 is a diagram illustrating an example of a pattern dictionary. FIG. 17 shows an example of a pattern dictionary composed of 16 patterns obtained by rotating the dot pattern a by 22.5 degrees. Hereinafter, each pattern constituting the pattern dictionary is referred to as a “master pattern”. Note that FIG. 17 shows an example in which the center coordinates of the rectangular area including the dot pattern a is the center of rotation.

一方、ラインメモリ中には、例えば、以下のように対象画像の数ライン分が格納されている。図18は、ラインメモリのイメージ図である。図18には、ラインメモリ22L内に、ドットパターンが二つ含まれている。パターンマッチングは、このようなラインメモリ22L中の画像に対して行われる。したがって、ラインメモリ22Lのライン数は、少なくとも、検出対象とされるドットパターンの縦方向及び横方向のドット数以上である必要がある。図17では、15×15ドットの例が示されているから、この場合、ラインメモリ22Lは15ライン以上の容量が必要とされる。   On the other hand, for example, several lines of the target image are stored in the line memory as follows. FIG. 18 is an image diagram of a line memory. In FIG. 18, two line patterns are included in the line memory 22L. Pattern matching is performed on such an image in the line memory 22L. Therefore, the number of lines in the line memory 22L needs to be at least the number of dots in the vertical and horizontal directions of the dot pattern to be detected. FIG. 17 shows an example of 15 × 15 dots. In this case, the line memory 22L needs a capacity of 15 lines or more.

パターンマッチングは、パターン辞書に含まれている各ドットパターンについて、ラインメモリ22L中を一画素ずつずらしながら行われる。パターンがマッチングするたびに(ドットパターンが検出されるたびに)、検出数の総数と、ドットパターンの角度ごとの検出数がインクリメントされる(S2042)。ドットパターンの角度は、パターン検出時のマスタパターンの角度によって判別される。このようなパターンマッチングは、ラインメモリ22Lの内容が更新されるたびに、検出数の総数が予め設定されている閾値を上回るまで実行される(S2042でNo)。なお、閾値を設けるのは、パターンがたまたまマッチしたことによる誤判定を防止するためである。   Pattern matching is performed for each dot pattern included in the pattern dictionary while shifting the line memory 22L pixel by pixel. Each time a pattern is matched (a dot pattern is detected), the total number of detections and the number of detections for each angle of the dot pattern are incremented (S2042). The angle of the dot pattern is determined by the angle of the master pattern at the time of pattern detection. Such pattern matching is executed every time the contents of the line memory 22L are updated until the total number of detections exceeds a preset threshold (No in S2042). Note that the threshold is provided in order to prevent erroneous determination due to a pattern that happens to match.

検出数の総数が閾値を上回った時点でドットパターンaの検出は終了し(S2042でYes)、角度ごとの検出数について、二つのピークの検出を試みる(S2043)。換言すれば、検出数の多い上位二つの角度を判定する(S2045)。二つのピークが検出された場合(S2046でYes)、二つのピークに係る角度の差に基づいて埋め込み方式識別情報の値を判定する(S2047)。すなわち、当該角度差が、基本パターンaと追加パターンbとの相対的な角度に相当する。埋め込み方式識別情報の値の判定は、図5に示される表に基づいて行われる。すなわち、当該角度差に対応する値を図5に示される表より検索する。なお、図5に示される表に相当する情報は、例えば、画像処理装置10の記憶装置に予め登録されている。   When the total number of detections exceeds the threshold, the detection of the dot pattern a ends (Yes in S2042), and two peaks are detected for the number of detections for each angle (S2043). In other words, the top two angles with the largest number of detections are determined (S2045). When two peaks are detected (Yes in S2046), the value of the embedding method identification information is determined based on the angle difference between the two peaks (S2047). That is, the angle difference corresponds to a relative angle between the basic pattern a and the additional pattern b. The value of the embedding method identification information is determined based on the table shown in FIG. That is, a value corresponding to the angle difference is retrieved from the table shown in FIG. Note that information corresponding to the table shown in FIG. 5 is registered in advance in the storage device of the image processing apparatus 10, for example.

ドットパターンの検出は、所定ライン数分行っても閾値を超えない場合は中止される(S2044でYes)。この場合、埋め込み方式識別情報は埋め込まれていないと判定される(S2048)。当該所定ラインは、リアルタイム処理に支障が生じない程度の値に設定しておくとよい。   The dot pattern detection is stopped if the threshold value is not exceeded even after a predetermined number of lines have been detected (Yes in S2044). In this case, it is determined that the embedding method identification information is not embedded (S2048). The predetermined line may be set to a value that does not hinder real-time processing.

ドットパターンaは、原稿700の画像の背景(画像の全面、又は少なくとも周囲の余白部分)に合成されている。したがって、図16に示される処理によれば、原稿700がセットされる方向に影響されることなく、埋め込み方式識別情報を抽出することができる。だからこそ、埋め込み方式識別情報の抽出は、ラインメモリで十分足りるのである。また、埋め込み方式識別情報の抽出処理は、ラインメモリ内の画像に基づいて実行される処理であるため、複写処理全体の性能に対する影響を小さく抑えることができる。よって、複写処理が行われる過程において(すなわち、リアルタイムに)埋め込み方式識別情報は抽出され得る。   The dot pattern a is combined with the background of the image of the original 700 (the entire surface of the image, or at least the surrounding margin). Therefore, according to the processing shown in FIG. 16, the embedding method identification information can be extracted without being influenced by the direction in which the document 700 is set. Therefore, the extraction of the embedding method identification information is sufficient with the line memory. Further, the extraction process of the embedding method identification information is a process executed based on the image in the line memory, so that the influence on the performance of the entire copying process can be suppressed to a small level. Therefore, the embedding method identification information can be extracted in the process of performing the copying process (that is, in real time).

なお、管理者に関しては、非リアルタイム方式による埋め込み情報が埋め込まれているか否かに拘わらず、いかなる文書でも複写可能としたい場合は、画像処理装置20における情報抽出機能を無効とするように設定可能としてもよい。   Note that the administrator can set the information extraction function in the image processing apparatus 20 to be invalid when it is desired to copy any document regardless of whether or not the embedded information in the non-real-time method is embedded. It is good.

ところで、本実施の形態では、埋め込み情報として文書IDが埋め込まれている例を説明した。これは一般的に印刷者、印刷機器、印刷日時等の文書管理情報を100bit程度の情報量に埋め込むのは困難であるためである。但し、斯かる事情は、環境に応じて異なるものと考えられる。例えば、小規模なオフィス等であれば、管理されている文書の量も少なく、印刷者や印刷機器や印刷日時などの情報を直接埋め込んでおくことも可能である。その場合は、文書管理システム等を用意するためおのコストを削減することができる。なお、「印刷日時」は、例えば、印刷された日時から3ヶ月以内は複写禁止にする等の制御に用いることができる。   By the way, in this embodiment, the example in which the document ID is embedded as the embedded information has been described. This is because it is generally difficult to embed document management information such as a printer, a printing device, and a printing date and time in an information amount of about 100 bits. However, such circumstances are considered to differ depending on the environment. For example, in a small office or the like, the amount of managed documents is small, and it is possible to directly embed information such as a printer, a printing device, and a printing date and time. In that case, the cost for preparing a document management system or the like can be reduced. The “print date / time” can be used, for example, for the control of prohibiting copying within three months from the date / time of printing.

また、本実施の形態では、複数の非リアルタイム方式が、それぞれ異なる方式である場合について説明した。しかし、一つの埋め込み方式のみが利用され、その埋め込み方式によって埋め込まれる情報の構成が複数種類許容される場合に、その情報の構成を識別するための情報として、本実施の形態における埋め込み方式識別情報を用いるようにしてもよい。   In the present embodiment, a case has been described in which a plurality of non-real time systems are different systems. However, when only one embedding method is used and a plurality of types of configurations of information embedded by the embedding method are allowed, the embedding method identification information in the present embodiment is used as information for identifying the configuration of the information. May be used.

例えば、誤り訂正符号化を埋め込み情報に対して行う場合に、組み合わせる誤り訂正符号化の誤り訂正能力の強度のパラメタ(又は、埋め込み可能な情報量)を複数の候補の中から選択可能とする場合が一例として挙げられる。この場合、誤り訂正能力の強度のパラメタが異なるごとに情報の構成が異なり、それぞれを異なる埋め込み方式とみなすことができる。   For example, when error correction coding is performed on embedded information, the error correction capability strength parameter (or the amount of information that can be embedded) can be selected from a plurality of candidates. Is given as an example. In this case, each time the error correction strength parameter is different, the information structure is different, and each can be regarded as a different embedding method.

実際、文書画像にドットパターンで情報埋め込む場合は、文字や図、写真等のコンテンツと重なる部分には情報を埋め込めない。また、文字輪郭形状に情報を埋め込むような場合でも印刷時のノイズの混入等の影響により、必ずしも100%の精度で埋め込み情報を抽出できるとは限らない。斯かる事情に鑑みても、埋め込み情報の誤り訂正符号化は有効である。そして、誤り訂正の強度の妥当な程度は、文書画像の内容等によっても異なるため、その強度を選択可能とすることにも意義がある。なお、この場合、パラメタ(本実施の形態における埋め込み方式)は、一つしか選択できない。情報抽出時にはこのパラメタの値に従って誤り訂正符号の情報抽出処理を行うことになる。   Actually, when information is embedded in a document image with a dot pattern, information cannot be embedded in a portion overlapping with content such as characters, figures, and photographs. Further, even when information is embedded in a character outline shape, the embedded information cannot always be extracted with 100% accuracy due to the influence of noise mixing during printing. Even in view of such circumstances, error correction coding of embedded information is effective. The appropriate level of error correction strength varies depending on the contents of the document image and the like, and it is also meaningful to be able to select the strength. In this case, only one parameter (embedding method in the present embodiment) can be selected. At the time of information extraction, an error correction code information extraction process is performed according to the value of this parameter.

具体的には、(7,K)のReed−Solomon符号を誤り訂正に用いる場合、Kの値を1,3,5の中から1つ選択可能としておくといった使用方法が可能である。Kは誤り訂正用も含む全シンボル7のうち、幾つのシンボルを本来の情報用のシンボルに割り当てるかを示すパラメタである。K=3の場合、誤り訂正をしないときの全体の埋め込み可能な情報量の1−(3/7)が誤り訂正用に割り当てられる。また、誤り訂正をしないときの全体の埋め込み可能な情報量の3/7が本来の情報用のシンボルに割り当てられる。したがって、埋め込み可能な情報量は、誤り訂正をしない場合の3/7になる。   Specifically, when the (7, K) Reed-Solomon code is used for error correction, it is possible to use such that one of K values can be selected from 1, 3, and 5. K is a parameter indicating how many symbols among all symbols 7 including those for error correction are allocated to symbols for original information. When K = 3, 1- (3/7) of the total embeddable information amount when error correction is not performed is allocated for error correction. Further, 3/7 of the total embeddable information amount when error correction is not performed is assigned to the original information symbol. Therefore, the amount of information that can be embedded is 3/7 of the case where error correction is not performed.

上述したように、本実施の形態によれば、複数の非リアルタイム方式の中から一つ又は複数の方式を選択して紙等の媒体上の画像(文書画像も含む。)に情報の埋め込みを行う場合に、どの方式で埋め込んだのかを示すID情報(埋め込み方式識別情報)をリアルタイムに情報の抽出が能な方式によって当該画像に埋め込んでおく。したがって、埋め込み情報の抽出時において、不要な非リアルタイムの情報抽出処理の実行を回避することができ、情報抽出処理の性能の低下を防止することができる。   As described above, according to the present embodiment, information is embedded in an image (including a document image) on a medium such as paper by selecting one or a plurality of methods from a plurality of non-real time methods. When performing, ID information (embedding method identification information) indicating which method is embedded is embedded in the image by a method capable of extracting information in real time. Therefore, when the embedded information is extracted, it is possible to avoid unnecessary non-real time information extraction processing, and it is possible to prevent the performance of the information extraction processing from being deteriorated.

したがって、文書IDを埋め込み情報として埋め込んでおき、当該文書IDに基づいて複写制御(複写の許否の制御)を行う場合等に、文書IDの抽出処理の性能の低下が防止される。反射的な効果として、複写禁止制御の必要のない文書についても、リアルタイムな情報抽出処理により文書IDが埋め込まれていないことが判別されるため、不要な非リアルタイム方式による情報抽出処理の実行を回避することができる。したがって、通常の複写処理を中断してユーザを待たせるといった状況の発生が回避され、通常の複写処理の生産性の低下が防止される。   Therefore, when the document ID is embedded as the embedded information and copy control (copy permission / denial control) is performed based on the document ID, it is possible to prevent the performance of the document ID extraction process from being deteriorated. As a reflective effect, even for documents that do not require copy prohibition control, it is determined that the document ID is not embedded by real-time information extraction processing, so unnecessary execution of information extraction processing by a non-real-time method is avoided. can do. Therefore, the occurrence of a situation in which the normal copying process is interrupted and the user is kept waiting is avoided, and a decrease in productivity of the normal copying process is prevented.

以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   As mentioned above, although the Example of this invention was explained in full detail, this invention is not limited to such specific embodiment, In the range of the summary of this invention described in the claim, various deformation | transformation・ Change is possible.

本発明の実施の形態において用いられるドットパターンの例を示す図である。It is a figure which shows the example of the dot pattern used in embodiment of this invention. ドットパターンが合成された画像の例を示す図である。It is a figure which shows the example of the image with which the dot pattern was synthesize | combined. 基本パターンと追加パターンとの例を示す図である。It is a figure which shows the example of a basic pattern and an additional pattern. 基本パターン及び追加パターンの相対角度によって情報が埋め込まれた画像の例を示す図である。It is a figure which shows the example of the image in which information was embedded by the relative angle of the basic pattern and the additional pattern. 埋め込み方式識別情報と相対角度との対応を示す図である。It is a figure which shows a response | compatibility with embedding system identification information and a relative angle. 基本パターン及び追加パターンの配列によって情報が埋め込まれた画像の例を示す図である。It is a figure which shows the example of the image in which information was embedded by the arrangement | sequence of a basic pattern and an additional pattern. 配列長が4の場合の配列と埋め込み情報との対応を示す図である。It is a figure which shows a response | compatibility with the arrangement | sequence when a sequence length is 4, and embedding information. バーコード領域又は文字周辺部とドットパターンとの干渉を回避した第一の例を示す図である。It is a figure which shows the 1st example which avoided the interference with a barcode area | region or a character peripheral part, and a dot pattern. バーコード領域又は文字周辺部とドットパターンとの干渉を回避した第二の例を示す図である。It is a figure which shows the 2nd example which avoided interference with a barcode area | region or a character peripheral part, and a dot pattern. 埋め込み方式識別情報と埋め込み情報の埋め込み状態との対応表を示す図である。It is a figure which shows the correspondence table of embedding method identification information and the embedding state of embedding information. 情報の埋め込み処理を実行する画像処理装置の構成例を示す図である。It is a figure which shows the structural example of the image processing apparatus which performs the embedding process of information. 画像処理装置による情報の埋め込み処理を説明するためのフローチャートである。It is a flowchart for demonstrating the embedding process of the information by an image processing apparatus. 情報の抽出処理を実行する画像処理装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the image processing apparatus which performs the extraction process of information. 情報抽出機能のソフトウェア構成例を示す図である。It is a figure which shows the software structural example of an information extraction function. 画像処理装置による情報の抽出処理を説明するためのフローチャートである。It is a flowchart for demonstrating the information extraction process by an image processing apparatus. 埋め込み方式判別部による埋め込み方式識別情報の抽出処理を説明するためのフローチャートである。It is a flowchart for demonstrating the extraction process of the embedding system identification information by an embedding system discrimination | determination part. パターン辞書の例を示す図である。It is a figure which shows the example of a pattern dictionary. ラインメモリのイメージ図である。It is an image figure of a line memory.

符号の説明Explanation of symbols

10、20 画像処理装置
21 スキャナ
22 RAM
23 DSP
24 プロッタ
25 埋め込み方式判別部
26 コントローラ26
27 HDD
28 操作パネル
101 画像データ取得部101
102 情報入力部
103 第一ドットパターン生成部
104 第二ドットパターン生成部
105 バーコード生成部
106 文字輪郭変形部
107 情報埋め込み制御部
108 セレクタ
109 合成処理部
110 印刷部
261 CPU
261a バーコード情報抽出部
261b 文字輪郭情報抽出部
261c ドットパターン情報抽出部
261d 抽出情報処理部
262 RAM
263 ROM
600 記録媒体
700 原稿
10, 20 Image processing device 21 Scanner 22 RAM
23 DSP
24 Plotter 25 Embedding Method Discriminator 26 Controller 26
27 HDD
28 Operation Panel 101 Image Data Acquisition Unit 101
102 information input unit 103 first dot pattern generation unit 104 second dot pattern generation unit 105 bar code generation unit 106 character outline deformation unit 107 information embedding control unit 108 selector 109 synthesis processing unit 110 printing unit 261 CPU
261a Barcode information extraction unit 261b Character outline information extraction unit 261c Dot pattern information extraction unit 261d Extraction information processing unit 262 RAM
263 ROM
600 Recording medium 700 Original

Claims (22)

画像処理装置が画像に対して情報を埋め込む画像処理方法であって、
前記画像に対して情報を埋め込む複数の方式の中から選択された一つ以上の方式を用いて前記情報を埋め込む情報埋め込み手順と、
前記選択された一つ以上の方式を識別するための方式識別情報を前記画像に対して埋め込む方式識別情報埋め込み手順とを有し、
前記方式識別情報埋め込み手順は、前記情報埋め込み手順により用いられたいずれの方式よりも埋め込める情報量が少ない方式によって前記方式識別情報を埋め込むことを特徴とする画像処理方法。
An image processing method in which an image processing apparatus embeds information in an image,
An information embedding procedure for embedding the information using one or more methods selected from among a plurality of methods for embedding information in the image;
A method identification information embedding procedure for embedding method identification information for identifying the one or more selected methods in the image;
The method identification information embedding procedure includes embedding the method identification information by a method that embeds less information than any method used in the information embedding procedure.
前記方式識別情報埋め込み手順は、前記画像の背景に所定のパターンを合成することを特徴とする請求項1記載の画像処理方法。   The image processing method according to claim 1, wherein the method identification information embedding procedure combines a predetermined pattern with a background of the image. 前記方式識別情報埋め込み手順は、前記所定のパターンと、前記所定のパターンを前記方式識別情報の値に応じて回転させたパターンとを前記画像に合成することを特徴とする請求項2記載の画像処理方法。   3. The image according to claim 2, wherein the scheme identification information embedding procedure combines the predetermined pattern and a pattern obtained by rotating the predetermined pattern in accordance with a value of the scheme identification information with the image. Processing method. 前記所定のパターンは、複数のドットより構成されるパターンであることを特徴とする請求項2又は3記載の画像処理方法。   4. The image processing method according to claim 2, wherein the predetermined pattern is a pattern composed of a plurality of dots. 画像処理装置が複数の方式によって情報が埋め込まれている可能性のある画像より情報を抽出する画像処理方法であって、
情報の埋め込みに利用されている方式を識別するための方式識別情報を前記画像より抽出する方式識別情報抽出手順と、
前記方式識別情報によって識別される一つ以上の方式を用いて前記画像に埋め込まれている情報を抽出する情報抽出手順とを有し、
前記方式識別情報は、前記情報抽出手順により用いられたいずれの方式よりも埋め込める情報量が少ない方式によって前記画像に埋め込まれていることを特徴とする画像処理方法。
An image processing method in which an image processing apparatus extracts information from an image in which information may be embedded by a plurality of methods,
A method identification information extraction procedure for extracting method identification information for identifying a method used for embedding information from the image;
An information extraction procedure for extracting information embedded in the image using one or more methods identified by the method identification information;
The image processing method, wherein the method identification information is embedded in the image by a method that embeds less information than any method used in the information extraction procedure.
前記画像処理装置は、前記画像の一部を格納可能な第一の記憶装置と、前記画像の全部を格納可能は第二の記憶装置とを備え、
前記画像を媒体より読み取る画像読み取り手順と、
読み取られた前記画像を前記第一の記憶装置と前記第二の記憶装置とに格納する格納手順とを有し
前記方式識別情報抽出手順は、前記第一の記憶装置に格納された画像より前記方式識別情報を抽出し、
前記情報抽出手順は、前記第二の記憶装置に格納された画像より前記情報を抽出することを特徴とする請求項5記載の画像処理方法。
The image processing apparatus includes a first storage device capable of storing a part of the image, and a second storage device capable of storing the entire image.
An image reading procedure for reading the image from a medium;
A storage procedure for storing the read image in the first storage device and the second storage device, wherein the method identification information extraction procedure is performed from the image stored in the first storage device; Extract method identification information,
The image processing method according to claim 5, wherein the information extraction procedure extracts the information from an image stored in the second storage device.
前記方式識別情報の値に応じて前記情報抽出手順を実行しないことを特徴とする請求項5又は6記載の画像処理方法。   7. The image processing method according to claim 5, wherein the information extraction procedure is not executed according to the value of the method identification information. 前記方式識別情報抽出手順は、前記画像の背景に合成されている所定のパターンに基づいて前記方式識別情報を抽出することを特徴とする請求項7記載の画像処理方法。   The image processing method according to claim 7, wherein the method identification information extraction procedure extracts the method identification information based on a predetermined pattern combined with a background of the image. 前記方式識別情報抽出手順は、前記所定のパターンと、前記所定のパターンを回転させたパターンとの角度差に基づいて、前記方式識別情報の値を判定することを特徴とする請求項8記載の画像処理方法。   9. The method identification information according to claim 8, wherein the method identification information extraction procedure determines a value of the method identification information based on an angle difference between the predetermined pattern and a pattern obtained by rotating the predetermined pattern. Image processing method. 前記所定のパターンは、複数のドットより構成されるパターンであることを特徴とする請求項8又は9記載の画像処理方法。   The image processing method according to claim 8, wherein the predetermined pattern is a pattern composed of a plurality of dots. 画像に対して情報を埋め込む画像処理装置であって、
前記画像に対して情報を埋め込む複数の方式の中から選択された一つ以上の方式を用いて前記情報を埋め込む情報埋め込み手段と、
前記選択された一つ以上の方式を識別するための方式識別情報を前記画像に対して埋め込む方式識別情報埋め込み手段とを有し、
前記方式識別情報埋め込み手段は、前記情報埋め込み手段により用いられたいずれの方式よりも埋め込める情報量が少ない方式によって前記方式識別情報を埋め込むことを特徴とする画像処理装置。
An image processing apparatus for embedding information in an image,
Information embedding means for embedding the information using one or more methods selected from a plurality of methods for embedding information in the image;
A method identification information embedding unit for embedding method identification information for identifying the one or more selected methods in the image;
The image processing apparatus according to claim 1, wherein the method identification information embedding unit embeds the method identification information by a method that embeds less information than any of the methods used by the information embedding unit.
前記方式識別情報埋め込み手段は、前記画像の背景に所定のパターンを合成することを特徴とする請求項11記載の画像処理装置。   12. The image processing apparatus according to claim 11, wherein the system identification information embedding unit synthesizes a predetermined pattern with the background of the image. 前記方式識別情報埋め込み手段は、前記所定のパターンと、前記所定のパターンを前記方式識別情報の値に応じて回転させたパターンとを前記画像に合成することを特徴とする請求項12記載の画像処理装置。   13. The image according to claim 12, wherein the scheme identification information embedding unit synthesizes the predetermined pattern and a pattern obtained by rotating the predetermined pattern in accordance with a value of the scheme identification information with the image. Processing equipment. 前記所定のパターンは、複数のドットより構成されるパターンであることを特徴とする請求項12又は13記載の画像処理装置。   The image processing apparatus according to claim 12, wherein the predetermined pattern is a pattern composed of a plurality of dots. 複数の方式によって情報が埋め込まれている可能性のある画像より情報を抽出する画像処理装置であって、
情報の埋め込みに利用されている方式を識別するための方式識別情報を前記画像より抽出する方式識別情報抽出手段と、
前記方式識別情報によって識別される一つ以上の方式を用いて前記画像に埋め込まれている情報を抽出する情報抽出手段とを有し、
前記方式識別情報は、前記情報抽出手段により用いられたいずれの方式よりも埋め込める情報量が少ない方式によって前記画像に埋め込まれていることを特徴とする画像処理装置。
An image processing apparatus that extracts information from an image in which information may be embedded by a plurality of methods,
Method identification information extracting means for extracting method identification information for identifying a method used for embedding information from the image;
Information extracting means for extracting information embedded in the image using one or more methods identified by the method identification information;
The image processing apparatus according to claim 1, wherein the method identification information is embedded in the image by a method that embeds less information than any method used by the information extraction unit.
前記画像の一部を格納可能な第一の記憶手段と、
前記画像の全部を格納可能は第二の記憶手段と、
前記画像を媒体より読み取る画像読み取り手段と、
読み取られた前記画像を前記第一の記憶手段と前記第二の記憶手段とに格納する格納手段とを有し
前記方式識別情報抽出手段は、前記第一の記憶手段に格納された画像より前記方式識別情報を抽出し、
前記情報抽出手段は、前記第二の記憶手段に格納された画像より前記情報を抽出することを特徴とする請求項15記載の画像処理装置。
First storage means capable of storing a part of the image;
A second storage means capable of storing all of the image;
Image reading means for reading the image from a medium;
Storage means for storing the read image in the first storage means and the second storage means, wherein the method identification information extraction means is the above-described image stored in the first storage means Extract method identification information,
The image processing apparatus according to claim 15, wherein the information extraction unit extracts the information from an image stored in the second storage unit.
前記情報抽出手段は、前記方式識別情報の値に応じて前記情報の抽出を実行しないことを特徴とする請求項15又は16記載の画像処理装置。   The image processing apparatus according to claim 15, wherein the information extraction unit does not perform extraction of the information according to a value of the method identification information. 前記方式識別情報抽出手段は、前記画像の背景に合成されている所定のパターンに基づいて前記方式識別情報を抽出することを特徴とする請求項17記載の画像処理装置。   18. The image processing apparatus according to claim 17, wherein the method identification information extracting unit extracts the method identification information based on a predetermined pattern synthesized with a background of the image. 前記方式識別情報抽出手段は、前記所定のパターンと、前記所定のパターンを回転させたパターンとの角度差に基づいて、前記方式識別情報の値を判定することを特徴とする請求項18記載の画像処理装置。   19. The method identification information extraction unit according to claim 18, wherein the method identification information extraction unit determines a value of the method identification information based on an angle difference between the predetermined pattern and a pattern obtained by rotating the predetermined pattern. Image processing device. 前記所定のパターンは、複数のドットより構成されるパターンであることを特徴とする請求項18又は19記載の画像処理装置。   The image processing apparatus according to claim 18, wherein the predetermined pattern is a pattern composed of a plurality of dots. 請求項1乃至4いずれか一項記載の画像処理方法をコンピュータに実行させるための画像処理プログラム。   An image processing program for causing a computer to execute the image processing method according to claim 1. 請求項5乃至10いずれか一項記載の画像処理方法をコンピュータに実行させるための画像処理プログラム。   An image processing program for causing a computer to execute the image processing method according to claim 5.
JP2007262266A 2006-12-15 2007-10-05 Image processing method, image processing apparatus, and image processing program Expired - Fee Related JP5005490B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007262266A JP5005490B2 (en) 2006-12-15 2007-10-05 Image processing method, image processing apparatus, and image processing program
US12/000,642 US8238599B2 (en) 2006-12-15 2007-12-14 Image processing device and image processing method for identifying a selected one or more embedding methods used for embedding target information
CN2007101988579A CN101207680B (en) 2006-12-15 2007-12-14 Image processing device and image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006338559 2006-12-15
JP2006338559 2006-12-15
JP2007262266A JP5005490B2 (en) 2006-12-15 2007-10-05 Image processing method, image processing apparatus, and image processing program

Publications (2)

Publication Number Publication Date
JP2008172758A true JP2008172758A (en) 2008-07-24
JP5005490B2 JP5005490B2 (en) 2012-08-22

Family

ID=39567527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007262266A Expired - Fee Related JP5005490B2 (en) 2006-12-15 2007-10-05 Image processing method, image processing apparatus, and image processing program

Country Status (2)

Country Link
JP (1) JP5005490B2 (en)
CN (1) CN101207680B (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093774A (en) * 2008-09-09 2010-04-22 Canon Inc Image processing apparatus, image processing method, program, and storage medium
JP2011061710A (en) * 2009-09-14 2011-03-24 Fuji Xerox Co Ltd Image processing apparatus and program
JP2011146758A (en) * 2010-01-12 2011-07-28 Canon Inc Transmission apparatus which can handle code, control method of the same, and program
JP2011254397A (en) * 2010-06-03 2011-12-15 Konica Minolta Business Technologies Inc Background pattern image composition device, background pattern image composition method, and program
CN112560530A (en) * 2020-12-07 2021-03-26 北京三快在线科技有限公司 Two-dimensional code processing method, device, medium and electronic device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
HK1165184A2 (en) * 2011-08-10 2012-09-28 Easy Printing Network Ltd A method for retrieving associated information using an image
KR101860569B1 (en) * 2011-09-08 2018-07-03 삼성전자주식회사 Recognition device for text and barcode reconizing text and barcode simultaneously
JP5586705B2 (en) * 2012-07-05 2014-09-10 株式会社東芝 Apparatus and method for embedding data in object, and apparatus and method for extracting embedded data
JP2019008745A (en) * 2017-06-28 2019-01-17 キヤノン株式会社 Image processing device, image processing method, and program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1127518A (en) * 1997-07-04 1999-01-29 Canon Inc Image-processing apparatus and image-processing method
JPH1141445A (en) * 1997-07-15 1999-02-12 Canon Inc Device and method for processing image and storage medium
JP2000287067A (en) * 1999-03-31 2000-10-13 Canon Inc Image processing system, information processing unit and computer-readable storage medium
JP2002354232A (en) * 2002-03-20 2002-12-06 Canon Inc Information processing system, information processor, information processing method, and storage medium storing program to be read by computer for implementing such system, processor and method
JP2002354231A (en) * 2002-03-20 2002-12-06 Canon Inc Information processing system, information processor, information processing method, and storage medium storing program to be read by computer for implementing such system, processor and method
JP2002359737A (en) * 2002-03-20 2002-12-13 Canon Inc Information processing system, information processing unit, medium, information processing method, and computer-readable storage medium for storing program to perform them
JP2005057797A (en) * 2004-09-21 2005-03-03 Canon Inc Image processing apparatus and method, and storage medium
JP2006287902A (en) * 2005-03-10 2006-10-19 Ricoh Co Ltd Apparatus, method, and program for image processing, and recording medium
JP2006325219A (en) * 2006-05-18 2006-11-30 Canon Inc Information monitoring system, information monitoring method and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7720290B2 (en) * 2003-11-06 2010-05-18 Ricoh Company, Ltd. Method, program, and apparatus for detecting specific information included in image data of original image, and computer-readable storing medium storing the program
JP2006155241A (en) * 2004-11-29 2006-06-15 Ricoh Co Ltd Device for generating document with visible sign, method for generating document with visible sign, program for generating document with visible sign, and computer-readable storage medium
JP4343820B2 (en) * 2004-12-13 2009-10-14 株式会社リコー Image processing device
JP4490335B2 (en) * 2005-06-10 2010-06-23 株式会社リコー Pattern superimposing apparatus, pattern superimposing method, pattern superimposing program, and recording medium on which pattern superimposing program is recorded

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1127518A (en) * 1997-07-04 1999-01-29 Canon Inc Image-processing apparatus and image-processing method
JPH1141445A (en) * 1997-07-15 1999-02-12 Canon Inc Device and method for processing image and storage medium
JP2000287067A (en) * 1999-03-31 2000-10-13 Canon Inc Image processing system, information processing unit and computer-readable storage medium
JP2002354232A (en) * 2002-03-20 2002-12-06 Canon Inc Information processing system, information processor, information processing method, and storage medium storing program to be read by computer for implementing such system, processor and method
JP2002354231A (en) * 2002-03-20 2002-12-06 Canon Inc Information processing system, information processor, information processing method, and storage medium storing program to be read by computer for implementing such system, processor and method
JP2002359737A (en) * 2002-03-20 2002-12-13 Canon Inc Information processing system, information processing unit, medium, information processing method, and computer-readable storage medium for storing program to perform them
JP2005057797A (en) * 2004-09-21 2005-03-03 Canon Inc Image processing apparatus and method, and storage medium
JP2006287902A (en) * 2005-03-10 2006-10-19 Ricoh Co Ltd Apparatus, method, and program for image processing, and recording medium
JP2006325219A (en) * 2006-05-18 2006-11-30 Canon Inc Information monitoring system, information monitoring method and storage medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093774A (en) * 2008-09-09 2010-04-22 Canon Inc Image processing apparatus, image processing method, program, and storage medium
JP2011061710A (en) * 2009-09-14 2011-03-24 Fuji Xerox Co Ltd Image processing apparatus and program
JP2011146758A (en) * 2010-01-12 2011-07-28 Canon Inc Transmission apparatus which can handle code, control method of the same, and program
JP2011254397A (en) * 2010-06-03 2011-12-15 Konica Minolta Business Technologies Inc Background pattern image composition device, background pattern image composition method, and program
US9085191B2 (en) 2010-06-03 2015-07-21 Konica Minolta, Inc. Background pattern image combining apparatus, background pattern image combining method, and computer-readable storage medium for computer program
CN112560530A (en) * 2020-12-07 2021-03-26 北京三快在线科技有限公司 Two-dimensional code processing method, device, medium and electronic device
CN112560530B (en) * 2020-12-07 2024-02-23 北京三快在线科技有限公司 Two-dimensional code processing method, device, medium and electronic device

Also Published As

Publication number Publication date
CN101207680A (en) 2008-06-25
JP5005490B2 (en) 2012-08-22
CN101207680B (en) 2010-12-15

Similar Documents

Publication Publication Date Title
JP5005490B2 (en) Image processing method, image processing apparatus, and image processing program
JP5015540B2 (en) Digital watermark embedding device and detection device
US20070279672A1 (en) Image processing apparatus and image processing method
JP4552754B2 (en) Information embedding device, method, program, and recording medium, and information detecting device, method, program, and computer-readable recording medium
US7411702B2 (en) Method, apparatus, and computer program product for embedding digital watermark, and method, apparatus, and computer program product for extracting digital watermark
JP2007166221A (en) Apparatus and method for processing image
JP2008154106A (en) Concealing method, image processor and image forming apparatus
JP4673200B2 (en) Print processing system and print processing method
US8238599B2 (en) Image processing device and image processing method for identifying a selected one or more embedding methods used for embedding target information
US8493629B2 (en) Image processing apparatus, method, and computer program
JP2013059111A (en) Device, method, system and program of handling code
JP4393074B2 (en) Background pattern image generating apparatus, background pattern image generating method, additional information reading apparatus, and additional information reading method
JP2004228896A (en) Image processing method
US8325970B2 (en) Apparatus, method, and computer product for image processing
US8660357B2 (en) Image processing apparatus, method, and computer program
US8885224B2 (en) Information embedding method, its program and information embedding device
JP4418826B2 (en) Image output apparatus and control method thereof
JP4061143B2 (en) Image processing apparatus and image processing method
JP4049169B2 (en) Image processing apparatus, image processing method, and image processing program
JP2008205559A (en) Image processing unit, and image processing method, and program thereof
JP2008131421A (en) Information processor, program and computer readable recording medium
JP4757167B2 (en) Image processing apparatus and image processing method
JP4379280B2 (en) Information processing apparatus and information processing method
JP2008131420A (en) Information processor, program and computer readable recording medium
JP2007122621A (en) Information processor, information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120523

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5005490

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees