JP4232689B2 - Information embedding method and information extracting method - Google Patents

Information embedding method and information extracting method Download PDF

Info

Publication number
JP4232689B2
JP4232689B2 JP2004149335A JP2004149335A JP4232689B2 JP 4232689 B2 JP4232689 B2 JP 4232689B2 JP 2004149335 A JP2004149335 A JP 2004149335A JP 2004149335 A JP2004149335 A JP 2004149335A JP 4232689 B2 JP4232689 B2 JP 4232689B2
Authority
JP
Japan
Prior art keywords
information
image
embedded
embedding
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004149335A
Other languages
Japanese (ja)
Other versions
JP2005333359A (en
Inventor
嘉史 村瀬
蔵人 前野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2004149335A priority Critical patent/JP4232689B2/en
Publication of JP2005333359A publication Critical patent/JP2005333359A/en
Application granted granted Critical
Publication of JP4232689B2 publication Critical patent/JP4232689B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は,情報埋め込み方法および情報抽出方法にかかり,特に,画像処理による画像結合に特徴を有する情報埋め込み方法および情報抽出方法に関する。   The present invention relates to an information embedding method and an information extracting method, and more particularly to an information embedding method and an information extracting method characterized by image combination by image processing.

電子透かし技術を用いた情報埋め込みおよび情報抽出技術として,特開2003−101762「透かし情報埋め込み装置,及び透かし情報抽出装置」(沖電気工業株式会社)に開示された技術がある。これは,紙に印刷された電子透かしの施された文書を,フラットベッドスキャナ等で画像化し処理することで,電子透かしとして埋め込まれた情報を抽出することができる技術である。しかし,この技術で情報抽出を行うためには,読み取る対象すべてを画像化し処理する必要があるため,たとえばA4用紙全体に埋め込まれた情報を,携帯電話に搭載されたカメラなど,視野角の狭いデバイスで撮影した小さな画像から読み取ることができなかった。   As an information embedding and information extracting technique using a digital watermark technique, there is a technique disclosed in Japanese Patent Laid-Open No. 2003-101762 “Watermark information embedding apparatus and watermark information extracting apparatus” (Oki Electric Industry Co., Ltd.). This is a technique capable of extracting information embedded as a digital watermark by imaging and processing a digital watermarked document printed on paper with a flatbed scanner or the like. However, in order to extract information with this technology, it is necessary to image and process all the objects to be read. For example, information embedded in the entire A4 paper has a narrow viewing angle such as a camera mounted on a mobile phone. Could not read from a small image taken with the device.

これに対して,特開2001−189889「画像処理装置及びその方法,撮影装置の制御装置及び制御方法,並びに記憶媒体」(キヤノン株式会社)に開示された技術がある。この技術によれば,複数枚の部分画像を撮影し,複数の平均画像を結合して広域画像を生成することにより,結合画像を効率的に生成することが可能である。この技術は,一般的にモザイキング技術と呼ばれ,小さな複数枚の撮影画像に対してテンプレートマッチング等で相関の高い部分を相互に検出し合成していくことで,高解像度で広い範囲の画像の合成を可能にしている。   On the other hand, there is a technique disclosed in Japanese Patent Laid-Open No. 2001-189889 “Image processing apparatus and method thereof, control apparatus and control method of imaging apparatus, and storage medium” (Canon Inc.). According to this technique, it is possible to efficiently generate a combined image by capturing a plurality of partial images and combining a plurality of average images to generate a wide area image. This technique is generally referred to as mosaicing technology. By detecting and synthesizing highly correlated parts from a small number of shot images by template matching, etc., a high-resolution and wide-range image can be obtained. Enables synthesis.

なお,特開2003−101762の方法は,このモザイキング技術を併用することで,携帯搭載カメラ等で撮影した小さな画像からでも情報抽出を行うことが可能となる。   Note that the method disclosed in Japanese Patent Application Laid-Open No. 2003-101762 can extract information even from a small image taken with a portable camera or the like by using this mosaicing technology together.

特開2003−101762号公報JP 2003-101762 A 特開2001−189889号公報JP 2001-189889 A 特開2003−209676号公報JP 2003-209676 A

しかしながら,上記モザイキング技術と併用した電子透かし読み取り方法では以下の問題点がある。
・画像同士の相関の高い繋がりのある箇所を検出して結合を行うため,全く異なる位置の撮影画像同士では正しく結合を行うことはできず,正しい画像は得られない。
・得られた画像が情報抽出の点で十分かどうか,情報抽出を試行しないと分からない。
・情報抽出に失敗した場合,そもそも抽出可能な画像なのか,撮影部分が不足しているだけなのか分からない。
・撮影部分が不足して情報抽出できない画像であった場合に,画像のどの部分をさらに撮影する必要があるのか分からない。
・撮影対象が切断されている場合や切り取られている場合など,不完全な透かし文書である場合,画像の合成や情報抽出を行うことができない。
・情報量が少ない場合,画像全体を撮影するのは冗長であるが,そういった場合でも画像全体を撮影する必要がある。
However, the digital watermark reading method used in combination with the mosaicing technique has the following problems.
-Since a portion having a high correlation between images is detected and combined, the captured images at completely different positions cannot be correctly combined, and a correct image cannot be obtained.
-Whether the obtained image is sufficient in terms of information extraction will not be known without trying information extraction.
・ If information extraction fails, it is not clear whether the image can be extracted in the first place or only the shooting part is insufficient.
・ If the image is not enough to extract information due to lack of shooting parts, it is difficult to know which part of the image needs to be shot.
-When the subject is cut or cut off, the image cannot be combined or extracted if it is an incomplete watermark document.
・ When the amount of information is small, it is redundant to capture the entire image, but even in such a case, it is necessary to capture the entire image.

本発明は,従来の情報埋め込みおよび情報抽出技術が有する上記問題点に鑑みてなされたものであり,本発明の目的は,複数枚の部分画像を正確な配置で結合すること,または,情報を埋め込んだ画像が複数の部分領域に分割された場合に,埋め込んだ情報を正確に復元することの可能な,情報埋め込み方法および情報抽出方法を提供することである。   The present invention has been made in view of the above-described problems of conventional information embedding and information extraction techniques, and an object of the present invention is to combine a plurality of partial images in an accurate arrangement or to combine information. To provide an information embedding method and an information extracting method capable of accurately restoring embedded information when an embedded image is divided into a plurality of partial areas.

上記課題を解決するため,本発明の第1の観点によれば,電子透かしを用いて画像に情報を埋め込む情報埋め込み方法であって,画像を入力する工程(S101)と,入力された画像に,画像上の位置を特定するための情報を埋め込む工程(S103)と,を含むことを特徴とする,情報埋め込み方法が提供される(請求項1)。   In order to solve the above problems, according to a first aspect of the present invention, there is provided an information embedding method for embedding information in an image using a digital watermark, the step of inputting an image (S101), and the input image And a step of embedding information for specifying a position on the image (S103), an information embedding method is provided (claim 1).

また,画像に様々な情報を埋め込むようにしてもよい。すなわち,本発明の他の情報埋め込み方法は,電子透かしを用いて画像に情報を埋め込む情報埋め込み方法であって,画像を入力する工程と,入力された画像に埋め込まれる埋め込み情報を入力する工程と,入力された画像の微小領域に,埋め込み情報を埋め込む工程と,を含むことを特徴とする(請求項2)。   Various information may be embedded in the image. That is, another information embedding method of the present invention is an information embedding method for embedding information in an image using a digital watermark, the step of inputting an image, the step of inputting embedding information embedded in the input image, And a step of embedding embedding information in a minute region of the input image (claim 2).

かかる方法によれば,印刷物や画面表示の背景の微小領域単位に,電子透かし技術によって位置情報を埋め込み,透かし入り撮影画像から得られた位置情報をもとに,複数の画像を正確な配置で結合することができる。このようにして,複数枚の撮影画像において,撮影領域につながりのない画像同士や,撮影画像に抜け・重複のある場合であっても,正確な配置で結合画像を得ることができる。また,撮影対象が切断されている場合であっても,正確な配置で切断前の配置を再現できる。また,微小領域単位に情報を分割し,それぞれの微小領域単位の情報に識別番号を割り振ることで,情報を埋め込んだ画像が複数領域に分割された場合でも,識別番号をもとに分割される前の情報を復元することができる。領域が欠落した場合でも,分割前の情報にエラー訂正符号化を行い冗長度を付与したり,微小領域単位に分割された情報を異なる場所に複数回埋め込むことで,埋め込まれた情報を欠落なく復元することができる。例えば,印刷時に印刷者の情報を埋め込むことで,撮影対象が部分的に切断され流用された場合でも,その印刷者を特定するといった追跡が可能である。   According to such a method, position information is embedded in a small area unit of a background of a printed matter or a screen display by digital watermark technology, and a plurality of images can be accurately arranged based on position information obtained from a watermarked photographed image. Can be combined. In this way, a combined image can be obtained with an accurate arrangement even if there are images that are not connected to the shooting area or if the shot images are missing or overlapped in a plurality of shot images. Even when the object to be photographed is cut, the arrangement before cutting can be reproduced with an accurate arrangement. In addition, by dividing information into small area units and assigning identification numbers to the information in each small area unit, even if an image with embedded information is divided into multiple areas, it is divided based on the identification number. Previous information can be restored. Even if an area is missing, error correction coding is applied to the information before division to provide redundancy, and information divided into small areas is embedded multiple times in different locations, so that the embedded information is not lost. Can be restored. For example, by embedding the information of the printer at the time of printing, it is possible to track the identification of the printer even when the shooting target is partially cut and diverted.

本発明の情報埋め込み方法において,以下のような応用が可能である。   In the information embedding method of the present invention, the following applications are possible.

さらに,画像上の位置を特定するための情報または埋め込み情報が埋め込まれた画像を,印刷する工程(S104)を含むようにしてもよい(請求項3)。   Furthermore, a step (S104) of printing an image in which information for specifying a position on the image or embedded information is embedded may be included (claim 3).

画像を印刷する工程を含む場合,さらに,画像上の位置を特定するための情報または埋め込み情報が埋め込まれた画像を分割する工程(S200)を含むことができ(請求項4),この画像を分割する工程は,画像を印刷する工程において,1枚で出力可能な面積以下となるように,画像を分割するようにしてもよい(請求項5)。かかる方法によれば,撮影画像が低解像度であっても,複数枚の撮影画像を結合させることにより,高解像度/高精細の画像を形成することができる。   In the case of including the step of printing an image, the method may further include a step (S200) of dividing an image in which information for specifying a position on the image or embedded information is embedded (claim 200). In the step of dividing, the image may be divided so as to be equal to or smaller than an area that can be output by one sheet in the step of printing the image. According to this method, even if the captured image has a low resolution, a high resolution / high definition image can be formed by combining a plurality of captured images.

また,画像を分割する工程において,画像を印刷する工程で印刷された画像を読み取る読取装置(例えば,スキャナ,デジタルカメラ,カメラ付き携帯電話など)の1回の読み取りで,読み取り可能な面積以下となるように,画像を分割するようにしてもよい(請求項6)。   Also, in the step of dividing the image, the reading area (for example, scanner, digital camera, camera-equipped mobile phone, etc.) that reads the image printed in the step of printing the image is less than the readable area. Thus, the image may be divided (claim 6).

また,画像を印刷する工程とともに,あるいは,画像を印刷する工程に代えて,画像上の位置を特定するための情報または埋め込み情報が埋め込まれた画像を画面上に表示する工程(S104)を含むようにしてもよい(請求項7)。   In addition to the step of printing the image, or instead of the step of printing the image, a step (S104) of displaying on the screen an image in which information for specifying a position on the image or embedded information is embedded is displayed. (Claim 7).

画像を画面上に表示する工程を含む場合,さらに,画像上の位置を特定するための情報または埋め込み情報が埋め込まれた画像を分割する工程(S200)を含むことができ(請求項8),この画像を分割する工程は,画像を画面上に表示する工程で,1画面で出力可能な面積以下となるように,画像を分割するようにしてもよい(請求項9)。かかる方法によれば,撮影画像が低解像度であっても,複数枚の撮影画像を結合させることにより,高解像度/高精細の画像を形成することができる。   In the case of including the step of displaying the image on the screen, the method can further include a step (S200) of dividing the image in which the information for specifying the position on the image or the embedded information is embedded (S200). The step of dividing the image is a step of displaying the image on the screen, and the image may be divided so as to be less than an area that can be output on one screen. According to this method, even if the captured image has a low resolution, a high resolution / high definition image can be formed by combining a plurality of captured images.

また,画像を分割する工程において,画像を画面上に表示する工程で表示された画像を読み取る読取装置(例えば,スキャナ,デジタルカメラ,カメラ付き携帯電話など)の1回の読み取りで,読み取り可能な面積以下となるように,画像を分割するようにしてもよい(請求項10)。   Also, in the process of dividing the image, it can be read by one reading of a reading device (for example, a scanner, a digital camera, a camera-equipped mobile phone, etc.) that reads the image displayed in the process of displaying the image on the screen. The image may be divided so as to be equal to or smaller than the area (claim 10).

さらに,分割された画像を,一定周期で順次,自動的に画像を切り替えながら表示する工程を含むことも可能である(請求項11)。   Furthermore, it is also possible to include a step of displaying the divided images while switching the images automatically in a constant cycle.

入力された画像に埋め込まれる,画像上の位置を特定するための情報または埋め込み情報は,例えば,入力された画像の微小領域に埋め込まれるようにしてもよい(請求項12)。この場合さらに,微小領域は,等間隔の格子状の矩形領域であり,各矩形領域の格子点座標から,入力された画像上の位置が特定可能であるようにしてもよい(請求項13)。   The information for specifying the position on the image or the embedded information embedded in the input image may be embedded in, for example, a minute region of the input image (claim 12). Further, in this case, the minute region is a rectangular region having a lattice shape at equal intervals, and the position on the input image can be specified from the lattice point coordinates of each rectangular region. .

画像上の位置を特定するための情報は,微小領域に,画像サイズと位置情報として埋め込まれるようにしてもよい(請求項14)。また,微小領域には,微小領域内の特定箇所に,微小領域識別用のパターンが設定されるようにしてもよい(請求項15)。   Information for specifying the position on the image may be embedded in the minute area as image size and position information. Further, in the minute area, a pattern for identifying the minute area may be set at a specific location in the minute area.

入力された画像に埋め込まれる情報は,入力された画像に埋め込み可能なデータ量にまで分割されて埋め込まれるようにしてもよい(請求項16)。あるいは,入力された画像に埋め込まれる情報は,微小領域に埋め込み可能なデータ量にまで分割されて,複数の微小領域に埋め込まれるようにしてもよい(請求項17)。さらに,入力された画像に埋め込まれる情報は,分割された情報にさらに画像サイズと位置情報を付与して,複数の微小領域に埋め込むようにしてもよい(請求項18)。   The information to be embedded in the input image may be divided and embedded to the amount of data that can be embedded in the input image. Alternatively, the information to be embedded in the input image may be divided into a data amount that can be embedded in the minute area and embedded in a plurality of minute areas (claim 17). Further, the information to be embedded in the input image may be embedded in a plurality of minute regions by further adding an image size and position information to the divided information (claim 18).

このような埋め込み情報を埋め込む方法によれば,微小領域単位に,透かしとして埋め込まれる情報を分割して埋め込み,さらにそれぞれの分割された情報には,情報全体のどの部分かを示す位置情報などの,完全な情報を構成するために必要な情報を埋め込むことで,必要最小限の撮影で埋め込まれた透かし情報を取得できる。このようにして,位置情報と同時に,著作権情報などの様々な情報を埋め込んだ場合,埋め込まれた大容量の情報を必要最小限の撮影で抽出でき,撮影の手間や時間を節約できる。   According to such a method of embedding embedded information, information embedded as a watermark is divided and embedded in small area units, and each divided information includes position information indicating which part of the entire information is included. By embedding information necessary for composing complete information, it is possible to acquire watermark information embedded with the minimum necessary photographing. In this way, when various information such as copyright information is embedded at the same time as the position information, a large amount of embedded information can be extracted with the minimum necessary shooting, saving labor and time for shooting.

入力された画像に埋め込まれる情報は,分割された情報にさらに識別番号を付与して,複数の微小領域に埋め込むようにしてもよい(請求項19)。画像サイズと位置情報を識別番号とともに埋め込むことによって,撮影された領域/撮影されていない領域の検出を行うことができる。   The information to be embedded in the input image may be embedded in a plurality of minute regions by further adding an identification number to the divided information (claim 19). By embedding the image size and position information together with the identification number, it is possible to detect a captured area / an unphotographed area.

埋め込み情報のデータ量に応じて,矩形領域のサイズが変更可能であるようにしてもよい(請求項20)。このようにして,埋め込み情報を埋め込む領域を確保することができる。   The size of the rectangular area may be changeable according to the data amount of the embedded information (claim 20). In this way, an area for embedding embedded information can be secured.

上記課題を解決するため,本発明の第2の観点によれば,画像に埋め込まれた情報を抽出する情報抽出方法であって,画像を入力する工程(S105)と,入力された画像から,画像上の位置を特定するための情報を読み取る工程(S106)と,画像上の位置を特定するための情報をもとに,入力された画像を所定の位置に配置する工程(S107)と,を含むことを特徴とする,情報抽出方法が提供される(請求項21)。   In order to solve the above problem, according to a second aspect of the present invention, there is provided an information extraction method for extracting information embedded in an image, the step of inputting an image (S105), and from the input image, A step of reading information for specifying a position on the image (S106), a step of placing the input image at a predetermined position based on the information for specifying a position on the image (S107), An information extraction method is provided, characterized in that it includes (claim 21).

画像を入力する工程において,請求項3〜6に記載の印刷された印刷物または請求項7〜11に記載の表示された画像を入力するようにしてもよい(請求項22)。   In the step of inputting an image, the printed matter according to claims 3 to 6 or the displayed image according to claims 7 to 11 may be input (claim 22).

画像を入力する工程において,請求項11に記載の一定周期で順次自動的に画像を切り替えながら表示される画像を動画像として読み取り,動画像の各フレームの画像を入力された画像としてもよい(請求項23)。   In the step of inputting an image, an image that is displayed while automatically switching images sequentially at a constant cycle according to claim 11 may be read as a moving image, and an image of each frame of the moving image may be an input image ( Claim 23).

さらに,入力された画像に埋め込まれた埋め込み情報を読み取る工程を含むようにしてもよい(請求項24)。   Furthermore, a step of reading embedded information embedded in the input image may be included (claim 24).

画像上の位置を特定するための情報を読み取る工程は,入力された画像から矩形領域識別用パターンを検出することによって,等間隔の格子状の矩形領域を検出するようにしてもよい(請求項25)。   The step of reading the information for specifying the position on the image may detect a rectangular rectangular region at equal intervals by detecting a rectangular region identification pattern from the input image. 25).

埋め込み情報は,矩形領域内から分割された状態で抽出され,分割された情報を結合することによって埋め込み時の情報に復元できるようにしてもよい(請求項26)。   The embedded information may be extracted in a state of being divided from the rectangular area, and may be restored to the information at the time of embedding by combining the divided information.

このような埋め込み情報を抽出する方法によれば,微小領域単位に,透かしとして埋め込まれる情報を分割して埋め込み,さらにそれぞれの分割された情報には,情報全体のどの部分かを示す位置情報などの,完全な情報を構成するために必要な情報を埋め込むことで,必要最小限の撮影で埋め込まれた透かし情報を取得できる。このようにして,位置情報と同時に,著作権情報などの様々な情報を埋め込んだ場合,埋め込まれた大容量の情報を必要最小限の撮影で抽出でき,撮影の手間や時間を節約できる。   According to such a method for extracting embedded information, information embedded as a watermark is divided and embedded in a small area unit, and each divided information includes position information indicating which part of the entire information, etc. By embedding information necessary for composing complete information, it is possible to acquire watermark information embedded with the minimum necessary photographing. In this way, when various information such as copyright information is embedded at the same time as the position information, a large amount of embedded information can be extracted with the minimum necessary shooting, saving labor and time for shooting.

埋め込み情報は,さらに識別番号が付与されており,抽出した識別番号を確認することによって,抽出情報の不足の有無を判定するようにしてもよい(請求項27)。画像サイズと位置情報を識別番号とともに埋め込むことによって,情報抽出された領域/情報抽出されていない領域の検出を行うことができる。   The embedded information is further provided with an identification number, and the presence or absence of the extracted information may be determined by confirming the extracted identification number (claim 27). By embedding the image size and the position information together with the identification number, it is possible to detect a region where information is extracted / a region where information is not extracted.

抽出情報の不足の有無を判定する場合において,抽出情報の不足と判定された場合,同じ矩形領域内から抽出された画像サイズと位置情報をもとに,不足する情報が埋め込まれた矩形領域の位置を判定するようにしてもよい(請求項28)。あるいは,抽出情報の不足と判定された場合,不足する情報が埋め込まれた矩形領域の画像を追加入力することによって,入力画像に埋め込まれた情報を抽出するようにしてもよい(請求項29)。   When determining whether there is a shortage of extracted information, if it is determined that there is a shortage of extracted information, based on the image size and position information extracted from the same rectangular area, The position may be determined (claim 28). Alternatively, when it is determined that the extracted information is insufficient, the information embedded in the input image may be extracted by additionally inputting an image of a rectangular area in which the insufficient information is embedded (claim 29). .

また,本発明の他の観点によれば,コンピュータに,上記情報埋め込み方法または情報抽出方法を実行させるためのプログラムと,そのプログラムを記録した,コンピュータにより読み取り可能な記録媒体が提供される。ここで,プログラムはいかなるプログラム言語により記述されていてもよい。また,記録媒体としては,例えば,CD−ROM,DVD−ROM,フレキシブルディスクなど,プログラムを記録可能な記録媒体として現在一般に用いられている記録媒体,あるいは将来用いられるいかなる記録媒体をも採用することができる。   According to another aspect of the present invention, there are provided a program for causing a computer to execute the information embedding method or the information extracting method, and a computer-readable recording medium on which the program is recorded. Here, the program may be described in any programming language. In addition, as a recording medium, for example, a recording medium that is currently used as a recording medium capable of recording a program, such as a CD-ROM, a DVD-ROM, or a flexible disk, or any recording medium that is used in the future should be adopted. Can do.

なお上記において,構成要素および工程に付随して括弧書きで記した参照符号は,理解を容易にするため,後述の実施形態及び図面における対応する構成要素および工程(ステップ)を一例として記したに過ぎず,本発明がこれに限定されるものではない。   In the above description, reference numerals in parentheses associated with components and processes indicate corresponding components and processes (steps) in the following embodiments and drawings as an example for easy understanding. However, the present invention is not limited to this.

以上説明したように,本発明によれば,複数枚の撮影画像において,撮影領域につながりのない画像同士や,撮影画像に抜け・重複のある場合であっても,正確な配置で結合画像を得ることができる。また,撮影対象が切断されている場合であっても,正確な配置で切断前の配置を再現できる。また,撮影対象が部分的に切断され流用された場合でも,その追跡が可能である。   As described above, according to the present invention, in a plurality of photographed images, even if there are images that are not connected to the photographing region, or there are omissions / overlaps in the photographed images, the combined images are accurately arranged. Obtainable. Even when the object to be photographed is cut, the arrangement before cutting can be reproduced with an accurate arrangement. In addition, even when an object to be imaged is partially cut and diverted, it can be tracked.

さらに,撮影画像が低解像度であっても,複数枚の撮影画像を結合させることにより,高解像度/高精細の画像を形成することができる。また,画像サイズと位置情報を埋め込むことによって,撮影された領域/撮影されていない領域の検出を行うことができる。また,位置情報と同時に,著作権情報などの様々な情報を埋め込んだ場合,埋め込まれた大容量の情報を必要最小限の撮影で抽出でき,撮影の手間や時間を節約できる。   Further, even if the captured image has a low resolution, a high resolution / high definition image can be formed by combining a plurality of captured images. In addition, by embedding the image size and position information, it is possible to detect a photographed area / an area not photographed. In addition, when various information such as copyright information is embedded at the same time as the position information, the embedded large-capacity information can be extracted with the minimum necessary photographing, and the labor and time of photographing can be saved.

以下の実施形態の説明においては,特開2003−101762号公報「透かし情報埋め込み装置,及び,透かし情報検出装置」(特許文献1),特開2003−209676号公報「透かし情報埋め込み装置,透かし情報検出装置,透かし情報埋め込み装置,及び,透かし情報検出装置」(特許文献3)を先行発明とする。まず,この先行発明について概説する。   In the following description of the embodiment, Japanese Patent Laid-Open No. 2003-101762 “Watermark Information Embedding Device and Watermark Information Detection Device” (Patent Document 1), Japanese Patent Laid-Open No. 2003-209676 “Watermark Information Embedding Device, Watermark Information” "Detection device, watermark information embedding device, and watermark information detection device" (Patent Document 3) is a prior invention. First, this prior invention will be outlined.

特許文献1に記載の透かし情報埋め込み装置は,画像にドットパターンを重ね合わせて透かし入り画像を作成する透かし入り画像合成部を備え,ドットパターンは複数種類有り,規則正しく配置され,その中の少なくとも一種類のドットパターンは特定の機密を表す機密情報が与えられることを特徴とする。また,特許文献1に記載の透かし情報検出装置は,画像と複数種類のドットパターンが埋め込まれた透かし画像とが重ね合わされて作成された透かし入り画像から,透かし画像を検出する透かし検出部を備え,透かし検出部は,透かし画像と同じ複数種類のドットパターンを抽出するフィルタを備え,透かし入り画像に対し,マッチングを行うことにより,透かし画像を検出することを特徴とする。   The watermark information embedding device described in Patent Document 1 includes a watermarked image synthesizing unit that creates a watermarked image by superimposing a dot pattern on an image. There are a plurality of types of dot patterns, which are regularly arranged, and at least one of them. The kind of dot pattern is characterized in that confidential information representing a specific confidentiality is given. The watermark information detection apparatus described in Patent Document 1 includes a watermark detection unit that detects a watermark image from a watermarked image created by superimposing an image and a watermark image in which a plurality of types of dot patterns are embedded. The watermark detection unit includes a filter that extracts a plurality of types of dot patterns that are the same as the watermark image, and detects the watermark image by matching the watermarked image.

かかる特許文献1に記載の発明によれば,以下のような効果が得られる,
(a)ドットの配列の違いにより埋め込み情報を表現するため,元の文書のフォント,文字間や行間のピッチに対する変更を伴わない。
(b)シンボルを割り当てているドットパターンと,シンボルを割り当てていないドットパターンの濃度(一定区間内のドットの数)が等しいため,人の目には文書の背景に一様な濃度の網掛けがされているように見え,情報の存在が目立たない。
(c)シンボルを割り当てているドットパターンと割り当てていないドットパターンを秘密にしておくことで,埋め込まれている情報の解読が困難となる。
(d)情報を表わすパターンは細かいドットの集まりで,文書の背景として一面に埋め込まれているため,埋め込みアルゴリズムが公開されたとしても,印刷された文書に対する埋め込み情報の改ざんが困難となる。
(e)波(濃淡変化)の方向の違いにより埋め込み信号を検出するため(1画素単位の詳細な検出を行わないので),印刷文書に多少の汚れなどがあった場合でも,安定した情報検出を行うことができる。
(f)同じ情報を繰り返し埋め込み,検出時には繰り返し埋め込まれた情報のすべてを利用して情報復元を行うため,大きなフォントの文字によって信号部分が隠されたり,用紙が汚れていたりすることによる部分的な情報の欠落が発生しても,安定して埋め込んだ情報を取り出すことができる。
According to the invention described in Patent Document 1, the following effects can be obtained.
(A) Since the embedding information is expressed by the difference in dot arrangement, there is no change in the original document font, character spacing or line pitch.
(B) Since the density (number of dots in a certain interval) of the dot pattern to which the symbol is assigned and the dot pattern to which the symbol is not assigned is equal, the background of the document is shaded with a uniform density to the human eye The information is not conspicuous.
(C) Since the dot pattern to which the symbol is assigned and the dot pattern to which the symbol is not assigned are kept secret, it becomes difficult to decode the embedded information.
(D) A pattern representing information is a collection of fine dots, which are embedded as a background of a document, so that even if an embedding algorithm is disclosed, it is difficult to tamper with embedded information for a printed document.
(E) Since the embedded signal is detected due to the difference in the direction of the wave (shading change) (since detailed detection is not performed in units of one pixel), stable information detection is possible even if there is some dirt on the printed document. It can be performed.
(F) Since the same information is repeatedly embedded and information is restored by using all of the repeatedly embedded information at the time of detection, the signal portion is hidden by large font characters or the paper is dirty. Even if a shortage of information occurs, the embedded information can be taken out stably.

また,特許文献3に記載の発明は,文書画像を,所定のフィルタによって所定のシンボルを識別可能なドットパターンを埋め込むための埋め込み領域を算出し,埋め込み領域に対し,文字領域の割合が所定の閾値以下であるか否かを判断し,文字領域の割合が所定の閾値以下である場合に,埋め込み領域の文字領域と重ならない領域に,機密情報の少なくとも一部を成すシンボルを識別可能なドットパターン(シンボルユニット)を所定の数埋め込むことを特徴とする。   The invention described in Patent Document 3 calculates an embedding area for embedding a dot pattern in which a predetermined symbol can be identified by a predetermined filter in a document image, and the ratio of the character area to the embedding area is predetermined. A dot that can be used to identify a symbol that forms at least a part of confidential information in an area that does not overlap the character area of the embedding area when the ratio of the character area is equal to or less than a predetermined threshold. A predetermined number of patterns (symbol units) are embedded.

かかる特許文献3に記載の発明によれば,以下のような効果が得られる,
(a)電子透かしを挿入する文書画像の文字の配置状態を参照し,文字領域以外の領域にのみ機密情報の一部を成す有効なシンボルユニットを埋め込むため,元の文書がどのようなものであっても確実に機密情報を埋め込むことができる。
(b)シンボルユニットを埋め込まない領域には,シンボルユニットを複数種類,所定の数ずつ埋め込むことにより,検出時に,機密情報の一部を成す有効なシンボルユニットが埋め込まれていないことを確実に判定できる。
(c)埋め込み情報の検出時に,ある領域に対する複数種類のフィルタの出力値のそれぞれの総和などによりシンボルの判定を行うため,情報検出の精度が高く保たれる。
According to the invention described in Patent Document 3, the following effects can be obtained.
(A) By referring to the character arrangement state of the document image into which the electronic watermark is inserted and embedding a valid symbol unit that forms a part of confidential information only in an area other than the character area, what kind of original document is Confidential information can be embedded without fail.
(B) By embedding a predetermined number of symbol units in a region where symbol units are not embedded, it is possible to reliably determine that a valid symbol unit forming part of confidential information is not embedded at the time of detection. it can.
(C) When detecting embedded information, symbols are determined based on the sum of output values of a plurality of types of filters for a certain area, so that the accuracy of information detection is kept high.

以下に添付図面を参照しながら,本発明にかかる情報埋め込み方法および情報抽出方法の好適な実施の形態について詳細に説明する。なお,本明細書及び図面において,実質的に同一の機能構成を有する構成要素については,同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of an information embedding method and an information extracting method according to the present invention will be described below in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.

(第1の実施形態)
第1の実施形態は,印刷物や画面表示の背景に,印刷物への透かし埋め込み技術によって,位置情報を埋め込み,透かし入り撮影画像から得られた位置情報をもとに,撮影領域につながりのない画像同士や,撮影画像に抜け・重複のある場合であっても,複数の画像を正確な配置で結合できるようにすることを特徴とするものである。
(First embodiment)
The first embodiment embeds position information in the background of a printed matter or screen display by using a watermark embedding technique in the printed matter, and based on the position information obtained from the watermarked photographed image, an image that is not connected to the photographing region. Even when there are omissions / overlaps in each other or in the captured images, a plurality of images can be combined in an accurate arrangement.

図1は,本実施形態の構成を示す説明図である。
本実施形態は,図1に示したように,透かし入り画像出力部100と,透かし入り画像結合部106により構成されている。
FIG. 1 is an explanatory diagram showing the configuration of the present embodiment.
As shown in FIG. 1, the present embodiment includes a watermarked image output unit 100 and a watermarked image combining unit 106.

(透かし画像出力部100)
透かし画像出力部100は,印刷物への電子透かし技術によって,位置情報入りの透かし画像を出力する装置である。透かし画像出力部100は,図1に示したように,画像データ101を入力とする装置であり,透かし画像形成部102と,透かし入り画像合成部103と,出力部104を備えて構成されている。
(Watermark image output unit 100)
The watermark image output unit 100 is a device that outputs a watermark image with position information using a digital watermark technique for printed matter. As shown in FIG. 1, the watermark image output unit 100 is a device that receives image data 101, and includes a watermark image forming unit 102, a watermarked image composition unit 103, and an output unit 104. Yes.

画像データ101は,透かしが埋め込まれる画像である。透かし画像形成部102は,入力された画像データサイズをもとに,透かし画像を形成する機能部(処理または装置)である。本実施形態で形成される透かし画像には,透かし画像上の位置が特定可能な位置情報が埋め込まれている(これについては図3を参照しながら後述する)。透かし入り文書画像合成部103は,画像データと透かし画像の重ね合わせを行う機能部である。出力部104は,透かし入り画像を,印刷出力または画面表示する機能部である。   The image data 101 is an image in which a watermark is embedded. The watermark image forming unit 102 is a functional unit (processing or device) that forms a watermark image based on the input image data size. In the watermark image formed in this embodiment, position information capable of specifying the position on the watermark image is embedded (this will be described later with reference to FIG. 3). The watermarked document image composition unit 103 is a functional unit that superimposes image data and a watermark image. The output unit 104 is a functional unit that prints out or displays a watermarked image.

透かし入り画像出力105は,透かし画像出力部100により印刷出力された透かし入り画像の印刷物,または,画面上に表示された画像である。   The watermarked image output 105 is a printed image of a watermarked image printed out by the watermark image output unit 100 or an image displayed on the screen.

(透かし入り画像結合部106)
透かし入り画像結合部106は,部分的に読み取られた透かし入り画像から,位置情報を抽出して結合を行う装置である。透かし入り画像結合部106は,図1に示したように,透かし入り画像出力105を入力とする装置であり,入力部107と,透かし検出部108と,画像結合部109を備えて構成されている。
(Watermarked image combining unit 106)
The watermarked image combining unit 106 is an apparatus that extracts and combines position information from partially read watermarked images. As shown in FIG. 1, the watermarked image combining unit 106 is a device that receives the watermarked image output 105 as an input, and includes an input unit 107, a watermark detection unit 108, and an image combining unit 109. Yes.

入力部107は,透かし入り画像を印刷出力した印刷物または画面上に表示された画像を読み取る機能部であり,具体的には,スキャナ,デジタルカメラ,カメラ付き携帯電話などである。入力部107は,部分的な領域を撮影して,より詳細な画像を取得する(これについては図4A,図4Bを参照しながら後述する)。透かし検出部108は,入力部107によって読み取られた画像から,情報を抽出する機能部である。本実施形態では,透かし画像上の位置が特定可能な位置情報を検出する(これについては図3を参照しながら後述する)。画像結合部109は,検出された位置情報をもとに,読み取り画像を配置して,画像を復元する機能部である(これについては図4A,図4Bを参照しながら後述する)。   The input unit 107 is a functional unit that reads a printed matter obtained by printing out a watermarked image or an image displayed on a screen, and specifically includes a scanner, a digital camera, a mobile phone with a camera, and the like. The input unit 107 captures a partial area and acquires a more detailed image (this will be described later with reference to FIGS. 4A and 4B). The watermark detection unit 108 is a functional unit that extracts information from the image read by the input unit 107. In the present embodiment, position information that can specify the position on the watermark image is detected (this will be described later with reference to FIG. 3). The image combining unit 109 is a functional unit that arranges the read image and restores the image based on the detected position information (this will be described later with reference to FIGS. 4A and 4B).

本実施形態は以上のように構成されている。
次いで,本実施形態の動作について,図2の処理フローを参照しながら詳細に説明する。
The present embodiment is configured as described above.
Next, the operation of this embodiment will be described in detail with reference to the processing flow of FIG.

<画像データ入力(S101)>
画像データ101を,透かし入り画像出力部に入力する。
<Image data input (S101)>
The image data 101 is input to the watermarked image output unit.

<透かし画像形成(S102,透かし画像形成部102)>
入力された画像データサイズをもとに,透かし画像を形成する。本実施形態で形成される透かし画像は,図3(a),(b)に示すように,等間隔の格子状の矩形領域単位で情報抽出が可能な透かし画像が並べられたものとする。図3(a)では,情報0(Bit0)と情報1(Bit1)を4画素×4画素で表現する。さらに,それぞれの矩形単位の透かし画像に,埋め込み先の画像データの幅・高さ(w×h)と,矩形単位の透かし画像の位置情報(2,1)を埋め込む。ここでは,画像サイズについては,矩形単位の透かし画像の縦・横方向の矩形数で表現し,位置情報については,画像サイズの左上を原点(0,0)として,矩形単位の左上位置(x,y)が特定可能となるように表現している。
<Watermark image formation (S102, watermark image forming unit 102)>
A watermark image is formed based on the input image data size. As shown in FIGS. 3A and 3B, it is assumed that the watermark images formed in this embodiment are arrayed with watermark images from which information can be extracted in units of equally spaced grid-like rectangular areas. In FIG. 3A, information 0 (Bit 0) and information 1 (Bit 1) are expressed by 4 pixels × 4 pixels. Furthermore, the width / height (w × h) of the image data to be embedded and the position information (2, 1) of the watermark image in the rectangular unit are embedded in each watermark image in the rectangular unit. Here, the image size is expressed by the number of rectangles in the vertical and horizontal directions of the watermark image in the rectangular unit, and the position information is the upper left position (x in the rectangular unit with the upper left of the image size as the origin (0, 0). , Y) are expressed so as to be specified.

また,矩形単位の透かし画像の検出方法について,図3(a)に示したように,矩形領域の左上3×3信号パターンを矩形検出用の特定パターンとして設定し,部分的に撮影された画像からでも,矩形単位の読み取り開始位置を検出できるようにする。そして,図4A(a),(b)のように部分的に撮影された矩形単位の透かし画像からでも,画像サイズと画像位置が取得できるようにする。さらに位置情報と同時に,印刷物や画面表示に関連する著作権情報や改ざん検出情報等を埋め込むことによって,著作権情報確認や改ざん検出等の処理を行うこともできる。   As for the method of detecting a rectangular watermark image, as shown in FIG. 3A, the upper left 3 × 3 signal pattern of the rectangular area is set as a specific pattern for rectangular detection, and the image is partially photographed. It is possible to detect the reading start position in rectangular units. Then, the image size and the image position can be acquired even from a rectangular watermark image partially captured as shown in FIGS. 4A (a) and (b). Further, by embedding copyright information and falsification detection information related to the printed matter and the screen display at the same time as the position information, processing such as copyright information confirmation and falsification detection can be performed.

<透かし入り画像合成(S103,透かし入り画像合成部103)>
画像データと透かし画像の重ね合わせを行い,透かし入り画像を生成する。
<Watermarked image composition (S103, watermarked image composition unit 103)>
The image data and the watermark image are superimposed to generate a watermarked image.

<透かし入り画像出力(S104,出力部104)>
透かし入り画像を,印刷または画面表示する。
<Watermarked image output (S104, output unit 104)>
Print or display the watermarked image on the screen.

<読み取り(S105,入力部107)>
図4A,図4Bに示すように,透かし入り画像を印刷した印刷物,または画面上に表示された画像を,カメラ付き携帯電話等で,部分的に撮影する。その際,少なくとも1つの,矩形単位の透かし画像の全面が撮影されれば良い。また,撮影する順序は自由で,必ずしも撮影領域同士につながりがある必要はない。
<Read (S105, input unit 107)>
As shown in FIGS. 4A and 4B, a printed matter on which a watermarked image is printed or an image displayed on the screen is partially photographed with a camera-equipped mobile phone or the like. At this time, it is sufficient that at least one entire surface of the rectangular watermark image is captured. Further, the shooting order is arbitrary, and it is not always necessary to connect the shooting areas.

<透かし検出(S106,透かし検出部108)>
図4Aに示すように,部分的に読み取られた画像から,矩形領域の左上3×3信号パターンに埋め込まれた矩形検出用パターンを検出することによって,情報抽出開始点を検出し,各矩形領域単位で埋め込まれた画像サイズと位置情報を抽出する。
<Watermark Detection (S106, Watermark Detection Unit 108)>
As shown in FIG. 4A, an information extraction start point is detected from a partially read image by detecting a rectangular detection pattern embedded in the upper left 3 × 3 signal pattern of the rectangular area, and each rectangular area is detected. Extract image size and position information embedded in units.

図4A(a)は情報抽出可能な矩形領域単位において,信号開始位置を検出し,画像サイズ20×30,配置座標(0,0)を抽出した場合を示している。図4A(b)は情報抽出可能な矩形領域単位において,信号開始位置を検出するとともに,画像サイズ20×30,配置座標(15,10)を抽出した場合を示している。   FIG. 4A (a) shows a case where the signal start position is detected and the image size 20 × 30 and the arrangement coordinates (0, 0) are extracted in a rectangular area unit from which information can be extracted. FIG. 4A (b) shows a case where the signal start position is detected and the image size 20 × 30 and the arrangement coordinates (15, 10) are extracted in a rectangular area unit from which information can be extracted.

<画像結合(S107,画像結合部109)>
そして,透かし抽出によって得られた透かし画像サイズと位置情報から,該当する座標に読み取り画像を配置することにより,図4A(c)に示すように,画像が復元される。その際,撮影画像同士に重なりがある場合は,例えば図4B(a)に示したように,後に撮影されたものが上になるように重ね合わせを行う。また,必ずしも全面が読み取られている必要はなく,必要な領域のみ読み取られた,抜けのある状態であっても,例えば図4B(b)に示したように,結合画像の表示が可能である。
<Image Combining (S107, Image Combining Unit 109)>
Then, the image is restored as shown in FIG. 4A (c) by arranging the read image at the corresponding coordinates from the watermark image size and position information obtained by the watermark extraction. At this time, if there is an overlap between the captured images, for example, as shown in FIG. Further, it is not always necessary to read the entire surface, and a combined image can be displayed, for example, as shown in FIG. .

さらに,図5A〜図5Cのようにコピー機に適用した場合,得られた結合画像を,コピー印刷として出力することも可能である。また,破れなどにより分割された印刷物を,コピー機等で読み取る場合についても,少なくとも1つの,矩形単位の透かし画像の全面が撮影されれば良く,読み取りを行う際の配置は自由である。   Furthermore, when applied to a copying machine as shown in FIGS. 5A to 5C, the obtained combined image can be output as a copy print. Also, when a printed material divided due to tearing or the like is read by a copy machine or the like, it is sufficient that at least one whole surface of a rectangular watermark image is taken, and the arrangement for reading is arbitrary.

図5Aは,破れなどにより透かし入り文書が分割された場合の処理を示している。(a)の透かし入り文書が,(b)のように破れなどにより分割された場合であっても,(c)のように読み取りを行うことによって,(d)のように座標抽出を行うことができる。そして,(e)のように画像結合を行い,(f)のように印刷することによって,(g)のように結合画像がコピー出力される。   FIG. 5A shows processing when a watermarked document is divided due to tearing or the like. Even if the watermarked document in (a) is divided due to tearing or the like as in (b), the coordinates are extracted as in (d) by reading as in (c). Can do. Then, image combination is performed as in (e), and printing is performed as in (f), so that the combined image is copied and output as in (g).

図5Bは,図5A(c)の読み取りの詳細を示している。(a)のように,読み取りの際の配置は任意である。また,(b)のように,分割領域に破れなどによる抜けがある場合でも,(c)のように結合可能である。   FIG. 5B shows details of the reading of FIG. 5A (c). As in (a), the arrangement at the time of reading is arbitrary. Further, even when there are missing areas due to breakage or the like in the divided areas as shown in (b), they can be combined as shown in (c).

図5Cは,図5A(c)の座標抽出および図5A(d)の画像結合の詳細を示している。図5C(a)は,図5A(c)の座標抽出の詳細を示しており,信号開始位置を検出し,画像サイズ20×30,配置座標(0,0)を抽出した場合を示している。図5C(b)は,図5A(d)の画像結合の詳細を示しており,配置座標(10,0)を抽出し,座標(10,0)に画像を配置することで,画像が結合される。   FIG. 5C shows details of the coordinate extraction of FIG. 5A (c) and the image combination of FIG. 5A (d). FIG. 5C (a) shows details of the coordinate extraction of FIG. 5A (c), and shows a case where the signal start position is detected and the image size 20 × 30 and the arrangement coordinates (0, 0) are extracted. . FIG. 5C (b) shows the details of the image combination of FIG. 5A (d). The arrangement coordinates are extracted by extracting the arrangement coordinates (10, 0) and the images are arranged at the coordinates (10, 0). Is done.

(第1の実施形態の効果)
以上説明したように,本実施形態によれば,印刷物や画面表示の背景に,位置情報を埋め込むことによって,撮影領域につながりのない画像同士や,撮影画像に抜け・重複のある場合であっても,正確な配置で結合画像を得ることができるようになる。またコピー機に適用した場合,破れなどによって分割された印刷物の読み取り画像を結合して,結合されたコピー印刷として出力することができるようになる。
(Effects of the first embodiment)
As described above, according to the present embodiment, the position information is embedded in the background of the printed matter or the screen display, so that the images that are not connected to the shooting area or the shot images are missing or overlapped. However, a combined image can be obtained with an accurate arrangement. In addition, when applied to a copying machine, it is possible to combine the read images of the printed matter divided due to tearing or the like and output the combined copy print.

(第2の実施形態)
第2の実施形態は,第1の実施形態における,位置情報の埋め込まれた透かし入り画像に対して,出力部104が出力可能なサイズ合わせて,透かし入り画像を分割して出力することにより,出力解像度の低いディスプレイ表示や,FAX等の低解像度印刷の撮影画像からでも,分割された画像を結合することによって,高解像度・高精細な結合画像を取得できるようにすることを特徴とする。
(Second Embodiment)
In the second embodiment, the watermarked image in which position information is embedded in the first embodiment is matched to the size that can be output by the output unit 104, and the watermarked image is divided and output. A high-resolution and high-definition combined image can be acquired by combining divided images even from a low-resolution display display or a captured image of low-resolution printing such as FAX.

本実施形態は,図6に示したように,第1の実施形態の構成(図1)に対し,画像分割部200をさらに備えて構成されている。画像分割部200以外の構成については,第1の実施形態と実質的に同様であるため,重複説明を省略する。   As shown in FIG. 6, the present embodiment is configured to further include an image dividing unit 200 with respect to the configuration of the first embodiment (FIG. 1). Since the configuration other than the image dividing unit 200 is substantially the same as that of the first embodiment, a duplicate description is omitted.

画像分割部200は,出力部104から出力解像度と出力可能な最大サイズを取得して,透かし入り画像を,出力部104が出力可能なサイズに分割する機能部である。   The image dividing unit 200 is a functional unit that acquires the output resolution and the maximum outputable size from the output unit 104 and divides the watermarked image into sizes that can be output by the output unit 104.

本実施形態は以上のように構成されている。
次いで,本実施形態の動作について,図7の処理フローを参照しながら詳細に説明する。
The present embodiment is configured as described above.
Next, the operation of this embodiment will be described in detail with reference to the processing flow of FIG.

画像データ入力工程(S101)〜透かし入り画像合成工程(S103)については,第1の実施形態と実質的に同様である。   The image data input step (S101) to the watermarked image composition step (S103) are substantially the same as those in the first embodiment.

<透かし入り画像分割(S200,画像分割部200)>
出力部104から出力解像度と出力可能な最大サイズを取得する。そして,図8に示すように,(a)の透かし入り画像を,(b)のように,出力部104が出力可能なサイズに分割する。これにより,印刷に比べて解像度の低いディスプレイ出力や,FAX等の低解像度印刷を行う場合においても,低解像度化によって拡大された画像を分割して,透かし入り画像を出力することができるようになる。
<Watermarked image division (S200, image division unit 200)>
The output resolution and the maximum outputable size are acquired from the output unit 104. Then, as shown in FIG. 8, the watermarked image of (a) is divided into sizes that can be output by the output unit 104 as shown in (b). As a result, even when display output with a resolution lower than that of printing or low resolution printing such as FAX is performed, the image enlarged by the reduction in resolution can be divided and a watermarked image can be output. Become.

<透かし入り画像出力(S201,出力部104)>
分割された透かし入り画像を出力する。分割された画像をディスプレイ表示で出力する方法として,図9に示すように,分割された画像を,一定周期で順次,自動的に画像を切り替えながら((a)→(b)→・・・→(c)→(d)),ディスプレイ表示する。印刷出力する場合は,分割された画像の分割数分の透かし入り印刷物が出力される。
<Image output with watermark (S201, output unit 104)>
The divided watermarked image is output. As a method of outputting the divided images on the display, as shown in FIG. 9, the divided images are automatically switched in order at a certain cycle ((a) → (b) →... → (c) → (d)), display on the display. In the case of printout, a watermarked printed matter corresponding to the number of divided images is output.

<読み取り(S202,入力部107)>
図9に示すように,分割して出力された透かし入り画像のディスプレイ表示された画像,または印刷物を,カメラ付き携帯電話等で,部分的に撮影する。それぞれ分割された画像をすべて撮影することにより,出力解像度の低いディスプレイ表示や,FAX等の低解像度印刷によって分割して出力された画像からでも,高解像度・高精細な結合画像を取得できるようになる。
<Read (S202, input unit 107)>
As shown in FIG. 9, an image displayed on a display of a watermarked image output in a divided manner or a printed matter is partially photographed with a camera-equipped mobile phone or the like. By capturing all the divided images, a high-resolution and high-resolution combined image can be acquired even from images that are divided and output by low-resolution printing such as display display with low output resolution or FAX. Become.

透かし検出工程(S106)〜画像結合工程(S107)については,第1の実施形態と実質的に同様である。   The watermark detection step (S106) to the image combination step (S107) are substantially the same as those in the first embodiment.

(第2の実施形態の効果)
以上説明したように,本実施形態によれば,出力部104が出力可能な最大サイズ合わせて,透かし入り画像を分割して出力することにより,出力解像度の低いディスプレイ表示や,FAX等の低解像度印刷の撮影画像からでも,分割された画像を結合することによって,高解像度・高精細な結合画像が取得できるようになる。
(Effect of 2nd Embodiment)
As described above, according to the present embodiment, a watermarked image is divided and output in accordance with the maximum size that can be output by the output unit 104, so that a display with a low output resolution or a low resolution such as FAX can be obtained. A combined image with high resolution and high definition can be acquired by combining the divided images even from a photographed image of printing.

(第3の実施形態)
第3の実施形態は,第1の実施形態における,位置情報の埋め込まれた透かし入り画像に対して,第2の実施形態と同様の方法で,入力部107の撮影領域サイズ合わせて,透かし入り画像を分割し,一定周期で画像が切り替わる透かし入り分割画像表示領域を,連続撮影することにより,撮影領域を移動させることなく,結合画像が取得できるようにすることを特徴とする。
(Third embodiment)
In the third embodiment, the watermarked image in which the position information is embedded in the first embodiment is added to the watermarked image according to the size of the shooting area of the input unit 107 in the same manner as in the second embodiment. A combined image can be acquired without moving the shooting area by continuously shooting the divided divided image display area in which the image is divided and the image is switched at a constant cycle.

本実施形態は,第2の実施形態の構成(図6)と実質的に同様であるが,画像分割部200の機能が異なる。本実施形態の画像分割部200は,出力部104から出力解像度を取得して,透かし入り画像を,入力部107の撮影領域サイズに出力されるように分割する機能部である。画像分割部200以外の構成については,第2の実施形態と実質的に同様であるため,重複説明を省略する。   This embodiment is substantially the same as the configuration of the second embodiment (FIG. 6), but the function of the image dividing unit 200 is different. The image dividing unit 200 according to the present embodiment is a functional unit that acquires the output resolution from the output unit 104 and divides the watermarked image so that the image is output to the shooting area size of the input unit 107. Since the configuration other than the image dividing unit 200 is substantially the same as that of the second embodiment, a duplicate description is omitted.

本実施形態は以上のように構成されている。
次いで,本実施形態の動作について,第2の実施形態の動作(図7)と異なる工程についてのみ説明する。
The present embodiment is configured as described above.
Next, the operation of the present embodiment will be described only for steps different from those of the second embodiment (FIG. 7).

<透かし入り画像分割(S200,画像分割部200)>
出力部104から出力解像度を取得して,図10に示すように,(a)の透かし入り画像を,(b)のように,入力部107の撮影領域サイズに出力されるように分割する。
<Watermarked image division (S200, image division unit 200)>
The output resolution is acquired from the output unit 104, and as shown in FIG. 10, the watermarked image of (a) is divided so as to be output to the shooting area size of the input unit 107 as shown in (b).

<透かし入り画像出力(S201,出力部104)>
分割された透かし入り画像を出力する。分割された透かし入り画像を出力する方法として,図11に示すように,分割された透かし入り画像を,固定領域に一定周期で順次,自動的に画像を切り替えながら((a)→(b)→・・・→(c)→(d)),ディスプレイ表示することにより,撮影領域を移動させることなく,連続撮影または動画撮影を行うことができるようにする。
<Image output with watermark (S201, output unit 104)>
The divided watermarked image is output. As a method of outputting the divided watermarked image, as shown in FIG. 11, the divided watermarked image is automatically switched to a fixed area sequentially in a fixed cycle ((a) → (b) → (c) → (d)), by displaying on the display, continuous shooting or moving image shooting can be performed without moving the shooting area.

<読み取り(S202,入力部107)>
図11に示すように,分割された透かし入り画像が,一定周期で順次,自動的に画像を切り替えながらディスプレイ上に表示される固定領域を,カメラ付き携帯電話等で連続撮影または動画撮影する。これにより撮影領域を移動させることなく撮影することのできた,分割された透かし入り画像から,結合画像が取得できるようになる。
<Read (S202, input unit 107)>
As shown in FIG. 11, the fixed area where the divided watermarked images are displayed on the display while automatically switching the images sequentially at a fixed period is continuously photographed or animated with a mobile phone with a camera. As a result, a combined image can be acquired from the divided watermarked image that can be photographed without moving the photographing region.

(第3の実施形態の効果)
以上説明したように,本実施形態によれば,入力部107の撮影領域サイズ合わせて,透かし入り画像を分割し,一定周期で画像が切り替わる分割画像表示領域を,動画像撮影することにより,撮影領域を移動させることなく,結合画像が取得できるようになる。
(Effect of the third embodiment)
As described above, according to the present embodiment, a watermarked image is divided according to the size of the shooting area of the input unit 107, and a divided image display area in which the image is switched at a constant period is shot by moving image shooting. The combined image can be acquired without moving the area.

(第4の実施形態)
第4の実施形態は,第1の実施形態の方法を用いて,埋め込み情報を矩形単位に分割して埋め込み/抽出することにより,大容量の情報埋め込みを可能とすることを特徴とする。
(Fourth embodiment)
The fourth embodiment is characterized in that a large amount of information can be embedded by embedding / extracting embedded information by dividing it into rectangular units using the method of the first embodiment.

本実施形態は,図12に示したように,第1の実施形態の構成(図1)に対し,透かし画像形成部102に埋め込み情報400が入力される点が異なる。さらに,画像結合部109に代えて情報結合部409を備えて構成されている。その他の構成については,第1の実施形態と実質的に同様であるため,重複説明を省略する。   As shown in FIG. 12, the present embodiment is different from the configuration of the first embodiment (FIG. 1) in that embedded information 400 is input to the watermark image forming unit 102. Further, an information combining unit 409 is provided instead of the image combining unit 109. Other configurations are substantially the same as those of the first embodiment, and thus redundant description is omitted.

埋め込み情報400は,入力された画像データに,透かしとして画像サイズや画像位置の情報とともに埋め込まれる情報である。情報結合部409は,抽出データを結合し,埋め込み情報を復元させる機能部である。   The embedded information 400 is information that is embedded in the input image data together with information on the image size and image position as a watermark. The information combining unit 409 is a functional unit that combines extracted data and restores embedded information.

本実施形態は以上のように構成されている。
次いで,本実施形態の動作について,図13の処理フローを参照しながら詳細に説明する。
The present embodiment is configured as described above.
Next, the operation of this embodiment will be described in detail with reference to the processing flow of FIG.

<画像データ/埋め込み情報入力(S401)>
画像データ101と画像データに埋め込む埋め込み情報400とを入力する。入力される画像データの,画像の幅・高さや画像の枚数が大きくなるに従い,埋め込み可能な情報量も増加する。
<Image data / embedding information input (S401)>
The image data 101 and the embedded information 400 embedded in the image data are input. As the width and height of the input image data and the number of images increase, the amount of information that can be embedded increases.

<透かし画像形成(S402,透かし画像形成部102)>
透かし画像の形成については,図14A,図14Bに示すように,第1〜3の実施形態で用いた,矩形領域単位で情報抽出可能な透かし画像領域に,画像サイズ・配置座標に加えて,さらに埋め込み情報を追加し,透かし画像を形成する。
<Watermark Image Formation (S402, Watermark Image Forming Unit 102)>
As to the formation of the watermark image, as shown in FIGS. 14A and 14B, in addition to the image size and arrangement coordinates, the watermark image area used in the first to third embodiments can extract information in units of rectangular areas. Furthermore, embedding information is added to form a watermark image.

図14Aに示すように,(a)に示した追加される埋め込み情報については,(b)のように予めチェックサムの付与,(c)のようにエラー訂正符号の付与を行い,さらに(d)のように,情報抽出時に抽出されたデータの多数決を行えるよう,多数決用繰り返しデータを生成し,(e)のように,多数決用繰り返しデータとして同じ情報を繰り返し埋め込む。これらの処理が行われた埋め込み情報を分割して,矩形単位の透かし画像に埋め込む。   As shown in FIG. 14A, for the embedded information to be added shown in (a), a checksum is given in advance as shown in (b), an error correction code is given as shown in (c), and (d As shown in (e), the majority data is generated so that the majority of the data extracted at the time of information extraction can be determined, and the same information is repeatedly embedded as the majority data as shown in (e). The embedded information subjected to these processes is divided and embedded in a watermark image in rectangular units.

矩形単位の透かし画像については,図14B(f)に示したように,分割された埋め込み情報が埋め込み可能となるように,第1〜3の実施形態で設定した領域を拡大し,拡大した領域を埋め込みデータ用の領域として利用する。   For the watermark image in the rectangular unit, as shown in FIG. 14B (f), the area set in the first to third embodiments is expanded so that the divided embedded information can be embedded. Is used as an area for embedded data.

透かし入り画像合成工程(S103)〜読み取り工程(S105)については,第1の実施形態と実質的に同様である。   The watermarked image composition step (S103) to reading step (S105) are substantially the same as those in the first embodiment.

<透かし検出(S406,透かし検出部108)>
図15A,図15Bに示すように,矩形領域単位ごとに埋め込まれた情報を抽出し,位置情報をもとに抽出データの整列を行う。図15Aにおいて,(a)のように,全体画像からカメラ付き携帯電話等で部分画像撮影(透かし画像入力)を行い,(b)のように,矩形領域単位での埋め込みデータの抽出を行う。抽出データの整列については,図15Bにおいて,(c)のように,予め埋め込み時に埋め込み順序を設定しておき,埋め込み時に設定した埋め込み順序に従って,抽出データの整列を行う。
<Watermark Detection (S406, Watermark Detection Unit 108)>
As shown in FIGS. 15A and 15B, information embedded in each rectangular area unit is extracted, and the extracted data is aligned based on the position information. In FIG. 15A, partial images are shot (watermark image input) from the entire image with a camera-equipped mobile phone or the like as shown in (a), and embedded data is extracted in units of rectangular areas as shown in (b). As for the alignment of the extracted data, as shown in FIG. 15B, the embedding order is set in advance at the time of embedding, and the extracted data is aligned according to the embedding order set at the time of embedding.

<情報結合(S407,情報結合部409)>
図15Bにおいて,(d)のように,整列された抽出データを結合し,埋め込み情報を復元させる。埋め込み情報の復元については,(e)のように,整列された抽出データを結合することによって得られた,同じ情報が繰り返し埋め込まれたデータの多数決を行い,(f)のように,多数決の結果得られた埋め込み情報をエラー訂正し,最後に(g)のようにチェックサムの計算を行ってエラーでなければ,(h)のように,復元された埋め込み情報として出力する。
<Information combination (S407, information combination unit 409)>
In FIG. 15B, as shown in (d), the aligned extracted data are combined to restore the embedded information. For restoration of embedded information, as shown in (e), a majority decision is made on the data in which the same information obtained by combining the aligned extracted data is repeatedly embedded. The embedded information obtained as a result is error-corrected. Finally, if the checksum is calculated as shown in (g) and there is no error, it is output as restored embedded information as shown in (h).

本実施形態では,上述のように,矩形領域単位ごとに情報が埋め込まれるため,図15Aのように,部分的に撮影された画像や,部分的に切り取られた新聞や雑誌等のスクラップ等を,コピー機等で読み取った画像からでも情報を抽出することができる。また,本実施形態をコピー機やスキャナ等に適用することも可能である。すなわち,図16に示すように,(a)のように部分的に切り取られたスクラップを切り取って,(b)のように配置変更した後,(c)のようにコピー機やスキャナ等で読み取って,(d)のように矩形単位での埋め込みデータの抽出を行ったり,複数のスクラップをまとめて読み取って情報を抽出したりすることもできる。   In the present embodiment, as described above, information is embedded for each rectangular area unit. Therefore, as shown in FIG. 15A, a partially photographed image, a partially cut-out newspaper or magazine scrap, etc. Information can be extracted even from an image read by a copier or the like. In addition, the present embodiment can be applied to a copying machine, a scanner, and the like. That is, as shown in FIG. 16, scraps partially cut as shown in (a) are cut out, rearranged as shown in (b), and then read by a copier or scanner as shown in (c). Thus, as shown in (d), it is possible to extract embedded data in units of rectangles, or to extract information by reading a plurality of scraps together.

(第4の実施形態の効果)
以上説明したように,本実施形態によれば,第1の実施形態の方法を用いて,埋め込み情報を分割して,矩形領域単位で情報抽出可能な画像に埋め込むことができるようにした。これにより,複数枚の印刷物に分割しての情報埋め込みと,複数枚の読み取り画像からの情報抽出が容易となるため,大容量の情報埋め込み/情報抽出が可能となる。またその一方で,部分的に撮影された画像や,部分的に切り取られた新聞や雑誌等のスクラップ等を,コピー機等で読み取った画像からでも情報を抽出することができる。さらに,部分的に切り取られたスクラップを切り取って配置を変更したり,複数のスクラップをまとめて読み取って情報を抽出したりすることもできる。
(Effect of the fourth embodiment)
As described above, according to the present embodiment, using the method of the first embodiment, the embedded information can be divided and embedded in an image from which information can be extracted in units of rectangular areas. This facilitates information embedding divided into a plurality of printed materials and extraction of information from a plurality of read images, thereby enabling large-capacity information embedding / information extraction. On the other hand, information can be extracted from an image obtained by reading a partially photographed image or a partially cut-out newspaper or magazine scrap with a copier or the like. Furthermore, it is possible to cut out scraps partially cut and change the arrangement, or to read information by extracting a plurality of scraps collectively.

(第5の実施形態)
第5の実施形態は,第4の実施形態において,埋め込み情報の復元の際,撮影されていない領域が存在し,情報復元のためのデータが不足している場合や,多数決の結果得られた埋め込み情報をエラー訂正し,チェックサムの計算を行った結果,エラーとなってしまった場合に,再撮影が必要な領域を通知することによって,埋め込み情報の復元に失敗した場合でも,すべての領域を再度撮影する必要がないようにすることを特徴とする。
(Fifth embodiment)
In the fifth embodiment, in the fourth embodiment, when the embedded information is restored, there is an unphotographed area, and there is insufficient data for information restoration, or the result of majority decision is obtained. If an error occurs as a result of error correction of the embedded information and calculation of the checksum, all areas are returned even if restoration of the embedded information fails by notifying the area that needs to be re-photographed. It is characterized in that it is not necessary to shoot again.

本実施形態の構成は,第4の実施形態と実質的に同様のため,重複説明を省略する。
以下に,本実施形態の動作について,第4の実施形態と異なる工程についてのみ説明する。
Since the configuration of the present embodiment is substantially the same as that of the fourth embodiment, redundant description is omitted.
Hereinafter, the operation of this embodiment will be described only for the steps different from those of the fourth embodiment.

<透かし画像形成(S402,透かし画像形成部102)>
透かし画像の形成の前段階については,第4の実施形態(図14A(a)〜(e))と同様に,チェックサム付与,エラー訂正符号付与を経て,多数決用繰り返しデータが生成される。そして,透かし画像の形成においては,図17に示すように,(f)のように,矩形単位ごとに分割して埋め込まれる情報に,ID番号を付与し,(g)のように,矩形領域にさらにID番号の埋め込みを行う。
<Watermark Image Formation (S402, Watermark Image Forming Unit 102)>
In the previous stage of the formation of the watermark image, repeated data for majority decision is generated through checksum assignment and error correction code assignment as in the fourth embodiment (FIGS. 14A (a) to (e)). In the formation of a watermark image, as shown in FIG. 17, an ID number is given to the information divided and embedded for each rectangular unit as shown in (f), and a rectangular area as shown in (g). Further, an ID number is embedded.

<透かし検出(S406,透かし検出部108)>
<情報結合(S407,情報結合部409)>
第4の実施形態と同様に,図15Aにおいて,(a)のように,全体画像からカメラ付き携帯電話等で部分画像撮影(透かし画像入力)を行い,(b)のように,矩形領域単位での埋め込みデータの抽出を行う。本実施形態では,埋め込み情報復元の際,撮影/読み取りされていない領域が存在する場合について説明する。
<Watermark Detection (S406, Watermark Detection Unit 108)>
<Information combination (S407, information combination unit 409)>
As in the fourth embodiment, in FIG. 15A, partial images are captured (watermark image input) from the entire image with a camera-equipped mobile phone or the like as shown in (a), and a rectangular area unit as shown in (b). Extracting embedded data at. In the present embodiment, a case will be described in which an area that has not been shot / read exists when embedding information is restored.

図18に示すように,(c)のように,埋め込み情報復元の際,撮影/読み取りされていない領域が存在する場合,矩形領域単位で埋め込まれた情報から,ID番号のチェックを行い,(d)のように,検出されなかったID番号については,該当する未検出領域を位置情報から検出し,再撮影/読み取り領域として画面上に表示するなどして,再撮影/読み取りを促す。例えば,ID4〜9の埋め込みデータが未検出の場合,ID3,ID10の位置情報からID4〜9の位置を計算し,画面上に表示する。データ未検出領域の表示に従い,(e)のように,撮影/読み取りされていない領域を再撮影/読み取りすることで,(f)のように,未検出分の埋め込みデータを取得する。   As shown in FIG. 18, as shown in (c), when there is an area that has not been shot / read when embedding information is restored, the ID number is checked from the information embedded in units of rectangular areas. As in (d), for an ID number that has not been detected, the corresponding undetected area is detected from the position information and displayed on the screen as a re-photographing / reading area to prompt re-photographing / reading. For example, when the embedded data of ID4 to 9 is not detected, the positions of ID4 to 9 are calculated from the position information of ID3 and ID10 and displayed on the screen. According to the display of the data non-detected area, the area that has not been imaged / read is re-imaged / read as shown in (e), and the undetected embedded data is acquired as shown in (f).

またID番号のチェック以外にも,多数決の結果得られた埋め込み情報をエラー訂正し,チェックサムの計算を行った結果,エラーとなってしまった場合においても,エラーとなった情報が埋め込まれた矩形領域の位置情報を検出し,再撮影/読み取り領域として画面上に表示するなどして,再撮影/読み取りを促す。   In addition to the ID number check, the error information is embedded even if an error occurs as a result of error correction of the embedded information obtained as a result of the majority vote and the checksum calculation. The position information of the rectangular area is detected and displayed on the screen as a re-photographing / reading area to prompt re-photographing / reading.

また,不足する領域が追加されない場合は情報抽出処理を中断するようにしてもよい。これについて,図19A,図19Bを参照しながら説明する。   In addition, the information extraction process may be interrupted when an insufficient area is not added. This will be described with reference to FIGS. 19A and 19B.

図19Aにおいて,(a)のように切り取り時に透かし領域が不足する場合,(b)の切り取り(スクラップ等)を(c)のように読み取る。(d)のように矩形領域単位での埋め込みデータの抽出を行い,ID番号をチェックする。   In FIG. 19A, when the watermark area is insufficient at the time of cutting as shown in (a), the cutting (scrap etc.) of (b) is read as shown in (c). As shown in (d), the embedded data is extracted in units of rectangular areas, and the ID number is checked.

図19Bにおいて,(e)のように例えばID4〜9の埋め込みデータが未検出の場合,(f)のように,ID3,ID10の位置情報からID4〜9の位置を計算し,コピー機やスキャナ等に通知する。このとき,(g)のように,データ未検出領域の表示に従い,不足領域の追加読み取りを行うが,不足領域が追加されなければ,情報抽出処理を中断する。そして,(h)のようにID番号チェックを行い,未検出分のID4〜9の埋め込みデータが取得された後,埋め込み情報抽出処理を行う。   In FIG. 19B, for example, when embedded data of ID4 to 9 is not detected as shown in (e), the positions of ID4 to 9 are calculated from the positional information of ID3 and ID10 as shown in (f), and the copying machine or scanner Etc. At this time, as shown in (g), additional reading of the insufficient area is performed in accordance with the display of the data undetected area, but if the insufficient area is not added, the information extraction processing is interrupted. Then, an ID number check is performed as shown in (h), and after the unembedded ID4 to 9 embedded data is acquired, embedded information extraction processing is performed.

(第5の実施形態の効果)
以上説明したように,本実施形態によれば,第4の実施形態において,埋め込み情報の復元の際,撮影されていない領域が存在し,情報復元のためのデータが不足している場合や,多数決の結果得られた埋め込み情報をエラー訂正し,チェックサムの計算を行った結果,エラーとなってしまった場合に,再撮影が必要な領域を通知することによって,埋め込み情報の復元に失敗した場合でも,すべての領域を再度撮影する必要がなくなる。これにより,複数枚の読み取り画像から抽出される,大容量の情報の抽出に失敗した場合において,負担となる再撮影の手間を省くことができる。またコピー機などに適用した場合,コピー許可情報が抽出されない場合はコピー禁止にすることもできる。
(Effect of 5th Embodiment)
As described above, according to the present embodiment, in the fourth embodiment, when restoring embedded information, there is a region that has not been shot, and data for information restoration is insufficient. Error correction of embedded information obtained as a result of majority vote and checksum calculation results in an error. If an error occurs, restoration of the embedded information failed by notifying the area that needs to be re-photographed. Even in this case, it is not necessary to re-shoot all areas. Thereby, when extraction of a large amount of information extracted from a plurality of read images fails, it is possible to save the burden of re-photographing. In addition, when applied to a copy machine or the like, copying can be prohibited if copy permission information is not extracted.

以上,添付図面を参照しながら本発明にかかる情報埋め込み方法および情報抽出方法の好適な実施形態について説明したが,本発明はかかる例に限定されない。当業者であれば,特許請求の範囲に記載された技術的思想の範疇内において各種の変更例または修正例に想到し得ることは明らかであり,それらについても当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the information embedding method and the information extracting method according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. It will be obvious to those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea described in the claims, and these are naturally within the technical scope of the present invention. It is understood that it belongs.

本発明は,情報埋め込み方法および情報抽出方法に利用可能であり,特に,画像処理による画像結合に特徴を有する情報埋め込み方法および情報抽出方法に利用可能である。   The present invention can be used for an information embedding method and an information extracting method, and in particular, can be used for an information embedding method and an information extracting method characterized by image combination by image processing.

第1の実施形態の構成を示す説明図である。It is explanatory drawing which shows the structure of 1st Embodiment. 第1の実施形態の処理フローを示す説明図である。It is explanatory drawing which shows the processing flow of 1st Embodiment. 透かし画像の説明図である。It is explanatory drawing of a watermark image. 読み取り工程〜画像結合工程の処理を示す説明図である。It is explanatory drawing which shows the process of a reading process-an image combination process. 撮影領域に重なりまたは抜けがある場合の説明図である。It is explanatory drawing when there exists an overlap or omission in an imaging region. 透かし入り文書が分割された場合の処理を示す説明図である。It is explanatory drawing which shows a process when a watermarked document is divided | segmented. 図5Aの読み取りの詳細を示す説明図である。It is explanatory drawing which shows the detail of the reading of FIG. 5A. 図5Aの座標抽出および画像結合の詳細を示す説明図である。It is explanatory drawing which shows the detail of the coordinate extraction and image coupling | bonding of FIG. 5A. 第2の実施形態の構成を示す説明図である。It is explanatory drawing which shows the structure of 2nd Embodiment. 第2の実施形態の処理フローを示す説明図である。It is explanatory drawing which shows the processing flow of 2nd Embodiment. 透かし入り画像分割工程の処理を示す説明図である。It is explanatory drawing which shows the process of a watermarked image division | segmentation process. 分割された画像をディスプレイ表示で出力する場合を示す説明図である。It is explanatory drawing which shows the case where the divided | segmented image is output by a display display. 透かし入り画像分割工程の処理を示す説明図である。It is explanatory drawing which shows the process of a watermarked image division | segmentation process. 分割された画像をディスプレイ表示で出力する場合を示す説明図である。It is explanatory drawing which shows the case where the divided | segmented image is output by a display display. 第4の実施形態の構成を示す説明図である。It is explanatory drawing which shows the structure of 4th Embodiment. 第4の実施形態の処理フローを示す説明図である。It is explanatory drawing which shows the processing flow of 4th Embodiment. 埋め込み情報を追加した透かし画像を形成する場合を示す説明図である。It is explanatory drawing which shows the case where the watermark image which added embedding information is formed. 埋め込み情報を追加した透かし画像を形成する場合を示す説明図である。It is explanatory drawing which shows the case where the watermark image which added embedding information is formed. 全体画像からカメラ付き携帯電話等で部分画像撮影を行う場合を示す説明図である。It is explanatory drawing which shows the case where a partial image photography is performed with the mobile phone with a camera etc. from a whole image. 埋め込み情報の復元を示す説明図である。It is explanatory drawing which shows restoration | restoration of embedding information. 第4の実施形態をコピー機等に適用した場合を示す説明図である。It is explanatory drawing which shows the case where 4th Embodiment is applied to a copier etc. FIG. ID番号を追加した透かし画像を形成する場合を示す説明図である。It is explanatory drawing which shows the case where the watermark image which added ID number is formed. 埋め込みデータが未検出の場合を示す説明図である。It is explanatory drawing which shows the case where embedding data is not detected. 第5の実施形態をコピー機等に適用した場合を示す説明図である。It is explanatory drawing which shows the case where 5th Embodiment is applied to a copier etc. FIG. 埋め込みデータが未検出の場合を示す説明図である。It is explanatory drawing which shows the case where embedding data is not detected.

符号の説明Explanation of symbols

100 透かし画像出力部
101 画像データ
102 透かし画像形成部
103 透かし入り文書画像合成部
104 出力部
105 透かし入り画像出力
106 透かし入り画像結合部
107 入力部
108 透かし検出部
109 画像結合部
200 画像分割部
400 埋め込み情報
409 情報結合部
DESCRIPTION OF SYMBOLS 100 Watermark image output part 101 Image data 102 Watermark image formation part 103 Watermarked document image composition part 104 Output part 105 Watermarked image output 106 Watermarked image combination part 107 Input part 108 Watermark detection part 109 Image combining part 200 Image division part 400 Embedded information 409 Information coupling part

Claims (29)

電子透かしを用いて画像に情報を埋め込む情報埋め込み方法であって,
画像を入力する工程と,
前記入力された画像に埋め込まれる埋め込み情報を入力する工程と,
前記埋め込み情報を複数繰り返し結合して多数決用繰り返しデータを生成する工程と,
前記多数決用繰り返しデータを分割して複数の埋め込みデータを生成する工程と,
前記入力された画像を構成する各領域に,前記複数の埋め込みデータを順次に埋め込む工程と,
を含むことを特徴とする,情報埋め込み方法。
An information embedding method for embedding information in an image using a digital watermark,
Inputting the image;
Inputting embedded information to be embedded in the input image;
Repetitively combining the embedded information to generate majority data for repetition,
Dividing the repeated data for majority decision to generate a plurality of embedded data;
A step of sequentially embedding the plurality of embedded data in each area constituting the input image;
An information embedding method characterized by including:
前記複数の埋め込みデータを順次に埋め込む工程において,In the step of sequentially embedding the plurality of embedded data,
前記複数の埋め込みデータのそれぞれに画像上の位置を特定するための情報を付与して,前記各領域に埋め込むことを特徴とする,請求項1に記載の情報埋め込み方法。  2. The information embedding method according to claim 1, wherein information for specifying a position on an image is assigned to each of the plurality of embedding data and embedded in each of the regions.
さらに,前記複数の埋め込みデータが順次に埋め込まれた画像を印刷する工程を含むことを特徴とする,請求項1または2に記載の情報埋め込み方法。 Further characterized in that it comprises a step of printing an image in which the plurality of embedded data is embedded in sequence in the method embedding information according to claim 1 or 2. さらに,前記複数の埋め込みデータが順次に埋め込まれた画像を,分割する工程を含むことを特徴とする,請求項3に記載の情報埋め込み方法。 4. The information embedding method according to claim 3, further comprising a step of dividing an image in which the plurality of embedded data are sequentially embedded . 前記分割する工程において出力解像度と出力可能な最大サイズを取得し,低解像度化によって拡大された画像を最大サイズ以下になるように分割することを特徴とする,請求項4に記載の情報埋め込み方法。 5. The information embedding according to claim 4, wherein in the dividing step , an output resolution and a maximum outputable size are obtained, and an image enlarged by the reduction in resolution is divided so as to be equal to or less than the maximum size. Method. 前記分割する工程において,出力解像度と撮影領域サイズを取得し,低解像度化によって拡大された画像を撮影領域サイズ以下になるように分割することを特徴とする,請求項4に記載の情報埋め込み方法。 5. The information embedding method according to claim 4, wherein in the dividing step, an output resolution and a shooting area size are acquired, and an image enlarged by the reduction in resolution is divided so as to be equal to or smaller than the shooting area size. . さらに,前記複数の埋め込みデータが順次に埋め込まれた画像を,画面上に表示する工程を含むことを特徴とする,請求項1または2に記載の情報埋め込み方法。 The information embedding method according to claim 1, further comprising a step of displaying on the screen an image in which the plurality of embedded data are sequentially embedded . さらに,前記複数の埋め込みデータが順次に埋め込まれた画像を分割する工程を含むことを特徴とする,請求項7に記載の情報埋め込み方法。 The information embedding method according to claim 7, further comprising a step of dividing an image in which the plurality of embedded data are sequentially embedded . 前記複数の埋め込みデータを生成する工程において,前記画像を画面上に表示する工程で,1画面で出力可能な面積以下となるように,前記複数の埋め込みデータが順次に埋め込まれた画像を分割することを特徴とする,請求項8に記載の情報埋め込み方法。 In the step of generating the plurality of embedded data, in the step of displaying the image on the screen, the image in which the plurality of embedded data is sequentially embedded is divided so that the area can be output on one screen or less. The information embedding method according to claim 8, wherein: 前記分割する工程において,前記画像を画面上に表示する工程で表示された画像を読み取る読取装置の1回の読み取りで,読み取り可能な面積以下となるように,前記複数の埋め込みデータが順次に埋め込まれた画像を分割することを特徴とする,請求項8に記載の情報埋め込み方法。 In the dividing step, the plurality of embedding data are sequentially embedded so as to be less than the readable area by one reading of the reading device that reads the image displayed in the step of displaying the image on the screen. characterized by dividing an image, the method embedded information according to claim 8. さらに,前記分割された画像を,一定周期で順次,自動的に画像を切り替えながら表示する工程を含むことを特徴とする,請求項8〜10のいずれかに記載の情報埋め込み方法。   The information embedding method according to any one of claims 8 to 10, further comprising a step of displaying the divided images automatically while sequentially switching the images at a constant period. 前記入力された画像に埋め込まれる,前記複数の埋め込みデータは,前記入力された画像の微小領域に埋め込まれることを特徴とする,請求項1に記載の情報埋め込み方法。 2. The information embedding method according to claim 1, wherein the plurality of embedding data embedded in the input image are embedded in a minute region of the input image. 前記微小領域は,等間隔の格子状の矩形領域であり,前記各矩形領域の格子点座標から,前記入力された画像上の位置が特定可能であることを特徴とする,請求項12に記載の情報埋め込み方法。   13. The minute area is a rectangular area having a lattice shape at equal intervals, and a position on the input image can be specified from a lattice point coordinate of each rectangular area. Information embedding method. 前記画像上の位置を特定するための情報は,前記入力された画像の微小領域に,画像サイズと位置情報として埋め込まれることを特徴とする,請求項2,12,13のいずれかに記載の情報埋め込み方法。 14. The information for specifying the position on the image is embedded as an image size and position information in a minute area of the input image, according to any one of claims 2, 12, and 13. Information embedding method. 前記微小領域には,前記微小領域内の特定箇所に,微小領域識別用のパターンが設定されることを特徴とする,請求項2,12〜14のいずれかに記載の情報埋め込み方法。   15. The information embedding method according to claim 2, wherein a pattern for identifying a minute area is set in the minute area at a specific location in the minute area. 前記多数決用繰り返しデータは,前記入力された画像に埋め込み可能なデータ量にまで分割されて埋め込まれることを特徴とする,請求項に記載の情報埋め込み方法。 The repeated data majority is characterized to be embedded is divided up to the amount of data that can be embedded in the input image, the method embedding information according to claim 1. 前記多数決用繰り返しデータは,前記微小領域に埋め込み可能なデータ量にまで分割されて,複数の前記微小領域に埋め込まれることを特徴とする,請求項2,12〜15のいずれかに記載の情報埋め込み方法。 16. The information according to claim 2, wherein the repeated data for majority decision is divided into a data amount that can be embedded in the minute area and embedded in the plurality of minute areas. Embed method. 前記多数決用繰り返しデータは,前記分割された情報にさらに画像サイズと位置情報を付与して,複数の前記微小領域に埋め込むことを特徴とする,請求項2,12〜15のいずれかに記載の情報埋め込み方法。 The repeated data for majority decision is further provided with an image size and position information added to the divided information, and embedded in a plurality of the minute regions. Information embedding method. 前記多数決用繰り返しデータは,前記分割された情報にさらに識別番号を付与して,複数の前記微小領域に埋め込むことを特徴とする,請求項17または18に記載の情報埋め込み方法。 19. The information embedding method according to claim 17 or 18, wherein the majority data is embedded in a plurality of minute regions by further adding an identification number to the divided information. 前記埋め込み情報のデータ量に応じて,前記微小領域のサイズが変更可能であることを特徴とする,請求項2,12,13のいずれかに記載の情報埋め込み方法。   14. The information embedding method according to claim 2, wherein a size of the minute area can be changed according to a data amount of the embedding information. 画像に埋め込まれた情報を抽出する情報抽出方法であって,
画像を入力する工程と,
前記入力された画像から,複数の埋め込みデータを順次に読み取る工程と,
前記複数の埋め込みデータを結合して多数決用繰り返しデータを復元する工程と,
前記多数決用繰り返しデータを構成する複数の埋め込み情報の多数決によって,当該埋め込み情報のエラー訂正を行う工程と,
を含むことを特徴とする,情報抽出方法。
An information extraction method for extracting information embedded in an image,
Inputting the image;
Sequentially reading a plurality of embedded data from the input image;
Combining the plurality of embedded data to restore the majority repeated data;
Performing error correction of the embedded information by majority determination of a plurality of embedded information constituting the repeated data for majority determination;
An information extraction method characterized by including:
前記画像を入力する工程において,前記請求項3〜6に記載の印刷された印刷物または前記請求項7〜11に記載の表示された画像を入力することを特徴とする,請求項21に記載の情報抽出方法。   The input of the image, the printed matter according to claim 3 to 6 or the displayed image according to claim 7 to 11 is input. Information extraction method. 前記画像を入力する工程において,前記請求項11に記載の一定周期で順次自動的に画像を切り替えながら表示される画像を動画像として読み取り,前記動画像の各フレームの画像を前記入力された画像とすることを特徴とする,請求項21に記載の情報抽出方法。   12. In the step of inputting the image, an image that is displayed while automatically switching images sequentially at a fixed period as described in claim 11 is read as a moving image, and an image of each frame of the moving image is read as the input image. The information extraction method according to claim 21, wherein: さらに,
前記入力された画像から,画像上の位置を特定するための情報を読み取る工程と,
前記画像上の位置を特定するための情報をもとに,前記入力された画像を所定の位置に配置する工程と,
を含むことを特徴とする,請求項21〜23のいずれかに記載の情報抽出方法。
further,
Reading information for specifying a position on the image from the input image;
Arranging the input image at a predetermined position based on information for specifying a position on the image;
The information extraction method according to claim 21, comprising:
前記画像上の位置を特定するための情報を読み取る工程は,前記入力された画像から微小領域識別用パターンを検出することによって,等間隔の格子状の矩形領域を検出することを特徴とする,請求項24に記載の情報抽出方法。   The step of reading information for specifying a position on the image is characterized by detecting a lattice-shaped rectangular region at equal intervals by detecting a minute region identification pattern from the input image. The information extraction method according to claim 24. 前記埋め込み情報は,前記矩形領域内から分割された状態で抽出され,分割された情報を結合することによって埋め込み時の情報に復元できることを特徴とする,請求項25に記載の情報抽出方法。   26. The information extracting method according to claim 25, wherein the embedded information is extracted in a state of being divided from the rectangular area, and can be restored to information at the time of embedding by combining the divided information. 前記埋め込み情報は,さらに識別番号が付与されており,抽出した識別番号を確認することによって,抽出情報の不足の有無を判定することを特徴とする,請求項26に記載の情報抽出方法。   27. The information extraction method according to claim 26, wherein an identification number is further given to the embedded information, and whether or not the extracted information is insufficient is determined by checking the extracted identification number. 抽出情報の不足と判定された場合,同じ矩形領域内から抽出された画像サイズと位置情報をもとに,不足する情報が埋め込まれた矩形領域の位置を判定することを特徴とする,請求項27に記載の情報抽出方法。   When it is determined that the extracted information is insufficient, the position of the rectangular area in which the insufficient information is embedded is determined based on the image size and position information extracted from the same rectangular area. 27. The information extraction method according to 27. 抽出情報の不足と判定された場合,不足する情報が埋め込まれた矩形領域の画像を追加入力することによって,入力画像に埋め込まれた情報を抽出することを特徴とする,請求項27に記載の情報抽出方法。   The information embedded in the input image is extracted by additionally inputting an image of a rectangular area in which the insufficient information is embedded when it is determined that the extracted information is insufficient. Information extraction method.
JP2004149335A 2004-05-19 2004-05-19 Information embedding method and information extracting method Expired - Fee Related JP4232689B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004149335A JP4232689B2 (en) 2004-05-19 2004-05-19 Information embedding method and information extracting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004149335A JP4232689B2 (en) 2004-05-19 2004-05-19 Information embedding method and information extracting method

Publications (2)

Publication Number Publication Date
JP2005333359A JP2005333359A (en) 2005-12-02
JP4232689B2 true JP4232689B2 (en) 2009-03-04

Family

ID=35487712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004149335A Expired - Fee Related JP4232689B2 (en) 2004-05-19 2004-05-19 Information embedding method and information extracting method

Country Status (1)

Country Link
JP (1) JP4232689B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4670658B2 (en) * 2006-01-25 2011-04-13 富士ゼロックス株式会社 Image processing apparatus, image processing method, and program
JP4550745B2 (en) * 2006-01-31 2010-09-22 株式会社東芝 Image processing method and image processing apparatus
JP4975459B2 (en) 2007-01-30 2012-07-11 株式会社沖データ Copy management system, output device, copy device, and computer program
JP5162947B2 (en) * 2007-04-19 2013-03-13 コニカミノルタビジネステクノロジーズ株式会社 Image reading device
JP5895759B2 (en) 2012-07-23 2016-03-30 富士ゼロックス株式会社 Image forming apparatus and test data
JP6397284B2 (en) * 2014-09-16 2018-09-26 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2018515840A (en) * 2015-04-28 2018-06-14 フィリップス ライティング ホールディング ビー ヴィ Metadata in multi-image scenes

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3654332B2 (en) * 1998-07-28 2005-06-02 富士写真フイルム株式会社 Information embedding method and apparatus, and recording medium
JP2003018393A (en) * 2001-07-03 2003-01-17 Ricoh Co Ltd Image processing system
JP2004021542A (en) * 2002-06-14 2004-01-22 Oki Electric Ind Co Ltd Image processing device, photographing terminal, and image processing system

Also Published As

Publication number Publication date
JP2005333359A (en) 2005-12-02

Similar Documents

Publication Publication Date Title
JP5014832B2 (en) Image processing apparatus, image processing method, and computer program
JP4269861B2 (en) Printed material processing system, watermarked document printing device, watermarked document reading device, printed material processing method, information reading device, and information reading method
JP4183669B2 (en) Digital watermark embedding apparatus and method, and digital watermark extraction apparatus and method
JP4424422B2 (en) Information processing apparatus, information processing system, and program
JP4859237B2 (en) Image processing apparatus and method
JP4819723B2 (en) Information extraction apparatus, information extraction method, information extraction program, and recording medium
US10992837B2 (en) Information processing apparatus, control method thereof, and storage medium
US20080260200A1 (en) Image Processing Method and Image Processing Device
JP4232689B2 (en) Information embedding method and information extracting method
JP5420054B2 (en) Device, method, system and program for handling code
JP4192909B2 (en) Tamper detection device, tamper detection method
JP4382747B2 (en) Digital watermark detection method, apparatus, and program
JP4881141B2 (en) Image processing apparatus and image processing apparatus control method
JP4927058B2 (en) Information embedded image generating apparatus, information reading apparatus, information embedded image generating method, information reading method, information embedded image generating program, and information reading program
JP4672513B2 (en) Information processing system, tint block superimposing device, answer extracting device, tint block superimposing method, answer extracting method
US8886567B2 (en) Image processing apparatus, image forming apparatus, and computer-readable recording medium storing image processing program
JP2005295458A (en) Information detecting apparatus, information embedding apparatus, image processing system, information detecting method, and information embedding method
JP4037801B2 (en) Entry document creation device and entry document
JP5009414B2 (en) Background pattern superimposing apparatus and background pattern superimposing method
JP6742568B2 (en) Copy protection code generation method
JP4881935B2 (en) Information embedded image generating apparatus, information reading apparatus, information embedded image generating method, information reading method, information embedded image generating program, and information reading program
JP5095374B2 (en) Image processing apparatus, image forming apparatus, and program
JP2007157076A (en) Image processor and image processing method
Braudaway Detection and location of very small print defects in real time for high-speed digital printing
JP2005228271A (en) Document image verification device, document image alignment method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080701

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081201

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 3

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111219

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121219

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131219

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees