JP2006237858A - Image processing apparatus, image processing method, program for allowing computer to execute the method, and recording medium - Google Patents

Image processing apparatus, image processing method, program for allowing computer to execute the method, and recording medium Download PDF

Info

Publication number
JP2006237858A
JP2006237858A JP2005047595A JP2005047595A JP2006237858A JP 2006237858 A JP2006237858 A JP 2006237858A JP 2005047595 A JP2005047595 A JP 2005047595A JP 2005047595 A JP2005047595 A JP 2005047595A JP 2006237858 A JP2006237858 A JP 2006237858A
Authority
JP
Japan
Prior art keywords
information
line
image
embedding
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005047595A
Other languages
Japanese (ja)
Inventor
Takahiro Yagishita
高弘 柳下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2005047595A priority Critical patent/JP2006237858A/en
Publication of JP2006237858A publication Critical patent/JP2006237858A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus applicable to image data of both a natural image and an artificial image and capable of carrying out embedding of information wherein both the performance of immunity/image quality and the performance of density/image quality are high at the same time. <P>SOLUTION: An information embedding section 3 uses vector information of a pair of extrapolation line segments whose end points are respectively the same or close to each other and which are nearly in the same direction from the respective end points in vector information of image data converted from raster image data by a raster/vector conversion section 2 to detect embedded vectors of image data to be embedded. The information embedding section 3 minutely changes positional information of a pair of the detected vectors to embed information to be embedded so as to embed the embedded information as an electronic watermark. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像処理装置、画像処理方法、その方法をコンピュータに実行させるプログラム、および記録媒体に関し、特に、画像データに任意の情報を埋込む画像処理装置、画像処理方法、その方法をコンピュータに実行させるプログラム、および記録媒体に関する。   The present invention relates to an image processing apparatus, an image processing method, a program for causing a computer to execute the method, and a recording medium, and more particularly to an image processing apparatus, an image processing method, and a method for embedding arbitrary information in image data. The present invention relates to a program to be executed and a recording medium.

画像データに情報を埋込む技術は、電子透かし技術と呼ばれ、近年盛んに研究されてきている。例えば、画像の属性情報を埋め込むことによって、著作権管理を行ったり、画像自身の情報を埋め込むことによって、改竄検出や修復を行ったりすることができる。電子透かし技術の方式の多くは、デジタルカメラ等で撮られたいわゆる自然画像を対象としたものであって、文字やグラフのような、いわゆる人工画像には適さないものが多かった。   A technique for embedding information in image data is called a digital watermark technique, and has been actively studied in recent years. For example, copyright management can be performed by embedding attribute information of an image, or tampering detection or restoration can be performed by embedding information of the image itself. Many of the methods of the digital watermark technology are for so-called natural images taken with a digital camera or the like, and many are not suitable for so-called artificial images such as characters and graphs.

これに対して、文字などの人工画像を対象とした電子透かし技術が開発されてきている。この技術は画像情報から文字認識によって文字コードを抽出するものである(特許文献1)。   On the other hand, a digital watermark technique for artificial images such as characters has been developed. This technique extracts character codes from image information by character recognition (Patent Document 1).

一方、2値画像の特徴量空間と基準ベクトルとのマハラノビス距離と、参照パターンの特徴量空間と基準ベクトルとのマハラノビス距離とを比較し、この比較結果と2値画像に埋め込むアクセス制御情報とに基づいて2値画像の特徴量ベクトル空間を平行移動させて該画像を変更する技術が考案されている。この技術では、個々のベクトルでなく多数のベクトル群に埋め込み情報を担わせているので、耐性が高い。また、ベクトル群全てを平行移動させているので、画像の歪みが感知されにくく、画質の劣化を抑制することが出来る(特許文献2)。   On the other hand, the Mahalanobis distance between the feature amount space of the binary image and the reference vector is compared with the Mahalanobis distance between the feature amount space of the reference pattern and the reference vector, and the comparison result and access control information embedded in the binary image are used. Based on this, a technique has been devised in which a feature vector space of a binary image is translated to change the image. This technique is highly resistant because embedded information is assigned to a large number of vector groups instead of individual vectors. In addition, since all the vector groups are moved in parallel, image distortion is less likely to be detected, and image quality deterioration can be suppressed (Patent Document 2).

ところで電子透かし技術は、主に耐性、密度、画質と言った指標で、性能を表すことができる。耐性とは、画像に所定の改変を加えた時、埋め込み情報が正しく抽出できる割合のことである。例えば、埋め込み後の画像を印刷出力し、再びスキャンして埋め込み情報を抽出する場合、画像にはノイズ状の改変が加わることは不可避であったとしても、埋め込んだ情報は正しく抽出できることが望ましい。   By the way, the digital watermark technology can express the performance mainly by indexes such as tolerance, density, and image quality. Tolerance is the rate at which embedded information can be extracted correctly when a predetermined modification is made to an image. For example, when the embedded image is printed out, and the embedded information is extracted by scanning again, it is desirable that the embedded information can be extracted correctly even if it is inevitable that noise-like modification is added to the image.

また、密度とは、画像の単位面積あたりに、どれだけ多くの情報が埋められるかの度合いである。例えば、埋め込む情報が、画像全体の属性情報(作成者ID、作成日時など)であれば、それ程の密度は要求されないが、例えばサムネイル画像など画像自身の情報である場合、相当程度の密度が必要となる。本来、電子透かしは、情報を埋め込む代償として画像に変化を与えるものなので、画像の美しさ、見やすさ、および意味を含む画像の質が、電子透かしを入れることによって低下することは不可避なことだった。   The density is a degree of how much information is filled per unit area of the image. For example, if the information to be embedded is attribute information (creator ID, creation date, etc.) of the entire image, that density is not required, but if it is information of the image itself such as a thumbnail image, a considerable density is required. It becomes. Originally, digital watermarks give changes to images as a price for embedding information, so it is inevitable that the quality of images, including the beauty, visibility, and meaning of images, will deteriorate due to the addition of digital watermarks. It was.

特開2003−189084号公報JP 2003-189084 A 特開2001−223885号公報Japanese Patent Laid-Open No. 2001-223885

ここで、特許文献1に開示された人工画像を対象とした電子透かし技術は、画像情報から文字認識によって文字コードを抽出して埋め込むものであるため、自然画像に適用することはできなく、自然画像を扱う場合、それとは別の技術を用いる必要が生じるという欠点を有していた。   Here, since the digital watermark technique targeted for the artificial image disclosed in Patent Document 1 is to extract and embed a character code from image information by character recognition, it cannot be applied to a natural image. When dealing with images, there is a disadvantage that it is necessary to use a technique different from that.

また、特許文献2の技術では、多数のベクトル群で、わずか1bitの情報しか埋められないので、密度/画質の性能は低いと言う問題を有していた。つまり、特許文献2の技術では、耐性/画質の性能は高いが、密度/画質の性能は低いという問題があった。   Further, the technique of Patent Document 2 has a problem that the performance of density / image quality is low because only a 1-bit information can be filled with a large number of vector groups. In other words, the technique of Patent Document 2 has a problem that the tolerance / image quality performance is high, but the density / image quality performance is low.

このように、耐性および密度を高めるほど画像に大きな変化を与えることになり、画質低下を招来する。耐性と画質、密度と画質の間には、基本的にトレードオフの関係があるので、耐性/画質の性能と、密度/画質の性能の両方が同時に維持できる技術は、これまでなかった。   In this way, the greater the tolerance and density, the greater the change in the image and the lower the image quality. Since there is basically a trade-off relationship between tolerance and image quality and density and image quality, there has never been a technique that can maintain both tolerance / image quality performance and density / image quality performance at the same time.

本発明は上記の問題に鑑みてなされ、その目的は、自然画像と人工画像の両方に適用でき、また耐性/画質の性能と、密度/画質の性能の両方が同時に高い情報埋め込みが可能な画像処理装置を提供することである。   The present invention has been made in view of the above problems, and the object thereof is applicable to both natural images and artificial images, and images capable of embedding information with high tolerance / image quality performance and high density / image quality performance at the same time. It is to provide a processing device.

上述した課題を解決し、目的を達成するために、請求項1にかかる発明は、画像処理装置において、ベクトル情報により記述された画像データにおける所定の条件を満足する一対のベクトル情報に対して、前記画像データに埋め込むべき所定の埋込情報に基づいて、前記一対のベクトル情報の相対的位置関係情報を変化させることによって、前記所定の埋込情報を前記画像データに埋め込む埋込手段を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the invention according to claim 1 is directed to a pair of vector information satisfying a predetermined condition in image data described by vector information in an image processing apparatus. Embedding means for embedding the predetermined embedding information in the image data by changing relative positional relationship information of the pair of vector information based on predetermined embedding information to be embedded in the image data It is characterized by that.

請求項2にかかる発明は、請求項1に記載の画像処理装置において、前記埋込手段は、前記画像データにおける画素の画素値が同一および近傍の少なくともいずれかである画素群の境界線を画定する外周線を、複数の線分に分割し、分割された各線分を、直線および曲線の少なくともいずれかでパラメータを介する情報により記述した前記一対のベクトル情報の前記パラメータを変化させて、前記所定の埋込情報を埋め込むものであることを特徴とする。   According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the embedding unit defines a boundary line of a pixel group in which the pixel values of the pixels in the image data are the same or at least one of the vicinity. The outer peripheral line is divided into a plurality of line segments, and each of the divided line segments is changed by changing the parameters of the pair of vector information described by information via parameters in at least one of a straight line and a curved line. The embedding information is embedded.

請求項3にかかる発明は、請求項2に記載の画像処理装置において、前記埋込手段は、前記所定の条件として、前記線分の端点が、第1の線分の端点から所定距離まで延ばした外挿線上および前記外挿線の近傍の少なくともいずれかに第2の線分の端点が存在すること、および、前記外挿線と、前記第2の線分の方向がほぼ同方向であることを条件とし、前記第1および第2の線分の端点の相対的位置関係情報を変化させることによって、前記所定の埋込情報を埋め込むものであることを特徴とする。   According to a third aspect of the present invention, in the image processing apparatus according to the second aspect, as the predetermined condition, the embedding unit extends the end point of the line segment from the end point of the first line segment to a predetermined distance. The end point of the second line segment exists on at least one of the extrapolated line and the vicinity of the extrapolated line, and the direction of the extrapolated line and the second line segment is substantially the same direction. The predetermined embedding information is embedded by changing relative positional relationship information of the end points of the first and second line segments.

請求項4にかかる発明は、請求項1〜3のいずれか1つに記載の画像処理装置において、前記埋込手段は、前記一対のベクトルの相対的位置関係の変化量が、実際に出力される画像がNdpi(dot per inch)である場合、3/Nインチ以下の範囲で前記相対的位置関係情報を変化させて、前記所定の埋込情報を埋め込むものであることを特徴とする。   According to a fourth aspect of the present invention, in the image processing device according to any one of the first to third aspects, the embedding unit actually outputs a change amount of a relative positional relationship between the pair of vectors. When the image to be recorded is Ndpi (dot per inch), the relative positional relationship information is changed within a range of 3 / N inches or less, and the predetermined embedding information is embedded.

請求項5にかかる発明は、画像処理装置において、ベクトル情報により記述された画像データにおける所定の条件を満足する一対のベクトル情報から、前記一対のベクトル情報によって記述される相対的位置関係情報を抽出する抽出手段を備えたことを特徴とする。   According to a fifth aspect of the present invention, in the image processing apparatus, relative positional relationship information described by the pair of vector information is extracted from a pair of vector information satisfying a predetermined condition in the image data described by the vector information. It is characterized by having an extracting means.

請求項6にかかる発明は、請求項5に記載の画像処理装置において、前記抽出手段は、前記画像データにおける画素の画素値が同一および近傍の少なくともいずれかである画素群の境界線を画定する外周線を複数の線分に分割し、分割された各線分を、直線および曲線の少なくともいずれかでパラメータを介する情報により記述した前記一対のベクトル情報の前記パラメータから、前記相対的位置関係情報を抽出するものであることを特徴とする。   According to a sixth aspect of the present invention, in the image processing apparatus according to the fifth aspect, the extracting means defines a boundary line of a pixel group in which the pixel values of the pixels in the image data are the same or at least one of the vicinity. The peripheral position is divided into a plurality of line segments, and each of the divided line segments is described by the parameter of the pair of vector information described by the information via the parameter in at least one of a straight line and a curve. It is what is extracted.

請求項7にかかる発明は、請求項6に記載の画像処理装置において、前記抽出手段は、前記所定の条件として、前記線分の端点が、第1の線分の端点から所定距離まで延ばした外挿線上および前記外挿線の近傍の少なくともいずれかに第2の線分の端点が存在すること、および、前記外挿線と、前記第2の線分の方向がほぼ同方向であることを条件とし、前記第1および第2の線分の端点の相対的位置関係情報を抽出するものであることを特徴とする。   According to a seventh aspect of the present invention, in the image processing apparatus according to the sixth aspect, as the predetermined condition, the extraction unit extends an end point of the line segment from the end point of the first line segment to a predetermined distance. The end point of the second line segment is present on at least one of the extrapolation line and the vicinity of the extrapolation line, and the direction of the extrapolation line and the second line segment is substantially the same direction. On the condition, the relative positional relationship information of the end points of the first and second line segments is extracted.

請求項8にかかる発明は、請求項5〜7のいずれか1つに記載の画像処理装置において、前記抽出手段は、前記所定の条件として、前記一対のベクトルの相対的位置関係情報の変化量が、実際に出力される画像がNdpi(dot per inch)である場合、3/Nインチ以下の範囲で、前記相対的位置関係情報を抽出するものであることを特徴とする。   According to an eighth aspect of the present invention, in the image processing apparatus according to any one of the fifth to seventh aspects, the extraction unit changes the relative positional relationship information of the pair of vectors as the predetermined condition. However, when the actually output image is Ndpi (dot per inch), the relative positional relationship information is extracted within a range of 3 / N inches or less.

請求項9にかかる発明は、画像処理方法において、埋込手段によって、ベクトル情報により記述された画像データにおける所定の条件を満足する一対のベクトル情報に対して、前記画像データに埋め込むべき所定の埋込情報に基づいて、前記一対のベクトル情報の相対的位置関係情報を変化させることによって、前記所定の埋込情報を前記画像データに埋め込む埋込工程を含むことを特徴とする。   According to a ninth aspect of the present invention, in the image processing method, a predetermined embedding to be embedded in the image data with respect to a pair of vector information satisfying a predetermined condition in the image data described by the vector information by the embedding means. An embedding step of embedding the predetermined embedding information in the image data by changing relative positional relationship information of the pair of vector information based on embedding information.

請求項10にかかる発明は、請求項9に記載の画像処理方法において、前記埋込工程は、前記埋込手段によって、前記画像データにおける画素の画素値が同一および近傍の少なくともいずれかである画素群の境界線を画定する外周線を、複数の線分に分割し、分割された各線分を、直線および曲線の少なくともいずれかでパラメータを介する情報により記述した前記一対のベクトル情報の前記パラメータを変化させて、前記所定の埋込情報を埋め込むものであることを特徴とする。   According to a tenth aspect of the present invention, in the image processing method according to the ninth aspect, in the embedding step, the pixel value of the pixel in the image data is at least one of the same and the vicinity by the embedding unit. The parameter of the pair of vector information described by dividing an outer peripheral line defining a group boundary line into a plurality of line segments, and each divided line segment is described by information via a parameter in at least one of a straight line and a curve. The predetermined embedding information is embedded by changing.

請求項11にかかる発明は、請求項10に記載の画像処理方法において、前記埋込工程は、前記埋込手段によって、前記所定の条件として、前記線分の端点が、第1の線分の端点から所定距離まで延ばした外挿線上および前記外挿線の近傍の少なくともいずれかに第2の線分の端点が存在すること、および、前記外挿線と、前記第2の線分の方向がほぼ同方向であることを条件とし、前記第1および第2の線分の端点の相対的位置関係情報を変化させることによって、前記所定の埋込情報を埋め込むものであることを特徴とする。   According to an eleventh aspect of the present invention, in the image processing method according to the tenth aspect, in the embedding step, an end point of the line segment is set as the first line segment as the predetermined condition by the embedding unit. The end point of the second line segment exists on at least one of the extrapolation line extending from the end point to a predetermined distance and the vicinity of the extrapolation line, and the extrapolation line and the direction of the second line segment The predetermined embedding information is embedded by changing the relative positional relationship information of the end points of the first and second line segments on the condition that the two are substantially in the same direction. .

請求項12にかかる発明は、請求項9〜11のいずれか1つに記載の画像処理方法において、前記埋込工程は、前記埋込手段によって、前記一対のベクトルの相対的位置関係の変化量が、実際に出力される画像がNdpi(dot per inch)である場合、3/Nインチ以下の範囲で前記相対的位置関係情報を変化させて、前記所定の埋込情報を埋め込むものであることを特徴とする。   According to a twelfth aspect of the present invention, in the image processing method according to any one of the ninth to eleventh aspects, in the embedding step, the embedding unit changes the relative positional relationship between the pair of vectors. However, when the actually output image is Ndpi (dot per inch), the relative positional relationship information is changed within a range of 3 / N inches or less to embed the predetermined embedding information. It is characterized by.

請求項13にかかる発明は、画像処理方法において、抽出手段によって、ベクトル情報により記述された画像データにおける所定の条件を満足する一対のベクトル情報から、前記一対のベクトル情報によって記述される相対的位置関係情報を抽出する抽出工程を含むことを特徴とする。   According to a thirteenth aspect of the present invention, in the image processing method, the relative position described by the pair of vector information from the pair of vector information satisfying a predetermined condition in the image data described by the vector information by the extracting unit. It includes an extraction process for extracting the relationship information.

請求項14にかかる発明は、請求項13に記載の画像処理方法において、前記抽出工程は、前記抽出手段によって、前記画像データにおける画素の画素値が同一および近傍の少なくともいずれかである画素群の境界線を画定する外周線を複数の線分に分割し、分割された各線分を、直線および曲線の少なくともいずれかでパラメータを介する情報により記述した前記一対のベクトル情報の前記パラメータから、前記相対的位置関係情報を抽出するものであることを特徴とする。   According to a fourteenth aspect of the present invention, in the image processing method according to the thirteenth aspect, in the extraction step, a pixel group in which the pixel value of the pixel in the image data is at least one of the same and the vicinity by the extraction means The peripheral line that defines the boundary line is divided into a plurality of line segments, and each of the divided line segments is described as the relative value from the parameters of the pair of vector information described by information via parameters in at least one of a straight line and a curve. It is characterized in that target positional relationship information is extracted.

請求項15にかかる発明は、請求項14に記載の画像処理方法において、前記抽出工程は、前記抽出手段によって、前記所定の条件として、前記線分の端点が、第1の線分の端点から所定距離まで延ばした外挿線上および前記外挿線の近傍の少なくともいずれかに第2の線分の端点が存在すること、および、前記外挿線と、前記第2の線分の方向がほぼ同方向であることを条件とし、前記第1および第2の線分の端点の相対的位置関係情報を抽出するものであることを特徴とする。   According to a fifteenth aspect of the present invention, in the image processing method according to the fourteenth aspect, in the extracting step, the end point of the line segment is determined from the end point of the first line segment as the predetermined condition by the extracting unit. The end point of the second line segment exists on at least one of the extrapolated line extending to a predetermined distance and the vicinity of the extrapolated line, and the direction of the extrapolated line and the second segment is approximately The relative positional relationship information of the end points of the first and second line segments is extracted on the condition that they are in the same direction.

請求項16にかかる発明は、請求項13〜15のいずれか1つに記載の画像処理方法において、前記抽出工程は、前記抽出手段によって、前記所定の条件として、前記一対のベクトルの相対的位置関係情報の変化量が、実際に出力される画像がNdpi(dot per inch)である場合、3/Nインチ以下の範囲で、前記相対的位置関係情報を抽出するものであることを特徴とする。   According to a sixteenth aspect of the present invention, in the image processing method according to any one of the thirteenth to fifteenth aspects, the extracting step includes the relative position of the pair of vectors as the predetermined condition by the extracting unit. The relative positional relationship information is extracted within a range of 3 / N inches or less when the amount of change in the relationship information is Ndpi (dot per inch). .

請求項17にかかる発明は、プログラムであって、請求項9〜16のいずれか1つに記載の画像処理方法をコンピュータに実行させることを特徴とする。   The invention according to claim 17 is a program which causes a computer to execute the image processing method according to any one of claims 9 to 16.

請求項18にかかる発明は、コンピュータで読み取り可能な記録媒体において、請求項17に記載したプログラムを記録したことを特徴とする。   The invention according to claim 18 is characterized in that the program according to claim 17 is recorded in a computer-readable recording medium.

請求項1にかかる発明によれば、画像情報をベクトル形式の情報に変換した上で情報埋め込み処理を施すので、写真などの自然画像や文字などの人工画像の両方に適用できる。また、埋め込み処理を個々の画素でなくベクトル情報を微小変動させて施すので、画質に対する耐性の性能が高い。また、画像情報において所定の条件を満足するベクトルの対(ペア)全ての場所に埋め込むことが出来るので、画質に対する密度の性能が高い。従って、情報埋め込みに際して、埋め込み先の画像の適用性が広く、また、画質に対する耐性および密度の性能が高い。   According to the first aspect of the present invention, since the information embedding process is performed after the image information is converted into vector format information, it can be applied to both natural images such as photographs and artificial images such as characters. In addition, since the embedding process is performed by minutely changing vector information instead of individual pixels, the performance with respect to image quality is high. Further, since the image information can be embedded in all locations of vector pairs satisfying a predetermined condition, the density performance with respect to image quality is high. Therefore, when embedding information, the applicability of the image of the embedding destination is wide, and the resistance to image quality and the performance of density are high.

請求項2にかかる発明によれば、埋込手段は、画素群の境界線を画定する外周線を複数の線分に分割して、直線や曲線でパラメータを介する情報により記述してパラメータを変化させて、所定の埋込情報を埋め込むことによって、画像の種類を問わず正確に変化量を記述して埋込情報を埋め込むことが出来る。   According to the invention of claim 2, the embedding means divides the outer peripheral line that defines the boundary line of the pixel group into a plurality of line segments, and describes the parameter with a straight line or a curved line to change the parameter. Thus, by embedding predetermined embedding information, it is possible to embed embedding information by accurately describing the amount of change regardless of the type of image.

請求項3にかかる発明によれば、埋込手段は、線分の2つの端点における相対的位置関係情報を変化させて、所定の埋込情報を埋め込むことによって、画像の種類を問わず正確に変化量を記述して埋込情報を埋め込むことが出来る。   According to the invention of claim 3, the embedding unit changes the relative positional relationship information at the two end points of the line segment and embeds the predetermined embedding information, so that it can be accurately performed regardless of the type of image. Embedding information can be embedded by describing the amount of change.

請求項4にかかる発明によれば、埋込手段は、一対のベクトルの相対的位置関係の変化量が、実際に出力される画像がNdpi(dot per inch)である場合、3/Nインチ以下の範囲で相対的位置関係情報を変化させて、所定の埋込情報を埋め込むことによって、画像の劣化を抑制しながら埋込情報を埋め込むことが出来る。   According to the invention of claim 4, the embedding means has a change amount of the relative positional relationship between the pair of vectors of 3 / N inches or less when the actually output image is Ndpi (dot per inch). By embedding predetermined embedding information by changing the relative positional relationship information within the range, it is possible to embed the embedding information while suppressing image deterioration.

請求項5にかかる発明によれば、画像情報をベクトル形式の情報に変換した上で埋め込まれた情報を抽出するので、写真などの自然画像や文字などの人工画像の両方に適用できる。また、抽出処理を個々の画素でなくベクトル情報の微小変動から施すので、画質に対する耐性の性能が高い抽出となる。また、画像情報において所定の条件を満足するベクトルの対(ペア)全ての場所から抽出することが出来るので、画質に対する密度の性能が高い抽出となる。従って、情報埋め込みの適用性の広く、また、画質に対する耐性および密度の性能が高い画像から、相対的位置関係情報を抽出することができる。   According to the invention of claim 5, since the embedded information is extracted after converting the image information into vector format information, it can be applied to both natural images such as photographs and artificial images such as characters. In addition, since the extraction process is performed not from individual pixels but from minute fluctuations in vector information, extraction with high resistance to image quality is achieved. In addition, since image information can be extracted from all locations of vector pairs that satisfy a predetermined condition, extraction with high density performance with respect to image quality is achieved. Therefore, it is possible to extract relative positional relationship information from an image having wide applicability of information embedding and having high image quality tolerance and density performance.

請求項6にかかる発明によれば、抽出手段は、画素群の境界線を画定する外周線を複数の線分に分割して、直線や曲線でパラメータを介する情報により記述した一対のベクトル情報のパラメータから、相対的位置関係情報を抽出することによって、画像の種類を問わず正確に変化量から相対的位置関係情報を抽出することが出来る。   According to the invention of claim 6, the extracting means divides the outer peripheral line defining the boundary line of the pixel group into a plurality of line segments, and a pair of vector information described by information via parameters with straight lines or curves. By extracting the relative positional relationship information from the parameters, it is possible to accurately extract the relative positional relationship information from the amount of change regardless of the type of image.

請求項7にかかる発明によれば、抽出手段は、線分の2つの端点における相対的位置関係情報を抽出することによって、画像の種類を問わず正確に変化量から相対的位置関係情報を抽出することが出来る。   According to the invention of claim 7, the extracting means extracts the relative positional relationship information accurately from the amount of change regardless of the type of image by extracting the relative positional relationship information at the two end points of the line segment. I can do it.

請求項8にかかる発明によれば、抽出手段は、一対のベクトルの相対的位置関係情報の変化量が、実際に出力される画像がNdpi(dot per inch)である場合、3/Nインチ以下の範囲で、相対的位置関係情報を抽出することによって、画像の種類を問わず正確に変化量から相対的位置関係情報を抽出することが出来る。   According to the eighth aspect of the present invention, the extracting means has a change amount of the relative positional relationship information of the pair of vectors of 3 / N inches or less when the actually output image is Ndpi (dot per inch). The relative positional relationship information can be accurately extracted from the amount of change regardless of the type of image by extracting the relative positional relationship information within the range of.

請求項9にかかる発明によれば、画像情報をベクトル形式の情報に変換した上で情報埋め込み処理を施すので、写真などの自然画像や文字などの人工画像の両方に適用できる。また、埋め込み処理を個々の画素でなくベクトル情報を微小変動させて施すので、画質に対する耐性の性能が高い。また、画像情報において所定の条件を満足するベクトルの対(ペア)全ての場所に埋め込むことが出来るので、画質に対する密度の性能が高い。従って、情報埋め込みに際して、埋め込み先の画像の適用性が広く、また、画質に対する耐性および密度の性能が高い。   According to the ninth aspect of the present invention, since the information embedding process is performed after the image information is converted into vector format information, it can be applied to both natural images such as photographs and artificial images such as characters. In addition, since the embedding process is performed by minutely changing vector information instead of individual pixels, the performance with respect to image quality is high. Further, since the image information can be embedded in all locations of vector pairs satisfying a predetermined condition, the density performance with respect to image quality is high. Therefore, when embedding information, the applicability of the image of the embedding destination is wide, and the resistance to image quality and the performance of density are high.

請求項10にかかる発明によれば、埋込手段は、画素群の境界線を画定する外周線を複数の線分に分割して、直線や曲線でパラメータを介する情報により記述してパラメータを変化させて、所定の埋込情報を埋め込むことによって、画像の種類を問わず正確に変化量を記述して埋込情報を埋め込むことが出来る。   According to the tenth aspect of the present invention, the embedding means divides the outer peripheral line defining the boundary line of the pixel group into a plurality of line segments, and describes the parameter with a straight line or a curve to change the parameter. Thus, by embedding predetermined embedding information, it is possible to embed embedding information by accurately describing the amount of change regardless of the type of image.

請求項11にかかる発明によれば、埋込手段は、線分の2つの端点における相対的位置関係情報を変化させて、所定の埋込情報を埋め込むことによって、画像の種類を問わず正確に変化量を記述して埋込情報を埋め込むことが出来る。   According to the invention of claim 11, the embedding means changes the relative positional relationship information at the two end points of the line segment and embeds the predetermined embedding information, so that it can be accurately performed regardless of the type of image. Embedding information can be embedded by describing the amount of change.

請求項12にかかる発明によれば、埋込手段は、一対のベクトルの相対的位置関係の変化量が、実際に出力される画像がNdpi(dot per inch)である場合、3/Nインチ以下の範囲で相対的位置関係情報を変化させて、所定の埋込情報を埋め込むことによって、画像の劣化を抑制しながら埋込情報を埋め込むことが出来る。   According to the twelfth aspect of the present invention, the embedding means has an amount of change in the relative positional relationship between the pair of vectors of 3 / N inches or less when the actually output image is Ndpi (dot per inch). By embedding predetermined embedding information by changing the relative positional relationship information within the range, it is possible to embed the embedding information while suppressing image deterioration.

請求項13にかかる発明によれば、画像情報をベクトル形式の情報に変換した上で埋め込まれた情報を抽出するので、写真などの自然画像や文字などの人工画像の両方に適用できる。また、抽出処理を個々の画素でなくベクトル情報の微小変動から施すので、画質に対する耐性の性能が高い抽出となる。また、画像情報において所定の条件を満足するベクトルの対(ペア)全ての場所から抽出することが出来るので、画質に対する密度の性能が高い抽出となる。従って、情報埋め込みの適用性の広く、また、画質に対する耐性および密度の性能が高い画像から、相対的位置関係情報を抽出することができる。   According to the invention of claim 13, since the embedded information is extracted after converting the image information into the vector format information, it can be applied to both natural images such as photographs and artificial images such as characters. In addition, since the extraction process is performed not from individual pixels but from minute fluctuations in vector information, extraction with high resistance to image quality is achieved. In addition, since image information can be extracted from all locations of vector pairs that satisfy a predetermined condition, extraction with high density performance with respect to image quality is achieved. Therefore, it is possible to extract relative positional relationship information from an image having wide applicability of information embedding and having high image quality tolerance and density performance.

請求項14にかかる発明によれば、抽出手段は、画素群の境界線を画定する外周線を複数の線分に分割して、直線や曲線でパラメータを介する情報により記述した一対のベクトル情報のパラメータから、相対的位置関係情報を抽出することによって、画像の種類を問わず正確に変化量から相対的位置関係情報を抽出することが出来る。   According to the fourteenth aspect of the present invention, the extracting means divides the outer peripheral line defining the boundary line of the pixel group into a plurality of line segments, and includes a pair of vector information described by information via parameters with straight lines or curves. By extracting the relative positional relationship information from the parameters, it is possible to accurately extract the relative positional relationship information from the amount of change regardless of the type of image.

請求項15にかかる発明によれば、抽出手段は、線分の2つの端点における相対的位置関係情報を抽出することによって、画像の種類を問わず正確に変化量から相対的位置関係情報を抽出することが出来る。   According to the fifteenth aspect of the present invention, the extracting means extracts the relative positional relationship information accurately from the amount of change regardless of the type of image by extracting the relative positional relationship information at the two end points of the line segment. I can do it.

請求項16にかかる発明によれば、抽出手段は、一対のベクトルの相対的位置関係情報の変化量が、実際に出力される画像がNdpi(dot per inch)である場合、3/Nインチ以下の範囲で、相対的位置関係情報を抽出することによって、画像の種類を問わず正確に変化量から相対的位置関係情報を抽出することが出来る。   According to the sixteenth aspect of the present invention, the extraction means has a change amount of the relative positional relationship information of the pair of vectors of 3 / N inches or less when the actually output image is Ndpi (dot per inch). The relative positional relationship information can be accurately extracted from the amount of change regardless of the type of image by extracting the relative positional relationship information within the range of.

請求項17にかかる発明によれば、請求項9〜16のいずれか1つに記載の画像処理方法をコンピュータに実行させることができる。   According to the seventeenth aspect of the present invention, it is possible to cause a computer to execute the image processing method according to any one of the ninth to sixteenth aspects.

請求項18にかかる発明によれば、請求項17に記載したプログラムをコンピュータで読み取ることができる。   According to the invention of claim 18, the program described in claim 17 can be read by a computer.

以下に添付図面を参照して、この発明にかかる画像処理装置、画像処理方法、その方法をコンピュータに実行させるプログラム、および記録媒体の最良な実施の形態を詳細に説明する。   Exemplary embodiments of an image processing apparatus, an image processing method, a program for causing a computer to execute the method, and a recording medium according to the present invention will be explained below in detail with reference to the accompanying drawings.

(1.実施の形態1)
本発明の実施の形態1による画像処理装置は、画像情報をベクトル形式に変換した上で、埋め込むべき任意の画像をベクトルを微小変動させて電子透かしとして埋め込むことによって、自然画像および人工画像のいずれの画像にも情報埋込を可能にする。即ち、実施の形態1による画像処理装置は、所定の情報を文字あるいは自然画像に対して埋め込む電子透かしを生成する。
(1. Embodiment 1)
The image processing apparatus according to the first embodiment of the present invention converts any image information into a vector format, and then embeds an arbitrary image to be embedded as a digital watermark by minutely changing the vector, so that either a natural image or an artificial image can be obtained. It is possible to embed information in images. That is, the image processing apparatus according to the first embodiment generates a digital watermark in which predetermined information is embedded in a character or a natural image.

ここで、個々の画素でなくベクトル形式情報に対して埋め込むので、電子透かしにおける耐性/画質の性能を高めることが出来る。   Here, since embedding is performed not in individual pixels but in vector format information, it is possible to improve the durability / image quality performance in digital watermarking.

また、所定の条件を満足する対象となる画像のベクトル対全てに対して情報を埋め込むことによって、密度/画質の性能を高めることができる。   Also, density / image quality performance can be improved by embedding information in all vector pairs of images that satisfy a predetermined condition.

図1は、実施の形態1による画像処理装置の構成図である。画像処理装置100は、CPU101、CPUのプログラムやデータを記憶するROMまたはHDDである記憶部102、処理する画像データや実行プログラムなどを展開する作業メモリであるRAM103、スキャナによる紙文書のスキャニングあるいはデジタルカメラによる撮影画像を入力する画像入力部104、画像情報を記録紙に印刷出力する画像出力部105、スイッチおよびボタンを含み操作者からの操作を受け付ける操作部106、LCD(Liquid Crystal Display、液晶ディスプレイ)による表示部107、イーサネット、電話回線、無線等を接続する回線部108、および着脱可能なICカード、CD、DVD等の記憶部109を備える。   FIG. 1 is a configuration diagram of an image processing apparatus according to the first embodiment. The image processing apparatus 100 includes a CPU 101, a storage unit 102 that is a ROM or HDD that stores programs and data of the CPU, a RAM 103 that is a working memory for developing image data and execution programs to be processed, a paper document scanned by a scanner, or a digital An image input unit 104 that inputs a photographed image by a camera, an image output unit 105 that prints and outputs image information on recording paper, an operation unit 106 that includes switches and buttons and receives an operation from an operator, an LCD (Liquid Crystal Display), a liquid crystal display ), A line unit 108 for connecting an Ethernet, a telephone line, a radio, and the like, and a storage unit 109 such as a detachable IC card, CD, or DVD.

操作部106および表示部107は、操作者と画像処理装置10との間の操作に関する情報の授受を受け付ける。記憶部109によって、画像処理装置10と外部との間で情報のやり取りを行う。   The operation unit 106 and the display unit 107 accept exchange of information related to operations between the operator and the image processing apparatus 10. The storage unit 109 exchanges information between the image processing apparatus 10 and the outside.

図2は、実施の形態1による画像処理装置の機能的ブロック図である。画像処理装置100は、ビットマップ情報生成部1、ラスタ/ベクタ変換部2、情報埋込部3、ベクタ/ラスタ変換部4、画像入力部104、および画像出力部105を備える。   FIG. 2 is a functional block diagram of the image processing apparatus according to the first embodiment. The image processing apparatus 100 includes a bitmap information generation unit 1, a raster / vector conversion unit 2, an information embedding unit 3, a vector / raster conversion unit 4, an image input unit 104, and an image output unit 105.

ビットマップ画像生成部1は、スキャナなどの画像入力部104を介して入力した画像情報からビットマップ画像情報を生成する。   The bitmap image generation unit 1 generates bitmap image information from image information input via the image input unit 104 such as a scanner.

ビットマップ情報生成部1はまた、PostScriptのようなページ記述言語データをCPU101を使ってラスタライズしてビットマップ画像を作成する。ビットマップ情報生成部1はまた、電気通信回線または着脱可能な記憶部109を介して、本装置外部で作成されたビットマップ画像を取込むこともできる。   The bitmap information generation unit 1 also rasterizes page description language data such as PostScript using the CPU 101 to create a bitmap image. The bitmap information generation unit 1 can also capture a bitmap image created outside the apparatus via a telecommunication line or a removable storage unit 109.

ラスタ/ベクタ変換部2は、ビットマップ(ラスタ)形式の画像を、ベクトル形式の画像に変換する。   The raster / vector conversion unit 2 converts a bitmap (raster) format image into a vector format image.

情報埋込部3は、電子透かしとして埋め込むべき埋込み情報に基づいて、ベクトル形式の画像データを変化させる。   The information embedding unit 3 changes the image data in the vector format based on the embedding information to be embedded as a digital watermark.

ベクタ/ラスタ変換部4は、ベクトル形式の画像を、ビットマップ(ラスタ)形式の画像に変換する。   The vector / raster converter 4 converts a vector format image into a bitmap (raster) format image.

画像出力部105は、情報埋込部によって埋込情報を埋め込まれ、ベクタ/ラスタ変換部4によってラスタ変換された画像情報をプリント出力したり、回線部108や着脱可能な記憶部109に出力する。   The image output unit 105 embeds the embedded information by the information embedding unit and prints out the image information raster-converted by the vector / raster conversion unit 4 or outputs it to the line unit 108 or the removable storage unit 109. .

次に、ベクタ/ラスタ変換部2について説明する。ベクタ/ラスタ変換部2は、ベクトル形式のデータを使って、得ようとする解像度の座標空間に、仮想の外周線を引き、囲われた画素を所定の値で塗る処理を施す。   Next, the vector / raster converter 2 will be described. The vector / raster conversion unit 2 performs a process of drawing a virtual outer circumference line in a coordinate space having a resolution to be obtained and painting the enclosed pixels with a predetermined value using vector format data.

図3は、ラスタ/ベクタ変換部の機能的ブロック図である。ラスタ/ベクタ変換部2は、減色処理部21、外周線分割処理部22、およびフィッティング処理部23を有する。   FIG. 3 is a functional block diagram of the raster / vector conversion unit. The raster / vector conversion unit 2 includes a color reduction processing unit 21, a peripheral line division processing unit 22, and a fitting processing unit 23.

減色処理部21は、1画像中における画素値の種類数を減らすために減色処理を施す。画素は、カラー画像24bit/pixelであれば最大16,777,216種であり、グレースケール画像8bit/pixelであっても最大256種の値をとり得る。そこで、隣接する画素群で類似の値を取るものは、同じ値で置き換える処理を施す。ここでの電子透かしは、色情報をそれ程重要としないため、および処理の高速化と単純化のために減色処理を施す。   The color reduction processing unit 21 performs color reduction processing to reduce the number of types of pixel values in one image. A pixel has a maximum of 16,777,216 types in the case of a color image of 24 bits / pixel, and can take a maximum of 256 types of values even in the case of a grayscale image of 8 bits / pixel. Therefore, processing that replaces the same value in the adjacent pixel group is performed. In this digital watermark, color information is not so important, and color reduction processing is performed for speeding up and simplifying the processing.

図4は、画像に対する減色処理を説明する図である。ここで減色処理を施す画像401は、グレースケール画像の例であって、画素値が実際は約200種程度ある。この画像401に対して減色処理を施した場合、画像402に示したように、8種まで色を減らすことが出来る。このように画素値の種類数の多い画像に対しては、減色処理を施すことが有効である。しかしながら、最初から種類数の少ない画像、例えば文字画像のような2値画像1bit/pixelに対しては、減色処理は不要である。   FIG. 4 is a diagram for explaining a color reduction process for an image. Here, the image 401 subjected to the color reduction processing is an example of a gray scale image, and actually has about 200 kinds of pixel values. When the color reduction process is performed on the image 401, as shown in the image 402, it is possible to reduce the color to 8 types. As described above, it is effective to perform color reduction processing on an image having a large number of types of pixel values. However, color reduction processing is unnecessary for an image with a small number of types from the beginning, for example, a binary image 1 bit / pixel such as a character image.

外周線分割処理部22は、画像において同値の画素群の外周線を、複数の線分に分割する処理を施す。外周線分割処理部22は、画像における外周線を追跡し、外周線の曲率が急激に変化する点で分割を決定する。外周線の追跡は、トポロジカルにどのような経路を採用しても良く、例えば反時計方向あるいは時計方向を採用しても良く、曲率が急激に変化する点の情報を取得できればよい。   The peripheral line division processing unit 22 performs a process of dividing the peripheral line of the pixel group having the same value in the image into a plurality of line segments. The peripheral line division processing unit 22 tracks the peripheral line in the image and determines the division at a point where the curvature of the peripheral line changes rapidly. For tracking the outer circumference line, any route may be employed topologically, for example, a counterclockwise direction or a clockwise direction may be employed as long as information on a point at which the curvature changes rapidly can be acquired.

図5は、図4に示された画像に対して外周線分割処理を施すことを説明する図である。ここでは、リンゴがデジタルカメラで撮影され減色された自然画像402に対して、外周線画追跡されて全体の外周線画描かれた画像501が取得された。全体の外周線の画像501の一部分を拡大したものが画像502である。   FIG. 5 is a diagram for explaining that the peripheral line dividing process is performed on the image shown in FIG. In this case, an image 501 in which the entire peripheral line drawing is drawn is obtained by tracking the peripheral line drawing of the natural image 402 obtained by photographing the apple with a digital camera and reducing the color. An image 502 is obtained by enlarging a part of the entire outer peripheral line image 501.

なお、外周線の凸凹が激しい場合は、平滑化処理を施した後、分割線分を生成することが望ましい。   In addition, when the unevenness | corrugation of an outer periphery line is severe, after performing a smoothing process, it is desirable to produce | generate a dividing line segment.

図6は、人口画像に対して、外周線分割処理を施すことを説明する図である。図6に示した文字AおよびBの画像601に対して、外周線によって分割された画像602が取得され、その一部分602aが拡大された画像が部分拡大画像603である。   FIG. 6 is a diagram for explaining that the peripheral line dividing process is performed on the population image. An image 602 obtained by dividing the image 601 of characters A and B shown in FIG. 6 by the outer peripheral line is obtained, and an image obtained by enlarging a part 602a thereof is a partial enlarged image 603.

フィッティング処理部23は、外周線分割処理によって生成された画像における各線分を、既定の直線や曲線で近似表現する。例えば、直線、2次ベジェ曲線、あるいは3次ベジェ曲線などから、どのような線を使用して対象画像の線分を表現すべきか決定し、それらのパラメータを最適化させる。   The fitting processing unit 23 approximates each line segment in the image generated by the peripheral line dividing process with a predetermined straight line or curve. For example, from a straight line, a quadratic Bezier curve, a cubic Bezier curve, or the like, it is determined what line should be used to represent the line segment of the target image, and those parameters are optimized.

直線と見なせる場合は、その線分の両端点の座標、2次ベジェ曲線の場合は、両端点と1つの制御点の座標、3次ベジェ曲線の場合は、両端点と2つの制御点の座標で、対象の線を表現する。図5および図6に示した例は、外周線を全て直線で近似した一例である。   If it can be regarded as a straight line, the coordinates of both end points of the line segment, the coordinates of both end points and one control point in the case of a quadratic Bezier curve, and the coordinates of both end points and two control points in the case of a cubic Bezier curve Then, express the target line. The example shown in FIGS. 5 and 6 is an example in which the outer peripheral lines are all approximated by straight lines.

以上、減色処理部21、外周線分割処理部22、およびフィッティング処理部23が施すラスタ/ベクトル変換処理によって、画像データは、外周線内の画素値と、外周線上のいくつかの座標と、線の“方向”の情報とによる表現形式に変換することができる。ここで、“方向”の情報を用いるので、これをベクトル形式と呼ぶ。   As described above, the raster / vector conversion processing performed by the color reduction processing unit 21, the peripheral line division processing unit 22, and the fitting processing unit 23 causes the image data to be converted into pixel values within the peripheral line, some coordinates on the peripheral line, and a line. Can be converted into an expression format based on the “direction” information. Here, since “direction” information is used, this is called a vector format.

このようにしてベクタ/ラスタ変換部4は、ベクトル形式のデータを使って、得ようとする解像度の座標空間で、上記のようにして取得した仮想の外周線によって囲まれた画素を、所定の値で塗る。   In this way, the vector / raster converter 4 uses the data in the vector format to convert the pixels surrounded by the virtual outer peripheral line obtained as described above into a predetermined coordinate space in the resolution space to be obtained. Paint by value.

これらのベクトル/ラスタ変換プログラムは、既に市場に種々で回っており、例えばWeb上で無料で取得できるフリーウェアのプログラムであるAutoTrace(R)、あるいはPoTrace(R)を使用することによって実施の形態1による画像処理装置に適用できる。あるいは、KIP Image Processor Pro(R)(株式会社ケイアイピー製)などの市販のプログラムを適用しても良い。   These vector / raster conversion programs are already on the market, and for example, by using AutoTrace (R) or PoTrace (R), which is a freeware program that can be obtained free of charge on the Web, an embodiment is provided. 1 can be applied to the image processing apparatus. Alternatively, commercially available programs such as KIP Image Processor Pro (R) (manufactured by KIP Corporation) may be applied.

ちなみに、画像をPostScriptのようなページ記述言語データから生成する場合であれば、文字などは元々ベクトル形式で記述されているベクトル変換処理は必要ない。   Incidentally, if the image is generated from page description language data such as PostScript, the vector conversion process in which characters are originally described in the vector format is not necessary.

次に、情報埋込部3が、ラスタ/ベクタ変換部2によってベクトル形式に変換された画像情報に対して、情報埋め込み処理を施すことについて説明する。   Next, a description will be given of how the information embedding unit 3 performs information embedding processing on the image information converted into the vector format by the raster / vector converting unit 2.

情報埋込部3は、変換されたベクトル形式の画像情報の中で、所定の条件を満足する一対のベクトル(2つの線分)に対し、所定の条件を満足する範囲内で、ベクトル対の相対的位置関係を変化させる処理を施す。まず所定の条件について説明する。   The information embedding unit 3 includes a pair of vectors (two line segments) satisfying a predetermined condition in the converted vector format image information within a range satisfying the predetermined condition. A process for changing the relative positional relationship is performed. First, the predetermined conditions will be described.

図7は、ベクトル対の位置関係を変化させる処理を説明する図である。図7に示した画像701は、外周線によって分割されたものであり、画像702は、画像701におけるベクトル対の位置関係を変化させたものである。   FIG. 7 is a diagram for explaining processing for changing the positional relationship between vector pairs. An image 701 shown in FIG. 7 is divided by the outer peripheral line, and an image 702 is obtained by changing the positional relationship between vector pairs in the image 701.

画像701および702の縦横線格子は、所定の解像度におけるデジタル座標を表している。解像度が600dpi(dot per inch)であれば、座標間隔は1/600inchとなる。画像701中の点aを、現在注目している線分の端点とする。端点aから、この線分aの外挿線を所定距離まで延ばすことを考える。外挿線とは、点と点とを結ぶ線のことである。この例では、注目線分が垂直方向のものであるので、外挿線も垂直方向に延ばすこととする。   The vertical and horizontal grids of the images 701 and 702 represent digital coordinates at a predetermined resolution. If the resolution is 600 dpi (dot per inch), the coordinate interval is 1/600 inch. The point a in the image 701 is set as the end point of the line segment currently focused on. Consider extending the extrapolation line of the line segment a from the end point a to a predetermined distance. An extrapolation line is a line connecting points. In this example, since the line of interest is in the vertical direction, the extrapolated line is also extended in the vertical direction.

今ここで、5/600inchを所定距離とし、対象とする点からの外挿線の両側4/600inchの範囲内にあることを第1の条件とする。即ち、所定距離5/600inchとして点aと点bとを結ぶ線分a−bが外挿線となる。   Here, 5/600 inch is a predetermined distance, and the first condition is that it is within the range of 4/600 inch on both sides of the extrapolation line from the target point. That is, the line segment ab connecting the point a and the point b with the predetermined distance 5/600 inch is an extrapolated line.

この外挿線上には、5個の座標点が存在し、さらにその左右4/600inchの近傍(同図でグレーの区間)に、別の線分の端点が存在する。画像701中の点cや点dの端点は、この条件を満たしていないが、点eや点fの端点は、この条件を満たしている。   On this extrapolated line, there are five coordinate points, and further, there are end points of other line segments in the vicinity of the left / right 4/600 inch (gray section in the figure). The end points of the point c and the point d in the image 701 do not satisfy this condition, but the end points of the point e and the point f satisfy this condition.

さらにここで、2つの線分のそれぞれの方向が、ほぼ同方向であることが、第2の条件である。画像701の点eの端点を有する線分は、斜め方向なので、この条件を満たしていない。しかし、画像701の点fを端点として持つ線分は、注目線分と同じ垂直方向なので、この条件を満たしており、両線分は、ほぼ重なると言える。情報埋込部2は、以上の「所定の条件」を満たす2つの線分、この場合は線分aと線分fとを、情報埋め込み可能な部分として検出する。   Furthermore, the second condition is that the directions of the two line segments are substantially the same. Since the line segment having the end point of the point e in the image 701 is in an oblique direction, this condition is not satisfied. However, since the line segment having the point f of the image 701 as the end point is in the same vertical direction as the target line segment, this condition is satisfied, and it can be said that both line segments substantially overlap. The information embedding unit 2 detects two line segments satisfying the above “predetermined condition”, in this case, the line segment a and the line segment f, as portions where information can be embedded.

ここで、情報埋込部3が、任意の情報1bitを埋め込む処理について、図7の画像702を参照しながら説明する。2つの線分の対応する端点(画像702の点a、f)が検出され、この一方である点fを、埋め込み情報が0であればgに、1であればhに移動させる。つまり、注目線分の外挿線と、もう一方の線分の重なり度合いの強弱と言った相対的位置関係を、埋め込み情報に応じ変化させている。即ちこの場合、重なり度合が強い場合が0であり、弱い場合が1である。   Here, a process in which the information embedding unit 3 embeds arbitrary information 1 bit will be described with reference to an image 702 in FIG. The corresponding end points (points a and f of the image 702) of the two line segments are detected, and one of the points f is moved to g if the embedding information is 0 and to h if the embedding information is 1. That is, the relative positional relationship such as the extrapolated line of the attention line segment and the strength of the overlapping degree of the other line segment is changed according to the embedded information. That is, in this case, the case where the degree of overlap is strong is 0, and the case where it is weak is 1.

ちなみに埋め込み情報が0で、2つの線分の端点が始めからaとgであれば、移動させる必要はない。埋め込み情報が1で、aとhの場合も同様に移動させる必要はない。この場合、埋め込む画像のパターンによって、0と1とが定まっており、このようにして定まった0と1によるパターンが電子透かしとなる。   Incidentally, if the embedded information is 0 and the end points of the two line segments are a and g from the beginning, there is no need to move them. Similarly, when the embedded information is 1 and a and h, it is not necessary to move the information. In this case, 0 and 1 are determined depending on the pattern of the image to be embedded, and the pattern based on 0 and 1 thus determined becomes a digital watermark.

次に、実施の形態1による画像処理手順について説明する。図8は、実施の形態1による画像処理手順を説明するフローチャートである。画像入力部104は入力を受け付けた画像情報がビットマップ情報か否かを判定し(ステップS101)、ビットマップ情報でなければ(ステップS101のNo)、ビットマップ情報生成部1に送信して変換してビットマップ情報を生成する(ステップS102)。ビットマップ情報を生成する技術は、既に公知技術である。   Next, an image processing procedure according to the first embodiment will be described. FIG. 8 is a flowchart for explaining an image processing procedure according to the first embodiment. The image input unit 104 determines whether the received image information is bitmap information (step S101). If the image information is not bitmap information (No in step S101), the image input unit 104 transmits to the bitmap information generation unit 1 for conversion. Then, bitmap information is generated (step S102). A technique for generating bitmap information is already known.

ビットマップ情報であった場合(ステップS101のYes)、あるいはステップS102によってビットマップ情報が生成された場合、ラスタ/ベクタ変換部2が、ビットマップ情報をベクトル情報に変換し(ステップS103)、情報埋込部3は所定の情報に従って情報を埋め込む(ステップS104)。なお、この情報埋め込みステップであるステップS104については、次のフローチャートを参照しながらさらに説明する。   If it is bitmap information (Yes in step S101) or if bitmap information is generated in step S102, the raster / vector conversion unit 2 converts the bitmap information into vector information (step S103), and information The embedding unit 3 embeds information according to predetermined information (step S104). Note that step S104, which is the information embedding step, will be further described with reference to the following flowchart.

ベクタ/ラスタ変換部4は、情報埋込部3によって所定の情報が埋め込まれたベクトル形式情報を、再度、ラスタ情報に変換処理を施して、画像処理部105から画像出力する。ここで、ベクタ/ラスタ変換部4は、例えばWeb上で無料で取得できるフリーウェアのプログラムであるPoTrace(R)を適用することができる。あるいは、Vecto to Rster(R)(株式会社ケイアイピー製)などの市販のプログラムを適用することができる(ステップS105)。   The vector / raster conversion unit 4 converts the vector format information in which predetermined information is embedded by the information embedding unit 3 to raster information again, and outputs an image from the image processing unit 105. Here, the vector / raster conversion unit 4 can apply, for example, PoTrace (R), which is a freeware program that can be acquired free of charge on the Web. Alternatively, a commercially available program such as Vector to Rster (R) (manufactured by KIP Corporation) can be applied (step S105).

次に、実施の形態1による情報埋め込み手順を説明する。図9は、実施の形態による画像処理装置の情報埋込部によって情報を埋め込む手順を説明するフローチャートである。図10は、情報埋込部3によって埋め込まれた画像およびその外周線を説明する図である。   Next, an information embedding procedure according to the first embodiment will be described. FIG. 9 is a flowchart illustrating a procedure for embedding information by the information embedding unit of the image processing apparatus according to the embodiment. FIG. 10 is a diagram for explaining an image embedded by the information embedding unit 3 and its outer peripheral line.

情報埋込部3は、ベクトル形式の画像情報において、格子座標における所定の範囲において情報埋込可能な部分を埋込対象として検出する。図6を参照しながら説明すると、画像601から、画像602に示された外周線を得る。画像602の部分拡大画像603に示すように、2つの太線で表された線分603aおよびbが、上述の所定の条件を満足しているか否かを判定し(ステップS201)、この場合、画像602の部分拡大画像603に示すように、2つの太線で表された線分603aおよびbが、上述の所定の条件を満足している、即ち、端点同士が近い距離にあり、かつ線分の重なり度合が近いので、条件を満足するベクトル情報を検出したこととなる(ステップS201のYes)。   The information embedding unit 3 detects a portion where information can be embedded in a predetermined range in the lattice coordinates in the image information in the vector format as an embedding target. Explaining with reference to FIG. 6, the outer peripheral line shown in the image 602 is obtained from the image 601. As shown in the partial enlarged image 603 of the image 602, it is determined whether or not the line segments 603a and b represented by two thick lines satisfy the above-described predetermined condition (step S201). As shown in the partially enlarged image 603 of 602, the line segments 603a and b represented by two thick lines satisfy the above-described predetermined condition, that is, the end points are close to each other, and the line segment is Since the overlapping degree is close, the vector information satisfying the condition is detected (Yes in step S201).

情報埋込部3は、外挿線端点の重なり度合を検出し、検出された重なり度合に応じて情報を埋め込む。ここでは、重なり度合の高い場合は0とし、重なり度合いが低い場合は1とする。ここで情報「1」を埋め込む場合は、重なり度合が低い状態であるので、縦線603aに対して縦線603bを右の方にずらす処理を施す。この様に処理を施したベクトル画像から得たビットマップ画像が図10に示した画像601’である。画像602’aは、情報埋込後のヒットマップ画像601’の外周線の模式図である。ここで、画像602’aを部分拡大したものが画像603’であって、上の部分の縦線603’aが下の部分の縦線603’bに対して、ずれた位置に設定されていることが分かる(ステップS202)。所定の画像情報について全て埋込処理を施したか否かを判定し(ステップS203)、未だの場合はステップS202に戻り、全てについて処理を施した場合は終了する。   The information embedding unit 3 detects the overlapping degree of the extrapolation line end points, and embeds information according to the detected overlapping degree. Here, 0 is set when the degree of overlap is high, and 1 is set when the degree of overlap is low. Here, when the information “1” is embedded, since the degree of overlap is low, a process of shifting the vertical line 603b to the right with respect to the vertical line 603a is performed. A bitmap image obtained from the vector image processed in this manner is an image 601 'shown in FIG. The image 602'a is a schematic diagram of the outer periphery of the hit map image 601 'after information embedding. Here, a partially enlarged image 602′a is an image 603 ′, and the vertical line 603′a in the upper part is set at a position shifted from the vertical line 603′b in the lower part. (Step S202). It is determined whether or not all the predetermined image information has been embedded (step S203). If not, the process returns to step S202. If all the predetermined image information has been processed, the process ends.

この場合は、文字AおよびBという単純な場合を用いて説明したが、ベクトル表示形式の画像において、端点とその線分に所定の条件を課して、相対的な位置関係を0と1とで記述し、記述された0と1との情報に対して、埋め込むべき所定の情報を0と1とで表現し該当する位置で記述された0と1との情報を変化させておくと、該変化が微少な相対的な位置変化として埋め込まれるので、電子透かし情報を埋め込むことが出来る。   In this case, the simple case of the characters A and B has been described. However, in a vector display format image, a predetermined condition is imposed on the end point and its line segment, and the relative positional relationship is 0 and 1. The predetermined information to be embedded is expressed as 0 and 1 with respect to the described information of 0 and 1, and the information of 0 and 1 described at the corresponding position is changed. Since the change is embedded as a minute relative position change, digital watermark information can be embedded.

また、人工画像だけではなく、例えば図4および6に示した自然画像においても、ベクトル表現形式において、端点を有する同方向の線分の対を一定条件下で検知すれば、同様に、電子透かし情報を埋め込むことが出来る。   In addition, not only an artificial image but also a natural image shown in FIGS. 4 and 6, for example, if a pair of line segments in the same direction having end points is detected under a certain condition in a vector expression format, You can embed information.

次に、こうして得た情報が埋め込まれた画像がノイズに対して耐性があるかどうかを検討する。図11は、図10に示され情報を埋め込まれた画像をプリントしてスキャンして得た画像を説明する図である。図中、画像601”は図10での画像をプリントアウトした印刷画像である。画像602”は、プリントした画像601”をスキャナで読み取った画像から得た外周線の画像である。画像603”は、外周線の画像602”の一部分602”aを拡大した部分拡大図603”である。ここで、画像603”中に示されたように、プリントとスキャンによって画像にはノイズ状の改変604”aおよび604”bが加わっているのであるが、部分拡大603”に見られるように、情報を埋め込んだ2つの線分603”aおよび603”bは、上述の所定の条件をなお満足しており、埋め込んだ情報も正しく抽出できていることがわかる。   Next, it is examined whether an image in which information thus obtained is embedded is resistant to noise. FIG. 11 is a diagram for explaining an image obtained by printing and scanning the image shown in FIG. 10 embedded with information. In the figure, an image 601 ″ is a printed image obtained by printing out the image shown in FIG. 10. An image 602 ″ is an image of a peripheral line obtained from an image obtained by reading the printed image 601 ″ with a scanner. Is a partially enlarged view 603 ″ in which a portion 602 ″ a of the peripheral line image 602 ″ is enlarged. Here, as shown in the image 603 ″, the image is modified with noise 604 by printing and scanning. "A and 604" b are added, but as seen in the partial enlargement 603 ", the two line segments 603" a and 603 "b in which the information is embedded still satisfy the predetermined condition described above. It can be seen that the embedded information can be extracted correctly.

ここで、電子透かし技術としての性能について説明する。
(A)耐性
画像に改変を加える処理には、埋め込み情報を正しく抽出できないよう作為的に加える処理と、そうでない処理とがある。本発明を含め、一般的な電子透かしは、前者の処理に対しては十分な耐性を得ることはできない。
Here, the performance as a digital watermark technique will be described.
(A) Resistance The processing for modifying an image includes a processing for artificially adding embedded information so that it cannot be extracted correctly, and a processing for not. A general digital watermark including the present invention cannot obtain sufficient resistance to the former processing.

後者の処理としては、非可逆圧縮&伸長、プリント&スキャンなどがあり、これらの改変内容は、(a)画素単位の突発的ノイズ、(b)ドットの太り細り、(c)画像全体に及ぶ幾何学的歪み、などである。   The latter processing includes irreversible compression & decompression, printing & scanning, etc. These modifications are (a) sudden noise in pixel units, (b) dot thickening and (c) the entire image. Geometric distortion, etc.

本発明の方式は、抽出時の減色処理または外周線分割処理の過程で、突発的ノイズを排除できるので、(a)の改変に対して高い耐性を持っている。また、近接する2つのベクトルの相対的位置関係は、(b)や(c)の改変の影響を、ほとんど受けることがない。よって本発明の方式は、耐性が高いものと言える。   The method of the present invention has high resistance to the modification (a) because sudden noise can be eliminated in the process of color reduction processing or peripheral line division processing during extraction. Further, the relative positional relationship between two adjacent vectors is hardly affected by the modification of (b) and (c). Therefore, it can be said that the method of the present invention has high tolerance.

(B)密度
本発明の所定の条件を満たすベクトル対、すなわち埋め込み可能な場所は、画像中に数多く存在する。文字画像であれば、線が交差する部分には必ず存在する。画数の多い漢字などは、特に多い。自然画像であっても、図5の部分拡大に示すように、埋め込み可能な場所は、決して少なくない。このように本発明の方式は、密度が高いものと言える。
(B) Density There are many vector pairs that satisfy the predetermined conditions of the present invention, that is, places where embedding is possible. If it is a character image, it is always present at the intersection of lines. There are especially many kanji with many strokes. Even if it is a natural image, there are not a few places where it can be embedded, as shown in the partial enlargement of FIG. Thus, it can be said that the method of the present invention has a high density.

(C)画質
本発明の方式は、画像をベクトルの状態で変化させているので、画素単位に変化させる従来方式に比べ、不自然さが出にくい。線幅の均一性のような美しさは、損なわれるものの、外形形状の滑らかさが著しく損なわれるようなことは、一般には起きにくい。また変化の量も小さい。図7に示した例では、端点を最大3/600inch=1/200inchしか移動させないので、通常のパソコンのディスプレイ(100ppi程度)で等倍観察しても、この変化は現れない。このように、本発明の方式は、画質劣化が小さいと言える。
(C) Image Quality Since the method of the present invention changes the image in a vector state, it is less likely to cause unnaturalness than the conventional method in which the image is changed in units of pixels. Although beauty such as the uniformity of the line width is impaired, it is generally difficult for the smoothness of the outer shape to be significantly impaired. Also, the amount of change is small. In the example shown in FIG. 7, since the end point is moved only by a maximum of 3/600 inch = 1/200 inch, this change does not appear even if it is observed at the same magnification on a normal personal computer display (about 100 ppi). Thus, it can be said that the image quality degradation is small in the method of the present invention.

こうして、実施の形態1による画像処理装置は、自然画像であっても人工画像であっても、ベクトル形式に変換した画像情報に対して、ベクトル情報を変化させて情報埋め込みを行っているので、画像情報に所定の情報を埋め込む電子透かし方式において、従来方式より画像の適用範囲が広く、画質の劣化を抑制しながら、密度および画質が良好なものとなる。   Thus, the image processing apparatus according to the first embodiment embeds information by changing vector information to image information converted into a vector format, whether it is a natural image or an artificial image. In the digital watermark method in which predetermined information is embedded in the image information, the application range of the image is wider than that in the conventional method, and the density and the image quality are good while suppressing the deterioration of the image quality.

(2.実施の形態2)
実施の形態2による画像処理装置200が、実施の形態1と異なる点は、情報埋込部3を備えず、その代わりに情報抽出部5を備えた点であり、情報抽出部5が画像情報をベクトル形式に変換して、変換されたベクトル形式の画像情報から、対になったベクトル情報における重なり具合の情報を抽出する。対になったベクトル情報における重なり具合の情報を抽出することによって、盛り込まれた情報を抽出することができる。このようにして、画像処理装置200は、埋め込まれた電子透かしの入った情報を抽出できる。以下、実施の形態1と異なる点について主として詳細に説明する。
(2. Embodiment 2)
The image processing apparatus 200 according to the second embodiment is different from the first embodiment in that the information embedding unit 3 is not provided, but an information extracting unit 5 is provided instead. Is converted into a vector format, and information on the degree of overlap in the paired vector information is extracted from the image information in the converted vector format. By extracting information on the degree of overlap in the paired vector information, it is possible to extract the included information. In this way, the image processing apparatus 200 can extract information including an embedded digital watermark. Hereinafter, differences from the first embodiment will be mainly described in detail.

図12は、実施の形態2による画像処理装置の機能的ブロック図である。図13は、実施の形態2による画像処理手順を説明するフローチャートである。画像処理装置200は、ビットマップ画像入力部1、ラスタ/ベクタ変換部2、情報抽出部5、ベクタ/ラスタ変換部4、画像入力部104、および画像出力部105を有する。   FIG. 12 is a functional block diagram of the image processing apparatus according to the second embodiment. FIG. 13 is a flowchart for explaining an image processing procedure according to the second embodiment. The image processing apparatus 200 includes a bitmap image input unit 1, a raster / vector conversion unit 2, an information extraction unit 5, a vector / raster conversion unit 4, an image input unit 104, and an image output unit 105.

ラスタ/ベクタ変換部2は、実施の形態1の場合と同様にラスタベクトル変換処理を施し、また、埋め込み処理直後のベクトル形式の電子画像のままでも、画像と埋め込み情報の授受は可能である。この場合、画像は、SVG(Scalable Vector Graphics)のような、ベクトル形式の標準画像フォーマットで授受することとなる。   The raster / vector conversion unit 2 performs raster vector conversion processing in the same manner as in the first embodiment, and can transmit and receive images and embedded information even with a vector-format electronic image immediately after the embedding processing. In this case, the images are exchanged in a standard image format such as SVG (Scalable Vector Graphics).

情報抽出部5は、所定の条件を満足する2つの線分からなる一対のベクトルの相対的位置関係から情報を抽出する。所定の条件とは、既に説明した通りである。一対のベクトルから得た0と1とからなる情報を、所定の0と1とからなる情報と比較することによって、実際に透かしが盛り込まれた画像であるか否かが判定できる。   The information extraction unit 5 extracts information from the relative positional relationship between a pair of vectors composed of two line segments that satisfy a predetermined condition. The predetermined condition is as already described. By comparing the information consisting of 0 and 1 obtained from a pair of vectors with the information consisting of predetermined 0 and 1, it can be determined whether or not the image is actually an image with a watermark.

実施の形態1においては、情報埋込部3が、端点を有する線分の対の位置関係によって、0と1とを判定し、盛り込むべき情報に対応して対の相対的な位置を変位させて情報を盛り込んだのに対して、実施の形態2における情報抽出部5は、読み取ったベクトル形式の画像情報から、端点を有する線分の対の位置関係によって、0と1とからなる情報を抽出することができるので、実際に電子透かしを検出する装置に適用する場合には、この抽出した情報に盛り込むべき透かしの情報パターンが含まれているかどうかを判定すれば電子透かしの有無を判定できる。   In the first embodiment, the information embedding unit 3 determines 0 and 1 based on the positional relationship between the pair of line segments having end points, and displaces the relative position of the pair corresponding to the information to be included. In contrast, the information extraction unit 5 according to the second embodiment extracts information consisting of 0 and 1 from the read vector format image information according to the positional relationship between the pair of line segments having end points. Since it can be extracted, when it is applied to an apparatus that actually detects a digital watermark, the presence or absence of the digital watermark can be determined by determining whether or not the extracted information includes a watermark information pattern to be included. .

図13は、実施の形態2による画像処理装置による画像処理手順を説明するフローチャートである。ステップS301〜ステップS303までは、図8において説明したステップS101〜ステップS103と同じであるので、説明を省略する。   FIG. 13 is a flowchart illustrating an image processing procedure performed by the image processing apparatus according to the second embodiment. Steps S301 to S303 are the same as steps S101 to S103 described in FIG.

情報抽出部5は、ベクトル形式の画像情報に対して、透かし情報を抽出する。即ち、例えば、図7に示した端点aを有する一方の線分に対する端点fを有する他方の線分は、濃いグレーの領域703内部にあれば情報が埋め込まれている場合の情報は0であり、薄いグレーの領域にあれば情報が埋め込まれている場合の情報は1と判定する(ステップS304)。こうして、情報抽出部5は電子透かしが盛り込まれているか否かを判定できる。   The information extraction unit 5 extracts watermark information for image information in vector format. That is, for example, if the other line segment having the end point f with respect to one line segment having the end point a shown in FIG. 7 is within the dark gray region 703, the information when the information is embedded is 0. If the information is embedded in the light gray area, it is determined that the information is 1 (step S304). In this way, the information extraction unit 5 can determine whether or not a digital watermark is included.

図14は、情報埋込のためのベクトル変位の他の例を説明する図である。本発明は、以上の実施の形態に限定するものではない。例えば、図7に示した例では、情報埋め込みによって端点だけでなく線分全体を平行移動させていたが、図14に示すように、端点だけを移動させてもよい。この様な変位であれば、各格子点で独立に埋め込み処理を施すことが出来る。   FIG. 14 is a diagram illustrating another example of vector displacement for information embedding. The present invention is not limited to the above embodiment. For example, in the example shown in FIG. 7, not only the end points are translated by the information embedding, but the entire line segment is translated, but only the end points may be moved as shown in FIG. With such a displacement, the embedding process can be performed independently at each lattice point.

外挿線も、線分の端点における接線方向だけでなく、図14の画像1402に示すように、線分1402aの曲率に添った方向に延ばした曲線1402bを対象としてもよい。こうすれば、所定の条件を満たす場所が増える。   The extrapolated line is not limited to the tangential direction at the end point of the line segment, but may be a curve 1402b extending in a direction along the curvature of the line segment 1402a as shown in an image 1402 in FIG. This increases the number of places that satisfy the predetermined condition.

また、図7の端点aに対するもう一方の端点が、fやhのような位置にあっても、抽出処理の後、gの位置に変えた画像を作成してもよい。これによって、画像を埋め込み前の状態に戻せる場合がある。これは、2つの端点が埋め込み前には、aとgの位置であった可能性が高いからである。   In addition, even if the other end point with respect to the end point a in FIG. 7 is at a position such as f or h, an image that is changed to the position of g after the extraction processing may be created. As a result, the image may be returned to the state before embedding. This is because there is a high possibility that the two end points were at positions a and g before embedding.

このようにして、画像処理装置200は、埋め込まれた情報を抽出し、電子透かしが埋め込まれていた場合には、抽出した情報を埋め込み情報と比較することによって、電子透かしを判定することが出来る。   In this way, the image processing apparatus 200 can extract the embedded information, and when the digital watermark is embedded, the digital processing can be determined by comparing the extracted information with the embedded information. .

本発明の画像処理装置は、文字などの人工画像および風景の写真撮影のような自然画像などどんな画像であっても、ベクトル形式に変換した上で情報埋め込み処理を施し、かつ抽出処理を施すので、自然画像と人工画像の両方に情報盛り込み、および抽出を実行できる。   Since the image processing apparatus of the present invention converts any image such as an artificial image such as a character or a natural image such as a landscape photograph into a vector format, it performs an information embedding process and an extraction process. Incorporation of information into both natural images and artificial images and extraction can be performed.

また、情報の埋め込みにおいては個々の画素でなくベクトルを微小変動させているので、画質の低下を抑制しながら、耐性/画質の性能が高く、所定の条件を満足するベクトル対全ての場所に埋めているので、密度/画質の性能が高い情報埋め込みを行うことができる。   In addition, since the information is embedded in the vector, not the individual pixels, but the vector is minutely changed, so that the deterioration of the image quality is suppressed and the performance of the tolerance / image quality is high and the vector pair satisfying the predetermined condition is embedded in all places. Therefore, it is possible to embed information with high density / image quality performance.

(3.ハードウェア構成など)
実施の形態にかかる画像処理装置のハードウェア構成について、図1を参照して説明すると、CPU101は、画像処理装置の画像処理制御の全体制御を行うものである。ROMおよびHDD102は、プログラムやデータの格納用メモリとして用いる読み出し専用のメモリであり、RAM103は、プログラムやデータの展開用メモリ、画像処理時の画像描画メモリなどとして用いる書き込みおよび読み出し可能なメモリである。
(3. Hardware configuration etc.)
A hardware configuration of the image processing apparatus according to the embodiment will be described with reference to FIG. 1. The CPU 101 performs overall control of image processing control of the image processing apparatus. The ROM and the HDD 102 are read-only memories that are used as memory for storing programs and data, and the RAM 103 is a writable and readable memory that is used as a memory for developing programs and data, an image drawing memory at the time of image processing, and the like. .

本実施形態の画像処理装置で実行される画像処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。   The image processing program executed by the image processing apparatus of the present embodiment is a file in an installable or executable format, such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk), or the like. You may comprise so that it may record and provide on a computer-readable recording medium.

さらに、本実施形態の画像処理装置で実行される画像処理プログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良く、また、インターネット等のネットワーク経由で提供または配布するように構成しても良い。   Furthermore, the image processing program executed by the image processing apparatus of the present embodiment may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. Alternatively, it may be configured to be provided or distributed via a network such as the Internet.

本実施の形態の画像処理装置で実行される画像処理プログラムは、上述した各部(ビットマップ情報生成部、ラスタ/ベクタ変換部、情報埋込部、ベクタ/ラスタ変換部、および情報抽出部等)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記ROMから画像処理プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、ビットマップ情報生成部、ラスタ/ベクタ変換部、情報埋込部、ベクタ/ラスタ変換部、および情報抽出部等が主記憶装置上に生成されるようになっている。   The image processing program executed by the image processing apparatus according to the present embodiment includes the above-described units (bitmap information generation unit, raster / vector conversion unit, information embedding unit, vector / raster conversion unit, information extraction unit, etc.). As the actual hardware, the CPU (processor) reads the image processing program from the ROM and executes it to load each unit on the main storage device, and the bitmap information generation unit, A raster / vector conversion unit, an information embedding unit, a vector / raster conversion unit, an information extraction unit, and the like are generated on the main memory.

以上のように、本発明にかかる画像処理装置、画像処理方法、その方法をコンピュータに実行させるプログラム、および記録媒体は、画像処理技術に有用であり、特に画像情報に対して所定の情報を電子透かしとして埋め込み、また電子透かしを抽出するための画像処理技術に有用である。   As described above, the image processing apparatus, the image processing method, the program for causing the computer to execute the method, and the recording medium according to the present invention are useful for the image processing technology. It is useful as an image processing technique for embedding as a watermark and extracting a digital watermark.

実施の形態1による画像処理装置の構成図である。1 is a configuration diagram of an image processing apparatus according to Embodiment 1. FIG. 実施の形態1による画像処理装置の機能的ブロック図である。1 is a functional block diagram of an image processing apparatus according to Embodiment 1. FIG. ラスタ/ベクタ変換部の機能的ブロック図である。It is a functional block diagram of a raster / vector conversion unit. 画像に対する減色処理を説明する図である。It is a figure explaining the color reduction process with respect to an image. 図4に示された画像に対して外周線分割処理を施すことを説明する図である。It is a figure explaining performing an outer periphery line division | segmentation process with respect to the image shown by FIG. 人口画像に対して、外周線分割処理を施すことを説明する図であるIt is a figure explaining performing a perimeter line division processing to a population image ベクトル対の位置関係を変化させる処理を説明する図である。It is a figure explaining the process which changes the positional relationship of a vector pair. 実施の形態1による画像処理手順を説明するフローチャートである。5 is a flowchart for explaining an image processing procedure according to the first embodiment. 実施の形態による画像処理装置の情報埋込部によって情報を埋め込む手順を説明するフローチャートである。It is a flowchart explaining the procedure of embedding information by the information embedding part of the image processing apparatus by embodiment. 情報埋込部3によって埋め込まれた画像およびその外周線を説明する図である。It is a figure explaining the image embedded by the information embedding part 3, and its outer periphery. 図10に示され情報を埋め込まれた画像をプリントしてスキャンして得た画像を説明する図である。It is a figure explaining the image obtained by printing and scanning the image which was shown by FIG. 10 and embedded information. 実施の形態2による画像処理装置の機能的ブロック図である。6 is a functional block diagram of an image processing apparatus according to Embodiment 2. FIG. 実施の形態2による画像処理手順を説明するフローチャートである。10 is a flowchart illustrating an image processing procedure according to the second embodiment. 情報埋込のためのベクトル変位の他の例を説明する図である。It is a figure explaining the other example of the vector displacement for information embedding.

符号の説明Explanation of symbols

1 ビットマップ情報生成部
2 ラスタ/ベクタ変換部
3 情報埋込部
4 ベクタ/ラスタ変換部
5 情報抽出部
21 減色処理部
22 外周線分割処理部
23 フィッティング処理部
104 画像入力部
105 画像出力部
100、200 画像処理装置


DESCRIPTION OF SYMBOLS 1 Bitmap information generation part 2 Raster / vector conversion part 3 Information embedding part 4 Vector / raster conversion part 5 Information extraction part 21 Color reduction process part 22 Peripheral line division | segmentation process part 23 Fitting process part 104 Image input part 105 Image output part 100 200 Image processing device


Claims (18)

ベクトル情報により記述された画像データにおける所定の条件を満足する一対のベクトル情報に対して、前記画像データに埋め込むべき所定の埋込情報に基づいて、前記一対のベクトル情報の相対的位置関係情報を変化させることによって、前記所定の埋込情報を前記画像データに埋め込む埋込手段を備えたことを特徴とする画像処理装置。   Based on predetermined embedding information to be embedded in the image data for a pair of vector information satisfying a predetermined condition in the image data described by the vector information, the relative positional relationship information of the pair of vector information is An image processing apparatus comprising an embedding unit that embeds the predetermined embedding information in the image data by changing. 前記埋込手段は、前記画像データにおける画素の画素値が同一および近傍の少なくともいずれかである画素群の境界線を画定する外周線を、複数の線分に分割し、分割された各線分を、直線および曲線の少なくともいずれかでパラメータを介する情報により記述した前記一対のベクトル情報の前記パラメータを変化させて、前記所定の埋込情報を埋め込むものであることを特徴とする請求項1に記載の画像処理装置。   The embedding unit divides an outer peripheral line that defines a boundary line of a pixel group in which the pixel value of the pixel in the image data is the same and / or the vicinity thereof into a plurality of line segments, and each divided line segment is divided 2. The predetermined embedding information is embedded by changing the parameters of the pair of vector information described by information via parameters in at least one of a straight line and a curve. Image processing apparatus. 前記埋込手段は、前記所定の条件として、前記線分の端点が、第1の線分の端点から所定距離まで延ばした外挿線上および前記外挿線の近傍の少なくともいずれかに第2の線分の端点が存在すること、および、前記外挿線と、前記第2の線分の方向がほぼ同方向であることを条件とし、
前記第1および第2の線分の端点の相対的位置関係情報を変化させることによって、前記所定の埋込情報を埋め込むものであることを特徴とした請求項2に記載の画像処理装置。
The embedding means has a second condition that the end point of the line segment is at least one of an extrapolation line extending from the end point of the first line segment to a predetermined distance and the vicinity of the extrapolation line as the predetermined condition. On condition that an end point of the line segment exists, and that the extrapolated line and the direction of the second line segment are substantially the same direction,
The image processing apparatus according to claim 2, wherein the predetermined embedding information is embedded by changing relative positional relationship information of end points of the first and second line segments.
前記埋込手段は、前記一対のベクトルの相対的位置関係の変化量が、実際に出力される画像がNdpi(dot per inch)である場合、3/Nインチ以下の範囲で前記相対的位置関係情報を変化させて、前記所定の埋込情報を埋め込むものであることを特徴とする請求項1〜3のいずれか1つに記載の画像処理装置。   The embedding means has the relative positional relationship within a range of 3 / N inch or less when the change amount of the relative positional relationship between the pair of vectors is Ndpi (dot per inch). The image processing apparatus according to claim 1, wherein the predetermined embedding information is embedded by changing information. ベクトル情報により記述された画像データにおける所定の条件を満足する一対のベクトル情報から、前記一対のベクトル情報によって記述される相対的位置関係情報を抽出する抽出手段を備えたことを特徴とする画像処理装置。   Image processing comprising: extraction means for extracting relative positional relationship information described by a pair of vector information from a pair of vector information satisfying a predetermined condition in image data described by the vector information apparatus. 前記抽出手段は、前記画像データにおける画素の画素値が同一および近傍の少なくともいずれかである画素群の境界線を画定する外周線を複数の線分に分割し、分割された各線分を、直線および曲線の少なくともいずれかでパラメータを介する情報により記述した前記一対のベクトル情報の前記パラメータから、前記相対的位置関係情報を抽出するものであることを特徴とする請求項5に記載の画像処理装置。   The extraction unit divides an outer peripheral line that defines a boundary line of a pixel group in which the pixel values of the pixels in the image data are at least one of the same and nearby, into a plurality of line segments, and each of the divided line segments is a straight line 6. The image processing apparatus according to claim 5, wherein the relative positional relationship information is extracted from the parameters of the pair of vector information described by information via parameters in at least one of a curve and a curve. . 前記抽出手段は、前記所定の条件として、前記線分の端点が、第1の線分の端点から所定距離まで延ばした外挿線上および前記外挿線の近傍の少なくともいずれかに第2の線分の端点が存在すること、および、前記外挿線と、前記第2の線分の方向がほぼ同方向であることを条件とし、
前記第1および第2の線分の端点の相対的位置関係情報を抽出するものであることを特徴とした請求項6に記載の画像処理装置。
The extraction means may include a second line on the extrapolation line extending from the end point of the first line segment to a predetermined distance and in the vicinity of the extrapolation line as the predetermined condition. On the condition that there is an end point of the minute, and that the extrapolated line and the direction of the second line segment are substantially the same direction,
The image processing apparatus according to claim 6, wherein relative position relationship information of end points of the first and second line segments is extracted.
前記抽出手段は、前記所定の条件として、前記一対のベクトルの相対的位置関係情報の変化量が、実際に出力される画像がNdpi(dot per inch)である場合、3/Nインチ以下の範囲で、前記相対的位置関係情報を抽出するものであることを特徴とした請求項5〜7のいずれか1つに記載の画像処理装置。   The extraction means has, as the predetermined condition, a change amount of relative positional relationship information of the pair of vectors in a range of 3 / N inches or less when an actually output image is Ndpi (dot per inch). The image processing apparatus according to claim 5, wherein the relative positional relationship information is extracted. 埋込手段によって、ベクトル情報により記述された画像データにおける所定の条件を満足する一対のベクトル情報に対して、前記画像データに埋め込むべき所定の埋込情報に基づいて、前記一対のベクトル情報の相対的位置関係情報を変化させることによって、前記所定の埋込情報を前記画像データに埋め込む埋込工程を含むことを特徴とする画像処理方法。   Relative to the pair of vector information based on the predetermined embedding information to be embedded in the image data with respect to the pair of vector information satisfying a predetermined condition in the image data described by the vector information by the embedding means An image processing method comprising an embedding step of embedding the predetermined embedding information in the image data by changing target positional relationship information. 前記埋込工程は、前記埋込手段によって、前記画像データにおける画素の画素値が同一および近傍の少なくともいずれかである画素群の境界線を画定する外周線を、複数の線分に分割し、分割された各線分を、直線および曲線の少なくともいずれかでパラメータを介する情報により記述した前記一対のベクトル情報の前記パラメータを変化させて、前記所定の埋込情報を埋め込むものであることを特徴とする請求項9に記載の画像処理方法。   In the embedding step, the embedding unit divides an outer peripheral line that defines a boundary line of a pixel group in which the pixel value of the pixel in the image data is the same and / or the vicinity thereof into a plurality of line segments, Each of the divided line segments is embedded in the predetermined embedding information by changing the parameter of the pair of vector information described by information via the parameter in at least one of a straight line and a curve. The image processing method according to claim 9. 前記埋込工程は、前記埋込手段によって、前記所定の条件として、前記線分の端点が、第1の線分の端点から所定距離まで延ばした外挿線上および前記外挿線の近傍の少なくともいずれかに第2の線分の端点が存在すること、および、前記外挿線と、前記第2の線分の方向がほぼ同方向であることを条件とし、
前記第1および第2の線分の端点の相対的位置関係情報を変化させることによって、前記所定の埋込情報を埋め込むものであることを特徴とした請求項10に記載の画像処理方法。
In the embedding step, as the predetermined condition, the embedding unit includes at least an extrapolation line extending from the end point of the first line segment to a predetermined distance and in the vicinity of the extrapolation line as the predetermined condition. On the condition that the end point of the second line segment exists in any one of the above, and that the direction of the extrapolated line and the second line segment are substantially the same direction,
The image processing method according to claim 10, wherein the predetermined embedding information is embedded by changing relative positional relationship information of end points of the first and second line segments.
前記埋込工程は、前記埋込手段によって、前記一対のベクトルの相対的位置関係の変化量が、実際に出力される画像がNdpi(dot per inch)である場合、3/Nインチ以下の範囲で前記相対的位置関係情報を変化させて、前記所定の埋込情報を埋め込むものであることを特徴とする請求項9〜11のいずれか1つに記載の画像処理方法。   In the embedding step, the amount of change in the relative positional relationship between the pair of vectors by the embedding unit is within a range of 3 / N inches or less when an actually output image is Ndpi (dot per inch). 12. The image processing method according to claim 9, wherein the predetermined embedded information is embedded by changing the relative positional relationship information. 抽出手段によって、ベクトル情報により記述された画像データにおける所定の条件を満足する一対のベクトル情報から、前記一対のベクトル情報によって記述される相対的位置関係情報を抽出する抽出工程を含むことを特徴とする画像処理方法。   Including an extraction step of extracting relative positional relationship information described by the pair of vector information from a pair of vector information satisfying a predetermined condition in the image data described by the vector information by an extraction unit. Image processing method. 前記抽出工程は、前記抽出手段によって、前記画像データにおける画素の画素値が同一および近傍の少なくともいずれかである画素群の境界線を画定する外周線を複数の線分に分割し、分割された各線分を、直線および曲線の少なくともいずれかでパラメータを介する情報により記述した前記一対のベクトル情報の前記パラメータから、前記相対的位置関係情報を抽出するものであることを特徴とする請求項13に記載の画像処理方法。   In the extraction step, the extraction unit divides an outer peripheral line defining a boundary line of a pixel group in which the pixel value of the pixel in the image data is the same and / or the vicinity thereof into a plurality of line segments. 14. The relative positional relationship information is extracted from the parameters of the pair of vector information in which each line segment is described by information via parameters in at least one of a straight line and a curve. The image processing method as described. 前記抽出工程は、前記抽出手段によって、前記所定の条件として、前記線分の端点が、第1の線分の端点から所定距離まで延ばした外挿線上および前記外挿線の近傍の少なくともいずれかに第2の線分の端点が存在すること、および、前記外挿線と、前記第2の線分の方向がほぼ同方向であることを条件とし、
前記第1および第2の線分の端点の相対的位置関係情報を抽出するものであることを特徴とした請求項14に記載の画像処理方法。
In the extraction step, as the predetermined condition, at least one of the end point of the line segment extending from the end point of the first line segment to a predetermined distance and the vicinity of the extrapolation line is performed by the extracting unit. On the condition that the end point of the second line segment exists, and that the extrapolated line and the direction of the second line segment are substantially the same direction,
The image processing method according to claim 14, wherein the relative positional relationship information of the end points of the first and second line segments is extracted.
前記抽出工程は、前記抽出手段によって、前記所定の条件として、前記一対のベクトルの相対的位置関係情報の変化量が、実際に出力される画像がNdpi(dot per inch)である場合、3/Nインチ以下の範囲で、前記相対的位置関係情報を抽出するものであることを特徴とした請求項13〜15のいずれか1つに記載の画像処理方法。   In the extraction step, the amount of change in the relative positional relationship information of the pair of vectors is Ndpi (dot per inch) as the predetermined condition by the extraction unit. 16. The image processing method according to claim 13, wherein the relative positional relationship information is extracted within a range of N inches or less. 請求項9〜16のいずれか1つに記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。   A program causing a computer to execute the image processing method according to any one of claims 9 to 16. 請求項17に記載したプログラムを記録したことを特徴とするコンピュータで読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 17 is recorded.
JP2005047595A 2005-02-23 2005-02-23 Image processing apparatus, image processing method, program for allowing computer to execute the method, and recording medium Pending JP2006237858A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005047595A JP2006237858A (en) 2005-02-23 2005-02-23 Image processing apparatus, image processing method, program for allowing computer to execute the method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005047595A JP2006237858A (en) 2005-02-23 2005-02-23 Image processing apparatus, image processing method, program for allowing computer to execute the method, and recording medium

Publications (1)

Publication Number Publication Date
JP2006237858A true JP2006237858A (en) 2006-09-07

Family

ID=37045053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005047595A Pending JP2006237858A (en) 2005-02-23 2005-02-23 Image processing apparatus, image processing method, program for allowing computer to execute the method, and recording medium

Country Status (1)

Country Link
JP (1) JP2006237858A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010157993A (en) * 2008-12-31 2010-07-15 Mitsubishi Electric Research Laboratories Inc Method for embedding message into document, and method for embedding message into document using distance field
EP2402885A1 (en) 2010-06-30 2012-01-04 Ricoh Company, Ltd. Image processing apparatus and method
CN101877119B (en) * 2009-11-20 2012-01-11 南京师范大学 Data format adaptive method for embedding and extracting GIS vector data watermark
US8542937B2 (en) 2006-12-22 2013-09-24 Ricoh Company, Ltd. Image processing apparatus, image processing method, computer program, and information storage medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8542937B2 (en) 2006-12-22 2013-09-24 Ricoh Company, Ltd. Image processing apparatus, image processing method, computer program, and information storage medium
JP2010157993A (en) * 2008-12-31 2010-07-15 Mitsubishi Electric Research Laboratories Inc Method for embedding message into document, and method for embedding message into document using distance field
CN101877119B (en) * 2009-11-20 2012-01-11 南京师范大学 Data format adaptive method for embedding and extracting GIS vector data watermark
EP2402885A1 (en) 2010-06-30 2012-01-04 Ricoh Company, Ltd. Image processing apparatus and method
US8587837B2 (en) 2010-06-30 2013-11-19 Ricoh Company, Ltd. Image processing apparatus embedding additional information in document data

Similar Documents

Publication Publication Date Title
JP5015540B2 (en) Digital watermark embedding device and detection device
JP4310288B2 (en) Image processing apparatus and method, program, and storage medium
JP4510092B2 (en) Digital watermark embedding and detection
JP5137759B2 (en) Image processing device
JP2010187376A (en) Resizing digital document image
JP5049920B2 (en) Image processing apparatus and image processing method
JP2006050551A (en) Image processing apparatus, image processing method, program and storage medium
JP2009071626A (en) Image processor, image processing method, image processing program, and recording medium
JP4631900B2 (en) Information processing apparatus, information processing system, and information processing program
JP2006237858A (en) Image processing apparatus, image processing method, program for allowing computer to execute the method, and recording medium
JP5067882B2 (en) Image processing apparatus, image processing method, and program
JP2010056691A (en) Device and method for processing image
JP5335581B2 (en) Image processing apparatus, image processing method, and program
JP4873554B2 (en) Image distribution apparatus and image distribution method
JP5111242B2 (en) Image processing apparatus and method
JP2008042345A (en) Image processing method and image processor
JP3952188B2 (en) Image interpolation apparatus, image interpolation method, and image interpolation program
JP2007109177A (en) Image processing apparatus, its control method, and program
JP4164458B2 (en) Information processing apparatus and method, computer program, and computer-readable storage medium
JP2007312049A (en) Information embedding processing system, additional information embedding device, and additional information restoring device
JP2008042346A (en) Image processing method and image processor
JP4872715B2 (en) Image processing apparatus and program
JP4861250B2 (en) Image processing apparatus and control method thereof
JP2009141525A (en) Apparatus and method of processing image
JP2008206037A (en) Image processing apparatus and image processing program