JP2011211411A - Encoding device, encoding method, and encoding program - Google Patents

Encoding device, encoding method, and encoding program Download PDF

Info

Publication number
JP2011211411A
JP2011211411A JP2010075944A JP2010075944A JP2011211411A JP 2011211411 A JP2011211411 A JP 2011211411A JP 2010075944 A JP2010075944 A JP 2010075944A JP 2010075944 A JP2010075944 A JP 2010075944A JP 2011211411 A JP2011211411 A JP 2011211411A
Authority
JP
Japan
Prior art keywords
image data
blocks
pair
unit
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010075944A
Other languages
Japanese (ja)
Inventor
Genta Suzuki
源太 鈴木
Nobuyasu Yamaguchi
伸康 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010075944A priority Critical patent/JP2011211411A/en
Publication of JP2011211411A publication Critical patent/JP2011211411A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve probability to decode correct information from an image.SOLUTION: An encoding device divides image data into a plurality of blocks, and extracts a coincidence pair block being the pair block coinciding with prescribed determination reference among the pair blocks being the pairs of two adjacent blocks in the divided image data. The encoding device corrects small image data which are data forming a part of the image formed by the divided image data and forming an image different from an image forming a background, and extracts the coincidence pair block from the image data after the correction of the small image data. The encoding device performs comparison concerning the number of the coincidence pair blocks so as to select the image data with the smaller number of extracted coincidence pair blocks after comparison with the other data. The encoding device embeds information in the selected image data based on a magnitude relation of a feature quantity between the two blocks of the pair block.

Description

本発明は、エンコード装置、エンコード方法及びエンコードプログラムに関する。   The present invention relates to an encoding apparatus, an encoding method, and an encoding program.

画像データに情報を埋め込み、画像データに埋め込まれた情報を読み出すステガノグラフィ技術がある。情報が埋め込まれた画像データは印刷される。利用者は、カメラ付き携帯電話などを用いて、印刷画像から情報を読み出す。画像データに情報を埋め込むことは「エンコード」とも称され、画像データに埋め込まれた情報を読み出すことは「デコード」とも称される。   There is a steganography technique for embedding information in image data and reading out the information embedded in the image data. The image data in which the information is embedded is printed. The user reads information from the printed image using a camera-equipped mobile phone or the like. Embedding information in image data is also called “encoding”, and reading information embedded in image data is also called “decoding”.

例えば、エンコードを実行するエンコード装置は、画像データを複数のブロックに分割し、隣接する2つのブロックのペアであるペアブロックの特徴量の大小関係を調整することで、「0」又は「1」の情報を埋め込む。より詳細な一例をあげて説明すると、エンコード装置は、「1」を埋め込む場合には、ペアブロックの左側にあるブロックの特徴量よりも右側にあるブロックの特徴量が大きくなるように、ペアブロックの特徴量を調整する。また、エンコード装置は、「0」を埋め込む場合には、ペアブロックの左側にあるブロックの特徴量が右側にあるブロックの特徴量以下になるように、ペアブロックの特徴量を調整する。エンコード装置は、特徴量として、例えば、ブロック内にある画素の特定色の平均濃度や彩度などを用いる。   For example, an encoding apparatus that performs encoding divides image data into a plurality of blocks, and adjusts the magnitude relationship between the feature amounts of paired blocks that are pairs of two adjacent blocks, thereby obtaining “0” or “1”. Embed the information. To explain with a more detailed example, the encoding apparatus, when embedding “1”, makes the feature quantity of the block on the right side larger than the feature quantity of the block on the left side of the pair block. Adjust the feature amount. In addition, when embedding “0”, the encoding apparatus adjusts the feature amount of the pair block so that the feature amount of the block on the left side of the pair block is equal to or less than the feature amount of the block on the right side. The encoding device uses, for example, an average density or saturation of a specific color of a pixel in a block as a feature amount.

また、例えば、エンコード装置は、ペアブロックの特徴量の大小関係と埋め込まれる情報を示す特徴量の大小関係とが一致せず、ペアブロックの2つのブロック間の特徴量の差が所定値以上ある場合には、ペアブロックの特徴量の大小関係を調整しない。つまり、エンコード装置は、情報を埋め込むと、所定値以上特徴量が変化するように調整することになる場合には、情報を埋め込まない。例えば、エンコード装置は、「0」を埋め込む場合に、ペアブロックの特徴量の大小関係が「0」を示す大小関係と一致せず、特徴量の差が所定値以上である場合には、特徴量を調整しない。この場合、「0」を埋め込まれるはずのペアブロックの特徴量はそのままであり、エンコードされると「1」が読み出される。   In addition, for example, the encoding device does not match the magnitude relationship between the feature amounts of the pair blocks and the feature relationship indicating the information to be embedded, and the difference in the feature amounts between the two blocks of the pair block is greater than or equal to a predetermined value. In this case, the magnitude relationship between the feature values of the pair blocks is not adjusted. In other words, the encoding apparatus does not embed information when the information is embedded so that the feature amount is adjusted to change by a predetermined value or more. For example, when embedding “0”, the encoding device does not match the magnitude relationship between the feature quantities of the pair block and does not match the magnitude relationship indicating “0”, and the feature quantity difference is equal to or greater than a predetermined value. Do not adjust the amount. In this case, the feature amount of the pair block that should be embedded with “0” remains as it is, and “1” is read out when encoded.

デコード時に、多数決の処理や誤り訂正処理を実行するデコード装置がある。多数決の処理を例に説明する。例えば、エンコード装置は、同じ情報を埋め込む処理を複数の場所でそれぞれ実行する。その上で、デコード装置は、複数の場所をそれぞれデコードし、複数の場所からそれぞれ得られた情報のうち最も多く得られた情報をデコード結果とする。エンコード装置が「0」を埋め込む処理を「10」回実行する場合を例に説明する。また、エンコード装置は、10回のうち3回において、「0」を埋め込むペアブロックの特徴量の大小関係が「0」を示す大小関係と一致せず、特徴量の差が所定値以上であり、「0」を埋め込まなかった場合を例に説明する。この場合、デコード装置は、7箇所から「0」を読み出し、3箇所から「1」を読み出す。そして、デコード装置は、多数決をとり、7箇所から得られた「0」をデコード結果とする。   There is a decoding device that executes majority processing and error correction processing at the time of decoding. A majority decision process will be described as an example. For example, the encoding device executes the process of embedding the same information at each of a plurality of locations. In addition, the decoding apparatus decodes each of the plurality of locations, and sets the information obtained most from the information obtained from each of the plurality of locations as a decoding result. An example will be described in which the encoding apparatus executes the process of embedding “0” “10” times. In addition, in 3 out of 10 times, the encoding apparatus does not match the magnitude relationship of the feature quantity of the pair block in which “0” is embedded with the magnitude relation indicating “0”, and the feature quantity difference is equal to or larger than a predetermined value. A case where “0” is not embedded will be described as an example. In this case, the decoding apparatus reads “0” from 7 places and reads “1” from 3 places. Then, the decoding device takes a majority vote and uses “0” obtained from seven locations as a decoding result.

特開2004−349879号公報JP 2004-349879 A

しかしながら、上述した装置では、情報を埋め込まないペアブロックが増えると、上述した多数決の処理や誤り訂正処理を実行したとしても、正しい情報がデコードされないことがあるという問題があった。例えば、文字や符号などの記号が含まれる画像では、情報を埋め込まれないペアブロックが多くなり、正しい情報がデコードされないことがある。   However, in the above-described apparatus, when the number of pair blocks in which information is not embedded increases, there is a problem that correct information may not be decoded even if the majority processing or error correction processing described above is executed. For example, in an image including symbols such as characters and codes, there are many pair blocks in which information is not embedded, and correct information may not be decoded.

文字や符号などの記号が含まれる画像データにおいて、情報を埋め込まないペアブロックが多くなる点について説明する。記号が存在するブロックの平均濃度と、記号が存在しないブロックの平均濃度とは、大きく異なることが多いと考えられる。例えば、地図上に黒い文字が記載された画像データを例に説明する。また、特定色として黒色を用いる場合を例に説明する。この場合、黒い文字が存在するブロックの平均濃度は、黒い文字が存在しないブロックの平均濃度と比べて所定値以上高くなると考えられる。また、黒い文字が存在しないブロックの平均濃度は、黒い文字が存在するブロックの平均濃度と比べて所定値以上低くなると考えられる。この結果、エンコード装置は、黒い文字が存在するブロックを含むペアブロックについては、エンコード装置が埋め込む情報を示す特徴量の大小関係と一致しなければ、情報を埋め込まない。このように、記号を多く含む画像データであればあるほど、情報が埋め込まれないペアブロックが多くなると考えられる。   A description will be given of the fact that image data including symbols such as characters and codes increases the number of pair blocks in which information is not embedded. It is considered that the average density of blocks where symbols are present and the average density of blocks where symbols are not often different. For example, image data in which black characters are described on a map will be described as an example. Further, a case where black is used as the specific color will be described as an example. In this case, it is considered that the average density of blocks in which black characters are present is higher than a predetermined value compared to the average density of blocks in which black characters are not present. In addition, it is considered that the average density of blocks in which black characters do not exist is lower than a predetermined value compared to the average density of blocks in which black characters exist. As a result, the encoding apparatus does not embed information for a pair block including a block in which black characters exist unless the magnitude relationship of the feature amount indicating the information embedded by the encoding apparatus matches. As described above, it is considered that as the image data includes more symbols, the number of pair blocks in which information is not embedded increases.

開示の技術は、上述に鑑みてなされたものであって、画像データから正しい情報がデコードされる確率を向上可能であるエンコード装置、エンコード方法及びエンコードプログラムを提供することを目的とする。   The disclosed technique has been made in view of the above, and an object thereof is to provide an encoding apparatus, an encoding method, and an encoding program capable of improving the probability that correct information is decoded from image data.

開示するエンコード装置は、一つの態様において、画像データを複数のブロックに分割する分割部を備える。また、エンコード装置は、前記分割部により分割された画像データの隣接する2つのブロックのペアであるペアブロックのうち、所定の判定基準に合致するペアブロックである合致ペアブロックを抽出する第1の抽出部を備える。また、エンコード装置は、前記分割部により分割される前記画像データにより形成される画像の一部を形成するデータであって、背景を形成する画像とは異なる画像を形成する小画像データを修正する修正部を備える。また、エンコード装置は、前記修正部により前記小画像データが修正された後の画像データから前記合致ペアブロックを抽出する第2の抽出部を備える。また、エンコード装置は、前記第1の抽出部により抽出された合致ペアブロックの数と、前記第2の抽出部により抽出された合致ペアブロックの数とを比較し、他方と比較して抽出された合致ペアブロックの数が少ない画像データを選定する選定部を備える。また、エンコード装置は、前記選定部により選定された画像データに対して、前記ペアブロックの2つのブロック間の特徴量の大小関係に基づいて情報を埋め込むエンコード部を備える。   In one aspect, the disclosed encoding apparatus includes a dividing unit that divides image data into a plurality of blocks. In addition, the encoding apparatus extracts a matched pair block that is a pair block that matches a predetermined determination criterion from a pair block that is a pair of two adjacent blocks of the image data divided by the dividing unit. An extraction unit is provided. The encoding device corrects small image data that forms a part of an image formed by the image data divided by the dividing unit and forms an image different from an image forming a background. A correction unit is provided. The encoding device further includes a second extraction unit that extracts the matched pair block from the image data after the small image data is corrected by the correction unit. The encoding apparatus compares the number of matched pair blocks extracted by the first extracting unit with the number of matched pair blocks extracted by the second extracting unit, and compares the number with the other. A selection unit for selecting image data having a small number of matched pair blocks. In addition, the encoding apparatus includes an encoding unit that embeds information in the image data selected by the selection unit based on the magnitude relationship between the feature quantities between the two blocks of the pair block.

開示するエンコード装置の一つの態様によれば、画像データから正しい情報がデコードされる確率を向上可能であるという効果を奏する。   According to one aspect of the disclosed encoding device, there is an effect that the probability that correct information is decoded from image data can be improved.

図1は、実施例1に係るエンコード装置の構成の一例を示すブロック図である。FIG. 1 is a block diagram illustrating an example of the configuration of the encoding apparatus according to the first embodiment. 図2は、実施例2に係るエンコード装置の構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of the configuration of the encoding apparatus according to the second embodiment. 図3は、実施例2における入力部が受け付ける画像データにより形成される画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an image formed by image data received by the input unit according to the second embodiment. 図4は、実施例2における画像データのブロックの一例を示す図である。FIG. 4 is a diagram illustrating an example of a block of image data according to the second embodiment. 図5は、実施例2における選定処理部による画像データからのペアブロック抽出処理について示す図である。FIG. 5 is a diagram illustrating pair block extraction processing from image data by the selection processing unit according to the second embodiment. 図6は、実施例2における選定処理部による画像データからのペアブロック抽出処理について示す図である。FIG. 6 is a diagram illustrating pair block extraction processing from image data by the selection processing unit according to the second embodiment. 図7は、実施例2における選定処理部による画像データからのペアブロック抽出処理について示す図である。FIG. 7 is a diagram illustrating pair block extraction processing from image data by the selection processing unit according to the second embodiment. 図8は、実施例2における選定処理部による修正内容の一例を示す図である。FIG. 8 is a diagram illustrating an example of correction contents by the selection processing unit according to the second embodiment. 図9は、修正後の小画像データを含む画像データから合致ペアブロックを抽出する処理について示す図である。FIG. 9 is a diagram illustrating processing for extracting a matched pair block from image data including small image data after correction. 図10は、修正後の小画像データを含む画像データから合致ペアブロックを抽出する処理について示す図である。FIG. 10 is a diagram illustrating processing for extracting a matched pair block from image data including small image data after correction. 図11は、実施例2に係るエンコード装置による処理の流れの一例を示すフローチャートである。FIG. 11 is a flowchart illustrating an example of a process flow performed by the encoding apparatus according to the second embodiment. 図12は、実施例2における選定処理部による処理の流れの一例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of a processing flow by the selection processing unit according to the second embodiment. 図13は、実施例2に係るエンコードプログラムを実行するコンピュータの一例を示す図である。FIG. 13 is a diagram illustrating an example of a computer that executes an encoding program according to the second embodiment.

以下に、開示するエンコード装置、エンコード方法及びエンコードプログラムの実施例について、図面に基づいて詳細に説明する。なお、本実施例により開示する発明が限定されるものではない。各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   Hereinafter, embodiments of the disclosed encoding apparatus, encoding method, and encoding program will be described in detail with reference to the drawings. Note that the invention disclosed by this embodiment is not limited. Each embodiment can be appropriately combined within a range in which processing contents do not contradict each other.

図1を用いて、実施例1に係るエンコード装置100の構成の一例を示す。図1は、実施例1に係るエンコード装置の構成の一例を示すブロック図である。エンコード装置100は、図1に示す例では、分割部101と、第1の抽出部102と、修正部103と、第2の抽出部104と、選定部105と、エンコード部106とを有する。   An example of the configuration of the encoding apparatus 100 according to the first embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating an example of the configuration of the encoding apparatus according to the first embodiment. In the example illustrated in FIG. 1, the encoding apparatus 100 includes a dividing unit 101, a first extracting unit 102, a correcting unit 103, a second extracting unit 104, a selecting unit 105, and an encoding unit 106.

分割部101は、画像データを複数のブロックに分割する。第1の抽出部102は、分割部101により分割された画像データの隣接する2つのブロックのペアであるペアブロックのうち、所定の判定基準に合致するペアブロックである合致ペアブロックを抽出する。   The dividing unit 101 divides the image data into a plurality of blocks. The first extraction unit 102 extracts a matched pair block that is a pair block that matches a predetermined determination criterion from among a pair block that is a pair of two adjacent blocks of the image data divided by the dividing unit 101.

修正部103は、分割部101により分割される画像データにより形成される画像の一部を形成するデータであって、背景を形成する画像とは異なる画像を形成する小画像データを修正する。第2の抽出部104は、修正部103により小画像データが修正された後の画像データから合致ペアブロックを抽出する。   The correcting unit 103 corrects small image data that forms part of an image formed by the image data divided by the dividing unit 101 and forms an image different from the image forming the background. The second extraction unit 104 extracts a matched pair block from the image data after the small image data is corrected by the correction unit 103.

選定部105は、第1の抽出部102により抽出された合致ペアブロックの数と、第2の抽出部104により抽出された合致ペアブロックの数とを比較し、他方と比較して抽出された合致ペアブロックの数が少ない画像データを選定する。エンコード部106は、選定部105により選定された画像データに対して、ペアブロックの隣接する2つのブロック間の特徴量の大小関係に基づいて情報を埋め込む。   The selection unit 105 compares the number of matched pair blocks extracted by the first extraction unit 102 with the number of matched pair blocks extracted by the second extraction unit 104, and compares the number with the other. Image data with a small number of matched pair blocks is selected. The encoding unit 106 embeds information in the image data selected by the selection unit 105 based on the magnitude relationship between the two adjacent blocks of the pair block.

すなわち、エンコード装置100は、小画像データを修正し、修正前後で合致ペアブロックの数を比較し、合致ペアブロックの数が少ない画像データを選定することで、エンコード時に情報を埋め込まないペアブロックがより少なくなる画像データを選定する。そして、エンコード装置100は、選定した画像データに対して情報を埋め込む。この結果、エンコード装置100によれば、エンコードされるペアブロックの数を増加でき、画像データから正しい情報がデコードされる確率を向上可能である。   That is, the encoding apparatus 100 corrects small image data, compares the number of matched pair blocks before and after the correction, and selects image data with a small number of matched pair blocks, so that a pair block that does not embed information at the time of encoding can be obtained. Select less image data. Then, the encoding apparatus 100 embeds information in the selected image data. As a result, according to the encoding apparatus 100, the number of encoded pair blocks can be increased, and the probability that correct information is decoded from the image data can be improved.

[エンコード装置の構成]
実施例2に係るエンコード装置200について説明する。図2を用いて、実施例2に係るエンコード装置200の構成の一例を示す。図2は、実施例2に係るエンコード装置の構成の一例を示すブロック図である。エンコード装置200は、図2に示す例では、入力部201と、出力部202と、制御部210とを有する。
[Configuration of encoding device]
An encoding apparatus 200 according to the second embodiment will be described. An example of the configuration of the encoding apparatus 200 according to the second embodiment will be described with reference to FIG. FIG. 2 is a block diagram illustrating an example of the configuration of the encoding apparatus according to the second embodiment. In the example illustrated in FIG. 2, the encoding device 200 includes an input unit 201, an output unit 202, and a control unit 210.

実施例2に係るエンコード装置200は、画像データを複数のブロックに分割し、隣接する2つのブロックのペアであるペアブロックの特徴量の大小関係を調整することで、「0」又は「1」の情報を埋め込む。以下では、エンコード装置200は、「1」を埋め込む場合には、ペアブロックの左側にあるブロックの特徴量よりも右側にあるブロックの特徴量が大きくなるように調整する場合を用いて説明する。また、エンコード装置200は、「0」を埋め込む場合には、ペアブロックの左側にあるブロックの特徴量が右側にあるブロックの特徴量以下になるように調整する場合を用いて説明する。ただし、本発明はこれに限定されるものではなく、例えば、大小関係が逆であっても良い。また、エンコード装置200は、特徴量として、例えば、ブロック内にある画素の特定色の平均濃度を用いる場合を用いて説明する。ただし、本発明はこれに限定されるものではなく、特徴量として任意の情報を用いて良く、例えば、彩度を用いても良い。   The encoding apparatus 200 according to the second embodiment divides the image data into a plurality of blocks, and adjusts the magnitude relationship between the feature amounts of the paired blocks that are pairs of two adjacent blocks, whereby “0” or “1”. Embed the information. Hereinafter, the encoding apparatus 200 will be described using a case where “1” is embedded so that the feature amount of the block on the right side is larger than the feature amount of the block on the left side of the pair block. Further, the encoding apparatus 200 will be described using a case where, when embedding “0”, the feature amount of the block on the left side of the pair block is adjusted to be equal to or less than the feature amount of the block on the right side. However, the present invention is not limited to this. For example, the magnitude relationship may be reversed. The encoding apparatus 200 will be described using a case where, for example, an average density of a specific color of a pixel in a block is used as the feature amount. However, the present invention is not limited to this, and arbitrary information may be used as the feature amount. For example, saturation may be used.

また、エンコード装置200は、ペアブロックの特徴量の大小関係と埋め込まれる情報を示す特徴量の大小関係とが一致せず、ペアブロックの2つのブロック間の特徴量の差が所定値以上あるペアブロックに対して、情報を埋め込まない場合を用いて説明する。つまり、エンコード装置200は、情報を埋め込むことで、所定値以上ブロックの特徴量が変化するように調整することになる場合には、ペアブロックに情報を埋め込まない。   In addition, the encoding apparatus 200 does not match the magnitude relationship between the feature amounts of the pair blocks and the feature amount relationship indicating the embedded information, and the pair whose feature amount difference between two blocks of the pair block is equal to or greater than a predetermined value. A case where information is not embedded in a block will be described. That is, the encoding apparatus 200 does not embed information in the pair block when the information amount is adjusted so that the feature amount of the block changes by a predetermined value or more.

図2の説明に戻る。入力部201は、制御部210と接続される。入力部201は、情報が埋め込まれる画像データと、画像データに対して埋め込む情報を利用者から受け付け、受け付けた画像データや情報を制御部210に入力する。画像データに対して埋め込む情報は、例えば、文字列が該当する。入力部201は、例えば、キーボードや各種の入力端子、スキャナなどが該当する。出力部202は、制御部210と接続される。出力部202は、制御部210から情報が埋め込まれた画像データを受け付け、受け付けた画像データを出力する。出力部202は、例えば、モニタやプリンタなどが該当する。   Returning to the description of FIG. The input unit 201 is connected to the control unit 210. The input unit 201 receives image data in which information is embedded and information to be embedded in the image data from a user, and inputs the received image data and information to the control unit 210. The information to be embedded in the image data corresponds to a character string, for example. The input unit 201 corresponds to, for example, a keyboard, various input terminals, a scanner, or the like. The output unit 202 is connected to the control unit 210. The output unit 202 receives image data in which information is embedded from the control unit 210, and outputs the received image data. The output unit 202 corresponds to, for example, a monitor or a printer.

以下では、エンコード装置200が、入力部201が受け付けた画像データに対して情報を埋め込む場合を例に説明するが、本発明はこれに限定されるものではない。例えば、エンコード装置200は、エンコード装置200の記憶部に予め格納された画像に対して情報を埋め込んでも良い。画像に情報を埋め込むことは「エンコード」とも称され、画像に埋め込まれた情報を画像から読み出すことは「デコード」とも称される。   Hereinafter, a case where the encoding apparatus 200 embeds information in the image data received by the input unit 201 will be described as an example, but the present invention is not limited to this. For example, the encoding apparatus 200 may embed information in an image stored in advance in the storage unit of the encoding apparatus 200. Embedding information in an image is also called “encoding”, and reading information embedded in an image from an image is also called “decoding”.

図3を用いて、入力部201が受け付けた画像データにより形成される画像の一例を示す。図3は、実施例2における入力部が受け付ける画像データにより形成される画像の一例を示す図である。画像データは、背景を形成する背景画像データと、背景を形成する背景画像とは異なる画像である小画像を形成する小画像データとを含む。図3に示す例では、背景を形成する画像データは、地図を形成する画像データを示す。また、例えば、小画像データは、背景画像に書き込まれた記号や幾何学的模様などが該当する。図3に示す例では、小画像データは、「○×ビル」や「□△×株式会社」「▽○△病院」などの文字が該当する。   An example of an image formed from image data received by the input unit 201 will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of an image formed by image data received by the input unit according to the second embodiment. The image data includes background image data that forms a background and small image data that forms a small image that is an image different from the background image that forms the background. In the example shown in FIG. 3, the image data forming the background indicates image data forming the map. For example, the small image data corresponds to a symbol or a geometric pattern written in the background image. In the example shown in FIG. 3, the small image data corresponds to characters such as “X Building”, “□ △ × Corporation”, and “▽ ○ △ Hospital”.

以下では、画像データは、背景画像データと、小画像データと、小画像データが背景画像上のどこに位置するかを示す位置情報とを含む場合を用いて説明する。また、背景画像データは、小画像と重ねられた位置の下における背景画像を示すデータを含む場合を例に説明する。言い換えると、小画像が重ねられたとしても、背景画像が失われない場合を例に説明する。   Hereinafter, the image data will be described using a case where the image data includes background image data, small image data, and position information indicating where the small image data is located on the background image. Further, the background image data will be described by taking as an example a case where the background image data includes data indicating the background image under the position superimposed with the small image. In other words, a case where the background image is not lost even if the small images are overlaid will be described as an example.

制御部210は、入力部201及び出力部202と接続される。制御部210は、各種の処理手順などを規定したプログラムを記憶する内部メモリを有し、種々の処理を制御する。制御部210は、例えば、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、CPU(Central Processing Unit)、MPU(Micro Processing Unit)などの電子回路である。制御部210は、図2に示す例では、コードビット列生成部211と、分割部212と、小画像識別部213と、選定処理部214と、画像形式変更部215と、エンコード部216とを有する。   The control unit 210 is connected to the input unit 201 and the output unit 202. The control unit 210 has an internal memory that stores a program that defines various processing procedures and the like, and controls various processes. The control unit 210 is an electronic circuit such as an application specific integrated circuit (ASIC), a field programmable gate array (FPGA), a central processing unit (CPU), or a micro processing unit (MPU). In the example illustrated in FIG. 2, the control unit 210 includes a code bit string generation unit 211, a division unit 212, a small image identification unit 213, a selection processing unit 214, an image format change unit 215, and an encoding unit 216. .

コードビット列生成部211は、入力部201から入力された画像データに対して埋め込む情報を、ビットで表したコード列であるコードビット列に変換する。つまり、コードビット列生成部211は、入力部201が受け付けた文字列を示すコードビット列を生成する。例えば、コードビット列生成部211は、16ビットのコードビット列「1010110101001010」を生成する。ただし、本発明はこれに限定されるものではなく、コードビット列生成部211は、15ビット以下のコードビット列を生成しても良く、17ビット以上のコードビット列を生成しても良い。また、コードビット列生成部211は、誤り訂正用のビットを含むコードビット列を生成しても良い。   The code bit string generation unit 211 converts information embedded in the image data input from the input unit 201 into a code bit string that is a code string expressed in bits. That is, the code bit string generation unit 211 generates a code bit string indicating the character string received by the input unit 201. For example, the code bit string generation unit 211 generates a 16-bit code bit string “1010110101001010”. However, the present invention is not limited to this, and the code bit string generation unit 211 may generate a code bit string of 15 bits or less or a code bit string of 17 bits or more. The code bit string generation unit 211 may generate a code bit string including bits for error correction.

分割部212は、入力部201が受け付けた画像データを複数のブロックに分割する。具体的には、分割部212は、画像データを「N行×M列」のブロックに分割する。ここで、N及びMは、自然数である。   The dividing unit 212 divides the image data received by the input unit 201 into a plurality of blocks. Specifically, the dividing unit 212 divides the image data into “N rows × M columns” blocks. Here, N and M are natural numbers.

図4を用いて、実施例2における画像データのブロックの一例を示す。図4は、実施例2における画像データのブロックの一例を示す図である。図4に示す例では、入力部201が受け付けた画像データの大きさが「1024×1024」である場合を例に説明する。また、1つのブロックの大きさを「64×64」とした場合を例に説明する。この場合、図4に示すように、分割部212は、画像データを「16行×16列」のブロックに分割する。   An example of a block of image data in the second embodiment will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of a block of image data according to the second embodiment. In the example illustrated in FIG. 4, the case where the size of the image data received by the input unit 201 is “1024 × 1024” will be described as an example. An example in which the size of one block is “64 × 64” will be described. In this case, as illustrated in FIG. 4, the dividing unit 212 divides the image data into “16 rows × 16 columns” blocks.

分割部212は、図4の301〜308に示すように、隣接する2つのブロックのペアを対応付ける。以下では、分割部212により分割された画像データの隣接する2つのブロックのペアを「ペアブロック」と記載する。図4に示す例では、画像データが「16行×16列」のブロックに分割されており、「8×16」個のペアブロックがあることになる。   As shown by 301 to 308 in FIG. 4, the dividing unit 212 associates two adjacent block pairs. Hereinafter, a pair of two adjacent blocks of the image data divided by the dividing unit 212 is referred to as a “pair block”. In the example illustrated in FIG. 4, the image data is divided into “16 rows × 16 columns” blocks, and there are “8 × 16” pair blocks.

ここで、図4に示す各ペアブロックと、埋め込まれるビットとの関係について示す。エンコード装置200が埋め込むコードビット列「1010110101001010」が「16ビット」であり、「8×16」個のペアブロックがある場合には、エンコード装置200は、コードビット列を「8回」繰り返し埋め込む。具体的には、エンコード装置200は、図4の301に対して、コードビット列の1番目のビットである「1」を埋め込む処理を実行し、図4の302に対して、コードビット列の2番目のビットである「0」を埋め込む処理を実行する。また、同様に、エンコード装置200は、コードビット列のビットを1つずつペアブロックに埋め込む処理を実行する。   Here, the relationship between each pair block shown in FIG. 4 and the embedded bits will be described. When the code bit string “1010110101001010” embedded by the encoding apparatus 200 is “16 bits” and there are “8 × 16” pair blocks, the encoding apparatus 200 repeatedly embeds the code bit string “8 times”. Specifically, the encoding apparatus 200 executes a process of embedding “1”, which is the first bit of the code bit string, in 301 of FIG. The process of embedding “0”, which is the bit of, is executed. Similarly, the encoding apparatus 200 executes a process of embedding the bits of the code bit string one by one in the pair block.

また、エンコード装置200は、ペアブロックの特徴量の大小関係と埋め込まれる情報を示す特徴量の大小関係とが一致せず、ペアブロックの2つのブロック間の特徴量の差が所定値以上あるペアブロックに対して、情報を埋め込まない。このため、例えば、ビット「1」が埋め込まれる図4の301において、2つのペアブロックの大小関係が「1」に対応する大小関係と一致せず、2つのペアブロックの特徴量の差が所定値以上である場合には、エンコード装置200は「1」を埋め込まない。なお、2つのペアブロックの大小関係が「1」に対応する大小関係と一致しない場合とは、「0」に対応する大小関係を示す場合である。そして、エンコード装置200は、図4の302に対しては、図4の301に情報を埋め込んだか否かに関係なく、コードビット列の2番目のビットである「0」を埋め込む処理を実行する。つまり、この場合、図4の302に「0」が実際に埋め込まれたとすると、デコードにより、図4の301と302とからは、「01」がデコードされることになる。言い換えると、エンコード装置200が1回目にコードビット列を埋め込む際には、1番目のビットは埋め込まれないことになる。ただし、画像データには同じコードビット列が複数回繰り返し埋め込まれ、デコード時に多数決の処理や誤り訂正用のビットを用いての訂正処理が実行されることで、1番目のビットについても適切に読み出される。   In addition, the encoding apparatus 200 does not match the magnitude relationship between the feature amounts of the pair blocks and the feature amount relationship indicating the embedded information, and the pair whose feature amount difference between two blocks of the pair block is equal to or greater than a predetermined value. Do not embed information in the block. For this reason, for example, in 301 of FIG. 4 in which the bit “1” is embedded, the magnitude relationship between the two pair blocks does not match the magnitude relationship corresponding to “1”, and the difference between the feature amounts of the two pair blocks is predetermined. If the value is greater than or equal to the value, the encoding apparatus 200 does not embed “1”. The case where the magnitude relationship between the two pair blocks does not match the magnitude relationship corresponding to “1” is a case where the magnitude relationship corresponding to “0” is indicated. Then, the encoding apparatus 200 executes a process of embedding “0”, which is the second bit of the code bit string, regardless of whether information is embedded in 301 of FIG. That is, in this case, if “0” is actually embedded in 302 of FIG. 4, “01” is decoded from 301 and 302 of FIG. 4 by decoding. In other words, when the encoding apparatus 200 embeds the code bit string for the first time, the first bit is not embedded. However, the same code bit string is repeatedly embedded in the image data a plurality of times, and majority processing and correction processing using error correction bits are executed at the time of decoding, so that the first bit is also read appropriately. .

小画像識別部213は、画像データから小画像データを識別する。具体的には、小画像識別部213は、画像データにおける小画像の位置を識別する。例えば、図3に示す画像データを例に説明すると、画像データにより形成される画像から小画像「○×ビル」を識別し、小画像「○×ビル」の位置を識別する。例えば、小画像識別部213は、画像データから小画像の位置情報を取得することで、小画像の位置を識別する。   The small image identification unit 213 identifies small image data from the image data. Specifically, the small image identification unit 213 identifies the position of the small image in the image data. For example, taking the image data shown in FIG. 3 as an example, the small image “Ox Bill” is identified from the image formed by the image data, and the position of the small image “Ox Bill” is identified. For example, the small image identification unit 213 identifies the position of the small image by acquiring the position information of the small image from the image data.

選定処理部214は、以下に説明するように、入力部201が受け付けた画像データから所定の判定基準に合致するペアブロックである合致ペアブロックを抽出する。また、選定処理部214は、小画像データを修正し、修正後の小画像データを含む画像データから合致ペアブロックを抽出する。また、選定処理部214は、画像データを選定する。以下では、各処理について順に説明する。なお、選定処理部214による処理の流れの一例については、図9を用いて後述する。   As will be described below, the selection processing unit 214 extracts a matched pair block that is a pair block that matches a predetermined determination criterion from the image data received by the input unit 201. In addition, the selection processing unit 214 corrects the small image data, and extracts a matched pair block from the image data including the corrected small image data. The selection processing unit 214 selects image data. Below, each process is demonstrated in order. An example of the flow of processing by the selection processing unit 214 will be described later with reference to FIG.

入力部201が受け付けた画像データから合致ペアブロックを抽出する処理について説明する。合致ペアブロックは、エンコード時に情報が埋め込まれないペアブロック、又は、エンコード時に情報が埋め込まれない可能性が高いペアブロックが該当する。実施例2では、選定処理部214が、エンコード時に情報が埋め込まれないペアブロックを合致ペアブロックとして抽出する場合を用いて説明する。上述したように、実施例2に係るエンコード装置200は、大小関係が一致せず、ペアブロックの2つのブロック間の特徴量の差が所定値以上あるペアブロックに対して、エンコード装置200が情報を埋め込まない。この結果、実施例2における選定処理部214は、大小関係が一致せず、ペアブロックの2つのブロック間の特徴量の差が所定値以上あるペアブロックを合致ペアブロックとして抽出する。   Processing for extracting a matched pair block from image data received by the input unit 201 will be described. The matched pair block corresponds to a pair block in which information is not embedded at the time of encoding or a pair block in which information is not likely to be embedded at the time of encoding. In the second embodiment, a case where the selection processing unit 214 extracts a pair block in which information is not embedded during encoding as a matched pair block will be described. As described above, in the encoding apparatus 200 according to the second embodiment, the encoding apparatus 200 does not match the magnitude relationship between the pair blocks in which the feature amount difference between the two blocks of the pair block is equal to or greater than a predetermined value. Do not embed. As a result, the selection processing unit 214 according to the second embodiment extracts a pair block whose magnitude relationship does not match and a difference in feature amount between two blocks of the pair block is equal to or greater than a predetermined value as a matched pair block.

選定処理部214は、合致ペアブロックを抽出し、抽出したペアブロックの数をカウントする。具体的には、選定処理部214は、ペアブロックの2つのブロック間の特徴量の大小関係が埋め込まれる情報を示す大小関係と一致するか否かを所定の判定基準として用いてペアブロック各々を判定する。また、選定処理部214は、ペアブロックの2つのブロック間の特徴量の差が上限閾値を超えるか否かを用いてペアブロック各々を判定する。ここで、選定処理部214は、画像データのペアブロック各々について判定する。そして、選定処理部214は、大小関係が一致しないと判定して上限閾値を超えると判定したペアブロックを合致ペアブロックとして抽出し、抽出した合致ペアブロックの数をカウントする。   The selection processing unit 214 extracts matching pair blocks and counts the number of extracted pair blocks. Specifically, the selection processing unit 214 uses each of the pair blocks as a predetermined criterion using whether or not the magnitude relationship between the two features of the pair block matches the magnitude relationship indicating information to be embedded. judge. In addition, the selection processing unit 214 determines each pair block using whether or not the difference in feature amount between the two blocks of the pair block exceeds the upper limit threshold value. Here, the selection processing unit 214 determines each pair block of image data. Then, the selection processing unit 214 extracts a pair block that is determined not to match the magnitude relationship and is determined to exceed the upper limit threshold as a matched pair block, and counts the number of extracted matched pair blocks.

「1」が埋め込まれるペアブロックに埋め込む場合を例に説明する。また、上限閾値として「20」を用いる場合を例に説明する。「20」は、特定色の平均濃度を「0」から「255」までの値で表した場合に、2つのブロックの特定色の平均濃度の上限閾値が「20」であることを示す。「0」は、ブロック内に特定色の画素がないことを示し、「255」は、ブロック内の全画素が特定色であることを示す。ただし、本発明はこれに限定されるものではなく、例えば、選定処理部214は、上限閾値として「19」以下の値を用いても良く、「21」以上の値を用いても良い。   An example of embedding in a pair block in which “1” is embedded will be described. Further, the case where “20” is used as the upper limit threshold will be described as an example. “20” indicates that when the average density of the specific color is represented by a value from “0” to “255”, the upper limit threshold value of the average density of the specific color of the two blocks is “20”. “0” indicates that there is no pixel of a specific color in the block, and “255” indicates that all the pixels in the block have a specific color. However, the present invention is not limited to this. For example, the selection processing unit 214 may use a value of “19” or less as the upper limit threshold value, or a value of “21” or more.

この場合、選定処理部214は、ペアブロックの2つのブロックの大小関係が「1」を示す大小関係と一致するかを判定する。具体的な例をあげて説明すると、選定処理部214は、ペアブロックの左側にあるブロックの特徴量よりも右側にあるブロックの特徴量が大きくなるかを判定する。また、選定処理部214は、ペアブロックの2つのブロック間の特徴量の差が、「20」を超えるかを判定する。そして、選定処理部214は、ペアブロックの2つのブロックの大小関係が「1」を示す大小関係と一致しないと判定し、2つのブロック間の特徴量の差が、「20」を超えると判定した場合に、合致ペアブロックとして抽出する。そして、選定処理部214は、合致ペアブロックの数をカウントし、例えば、「49」であるとカウントする。   In this case, the selection processing unit 214 determines whether the magnitude relationship between the two blocks of the pair block matches the magnitude relationship indicating “1”. To explain with a specific example, the selection processing unit 214 determines whether the feature amount of the block on the right side is larger than the feature amount of the block on the left side of the pair block. In addition, the selection processing unit 214 determines whether or not the difference in feature amount between the two blocks of the pair block exceeds “20”. Then, the selection processing unit 214 determines that the magnitude relationship between the two blocks of the pair block does not match the magnitude relationship indicating “1”, and determines that the difference in the feature amount between the two blocks exceeds “20”. If so, it is extracted as a matched pair block. Then, the selection processing unit 214 counts the number of matched pair blocks, for example, “49”.

図5〜図7を用いて、実施例2における選定処理部214による画像データからのペアブロック抽出処理について更に説明する。図5〜図7は、実施例2における選定処理部による画像データからのペアブロック抽出処理について示す図である。図5〜図7では、「富士」を含む画像データを例に用いて説明する。図5は、分割部212によって複数のブロックに分割された画像データの一例であって、「富士」を含む画像データを示す。図6は、ペアブロックのうち、文字が存在するペアブロックを示す。図7は、選定処理部214により抽出されるペアブロックを示す。   The pair block extraction processing from the image data by the selection processing unit 214 in the second embodiment will be further described with reference to FIGS. 5 to 7 are diagrams illustrating pair block extraction processing from image data by the selection processing unit according to the second embodiment. 5 to 7, image data including “Fuji” will be described as an example. FIG. 5 is an example of image data divided into a plurality of blocks by the dividing unit 212 and shows image data including “Fuji”. FIG. 6 shows a pair block in which characters exist among the pair blocks. FIG. 7 shows pair blocks extracted by the selection processing unit 214.

図7に示す例では、説明の便宜上、文字が存在するペアブロックすべてについて、ペアブロックの2つのブロック間の特徴量の大小関係が埋め込まれる情報を示す大小関係と一致せず、2つのブロックの特徴量の差が上限閾値を超えた場合を示した。この場合、選定処理部214は、「49」個のペアブロックを抽出する。   In the example shown in FIG. 7, for convenience of explanation, the size relationship of the feature amount between two blocks of the pair block does not match the size relationship indicating the information to be embedded for all the pair blocks in which characters exist. The case where the difference in feature amount exceeds the upper threshold is shown. In this case, the selection processing unit 214 extracts “49” pair blocks.

小画像データを修正する処理について説明する。選定処理部214は、小画像データにより形成される記号の位置、他の記号との間隔、フォントの種類、記号の大きさのうち、いずれか1つ又は複数を修正する。また、選定処理部214は、修正内容が異なる小画像データを作成する。例えば、選定処理部214は、位置の調整量やフォントの種類、記号の大きさの調整量などが異なる小画像データをそれぞれ作成する。   Processing for correcting the small image data will be described. The selection processing unit 214 corrects one or more of the position of the symbol formed by the small image data, the interval with other symbols, the type of font, and the size of the symbol. In addition, the selection processing unit 214 creates small image data with different correction contents. For example, the selection processing unit 214 creates small image data having different position adjustment amounts, font types, symbol size adjustment amounts, and the like.

記号の位置を修正する場合における選定処理部214による処理の一例について、簡単に説明する。画像データにおける小画像データの位置の初期値を「X、Y」と記載し、X方向への移動量とY方向への移動量をそれぞれ「ix、iy」と記載する。また、小画像データの位置を「X、Y」から「±10」画素の範囲で修正する場合を例に説明する。この場合、選定処理部214は、「−10≦ix≦10」と「−10≦iy≦10」を満たす「ix」と「iy」との組み合わせを1つ選択し、選択した組み合わせに対応する修正を実行した小画像データを作成する。また、選定処理部214は、同様に、他の組み合わせについても選択して小画像データを作成する。   An example of processing by the selection processing unit 214 when correcting the symbol position will be briefly described. The initial value of the position of the small image data in the image data is described as “X, Y”, and the movement amount in the X direction and the movement amount in the Y direction are described as “ix, iy”, respectively. Further, a case where the position of the small image data is corrected in the range of “X, Y” to “± 10” pixels will be described as an example. In this case, the selection processing unit 214 selects one combination of “ix” and “iy” that satisfies “−10 ≦ ix ≦ 10” and “−10 ≦ iy ≦ 10”, and corresponds to the selected combination. Create small image data that has been corrected. Similarly, the selection processing unit 214 selects other combinations and creates small image data.

図8に示す例では、選定処理部214は、図8の(1)に示すように、「富」と「士」との文字間隔が狭くなるように変更し、図8の(2)に示すように、「士」の位置を変更する。図8は、実施例2における選定処理部による修正内容の一例を示す図である。   In the example shown in FIG. 8, the selection processing unit 214 changes the character spacing between “wealth” and “shi” to become narrower as shown in (1) of FIG. As shown, the position of “Shi” is changed. FIG. 8 is a diagram illustrating an example of correction contents by the selection processing unit according to the second embodiment.

ここで、このように、例えば、図3に示すように、地図や見取り図などを背景画像とし、文字を小画像データとする画像データにおける小画像データを修正したとしても、文字位置や文字間隔の変更が所定の範囲内に収まれば見た目が悪くなることはない。また、同様に、文字や記号の指し示す地図上の場所も変わらない。このことを踏まえ、修正処理部214は、小画像データを修正する。   Here, for example, as shown in FIG. 3, even if the small image data in the image data in which the map or sketch is used as the background image and the character is the small image data is corrected, the character position and the character spacing If the change is within a predetermined range, it will not look bad. Similarly, the location on the map indicated by characters and symbols does not change. Based on this, the correction processing unit 214 corrects the small image data.

修正後の小画像データを含む画像データから合致ペアブロックを抽出する処理について説明する。選定処理部214は、小画像データが修正された後の画像データから合致ペアブロックを抽出する。具体的には、選定処理部214は、修正内容が異なる小画像データ各々に対応する画像データ各々について、それぞれ、合致ペアブロックを抽出する。そして、選定処理部214は、抽出した合致ペアブロックの数をカウントする。合致ペアブロックの抽出手法については、上述した手法と同様である。   A process for extracting a matched pair block from image data including small image data after correction will be described. The selection processing unit 214 extracts a matched pair block from the image data after the small image data is corrected. Specifically, the selection processing unit 214 extracts a matched pair block for each of the image data corresponding to each of the small image data having different correction contents. Then, the selection processing unit 214 counts the number of extracted matched pair blocks. The matching pair block extraction method is the same as that described above.

図9及び図10を用いて、修正後の小画像データを含む画像データから合致ペアブロックを抽出する処理について更に説明する。図9及び図10は、修正後の小画像データを含む画像データから合致ペアブロックを抽出する処理について示す図である。図9は、修正後の小画像データを含む画像データにおいて、文字が存在するペアブロックを示す。図10は、選定処理部214により抽出される合致ペアブロックを示す。   The process of extracting the matched pair block from the image data including the corrected small image data will be further described with reference to FIGS. 9 and 10 are diagrams illustrating processing for extracting a matched pair block from image data including the corrected small image data. FIG. 9 shows a pair block in which characters exist in the image data including the corrected small image data. FIG. 10 shows a matched pair block extracted by the selection processing unit 214.

図9に示す例では、図6と同様に、文字が存在するペアブロックすべてについて、ペアブロックの2つのブロック間の特徴量の大小関係が埋め込まれる情報を示す大小関係と一致せず、2つのブロックの特徴量の差が上限閾値を超えた場合を示した。この場合、選定処理部214は、「39」個の合致ペアブロックを抽出する。   In the example shown in FIG. 9, as in FIG. 6, for all pair blocks where characters exist, the magnitude relationship between the two features of the pair block does not match the magnitude relationship indicating the embedded information. The case where the difference of the feature quantity of the block exceeded the upper threshold was shown. In this case, the selection processing unit 214 extracts “39” matched pair blocks.

画像データを選定する処理について説明する。選定処理部214は、入力部201が受け付けた画像データから抽出された合致ペアブロックの数と、小画像データが修正された後の画像データから抽出された合致ペアブロックの数とを比較する。そして、選定処理部214は、他方と比較して抽出された合致ペアブロックの数が少ない画像データを選定する。   A process for selecting image data will be described. The selection processing unit 214 compares the number of matched pair blocks extracted from the image data received by the input unit 201 with the number of matched pair blocks extracted from the image data after the small image data is corrected. Then, the selection processing unit 214 selects image data with a smaller number of matched pair blocks extracted compared to the other.

具体的には、選定処理部214は、入力部201が受け付けた画像データと、修正内容が異なる小画像データ各々に対応する画像データ各々とのうち、合致ペアブロックが最も少ない画像データを選定する。例えば、図7に示す画像データと図10に示す画像データを用いて説明する。この場合、図7に示す画像データからは「49」個の合致ペアブロックが抽出され、図10に示す画像データからは「39」個の合致ペアブロックが抽出されており、選定処理部214は、図10に示す画像データを選定する。すなわち、選定処理部214は、合致ペアブロックが最も少なくなる画像データを選定する。   Specifically, the selection processing unit 214 selects image data having the smallest matching pair block among the image data received by the input unit 201 and each of the image data corresponding to each of the small image data having different correction contents. . For example, description will be made using the image data shown in FIG. 7 and the image data shown in FIG. In this case, “49” matched pair blocks are extracted from the image data shown in FIG. 7, and “39” matched pair blocks are extracted from the image data shown in FIG. The image data shown in FIG. 10 is selected. In other words, the selection processing unit 214 selects image data with the smallest number of matched pair blocks.

画像形式変更部215は、画像データの形式をエンコード可能な画像形式に変更する。例えば、画像形式変更部215は、画像データの形式をビットマップ形式に変換する。ただし、本発明はこれに限定されるものではなく、画像形式変更部215は、エンコード部216がエンコード可能な画像データの形式であれば任意の形式に変更して良い。   The image format changing unit 215 changes the format of the image data to an image format that can be encoded. For example, the image format changing unit 215 converts the format of the image data into a bitmap format. However, the present invention is not limited to this, and the image format changing unit 215 may change the image format to any format as long as the encoding unit 216 can encode the image data.

エンコード部216は、選定処理部214により選定された画像データに対して、ペアブロックの隣接する2つのブロック間の特徴量の大小関係に基づいて情報を埋め込む。つまり、エンコード部216は、ペアブロックの2つのブロック間の特徴量の大小関係に基づいて、コードビット列を埋め込んだ画像データを作成する。なお、エンコード部216によるエンコード処理については、先行技術文献におけるエンコード処理と同様である。   The encoding unit 216 embeds information in the image data selected by the selection processing unit 214 based on the feature size relationship between two adjacent blocks of the pair block. That is, the encoding unit 216 creates image data in which the code bit string is embedded based on the magnitude relationship between the feature amounts between the two blocks of the pair block. Note that the encoding process by the encoding unit 216 is the same as the encoding process in the prior art document.

具体的には、エンコード部216は、隣接する2つのブロックのペアであるペアブロックの特徴量の大小関係を調整することで、「0」又は「1」の情報を埋め込む。例えば、エンコード部216は、「1」を埋め込む場合には、ペアブロックの左側にあるブロックの特徴量よりも右側にあるブロックの特徴量が大きくなるように調整する。また、エンコード部216は、「0」を埋め込む場合には、ペアブロックの左側にあるブロックの特徴量が右側にあるブロックの特徴量以下になるように調整する。エンコード部216は、特徴量として、例えば、ブロック内にある画素の特定色の平均濃度や彩度を用いる。   Specifically, the encoding unit 216 embeds information of “0” or “1” by adjusting the magnitude relationship between the feature amounts of the pair blocks that are pairs of two adjacent blocks. For example, when “1” is embedded, the encoding unit 216 adjusts the feature amount of the block on the right side to be larger than the feature amount of the block on the left side of the pair block. Also, when embedding “0”, the encoding unit 216 performs adjustment so that the feature amount of the block on the left side of the pair block is equal to or less than the feature amount of the block on the right side. The encoding unit 216 uses, for example, the average density and saturation of a specific color of pixels in the block as the feature amount.

エンコード部216は、ペアブロックにおける特徴量の大小関係が埋め込むべきコードと一致するか否かを判定し、一致すると判定した場合には、特徴量の大小関係を維持する。例えば、エンコード部216は、特徴量を何も調整しないことで、特徴量の大小関係を維持する。また、例えば、エンコード部216は、ペアブロックにおける特徴量の大小関係が埋め込むべきコードと一致し、ペアブロックにおけるブロック間の特徴量の差が下限しきい値未満である場合、差が下限しきい値以上となるようにペアブロックにおける特徴量を変更する。   The encoding unit 216 determines whether or not the magnitude relationship between the feature amounts in the pair block matches the code to be embedded, and maintains the feature magnitude relationship when it is determined that they match. For example, the encoding unit 216 maintains the magnitude relationship between the feature amounts by adjusting no feature amounts. In addition, for example, the encoding unit 216 matches the code to which the magnitude relationship between the feature amounts in the pair block matches the code to be embedded, and if the difference in the feature amount between the blocks in the pair block is less than the lower limit threshold, the difference is the lower limit threshold. The feature amount in the pair block is changed so as to be equal to or greater than the value.

また、エンコード部216は、ペアブロックの特徴量の大小関係と埋め込まれる情報を示す特徴量の大小関係とが一致せず、ペアブロックの2つのブロック間の特徴量の差が所定値以上あるペアブロックに対して、情報を埋め込まない。つまり、エンコード装置200は、情報を埋め込むことで、所定値以上ブロックの特徴量が変化するように調整する場合には、ペアブロックに情報を埋め込まない。   In addition, the encoding unit 216 does not match the magnitude relationship between the feature amounts of the pair blocks and the feature relationship between the feature amounts indicating the information to be embedded, and a pair in which the difference in feature amounts between the two blocks of the pair block is equal to or greater than a predetermined value. Do not embed information in the block. That is, the encoding apparatus 200 does not embed information in the pair block when the information is adjusted so that the feature amount of the block changes by a predetermined value or more by embedding the information.

また、エンコード部216は、ペアブロックの特徴量の大小関係と埋め込まれる情報を示す特徴量の大小関係とが一致せず、ペアブロックの2つのブロック間の特徴量の差が所定値以上ないペアブロックについては、大小関係が一致するように特徴量を調整する。   In addition, the encoding unit 216 does not match the magnitude relationship between the feature amounts of the pair blocks and the feature amount indicating the information to be embedded, and the pair in which the difference in the feature amounts between the two blocks of the pair block does not exceed a predetermined value. For the block, the feature amount is adjusted so that the magnitude relationship matches.

エンコード装置200は、既知のパーソナルコンピュータ、携帯電話、PHS(Personal Handyphone System)端末、移動体通信端末又はPDA(Personal Digital Assistant)などの情報処理装置を利用して実現しても良い。例えば、PDAなどの情報処理装置に、図2に示したコードビット列生成部211と、分割部212と、小画像識別部213と、選定処理部214と、画像形式変更部215と、エンコード部216との各機能を搭載することによって実現しても良い。   The encoding device 200 may be realized by using an information processing device such as a known personal computer, mobile phone, PHS (Personal Handyphone System) terminal, mobile communication terminal, or PDA (Personal Digital Assistant). For example, an information processing apparatus such as a PDA includes a code bit string generation unit 211, a division unit 212, a small image identification unit 213, a selection processing unit 214, an image format change unit 215, and an encoding unit 216 shown in FIG. It may be realized by installing each function.

[エンコード装置による処理]
次に、図11を用いて、実施例2に係るエンコード装置200による処理の流れの一例を示す。図11は、実施例2に係るエンコード装置による処理の流れの一例を示すフローチャートである。
[Processing by encoding device]
Next, an example of the flow of processing by the encoding apparatus 200 according to the second embodiment will be described with reference to FIG. FIG. 11 is a flowchart illustrating an example of a process flow performed by the encoding apparatus according to the second embodiment.

図11に示すように、画像データに対して埋め込む情報と画像データとを入力部201が受け付けると(ステップS101肯定)、コードビット列生成部211は、コードビット列を生成する(ステップS102)。例えば、コードビット列生成部211は、画像データに対して埋め込む情報をコードビット列に変換することで、16ビットのコードビット列「1010110101001010」を生成する。   As shown in FIG. 11, when the input unit 201 receives information to be embedded in image data and the image data (Yes in step S101), the code bit string generation unit 211 generates a code bit string (step S102). For example, the code bit string generation unit 211 generates a 16-bit code bit string “1010110101001010” by converting information embedded in the image data into a code bit string.

そして、分割部212は、画像データを複数のブロックに分割し(ステップS103)、隣接する2つのブロックのペアを対応付けてペアブロックとする(ステップS104)。例えば、分割部212は、画像データの大きさが「1024×1024」であり、1つのブロックの大きさを「64×64」とした場合を例に説明する。この場合、分割部212は、画像データを「16行×16列」のブロックに分割し、隣接する2つのブロックを対応付けることで、画像データを「8×16」個のペアブロックとする。   Then, the dividing unit 212 divides the image data into a plurality of blocks (step S103), and associates a pair of two adjacent blocks into a pair block (step S104). For example, the division unit 212 will be described as an example in which the size of the image data is “1024 × 1024” and the size of one block is “64 × 64”. In this case, the dividing unit 212 divides the image data into “16 rows × 16 columns” blocks, and associates two adjacent blocks to make the image data “8 × 16” pair blocks.

そして、小画像識別部213は、画像データにより形成される画像内にある小画像データを識別する(ステップS105)。図3に示す例では、小画像識別部213は、画像データにより形成される画像から小画像「○×ビル」を識別し、小画像「○×ビル」の位置を識別する。   Then, the small image identification unit 213 identifies small image data in the image formed by the image data (step S105). In the example illustrated in FIG. 3, the small image identifying unit 213 identifies the small image “○ × Bill” from the image formed by the image data, and identifies the position of the small image “○ × Bill”.

選定処理部214は、小画像データを修正し、合致ペアブロックの数が少ない画像データを選定する(ステップS106)。画像データを選定する処理の詳細については、図12を用いて説明する。   The selection processing unit 214 corrects the small image data and selects image data with a small number of matched pair blocks (step S106). Details of the processing for selecting image data will be described with reference to FIG.

そして、画像形式変更部215は、選定処理部214により選定された画像データの形式をエンコード可能な画像形式に変換する(ステップS107)。例えば、画像形式変更部215は、ビットマップ形式に変更する。そして、エンコード部216は、選定処理部214により選定された画像データをエンコードする(ステップS108)。つまり、エンコード部216は、ペアブロックの隣接する2つのブロック間の特徴量の大小関係に基づいて情報を埋め込む。言い換えると、エンコード部216は、ペアブロックの2つのブロック間の特徴量の大小関係に基づいて、コードビット列を埋め込んだ画像データを作成する。   Then, the image format changing unit 215 converts the format of the image data selected by the selection processing unit 214 into an image format that can be encoded (step S107). For example, the image format changing unit 215 changes the bitmap format. Then, the encoding unit 216 encodes the image data selected by the selection processing unit 214 (step S108). That is, the encoding unit 216 embeds information based on the magnitude relationship between the feature amounts between two adjacent blocks of the pair block. In other words, the encoding unit 216 creates image data in which the code bit string is embedded based on the magnitude relationship between the feature amounts between the two blocks of the pair block.

なお、上記の処理手順は、上記の順番に限定されるものではなく、処理内容を矛盾させない範囲で適宜変更しても良い。例えば、上記のステップS105の小画像データを識別する処理を実行した後に、ステップS103〜S104の画像データを分割する処理を実行しても良い。   In addition, said process procedure is not limited to said order, You may change suitably in the range which does not contradict a process content. For example, after executing the process for identifying small image data in step S105, the process for dividing the image data in steps S103 to S104 may be executed.

[選定処理部による処理]
次に、図12を用いて、実施例2における選定処理部214による処理の流れの一例を示す。図12は、実施例2における選定処理部による処理の流れの一例を示すフローチャートである。図12を用いて説明する一連の処理は、図11におけるステップS106に対応する。
[Processing by selection processing unit]
Next, an example of a processing flow by the selection processing unit 214 in the second embodiment will be described with reference to FIG. FIG. 12 is a flowchart illustrating an example of a processing flow by the selection processing unit according to the second embodiment. A series of processes described with reference to FIG. 12 corresponds to step S106 in FIG.

図12に示すように、選定処理部214は、入力部201が受け付けた画像データから合致ペアブロックを抽出する(ステップS201)。ここで、「1」が埋め込まれるペアブロックに埋め込む場合を例に説明する。また、上限閾値として「20」を用いる場合を例に説明する。この場合、選定処理部214は、ペアブロックの2つのブロックの大小関係が「1」を示す大小関係と一致するかを判定し、ペアブロックの2つのブロック間の特徴量の差が、「20」を超えるかを判定する。ここで、選定処理部214は、画像データのペアブロック各々について判定する。そして、ペアブロックの2つのブロックの大小関係が「1」を示す大小関係と一致しないと判定し、2つのブロックの特徴量の差が、「20」を超えると判定した場合に、合致ペアブロックとして抽出する。   As shown in FIG. 12, the selection processing unit 214 extracts a matched pair block from the image data received by the input unit 201 (step S201). Here, an example in which “1” is embedded in a pair block embedded will be described. Further, the case where “20” is used as the upper limit threshold will be described as an example. In this case, the selection processing unit 214 determines whether the magnitude relationship between the two blocks of the pair block matches the magnitude relationship indicating “1”, and the difference in feature amount between the two blocks of the pair block is “20”. ] Is exceeded. Here, the selection processing unit 214 determines each pair block of image data. When it is determined that the magnitude relationship between the two blocks of the pair block does not match the magnitude relationship indicating “1”, and the difference between the feature amounts of the two blocks exceeds “20”, the matched pair block Extract as

そして、選定処理部214は、合致ペアブロックの数をカウントする(ステップS202)。図6に示す例では、選定処理部214は、「49」個であるとカウントする。   Then, the selection processing unit 214 counts the number of matched pair blocks (step S202). In the example illustrated in FIG. 6, the selection processing unit 214 counts “49”.

そして、選定処理部214は、修正内容を1つ選択し(ステップS203)、選択した修正内容を用いて小画像データを修正する(ステップS204)。例えば、選定処理部214は、「−10≦ix≦10」と「−10≦iy≦10」を満たす「ix」と「iy」との組み合わせを1つ選択し、選択した組み合わせに対応する修正内容を実行した小画像データを作成する。   Then, the selection processing unit 214 selects one correction content (step S203), and corrects the small image data using the selected correction content (step S204). For example, the selection processing unit 214 selects one combination of “ix” and “ii” that satisfies “−10 ≦ ix ≦ 10” and “−10 ≦ iy ≦ 10”, and the correction corresponding to the selected combination. Create small image data that has been executed.

そして、選定処理部214は、修正後の小画像データを含む画像データから合致ペアブロックを抽出する(ステップS205)。選定処理部214は、上述したステップS201と同様の処理を実行することで、合致ペアブロックを抽出する。そして、選定処理部214は、修正後の小画像データを含む画像データから抽出した合致ペアブロックの数をカウントする(ステップS206)。図9に示す例では、選定処理部214は、「39」個であるとカウントする。   Then, the selection processing unit 214 extracts a matched pair block from the image data including the corrected small image data (step S205). The selection processing unit 214 extracts a matched pair block by executing the same process as in step S201 described above. Then, the selection processing unit 214 counts the number of matched pair blocks extracted from the image data including the corrected small image data (step S206). In the example illustrated in FIG. 9, the selection processing unit 214 counts “39”.

そして、選定処理部214は、合致ペアブロックの数を比較する(ステップS207)。例えば、選定処理部214は、入力部201が受け付けた画像データから抽出された合致ペアブロックの数「49」個と、小画像データが修正された後の画像データから抽出された合致ペアブロックの数「39」個とを比較する。   Then, the selection processing unit 214 compares the number of matched pair blocks (step S207). For example, the selection processing unit 214 sets the number of matched pair blocks “49” extracted from the image data received by the input unit 201 and the matched pair blocks extracted from the image data after the small image data is corrected. The number “39” is compared.

そして、選定処理部214は、他方と比較して抽出された合致ペアブロックの数が少ない画像データを選定する(ステップS208)。例えば、選定処理部214は、「49」個と比較して少ない「39」個のペアブロックが抽出されたステップS203にて作成された画像データを選定する。   Then, the selection processing unit 214 selects image data with a smaller number of matched pair blocks extracted compared to the other (step S208). For example, the selection processing unit 214 selects the image data created in step S203 from which “39” pair blocks, which are smaller than “49”, are extracted.

そして、選定処理部214は、修正内容をすべて選定したか判定する(ステップS209)。ここで、選定処理部214は、すべて選定したと判定すると(ステップS209肯定)、処理を終了する。一方、すべて選定していないと判定すると(ステップS209否定)、上述したステップS203に戻り、ステップS203からS209までの処理を繰り返す。ここで、ステップS207を再度実行する際には、ステップS207を前回実行した際に選定された画像データについての合致ペアブロックの数と、ステップS205にて新たに抽出された合致ペアブロックの数とを比較することになる。この結果、修正内容をすべて選定したと判定した際には(ステップS209肯定)、選定処理部214は、異なる修正内容が実行された画像データのうち、合致ペアブロックが最も少なくなる画像データを選定することになる。   Then, the selection processing unit 214 determines whether all correction contents have been selected (step S209). If the selection processing unit 214 determines that all have been selected (Yes at step S209), the process ends. On the other hand, if it is determined that not all have been selected (No at Step S209), the process returns to Step S203 described above, and the processes from Step S203 to S209 are repeated. Here, when step S207 is executed again, the number of matched pair blocks for the image data selected when step S207 was executed last time, the number of matched pair blocks newly extracted in step S205, and Will be compared. As a result, when it is determined that all the correction contents have been selected (Yes at step S209), the selection processing unit 214 selects image data with the smallest number of matched pair blocks among the image data on which different correction contents are executed. Will do.

なお、上記の処理手順は、上記の順番に限定されるものではなく、処理内容を矛盾させない範囲で適宜変更しても良い。例えば、図12に示す処理の流れでは、修正後の小画像データを含む画像データから抽出された合致ペアブロックをカウントするごとに、他方と比較して合致ペアブロックが少ない画像データを選定する場合を例に示したが、本発明はこれに限定されるものではない。例えば、修正内容各々に対応する画像データ複数作成し、複数の画像データについて合致ペアブロックの数をカウントした後に、合致ペアブロックが最も少なくなる画像データを選定しても良い。   In addition, said process procedure is not limited to said order, You may change suitably in the range which does not contradict a process content. For example, in the processing flow shown in FIG. 12, every time the matched pair block extracted from the image data including the corrected small image data is counted, image data having fewer matched pair blocks than the other is selected. However, the present invention is not limited to this. For example, a plurality of image data corresponding to each correction content may be created, and after counting the number of matched pair blocks for the plurality of image data, the image data with the least number of matched pair blocks may be selected.

[実施例2の効果]
上述したように、実施例2によれば、エンコード装置200は、画像データを複数のブロックに分割する。そして、エンコード装置200は、分割した画像データから合致ペアブロックを抽出する。そして、エンコード装置200は、小画像データを修正し、修正された後の画像データから合致ペアブロックを抽出する。そして、エンコード装置200は、抽出された合致ペアブロックの数を比較し、他方と比較して抽出された合致ペアブロックの数が少ない画像データを選定する。そして、エンコード装置200は、選定した画像データに対して、ペアブロックの隣接する2つのブロック間の特徴量の大小関係に基づいて情報を埋め込む。この結果、エンコード装置200によれば、エンコードされるペアブロックの数を増加でき、画像データから正しい情報がデコードされる確率を向上可能である。
[Effect of Example 2]
As described above, according to the second embodiment, the encoding apparatus 200 divides image data into a plurality of blocks. Then, the encoding apparatus 200 extracts a matched pair block from the divided image data. Then, the encoding apparatus 200 corrects the small image data and extracts a matched pair block from the corrected image data. Then, the encoding apparatus 200 compares the number of extracted matched pair blocks, and selects image data with a smaller number of extracted matched pair blocks compared to the other. Then, the encoding apparatus 200 embeds information in the selected image data based on the size relationship between the two adjacent blocks of the pair block. As a result, according to the encoding apparatus 200, the number of encoded pair blocks can be increased, and the probability that correct information is decoded from image data can be improved.

例えば、文字や符号などの記号を形成する小画像データが画像データに含まれる場合には、情報を埋め込まないペアブロックが多くなる。記号が存在するブロックの平均濃度と、記号が存在しないブロックの平均濃度とは、大きく異なることが多いからである。例えば、地図上に黒い文字が記載された画像データを例に説明する。また、特定色として黒色を用いる場合を例に説明する。この場合、黒い文字が存在するブロックの平均濃度は、黒い文字が存在しないブロックの平均濃度と比べて所定値以上高くなる。また、黒い文字が存在しないブロックの平均濃度は、黒い文字が存在するブロックの平均濃度と比べて所定値以上低くなる。この結果、エンコード装置は、黒い文字が存在するブロックを含むペアブロックについては、エンコード装置が埋め込む情報を示す特徴量の大小関係と一致しなければ、情報を埋め込まない。このように、記号を多く含む画像データであればあるほど、情報が埋め込まれないペアブロックが多くなると考えられる。これに対して、エンコード装置200は、小画像データを修正し、合致ペアブロックの数が少ない画像データに対して情報を埋め込むので、エンコードされるペアブロックの数を増加でき、画像データから正しい情報がデコードされる確率を向上可能である。   For example, when small image data forming a symbol such as a character or a code is included in the image data, the number of pair blocks in which no information is embedded increases. This is because the average density of blocks in which symbols are present and the average density of blocks in which symbols are not present are often very different. For example, image data in which black characters are described on a map will be described as an example. Further, a case where black is used as the specific color will be described as an example. In this case, the average density of blocks where black characters are present is higher than a predetermined value compared to the average density of blocks where black characters are not present. In addition, the average density of blocks in which black characters do not exist is lower than a predetermined value compared to the average density of blocks in which black characters exist. As a result, the encoding apparatus does not embed information for a pair block including a block in which black characters exist unless the magnitude relationship of the feature amount indicating the information embedded by the encoding apparatus matches. As described above, it is considered that as the image data includes more symbols, the number of pair blocks in which information is not embedded increases. On the other hand, the encoding apparatus 200 corrects the small image data and embeds information in the image data with a small number of matched pair blocks, so that the number of pair blocks to be encoded can be increased, and correct information can be obtained from the image data. Can improve the probability of decoding.

また、実施例2によれば、エンコード装置200は、ペアブロックの2つのブロック間の特徴量の大小関係が埋め込まれる情報を示す大小関係と一致するか否かを所定の判定基準として用いてペアブロック各々を判定する。また、エンコード装置200は、ペアブロックの2つのブロック間の特徴量の差が上限閾値を超えるか否かを用いてペアブロック各々を判定する。そして、エンコード装置200は、大小関係が一致しないと判定して上限閾値を超えると判定したペアブロックを抽出する。この結果、エンコード装置200によれば、エンコード時に情報が埋め込まれないペアブロックの数を修正前後において比較でき、エンコードされるペアブロックの数が最も多い画像データを確実に選定可能である。   Further, according to the second embodiment, the encoding apparatus 200 uses a pair of blocks as a predetermined determination criterion based on whether or not the magnitude relationship between the two blocks of the pair block matches the magnitude relationship indicating the embedded information. Each block is determined. In addition, the encoding apparatus 200 determines each pair block using whether or not the difference in feature amount between the two blocks of the pair block exceeds the upper limit threshold value. Then, the encoding device 200 determines that the magnitude relationship does not match and extracts the pair block determined to exceed the upper limit threshold. As a result, according to the encoding apparatus 200, the number of pair blocks in which no information is embedded at the time of encoding can be compared before and after correction, and image data with the largest number of pair blocks to be encoded can be selected reliably.

さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、その他の実施例にて実施されても良い。そこで、以下では、その他の実施例を示す。   Although the embodiments of the present invention have been described so far, the present invention may be implemented in other embodiments besides the above-described embodiments. Therefore, other embodiments will be described below.

[画像データの形式]
例えば、上述した実施例では、画像データが背景画像データと小画像データとを別に含む場合を用いて説明したが、本発明はこれに限定されるものではない。例えば、ビットマップ形式の画像データのように、背景画像データと小画像データとが分かれておらず、各画像の領域に、背景画像を形成する画素又は小画像を形成する画素のいずれか一方のみがある画像データであっても良い。この場合、エンコード装置200は、公知の画像認識処理を用いて、画像データに含まれる文字や符号などの記号を認識する。そして、認識した文字や符号を修正する。その際、エンコード装置200は、修正を実行することで記号の位置がずれて画素がない領域が発生した場合には、画素がない領域の周囲にある背景画像に基づいて画素がない領域に対応する画素を新たに生成し、生成した画素を用いて画素がない領域を補完する。画素がない領域の周囲にある背景画像に基づいて画素がない領域に対応する画素を新たに生成する処理については、公知の画像補正技術を用いて良い。
[Image data format]
For example, in the above-described embodiment, the case where the image data separately includes the background image data and the small image data has been described, but the present invention is not limited to this. For example, unlike bitmap image data, background image data and small image data are not separated, and only one of the pixels forming the background image or the pixels forming the small image is formed in each image area. There may be some image data. In this case, the encoding apparatus 200 recognizes symbols such as characters and codes included in the image data using a known image recognition process. Then, the recognized character or code is corrected. At that time, if the symbol position is shifted and a region without pixels is generated by executing the correction, the encoding apparatus 200 corresponds to the region without pixels based on the background image around the region without pixels. A new pixel is generated, and the generated pixel is used to complement a region without a pixel. A known image correction technique may be used for processing for newly generating a pixel corresponding to a region without a pixel based on a background image around a region without a pixel.

[上限閾値]
また、例えば、上述した実施例では、ペアブロックの2つのブロックの大小関係が埋め込まれる情報を示す大小関係と一致せず、2つのブロックの特徴量の差が上限閾値を超えたペアブロックについて、合致ペアブロックとして抽出する場合を例に説明した。ただし、本発明はこれに限定されるものではない。例えば、ペアブロックの2つのブロックの大小関係が埋め込まれる情報を示す大小関係と一致しないペアブロックを合致ペアブロックとして抽出しても良い。言い換えると、上限閾値について判定することなく、合致ペアブロックを抽出しても良い。
[Upper threshold]
Further, for example, in the above-described embodiment, for the pair block in which the magnitude relationship between the two blocks of the pair block does not coincide with the magnitude relationship indicating the information to be embedded, and the difference between the feature amounts of the two blocks exceeds the upper limit threshold, The case of extracting as a matched pair block has been described as an example. However, the present invention is not limited to this. For example, a pair block that does not match the magnitude relationship indicating the information in which the magnitude relationship between the two blocks of the pair block is embedded may be extracted as a matched pair block. In other words, a matched pair block may be extracted without determining the upper limit threshold.

[小画像データが存在するペアブロックから抽出]
また、例えば、上述した実施例では、画像データの全領域について、所定の判定基準を用いて合致ペアブロックを抽出する場合を例に説明したが、本発明はこれに限定されるものではない。例えば、エンコード装置200は、小画像データが存在するペアブロックについて、所定の判定基準を用いて合致ペアブロックを抽出する一方、小画像データが存在しないペアブロックについては、所定の判定基準を用いて合致ペアブロックを抽出しなくても良い。すなわち、小画像データが存在するペアブロックにおいては、2つのブロックの特徴量の差が大きくなることが多いことを踏まえ、小画像データが存在するペアブロックについてのみ処理を実行する。この結果、画像データ全体に対して処理を実行する手法と比較して、処理時間が短くすることが可能である。
[Extract from paired blocks with small image data]
Further, for example, in the above-described embodiment, the case where a matched pair block is extracted using a predetermined determination criterion for the entire area of the image data has been described as an example, but the present invention is not limited to this. For example, the encoding apparatus 200 extracts a matching pair block using a predetermined determination criterion for a pair block in which small image data exists, while using a predetermined determination criterion for a pair block in which small image data does not exist. It is not necessary to extract the matched pair block. That is, in a pair block in which small image data exists, the processing is executed only for the pair block in which small image data exists in consideration of the fact that the difference between the feature amounts of the two blocks is often large. As a result, it is possible to shorten the processing time as compared with a method of executing processing on the entire image data.

[小画像データが存在するペアブロックを抽出]
また、例えば、選定処理部214は、小画像データが存在するか否かを所定の判定基準として用いてペアブロック各々を判定し、小画像データが存在すると判定したペアブロックを抽出しても良い。つまり、小画像データが存在するペアブロックにおいては、2つのブロックの特徴量の差が大きくなることが多いことを踏まえ、小画像データが存在するか否かを所定の判定基準としても良い。この場合、大小関係や特徴量の差を所定の基準として用いる場合と比較して、処理時間を短くすることが可能である。
[Extract pair blocks with small image data]
In addition, for example, the selection processing unit 214 may determine each pair block using whether or not small image data exists as a predetermined determination criterion, and may extract a pair block determined to have small image data. . In other words, in a pair block in which small image data exists, whether or not there is small image data may be used as a predetermined determination criterion in consideration of the fact that the difference between the feature amounts of two blocks is often large. In this case, it is possible to shorten the processing time as compared with the case where the magnitude relation or the difference in the feature amount is used as the predetermined reference.

[システム構成]
また、本実施例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともできる。例えば、小画像データを識別する処理を利用者が手動にて実行しても良い。この他、上述文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については(図1〜図12)、特記する場合を除いて任意に変更することができる。
[System configuration]
In addition, among the processes described in the present embodiment, all or part of the processes described as being automatically performed can be manually performed. For example, the user may manually execute processing for identifying small image data. In addition, the processing procedures, control procedures, specific names, and information including various data and parameters shown in the above-mentioned document and drawings (FIGS. 1 to 12) are arbitrarily changed unless otherwise specified. be able to.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。例えば、図2に示す例を用いて説明すると、制御部210のエンコード部216をエンコード装置200の外部装置としてネットワーク経由で接続するようにしても良い。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or a part of the distribution / integration is functionally or physically distributed in arbitrary units according to various loads and usage conditions. Can be integrated and configured. For example, using the example shown in FIG. 2, the encoding unit 216 of the control unit 210 may be connected as an external device of the encoding device 200 via a network.

[コンピュータ]
また、上述の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図13を用いて、上述の実施例と同様の機能を有するエンコードプログラムを実行するコンピュータの一例を示す。なお、図13は、実施例2に係るエンコードプログラムを実行するコンピュータの一例を示す図である。
[Computer]
The various processes described in the above embodiments can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. Therefore, in the following, an example of a computer that executes an encoding program having the same function as that of the above-described embodiment will be described with reference to FIG. FIG. 13 is a diagram illustrating an example of a computer that executes an encoding program according to the second embodiment.

図13に示すように、実施例2におけるコンピュータ3000は、操作部3001、マイク3002、ディスプレイ3003、プリンタ3004、通信部3006、CPU3010、ROM3011などを有する。また、コンピュータ3000は、HDD(Hard Disk Drive)3012、RAM3013を有する。また、コンピュータ3000は、各部がバス3009で接続される。   As illustrated in FIG. 13, the computer 3000 according to the second embodiment includes an operation unit 3001, a microphone 3002, a display 3003, a printer 3004, a communication unit 3006, a CPU 3010, a ROM 3011, and the like. The computer 3000 includes an HDD (Hard Disk Drive) 3012 and a RAM 3013. Further, the computer 3000 is connected to each other by a bus 3009.

ROM3011は、図2にて示したコードビット列生成部211と、分割部212と、小画像識別部213と、選定処理部214と、画像形式変更部215と、エンコード部216と同様の機能を発揮する制御プログラムを記憶する。つまり、図13に示すように、ROM3011は、コードビット列生成プログラム3011aと、分割プログラム3011bと、小画像識別プログラム3011cとを記憶する。また、ROM3011は、選定処理プログラム3011dと、画像形式変更プログラム3011eと、エンコードプログラム3011fとを記憶する。なお、これらのプログラム3011a〜3011fについては、図2に示したエンコード装置200の各構成要素と同様、適宜統合又は分離しても良い。   The ROM 3011 exhibits the same functions as the code bit string generation unit 211, the division unit 212, the small image identification unit 213, the selection processing unit 214, the image format change unit 215, and the encoding unit 216 shown in FIG. The control program to be stored is stored. That is, as shown in FIG. 13, the ROM 3011 stores a code bit string generation program 3011a, a division program 3011b, and a small image identification program 3011c. The ROM 3011 stores a selection processing program 3011d, an image format change program 3011e, and an encoding program 3011f. Note that these programs 3011a to 3011f may be appropriately integrated or separated in the same manner as each component of the encoding apparatus 200 shown in FIG.

そして、CPU3010が、これらのプログラム3011a〜3011fをROM3011から読み出して実行する。この結果、図13に示すように、各プログラムは、コードビット列生成プロセス3010aと、分割プロセス3010bと、小画像識別プロセス3010cと、選定処理プロセス3010dとして機能する。また、各プログラムは、画像形式変更プロセス3010eと、エンコードプロセス3010fとして機能する。なお、各プロセス3010a〜3010fは、図2に示した、コードビット列生成部211と、分割部212と、小画像識別部213と、選定処理部214と、画像形式変更部215と、エンコード部216とにそれぞれ対応する。   Then, the CPU 3010 reads these programs 3011a to 3011f from the ROM 3011 and executes them. As a result, as shown in FIG. 13, each program functions as a code bit string generation process 3010a, a division process 3010b, a small image identification process 3010c, and a selection processing process 3010d. Each program functions as an image format change process 3010e and an encode process 3010f. Each of the processes 3010a to 3010f includes the code bit string generation unit 211, the division unit 212, the small image identification unit 213, the selection processing unit 214, the image format change unit 215, and the encoding unit 216 shown in FIG. And correspond respectively.

そして、CPU3010は、RAM3013に格納された画像データ3013aと、コードビットデータ列データ3013bと、上限閾値データ3013cとを用いて、エンコードプログラムを実行する。   The CPU 3010 executes the encoding program using the image data 3013a, the code bit data string data 3013b, and the upper threshold data 3013c stored in the RAM 3013.

ただし、上述した説明では、プロセス3010a〜3010fすべてが常にCPU3010上にて仮想的に実現される場合について示した。しかしながら、本発明はこれに限定されるものではない。例えば、プロセス3010a〜3010fのうち処理に必要な一部のプロセスについて、CPU3010上にて仮想的に実現されても良い。言い換えると、常にすべてのプロセスがCPU3010上にて動作するのではなく、処理に必要なプロセスが選択的に動作するようにしても良い。   However, in the above description, the case where all the processes 3010a to 3010f are always virtually realized on the CPU 3010 is shown. However, the present invention is not limited to this. For example, some processes required for processing among the processes 3010a to 3010f may be virtually realized on the CPU 3010. In other words, not all processes always operate on the CPU 3010, but processes necessary for processing may selectively operate.

[その他]
なお、本実施例で説明したエンコードプログラムは、インターネットなどのネットワークを介して配布しても良い。また、エンコードプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行しても良い。
[Others]
Note that the encoding program described in the present embodiment may be distributed via a network such as the Internet. The encoding program may be recorded on a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, and a DVD, and may be executed by being read from the recording medium by the computer.

100 エンコード装置
101 分割部
102 抽出部
103 修正部
104 抽出部
105 選定部
106 エンコード部
200 エンコード装置
201 入力部
202 出力部
210 制御部
211 コードビット列生成部
212 分割部
213 小画像識別部
214 選定処理部
215 画像形式変更部
216 エンコード部
DESCRIPTION OF SYMBOLS 100 Encoding apparatus 101 Dividing part 102 Extracting part 103 Correction part 104 Extracting part 105 Selecting part 106 Encoding part 200 Encoding apparatus 201 Input part 202 Output part 210 Control part 211 Code bit stream generation part 212 Dividing part 213 Small image identification part 214 Selection processing part 215 Image format changing unit 216 Encoding unit

Claims (7)

画像データを複数のブロックに分割する分割部と、
前記分割部により分割された画像データの隣接する2つのブロックのペアであるペアブロックのうち、所定の判定基準に合致するペアブロックである合致ペアブロックを抽出する第1の抽出部と、
前記分割部により分割される前記画像データにより形成される画像の一部を形成するデータであって、背景を形成する画像とは異なる画像を形成する小画像データを修正する修正部と、
前記修正部により前記小画像データが修正された後の画像データから前記合致ペアブロックを抽出する第2の抽出部と、
前記第1の抽出部により抽出された合致ペアブロックの数と、前記第2の抽出部により抽出された合致ペアブロックの数とを比較し、他方と比較して抽出された合致ペアブロックの数が少ない画像データを選定する選定部と、
前記選定部により選定された画像データに対して、前記ペアブロックの2つのブロック間の特徴量の大小関係に基づいて情報を埋め込むエンコード部と
を備えたことを特徴とするエンコード装置。
A dividing unit for dividing the image data into a plurality of blocks;
A first extraction unit that extracts a matched pair block that is a pair block that matches a predetermined determination criterion among a pair block that is a pair of two adjacent blocks of image data divided by the dividing unit;
A correction unit that corrects small image data that forms part of an image formed by the image data divided by the dividing unit and forms an image different from an image that forms a background;
A second extraction unit for extracting the matched pair block from the image data after the small image data is corrected by the correction unit;
The number of matched pair blocks extracted by comparing the number of matched pair blocks extracted by the first extracting unit with the number of matched pair blocks extracted by the second extracting unit A selection unit that selects image data with less
An encoding apparatus comprising: an encoding unit that embeds information in the image data selected by the selection unit based on a magnitude relationship between feature quantities between two blocks of the pair block.
前記第1の抽出部と前記第2の抽出部とは、前記小画像データが存在するか否かを前記所定の判定基準として用いて前記ペアブロックを判定し、該小画像データが存在すると判定したペアブロックを抽出することを特徴とする請求項1に記載のエンコード装置。   The first extraction unit and the second extraction unit determine the pair block using whether or not the small image data exists as the predetermined determination criterion, and determine that the small image data exists. 2. The encoding apparatus according to claim 1, wherein the pair block is extracted. 前記第1の抽出部と前記第2の抽出部とは、前記ペアブロックの2つのブロック間の特徴量の大小関係が埋め込まれる情報を示す大小関係と一致するか否かを前記所定の判定基準として用いて前記ペアブロックを判定し、該ペアブロックの2つのブロック間の特徴量の差が上限閾値を超えるか否かを該所定の判定基準として用いて前記ペアブロックを判定し、該大小関係が一致しないと判定して該上限閾値を超えると判定したペアブロックを抽出することを特徴とする請求項1又は請求項2に記載のエンコード装置。   The first extraction unit and the second extraction unit are configured to determine whether or not the size relationship between the two blocks of the pair block matches a size relationship indicating information to be embedded. To determine the pair block, to determine whether the difference in feature quantity between the two blocks of the pair block exceeds an upper limit threshold as the predetermined criterion, and to determine the size of the pair block The encoding apparatus according to claim 1, wherein a pair block that is determined not to match and determined to exceed the upper threshold is extracted. 前記小画像により形成される画像は、記号であって、
前記修正部は、前記小画像により形成される記号の位置、他の記号との間隔、フォントの種類、記号の大きさのうち、いずれか1つ又は複数を修正することを特徴とする請求項1〜請求項3のいずれか1つに記載のエンコード装置。
The image formed by the small image is a symbol,
The correction unit corrects at least one of a position of a symbol formed by the small image, an interval with another symbol, a font type, and a symbol size. The encoding device according to any one of claims 1 to 3.
コンピュータが
画像データを複数のブロックに分割する分割ステップと、
前記分割ステップにより分割された画像データの隣接する2つのブロックのペアであるペアブロックのうち、所定の判定基準に合致するペアブロックである合致ペアブロックを抽出する第1の抽出ステップと、
前記分割ステップにより分割される前記画像データにより形成される画像の一部を形成するデータであって、背景を形成する画像とは異なる画像を形成する小画像データを修正する修正ステップと、
前記修正ステップにより前記小画像データが修正された後の画像データから前記合致ペアブロックを抽出する第2の抽出ステップと、
前記第1の抽出ステップにより抽出された合致ペアブロックの数と、前記第2の抽出ステップにより抽出された合致ペアブロックの数とを比較し、他方と比較して抽出された合致ペアブロックの数が少ない画像データを選定する選定ステップと、
前記選定ステップにより選定された画像データに対して、前記ペアブロックの2つのブロック間の特徴量の大小関係に基づいて情報を埋め込むエンコードステップと
を実行することを特徴とするエンコード方法。
A dividing step in which the computer divides the image data into a plurality of blocks;
A first extraction step of extracting a matched pair block that is a pair block that matches a predetermined determination criterion from a pair block that is a pair of two adjacent blocks of the image data divided by the dividing step;
A correction step for correcting small image data that forms part of an image formed by the image data divided by the dividing step and forms an image different from an image forming a background;
A second extraction step of extracting the matched pair block from the image data after the small image data is corrected by the correction step;
The number of matched pair blocks extracted by comparing the number of matched pair blocks extracted by the first extracting step with the number of matched pair blocks extracted by the second extracting step A selection step to select image data with less
An encoding method comprising: performing an encoding step of embedding information on the image data selected in the selection step based on a magnitude relationship between feature quantities between two blocks of the pair block.
画像データを複数のブロックに分割する分割手順と、
前記分割手順により分割された画像データの隣接する2つのブロックのペアであるペアブロックのうち、所定の判定基準に合致するペアブロックである合致ペアブロックを抽出する第1の抽出手順と、
前記分割手順により分割される前記画像データにより形成される画像の一部を形成するデータであって、背景を形成する画像とは異なる画像を形成する小画像データを修正する修正手順と、
前記修正手順により前記小画像データが修正された後の画像データから前記合致ペアブロックを抽出する第2の抽出手順と、
前記第1の抽出手順により抽出された合致ペアブロックの数と、前記第2の抽出手順により抽出された合致ペアブロックの数とを比較し、他方と比較して抽出された合致ペアブロックの数が少ない画像データを選定する選定手順と、
前記選定手順により選定された画像データに対して、前記ペアブロックの2つのブロック間の特徴量の大小関係に基づいて情報を埋め込むエンコード手順と
をコンピュータに実行させることを特徴とするエンコードプログラム。
A division procedure for dividing the image data into a plurality of blocks;
A first extraction procedure for extracting a matched pair block that is a pair block that matches a predetermined determination criterion from a pair block that is a pair of two adjacent blocks of image data divided by the division procedure;
A correction procedure for correcting small image data that forms part of an image formed by the image data divided by the division procedure and forms an image different from an image that forms a background;
A second extraction procedure for extracting the matched pair block from the image data after the small image data is corrected by the correction procedure;
The number of matched pair blocks extracted by comparing the number of matched pair blocks extracted by the first extracting procedure with the number of matched pair blocks extracted by the second extracting procedure A selection procedure to select image data with less
An encoding program for causing a computer to execute an encoding procedure for embedding information on the image data selected by the selection procedure on the basis of a magnitude relationship between feature quantities between two blocks of the pair block.
画像データを複数のブロックに分割する分割部と、
前記分割部により分割された画像データの隣接する2つのブロックのペアであるペアブロックのうち、所定の判定基準に合致するペアブロックである合致ペアブロックを抽出する第1の抽出部と、
前記分割部により分割される前記画像データにより形成される画像の一部を形成するデータであって、背景を形成する画像とは異なる画像を形成する小画像データを修正する修正部と、
前記修正部により前記小画像データが修正された後の画像データから前記合致ペアブロックを抽出する第2の抽出部と、
前記第1の抽出部により抽出された合致ペアブロックの数と、前記第2の抽出部により抽出された合致ペアブロックの数とを比較し、他方と比較して抽出された合致ペアブロックの数が少ない画像データを選定する選定部と、
前記選定部により選定された画像データを出力する出力部と
を備えた画像データ出力装置。
A dividing unit for dividing the image data into a plurality of blocks;
A first extraction unit that extracts a matched pair block that is a pair block that matches a predetermined determination criterion among a pair block that is a pair of two adjacent blocks of image data divided by the dividing unit;
A correction unit that corrects small image data that forms part of an image formed by the image data divided by the dividing unit and forms an image different from an image that forms a background;
A second extraction unit for extracting the matched pair block from the image data after the small image data is corrected by the correction unit;
The number of matched pair blocks extracted by comparing the number of matched pair blocks extracted by the first extracting unit with the number of matched pair blocks extracted by the second extracting unit A selection unit that selects image data with less
An image data output device comprising: an output unit that outputs the image data selected by the selection unit.
JP2010075944A 2010-03-29 2010-03-29 Encoding device, encoding method, and encoding program Withdrawn JP2011211411A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010075944A JP2011211411A (en) 2010-03-29 2010-03-29 Encoding device, encoding method, and encoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010075944A JP2011211411A (en) 2010-03-29 2010-03-29 Encoding device, encoding method, and encoding program

Publications (1)

Publication Number Publication Date
JP2011211411A true JP2011211411A (en) 2011-10-20

Family

ID=44942034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010075944A Withdrawn JP2011211411A (en) 2010-03-29 2010-03-29 Encoding device, encoding method, and encoding program

Country Status (1)

Country Link
JP (1) JP2011211411A (en)

Similar Documents

Publication Publication Date Title
TWI543083B (en) Method of creating two dimensional code
JP5287485B2 (en) Information expression image, printed matter, image processing apparatus, and image processing program
JP2012238342A (en) Two-dimensional code generated by two-dimensional code generating device
CN111046996B (en) Color QR code generation and identification method
Zhang et al. Aesthetic QR codes based on two-stage image blending
TWI502516B (en) Beautifying method of quick response code and apparatus thereof
Guan et al. Double-layered dual-syndrome trellis codes utilizing channel knowledge for robust steganography
Kuribayashi et al. Aesthetic QR code based on modified systematic encoding function
EP1739619A1 (en) Data embedding apparatus and printed material
US20070110273A1 (en) Image processing method and image processing program product
KR20210079362A (en) Improved image watermarking
JP2011211411A (en) Encoding device, encoding method, and encoding program
JP5310477B2 (en) Image processing apparatus, image processing method, and image processing program
TWI411927B (en) Method of embedding information in input image, method of extracting information from input image and related apparatuses thereof
JP2009212800A (en) Image compression apparatus
CN109729233B (en) Information hiding method and device based on image, storage medium and electronic equipment
Kin-Cleaves et al. Reducing coding loss with irregular syndrome trellis codes
CN111726639B (en) Texture brick compression and decompression method and device using same
KR101753914B1 (en) Device and method for generating and recognizing bar-code in wireless terminal
JP2011049690A (en) Two-dimensional code generator, image forming system, two-dimensional code reader, computer program, and medium
JP4575873B2 (en) Image processing device
JP4910786B2 (en) Image processing apparatus and image processing method
JP2008278462A (en) Image processing device, image processing method, and storage medium
CN116703686B (en) Image processing method, device, equipment and storage medium
Liu et al. Quick Response Code Beautification Based on Mask Pattern Optimization

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130604