JP7455584B2 - Information processing device, control method for information processing device, program, and storage medium - Google Patents

Information processing device, control method for information processing device, program, and storage medium Download PDF

Info

Publication number
JP7455584B2
JP7455584B2 JP2020000312A JP2020000312A JP7455584B2 JP 7455584 B2 JP7455584 B2 JP 7455584B2 JP 2020000312 A JP2020000312 A JP 2020000312A JP 2020000312 A JP2020000312 A JP 2020000312A JP 7455584 B2 JP7455584 B2 JP 7455584B2
Authority
JP
Japan
Prior art keywords
additional information
information
display
displayed
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020000312A
Other languages
Japanese (ja)
Other versions
JP2021111799A (en
Inventor
洋行 酒井
充 浦谷
祐樹 石田
勇気 大曲
智博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020000312A priority Critical patent/JP7455584B2/en
Publication of JP2021111799A publication Critical patent/JP2021111799A/en
Application granted granted Critical
Publication of JP7455584B2 publication Critical patent/JP7455584B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Transmission Control (AREA)

Description

本発明は、記録画像に埋め込まれた付加情報を抽出する情報処理装置、情報処理装置の制御方法、プログラム、および記憶媒体に関する。 The present invention relates to an information processing device that extracts additional information embedded in a recorded image, a control method for the information processing device , a program , and a storage medium .

特許文献1には、カメラによって撮像した画像の画像データに付加情報(電子透かし情報)を埋め込むとともに、付加情報が埋め込まれた画像データに基づいて記録された記録画像を撮像した撮像画像から付加情報を抽出する技術が開示されている。この特許文献1に開示された技術では、付加情報(秘匿情報)を確実に抽出するために、付加情報と、当該付加情報を埋め込んだ位置情報とを、画像データ(画像信号)に埋め込むようにしている。具体的には、画像データの第1の信号成分に付加情報を埋め込み、画像データの第2の信号成分に上記位置情報を埋め込むようにしている。 Patent Document 1 discloses that additional information (electronic watermark information) is embedded in the image data of an image captured by a camera, and additional information is extracted from the captured image of a recorded image recorded based on the image data in which the additional information is embedded. A technique for extracting is disclosed. In the technique disclosed in Patent Document 1, in order to reliably extract additional information (confidential information), additional information and position information in which the additional information is embedded are embedded in image data (image signal). ing. Specifically, the additional information is embedded in the first signal component of the image data, and the position information is embedded in the second signal component of the image data.

特許第4015288号公報Patent No. 4015288

画像データには、付加情報として、例えば、テキスト文書情報、音声情報、動画情報などの種々の情報を埋め込むことが可能となっている。ところが、画像データの複数の領域のそれぞれに、記録画像において視覚的に判別し難くなるように、異なる付加情報を埋め込んだ場合には、ユーザは記録画像のどの部分にどの付加情報が含まれているのかがわからない。このため、付加情報を抽出するために撮像した撮像画像において、複数の付加情報が含まれることがある。 Various types of information, such as text document information, audio information, and video information, can be embedded in image data as additional information. However, if different additional information is embedded in each of multiple areas of image data in a manner that makes it difficult to visually distinguish them in the recorded image, the user cannot determine which additional information is included in which part of the recorded image. I don't know if there are any. Therefore, a plurality of pieces of additional information may be included in a captured image taken to extract additional information.

しかしながら、特許文献1に開示された技術では、抽出された複数の付加情報をどのように通知するのかが記載されておらず、ユーザに対して所望の付加情報を適切に通知することができない。 However, the technique disclosed in Patent Document 1 does not describe how to notify a plurality of extracted additional information, and cannot appropriately notify a user of desired additional information.

本発明は、上記課題に鑑みてなされたものであり、撮像画像から抽出した複数の付加情報から所定の付加情報を適切に通知することが可能な技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique that can appropriately notify predetermined additional information from a plurality of additional information extracted from a captured image.

上記目的を達成するために、本発明の一実施形態は、情報処理装置であって、撮像された撮像画像に含まれている付加情報を抽出する抽出手段と、前記抽出手段で抽出された複数の付加情報のそれぞれに関する情報を表示手段に選択可能に表示するように制御する表示制御手段と、前記表示制御手段の制御により表示された複数の付加情報のそれぞれに関する情報のうち、ユーザに選択された情報に対応する付加情報に基づく通知を行うように制御する通知制御手段と、を有し前記表示制御手段は、第1の撮像画像から抽出された第1の付加情報に関する情報を前記表示手段に表示している状態で、前記第1の撮像画像よりも後に撮像された第2の撮像画像から抽出した1つ以上の付加情報に前記第1の付加情報が含まれていても当該第1の付加情報に関する情報を前記表示手段に追加して表示することなく、前記1つ以上の付加情報に前記表示手段に表示されていない第2の付加情報が含まれている場合には当該第2の付加情報に関する情報を追加して表示するように制御することを特徴とする。 In order to achieve the above object, one embodiment of the present invention is an information processing apparatus, which includes an extraction means for extracting additional information included in a captured image, and a plurality of additional information extracted by the extraction means. display control means for controlling the display means to selectably display information regarding each of the plurality of additional information on the display means; notification control means for controlling the notification to be performed based on additional information corresponding to the information that has been extracted , and the display control means for displaying the information regarding the first additional information extracted from the first captured image. Even if the first additional information is included in one or more additional information extracted from a second captured image captured after the first captured image, If the one or more pieces of additional information include second additional information that is not displayed on the display means, the information regarding the first additional information is not additionally displayed on the display means. The present invention is characterized in that information regarding additional information No. 2 is controlled to be added and displayed .

本発明によれば、撮像画像から抽出した付加情報から所定の付加情報を適切に通知することができるようになる。 According to the present invention, it becomes possible to appropriately notify predetermined additional information from additional information extracted from a captured image.

実施形態による情報処理システムのブロック構成図。FIG. 1 is a block configuration diagram of an information processing system according to an embodiment. 多重化エンコード処理装置のファームウェア構成を示すブロック図。FIG. 2 is a block diagram showing a firmware configuration of a multiplex encoding processing device. 復元処理の処理内容を示すフローチャート。5 is a flowchart showing the contents of restoration processing. 色補正テーブルを示す図。A diagram showing a color correction table. 四面体補間法を説明する図。A diagram explaining the tetrahedral interpolation method. 色分解テーブルを示す図。A diagram showing a color separation table. 誤差拡散法による誤差分配方法を説明する図。FIG. 3 is a diagram illustrating an error distribution method using an error diffusion method. マスクデータの概念図。Conceptual diagram of mask data. 多重化エンコード処理の処理内容を示すフローチャート。5 is a flowchart showing the processing contents of multiplex encoding processing. 多重化部のファームウェア構成を示すブロック図。FIG. 2 is a block diagram showing a firmware configuration of a multiplexing unit. マスクパターンを示す図。A diagram showing a mask pattern. 記録処理の処理内容を示すフローチャート。5 is a flowchart showing the processing details of recording processing. 多重化デコード処理装置のハードウェア構成を示すブロック図。FIG. 2 is a block diagram showing the hardware configuration of a multiplex decoding processing device. 多重化デコード処理装置のファームウェア構成を示すブロック図。FIG. 2 is a block diagram showing a firmware configuration of a multiplex decoding processing device. 撮像領域と付加情報の埋め込み位置とを説明する図。4A and 4B are diagrams for explaining an imaging area and an embedding position of additional information. 周波数特性の判定と複数のブロック単位に多重化された領域とを説明する図。FIG. 3 is a diagram illustrating determination of frequency characteristics and regions multiplexed in units of a plurality of blocks. ブロックの検出位置を説明する図。FIG. 3 is a diagram illustrating the detected position of a block. 撮像画像における付加情報を示す図。FIG. 7 is a diagram showing additional information in a captured image. 多重化デコード処理の処理内容を示すフローチャート。5 is a flowchart showing the processing contents of multiplex decoding processing. 第1実施形態の情報処理システムにおける通知処理の処理内容を示すフローチャート。5 is a flowchart showing processing details of notification processing in the information processing system of the first embodiment. 第2実施形態の情報処理システムにおける通知処理の処理内容を示すフローチャート。7 is a flowchart showing the processing contents of notification processing in the information processing system of the second embodiment.

以下、添付の図面を参照しながら、情報処理装置、情報処理装置の制御方法、プログラム、および記憶媒体の実施形態の一例を詳細に説明する。なお、以下の実施形態は、本発明を限定するものではなく、また、実施形態で説明されている特徴の組み合わせのすべてが本発明の解決手段の必須のものとは限らない。また、実施形態に記載されている構成要素の相対位置、形状などは、あくまで例示であり、この発明の範囲をそれらのみに限定する趣旨のものではない。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an example of an embodiment of an information processing apparatus , a method for controlling the information processing apparatus , a program , and a storage medium will be described in detail with reference to the accompanying drawings. Note that the following embodiments do not limit the present invention, and not all combinations of features described in the embodiments are essential to the solution of the present invention. Further, the relative positions, shapes, etc. of the components described in the embodiments are merely examples, and are not intended to limit the scope of the present invention.

(第1実施形態)
まず、図1乃至図20を参照しながら、第1実施形態による情報処理システムについて詳細に説明する。
(First embodiment)
First, the information processing system according to the first embodiment will be described in detail with reference to FIGS. 1 to 20.

図1は、本実施形態による情報処理システム10のブロック構成図である。第1実施形態による情報処理システム10は、画像データに付加情報を埋め込む多重化エンコード処理装置12と、撮像画像から付加情報を抽出し、利用する多重化デコード処理装置14とを備えている。 FIG. 1 is a block configuration diagram of an information processing system 10 according to this embodiment. The information processing system 10 according to the first embodiment includes a multiplex encoding processing device 12 that embeds additional information in image data, and a multiplex decoding processing device 14 that extracts additional information from a captured image and uses it.

=多重化エンコード処理装置=
<ハードウェア構成>
多重化エンコード処理装置12では、画像データAと付加情報Bとを取得し、付加情報Bが埋め込まれた画像データAに基づく記録物Cを生成する。多重化エンコード処理装置12は、画像データAに付加情報Bを埋め込む多重化装置16と、多重化装置16で付加情報Bが埋め込まれた画像データAに基づいて記録する記録装置18とを備えている。多重化装置16(第1情報処理装置)は、CPU(中央処理装置)20、ROM22、およびRAM24を備えている。CPU20は、RAM24をワークエリアとしながら、ROM22に格納されたプログラムや各種パラメータにしたがって、演算、判定、および制御などを行う。
=Multiplex encoding processing device=
<Hardware configuration>
The multiplex encoding processing device 12 acquires the image data A and the additional information B, and generates a recorded material C based on the image data A in which the additional information B is embedded. The multiplexing/encoding processing device 12 includes a multiplexing device 16 that embeds additional information B in image data A, and a recording device 18 that records based on the image data A in which the additional information B has been embedded in the multiplexing device 16. There is. The multiplexing device 16 (first information processing device) includes a CPU (central processing unit) 20, a ROM 22, and a RAM 24. The CPU 20 uses the RAM 24 as a work area and performs calculations, judgments, controls, etc. according to programs and various parameters stored in the ROM 22.

画像データAは、入力端子26から多重化装置16に入力される。画像データAは、色成分を含む多階調の画像データである。付加情報Bは、入力端子28から多重化装置16に入力される。付加情報Bは、テキスト文書情報、音声情報、動画情報、テキスト文書、音声、画像、動画などの圧縮情報、他のバイナリ値に変換された変換情報などとなる。なお、多重化エンコード処理装置12については、上記多重化装置16の処理を制御部で実行するようにした記録装置としてもよい。 Image data A is input to the multiplexing device 16 from the input terminal 26. Image data A is multi-tone image data including color components. Additional information B is input to the multiplexing device 16 from the input terminal 28. Additional information B can be text document information, audio information, video information, compressed information such as text documents, audio, images, and videos, or converted information converted into other binary values. Note that the multiplexing encoding processing device 12 may be a recording device in which the processing of the multiplexing device 16 is executed by a control unit.

<ファームウェア構成>
次に、多重化エンコード処理装置12のファームウェア構成について説明する。図2は、多重化エンコード処理装置12のファームウェア構成を示すブロック図である。多重化エンコード処理装置12に入力された画像データAは、下記の各構成において処理が施され、記録装置18に送信されることとなる。
<Firmware configuration>
Next, the firmware configuration of the multiplex encoding processing device 12 will be explained. FIG. 2 is a block diagram showing the firmware configuration of the multiplex encoding processing device 12. As shown in FIG. The image data A input to the multiplex encoding processing device 12 is processed in each of the configurations described below, and then sent to the recording device 18.

・取得部
多重化エンコード処理装置12に送信された画像データAは、まず、取得部30において処理される。ここで、入力端子26から入力される画像データAは、例えば、文書データをJPEGフォーマットで圧縮して得られた非可逆画像データである。非可逆画像データには、圧縮する際に使用された量子化テーブルと画像データサイズとが含まれている。
- Acquisition Unit The image data A sent to the multiplex encoding processing device 12 is first processed in the acquisition unit 30. Here, the image data A input from the input terminal 26 is, for example, irreversible image data obtained by compressing document data in JPEG format. The irreversible image data includes the quantization table used during compression and the image data size.

取得部30は、入力端子26から入力された画像データAから、画像データAを圧縮する際に使用された各種パラメータを取得する。即ち、画像データAが、文書データをJPEGフォーマットで圧縮して得られた非可逆画像データであれば、量子化テーブルおよび画像データサイズなどが取得されることとなる。取得されたパラメータについては、後述する復元部32に送信され、付加情報Bが埋め込まれる画像データの抽出に利用される。また、不図示の圧縮案出部に送信され、圧縮度を算出するための処理に利用される。 The acquisition unit 30 acquires, from the image data A input from the input terminal 26, various parameters used when compressing the image data A. That is, if the image data A is irreversible image data obtained by compressing document data in the JPEG format, the quantization table, image data size, etc. will be acquired. The acquired parameters are sent to a restoring unit 32, which will be described later, and are used to extract image data in which additional information B is embedded. The data is also sent to a compression planning unit (not shown) and used for processing to calculate the degree of compression.

・復元部
復元部32は、符号化され画像データを復号化して画像データを抽出する。なお、以下の説明では、抽出される画像データをJPEG画像として説明する。図3を参照しながら、復元部32で実行される、符号化された画像データを復号化する複合処理について説明する。図3は、符号化された画像データを復号化する処理内容を示すフローチャートである。図3のフローチャートで示される一連の処理は、CPU20がROM22に記憶されているプログラムコードをRAM24に展開して実行されることにより行われる。あるいはまた、図3におけるステップの一部または全部の機能をASICまたは電子回路などのハードウェアで実行してもよい。なお、各処理の説明における符号Sは、当該フローチャートにおけるステップであることを意味する(以下、本明細書において同様とする。)。
- Restoration Unit The restoration unit 32 decodes encoded image data and extracts image data. Note that in the following explanation, extracted image data will be explained as a JPEG image. With reference to FIG. 3, a composite process for decoding encoded image data, which is executed by the restoration unit 32, will be described. FIG. 3 is a flowchart showing the process of decoding encoded image data. The series of processes shown in the flowchart of FIG. 3 is performed by the CPU 20 loading the program code stored in the ROM 22 into the RAM 24 and executing it. Alternatively, the functionality of some or all of the steps in FIG. 3 may be performed in hardware, such as an ASIC or electronic circuit. Note that the symbol S in the description of each process means a step in the flowchart (hereinafter, the same shall apply in this specification).

ここで、JPEGのデータ形式である画像が、例えば、N個の8画素正方ブロック(8×8画素のブロック)に分割されているものとする。この場合、復元処理では、まず、N=1とし(S302)、第N番目のブロックを8画素正方ブロック単位でハフマン符号化し(S304)、取得部30で取得した量子化テーブルを用いて逆量子化し(S306)、それを逆DCT変換する(S308)。その後、第N番目ブロックが、最後のブロックか否かを判定し(S310)、差後のブロックでないと判定されると、Nをインクリメントして(S312)、S304に戻る。S310において、最後のブロックであると判定されると、この復元処理を終了する。 Here, it is assumed that an image in the JPEG data format is divided into, for example, N 8-pixel square blocks (8×8 pixel blocks). In this case, in the restoration process, first, N=1 is set (S302), the N-th block is Huffman encoded in units of 8-pixel square blocks (S304), and the quantization table acquired by the acquisition unit 30 is used to inversely quantize the (S306), and inverse DCT transforms it (S308). Thereafter, it is determined whether the Nth block is the last block (S310), and if it is determined that it is not the block after the difference, N is incremented (S312) and the process returns to S304. In S310, if it is determined that the block is the last block, this restoration process ends.

なお、JPEGの復号化処理は公知の技術であるため、以下の説明では、ハフマン符号化、逆量子化、逆DCT(Discrete Cosine Transform)変換の概略について説明する。ハフマン符号化は、頻度の高いデータに近いビット数の符号を割り当てることによって、全体のビット数を減らすように圧縮する方法である。ハフマン符号化は、予めはハフマン符号を仕様で定義しておいて、元にデータに復号化する。逆量子化においては、取得部30において取得された量子化テーブル(画像データを圧縮する際に使用された量子化テーブル)を用いる逆量子化により、画像データに展開する処理である。 Note that since JPEG decoding processing is a well-known technique, the following description will outline Huffman encoding, inverse quantization, and inverse DCT (Discrete Cosine Transform). Huffman encoding is a compression method that reduces the overall number of bits by assigning a code with a bit number close to that of frequently occurring data. In Huffman encoding, a Huffman code is defined in advance in specifications, and the code is originally decoded into data. Inverse quantization is a process of developing image data by inverse quantization using the quantization table acquired by the acquisition unit 30 (the quantization table used when compressing the image data).

逆DCT変換は、直流成分(DC成分)と交流成分(AC成分)にDCT変換された画像データをもとの画像濃度成分の情報に戻すための逆変換を行う処理である。JPEG圧縮は、輝度Y、色差Cb、Cr形式で実施されることが多く、その場合、逆DCT処理が施されたデータもYCbCrの形式になる。下記(1)式により、YCbCr形式の値をRGB形式の画像信号値に変換する。
R = Y + 1.402×Cr
G = Y - 0.344×Cb - 0.714×Cr ・・・ (1)
B = Y + 1.772×Cb
Inverse DCT transformation is a process of performing inverse transformation to return image data that has been DCT-converted into a direct current component (DC component) and an alternating current component (AC component) to the original image density component information. JPEG compression is often performed in a luminance Y, color difference Cb, Cr format, and in that case, data subjected to inverse DCT processing also becomes a YCbCr format. A value in YCbCr format is converted into an image signal value in RGB format using equation (1) below.
R = Y + 1.402×Cr
G = Y - 0.344 x Cb - 0.714 x Cr... (1)
B = Y + 1.772×Cb

・画像補正部
画像補正部34は、復元部32により復号化されたRGBデータに対し、画像の補正処理を施す。画像補正部34で行う補正としては、全体の色を明るくまたは暗くする明度調整、コントラスト調整、およびカラーバランスの調整のほか、写真の記録を想定した逆光補正および赤目補正など種々の補正が挙げられる。これらの補正を画像補正部34において一元的に処理することにより、記録装置18に依存しない処理を実現することができる。
- Image correction unit The image correction unit 34 performs image correction processing on the RGB data decoded by the restoration unit 32. Corrections performed by the image correction unit 34 include brightness adjustment, contrast adjustment, and color balance adjustment to brighten or darken the overall color, as well as various corrections such as backlight correction and red-eye correction assuming photographic recording. . By processing these corrections in an integrated manner in the image correction section 34, processing that does not depend on the recording device 18 can be realized.

・解像度変換部
解像度変換部36は、画像補正部34などで処理された画像データを記録装置18に対応する解像度に変換する。即ち、画像データと、記録装置18の解像度とから変倍量が導き出され、この変倍量に基づいて拡大または縮小の処理を施す。変倍処理としては、ニアレストネイバー法、バイリニア法、バイキュービック法などがあり、処理の特性および処理速度を考慮して適宜選択される。
-Resolution Conversion Unit The resolution conversion unit 36 converts the image data processed by the image correction unit 34 or the like to a resolution compatible with the recording device 18. That is, the amount of scaling is derived from the image data and the resolution of the recording device 18, and the enlargement or reduction processing is performed based on this amount of scaling. Examples of scaling processing include the nearest neighbor method, bilinear method, bicubic method, etc., and are appropriately selected in consideration of processing characteristics and processing speed.

・色補正部
色補正部38は、記録装置18による記録画像が好適な色となるように、画像データに変換処理を施す。例えば、表示装置に表示された画像を記録装置18で記録する場合、表示装置と記録装置18とにおける色再現範囲は必ずしも一致しない。ある色では記録装置18の色再現範囲の方が狭く、また、別の色では記録装置18の色再現範囲の方が広い場合がある。そのため、画像の劣化を最小限にして、適宜、色の圧縮および伸張を行う必要がある。
- Color Correction Unit The color correction unit 38 performs a conversion process on the image data so that the image recorded by the recording device 18 has a suitable color. For example, when an image displayed on a display device is recorded by the recording device 18, the color reproduction ranges of the display device and the recording device 18 do not necessarily match. The color reproduction range of the recording device 18 may be narrower for a certain color, and the color reproduction range of the recording device 18 may be wider for another color. Therefore, it is necessary to compress and expand colors as appropriate while minimizing image deterioration.

本実施形態においては、それらの処理をRGB形式で実行する。つまり、記録装置18の再現性を考慮して、色補正部38に入力されたRGB値を記録装置18用のRGB値(以下、「記録装置用RGB」とも称する。)に変換する。この変換は、マトリクスなどの演算によって行うことも可能である。一般的には、三次元の色補正テーブル40が利用される。入力されるRGB値を各色8ビット(256階調)とした場合、すべての組み合わせを保持することは記憶容量の観点から現実的でない。このため、色補正テーブル40として、所定の間隔で間引かれたテーブルを用いる。 In this embodiment, these processes are executed in RGB format. That is, in consideration of the reproducibility of the recording device 18, the RGB values input to the color correction unit 38 are converted into RGB values for the recording device 18 (hereinafter also referred to as "RGB for the recording device"). This conversion can also be performed by calculations such as a matrix. Generally, a three-dimensional color correction table 40 is used. If the input RGB values are 8 bits for each color (256 gradations), it is not practical from the viewpoint of storage capacity to hold all combinations. For this reason, a table thinned out at predetermined intervals is used as the color correction table 40.

図4は、色補正テーブル40の一例を示す図である。色補正テーブル40は、各色256階調を17点のグリッド点とし、それに対応する記録装置用RGB値を示したテーブルである(17×17×17=4913グリッド点)。グリッド点間の値は、補間処理を利用して算出する。補完方法は、いくつかの方法の中から選択して利用することができ、本実施形態では、四面体補間法を利用した。四面体補間法は、三次元空間の分割単体を四面体として、4つの格子点を用いる線形補間である。この四面体補間法では、まず、図5(a)のようにその四面体をさらに細かい小四面体に分割する。各店の変換値をそれぞれf(p0)、f(p1)、f(p3)とした場合、下記(2)式により補間値f(p)を求めることができる。 FIG. 4 is a diagram showing an example of the color correction table 40. The color correction table 40 is a table in which each color has 256 gradations as 17 grid points and shows the corresponding RGB values for the recording device (17×17×17=4913 grid points). Values between grid points are calculated using interpolation processing. The interpolation method can be selected from among several methods, and in this embodiment, the tetrahedral interpolation method was used. The tetrahedral interpolation method is linear interpolation using four lattice points, with the divided unit of the three-dimensional space being a tetrahedron. In this tetrahedral interpolation method, first, the tetrahedron is divided into smaller tetrahedrons as shown in FIG. 5(a). When the converted values of each store are respectively f(p0), f(p1), and f(p3), the interpolated value f(p) can be obtained using the following equation (2).

Figure 0007455584000001
Figure 0007455584000001

ここで、w0、w1、w2、w3は、各頂点piと反対向位置における小四面体の体積比である(図5(b)参照)。このように、太陽となるRGB値に対応した記録装置用RGB値を算出する。その場合、階調性を考慮して、出力を8ビット以上としてもよい。また、色補正テーブルは、記録装置の色再現範囲にも依存するため、例えば、記録に使用する記録用紙(記録媒体)が異なる場合には、それに応じたテーブルを準備することが好ましい。 Here, w0, w1, w2, and w3 are the volume ratios of the small tetrahedrons at positions opposite to each vertex pi (see FIG. 5(b)). In this way, the RGB values for the recording device corresponding to the RGB values of the sun are calculated. In that case, the output may be set to 8 bits or more in consideration of gradation. Further, since the color correction table also depends on the color reproduction range of the printing apparatus, for example, when the printing paper (printing medium) used for printing is different, it is preferable to prepare a table corresponding to the printing paper (printing medium) used for printing.

・インク色変換部
インク色変換部42は、色補正部38によって変換された記録装置用RGB値をインク色の値に変換する。この変換には、記録装置用RGB値の組み合わせと、インク色の値とが予め対応付けられた色分解テーブル44を用いる。色補正部38と同様に、インク色変換部42においてもグリッド点17点のテーブルを利用する。
Ink Color Conversion Unit The ink color conversion unit 42 converts the RGB values for the recording device converted by the color correction unit 38 into ink color values. This conversion uses a color separation table 44 in which combinations of RGB values for the recording device and ink color values are associated in advance. Like the color correction unit 38, the ink color conversion unit 42 also uses a table of 17 grid points.

図6は、色分解テーブル44の一例を示す図である。色分解テーブル44では、インク色として、シアン(C)、マゼンタ(M)、イエロー(Y)、ブラック(K)の4色を想定し、各グリッド点に対応した4色の値が示されている。これらの値は、記録用紙(記録媒体)の記録面上においてインクが溢れないこと、インク同士が隣接した際に滲まないことなどを考慮して決定される。そのため、記録に使用する記録用紙(記録媒体)が異なる場合には、それに応じた色分解テーブル44を準備することが好ましい。また、上記した色補正部38と同様に、記録装置用RGB値に対応するインク色の値は、四面体補間処理によって補間することができる。 FIG. 6 is a diagram showing an example of the color separation table 44. The color separation table 44 assumes four ink colors: cyan (C), magenta (M), yellow (Y), and black (K), and shows the values of the four colors corresponding to each grid point. There is. These values are determined taking into consideration that ink will not overflow on the recording surface of recording paper (recording medium) and that ink will not bleed when adjacent to each other. Therefore, if the recording paper (recording medium) used for recording is different, it is preferable to prepare a color separation table 44 corresponding to the recording paper (recording medium) used for recording. Further, similarly to the color correction unit 38 described above, the ink color values corresponding to the RGB values for the recording device can be interpolated by tetrahedral interpolation processing.

・濃度補正部
インクジェット方式で記録する記録装置18では、記録用紙(記録媒体)上にドットを形成するために付与されるインクの量が多くなるにしたがって、ドットの重なりが増加し、画像の記録濃度が上昇し難くなる。濃度補正部46は、このような濃度の応答性を均一にするために濃度を補正する。このような濃度補正により、色補正テーブル40および色分解テーブル44の作成精度が確保しやすくなる。C、M、Y、Kのインクを用いる記録装置18では、それらのインク色について濃度補正を行う。本実施形態では、1次元の濃度補正テーブル48を用いる。濃度補正テーブル48としては、インク色ごとの入力8ビット(256階調)に対応したテーブルを用意しておけばよく、特に間引くこともなく、入力信号値と補正後の出力信号値とを対応付けたテーブルを用いることができる。
- Density correction unit In the recording device 18 that records using the inkjet method, as the amount of ink applied to form dots on the recording paper (recording medium) increases, the overlap of the dots increases and the recording of the image The concentration becomes difficult to increase. The density correction unit 46 corrects the density in order to make such density responsiveness uniform. Such density correction makes it easier to ensure the accuracy of creating the color correction table 40 and color separation table 44. The recording device 18 that uses C, M, Y, and K inks performs density correction for these ink colors. In this embodiment, a one-dimensional density correction table 48 is used. As the density correction table 48, it is sufficient to prepare a table corresponding to 8 bits of input (256 gradations) for each ink color, and it is possible to correspond the input signal value and the output signal value after correction without any particular thinning. You can use the attached table.

・階調変換部
階調変換部50は、インク色ごとに変換されて濃度補正が施された多ビットデータを、記録装置18において記録可能な階調数に変換する。本実施形態では、記録「1」/非記録「0」の2階調(1ビット)に変換し、階調の変換方法としては、画像の低周波成分を排除して、視覚に好適な階調の再現が可能な誤差拡散法を用いる。また、入力信号として、0から255の8ビットのデータを想定する。
- Gradation Conversion Unit The tone conversion unit 50 converts the multi-bit data, which has been converted for each ink color and subjected to density correction, into the number of tones that can be recorded in the recording device 18. In this embodiment, the conversion is performed into two gradations (1 bit): recording "1"/non-recording "0". Uses an error diffusion method that can reproduce the key. Furthermore, 8-bit data from 0 to 255 is assumed as an input signal.

図7は、誤差拡散法における誤差分配方法の説明図である。ターゲットピクセルの信号値Lと、閾値THとを比較する。本実施形態では、0から255を2値化するための閾値を127とし、下記のように、ターゲットピクセルが「1」(記録)または「0」(非記録)のいずれであるかを判定する。
L>TH ・・・・・・ 1(記録)
L≦TH ・・・・・・ 0(非記録)
FIG. 7 is an explanatory diagram of an error distribution method in the error diffusion method. The signal value L of the target pixel is compared with the threshold value TH. In this embodiment, the threshold value for binarizing 0 to 255 is set to 127, and it is determined whether the target pixel is "1" (recorded) or "0" (non-recorded) as shown below. .
L>TH ・・・・・・ 1 (record)
L≦TH ・・・・・・ 0 (non-recording)

この判定結果に応じて、量子化代表値Vを下記のように設定する。
1(記録) ・・・・・・ 255
0(非記録) ・・・・・・ 0
According to this determination result, the quantization representative value V is set as follows.
1 (record) 255
0 (non-recording) ・・・・・・ 0

このように量子化代表値Vを設定することにより、発生する誤差E(=L-V)は、図7の分配係数にしたがって周囲のピクセルに分配される。 By setting the quantization representative value V in this way, the generated error E (=LV) is distributed to surrounding pixels according to the distribution coefficient shown in FIG.

そして、次のターゲットピクセルの信号値Lに、分配された誤差Eaを加算した値Laと、閾値THとを比較し、下記のように、ターゲットピクセルが「1」(記録)または「0」(非記録)のいずれであるかを判定する。
La>TH ・・・・・・ 1(記録)
La≦TH ・・・・・・ 0(非記録)
Then, the value La obtained by adding the distributed error Ea to the signal value L of the next target pixel is compared with the threshold value TH, and it is determined that the target pixel is "1" (recorded) or "0" ( (non-recording).
La>TH ・・・・・・ 1 (record)
La≦TH ・・・・・・ 0 (non-recording)

このような処理をすべてのピクセル、およびすべてのインク色C、M、Y、Kに対して実行することにより、記録可能な1ビットのインク色ごとの記録データが得られる。階調変調部52は、取得した記録データを記録装置18に送信する。 By performing such processing on all pixels and all ink colors C, M, Y, and K, printable 1-bit print data for each ink color is obtained. The gradation modulation section 52 transmits the acquired recording data to the recording device 18.

ここで、記録装置18は、受信した記録データを記憶する受信メモリ、CPU、インクを記録媒体に付与する記録部を備える。記録装置18では、入力された記録データを受信メモリに記憶する。記録部は、記録データを記録ヘッドのノズルに対応したインク滴データに変換する。インク滴データを記録媒体の搬送方向に対して交差する方向に操作する記録ヘッドにより、記録媒体上にインクを吐出することで記録処理を行う。本実施形態では、シリアルスキャンタイプのインクジェット記録装置の構成を示しているが、フルラインタイプのインクジェット記録装置、あるいは、インクジェット方式以外の方式で記録媒体に対して記録する記録装置においても適用可能である。 Here, the recording device 18 includes a reception memory that stores received recording data, a CPU, and a recording section that applies ink to a recording medium. The recording device 18 stores the input recording data in a receiving memory. The recording unit converts the recording data into ink droplet data corresponding to the nozzles of the recording head. Recording processing is performed by ejecting ink onto a recording medium using a recording head that manipulates ink droplet data in a direction that intersects the conveyance direction of the recording medium. Although this embodiment shows the configuration of a serial scan type inkjet recording device, it is also applicable to a full line type inkjet recording device or a recording device that records on a recording medium using a method other than the inkjet method. be.

・付加情報
付加情報54は、多重化エンコード処理装置12において、画像データAに埋め込まれる付加情報Bであり、テキスト文書データなどである。テキスト文書データは、例えば、公知の文字コードを利用して、数字および文字を数値に割り当てた数値データであり、この数値データが付加情報54として多重化部56(後述する)に送信される。
- Additional information Additional information 54 is additional information B embedded in image data A in the multiplex encoding processing device 12, and is text document data or the like. The text document data is, for example, numerical data in which numbers and letters are assigned to numerical values using a known character code, and this numerical data is transmitted as additional information 54 to a multiplexing unit 56 (described later).

具体例として、「hello」という文字列に対応するテキスト文書データについて説明する。テキスト文書データは、数値データ、所謂、バイナリデータとする。バイナリデータとは「0」もしくは「1」の情報であり、この「0」もしくは「1」の情報の連続的なつながりが特定の意味を持つ。バイナリデータと文字との対応は、「文字コード」によって定義されている。文字コードの中の1つである「シフトJIS」の場合、「h」はバイナリデータの「01101000」に対応する。同様に、「e」は「01100101」、「l」は「01101100」、「o」は「01101111」のバイナリデータに対応する。したがって、「hello」という文字列は、バイナリデータでは、「0110100001100101011011000110110001101111」と表現できる。逆に、「0110100001100101011011000110110001101111」というバイナリデータを取得できれば、「hello」という文字列を取得することができる。付加情報54は、このようなバイナリデータに変換された数値データに対応する。 As a specific example, text document data corresponding to the character string "hello" will be explained. The text document data is numerical data, so-called binary data. Binary data is information of ``0'' or ``1'', and the continuous connection of this ``0'' or ``1'' information has a specific meaning. The correspondence between binary data and characters is defined by a "character code." In the case of "Shift JIS", which is one of the character codes, "h" corresponds to binary data "01101000". Similarly, "e" corresponds to the binary data "01100101," "l" corresponds to "01101100," and "o" corresponds to the binary data "01101111." Therefore, the character string "hello" can be expressed as "0110100001100101011011000110110001101111" in binary data. Conversely, if the binary data "0110100001100101011011000110110001101111" can be obtained, the character string "hello" can be obtained. The additional information 54 corresponds to such numerical data converted into binary data.

・多重化部
多重化部56は、解像度変換部36で処理された画像データと、付加情報54(「0」、「1」のバイナリデータに変換されたテキスト文書など)とを受け取り、付加情報54を画像データに埋め込む処理を行う。この埋め込み処理(多重化処理)においては、付加情報54が埋め込まれた画像データに基づいて記録された記録画像(を撮像した撮像画像)から、付加情報54が読み取れるように、付加情報54を画像データに埋め込む。例えば、付加情報54の「0」、「1」のバイナリデータを読み取り可能なように、画像データにマスク処理を施して、バイナリデータに対応する「0」、「1」の情報を埋め込む。本実施形態では、画像データにマスク処理を施すことにより、画像データの所定領域に「0」、「1」のバイナリデータに対応する異なる周期性を持たせる。
- Multiplexing unit The multiplexing unit 56 receives the image data processed by the resolution conversion unit 36 and additional information 54 (such as a text document converted into binary data of “0” and “1”), and converts the additional information into 54 into the image data. In this embedding process (multiplexing process), the additional information 54 is added to the image so that the additional information 54 can be read from the recorded image recorded based on the image data in which the additional information 54 is embedded. Embed in data. For example, so that the binary data of "0" and "1" of the additional information 54 can be read, the image data is subjected to masking processing, and the information of "0" and "1" corresponding to the binary data is embedded. In this embodiment, mask processing is performed on the image data to give a predetermined region of the image data different periodicities corresponding to binary data of "0" and "1".

図8(a)(b)は、「0」、「1」のバイナリデータに対応するマスクデータを示す図である。図8に示すマスクデータは、5px(画素)×5pxの領域に対応する大きさとなっている。また、マスクデータは、5px×5pxの領域に対応する画像データに対して、図8(a)または図8(b)の異なる周期性を持つパターンを画像に組み合わせることにより、「0」、「1」のバイナリデータを埋め込む。記録画像を読み取る際に、読み取ったデータの周波数解析などによって、「0」、「1」のバイナリデータに対応する周期性を認識することで、「0」、「1」のバイナリデータを読み取ることができる。 FIGS. 8A and 8B are diagrams showing mask data corresponding to binary data of "0" and "1". The mask data shown in FIG. 8 has a size corresponding to a 5 px (pixel) x 5 px area. In addition, the mask data is created by combining patterns with different periodicities as shown in FIG. 8(a) or FIG. 1" binary data is embedded. When reading a recorded image, it is possible to read binary data of "0" and "1" by recognizing the periodicity corresponding to the binary data of "0" and "1" through frequency analysis of the read data. I can do it.

多重化部56では、付加情報54のバイナリデータ(数値データ)に基づいて、画像データに「0」、「1」のバイナリデータに対応する周期性を持たせることにより、付加情報54を埋め込む。画像データに対する付加情報54の埋め込み方法の一例として、画像データを1色のグレー画像データとし、その画像データの全体に、「0」、「1」のバイナリデータを埋め込む方法について説明する。 The multiplexing unit 56 embeds the additional information 54 by giving the image data periodicity corresponding to the binary data of "0" and "1" based on the binary data (numeric data) of the additional information 54. As an example of a method for embedding the additional information 54 into image data, a method will be described in which the image data is one-color gray image data and binary data of "0" and "1" are embedded in the entire image data.

多重化される画像データのサイズは、縦幅640px、横幅480pxとし、マスクデータは、図8(a)(b)と同様に5px×5pxの大きさとする。図8(a)のマスクデータによって「0」のバイナリデータが表現され、図8(b)のマスクデータによって「1」のバイナリデータが表現されるものとする。図8(a)(b)のマスクデータにおいて、5×5の画素ブロックは、黒ブロック801と、白ブロック802と、斜線ブロック803とに分けられる。黒ブロック801は数値「+2」に対応し、白ブロック802は数値「0」に対応し、斜線ブロック803は数値「-1」に対応する。下記のコードにおいて、maskAが、trueの場合には「0」に対応する図8(a)のマスクデータを用い、falseの場合には「1」に対応する図8(b)のマスクデータを用いる。図8(a)(b)の黒、白、斜線ブロックに対応する数値を画像データの全体に適用する疑似コードを以下に示す。 The size of the image data to be multiplexed is 640 px in height and 480 px in width, and the mask data is 5 px x 5 px as in FIGS. 8(a) and 8(b). It is assumed that binary data of "0" is expressed by the mask data of FIG. 8(a), and binary data of "1" is expressed by the mask data of FIG. 8(b). In the mask data of FIGS. 8A and 8B, a 5×5 pixel block is divided into a black block 801, a white block 802, and a diagonal block 803. The black block 801 corresponds to the numerical value "+2", the white block 802 corresponds to the numerical value "0", and the diagonal block 803 corresponds to the numerical value "-1". In the code below, when maskA is true, the mask data in FIG. 8(a) corresponding to "0" is used, and when maskA is false, the mask data in FIG. 8(b) corresponding to "1" is used. use Pseudo-code for applying the numerical values corresponding to the black, white, and diagonal blocks in FIGS. 8(a) and 8(b) to the entire image data is shown below.

疑似コード:
――――――――――――――――――――――――――――――
1 int i, j, k, l;
2 int width = 640, height=480;
3 unsigned char *data = 画像データ;
4 int **maskA = マスクデータ;
6 bool isMaskA = true;
5 for(j = 0; j < height; j+=5){
6 for(i = 0; i < width; i+=5){
7 for(k = 0; k < 5; k++){
8 for(l = 0; l < 5; l++){
if(isMaskA == true){
9 data[(i+k)+(j+l)*width] += maskA[k][l];
}
10 }
11 }
12 }
13 }
――――――――――――――――――――――――――――――
Pseudo code:
――――――――――――――――――――――――――――
1 int i, j, k, l;
2 int width = 640, height=480;
3 unsigned char *data = image data;
4 int **maskA = mask data;
6 bool isMaskA = true;
5 for(j = 0; j <height; j+=5){
6 for(i = 0; i <width; i+=5){
7 for(k = 0; k <5; k++){
8 for(l = 0; l <5; l++){
if(isMaskA == true){
9 data[(i+k)+(j+l)*width] += maskA[k][l];
}
Ten }
11}
12}
13 }
――――――――――――――――――――――――――――

上記した疑似コードに示されているように、画像全体を5px×5pxのブロックに分けて、ブロックごとにmaskAのデータを加算させることにより、図8(a)(b)のパターンを形成する仕組みとなっている。 As shown in the above pseudocode, the entire image is divided into blocks of 5px x 5px, and the data of maskA is added to each block, thereby forming the patterns shown in FIGS. 8(a) and (b). It becomes.

なお、上記した説明では、1色のクレー画像データを例として説明しているが、RGB成分で適用し、三次元でマスクパターンを適用してもよいし、RGB成分を変換してYUV、Lab、Lchなどの色成分で適用するようにしてもよい。また、本実施形態では、マスクデータの適用方法として、5px×5pxのブロックに分けているが、これに限定されるものではない。例えば、他のブロックサイズの単位やマスク形状であってもよい。多重化された画像が記録された記録物Cが、撮像された際に、パターンを区別できる仕組みであれば、いずれの方法が用いられてもよい。 In the above explanation, one-color clay image data is used as an example, but RGB components may be applied and a mask pattern may be applied in three dimensions, or the RGB components may be converted to YUV, Lab, etc. , Lch, or other color components may be used. Furthermore, in this embodiment, the mask data is divided into blocks of 5 px x 5 px as a method of applying the mask data, but the method is not limited to this. For example, other block size units or mask shapes may be used. Any method may be used as long as it is capable of distinguishing patterns when the recorded material C in which multiplexed images are recorded is captured.

付加情報54のバイナリデータ(数値データ)に対応するパターンとして、極力、人間の視覚に目立ちづらいパターンを形成した場合もある。画像データが1色のグレー画像データの場合には、輝度成分によってパターンを形成しなければならないため、視覚的に目立ちやすい。パターンの形状および周波数成分によるものの、輝度成分の変化より、色成分の変化の方が視覚的に目立ちにくい傾向がある。例えば、RGB成分を持つカラー画像を、YCbCr、LabまたはYuvなどの色空間に変換して、輝度成分と色成分とに分ける。そして、輝度成分ではなく、色成分にマスクデータを適用することにより、視覚的に目立ちにくいパターンを形成することができる。また、例えば、RGBの成分を持つカラー画像において、パターンをつける5px×5pxの領域において赤色が支配的である場合には、赤成分によってパターンを付けることが好ましい。 As a pattern corresponding to the binary data (numeric data) of the additional information 54, a pattern that is as inconspicuous to human vision as possible may be formed. If the image data is gray image data of one color, a pattern must be formed using luminance components, so it is visually noticeable. Although it depends on the pattern shape and frequency components, changes in color components tend to be less visually noticeable than changes in brightness components. For example, a color image having RGB components is converted into a color space such as YCbCr, Lab, or Yuv, and separated into a luminance component and a color component. By applying the mask data to the color component rather than the luminance component, it is possible to form a pattern that is less visually noticeable. Further, for example, in a color image having RGB components, if red is dominant in a 5 px x 5 px area where a pattern is to be applied, it is preferable to apply the pattern using the red component.

本実施形態においては、マスクデータを5px×5pxのブロックに分けて画像データに加算する。しかし、ブロックサイズの単位およびマスク形状は任意であり、マスクデータを画像データに組み込む方法として、加算、減算、乗算、および除算などを組み合わせてもよい。付加情報54が埋め込まれた画像の記録物を撮像した際に、マスクデータのパターンを区別することができる方法であれば、どのような方法を用いてもよい。したがって、多重化部56は、付加情報54が埋め込まれた画像データに基づく記録物を撮像した撮像画像において、付加情報54を抽出可能なように、付加情報54を画像データに埋め込むための処理部である。 In this embodiment, mask data is divided into blocks of 5 px x 5 px and added to image data. However, the block size unit and mask shape are arbitrary, and addition, subtraction, multiplication, division, and the like may be combined as a method of incorporating mask data into image data. Any method may be used as long as it is capable of distinguishing the pattern of the mask data when capturing an image of a recorded object in which the additional information 54 is embedded. Therefore, the multiplexing unit 56 is a processing unit for embedding the additional information 54 in image data so that the additional information 54 can be extracted in a captured image of a recorded material based on the image data in which the additional information 54 is embedded. It is.

<多重化エンコード処理>
次に、多重化装置16における多重化エンコード処理、つまり、入力された画像データに対する付加情報の埋め込み処理の具体的な処理内容について説明する。図9は、本実施形態による多重化エンコード処理の処理内容を示すフローチャートである。図9のフローチャートで示される一連の処理は、CPU20がROM22に記憶されているプログラムコードをRAM24に展開して実行されることにより行われる。あるいはまた、図9におけるステップの一部または全部の機能をASICまたは電子回路などのハードウェアで実行してもよい。
<Multiplex encoding processing>
Next, the specific processing contents of the multiplex encoding process in the multiplexing device 16, that is, the process of embedding additional information into input image data will be explained. FIG. 9 is a flowchart showing the processing details of multiplex encoding processing according to this embodiment. The series of processes shown in the flowchart of FIG. 9 is performed by the CPU 20 loading the program code stored in the ROM 22 into the RAM 24 and executing it. Alternatively, the functionality of some or all of the steps in FIG. 9 may be performed in hardware, such as an ASIC or electronic circuit.

多重化エンコード処理では、まず、記録用の画像データを取得する(S902)。即ち、S902では、まず、取得部30が、入力された画像データAからパラメータを取得する。その後、復元部32が、取得したパラメータを用いて、符号化された画像データAを復号する。例えば、画像データAは、カメラ付きモバイル端末(スマートフォン)により予め撮像して、JPEGフォーマットでモバイル端末内のメモリに保存されたデータである。取得部30では、取得したJPEGの画像データを解凍し、静止画の3色8ビットのRGB画像データを生成する。また、S902では、必要に応じて、画像補正部34が、取得した画像データに対する補正もしくは加工処理を行ってもよい。 In the multiplex encoding process, first, image data for recording is acquired (S902). That is, in S902, the acquisition unit 30 first acquires parameters from the input image data A. Thereafter, the restoring unit 32 decodes the encoded image data A using the acquired parameters. For example, image data A is data that has been imaged in advance with a camera-equipped mobile terminal (smartphone) and stored in a memory within the mobile terminal in JPEG format. The acquisition unit 30 decompresses the acquired JPEG image data and generates three-color, 8-bit RGB image data of a still image. Further, in S902, the image correction unit 34 may perform correction or processing processing on the acquired image data as necessary.

次に、多重化部56が、付加情報54を取得する(S904)。付加情報54は、例えば、スマートフォンにおいてキー入力されたテキスト文書データとする。テキスト文書データは、例えば、公知の文字コードシフトJISを利用して、数字および文字を数値に割り当てた数値データとする。 Next, the multiplexing unit 56 acquires the additional information 54 (S904). The additional information 54 is, for example, text document data entered using a key on a smartphone. The text document data is, for example, numerical data in which numbers and characters are assigned to numerical values using the well-known character code shift JIS.

そして、解像度変換部36が、選択された用紙サイズ(記録媒体のサイズ)および記録装置18の解像度に基づいて、取得した画像データAに対して解像度変換処理を施す(S906)。例えば、選択された用紙サイズが2Lの場合、記録装置18における入力解像度の画素数に合わせて、画像データAの解像度を変換する。具体的には、記録装置18における入力解像度を600dpiとした場合、例えば、用紙サイズ2Lの画素数を3000画素×4000画素に設定する。この場合、画素数が1500画素×2000画素の画像データに対しては、縦方向および横方向の画素数がそれぞれ2倍になるように解像度変換を行う。画像データのアスペクト比を変更させたくない場合に、縦方向および横方向の拡大および縮小率を同じにして解像度変換を行う。 Then, the resolution conversion unit 36 performs resolution conversion processing on the acquired image data A based on the selected paper size (size of the recording medium) and the resolution of the recording device 18 (S906). For example, if the selected paper size is 2L, the resolution of the image data A is converted in accordance with the number of pixels of the input resolution in the recording device 18. Specifically, when the input resolution in the recording device 18 is 600 dpi, the number of pixels of paper size 2L is set to 3000 pixels x 4000 pixels, for example. In this case, for image data with a pixel count of 1500 pixels x 2000 pixels, resolution conversion is performed so that the number of pixels in the vertical and horizontal directions is doubled. When it is desired not to change the aspect ratio of image data, resolution conversion is performed with the same enlargement and reduction ratios in the vertical and horizontal directions.

その後、多重化部56が、解像度変換処理後の画像データに対して付加情報54を埋め込む多重化処理を行う(S908)。そして、付加情報54が埋め込まれた画像データ、つまり、多重化処理された画像データは、適宜、色補正部38、インク色変換部42、濃度補正部46、階調変換部50で処理されて、生成された記録データが記録装置18に送信される(S910)。 After that, the multiplexing unit 56 performs a multiplexing process to embed the additional information 54 in the image data after the resolution conversion process (S908). The image data in which the additional information 54 is embedded, that is, the multiplexed image data, is processed by the color correction section 38, ink color conversion section 42, density correction section 46, and gradation conversion section 50 as appropriate. , the generated recording data is transmitted to the recording device 18 (S910).

<多重化部のファームウェア構成>
ここで、多重化部56と、多重化部56で実行される多重化の処理について説明する。図10は、多重化部56のファームウェア構成を示すブロック図である。多重化部56は、色空間変換部58、ブロック位置設定部60、数値化部62、パターン選択部64、および情報多重化部66を備えている。
<Firmware configuration of multiplexing unit>
Here, the multiplexing unit 56 and the multiplexing process executed by the multiplexing unit 56 will be described. FIG. 10 is a block diagram showing the firmware configuration of the multiplexing section 56. The multiplexing section 56 includes a color space conversion section 58, a block position setting section 60, a numerical conversion section 62, a pattern selection section 64, and an information multiplexing section 66.

・色空間変換部
色空間変換部58は、解像度変換部36においてサイズが変更された画像データの色空間を、情報多重化のための色空間に変換する処理部である。例えば、下記(3)式のように、情報多重化を行う色空間を、YUVのUとし、画像データのRGBの色空間をYUVの色空間に変換する。
Y = 0.299×R + 0.587×G + 0.114×B
U =-0.169×R - 0.331×G + 0.500×B ・・・ (3)
V = 0.500×R - 0.419×G - 0.081×B
- Color Space Conversion Unit The color space conversion unit 58 is a processing unit that converts the color space of the image data whose size has been changed in the resolution conversion unit 36 into a color space for information multiplexing. For example, as shown in equation (3) below, the color space in which information is multiplexed is set to U of YUV, and the RGB color space of image data is converted to the YUV color space.
Y = 0.299 x R + 0.587 x G + 0.114 x B
U = -0.169 x R - 0.331 x G + 0.500 x B... (3)
V = 0.500 x R - 0.419 x G - 0.081 x B

・ブロック位置設定部
本実施形態では、記録する画像データを複数のブロック領域に分け、ブロック単位で各画素の濃度を変調させて、図8(a)(b)のマスクデータに対応するパターンを形成させることにより、付加情報54を埋め込むようにしている。ブロック位置設定部60は、色空間変換部58で処理された画像データにおいて、指定された色のプレーン画像に対して、指定された1つのブロックのサイズに合わせて、ブロックの位置座標を設定する。例えば、YUVのU色のプレーン画像のサイズを縦幅640px、横幅480pxとし、ブロックサイズを縦幅5px、横幅5pxとする。この場合、縦ブロック数は128(640÷5)、横ブロック数は96(480÷5)、合計のブロック数は、12288(128×96)となる。例えば、各ブロックの左上座標をブロック位置と定めて設定する。
・Block position setting unit In this embodiment, the image data to be recorded is divided into a plurality of block areas, and the density of each pixel is modulated in block units to create a pattern corresponding to the mask data in FIGS. 8(a) and 8(b). By forming the additional information 54, the additional information 54 is embedded. The block position setting unit 60 sets the position coordinates of a block in accordance with the specified size of one block for the plain image of the specified color in the image data processed by the color space conversion unit 58. . For example, the size of a YUV U-color plain image is 640 px in height and 480 px in width, and the block size is 5 px in height and 5 px in width. In this case, the number of vertical blocks is 128 (640÷5), the number of horizontal blocks is 96 (480÷5), and the total number of blocks is 12288 (128×96). For example, the upper left coordinates of each block are determined and set as the block position.

・数値化部
数値化部62は、取得した付加情報54を、数値化したデータに変換する。例えば、付加情報54がシフトJISの文字列とする。この場合には、数値化部62は、シフトJISの形式によって文字と数値とが対応付けられた変換マップを予め保持しておき、その変換マップを用いて文字列を数値列に変換する。例えば、文字列「hello」の場合、変換後の数値化したデータは、「0110100001100101011011000110110001101111」となる。
- Numerical conversion unit The numerical conversion unit 62 converts the acquired additional information 54 into numerical data. For example, assume that the additional information 54 is a Shift JIS character string. In this case, the digitization unit 62 previously holds a conversion map in which characters and numbers are associated with each other in the Shift JIS format, and converts the character string into a numeric string using the conversion map. For example, in the case of the character string "hello", the converted numerical data becomes "0110100001100101011011000110110001101111".

・パターン選択部
パターン選択部64は、ブロック単位で各画素の濃度変調を行うためのマスクパターンが登録されており、数値化部62によって数値化された付加情報54に対して適用すべきマスクパターンを選択する。図11(a)(b)は、周波数特性が異なる図8(a)(b)のマスクパターンを数値化した図である。図8(a)および図11(a)のパターンは、付加情報54におけるバイナリデータの「0」に対応し、図8(b)および11(b)のパターンは、付加情報54におけるバイナリデータの「1」に対応する。
- Pattern selection section The pattern selection section 64 has registered mask patterns for performing density modulation of each pixel in block units, and selects mask patterns to be applied to the additional information 54 digitized by the digitization section 62. Select. FIGS. 11(a) and 11(b) are diagrams in which the mask patterns of FIGS. 8(a) and 8(b) having different frequency characteristics are digitized. The patterns in FIGS. 8(a) and 11(a) correspond to "0" in the binary data in the additional information 54, and the patterns in FIGS. 8(b) and 11(b) correspond to "0" in the binary data in the additional information 54. Corresponds to "1".

・情報多重化部
情報多重化部66は、色空間変換部58で処理された画像データと、ブロック位置設定部60で設定された各ブロックの位置と、パターン選択部64で選択されたマスクパターンとを取得する。そして、これら取得した各情報から、画像データにマスクパターンを適用した画像データを生成する。
- Information multiplexing unit The information multiplexing unit 66 converts the image data processed by the color space conversion unit 58, the position of each block set by the block position setting unit 60, and the mask pattern selected by the pattern selection unit 64. and get. Then, from each of the acquired information, image data is generated by applying a mask pattern to the image data.

上記のように、画像サイズを縦幅640px、横幅480pxとし、1ブロックのサイズを縦幅5px、横幅5pxとした場合、合計のブロック数は12288となる。付加情報54を読み取る際の記録画像の撮像では、必ずしも画像全体を撮像できるとは限らない。そのため、記録画像の一部を撮像した撮像画像からでも付加情報の抽出を可能とするために、同じ付加情報を記録画像中の複数個所に埋め込む。 As described above, when the image size is 640 px in height and 480 px in width, and the size of one block is 5 px in height and 5 px in width, the total number of blocks is 12,288. When capturing a recorded image when reading the additional information 54, it is not necessarily possible to capture the entire image. Therefore, in order to make it possible to extract additional information even from a captured image that is a portion of the recorded image, the same additional information is embedded in multiple locations in the recorded image.

例えば、96ブロックを1つの付加情報とした場合、全ブロック数12288に対して、同じ付加情報を128(12288÷96)領域に分けて埋め込むことになる。したがって、画像データは128の領域に分けられ、それらのうちの1つの領域に対して、縦幅5px、横幅5pxを1ブロックとした96ブロックの付加情報が埋め込まれる。96ブロックを1つの付加情報として取り扱うことにより、96ビットの付加情報が設定できる。但し、96ビットの開始位置がわかるように、シフトJISにおいて文字として表現されていない「11111111」の8ビットを付加情報の先頭に含ませる。したがって、88(96-8)ビットのデータを、付加情報として自由に設定することができる。 For example, if 96 blocks are used as one additional information, the same additional information will be embedded in 128 (12288÷96) areas for the total number of blocks, 12288. Therefore, the image data is divided into 128 areas, and 96 blocks of additional information, each block having a height of 5 px and a width of 5 px, are embedded in one of these areas. By treating 96 blocks as one piece of additional information, 96 bits of additional information can be set. However, in order to know the starting position of the 96 bits, the 8 bits of "11111111", which are not expressed as characters in Shift JIS, are included at the beginning of the additional information. Therefore, 88 (96-8) bits of data can be freely set as additional information.

一方、画像データには、異なる複数の付加情報54を埋め込むこともできる。この場合、n個の付加情報54を埋め込むものとすると、各種類の付加情報54はそれぞれ、128/n箇所に埋め込まれる。例えば、4種類の付加情報54の場合、各付加情報54はそれぞれ、32(128÷4)個の領域に埋め込まれることとなる。なお、各種類の付加情報54には、先頭の「11111111」の8ビットの後に、その種類を判別可能とするための情報が付与される。例えば、4種類であれば「00」、「01」、「10」、「11」のいずれかが付与される。したがって、この場合、86(96-8-2)ビットのデータを、付加情報として自由に設定することができる。 On the other hand, a plurality of different additional information 54 can also be embedded in the image data. In this case, if n pieces of additional information 54 are to be embedded, each type of additional information 54 is embedded at 128/n locations. For example, in the case of four types of additional information 54, each additional information 54 will be embedded in 32 (128÷4) areas. In addition, to each type of additional information 54, information for making it possible to determine the type is added after the first 8 bits of "11111111". For example, if there are four types, one of "00", "01", "10", and "11" is assigned. Therefore, in this case, 86 (96-8-2) bits of data can be freely set as additional information.

96ビット内に収まるデータは、数値化部62において数値化された付加情報の「0」、「1」の数値列であり、5px×5pxの1ブロックごとに数値が提起され、その数値に対応するマスクパターンが選択される。画像データにおける5px×5pxのブロックに、付加情報に対応するマスクパターンが埋め込まれる。例えば、画像データをYUVのU色プレーンとし、それを1ブロック(5px×5px)ごとに処理し、そのYUVのU色プレーンの値に図11(a)(b)のマスクパターンの値を適用する。例えば、下記(4)式のように、マスクパターンの数値に応じてYUVのU色プレーンの値(U値)を加減算処理し、その加減算処理を行う基準値を「10」とする。
適用後のU値
= YUVのU値 + 基準値 × マスクパターンの数値 ・・・ (4)
The data that fits within 96 bits is a numeric string of "0" and "1" of additional information digitized by the digitization unit 62, and a numeric value is presented for each block of 5px x 5px, and the corresponding numeric value is A mask pattern is selected. A mask pattern corresponding to the additional information is embedded in a 5px×5px block in the image data. For example, take the image data as a YUV U color plane, process it block by block (5px x 5px), and apply the mask pattern values in Figures 11(a) and (b) to the YUV U color plane values. do. For example, as shown in equation (4) below, the value of the YUV U color plane (U value) is subjected to addition/subtraction processing according to the numerical value of the mask pattern, and the reference value for performing the addition/subtraction processing is set to "10".
U value after application = YUV U value + reference value × mask pattern value... (4)

例えば、1ブロック内の1画素のU値が「20」であり、適用するマスクパターンの数値が「0」である場合には、上記(4)式より20+10×0=20となり、適用後のU値は「20」となる。また、1ブロック内の1画素のU値が「30」であり、適用するマスクパターンの数値が「2」の場合には、上記(4)式より30+10×2=50となり、適用後のU値は「50」となる。 For example, if the U value of one pixel in one block is "20" and the numerical value of the applied mask pattern is "0", then from the above formula (4), 20 + 10 × 0 = 20, and after application The U value is "20". In addition, if the U value of one pixel in one block is "30" and the numerical value of the applied mask pattern is "2", then from the above formula (4), 30 + 10 × 2 = 50, and the applied U The value will be "50".

上記したように、本実施形態では、画素ごとに適用するマスクパターンの数値と、基準値とを掛け合わせた値を加算することによって、多重化を実現するようにしたが、これに限定されるものではない。即ち、マスクパターンの適用方法は、U色プレーン上にマスクパターンを埋め込むことができればよく、例えば、YUVのU値に、マスクパターンの数値を掛け合わせてもよい。 As described above, in this embodiment, multiplexing is achieved by adding the value obtained by multiplying the numerical value of the mask pattern applied to each pixel by the reference value, but this is not limitative. It's not a thing. That is, the mask pattern can be applied as long as the mask pattern can be embedded on the U color plane. For example, the U value of YUV may be multiplied by the numerical value of the mask pattern.

<記録処理>
次に、多重化エンコード処理装置12で記録物Cを生成するまでの一連の処理となる記録処理について説明する。図12は、多重化エンコード処理装置12での記憶処理の処理内容を示すフローチャートである。
<Recording process>
Next, the recording process, which is a series of processes up to the generation of recorded material C by the multiplex encoding processing device 12, will be described. FIG. 12 is a flowchart showing the contents of storage processing in the multiplex encoding processing device 12.

ユーザからの指示などにより、記録処理が開始されると、まず、多重化装置16の多重化部56が、多重化エンコード処理を行う(S1202)。上記したように、この多重化エンコード処理により、付加情報54が埋め込まれた画像データ(多重化画像データ)が取得される。次に、色補正部38が、多重化画像データに対して、適宜に色補正を施す(S1204)。その後、記録データを生成し(S1206)、生成された記録データが記録装置18に送信され、記録装置18において、当該記録データに基づく記録を行い(S1208)、記録処理を終了する。S1208の記録によって記録物Cが生成される。なお、S1206では、まず、インク色変換部42が、色補正後の多重化画像データをインク色の値に変換し、濃度補正部46が濃度を補正する。そして、階調変換部50が、濃度補正後の多重化画像データを階調数に変換して、記録データを生成することとなる。 When recording processing is started in response to an instruction from a user, first, the multiplexing unit 56 of the multiplexing device 16 performs multiplex encoding processing (S1202). As described above, image data (multiplexed image data) in which additional information 54 is embedded is obtained through this multiplexed encoding process. Next, the color correction unit 38 performs appropriate color correction on the multiplexed image data (S1204). Thereafter, recording data is generated (S1206), the generated recording data is transmitted to the recording device 18, recording is performed in the recording device 18 based on the recording data (S1208), and the recording process ends. Recorded matter C is generated by the recording in S1208. Note that in S1206, the ink color conversion unit 42 first converts the multiplexed image data after color correction into ink color values, and the density correction unit 46 corrects the density. Then, the gradation converter 50 converts the density-corrected multiplexed image data into the number of gradations to generate recording data.

=多重化デコード処理装置=
次に、多重化デコード処理装置(情報処理装置)14について説明する。多重化デコード処理装置14では、多重化エンコード処理装置12で生成した記録物Cに記録された記録画像から付加情報Bを抽出し、抽出した付加情報Bを通知する。具体的には、多重化エンコード処理された画像データに基づいて記録された記録物Cに記録された記録画像を、カメラなどの撮像装置によって撮像して、撮像画像の画像データを解析することによって、画像に埋め込まれている付加情報Bを抽出して通知する。
=Multiplex decoding processing device=
Next, the multiplex decoding processing device (information processing device) 14 will be explained. The multiplex decode processing device 14 extracts additional information B from the recorded image recorded on the recorded material C generated by the multiplex encode processing device 12, and notifies the extracted additional information B. Specifically, by capturing a recorded image recorded in a recorded object C based on image data subjected to multiplex encoding processing using an imaging device such as a camera, and analyzing the image data of the captured image. , extracts additional information B embedded in the image and notifies it.

<ハードウェア構成>
まず、多重化デコード処理装置14のハードウェア構成について説明する。図13は、多重化デコード処理装置14のハードウェア構成を示すブロック図である。多重化デコード処理装置14としては、例えば、撮像センサを保持するカメラ付きモバイル端末を用いることができる。以下の説明では、多重化デコード処理装置14として、上記モバイル端末を用いた場合について説明する。
<Hardware configuration>
First, the hardware configuration of the multiplex decoding processing device 14 will be explained. FIG. 13 is a block diagram showing the hardware configuration of the multiplex decoding processing device 14. As shown in FIG. As the multiplex decoding processing device 14, for example, a mobile terminal with a camera that holds an image sensor can be used. In the following description, a case will be described in which the above mobile terminal is used as the multiplex decoding processing device 14.

多重化デコード処理装置14は、記録物Cにおける記録画像を撮像可能な撮像センサ68と、撮像画像の画像データから付加情報54を抽出する分離装置70(第2情報処理装置)とを備えている。また、多重化デコード処理装置14は、CPU72、ROM74、RAM76、二次記憶装置78、ディスプレイ80、キー入力装置82、無線LAN84、およびスピーカー86を備えている。 The multiplex decoding processing device 14 includes an image sensor 68 capable of capturing a recorded image in the recorded object C, and a separation device 70 (second information processing device) that extracts additional information 54 from image data of the captured image. . The multiplex decoding processing device 14 also includes a CPU 72, a ROM 74, a RAM 76, a secondary storage device 78, a display 80, a key input device 82, a wireless LAN 84, and a speaker 86.

CPU72は、RAM76をワークエリアとしながら、ROM74に格納されたプログラムや各種パラメータにしたがって、演算、判定、および制御などを行う。ハードディスクなどの二次記憶装置78は、画像ファイルや画像解析結果を保存するデータベースなど、各種データを保存する。ディスプレイ80は、CPU72で実行される各種処理の結果などをユーザに提示する。キー入力装置82は、例えば、ディスプレイ80がタッチパネル機能を備えることで実現され、タッチパネルの操作によって処理の指示や設定、文字の入力などを行う。 The CPU 72 uses the RAM 76 as a work area and performs calculations, determination, control, etc. according to programs and various parameters stored in the ROM 74. A secondary storage device 78 such as a hard disk stores various data such as image files and a database that stores image analysis results. The display 80 presents the results of various processes executed by the CPU 72 to the user. The key input device 82 is realized by, for example, the display 80 having a touch panel function, and performs processing instructions, settings, character input, etc. by operating the touch panel.

無線LAN(Local Area Network)84は、インターネットに接続されており、インターネットに接続されたサイトにアクセスして、ディスプレイ80にサイトの画面などを表示させる。無線LAN84は、データの送受信などにも用いられる。スピーカー86は、抽出された付加情報が音声データまたは音声付き動画データの場合に、音声を出力する。また、インターネットの接続先に動作データがある場合には、その動画データの再生時の音声を出力する。 A wireless LAN (Local Area Network) 84 is connected to the Internet, accesses sites connected to the Internet, and displays the screen of the site on the display 80. The wireless LAN 84 is also used for data transmission and reception. The speaker 86 outputs audio when the extracted additional information is audio data or video data with audio. Furthermore, if there is motion data at the Internet connection destination, the audio when the video data is played back is output.

なお、多重化デコード処理装置14の構成については、上記のようなカメラ付きモバイル端末に限定されるものではない。即ち、付加情報を分離するための分離装置に対して、別体に設けられた撮像装置から撮像画像の画像データが送信される構成としてもよい。なお、この場合、分離装置には、例えば、スピーカーやディスプレイなど、抽出した付加情報を利用するための装置が接続される。また、この場合、撮像装置としては、例えば、デジタルカメラ、ビデオカメラなどを用いることができる。分離装置としては、例えば、パーソナルコンピュータ、スマートフォンなどを用いることができる。 Note that the configuration of the multiplex decoding processing device 14 is not limited to the above-described camera-equipped mobile terminal. That is, a configuration may be adopted in which image data of a captured image is transmitted from a separately provided imaging device to a separation device for separating additional information. Note that in this case, a device for utilizing the extracted additional information, such as a speaker or a display, is connected to the separation device. Further, in this case, as the imaging device, for example, a digital camera, a video camera, etc. can be used. As the separation device, for example, a personal computer, a smartphone, etc. can be used.

<ファームウェア構成>
次に、多重化デコード処理装置14のファームウェア構成について説明する。図14は、多重化デコード処理装置14のファームウェア構成を示すブロック図である。多重化デコード処理装置14は、撮像センサ68において、撮像部88と、色調整部90とを備えている。また、多重化デコード処理装置14は、分離装置70において、検出部92と、分離部94と、解析部96とを備えている。本実施形態では、テキスト文書データ、音声データ、動画データなどの数値化された付加情報が、記録物Cにおける記録画像に埋め込まれている。
<Firmware configuration>
Next, the firmware configuration of the multiplex decoding processing device 14 will be explained. FIG. 14 is a block diagram showing the firmware configuration of the multiplex decoding processing device 14. The multiplex decoding processing device 14 includes an imaging section 88 and a color adjustment section 90 in the imaging sensor 68 . Further, the multiplexing decoding processing device 14 includes a detection section 92, a separation section 94, and an analysis section 96 in the separation device 70. In this embodiment, digitized additional information such as text document data, audio data, video data, etc. is embedded in the recorded image in the recorded material C.

以下の説明では、記録物Cにおける記録画像の全体に、異なる複数の付加情報が所定の領域ごとに繰り返し埋め込まれているものとして説明する。例えば、付加情報A、B、C、Dの4種類を、所定の領域ごとに繰り返し埋め込まれているものとする(図15(b)参照) In the following explanation, it is assumed that different pieces of additional information are repeatedly embedded in each predetermined area throughout the entire recorded image of the recorded object C. For example, it is assumed that four types of additional information A, B, C, and D are repeatedly embedded in each predetermined area (see FIG. 15(b)).

・撮像部
撮像部88は、撮像センサ68内の撮像素子によって、記録物Cの記録画像を撮像して画像データに変換する。図15(a)は、記録物Cにおける記録画像の撮像を説明する図である。記録物Cに相当する記録媒体1502に、多重化エンコード処理された画像データに基づく記録画像1504が記録されている。多重化デコード処理装置14としてのカメラ付きモバイル端末1506によって、領域1508が撮像される。即ち、撮像部88は、モバイル端末1506によって、記録媒体1502における記録画像1504を含む領域1508を撮像する。
- Imaging Unit The imaging unit 88 captures a recorded image of the recorded object C using an imaging element in the image sensor 68, and converts it into image data. FIG. 15(a) is a diagram illustrating capturing of a recorded image on recorded object C. FIG. A recording image 1504 based on image data subjected to multiplex encoding processing is recorded on a recording medium 1502 corresponding to recording material C. A region 1508 is imaged by a camera-equipped mobile terminal 1506 as the multiplex decoding processing device 14 . That is, the imaging unit 88 uses the mobile terminal 1506 to image an area 1508 including the recorded image 1504 on the recording medium 1502.

撮像部88の撮像素子としては、例えば、CCDを用いることができる。CCDは、フォトダイオード(受光素子)により光を感知して、その光を電圧に変化させる。その際、撮像素子ごとに配置したRGBまたはCMYなどのカラーフィルタにより、光の色をデータとして変換させることができる。フォトダイオードの検出信号は、色調整部90に送信される。 For example, a CCD can be used as the imaging element of the imaging section 88. A CCD senses light using a photodiode (light receiving element) and converts the light into voltage. At this time, the color of the light can be converted into data using a color filter such as RGB or CMY arranged for each image sensor. The detection signal of the photodiode is transmitted to the color adjustment section 90.

・色調整部
色調整部90は、撮像部88におけるフォトダイオードの出力データを1画素がRGB8ビットデータの画像データに変換する。画像データに変換する前に、撮像時の光源などに応じて、フォトダイオードの出力データに対してRGBなどの色の補間処理が行われる。この補間処理では、デジタルカメラおよびカメラ付きモバイル端末などを用いて撮像する際に、白い被写体を白く撮像できるように調整することになる。撮像部88は、太陽またはライトなどの光源から照射されて、被写体から反射された光をフォトダイオードによって検知するため、光源に応じて画像の色が異なることになる。したがって、色調整部90は光源に応じた補間処理を行う。
- Color Adjustment Unit The color adjustment unit 90 converts the output data of the photodiode in the imaging unit 88 into image data in which one pixel is RGB 8-bit data. Before converting into image data, color interpolation processing such as RGB is performed on the output data of the photodiode depending on the light source at the time of imaging. In this interpolation process, adjustments are made so that a white subject can be imaged as white when capturing an image using a digital camera, a mobile terminal with a camera, or the like. Since the imaging unit 88 uses a photodiode to detect light emitted from a light source such as the sun or a light and reflected from a subject, the color of the image will differ depending on the light source. Therefore, the color adjustment unit 90 performs interpolation processing depending on the light source.

一般的な補間処理の方法として、光源の色合いを示す色温度によって表現された光の色を数値化した単位のケルビン(K)を用いる方法がある。一般的に、昼間の太陽光は5500K、白熱電球は3000Kであり、色温度が高いと青く見え、低いと赤く見える。このため、光源に応じて撮像画像の色が異なることになる。一般に、デジタルカメラおよびカメラ付きモバイル端末などには、撮像する際にセンサにより色温度を検知して、白い被写体が白く撮像されるように自動的に調整する、所謂、オートホワイトバランス調整機能が搭載されている。また、太陽光または白熱電球などの光源に応じて、手動によりホワイトバランスを調整することもできる。 As a general interpolation processing method, there is a method using Kelvin (K), which is a numerical unit of the color of light expressed by the color temperature indicating the hue of the light source. Generally, daytime sunlight is 5,500K, and incandescent light bulbs are 3,000K; when the color temperature is high, it appears blue, and when it is low, it appears red. Therefore, the color of the captured image differs depending on the light source. Generally, digital cameras and mobile terminals with cameras are equipped with a so-called auto white balance adjustment function that detects the color temperature using a sensor when taking an image and automatically adjusts it so that a white subject appears white. has been done. The white balance can also be manually adjusted depending on the light source, such as sunlight or an incandescent light bulb.

色調整部90は、フォトダイオードの出力データに対して、ホワイトバランスが調整された画像データを生成する。色調整部90で処理された画像データは、分離装置70に送信される。 The color adjustment unit 90 generates image data with white balance adjusted for the output data of the photodiode. The image data processed by the color adjustment section 90 is sent to the separation device 70.

・検出部
検出部92は、色調整部90によって色調整された画像データが入力され、その画像データの周波数特性を判定することによって、付加情報が埋め込まれている位置(多重化位置)を検出する。図16(a)は、二次元の周波数領域における周波数特性の差を説明する図である。図16(a)では、横軸は水平方向の周波数、縦軸は垂直方向の周波数、中心となる原点は直流成分を示し、原点から遠ざかるにつれて高周波域となる。本実施形態では、多重化処理により周波数特性が変化する。
・Detection unit The detection unit 92 receives the image data color-adjusted by the color adjustment unit 90, and detects the position where additional information is embedded (multiplexing position) by determining the frequency characteristics of the image data. do. FIG. 16(a) is a diagram illustrating the difference in frequency characteristics in a two-dimensional frequency domain. In FIG. 16(a), the horizontal axis is the frequency in the horizontal direction, the vertical axis is the frequency in the vertical direction, the central origin indicates the DC component, and the further away from the origin, the higher the frequency range becomes. In this embodiment, the frequency characteristics change due to multiplexing processing.

例えば、図8(a)のマスクデータを適用したときの周波数特性の変化により、図16(a)の直線l1上に大きなパワースペクトルが生じる。また、図8(b)のマスクデータを適用したときの周波数特性の変化により、図16(a)の直線l2上に大きなパワースペクトルが生じる。付加情報54の分離時には、多重化信号を判定するために、このような大きなパワースペクトルが発生する周波数ベクトルを検出する。そのため、各々の周波数ベクトルを個別に強調して抽出することが必要となる。 For example, a change in frequency characteristics when applying the mask data in FIG. 8(a) causes a large power spectrum on the straight line l1 in FIG. 16(a). Furthermore, due to the change in frequency characteristics when the mask data in FIG. 8(b) is applied, a large power spectrum occurs on the straight line l2 in FIG. 16(a). When separating the additional information 54, a frequency vector in which such a large power spectrum occurs is detected in order to determine the multiplexed signal. Therefore, it is necessary to individually emphasize and extract each frequency vector.

そのために、図11(a)(b)のマスクパターンと同様に周波数特性を持つHPF(ハイパスフィルタ)を用いることができる。図11(a)のマスクパターンに対応する空間フィルタは、直線l1上の周波数ベクトルを強調することが可能である。図11(b)のマスクパターンに対応する空間フィルタは、直線l2上の周波数ベクトルを強調することが可能である。 For this purpose, an HPF (high pass filter) having frequency characteristics similar to the mask patterns in FIGS. 11(a) and 11(b) can be used. The spatial filter corresponding to the mask pattern of FIG. 11(a) can emphasize the frequency vector on the straight line l1. The spatial filter corresponding to the mask pattern of FIG. 11(b) can emphasize the frequency vector on the straight line l2.

例えば、図11(a)のマスクパターンを適用する量子化条件により、直線l1の周波数ベクトル上に大きなパワースペクトルが発生したと仮定する。この場合、そのパワースペクトルの変化量は、図11(a)のマスクパターンに対応する空間フィルタによって増幅されるものの、図11(b)のマスクパターンに対応する空間フィルタによってはほとんど増幅されない。 For example, it is assumed that a large power spectrum is generated on the frequency vector of the straight line l1 due to the quantization conditions to which the mask pattern of FIG. 11(a) is applied. In this case, the amount of change in the power spectrum is amplified by the spatial filter corresponding to the mask pattern of FIG. 11(a), but hardly amplified by the spatial filter corresponding to the mask pattern of FIG. 11(b).

即ち、複数の空間フィルタを並列に用いてフィルタリングした場合、パワースペクトルは、周波数ベクトルが一致した空間フィルタによってのみ増幅され、それ以外の空間フィルタによってはほとんど増幅されない。したがって、パワースペクトルを増幅させた空間フィルタを特定することにより、いかなる周波数ベクトル上に大きなパワースペクトルが発生したかを判定することができる。このように、周波数特性を判定することにより、付加情報を抽出することは可能となる。しかしながら、周波数特性を判定する際に、付加情報の抽出位置がずれた場合には、正しく抽出することが難しくなる。 That is, when filtering is performed using a plurality of spatial filters in parallel, the power spectrum is amplified only by the spatial filters with matching frequency vectors, and is hardly amplified by the other spatial filters. Therefore, by identifying the spatial filter that amplified the power spectrum, it is possible to determine on what frequency vector the large power spectrum has occurred. In this way, by determining the frequency characteristics, it is possible to extract additional information. However, when determining the frequency characteristics, if the extraction position of the additional information shifts, it becomes difficult to extract it correctly.

図16(b)は、記録物における記録画像が形成された記録領域を説明する図である。記録物Cとしての記録媒体1502に記録された記録画像1504は、複数のブロック単位に多重化された領域1602を含み、当該領域1602に対して、特定の周波数特性を持つように付加情報が埋め込まれている。 FIG. 16(b) is a diagram illustrating a recording area in which a recorded image is formed in a recorded object. A recorded image 1504 recorded on a recording medium 1502 as recorded material C includes an area 1602 multiplexed in units of a plurality of blocks, and additional information is embedded in the area 1602 so that it has specific frequency characteristics. It is.

図17(a)(b)は、周波数特性を判定する際の検出位置を説明するための図である。記録画像1700は、4つのブロックにおいて多重化されているものとする。領域1702、1704は、ブロック単位で周波数特性を判定する領域を示す。図17(a)では、領域1702が多重化されたブロックの位置とずれていることを示す。図17(b)では、領域1704が多重化されたブロックの位置と合致していることを示す。この場合、領域1704では、周波数特性を正しく判定すること可能だが、領域1702では、特定の周波数ベクトルのパワースペクトルが下がってしまい、周波数特性を正しく判定することが難しい。 FIGS. 17(a) and 17(b) are diagrams for explaining detection positions when determining frequency characteristics. It is assumed that the recorded image 1700 is multiplexed into four blocks. Areas 1702 and 1704 indicate areas where frequency characteristics are determined on a block-by-block basis. FIG. 17A shows that a region 1702 is shifted from the position of the multiplexed block. FIG. 17(b) shows that region 1704 matches the position of the multiplexed block. In this case, in the region 1704, it is possible to correctly determine the frequency characteristics, but in the region 1702, the power spectrum of a specific frequency vector decreases, making it difficult to correctly determine the frequency characteristics.

検出部92は、特定の周波数ベクトルのパワースペクトルが強いか弱いかに基づいて、ブロック位置を検出する。そこで、検出部92は、撮像画像の画像データに対し、ブロック位置、つまり、ブロック単位の周波数特性の判定領域をずらしながら、周波数特性の判定を行い、多重化されたブロックの位置を検出する。 The detection unit 92 detects the block position based on whether the power spectrum of a specific frequency vector is strong or weak. Therefore, the detection unit 92 performs frequency characteristic determination on the image data of the captured image while shifting the block position, that is, the frequency characteristic determination area for each block, and detects the position of the multiplexed block.

・分離部
分離部94は、検出部92で検出したブロックの位置を基準として、そのブロック単位の周波数特性の判定結果を利用して、多重化されている付加情報を抽出する。例えば、記録物Cとしての記録媒体1502に、複数種類の付加情報が多重化されて配置されているとする。各種類の付加情報は、ブロック数が126ブロック(横12ブロック×縦9ブロック)とする。この条件で、カメラ付きモバイル端末1506により撮像された撮像画像は、例えば、図18のようになる。
Separation Unit The separation unit 94 uses the position of the block detected by the detection unit 92 as a reference, and extracts the multiplexed additional information using the determination result of the frequency characteristic of each block. For example, assume that a plurality of types of additional information are multiplexed and arranged on a recording medium 1502 as recorded material C. The number of blocks for each type of additional information is 126 blocks (12 blocks horizontally x 9 blocks vertically). Under this condition, an image captured by the camera-equipped mobile terminal 1506 is as shown in FIG. 18, for example.

図18は、図15(a)のように、記録物Cにおける記録画像1504を、カメラ付きモバイル端末1506によって撮像した撮像画像1701を示す。図18では、撮像画像1802は、撮像された撮像画像を示し、ブロック1804は、多重化されるブロックを示す。撮像画像1802では、種類の異なる2つの付加情報については全ブロックが含まれ、また、4つの付加情報については一部のブロックのみが含まれている。 FIG. 18 shows a captured image 1701 obtained by capturing a recorded image 1504 in recorded material C using a camera-equipped mobile terminal 1506, as shown in FIG. 15(a). In FIG. 18, a captured image 1802 indicates a captured image, and a block 1804 indicates a block to be multiplexed. In the captured image 1802, all blocks are included for two types of additional information, and only some blocks are included for four pieces of additional information.

1種類の付加情報が埋め込まれているブロック群の各ブロックに、多重化エンコード処理によって付加情報の「0」と「1」とが埋め込まれている。このため、ブロックごとの周波数ベクトルに基づいて、ブロックごとに埋め込まれている付加情報を判定する。即ち、直線l1(図16(a)参照)の周波数ベクトルが所定の閾値を超えるブロックに関しては、そのブロックに埋め込まれている付加情報は「0」であると判定する。また、直線l2(図16(a)参照)の周波数ベクトルが所定の閾値を超えるブロックに関しては、そのブロックに埋め込まれている付加情報は「1」であると判定する。 Additional information "0" and "1" are embedded in each block of a block group in which one type of additional information is embedded by multiplex encoding processing. Therefore, additional information embedded in each block is determined based on the frequency vector for each block. That is, for a block in which the frequency vector of the straight line l1 (see FIG. 16(a)) exceeds a predetermined threshold value, the additional information embedded in that block is determined to be "0". Further, for a block in which the frequency vector of the straight line l2 (see FIG. 16(a)) exceeds a predetermined threshold value, the additional information embedded in that block is determined to be "1".

・解析部
解析部96は、分離部94で付加情報として分離した数値列を解析し、元々の埋め込んだ付加情報の形式に変換する。例えば、予め、多重化する付加情報を、テキスト文書データとして、文字コードを「シフトJIS」で数値化した値であるとする。シフトJISの1倍とコード(半角文字)では、上位4ビットと下位4ビットとの組み合わせで、数値および文字に対応した変換を行える。例えば、上位4ビットが「0100」で、下位4ビットが「0001」の場合、この数値列は文字「A」と判定される。
- Analysis unit The analysis unit 96 analyzes the numerical string separated as additional information by the separation unit 94, and converts it into the format of the original embedded additional information. For example, it is assumed in advance that the additional information to be multiplexed is text document data, and the character code is a value obtained by converting the character code into a numerical value using "Shift JIS". For Shift JIS 1x and codes (half-width characters), conversion corresponding to numerical values and characters can be performed by combining the upper 4 bits and the lower 4 bits. For example, if the upper 4 bits are "0100" and the lower 4 bits are "0001", this numerical string is determined to be the character "A".

このように、変換マップを予め保持しておき、この変換マップと数値列とを対応させることで、数値列を文字へと変換することができる。 付加情報として分離した数値列は、RAM76に、一時的に保持しておき、二次記憶装置78に予め保持していた「シフトJIS」変換マップを参照可能なようにしておく。 In this way, by holding a conversion map in advance and associating this conversion map with a numerical value string, the numerical value string can be converted into characters. The separated numerical value string as additional information is temporarily held in the RAM 76 so that it can refer to the "shift JIS" conversion map previously held in the secondary storage device 78.

例えば、分離部94で分離した付加情報の数値列が、「0110100001100101011011000110110001101111」とする。この場合、変換マップに対応させると下記のようになる。上位4ビット「0110」、下位4ビット「1000」で、文字「h」となる。上位4ビット「0110」、下位4ビット「0101」で、文字「e」となる。上位4ビット「0110」、下位4ビット「1100」で、文字「l」となる。上位4ビット「0110」、下位4ビット「1100」で、文字「l」となる。上位4ビット「0110」、下位4ビット「1111」で、文字「o」となる。従って、文字列として、「hello」が抽出される。 For example, assume that the numerical value string of the additional information separated by the separation unit 94 is "0110100001100101011011000110110001101111". In this case, if it is made to correspond to the conversion map, it will be as follows. The upper 4 bits "0110" and the lower 4 bits "1000" form the character "h". The upper 4 bits "0110" and the lower 4 bits "0101" form the character "e." The upper 4 bits "0110" and the lower 4 bits "1100" form the character "l". The upper 4 bits "0110" and the lower 4 bits "1100" form the character "l". The upper 4 bits "0110" and the lower 4 bits "1111" form the character "o". Therefore, "hello" is extracted as a character string.

付加情報を抽出すると、例えば、抽出された文字列をディスプレイ80で表示して通知する。また、抽出された文字列がURL(Uniform Resource Locator)である場合、無線LAN84でネットワークに接続し、ブラウザを利用して、ディスプレイ80にURL先の画面を表示して通知する。また、そのURLが動画サイトであった場合、ディスプレイ80で動画を表示し、スピーカー86で音声を出力して通知する。 When the additional information is extracted, for example, the extracted character string is displayed on the display 80 and notified. Further, if the extracted character string is a URL (Uniform Resource Locator), it connects to the network via the wireless LAN 84 and uses a browser to display and notify the screen of the URL destination on the display 80. If the URL is a video site, the display 80 displays the video and the speaker 86 outputs audio to notify the user.

このように、本実施形態では、検出部92、分離部94、および解析部96(つまり、分離装置70)が、付加情報を抽出する抽出部として機能している。また、解析部96は、付加情報を通知する通知部として機能している。なお、詳細は後述するが、解析部96は、抽出した付加情報がある場合には、抽出した付加情報をディスプレイ80に選択可能に表示する。そして、解析部96は、ディスプレイ80に表示された複数の付加情報のうち、ユーザに選択された付加情報を選択して通知することとなる。即ち、本実施形態では、解析部96が、抽出した複数の付加情報を表示するようディスプレイ80の表示内容を制御する表示制御部として機能している。さらに、解析部96が、複数の付加情報の中から所定の付加情報を選択する選択部として機能している。 Thus, in this embodiment, the detection section 92, the separation section 94, and the analysis section 96 (that is, the separation device 70) function as an extraction section that extracts additional information. Furthermore, the analysis unit 96 functions as a notification unit that notifies additional information. Although details will be described later, if there is extracted additional information, the analysis unit 96 displays the extracted additional information on the display 80 in a selectable manner. Then, the analysis unit 96 selects the additional information selected by the user from among the plurality of additional information displayed on the display 80 and notifies the selected additional information. That is, in this embodiment, the analysis section 96 functions as a display control section that controls the display contents of the display 80 so as to display a plurality of extracted additional information. Furthermore, the analysis section 96 functions as a selection section that selects predetermined additional information from among a plurality of pieces of additional information.

<多重化デコード処理>
次に、多重化デコード処理装置14における多重化デコード処理、つまり、記録物Cの記録画像に埋め込まれた付加情報の抽出処理の具体的な処理内容について説明する。図19は、本実施形態による多重化デコード処理の処理内容を示すフローチャートである。図19のフローチャートで示される一連の処理は、CPU72がROM74に記憶されているプログラムコードをRAM76に展開して実行されることにより行われる。あるいはまた、図19におけるステップの一部または全部の機能をASICまたは電子回路などのハードウェアで実行してもよい。
<Multiplex decoding process>
Next, the specific processing contents of the multiplex decoding process in the multiplex decoding processing device 14, that is, the process of extracting additional information embedded in the recorded image of the recorded object C will be explained. FIG. 19 is a flowchart showing the details of the multiplex decoding process according to this embodiment. The series of processes shown in the flowchart of FIG. 19 is performed by the CPU 72 loading the program code stored in the ROM 74 into the RAM 76 and executing it. Alternatively, the functionality of some or all of the steps in FIG. 19 may be performed in hardware, such as an ASIC or electronic circuit.

多重化デコード処理が開始されると、まず、多重化された記録物Cにおける記録画像を撮像した撮像画像を取得する(S1902)。即ち、1902では、ユーザによる操作により、撮像部88が、当該記録画像を撮像する。あるいは、多重化デコード処理装置14に接続された撮像装置(不図示)などから出力された当該記録画像を撮像した撮像画像を取得する。取得した撮像画像は、撮像の際に取得した、撮像された光が色データ値に変換されたセンサ値とともに、色調整部90に送信される。 When the multiplex decoding process is started, first, a captured image of a recorded image in the multiplexed recorded object C is acquired (S1902). That is, in 1902, the image capturing unit 88 captures the recorded image based on the user's operation. Alternatively, a captured image obtained by capturing the recorded image output from an imaging device (not shown) connected to the multiplex decoding processing device 14 is obtained. The acquired captured image is transmitted to the color adjustment unit 90 together with a sensor value obtained during image capturing, in which the captured light is converted into a color data value.

次に、色調整部90が、取得した撮像画像の色調整を行う(S1904)。色調整部90は、撮像部88から色データ値を受信し、ホワイトバランス調整を行い、ホワイトバランス調整された色データを画像データとして生成する。色調整部90は、生成した画像データを分離装置70に送信する。もしくは、生成した画像データは、二次記憶装置78に保存される。 Next, the color adjustment unit 90 performs color adjustment of the acquired captured image (S1904). The color adjustment unit 90 receives color data values from the imaging unit 88, performs white balance adjustment, and generates the white balance adjusted color data as image data. The color adjustment unit 90 transmits the generated image data to the separation device 70. Alternatively, the generated image data is stored in the secondary storage device 78.

そして、検出部92は、色調整部90でホワイトバランス調整した画像データを、色調整部90から受信、もしくは、二次記憶装置78から取得し、当該画像データに対して、周波数特性の判定を行い、多重化されている位置を検出する(S1906)。 Then, the detection unit 92 receives the image data whose white balance has been adjusted by the color adjustment unit 90 from the color adjustment unit 90 or acquires it from the secondary storage device 78, and determines the frequency characteristics of the image data. and detects the multiplexed position (S1906).

その後、CPU72が、検出部92により、画像データから多重化されている位置を検出できたか否かを判定する(S1908)。検出できなかったと判定されると、S1902に戻る。一方、検出できたと判定されると、分離部94が、色調整部90で生成された画像データと、検出部92で検出された多重化されている位置とに基づき周波数特性を判定した結果を用いて、多重化されている付加情報を数値データとして抽出する(S1910)。分離部94は、抽出した数値データを解析部96へ送信する。もしくは、RAM76に一時的に保存し、解析部96へ、その旨を通知する。 Thereafter, the CPU 72 determines whether the detection unit 92 has been able to detect the multiplexed position from the image data (S1908). If it is determined that it could not be detected, the process returns to S1902. On the other hand, if it is determined that the detection has been successful, the separation unit 94 determines the frequency characteristics based on the image data generated by the color adjustment unit 90 and the multiplexed position detected by the detection unit 92. is used to extract the multiplexed additional information as numerical data (S1910). The separation unit 94 transmits the extracted numerical data to the analysis unit 96. Alternatively, it is temporarily stored in the RAM 76 and the analysis unit 96 is notified of this.

次に、解析部96は、分離した付加情報に相当する数値データを取得し、数値データを解析し、その数値データを文字などの付加情報に変換する(S1912)。そして、CPU72は、解析部96で抽出したすべての数値データからの付加情報の取得を完了したか否かを判定する(S1914)。すべての数値データからの付加情報の取得を完了していないと判定されると、S1902に戻る。また、すべての数値データからの付加情報の取得を完了したと判定されると、この多重化デコード処理を終了する。 Next, the analysis unit 96 acquires numerical data corresponding to the separated additional information, analyzes the numerical data, and converts the numerical data into additional information such as characters (S1912). Then, the CPU 72 determines whether acquisition of additional information from all the numerical data extracted by the analysis unit 96 has been completed (S1914). If it is determined that acquisition of additional information from all numerical data has not been completed, the process returns to S1902. Further, when it is determined that acquisition of additional information from all numerical data has been completed, this multiplex decoding process is ended.

多重化された画像データに基づく記録画像から付加情報を抽出できた場合には、後述する通知処理を経て、ディスプレイ80などに、結果を表示したり、ネットワークにアクセスしたりする。多重化された記録画像から付加情報を抽出できなかった場合には、例えば、撮像された撮像画像が、付加情報を抽出できるだけの領域を含んでいないことなどが考えられる。この場合、付加情報の一部しか抽出できなかったためにデータが完全でなく、再度撮像し直す必要がある。 If the additional information can be extracted from the recorded image based on the multiplexed image data, the result is displayed on the display 80 or the like or the network is accessed through notification processing, which will be described later. If additional information cannot be extracted from the multiplexed recorded image, for example, it is possible that the captured image does not include an area large enough to extract additional information. In this case, since only part of the additional information could be extracted, the data is not complete and it is necessary to capture the image again.

付加情報を抽出できているか否かの判定を行うために、例えば、付加情報自体に、付加情報のデータ量を示す値を含めておいてもよい。そして、データ量を抽出することで、付加情報のデータ量を判定するようにしてもよい。データ量であるか文字データであるかを判定する場合には、例えば、予め、数値列の組み合わせを決めておき、その数値列の直後の数ビットをデータ量と決めておけば、データ量を抽出することが可能となる。 In order to determine whether the additional information has been extracted, for example, the additional information itself may include a value indicating the amount of data of the additional information. Then, the data amount of the additional information may be determined by extracting the data amount. When determining whether it is data amount or character data, for example, you can decide on a combination of numerical strings in advance, and then determine the number of bits immediately after that numerical string as the data amount. It becomes possible to extract.

付加情報の一部しか抽出できない場合、例えば、抽出できた内容分を二次記憶装置78に保存しておき、追加で抽出できた際に、付加情報を結合してもよい。つまり、複数回に分けて付加情報を抽出するようにしてもよい。また、S1914で、抽出データ取得の完了の判定を行ったが、抽出できた付加情報からディスプレイ80などに表示させるようにしてもよい。 If only part of the additional information can be extracted, for example, the extracted content may be stored in the secondary storage device 78, and when additional information can be extracted, the additional information may be combined. In other words, the additional information may be extracted multiple times. Furthermore, although it is determined in S1914 that the extraction data acquisition is complete, the additional information that has been extracted may be displayed on the display 80 or the like.

<付加情報の通知>
ここで、多重化デコード処理で抽出した付加情報の、ユーザへの通知について説明する。多重化デコード処理装置14では、多重化デコード処理により付加情報の抽出が完了すると、抽出した付加情報を通知する通知処理が実行される。図20は、通知処理の処理内容を示すフローチャートである。図20のフローチャートで示される一連の処理は、CPU72がROM74に記憶されているプログラムコードをRAM76に展開して実行されることにより行われる。あるいはまた、図20におけるステップの一部または全部の機能をASICまたは電子回路などのハードウェアで実行してもよい。
<Notification of additional information>
Here, notification to the user of the additional information extracted by the multiplex decoding process will be explained. In the multiplex decoding processing device 14, when the extraction of additional information is completed by the multiplex decoding process, a notification process for notifying the extracted additional information is executed. FIG. 20 is a flowchart showing the details of the notification process. The series of processes shown in the flowchart of FIG. 20 is performed by the CPU 72 loading the program code stored in the ROM 74 into the RAM 76 and executing it. Alternatively, the functionality of some or all of the steps in FIG. 20 may be performed in hardware, such as an ASIC or electronic circuit.

通知処理では、まず、解析部96が、多重化デコード処理で抽出した付加情報を取得する(S2002)。S2002では、多重化デコード処理で抽出された付加情報のすべての付加情報を取得することとなる。即ち、多重化デコード処理により、複数の付加情報が取得された場合には、S2002では、多重化デコード処理で抽出された複数の付加情報を取得することとなる。 In the notification process, first, the analysis unit 96 acquires additional information extracted in the multiplex decoding process (S2002). In S2002, all the additional information extracted by the multiplex decoding process is acquired. That is, if a plurality of pieces of additional information are acquired through the multiplex decoding process, in S2002, the multiple pieces of additional information extracted through the multiplex decoding process are acquired.

次に、解析部96は、取得した付加情報が複数であるか否かを判定し(S2004)、付加情報が複数でない、つまり、1つであると判定されると、取得した付加情報に基づく通知を行い(S2006)、この通知処理を終了する。即ち、S2006では、取得した付加情報が、テキスト情報であればディスプレイ80に文字列を表示させ、付加情報がURLであればディスプレイ80にURL先の画面を表示させるとともに、必要に応じてスピーカーから音声を出力させる。 Next, the analysis unit 96 determines whether or not there is a plurality of pieces of additional information that has been acquired (S2004). A notification is made (S2006), and this notification processing is ended. That is, in S2006, if the acquired additional information is text information, the character string is displayed on the display 80, and if the additional information is a URL, the screen at the URL destination is displayed on the display 80, and if necessary, the speaker Output audio.

また、S2004において、付加情報が複数であると判定されると、解析部96は、取得した複数の付加情報に関する情報を、ディスプレイ80において選択可能に表示する(S2008)。即ち、S2008では、ディスプレイ80において、ユーザに対して付加情報の数が明確になり、かつ、ユーザが選択できるように表示される。具体的には、例えば、付加情報に関する情報にそれぞれ番号を付して、当該番号を選択できるように表示する。あるいは、付加情報に関する情報を並べて、当該情報を選択可能に表示する。あるいは、リストボックスなどで付加情報に関する情報をリスト化して表示する。 Further, if it is determined in S2004 that there is a plurality of additional information, the analysis unit 96 displays information regarding the acquired plurality of additional information in a selectable manner on the display 80 (S2008). That is, in S2008, the number of additional information is made clear to the user and displayed on the display 80 so that the user can select it. Specifically, for example, each piece of information regarding additional information is assigned a number and displayed so that the number can be selected. Alternatively, information related to additional information is arranged and displayed so that the information can be selected. Alternatively, information related to additional information is displayed in a list form using a list box or the like.

付加情報に関する情報とは、取得した複数の付加情報を区別可能な情報であればよく、例えば、付加情報がテキスト文書データであればテキスト文書である旨を示す情報であり、また、付加情報がURLであればURLである旨を示す情報となる。なお、付加情報に関する情報には、付加情報そのものを含まれるようにしてもよい。従って、テキスト文書データであれば、当該データが表す文字列などを表示するようにしてもよい。 Information related to additional information may be any information that can distinguish between multiple pieces of acquired additional information. For example, if the additional information is text document data, it is information indicating that it is a text document; If it is a URL, this is information indicating that it is a URL. Note that the information regarding additional information may include the additional information itself. Therefore, if it is text document data, the character string or the like represented by the data may be displayed.

S2008での付加情報に関する情報の表示については、上記した例に限定されるものではなく、付加情報の数が明確になり、かつ、付加情報を選択可能であれば、どのような形態で表示されてもよい。また、S2008では、付加情報に関する情報の表示とともに、表示された複数の情報の中から、所望の情報を選択するよう促す通知を、ディスプレイ80などを介して通知してもよい。 The display of information regarding additional information in S2008 is not limited to the example described above, and may be displayed in any form as long as the number of additional information is clear and the additional information can be selected. It's okay. Further, in S2008, in addition to displaying information regarding additional information, a notification prompting the user to select desired information from among the displayed plurality of information may be sent via the display 80 or the like.

ディスプレイ80に複数の付加情報に関する情報を選択可能に表示すると、次に、解析部96は、表示されている付加情報に関する情報が選択されたか否かを判定する(S2010)。本実施形態では、ディスプレイ80に表示された付加情報に関する情報は、キー入力装置82を介してユーザが選択可能となっている。従って、S2010では、キー入力装置82の操作により、表示された付加情報に関する情報が選択されたか否かを判定することとなる。なお、S2010は、例えば、付加情報に関する情報が選択されたと判定されるまで繰り返し実行される。この場合、上記判定を所定時間だけ実行すると、ユーザによる選択が行われなかったと判定し、この通知処理を終了するようにしてもよい。 After displaying information regarding a plurality of additional information in a selectable manner on the display 80, the analysis unit 96 next determines whether or not the information regarding the displayed additional information has been selected (S2010). In this embodiment, the information regarding the additional information displayed on the display 80 can be selected by the user via the key input device 82. Therefore, in S2010, it is determined whether information related to the displayed additional information has been selected by operating the key input device 82. Note that S2010 is repeatedly executed, for example, until it is determined that information regarding additional information has been selected. In this case, if the above determination is performed for a predetermined period of time, it may be determined that no selection has been made by the user, and this notification process may be terminated.

S2010において、付加情報に関する情報が選択されたと判定されると、選択された付加情報に関する情報に対応する付加情報に基づく通知を行い(S2012)、この通知処理を終了する。即ち、S2012では、選択された付加情報に関する情報に対応する付加情報が、テキスト情報であればディスプレイ80にテキストを表示させ、付加情報がURLであればディスプレイ80にURL先の画面を表示させる。このとき、必要に応じてスピーカーから音声を出力させる。 If it is determined in S2010 that information related to additional information has been selected, a notification based on the additional information corresponding to the information related to the selected additional information is performed (S2012), and this notification processing is ended. That is, in S2012, if the additional information corresponding to the selected additional information is text information, the text is displayed on the display 80, and if the additional information is a URL, the screen at the URL destination is displayed on the display 80. At this time, audio is output from the speaker as necessary.

=本実施形態の効果=
以上において説明したように、第1実施形態による情報処理システム10では、記録画像に含まれる複数の付加情報を抽出すると、抽出した付加情報に関する情報を選択可能に表示するようにした。そして、ユーザによる付加情報に関する情報の選択に応じて、選択された情報に対応する付加情報に基づく通知を実行するようにした。これにより、情報処理システム10では、抽出した付加情報をユーザが適切に利用することができるようになる。
=Effects of this embodiment=
As described above, in the information processing system 10 according to the first embodiment, when a plurality of pieces of additional information included in a recorded image are extracted, information related to the extracted additional information is displayed in a selectable manner. Then, in response to the user's selection of information regarding additional information, a notification is executed based on the additional information corresponding to the selected information. Thereby, in the information processing system 10, the user can appropriately utilize the extracted additional information.

(第2実施形態)
次に、図21を参照しながら、第2実施形態による情報処理システムについて説明する。なお、以下の説明では、上記した第1実施形態と同一または相当する構成については、第1実施形態に用いた符号と同一の符号を用いることにより、その詳細な説明を省略する。
(Second embodiment)
Next, an information processing system according to the second embodiment will be described with reference to FIG. 21. In the following description, the same reference numerals as those used in the first embodiment are used for the same or corresponding configurations as those in the first embodiment described above, and a detailed explanation thereof will be omitted.

この第2実施形態による情報処理システムでは、抽出された付加情報に関する情報を表示する際に、同じ付加情報に対応する情報を表示しないようにした点において、上記第1実施形態による情報処理システムと異なっている。 The information processing system according to the second embodiment differs from the information processing system according to the first embodiment in that when displaying information related to extracted additional information, information corresponding to the same additional information is not displayed. It's different.

カメラ付きのモバイル端末などで、付加情報を埋め込んだ記録物Cにおける記録画像を撮像する場合は、当該モバイル端末をかざす位置、つまり、当該モバイル端末の撮像位置によって、埋め込まれている付加情報が異なってしまう。付加情報を確実に抽出するためには、記録画像において、同じ付加情報を複数の領域に埋め込む。そして、モバイル端末の撮像位置を変更しながら、多重化デコード処理を繰り返すことにより、付加情報を確実に抽出することができるようになる。 When capturing recorded images of recorded material C with embedded additional information using a mobile terminal with a camera, the embedded additional information differs depending on the position where the mobile terminal is held up, that is, the imaging position of the mobile terminal. It ends up. In order to reliably extract additional information, the same additional information is embedded in multiple areas in the recorded image. Then, by repeating the multiplex decoding process while changing the imaging position of the mobile terminal, additional information can be reliably extracted.

しかしながら、モバイル端末での撮像位置を変更しながら、多重化デコード処理を繰り返す場合、同じ付加情報を何度も抽出してしまう。このため、ディスプレイ80で抽出した付加情報を選択可能に表示する際に、抽出した付加情報をすべて表示すると、ディスプレイ80では、同じ情報が繰り返し表示され、表示される情報量が多くなり、ユーザが所望の付加情報を選択し難くなる。 However, when multiplexing and decoding processing is repeated while changing the imaging position on the mobile terminal, the same additional information will be extracted many times. Therefore, when displaying extracted additional information in a selectable manner on the display 80, if all the extracted additional information is displayed, the display 80 will repeatedly display the same information, increasing the amount of information displayed and causing the user to It becomes difficult to select desired additional information.

そこで、本実施形態では、撮像位置を変更しながら多重化デコード処理を繰り返す際に、抽出された付加情報について、まだ表示されていない付加情報についてのみ、ディスプレイ80に表示するようにした。以下の説明では、上記第1実施形態による情報処理システム10と異なる部分について詳細に説明し、同じ部分についてはその説明を省略する。 Therefore, in this embodiment, when repeating the multiplex decoding process while changing the imaging position, only the extracted additional information that has not yet been displayed is displayed on the display 80. In the following description, parts that are different from the information processing system 10 according to the first embodiment will be described in detail, and descriptions of the same parts will be omitted.

=多重化デコード処理装置=
<付加情報の通知>
図21は、第2実施形態による情報処理システム10における、多重化デコード処理後に実行される通知処理の処理内容を示すフローチャートである。図21は、通知処理の処理内容を示すフローチャートである。図21のフローチャートで示される一連の処理は、CPU72がROM74に記憶されているプログラムコードをRAM76に展開して実行されることにより行われる。あるいはまた、図21におけるステップの一部または全部の機能をASICまたは電子回路などのハードウェアで実行してもよい。
=Multiplex decoding processing device=
<Notification of additional information>
FIG. 21 is a flowchart showing the processing details of the notification process executed after the multiplex decoding process in the information processing system 10 according to the second embodiment. FIG. 21 is a flowchart showing the details of the notification process. The series of processes shown in the flowchart of FIG. 21 is performed by the CPU 72 loading the program code stored in the ROM 74 into the RAM 76 and executing it. Alternatively, the functionality of some or all of the steps in FIG. 21 may be performed in hardware such as an ASIC or electronic circuit.

図21の通知処理では、まず、多重化デコード処理で抽出した付加情報を取得する(S2102)。そして、取得した付加情報が複数であるか否かを判定し(S2104)、付加情報が複数でないと判定されると、後述するS2110に進む。なお、S2102、S2104の具体的な処理内容は、上記S2002、S2004と同じである。また、S2104において、付加情報が複数であると判定されると、解析部96は、S2102で取得した複数の付加情報の中で、互いに一致する付加情報があるか否かを判定する(S2106)。 In the notification process in FIG. 21, first, additional information extracted in the multiplex decoding process is acquired (S2102). Then, it is determined whether or not there is a plurality of pieces of additional information that has been acquired (S2104), and if it is determined that there is not a plurality of pieces of additional information, the process advances to S2110, which will be described later. Note that the specific processing contents of S2102 and S2104 are the same as those of S2002 and S2004 described above. Furthermore, if it is determined in S2104 that there is a plurality of additional information, the analysis unit 96 determines whether there is any additional information that matches each other among the plurality of additional information acquired in S2102 (S2106). .

S2106において、互いに一致する付加情報がないと判定されると、後述するS2110に進む。また、S2106において、互いに一致する付加情報があると判定されると、解析部96は、互いに一致する付加情報を1つの付加情報とみなし(S2108)、S2110に進み、付加情報に関する情報を、ディスプレイ80において選択可能に表示する。S2110では、上記S2008と同様にして付加情報に関する情報が表示されることとなる。具体的には、付加情報が1つであれば、その付加情報のみがディスプレイ80に選択可能に表示される。また、付加情報が複数であれば、すべての付加情報がディスプレイ80に選択可能に表示される。また、既に付加情報が表示されている場合には、表示されている付加情報に追加して、新たな付加情報がディスプレイ80に選択可能に表示される。また、S2110では、情報が表示された付加情報を、例えば、RAM76に保存する。 If it is determined in S2106 that there is no matching additional information, the process advances to S2110, which will be described later. Further, if it is determined in S2106 that there is additional information that matches each other, the analysis unit 96 regards the additional information that matches each other as one additional information (S2108), proceeds to S2110, and displays information regarding the additional information on the display. 80, it is displayed in a selectable manner. In S2110, information regarding additional information is displayed in the same manner as in S2008 above. Specifically, if there is one piece of additional information, only that piece of additional information is displayed on the display 80 in a selectable manner. Furthermore, if there is a plurality of pieces of additional information, all pieces of additional information are displayed on the display 80 in a selectable manner. Further, if additional information is already displayed, new additional information is displayed on the display 80 in a selectable manner in addition to the displayed additional information. Further, in S2110, the additional information displayed is stored in, for example, the RAM 76.

次に、解析部96は、表示されている付加情報に関する方法が選択されたか否かを判定する(S2112)。S2112の具体的な処理内容は上記2010と一致する。S2112において、付加情報に関する情報が選択されたと判定されると、選択された付加情報に関する情報に対応する付加情報に基づく通知を行い(S2114)、この通知処理を終了する。なお、S2114の具体的な処理内容は上記S2012と一致する。また、S2112において、付加情報に関する情報が選択されていないと判定されると、多重化デコード処理を実行する(S2116)。即ち、S2116では、図19に示す多重化デコード処理が実行される。このとき、例えば、ユーザに対して、撮像領域の異なる撮像画像の取得を促す通知を行い、撮像された撮像画像に基づく多重化デコード処理が実行される。 Next, the analysis unit 96 determines whether a method related to the displayed additional information has been selected (S2112). The specific processing content of S2112 is the same as 2010 above. If it is determined in S2112 that information related to additional information has been selected, a notification based on the additional information corresponding to the information related to the selected additional information is performed (S2114), and this notification processing is ended. Note that the specific processing content of S2114 is the same as that of S2012 above. Further, if it is determined in S2112 that information related to additional information is not selected, multiplex decoding processing is executed (S2116). That is, in S2116, multiplex decoding processing shown in FIG. 19 is executed. At this time, for example, a notification is given to the user to prompt the user to acquire captured images of different imaging areas, and multiplex decoding processing is performed based on the captured images.

S2116での多重化デコード処理が終了すると、次に、解析部96は、当該多重化デコード処理で抽出した付加情報を取得する(S2118)。そして、解析部96は、取得した付加情報が複数であるか否かを判定し(S2120)、付加情報が複数でないと判定されると、後述するS2126に進む。なお、S2118、S2120の具体的な処理内容は、上記S2002、S2004と同じである。また、S2118において、付加情報が複数であると判定されると、解析部96は、S2118で取得した付加情報において、互いに一致する付加情報があるか否かを判定する(S2122)。S2122において、互いに一致する付加情報がないと判定されると、後述するS2124に進む。また、S2122において、互いに一致する付加情報があると判定されると、解析部96は、互いに一致する付加情報を1つの付加情報とみなす(S2124)。その後、S2126に進み、解析部96は、S2116での多重化デコード処理で取得した付加情報(S2124での処理済み)のうち、ディスプレイ80に表示された付加情報があるか否かを判定する。 When the multiplex decoding process in S2116 is completed, the analysis unit 96 next acquires the additional information extracted in the multiplex decoding process (S2118). Then, the analysis unit 96 determines whether or not there is a plurality of acquired additional information (S2120), and if it is determined that there is not a plurality of additional information, the process proceeds to S2126, which will be described later. Note that the specific processing contents of S2118 and S2120 are the same as those of S2002 and S2004 described above. Further, if it is determined in S2118 that there is a plurality of additional information, the analysis unit 96 determines whether there is any additional information that matches each other among the additional information acquired in S2118 (S2122). If it is determined in S2122 that there is no matching additional information, the process advances to S2124, which will be described later. Further, if it is determined in S2122 that there is additional information that matches each other, the analysis unit 96 regards the additional information that matches each other as one additional information (S2124). Thereafter, the process advances to S2126, and the analysis unit 96 determines whether there is any additional information displayed on the display 80 among the additional information acquired in the multiplex decoding process in S2116 (processed in S2124).

S2126では、S2116の多重化デコード処理で取得した付加情報と、RAM76に保存されている付加情報とを比較することで、ディスプレイ80に表示された付加情報があるか否かを判定する。S2126において、取得した付加情報が、RAM76に保存された付加情報に含まれていない、つまり、ディスプレイ80に表示された付加情報でないと判定されると、S2110に進み、取得された付加情報をディスプレイ80において選択可能に追加表示する。また、S2126において、取得された付加情報が、RAM76に保存された付加情報に含まれている、つまり、ディスプレイ80に表示された付加情報があると判定されると、ディスプレイ80に表示されていない付加情報を取得する(S2128)。その後、S2110に進み、S2128で取得した付加情報を、ディスプレイ80において選択可能に追加表示する。 In S2126, it is determined whether there is additional information displayed on the display 80 by comparing the additional information acquired in the multiplex decoding process in S2116 and the additional information stored in the RAM 76. If it is determined in S2126 that the acquired additional information is not included in the additional information stored in the RAM 76, that is, it is not the additional information displayed on the display 80, the process advances to S2110, and the acquired additional information is displayed on the display. At 80, additional information is displayed in a selectable manner. Further, if it is determined in S2126 that the acquired additional information is included in the additional information stored in the RAM 76, that is, there is additional information displayed on the display 80, the additional information is not displayed on the display 80. Additional information is acquired (S2128). Thereafter, the process advances to S2110, and the additional information acquired in S2128 is additionally displayed in a selectable manner on the display 80.

=本実施形態の効果=
以上において説明したように、第2実施形態による情報処理システム10では、多重化デコード処理を繰り返し行って、当該多重化デコード処理で取得した付加情報に関する情報を、ディスプレイ80に選択可能に表示した。なお、ディスプレイ80に表示する付加情報に関する情報については、既に表示されている付加情報に関する情報は除外し、まだ表示されていない付加情報に関する情報を追加して表示するようにした。これにより、ディスプレイ80に表示される付加情報に関する情報が簡素化され、ユーザが所望の付加情報に関する情報を選択し易くなる。
=Effects of this embodiment=
As described above, in the information processing system 10 according to the second embodiment, multiplex decoding processing is repeatedly performed, and information regarding additional information acquired through the multiplexing decoding processing is selectively displayed on the display 80. Note that the information regarding additional information displayed on the display 80 excludes information regarding additional information that has already been displayed, and additionally displays information regarding additional information that has not yet been displayed. This simplifies the information related to additional information displayed on the display 80, making it easier for the user to select information related to desired additional information.

(他の実施形態)
なお、上記した実施形態は、以下の(1)乃至(8)に示すように変形してもよい。
Other Embodiments
The above-described embodiment may be modified as shown in (1) to (8) below.

(1)上記実施形態では、多重化デコード処理で取得した付加情報に関する情報を、ディスプレイ80に選択可能に表示させ、ユーザによる選択に応じて、付加情報を通知するようにしたが、これに限定されるものではない。即ち、所定の条件を設定しておき、当該所定の条件を満たす付加情報を通知するようにしてもよい。例えば、所定の条件として、付加情報の種類を設定する。具体的には、テキスト文書データを選択するテキスト表示モードに設定すると、URLなどの付加情報は選択されずに、テキスト文書データとなる付加情報が自動的に選択されてディスプレイ80に当該テキスト文書データに基づく文字列が表示される。 (1) In the above embodiment, the information regarding the additional information acquired through the multiplex decoding process is displayed in a selectable manner on the display 80, and the additional information is notified according to the user's selection. However, the present invention is not limited to this. It is not something that will be done. That is, a predetermined condition may be set and additional information satisfying the predetermined condition may be notified. For example, the type of additional information is set as the predetermined condition. Specifically, when the text display mode is set to select text document data, additional information such as a URL is not selected, but additional information that becomes text document data is automatically selected, and the text document data is displayed on the display 80. A string based on is displayed.

(2)上記実施形態では特に記載しなかったが、ディスプレイ80に選択可能に表示された付加情報に関する情報は、1つだけ選択可能としてもよいし、チェックボックスなどを用いて、複数を選択可能なようにしてもよい。また、上記実施形態では特に記載しなかったが、ディスプレイ80に表示される付加情報に関する情報は、例えば、付加情報が抽出された順に表示するようにしてもよい。 (2) Although not specifically described in the above embodiment, the information regarding the additional information displayed in a selectable manner on the display 80 may be such that only one can be selected, or multiple items can be selected using check boxes or the like. You can do it like this. Further, although not specifically described in the above embodiment, the information regarding the additional information displayed on the display 80 may be displayed, for example, in the order in which the additional information is extracted.

(3)上記実施形態では特に記載しなかったが、付加情報に、優先度に関する情報を埋め込み、当該優先度に関する情報に基づいて、ディスプレイ80における付加情報に関する情報の表示順序が決定されるようにしてもよい。または、当該優先度に関する情報に基づいて、抽出された付加情報の中から、通知すべき付加情報を自動的に選択し通知するようにしてもよい。 (3) Although not specifically described in the above embodiment, information regarding the priority is embedded in the additional information, and the display order of information regarding the additional information on the display 80 is determined based on the information regarding the priority. It's okay. Alternatively, additional information to be notified may be automatically selected and notified from among the extracted additional information based on the information regarding the priority.

また、上記実施形態では特に記載しなかったが、付加情報の種類ごとに優先度を設定し、設定された優先度に基づいて、ディスプレイ80において、付加情報の種類ごとに、抽出された順に付加情報に関する情報を表示するようにしてもよい。または、設定された優先度に基づいて、抽出された付加情報の中から、通知すべき付加情報を自動的に選択し通知するようにしてもよい。 Although not specifically described in the above embodiment, a priority is set for each type of additional information, and based on the set priority, each type of additional information is added on the display 80 in the order in which it is extracted. Information related to information may also be displayed. Alternatively, additional information to be notified may be automatically selected and notified from among the extracted additional information based on the set priority.

優先度については、例えば、付加情報のデータサイズ、データの簡単さに応じて決定される。そして、例えば、容易に表示可能なほど優先度が高くなる。具体的には、データサイズが小さいほど優先度が高く、また、動画データ、テキストデータであれば、テキストデータの方が、優先度が高くなる。 The priority is determined, for example, according to the data size of the additional information and the simplicity of the data. For example, the easier it is to display, the higher the priority. Specifically, the smaller the data size, the higher the priority. Also, in the case of video data and text data, the text data has a higher priority.

(4)上記実施形態では特に記載しなかったが付加情報に、付加情報が埋め込まれる位置に関する情報を埋め込み、付加情報に関する情報とともに、当該付加情報に埋め込まれた位置に関する情報をディスプレイ80に表示するようにしてもよい。位置に関する情報としては、例えば、座標値、上下左右など、記録画像における位置を限定可能な情報であればよく、回転している場合には回転の有無を含むようにしてもよい。これにより、記録画像において、付加情報が埋め込まれている位置に意味のある場合に、ユーザがより適切に所望の付加情報を選択することができるようになる。 (4) Although not specifically described in the above embodiment, information regarding the position where the additional information is embedded is embedded in the additional information, and the information regarding the position embedded in the additional information is displayed on the display 80 along with the information regarding the additional information. You can do it like this. The information regarding the position may be any information that can limit the position in the recorded image, such as coordinate values, top, bottom, left, and right, and may also include whether or not the image is rotated if the image is rotated. This allows the user to more appropriately select desired additional information if the position where the additional information is embedded in the recorded image has meaning.

(5)上記実施形態では特に記載しなかったが、予めオブジェクトを設定しておき、付加情報にオブジェクトに関する情報を埋め込む。そして、抽出された複数の付加情報のうち、設定されているオブジェクトに関する情報を含む付加情報を、優先的に選択して通知するようにしてもよい。また、撮像画像からオブジェクトを認識し、抽出された複数の付加情報の中から、認識されたオブジェクトに関する情報を含む付加情報を、優先的に選択して通知するようにしてもよい。なお、オブジェクトとしては、例えば、人物情報であり、父、母、子供などである。 (5) Although not specifically described in the above embodiment, an object is set in advance, and information regarding the object is embedded in the additional information. Then, among the plurality of extracted additional information, additional information including information regarding the set object may be preferentially selected and notified. Alternatively, an object may be recognized from a captured image, and from among a plurality of extracted additional information, additional information including information regarding the recognized object may be preferentially selected and notified. Note that the object is, for example, personal information such as a father, mother, child, etc.

(6)上記実施形態では、多重化エンコード処理装置12を、多重化装置16と記録装置18とにより構成するようにしたが、これに限定されるものではない。即ち、多重化エンコード処理装置12は、画像データに付加情報を埋め込むことが可能な多重化部と、当該多重化部で付加情報が埋め込まれた画像データに基づいて記録可能な記録部とを備えた構成としてもよい。 (6) In the above embodiment, the multiplex encoding processing device 12 is composed of the multiplexing device 16 and the recording device 18, but the present invention is not limited to this. That is, the multiplexing encoding processing device 12 includes a multiplexing section that can embed additional information in image data, and a recording section that can record based on the image data in which the additional information has been embedded in the multiplexing section. It is also possible to have a different configuration.

(7)本発明は、上記実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 (7) The present invention provides a program that implements one or more functions of the above embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device executes the program. This can also be realized by reading and executing processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

(8)上記実施形態および上記した(1)乃至(7)に示す各種の形態は、適宜に組み合わせるようにしてもよい。 (8) The embodiments described above and the various forms shown in (1) to (7) above may be combined as appropriate.

10 情報処理システム
70 分離装置
92 検出部
94 分離部
96 解析部
10 Information processing system 70 Separation device 92 Detection section 94 Separation section 96 Analysis section

Claims (12)

撮像された撮像画像に含まれている付加情報を抽出する抽出手段と、
前記抽出手段で抽出された複数の付加情報のそれぞれに関する情報を表示手段に選択可能に表示するように制御する表示制御手段と、
前記表示制御手段の制御により表示された複数の付加情報のそれぞれに関する情報のうち、ユーザに選択された情報に対応する付加情報に基づく通知を行うように制御する通知制御手段と、
を有し
前記表示制御手段は、第1の撮像画像から抽出された第1の付加情報に関する情報を前記表示手段に表示している状態で、前記第1の撮像画像よりも後に撮像された第2の撮像画像から抽出した1つ以上の付加情報に前記第1の付加情報が含まれていても当該第1の付加情報に関する情報を前記表示手段に追加して表示することなく、前記1つ以上の付加情報に前記表示手段に表示されていない第2の付加情報が含まれている場合には当該第2の付加情報に関する情報を追加して表示するように制御する
ことを特徴とする情報処理装置。
Extracting means for extracting additional information included in the captured image;
a display control means for controlling the display means to selectably display information regarding each of the plurality of additional information extracted by the extraction means;
Notification control means for controlling to perform notification based on additional information corresponding to information selected by the user among information regarding each of the plurality of additional information displayed under the control of the display control means ;
has
The display control means displays a second captured image captured after the first captured image while displaying information on the first additional information extracted from the first captured image on the display means. Even if the first additional information is included in the one or more additional information extracted from the image, the one or more additional information is not additionally displayed on the display means. An information processing apparatus characterized in that, when information includes second additional information that is not displayed on the display means, control is performed so that information regarding the second additional information is added and displayed.
前記表示制御手段によって表示された情報に対応する付加情報を記憶手段に保存するように制御する保存制御手段を更に有し、further comprising storage control means for controlling the storage means to store additional information corresponding to the information displayed by the display control means;
前記表示制御手段は、The display control means includes:
前記第2の撮像画像から抽出した前記1つ以上の付加情報のうち、前記記憶手段に保存された付加情報に含まれる付加情報を前記表示手段に追加して表示しないように制御し、Among the one or more additional information extracted from the second captured image, additional information included in the additional information stored in the storage means is controlled not to be added and displayed on the display means,
前記第2の撮像画像から抽出した前記1つ以上の付加情報のうち、前記記憶手段に保存された付加情報に含まれない付加情報を前記表示手段に追加して表示するように制御するAmong the one or more pieces of additional information extracted from the second captured image, additional information that is not included in the additional information stored in the storage means is controlled to be added and displayed on the display means.
ことを特徴とする請求項1に記載の情報処理装置。The information processing device according to claim 1, characterized in that:
前記第2の撮像画像から抽出した前記1つ以上の付加情報と、前記記憶手段に保存された付加情報とを比較することで、前記第2の撮像画像から抽出した1つ以上の付加情報に前記表示手段に表示された情報に対応する付加情報があるか否かを判定する判定手段を更に有し、By comparing the one or more additional information extracted from the second captured image with the additional information stored in the storage means, the one or more additional information extracted from the second captured image is further comprising determining means for determining whether there is additional information corresponding to the information displayed on the display means,
前記表示制御手段は、前記判定手段による判定に基づいて前記追加して表示するか否かを制御することを特徴とする請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the display control means controls whether or not to display the additional information based on a determination by the determination means.
前記第1の撮像画像から抽出された前記第1の付加情報に関する情報を前記表示手段に表示した際に、ユーザに対して、前記第1の撮像画像とは撮像領域の異なる撮像画像の取得を促す通知を行うことを特徴とする請求項1に記載の情報処理装置。When information related to the first additional information extracted from the first captured image is displayed on the display means, the user is prompted to acquire a captured image in a different imaging area from the first captured image. The information processing device according to claim 1, wherein the information processing device provides a prompting notification. 前記表示制御手段による制御によって表示される前記情報は、それぞれに対応する付加情報を区別可能な情報であることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。5. The information processing apparatus according to claim 1, wherein the information displayed under the control of the display control means is information that allows the corresponding additional information to be distinguished. 前記表示制御手段は複数の付加情報のそれぞれに関する情報を表示するように制御し
前記表示制御手段による制御によって表示される前記情報は前記複数の付加情報にそれぞれ付された番号を含むことを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
The display control means controls to display information regarding each of a plurality of additional information ,
6. The information processing apparatus according to claim 1, wherein the information displayed under the control of the display control means includes a number assigned to each of the plurality of additional information.
前記通知制御手段は、前記通知として、ユーザに選択された情報に対応する付加情報のテキストとしての表示、ユーザに選択された情報に対応する付加情報であるURLのURL先の画面の表示、ユーザに選択された情報に対応する付加情報である音声データまたは音声付き動画データの音声の出力のうち少なくとも1つを行うように制御することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。The notification control means may display, as the notification, additional information corresponding to the information selected by the user as a text, display a screen at a URL destination of a URL that is additional information corresponding to the information selected by the user, 7. The control apparatus according to any one of claims 1 to 6, wherein the control is performed so as to output at least one of audio data or audio of video data with audio, which is additional information corresponding to the information selected. The information processing device described. 前記付加情報は、付加情報が埋め込まれている位置に関する情報であって、画像における位置を限定可能な情報を含み、
前記表示制御手段は、付加情報に関する情報とともに、前記位置に関する情報を表示する
ことを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
The additional information is information about the position where the additional information is embedded , and includes information that can limit the position in the image ,
The information processing apparatus according to any one of claims 1 to 7, wherein the display control means displays information regarding the position together with information regarding additional information.
前記表示制御手段は前記複数の付加情報のそれぞれに関する情報を、各付加情報のデータサイズが小さい順に表示するように制御することを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。 9. The display control means controls the information regarding each of the plurality of additional information to be displayed in descending order of data size of each additional information. Information processing device. 撮像された撮像画像に含まれている付加情報を抽出することが可能な情報処理装置の制御方法であって、
撮像画像から抽出された複数の付加情報のそれぞれに関する情報を表示手段に選択可能に表示するように制御する表示制御工程と、
前記表示制御工程での制御により表示された複数の付加情報のそれぞれに関する情報のうち、ユーザに選択された情報に対応する付加情報に基づく通知を行うように制御する通知制御工程と、
を有し、
前記表示制御工程は、第1の撮像画像から抽出された第1の付加情報に関する情報を前記表示手段に表示している状態で、前記第1の撮像画像よりも後に撮像された第2の撮像画像から抽出した1つ以上の付加情報に前記第1の付加情報が含まれていても当該第1の付加情報に関する情報を前記表示手段に追加して表示することなく、前記1つ以上の付加情報に前記表示手段に表示されていない第2の付加情報が含まれている場合には当該第2の付加情報に関する情報を追加して表示するように制御する
ことを特徴とする情報処理装置の制御方法。
A method for controlling an information processing device capable of extracting additional information included in a captured image, the method comprising:
a display control step of controlling the display means to selectably display information regarding each of the plurality of additional information extracted from the captured image;
a notification control step of performing control to perform notification based on additional information corresponding to information selected by the user among information regarding each of the plurality of additional information displayed by the control in the display control step ;
has
The display control step includes displaying a second captured image captured after the first captured image while displaying information on the first additional information extracted from the first captured image on the display means. Even if the first additional information is included in the one or more additional information extracted from the image, the one or more additional information is not additionally displayed on the display means. An information processing apparatus characterized in that when the information includes second additional information that is not displayed on the display means, control is performed to add and display information regarding the second additional information. Control method.
請求項1からのいずれか1項に記載の情報処理装置として、コンピュータを機能させるためのプログラム。 A program for causing a computer to function as the information processing apparatus according to claim 1 . 請求項1から9のいずれか1項に記載の情報処理装置として、コンピュータを機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。A computer-readable storage medium storing a program for operating a computer as the information processing apparatus according to claim 1.
JP2020000312A 2020-01-06 2020-01-06 Information processing device, control method for information processing device, program, and storage medium Active JP7455584B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020000312A JP7455584B2 (en) 2020-01-06 2020-01-06 Information processing device, control method for information processing device, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020000312A JP7455584B2 (en) 2020-01-06 2020-01-06 Information processing device, control method for information processing device, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2021111799A JP2021111799A (en) 2021-08-02
JP7455584B2 true JP7455584B2 (en) 2024-03-26

Family

ID=77060254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020000312A Active JP7455584B2 (en) 2020-01-06 2020-01-06 Information processing device, control method for information processing device, program, and storage medium

Country Status (1)

Country Link
JP (1) JP7455584B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043118A (en) 1999-04-13 2001-02-16 Canon Inc Method and device for data processing and storage medium
JP2003110827A (en) 2001-09-27 2003-04-11 Canon Inc Device, method and program for processing additional information
JP2006229894A (en) 2005-02-21 2006-08-31 Ibm Japan Ltd Display device, display system, display method and program
JP2008177666A (en) 2007-01-16 2008-07-31 Oki Electric Ind Co Ltd Information adding device and method, information extracting device and method, printing medium, and computer program
JP2009271735A (en) 2008-05-08 2009-11-19 Konica Minolta Holdings Inc Document browsing system and method of displaying additional information associated with document
JP2010011252A (en) 2008-06-30 2010-01-14 Nikon Corp Image processing apparatus, image processing program, and digital camera
JP2011070512A (en) 2009-09-28 2011-04-07 Sharp Corp Metainformation management device, content processing device, service provision system, control method of service provision system, control program, and recording medium
JP2013164770A (en) 2012-02-13 2013-08-22 Nippon Telegr & Teleph Corp <Ntt> Related information providing method, related information providing device and related information providing program
JP2019186591A (en) 2018-04-02 2019-10-24 キヤノン株式会社 Information processing apparatus, image display method, computer program, and memory medium

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043118A (en) 1999-04-13 2001-02-16 Canon Inc Method and device for data processing and storage medium
JP2003110827A (en) 2001-09-27 2003-04-11 Canon Inc Device, method and program for processing additional information
JP2006229894A (en) 2005-02-21 2006-08-31 Ibm Japan Ltd Display device, display system, display method and program
JP2008177666A (en) 2007-01-16 2008-07-31 Oki Electric Ind Co Ltd Information adding device and method, information extracting device and method, printing medium, and computer program
JP2009271735A (en) 2008-05-08 2009-11-19 Konica Minolta Holdings Inc Document browsing system and method of displaying additional information associated with document
JP2010011252A (en) 2008-06-30 2010-01-14 Nikon Corp Image processing apparatus, image processing program, and digital camera
JP2011070512A (en) 2009-09-28 2011-04-07 Sharp Corp Metainformation management device, content processing device, service provision system, control method of service provision system, control program, and recording medium
JP2013164770A (en) 2012-02-13 2013-08-22 Nippon Telegr & Teleph Corp <Ntt> Related information providing method, related information providing device and related information providing program
JP2019186591A (en) 2018-04-02 2019-10-24 キヤノン株式会社 Information processing apparatus, image display method, computer program, and memory medium

Also Published As

Publication number Publication date
JP2021111799A (en) 2021-08-02

Similar Documents

Publication Publication Date Title
JP3813387B2 (en) Information embedding method and apparatus, and recording medium
US8503036B2 (en) System and method of improving image quality in digital image scanning and printing by reducing noise in output image data
US11295407B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium storing program
JP3095804B2 (en) Image data transmission apparatus and image data transmission method
US11943547B2 (en) Information processing apparatus that illuminates a printed image during capture when embedded information is to be processed, information processing system, information processing method, and storage medium
JP2022184133A (en) Electronic watermark analyzing device and electronic watermark analyzing method
JP2009027385A (en) Image processor, its method and computer program
JP7455584B2 (en) Information processing device, control method for information processing device, program, and storage medium
JP2004320383A (en) Image processing apparatus, image processing method, and image processing system
US20230045024A1 (en) Information processing apparatus, method, and computer-readable medium
JP7438736B2 (en) Image processing device, image processing method, and program
JP6789890B2 (en) Information processing equipment, information processing methods and programs, and how to create multiplexing parameters
JP7451187B2 (en) Image processing device, image processing method and program
JP7438752B2 (en) Information processing device, control method for information processing device, storage medium, and program
JP4446797B2 (en) Document restoration apparatus, document restoration method, document restoration program, and recording medium
US11831834B2 (en) Information processing apparatus, method, and product performing multiplexing processing by different methods with respect to printing and non-printing areas
JP4926128B2 (en) Image processing apparatus, image reading apparatus, image forming apparatus, computer program, recording medium, and image processing method
JP2023042153A (en) Image processing device, image processing method and program
JP2005244649A (en) Image processing apparatus
JP2004242102A (en) Image processing apparatus
JP2006197136A (en) Image processing apparatus, image processing method, program and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240313

R151 Written notification of patent or utility model registration

Ref document number: 7455584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151