JP2021106332A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2021106332A
JP2021106332A JP2019237033A JP2019237033A JP2021106332A JP 2021106332 A JP2021106332 A JP 2021106332A JP 2019237033 A JP2019237033 A JP 2019237033A JP 2019237033 A JP2019237033 A JP 2019237033A JP 2021106332 A JP2021106332 A JP 2021106332A
Authority
JP
Japan
Prior art keywords
information
additional information
image
user
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019237033A
Other languages
Japanese (ja)
Other versions
JP7438752B2 (en
JP2021106332A5 (en
Inventor
祐樹 石田
Yuki Ishida
祐樹 石田
洋行 酒井
Hiroyuki Sakai
洋行 酒井
勇気 大曲
Yuki Omagari
勇気 大曲
鈴木 智博
Tomohiro Suzuki
智博 鈴木
浦谷 充
Mitsuru Uratani
充 浦谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019237033A priority Critical patent/JP7438752B2/en
Publication of JP2021106332A publication Critical patent/JP2021106332A/en
Publication of JP2021106332A5 publication Critical patent/JP2021106332A5/ja
Application granted granted Critical
Publication of JP7438752B2 publication Critical patent/JP7438752B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an information processing device, an information processing method, and a program capable of reading additional information from an image and executing a process according to a situation such as a date, time, and place where a user read the image.SOLUTION: The information processing device acquires additional information with a mobile terminal, also acquires change information that changes according to a user's situation, and performs processing in the mobile terminal based on the additional information and the change information.SELECTED DRAWING: Figure 20

Description

本発明は、画像内に電子透かしとして埋め込まれた付加情報を取得して、所定の処理を行う情報処理装置、情報処理方法およびプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program that acquire additional information embedded as a digital watermark in an image and perform a predetermined process.

特許文献1には、画像に付加情報としてUniform Resource Locator(以下、URLという)を埋め込み、ソフトウエアによって埋め込まれたURLを読み取ることで、ユーザがネットワークにアクセスすることが記載されている。 Patent Document 1 describes that a user accesses a network by embedding a Uniform Resource Locator (hereinafter referred to as a URL) as additional information in an image and reading the URL embedded by software.

特開2005−051793号公報Japanese Unexamined Patent Publication No. 2005-051793

しかし、特許文献1の方法では、画像に埋め込まれた付加情報は、変更することができない。そのため、ソフトウエアによって埋め込まれた付加情報を読み取ることで成される処理は、常に同じ処理であり、例えば、ユーザが画像を読み取った日時や場所などの状況に合わせた処理を行うことはできなかった。 However, in the method of Patent Document 1, the additional information embedded in the image cannot be changed. Therefore, the process performed by reading the additional information embedded by the software is always the same process, and for example, it is not possible to perform the process according to the situation such as the date and time and place where the user read the image. rice field.

よって本発明は、画像から付加情報を読み取り、ユーザが画像を読み取った日時や場所などの状況に応じた処理を実行することができる情報処理装置、情報処理方法およびプログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide an information processing device, an information processing method, and a program capable of reading additional information from an image and executing processing according to a situation such as the date and time and place where the user reads the image. do.

そのため本発明の情報処理方法は、付加情報が電子透かしとして埋め込まれた画像を撮像して撮像情報を取得する取得工程と、前記撮像情報から前記付加情報を抽出する抽出工程と、を有する情報処理方法であって、前記撮像における状況に関する撮像状況情報を取得する撮像情報取得工程と、前記付加情報と前記撮像状況情報とに基づいて、所定の処理を行う処理工程と、を更に有することを特徴とする。 Therefore, the information processing method of the present invention includes an acquisition step of capturing an image in which additional information is embedded as an electronic watermark to acquire imaging information, and an extraction step of extracting the additional information from the imaging information. The method is characterized by further including an imaging information acquisition step of acquiring imaging status information regarding the situation in the imaging, and a processing step of performing a predetermined process based on the additional information and the imaging status information. And.

本発明によれば、画像から付加情報を読み取り、ユーザが画像を読み取った日時や場所などの状況に応じた処理を実行することができる情報処理装置、情報処理方法およびプログラムを提供することができる。 According to the present invention, it is possible to provide an information processing device, an information processing method and a program capable of reading additional information from an image and executing processing according to a situation such as a date and time or place where the user reads the image. ..

多重化エンコードのためのハードウェアの構成を示した図である。It is a figure which showed the hardware structure for multiplex encoding. 図1(a)の付加情報多重化装置のハードウェア構成を示した図である。It is a figure which showed the hardware configuration of the additional information multiplexing apparatus of FIG. 1 (a). 画像情報から付加情報を抽出するハードウェアの構成を示した図である。It is a figure which showed the structure of the hardware which extracts the additional information from the image information. 多重化エンコード処理を行うファームウェア構成を示したブロック図である。It is a block diagram which showed the firmware configuration which performs the multiplexing encoding process. 画像情報を復号化する画像復元処理を示したフローチャートである。It is a flowchart which showed the image restoration process which decodes the image information. 色補正テーブルを示した図である。It is a figure which showed the color correction table. 四面体補間のイメージ図である。It is an image diagram of tetrahedral interpolation. 色分解テーブルの一例を示した図である。It is a figure which showed an example of the color separation table. 誤差拡散法における誤差分配方法を説明する図である。It is a figure explaining the error distribution method in the error diffusion method. バイナリデータに対応するマスクデータを示した図である。It is a figure which showed the mask data corresponding to the binary data. 多重化エンコード処理を示すフローチャートである。It is a flowchart which shows the multiplexing encoding process. 多重化部のファームウェア構成を示したブロック図である。It is a block diagram which showed the firmware configuration of the multiplexing part. 周波数特性が異なるマスクパターンを数値化した図である。It is the figure which quantified the mask pattern with different frequency characteristics. 多重化エンコード処理後の記録処理を示したフローチャートである。It is a flowchart which showed the recording process after the multiplexing encoding process. 多重化デコード処理のファームウェアのブロック構成とイメージ図である。It is a block configuration and an image diagram of the firmware of the multiplexing decoding process. 周波数特性の差を示す図とブロック毎に多重化された記録媒体の図である。It is a figure which shows the difference of a frequency characteristic, and the figure of a recording medium multiplexed for each block. 周波数特性を判定する際の検出位置を説明するための図である。It is a figure for demonstrating the detection position at the time of determining a frequency characteristic. 多重化デコード処理を示すフローチャートである。It is a flowchart which shows the multiplexing decoding process. 画像を抽出するイメージ図と抽出処理を示したフローチャートである。It is an image diagram to extract an image and the flowchart which showed the extraction process. 画像を抽出するイメージ図と抽出処理を示したフローチャートである。It is an image diagram to extract an image and the flowchart which showed the extraction process. 画像を抽出するイメージ図と抽出処理を示したフローチャートである。It is an image diagram to extract an image and the flowchart which showed the extraction process. 画像を抽出するイメージ図と抽出処理を示したフローチャートである。It is an image diagram to extract an image and the flowchart which showed the extraction process. 画像を抽出するイメージ図と抽出処理を示したフローチャートである。It is an image diagram to extract an image and the flowchart which showed the extraction process. 抽出処理を示したフローチャートである。It is a flowchart which showed the extraction process.

以下、電子透かしとして付加情報が埋め込まれた画像に関する実施形態について記載する。ここでの電子透かしとは、画像に対して不可視に、もしくは視認することが困難な状態で埋め込まれた情報である。このような情報は、該画像に対して装置が解析を行うことにより抽出可能である。この解析の詳細については後述する。なお、以降の説明において、電子透かしとしての情報の埋め込みを、画像に対する該情報の「多重化」として表現する。 Hereinafter, embodiments relating to an image in which additional information is embedded as a digital watermark will be described. The digital watermark here is information embedded in an image invisible or difficult to see. Such information can be extracted by the apparatus analyzing the image. Details of this analysis will be described later. In the following description, the embedding of information as a digital watermark is expressed as "multiplexing" of the information in an image.

(第1の実施形態)
以下、図面を参照して本発明の第1の実施形態について説明する。先ず、画像情報に付加情報を埋め込む多重化エンコード処理部と、撮影画像(撮像情報)から付加情報を抽出する多重化デコード処理部の基本構成について説明する。
(First Embodiment)
Hereinafter, the first embodiment of the present invention will be described with reference to the drawings. First, a basic configuration of a multiplexing encoding processing unit that embeds additional information in image information and a multiplexing decoding processing unit that extracts additional information from captured images (imaging information) will be described.

先ず、多重化エンコード処理部と多重化エンコード処理について説明する。
図1は、本実施形態において、画像情報Aに付加情報Bを埋め込む多重化エンコードのためのハードウェアの構成を示した図である。このハードウェアは、画像情報Aと付加情報Bとを取得し、それらの画像情報Aに付加情報Bが埋め込まれた印刷物Cを生成する。
First, the multiplexing encoding processing unit and the multiplexing encoding processing will be described.
FIG. 1 is a diagram showing a configuration of hardware for multiplex encoding in which additional information B is embedded in image information A in the present embodiment. This hardware acquires the image information A and the additional information B, and generates a printed matter C in which the additional information B is embedded in the image information A.

図1(a)のハードウェアは、付加情報多重化装置102と記録装置103とを備えており、付加情報多重化装置102によって画像情報Aに付加情報Bを埋め込む処理が行われ、記録装置103で画像情報Aに付加情報Bが埋め込まれた印刷物Cが生成される。図1(b)のハードウェアは、記録装置103の内部に付加情報多重化部105と記録部106とを備え、付加情報多重化部105によって画像情報Aに付加情報Bを埋め込む処理が行われ、記録部106で画像情報Aに付加情報Bが埋め込まれた印刷物Cが生成される。本実施形態を実現可能なハードウェアの構成は、図1(a)または図1(b)のいずれの構成でもよい。 The hardware of FIG. 1A includes an additional information multiplexing device 102 and a recording device 103, and the additional information multiplexing device 102 performs a process of embedding the additional information B in the image information A, and the recording device 103. A printed matter C in which the additional information B is embedded in the image information A is generated. The hardware of FIG. 1B includes an additional information multiplexing unit 105 and a recording unit 106 inside the recording device 103, and the additional information multiplexing unit 105 performs a process of embedding the additional information B in the image information A. , The recording unit 106 generates a printed matter C in which the additional information B is embedded in the image information A. The hardware configuration that can realize this embodiment may be either the configuration shown in FIG. 1A or FIG. 1B.

図1(a)の構成において、入力端子100から入力される画像情報Aは、色成分を含む多階調の画像情報である。入力端子101から入力される付加情報Bは、テキスト文書情報、音声情報、動画情報、あるいはテキスト文書情報、音声情報、画像、動画情報を圧縮した情報、および他のバイナリ値に変換された情報などである。多重化装置102は、後述するように、画像情報Aに付加情報Bを埋め込む多重化処理を行う。記録装置103は、付加情報Bが埋め込まれた画像情報A’に基づいて記録動作を行うことによって印刷物Cを生成する。 In the configuration of FIG. 1A, the image information A input from the input terminal 100 is multi-gradation image information including a color component. The additional information B input from the input terminal 101 includes text document information, audio information, moving image information, text document information, audio information, images, compressed information of moving image information, and information converted into other binary values. Is. The multiplexing device 102 performs a multiplexing process for embedding the additional information B in the image information A, as will be described later. The recording device 103 generates printed matter C by performing a recording operation based on the image information A'in which the additional information B is embedded.

図1(b)の構成において、図1(a)の多重化装置102に相当する多重化部105は、記録装置103に含まれており、図1(a)の構成と同様に、入力端子100から画像情報Aが入力され、入力端子101から付加情報Bが入力される。記録装置103内の多重化部105は、画像情報Aに付加情報Bを埋め込む処理を行う。また、記録部106は、付加情報Bが埋め込まれた画像情報A’に基づいて記録動作を行うことによって印刷物Cを生成する。このように付加情報Bが埋め込まれた画像情報A’に基づいて印刷物Cを生成する処理を「多重化エンコード処理」ともいう。 In the configuration of FIG. 1 (b), the multiplexing unit 105 corresponding to the multiplexing device 102 of FIG. 1 (a) is included in the recording device 103, and is an input terminal as in the configuration of FIG. 1 (a). Image information A is input from 100, and additional information B is input from input terminal 101. The multiplexing unit 105 in the recording device 103 performs a process of embedding the additional information B in the image information A. Further, the recording unit 106 generates the printed matter C by performing a recording operation based on the image information A'in which the additional information B is embedded. The process of generating the printed matter C based on the image information A'in which the additional information B is embedded is also referred to as "multiplex encoding process".

図2は、図1(a)の付加情報多重化装置102のハードウェア構成を示した図である。CPU202は、中央演算装置であり、例えば、付加情報Bを多重化する処理をプログラムに従って実行する。ROM203は、CPU202により実行されるプログラムを記憶する。RAM204は、CPU202によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリを提供する。2次記憶装置205は、例えばハードディスクであり、画像ファイルや付加情報などを保存するための記憶媒体である。ディスプレイ206は、ユーザインタフェース画面や処理内容等を表示する。キー入力装置207は、キーボードなどの機器の操作を介して処理の指示や設定、文字入力等を受け付ける。ネットワークインタフェース208は、例えばLAN(Local Area Network)に接続されている。また、LANは、インターネットに接続されている。CPU202は、ネットワークインタフェース208により、インターネットに接続されたサイトにアクセスして、ディスプレイ206にサイトの画面を表示させ、情報を送受信する。付加情報多重化装置102は、例えばコンピュータやスマートフォンなどの情報処理装置であるが、画像情報Aに付加情報Bを埋め込む処理が実行可能であれば他の形態の装置でもよい。 FIG. 2 is a diagram showing a hardware configuration of the additional information multiplexing device 102 of FIG. 1 (a). The CPU 202 is a central processing unit, and for example, executes a process of multiplexing additional information B according to a program. The ROM 203 stores a program executed by the CPU 202. The RAM 204 provides a memory for temporarily storing various information when the program is executed by the CPU 202. The secondary storage device 205 is, for example, a hard disk, which is a storage medium for storing image files, additional information, and the like. The display 206 displays a user interface screen, processing contents, and the like. The key input device 207 receives processing instructions, settings, character input, and the like via the operation of a device such as a keyboard. The network interface 208 is connected to, for example, a LAN (Local Area Network). Also, the LAN is connected to the Internet. The CPU 202 accesses a site connected to the Internet by the network interface 208, displays the screen of the site on the display 206, and transmits / receives information. The additional information multiplexing device 102 is, for example, an information processing device such as a computer or a smartphone, but may be another form of device as long as the process of embedding the additional information B in the image information A can be executed.

図3は、印刷物Cに記録された画像情報A’から付加情報Bを抽出するハードウェアの構成を示した図である。ここでは、画像情報A’から付加情報Bを抽出するハードウェアとしてモバイル端末301を例に説明する。 FIG. 3 is a diagram showing a configuration of hardware that extracts additional information B from image information A'recorded on printed matter C. Here, the mobile terminal 301 will be described as an example of hardware for extracting the additional information B from the image information A'.

モバイル端末301は、多重化エンコード処理された印刷物Cをカメラなどの撮像装置によって撮像して、その撮影画像を解析することによって、画像に埋め込まれている付加情報Bを抽出する。 The mobile terminal 301 extracts the additional information B embedded in the image by capturing the multiplexedly encoded printed matter C with an imaging device such as a camera and analyzing the captured image.

撮像センサ302を保持するカメラ付きのモバイル端末(情報処理装置)301は、印刷物Cの撮影機能をもつ。付加情報Bの分離装置303は、撮像センサ302によって撮影された画像を解析することによって、後述するように、付加情報Bを抽出する。CPU(中央演算装置)304は、プログラムにしたがって情報処理方法を実行し、ROM305には、CPU304によって実行されるプログラムが記憶されている。RAM306は、CPU304によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリとして機能する。ハードディスク等の2次記憶装置307は、画像ファイルおよび画像解析結果を含むデータベースなどを保存する。ディスプレイ308は、CPU304の処理結果などをユーザに提示する。 The mobile terminal (information processing device) 301 with a camera that holds the image pickup sensor 302 has a function of photographing printed matter C. The separation device 303 of the additional information B extracts the additional information B by analyzing the image taken by the image pickup sensor 302, as will be described later. The CPU (Central Processing Unit) 304 executes the information processing method according to the program, and the ROM 305 stores the program executed by the CPU 304. The RAM 306 functions as a memory for temporarily storing various information when the program is executed by the CPU 304. The secondary storage device 307 such as a hard disk stores an image file, a database containing image analysis results, and the like. The display 308 presents the processing result of the CPU 304 to the user.

キー入力装置309は、タッチパネル機能を備えるディスプレイ308を用いて、タッチパネルの操作によって処理の指示および文字の入力等を行う。無線LAN(Local Area Network)310はインターネットに接続されており、インターネットに接続されたサイトにアクセスして、ディスプレイ308にサイトの画面などを表示させる。無線LAN310は、データを送受信などにも用いられる。スピーカー311は、抽出された付加情報Bが音声情報または音声付動画データの場合に、音声を出力する。また、インターネットの接続先に動画データがある場合には、その動画データの再生時に音声を出力する。加速度計312は、モーションセンサを搭載しており、モバイル端末301を所持して歩いた時の歩数やモバイル端末301がどちらの方角を向いているかを提示する。 The key input device 309 uses the display 308 having a touch panel function to instruct processing and input characters by operating the touch panel. The wireless LAN (Local Area Network) 310 is connected to the Internet, accesses a site connected to the Internet, and causes a display 308 to display a screen of the site or the like. The wireless LAN 310 is also used for transmitting and receiving data. The speaker 311 outputs audio when the extracted additional information B is audio information or video data with audio. If there is video data at the Internet connection destination, audio is output when the video data is played back. The accelerometer 312 is equipped with a motion sensor and indicates the number of steps when walking with the mobile terminal 301 and which direction the mobile terminal 301 is facing.

ジャイロスコープ313は、モバイル端末301がどのような姿勢を維持しているかを感知し、加速度計312の精度をさらに向上させる。GPS(Global Positioning System)314は人工衛星と通信しモバイル端末301の地球上の位置を提示する。第二撮像センサ315は撮像センサ302と同等の機能を持つ撮像センサであり、撮像センサ302と同様に画像や動画を撮影することができる。時計316は時刻を管理する。ユーザが手動で時刻を調整する事もできるが、無線LAN310を介してサーバ上の時刻を取得し、自動で調整する事も可能である。国や地球上の位置によって時刻は変わる為、ユーザは手動もしくは自動で調整する。 The gyroscope 313 senses what kind of posture the mobile terminal 301 maintains, and further improves the accuracy of the accelerometer 312. GPS (Global Positioning System) 314 communicates with an artificial satellite and presents the position of the mobile terminal 301 on the earth. The second image pickup sensor 315 is an image pickup sensor having the same function as the image pickup sensor 302, and can capture an image or a moving image in the same manner as the image pickup sensor 302. The clock 316 manages the time. The user can manually adjust the time, but it is also possible to acquire the time on the server via the wireless LAN 310 and adjust it automatically. Since the time changes depending on the country and the position on the earth, the user adjusts it manually or automatically.

モバイル端末301はスマートフォン、タブレット、PC、デジタルカメラ、ビデオカメラやウェアラブル端末を使った構成が考えられる。また、モバイル端末301は、撮像センサ302を内蔵する構成に限定されない。例えば、モバイル端末301とは別の装置によって撮像センサ302を制御して、撮影画像を付加情報の分離装置303に送信する構成であってもよい。撮像センサ302としては、デジタルカメラおよびビデオカメラなどを用いることができる。また、付加情報Bの分離装置303としては、パソコンおよびスマートフォンなどを用いることができ、印刷物Cから付加情報Bを抽出できる構成であればよい。 The mobile terminal 301 can be configured by using a smartphone, a tablet, a PC, a digital camera, a video camera, or a wearable terminal. Further, the mobile terminal 301 is not limited to the configuration in which the image pickup sensor 302 is built. For example, the image pickup sensor 302 may be controlled by a device different from the mobile terminal 301 to transmit the captured image to the additional information separation device 303. As the image sensor 302, a digital camera, a video camera, or the like can be used. Further, as the separating device 303 of the additional information B, a personal computer, a smartphone, or the like can be used, and the configuration may be such that the additional information B can be extracted from the printed matter C.

図4は、多重化エンコード処理を行う基本的なファームウェア構成を示したブロック図である。付属情報の取得部401は、画像情報Aを圧縮する際に使用された各種パラメータを取得する。その取得された各種パラメータは、復元部402で、圧縮された画像から画像情報を抽出するための処理に利用される。また、その取得された各種パラメータは、圧縮度を算出するための処理に利用される。例えば、入力画像は、文書情報をJPEGフォーマットで圧縮して得られた非可逆画像情報であり、記録媒体に記録される。非可逆画像情報には、圧縮する際に使用された量子化テーブルと画像情報サイズとが含まれている。取得された画像情報サイズ情報および量子化テーブルは、画像情報の復元部402に送られる。 FIG. 4 is a block diagram showing a basic firmware configuration for performing multiplex encoding processing. The attached information acquisition unit 401 acquires various parameters used when compressing the image information A. The acquired various parameters are used by the restoration unit 402 for processing for extracting image information from the compressed image. In addition, the acquired various parameters are used in the process for calculating the degree of compression. For example, the input image is lossy image information obtained by compressing document information in a JPEG format and is recorded on a recording medium. The lossy image information includes the quantization table used for compression and the image information size. The acquired image information size information and the quantization table are sent to the image information restoration unit 402.

画像情報の復元部402は、符号化された画像情報を復号化して、画像情報を抽出する。以下では、入力画像をJPEG画像として説明する。 The image information restoration unit 402 decodes the encoded image information and extracts the image information. Hereinafter, the input image will be described as a JPEG image.

ここで図5は、符号化された画像情報を復号化する画像復元処理を示したフローチャートである。以下、このフローチャートを用いて画像復元処理を説明する。図5の処理は、例えば、CPU202がROM203に記憶されたプログラムをRAM204に読み出して実行することにより実現される。ここでは、JPEG形式の画像がN個の8画素正方ブロック(8×8画素のブロック)に分割されているものとする。 Here, FIG. 5 is a flowchart showing an image restoration process for decoding the encoded image information. Hereinafter, the image restoration process will be described using this flowchart. The process of FIG. 5 is realized, for example, by the CPU 202 reading the program stored in the ROM 203 into the RAM 204 and executing the program. Here, it is assumed that the JPEG format image is divided into N 8-pixel square blocks (8 × 8 pixel blocks).

画像復元処理が開始されると、CPU202はS51でn=1として、CPU202はS52で、n番目のブロックをハフマン符号化する。ハフマン符号化は、頻度の高いデータに短いビット数の符号を割当てることによって、全体のビット数を減らすように圧縮する方法である。ハフマン復号化は、予めハフマン符号を仕様で定義しておいて元のデータに復号化する。その後、CPU202はS53で、量子化テーブルを用いて逆量子化する、逆量子化では、付属情報取得部401によって取得された量子化テーブル(画像情報を圧縮する際に使用された量子化テーブル)を用いた逆量子化により画像情報に展開する。次に、CPU202はS54で、画像情報に展開したものを逆DCT変換する。逆DCT変換は、直流成分(DC成分)と交流成分(AC成分)にDCT変換された画像情報を元の画像濃度成分のデータに戻すための逆変換を行う。 When the image restoration process is started, the CPU 202 sets n = 1 in S51, and the CPU 202 sets the nth block in Huffman coding in S52. Huffman coding is a method of compressing frequently data so as to reduce the total number of bits by assigning a code having a short number of bits. In Huffman decoding, the Huffman code is defined in advance in the specifications, and the original data is decoded. After that, the CPU 202 dequantizes using the quantization table in S53. In the dequantization, the quantization table acquired by the attached information acquisition unit 401 (the quantization table used when compressing the image information). It is expanded into image information by inverse quantization using. Next, in S54, the CPU 202 performs inverse DCT conversion of the expanded image information. The inverse DCT transform performs an inverse transform for returning the image information DCT-converted to the DC component (DC component) and the AC component (AC component) to the original image density component data.

そして、CPU202はS55でn=n+1として、CPU202はS56で、N=nであるか否かを判定し否判定であればS52に戻り処理を繰り返す。このようにして、上記の処理を対象画面のN個の全ブロックについて実行する。 Then, the CPU 202 sets n = n + 1 in S55, the CPU 202 determines whether or not N = n in S56, and if it is determined whether or not, returns to S52 and repeats the process. In this way, the above processing is executed for all N blocks of the target screen.

JPEG圧縮は、輝度Y、色差Cb、Cr形式で実施されることが多く、その場合、逆DCT処理が施されたデータもYCbCrの形式になる。下式1により、YCbCr形式の値をRGB形式の画像信号値に変換する。
式1:
R = Y + 1.402×Cr
G = Y − 0.344×Cb − 0.714×Cr
B = Y + 1.772×Cb
JPEG compression is often performed in the luminance Y, color difference Cb, and Cr formats, and in that case, the data subjected to the inverse DCT processing is also in the YCbCr format. The value in the YCbCr format is converted into the image signal value in the RGB format by the following equation 1.
Equation 1:
R = Y + 1.402 x Cr
G = Y − 0.344 × Cb − 0.714 × Cr
B = Y + 1.772 x Cb

図4のブロック図に戻り、画像補正部403は、画像情報復元部402により複合化されたRGBデータに対し、画像の補正処理を施す。画像の補正としては、全体の色を明るくまたは暗くする明度調整、コントラスト調整、およびカラーバランスの調整の他、写真の記録を想定した逆光補正および赤目補正などの様々な補正が挙げられる。これらの補正を画像補正部403において一元的に処理することにより、記録装置に依存しない処理を実現することができる。 Returning to the block diagram of FIG. 4, the image correction unit 403 performs image correction processing on the RGB data compounded by the image information restoration unit 402. Image corrections include brightness adjustments that brighten or darken the overall color, contrast adjustments, and color balance adjustments, as well as various corrections such as backlight correction and red-eye correction that assume the recording of photographs. By centrally processing these corrections in the image correction unit 403, it is possible to realize processing that does not depend on the recording device.

解像度変換部404は、画像情報を記録装置に対応する解像度に変換する。入力される画像情報と、記録装置の解像度と、に応じて導き出された変倍量に基づいて、拡大または縮小の処理を施す。変倍処理としては、ニアレストネイバー、バイリニア、バイキュービック法などが存在し、処理の特性、および処理速度を考慮して適宜選択すればよい。 The resolution conversion unit 404 converts the image information into a resolution corresponding to the recording device. Enlargement or reduction processing is performed based on the input image information, the resolution of the recording device, and the scaling amount derived according to the input image information. As the scaling process, there are near-rest neighbor, bilinear, bicubic method and the like, which may be appropriately selected in consideration of the processing characteristics and the processing speed.

色補正部405は、記録装置103による記録画像が好適な色となるように、画像情報に変換処理を施す。例えば、表示装置に表示された画像を記録する場合、表示装置と記録装置とにおける色再現範囲は必ずしも一致しない。ある色では記録装置の再現範囲の方が狭く、また、別の色では記録装置の再現範囲の方が広い場合がある。そのため、画像の劣化を最小限にして、適宜、色の圧縮および伸長を行う必要がある。 The color correction unit 405 performs conversion processing on the image information so that the image recorded by the recording device 103 has a suitable color. For example, when recording an image displayed on a display device, the color reproduction ranges of the display device and the recording device do not always match. The reproduction range of the recording device may be narrower for one color, and the reproduction range of the recording device may be wider for another color. Therefore, it is necessary to appropriately compress and expand the color while minimizing the deterioration of the image.

本実施形態では、それらの変換処理をRGB形式で実施する。つまり、記録装置103の再現性を考慮して、色補正部405に入力されたRGB値を記録装置用のRGB値(以下、「記録装置用RGB」ともいう)に変換する。この変換は、マトリクスなどの演算によって行うことも可能である。一般的には、3次元の色補正テーブル411が利用される。入力されるRGB値を各色8ビット(256階調)とした場合、全ての組み合わせを保持することは記憶容量の観点から現実的でないため、色補正テーブル411として、所定の間隔で間引かれたテーブルを用いる。 In this embodiment, those conversion processes are performed in RGB format. That is, in consideration of the reproducibility of the recording device 103, the RGB value input to the color correction unit 405 is converted into the RGB value for the recording device (hereinafter, also referred to as “RGB for recording device”). This conversion can also be performed by an operation such as a matrix. Generally, a three-dimensional color correction table 411 is used. When the input RGB value is 8 bits (256 gradations) for each color, it is not realistic to hold all combinations from the viewpoint of storage capacity, so the color correction table 411 is thinned out at predetermined intervals. Use a table.

ここで図6は、色補正テーブル411を示した図であり、図7は、四面体補間のイメージ図である。本実施形態の色補正テーブル411は、各色256階調を17点のグリッド点とし、それに対応する記録装置用RGB値を記載したテーブルである(17*17*17=4913グリッド点)。グリッド点間の値は、補間処理を利用して算出する。補間方法は、幾つかの方法の中から選択して利用することができ、本実施形態においては四面体補間法を利用した。四面体補間法とは、3次元空間の分割単位を四面体として、4つの格子点を用いる線形補間である。この四面体補間法においては、まず、図7(a)のように3次元空間を四面体に分割してから、ターゲットとなる点pが、分割された四面体のうちのいずれに属するかを決定する。その四面体の4頂点をそれぞれp0、p1、p2、p3とし、図7(b)のように、その四面体をさらに細かい小四面体に分割する。各点の変換値をそれぞれf(p0)、f(p1)、f(p2)、f(p3)とした場合、下式2により補間値f(p)を求めることができる。 Here, FIG. 6 is a diagram showing a color correction table 411, and FIG. 7 is an image diagram of tetrahedral interpolation. The color correction table 411 of the present embodiment is a table in which 256 gradations of each color are set as 17 grid points, and the corresponding RGB values for the recording device are described (17 * 17 * 17 = 4913 grid points). The value between the grid points is calculated by using the interpolation process. The interpolation method can be selected from several methods and used, and in the present embodiment, the tetrahedral interpolation method is used. The tetrahedron interpolation method is a linear interpolation method in which four grid points are used with the division unit of the three-dimensional space as a tetrahedron. In this tetrahedral interpolation method, first, as shown in FIG. 7A, the three-dimensional space is divided into tetrahedra, and then which of the divided tetrahedra the target point p belongs to is determined. decide. The four vertices of the tetrahedron are set to p0, p1, p2, and p3, respectively, and the tetrahedron is divided into finer small tetrahedrons as shown in FIG. 7 (b). When the conversion values of each point are f (p0), f (p1), f (p2), and f (p3), respectively, the interpolation value f (p) can be obtained by the following equation 2.

Figure 2021106332
Figure 2021106332

ここで、w0、w1、w2、w3は、各頂点piと反対向位置における小四面体の体積比である。このように、対象となるRGB値に対応した記録装置用RGB値を算出する。その場合、階調性を考慮して、出力を8ビット以上としてもよい。また、色補正テーブルは、記録装置の色再現範囲にも依存するため、例えば、記録に使用する記録用紙(記録媒体)が異なる場合は、それに応じたテーブルを準備することが望ましい。 Here, w0, w1, w2, and w3 are the volume ratios of the small tetrahedrons at the positions opposite to each vertex pi. In this way, the RGB value for the recording device corresponding to the target RGB value is calculated. In that case, the output may be 8 bits or more in consideration of gradation. Further, since the color correction table also depends on the color reproduction range of the recording device, for example, when the recording paper (recording medium) used for recording is different, it is desirable to prepare a table corresponding to the difference.

図4のブロック図に戻り、インク色変換部406は、色補正部405によって変換された記録装置用RGB値をインク色の値に変換する。この変換には、記録装置用RGB値の組み合わせと、インク色の値と、が予め対応付けられた色分解テーブル412を用いる。色補正部405と同様に、インク色変換部406においてもグリッド点17のテーブルを利用する。 Returning to the block diagram of FIG. 4, the ink color conversion unit 406 converts the RGB value for the recording device converted by the color correction unit 405 into the ink color value. For this conversion, a color separation table 412 in which a combination of RGB values for a recording device and an ink color value are associated in advance is used. Similar to the color correction unit 405, the ink color conversion unit 406 also uses the table of grid points 17.

ここで図8は、色分解テーブル412の一例を示した図である。本実施形態の色分解テーブル412では、インク色として、シアン(C)、マゼンタ(M)、イエロー(Y)、ブラック(K)の4色を想定し、各グリッド点に対応した4色の値が収められている。これらの値は、記録用紙の記録面上においてインクが溢れないこと、インク同士が隣接した際に滲まないこと、などを考慮して決定される。そのため、記録に使用する記録用紙が異なる場合は、それに応じた色分解テーブル412を準備することが望ましい。また、上述の色補正部405と同様に、記録装置用RGB値に対応するインク色の値は、四面体補間処理によって補間することができる。 Here, FIG. 8 is a diagram showing an example of the color separation table 412. In the color separation table 412 of the present embodiment, four colors of cyan (C), magenta (M), yellow (Y), and black (K) are assumed as ink colors, and four color values corresponding to each grid point are assumed. Is stored. These values are determined in consideration of the fact that the ink does not overflow on the recording surface of the recording paper and that the inks do not bleed when they are adjacent to each other. Therefore, if the recording paper used for recording is different, it is desirable to prepare a color separation table 412 accordingly. Further, similarly to the color correction unit 405 described above, the ink color value corresponding to the RGB value for the recording device can be interpolated by the tetrahedral interpolation processing.

図4のブロック図に戻り、濃度補正部407は、画像の記録濃度を補正する。一般的にインクジェット記録装置では、記録用紙上にドットを形成するために付与されるインクの量が多くなるにしたがって、ドットの重なりが増加し、画像の記録濃度が上昇しにくくなる。濃度補正部407は、このような濃度の応答性を均一にするために濃度を補正する。 Returning to the block diagram of FIG. 4, the density correction unit 407 corrects the recording density of the image. Generally, in an inkjet recording apparatus, as the amount of ink applied to form dots on recording paper increases, the overlap of dots increases and the recording density of an image becomes less likely to increase. The density correction unit 407 corrects the density in order to make the responsiveness of such a density uniform.

濃度補正により、色補正テーブル411および色分解テーブル412の作成を高精度に行うことができる。C(シアン)、M(マゼンタ)、Y(イエロー)、K(ブラック)のインクを用いる記録装置においては、それらのインク色について濃度補正を行う。本実施形態おいては、1次元の濃度補正テーブル413を用いる。そのテーブルとしては、インク色毎の入力8ビット(256階調)に対応したテーブルを用意しておけばよく、特に間引くことなく、入力信号値と補正後の出力信号値とを対応付けたテーブルを用いることができる。 By the density correction, the color correction table 411 and the color separation table 412 can be created with high accuracy. In a recording device that uses C (cyan), M (magenta), Y (yellow), and K (black) inks, density correction is performed for those ink colors. In this embodiment, a one-dimensional density correction table 413 is used. As the table, it is sufficient to prepare a table corresponding to input 8 bits (256 gradations) for each ink color, and a table in which the input signal value and the corrected output signal value are associated with each other without any particular thinning. Can be used.

階調変換部408は、インク色毎に変換されて濃度補正が施された多ビットデータを、記録装置において記録可能な階調数に変換する。本実施形態においては、記録「1」/非記録「0」の2階調(1ビット)に変換し、階調の変換方法としては、画像の低周波成分を排除して、視覚に好適な階調の再現が可能な誤差拡散法を用いる。また、入力信号として、0〜255の8ビットのデータを想定する。 The gradation conversion unit 408 converts the multi-bit data that has been converted for each ink color and subjected to density correction into the number of gradations that can be recorded by the recording device. In the present embodiment, it is converted into two gradations (1 bit) of recording "1" / non-recording "0", and as a gradation conversion method, low frequency components of an image are excluded, which is suitable for vision. An error diffusion method that can reproduce gradation is used. Further, it is assumed that 8-bit data of 0 to 255 is used as the input signal.

ここで図9は、誤差拡散法における誤差分配方法を説明する図である。ターゲットピクセルの信号値を信号値Lとし、しきい値THとして、信号値Lとしきい値THとを比較する。本実施形態においては、0〜255を2値化するためにしきい値THを127とし、下記のように、そのターゲットピクセルが「1」(記録)または「0」(非記録)のいずれであるかを判定する。
L>TH ・・・・・・ 1(記録)
L≦TH ・・・・・・ 0(非記録)
Here, FIG. 9 is a diagram illustrating an error distribution method in the error diffusion method. The signal value of the target pixel is set to the signal value L, and the threshold value TH is used to compare the signal value L and the threshold value TH. In the present embodiment, the threshold value TH is set to 127 in order to binarize 0 to 255, and the target pixel is either “1” (recorded) or “0” (non-recorded) as shown below. Is determined.
L> TH ・ ・ ・ ・ ・ ・ 1 (Record)
L ≦ TH ・ ・ ・ ・ ・ ・ 0 (not recorded)

この判定結果に応じて、量子化代表値Vを下記のように設定する。
1(記録) ・・・・・・ 255
0(非記録) ・・・・・・ 0
The quantization representative value V is set as follows according to the determination result.
1 (Record) ・ ・ ・ ・ ・ ・ 255
0 (non-recorded) ・ ・ ・ ・ ・ ・ 0

このように量子化代表値Vを設定することにより、発生する誤差E(=L−V)は、図9の分配係数にしたがって周囲のピクセルに分配される。 By setting the quantization representative value V in this way, the generated error E (= LV) is distributed to the surrounding pixels according to the partition coefficient of FIG.

次のターゲットピクセルの信号値Lに、分配された誤差Eaを加算した値Laと、しきい値THと、を比較し、下記のように、そのターゲットピクセルが「1」(記録)または「0」(非記録)のいずれであるかを判定する。
La>TH ・・・・・・ 1(記録)
La≦TH ・・・・・・ 0(非記録)
The value La obtained by adding the distributed error Ea to the signal value L of the next target pixel is compared with the threshold value TH, and the target pixel is "1" (recorded) or "0" as shown below. "(Non-recording) is determined.
La> TH ・ ・ ・ ・ ・ ・ 1 (Record)
La ≤ TH ・ ・ ・ ・ ・ ・ 0 (not recorded)

このような処理を全てのピクセル、および全てのインク色C、M、Y、Kに対して実行することにより、記録可能な1ビットのインク色毎の記録データが得られる。 By executing such processing for all pixels and all ink colors C, M, Y, and K, recordable 1-bit ink color recording data can be obtained.

図4のブロック図に戻り、付加情報409は、図1(a)の多重化装置102もしくは図1(b)多重化部105において、画像情報Aに埋め込まれる付加情報Bであり、テキスト文書情報などである。テキスト文書情報は、例えば、既に公知である文字コードを利用して、数字および文字を数値に割り当てた数値情報であり、この数値情報が付加情報409として多重化部410に送信される。 Returning to the block diagram of FIG. 4, the additional information 409 is additional information B embedded in the image information A in the multiplexing device 102 of FIG. 1A or the multiplexing unit 105 of FIG. 1B, and is text document information. And so on. The text document information is, for example, numerical information in which numbers and characters are assigned to numerical values by using a character code that is already known, and this numerical information is transmitted to the multiplexing unit 410 as additional information 409.

具体例として、「hello」という文字に対応するテキスト文書情報について説明する。テキスト文書情報は、数値情報いわゆるバイナリデータとする。バイナリデータとは「0」もしくは「1」の情報であり、この「0」もしくは「1」の情報の連続的なつながりが特定の意味を持つ。バイナリデータと文字との対応は、「文字コード」によって定義されている。文字コードの中の1つである「シフトJIS」の場合、「h」はバイナリデータの「01101000」に対応する。 As a specific example, the text document information corresponding to the character "hello" will be described. The text document information is numerical information, so-called binary data. Binary data is information of "0" or "1", and the continuous connection of the information of "0" or "1" has a specific meaning. The correspondence between binary data and characters is defined by the "character code". In the case of "Shift JIS" which is one of the character codes, "h" corresponds to "01101000" of binary data.

同様に、「e」は「01100101」、「l」は「01101100」、「o」は「01101111」のバイナリデータに対応する。したがって、「hello」という文字はバイナリデータでは、「0110100001100101011011000110110001101111」と表現できる。逆に、「0110100001100101011011000110110001101111」というバイナリデータを取得できれば、「hello」という文字を取得することができる。付加情報409は、このようなバイナリデータに変換された数値情報に対応する。 Similarly, "e" corresponds to "01100101", "l" corresponds to "01101100", and "o" corresponds to the binary data of "01101111". Therefore, the character "hello" can be expressed as "0110100001100101011011000110110001101111" in the binary data. On the contrary, if the binary data "0110100001100101011011000110110001101111" can be acquired, the character "hello" can be acquired. The additional information 409 corresponds to the numerical information converted into such binary data.

付加情報多重化部410は、解像度変換部404において変換された画像情報と、付加情報409と、を受け取り、画像情報に付加情報409を埋め込む。この埋め込み処理(多重化処理)においては、付加情報409(「0」、「1」のバイナリデータに変換されたテキスト文書など)が埋め込まれた画像情報の記録画像から、その付加情報409が読み取れるように、付加情報409を画像情報に埋め込む。例えば、付加情報409の「0」,「1」のバイナリデータが読み取れるように、画像情報にマスク処理を施して、バイナリデータに対応する「0」,「1」の情報を埋め込む。 The additional information multiplexing unit 410 receives the image information converted by the resolution conversion unit 404 and the additional information 409, and embeds the additional information 409 in the image information. In this embedding process (multiplexing process), the additional information 409 can be read from the recorded image of the image information in which the additional information 409 (text document converted into binary data of "0" and "1", etc.) is embedded. As described above, the additional information 409 is embedded in the image information. For example, the image information is masked so that the binary data of "0" and "1" of the additional information 409 can be read, and the information of "0" and "1" corresponding to the binary data is embedded.

ここで図10(a),(b)は、「0」、「1」のバイナリデータに対応するマスクデータを示した図である。画像データにマスク処理を施すことにより、所定領域の画像情報に、「0」,「1」のバイナリデータに対応する異なる周期性を持たせる。これらのマスクデータを使用する付加情報多重化部410における処理の詳細については後述する。 Here, FIGS. 10A and 10B are diagrams showing mask data corresponding to the binary data of "0" and "1". By applying mask processing to the image data, the image information in a predetermined area is given different periodicity corresponding to the binary data of "0" and "1". The details of the processing in the additional information multiplexing unit 410 using these mask data will be described later.

図11は、多重化エンコード処理を示すフローチャートである。以下、このフローチャートを用いて多重化エンコード処理を説明する。図11の処理は、例えば、CPU202がROM203に記憶されたプログラムをRAM204に読み出して実行することにより実現される。多重化エンコード処理が開始されると、CPU202はS11で、付属情報取得部401および画像情報復元部402によって、記録用の画像情報Aを取得する。例えば、画像情報Aは、モバイル端末301により予め撮影して、JPEGフォーマットでモバイル端末内のメモリに保存されたデータである。取得したJPEGの画像情報Aを解凍し、静止画の3色8ビットのRGBの画像情報を生成する。また、必要に応じて、画像補正部403によって、取得した画像情報Aに補正もしくは加工処理を施す。 FIG. 11 is a flowchart showing the multiplexing encoding process. Hereinafter, the multiplexing encoding process will be described using this flowchart. The process of FIG. 11 is realized, for example, by the CPU 202 reading the program stored in the ROM 203 into the RAM 204 and executing the program. When the multiplexing encoding process is started, the CPU 202 acquires the image information A for recording by the attached information acquisition unit 401 and the image information restoration unit 402 in S11. For example, the image information A is data that has been previously photographed by the mobile terminal 301 and stored in a memory in the mobile terminal in a JPEG format. The acquired JPEG image information A is decompressed to generate 3-color 8-bit RGB image information of a still image. Further, if necessary, the image correction unit 403 corrects or processes the acquired image information A.

その後、CPU202はS12で、画像情報Aに埋め込む付加情報409を取得する。例えば、スマートフォンでキー入力されたテキスト文書情報を取得する。テキスト文書情報は、例えば、公知の文字コードシフトJISを利用して、数字および文字を数値に割り当てた数値情報とする。その数値情報は、付加情報409として多重化部410に送信される。そして、CPU202はS13で、任意に選択された記録媒体のサイズおよび記録装置103の解像度に基づいて、取得した画像情報Aに対して解像度変換処理を施す。例えば、選択された記録媒体のサイズを2Lとした場合、記録装置103における入力解像度の画素数に合わせて、画像情報Aの解像度を変換する。 After that, the CPU 202 acquires additional information 409 to be embedded in the image information A in S12. For example, the text document information keyed on the smartphone is acquired. The text document information is, for example, numerical information in which numbers and characters are assigned to numbers by using a known character code shift JIS. The numerical information is transmitted to the multiplexing unit 410 as additional information 409. Then, in S13, the CPU 202 performs a resolution conversion process on the acquired image information A based on the size of the recording medium arbitrarily selected and the resolution of the recording device 103. For example, when the size of the selected recording medium is 2 L, the resolution of the image information A is converted according to the number of pixels of the input resolution in the recording device 103.

具体的には、記録装置103における入力解像度を600dpi(dot per inch)とした場合、記録媒体のサイズ2Lの画素数を3000画素×4000画素に設定する。この場合、画素数が1500画素×2000画素の画像情報Aに対しては、縦方向および横方向の画素数がそれぞれ2倍となるように解像度変換を行う。入力画像のアスペクト比を変更させたくない場合に、縦方向および横方向の拡大および縮小率を同じにして解像度変換を行う。その後、CPU202はS14で、付加情報の多重化部410によって、画像情報Aに付加情報409を埋め込むための付加情報多重化処理を行って処理を終了する。 Specifically, when the input resolution of the recording device 103 is 600 dpi (dot per inch), the number of pixels of the recording medium size 2L is set to 3000 pixels × 4000 pixels. In this case, for the image information A having the number of pixels of 1500 pixels × 2000 pixels, the resolution is converted so that the number of pixels in the vertical direction and the number of pixels in the horizontal direction are doubled. If you do not want to change the aspect ratio of the input image, perform resolution conversion with the same enlargement and reduction ratios in the vertical and horizontal directions. After that, in S14, the CPU 202 performs the additional information multiplexing process for embedding the additional information 409 in the image information A by the additional information multiplexing unit 410, and ends the process.

図12は、本実施形態における多重化部410のファームウェア構成を示したブロック図である。以下、多重化部410における各処理部について説明する。 FIG. 12 is a block diagram showing a firmware configuration of the multiplexing unit 410 in the present embodiment. Hereinafter, each processing unit in the multiplexing unit 410 will be described.

色空間変換部1201は、解像度変換部404においてサイズが変更された画像情報の色空間を、情報多重化のための色空間に変換する処理部である。例えば、下式3のように、情報多重化を行う色空間を色空間YUVのUとし、画像情報のRGBの色空間をYUVの色空間に変換する。
式3:
Y = 0.299×R + 0.587×G + 0.114×B
U =−0.169×R − 0.331×G + 0.500×B
V = 0.500×R − 0.419×G − 0.081×B
The color space conversion unit 1201 is a processing unit that converts the color space of the image information whose size has been changed in the resolution conversion unit 404 into a color space for information multiplexing. For example, as shown in Equation 3 below, the color space for performing information multiplexing is the U of the color space YUV, and the RGB color space of the image information is converted into the YUV color space.
Equation 3:
Y = 0.299 x R + 0.587 x G + 0.114 x B
U = -0.169 x R-0.331 x G + 0.500 x B
V = 0.500 × R − 0.419 × G − 0.081 × B

ブロック位置設定部1202では、後述するブロックの位置座標を設定する。本実施形態では、画像情報を複数のブロック領域に分け、ブロック単位で各画素の濃度を変調させて、図10(a),(b)のマスクデータに対応するパターンを形成させることにより、付加情報409を埋め込む。そのため、ブロック位置設定部1202では、色空間変換後の画像情報を取得し、指定された色のプレーン画像に対して、指定された1つのブロックのサイズに合わせて、ブロックの位置座標を設定する。例えば、色空間YUVのU色のプレーン画像のサイズを縦幅640px、横幅480pxとし、ブロックサイズを縦幅8px、横幅8pxとする。この場合、縦ブロック数は80(=640÷8)、横ブロック数は60(=480÷8)、合計のブロック数は4800(=80×60)となる。例えば、各ブロックの左上座標をブロック位置と定めて設定することができる。 The block position setting unit 1202 sets the position coordinates of the block, which will be described later. In the present embodiment, the image information is divided into a plurality of block regions, and the density of each pixel is modulated in each block to form a pattern corresponding to the mask data of FIGS. 10A and 10B. Embed information 409. Therefore, the block position setting unit 1202 acquires the image information after the color space conversion, and sets the position coordinates of the block with respect to the plain image of the specified color according to the size of one specified block. .. For example, the size of a U-color plain image in the color space YUV is 640 px in height and 480 px in width, and the block size is 8 px in height and 8 px in width. In this case, the number of vertical blocks is 80 (= 640/8), the number of horizontal blocks is 60 (= 480/8), and the total number of blocks is 4800 (= 80 × 60). For example, the upper left coordinate of each block can be set as the block position.

数値化部1203は、受信した付加情報409を数値化したデータに変換する。例えば、付加情報409をシフトJISの文字列とする。この場合には、シフトJISの形式によって文字と数値とが対応付けられた変換マップを予め保持しておき、その変換マップを用いて文字列を数値列に変換する。例えば、文字列「hello」の場合、変換後の数値列「0110100001100101011011000110110001101111」となる。 The digitizing unit 1203 converts the received additional information 409 into digitized data. For example, the additional information 409 is used as a character string of Shift JIS. In this case, a conversion map in which characters and numerical values are associated with each other is stored in advance according to the Shift JIS format, and the character string is converted into a numerical string using the conversion map. For example, in the case of the character string "hello", the converted numerical string "0110100001100101011011000110110001101111" is obtained.

パターン選択部1204には、ブロック単位で各画素の濃度変調を行うためのマスクパターンが登録されており、数値化部1203によって数値化された付加情報409に対して適用すべきマスクパターンを選択する。 A mask pattern for performing density modulation of each pixel is registered in the pattern selection unit 1204, and a mask pattern to be applied to the additional information 409 digitized by the digitization unit 1203 is selected. ..

ここで図13(a),(b)は、周波数特性が異なる図10(a),(b)のマスクパターンを数値化した図である。前述したように、図10(a)および図13(a)のマスクパターンは、付加情報409のバイナリデータの「0」に対応し、図10(b)および図13(b)のパターンは、付加情報409のバイナリデータの「1」に対応する。図10(a),(b)の黒の領域901が図13(a),(b)の「2」に対応する。同様に白の領域902が「0」に対応し、斜線の領域903が「−1」に対応する。 Here, FIGS. 13 (a) and 13 (b) are diagrams in which the mask patterns of FIGS. 10 (a) and 10 (b) having different frequency characteristics are quantified. As described above, the mask patterns of FIGS. 10 (a) and 13 (a) correspond to "0" of the binary data of the additional information 409, and the patterns of FIGS. 10 (b) and 13 (b) are Corresponds to "1" of the binary data of the additional information 409. The black region 901 in FIGS. 10 (a) and 10 (b) corresponds to "2" in FIGS. 13 (a) and 13 (b). Similarly, the white area 902 corresponds to "0" and the shaded area 903 corresponds to "-1".

情報多重化部1205は、色空間変換部1201において色空間変換した画像情報と、ブロック位置設定部1202において設定された各ブロックの位置と、パターン選択部1204において選択されたマスクパターンとを取得する。情報多重化部1205は、これらの取得情報から、画像情報にマスクパターンを適用した画像情報を生成する。 The information multiplexing unit 1205 acquires the image information that has been color-space-converted by the color space conversion unit 1201, the position of each block set by the block position setting unit 1202, and the mask pattern selected by the pattern selection unit 1204. .. The information multiplexing unit 1205 generates image information by applying a mask pattern to the image information from these acquired information.

印刷物Cの記録画像を撮影する際に、必ずしも画像全体を撮影できるとは限らない。そのため、印刷物Cの記録画像の一部を撮影だけでも付加情報が抽出できるように、同じ付加情報を記録画像中の複数個所に埋め込む。例えば、80ブロックを1つの付加情報とした場合、全ブロック数4800に対して、同じ付加情報を60(=4800÷80)領域に分けて埋め込む。したがって画像情報は60の領域に分けられ、それらのうちの1つの領域に対して、縦幅8px、横幅8pxを1ブロックとした80ブロックの付加情報が埋め込まれる。80ブロックを1つの付加情報として取り扱うことにより、80ビットの付加情報が設定できる。但し、80ビットの開始位置が分かるように、シフトJISにおいては文字として表現されていない「11111111」の8ビットを付加情報の先頭に含ませる。したがって、72(=80−8)ビットのデータが付加情報となる。 When the recorded image of the printed matter C is taken, it is not always possible to take the entire image. Therefore, the same additional information is embedded in a plurality of places in the recorded image so that the additional information can be extracted only by photographing a part of the recorded image of the printed matter C. For example, when 80 blocks are regarded as one additional information, the same additional information is divided into 60 (= 4800 ÷ 80) areas and embedded for the total number of blocks of 4800. Therefore, the image information is divided into 60 regions, and 80 blocks of additional information having a vertical width of 8 px and a horizontal width of 8 px as one block are embedded in one of the regions. By treating 80 blocks as one additional information, 80-bit additional information can be set. However, 8 bits of "11111111", which are not expressed as characters in Shift JIS, are included at the beginning of the additional information so that the start position of 80 bits can be known. Therefore, 72 (= 80-8) bit data becomes additional information.

80ビット内に収まるデータは、数値化部1203において数値化された付加情報の「0」,「1」の数値列であり、8px×8pxの1ブロック毎に数値が定義され、その数値に対応するマスクパターンが選択される。画像情報における8px×8pxのブロックに、付加情報に対応するマスクパターンが埋め込まれる。例えば、画像データをYUVのU色プレーンとし、それを1ブロック毎に処理し、そのYUVのU色プレーンの値に図12(a),(b)のマスクパターンの値を適用する。例えば、下記のように、それらのマスクパターンの数値に応じてYUVのU色プレーンの値(U値)を加減算処理し、その加減算処理を行う基準値を10とする。
式4:
適用後のU値 = YUVのU値 + 基準値 × マスクパターンの数値
The data that fits in 80 bits is a numerical string of "0" and "1" of the additional information digitized by the digitizing unit 1203, and the numerical value is defined for each block of 8px × 8px and corresponds to the numerical value. The mask pattern to be selected is selected. A mask pattern corresponding to the additional information is embedded in a block of 8px × 8px in the image information. For example, the image data is a YUV U-color plane, which is processed block by block, and the mask pattern values of FIGS. 12 (a) and 12 (b) are applied to the values of the YUV U-color plane. For example, as shown below, the value (U value) of the U color plane of YUV is subjected to addition / subtraction processing according to the numerical values of those mask patterns, and the reference value for performing the addition / subtraction processing is set to 10.
Equation 4:
U value after application = YUV U value + reference value x mask pattern value

例えば、1ブロック内の1画素のU値が「20」であり、適用するマスクパターンの数値が「0」である場合には、下式5のようにU値が処理される。
式5:
適用後のU値 = 20 + 10 × 0 = 20
For example, when the U value of one pixel in one block is "20" and the numerical value of the mask pattern to be applied is "0", the U value is processed as in the following equation 5.
Equation 5:
U value after application = 20 + 10 x 0 = 20

また、1ブロック内の1画素のU値が「30」であり、適用するマスクパターンの数値が「2」の場合には、下式6のようにU値が処理される。
式6:
適用後のU値 = 30 + 10 × 2 = 50
Further, when the U value of one pixel in one block is "30" and the numerical value of the mask pattern to be applied is "2", the U value is processed as in the following equation 6.
Equation 6:
U value after application = 30 + 10 x 2 = 50

このように本実施形態においては、画素毎に適用するマスクパターンの数値と、基準値と、を掛け合わせた値を加算することによって、多重化を実現する。マスクパターンの適用方法は、U色プレーン上に、マスクパターンを埋め込むことができればよく、本実施形態の方法に限定されず、例えば、YUVのU値に、マスクパターンの数値を掛け合わせてもよい。 As described above, in the present embodiment, multiplexing is realized by adding the value obtained by multiplying the numerical value of the mask pattern applied for each pixel and the reference value. The method of applying the mask pattern is not limited to the method of the present embodiment as long as the mask pattern can be embedded on the U color plane. For example, the U value of YUV may be multiplied by the numerical value of the mask pattern. ..

このような多重化エンコード処理は、図1(a)の付加情報多重化装置102または図1(b)の付加情報多重化部105によって実行される。多重化エンコード処理は、記録装置103によって処理されてもよく、記録装置103によって処理されなくてもよい。多重化装置102もしくは多重化部105において生成された多重化エンコード処理後の画像情報は、記録装置103もしくは記録部106に送信される。 Such multiplexing encoding processing is executed by the additional information multiplexing device 102 of FIG. 1A or the additional information multiplexing unit 105 of FIG. 1B. The multiplexing encoding process may or may not be processed by the recording device 103. The image information after the multiplexing encoding process generated by the multiplexing device 102 or the multiplexing unit 105 is transmitted to the recording device 103 or the recording unit 106.

図14は、多重化エンコード処理後の画像情報の記録処理を示したフローチャートである。図14の処理は、例えば、記録装置が備えるCPUがROMに記憶されたプログラムをRAMに読み出して実行することにより実現される。以下、このフローチャートを用いて多重化エンコード処理後の画像情報の記録処理を説明する。 FIG. 14 is a flowchart showing a recording process of image information after the multiplexing encoding process. The process of FIG. 14 is realized, for example, by the CPU included in the recording device reading the program stored in the ROM into the RAM and executing the program. Hereinafter, the image information recording process after the multiplex encoding process will be described using this flowchart.

多重化エンコード処理後の画像情報の記録処理が開始されると、CPUはS31で、付加情報多重化部410において付加情報409が埋め込まれた画像情報(多重化画像データ)を取得する。次にCPUはS32で、色補正部405によって、多重化画像データに適宜、色補正を施す。次にCPUはS33で、インク色変換部406、濃度補正部407、階調変換部408において、色補正後の画像情報をインク色の値に変換してから濃度を補正し、その濃度補正後の画像情報を階調数に変換することにより記録データを生成する。生成された記録データは、記録エンジンに送信される。そして、CPUはS34で記録エンジンを制御することで、記録データに基づいて各色のインクを記録媒体に付与することにより印刷物Cを生成する。 When the recording process of the image information after the multiplexing encoding process is started, the CPU acquires the image information (multiplexed image data) in which the additional information 409 is embedded in the additional information multiplexing unit 410 in S31. Next, in S32, the CPU performs color correction to the multiplexed image data as appropriate by the color correction unit 405. Next, in S33, the CPU uses the ink color conversion unit 406, the density correction unit 407, and the gradation conversion unit 408 to convert the color-corrected image information into ink color values, correct the density, and then correct the density. Recorded data is generated by converting the image information of the above into the number of gradations. The generated recording data is transmitted to the recording engine. Then, the CPU controls the recording engine in S34 to apply ink of each color to the recording medium based on the recorded data to generate the printed matter C.

以下、多重化デコード処理部と多重化デコード処理について説明する。
図15(a)は、本実施形態における多重化デコード処理の基本ファームウェアのブロック構成を示す図であり、図15(b)は、多重化エンコード処理された印刷物をカメラ付きのモバイル端末301で撮影するイメージを示した図である。多重化デコード処理によって印刷物に埋め込まれている付加情報を抽出する。以下、多重化デコード処理部の詳細について説明する。
Hereinafter, the multiplex decoding processing unit and the multiplex decoding processing will be described.
FIG. 15 (a) is a diagram showing a block configuration of the basic firmware of the multiplex decoding process in the present embodiment, and FIG. 15 (b) is a photograph of a printed matter subjected to the multiplex encoding process by a mobile terminal 301 equipped with a camera. It is a figure which showed the image to do. The additional information embedded in the printed matter is extracted by the multiplexing decoding process. Hereinafter, the details of the multiplexing decoding processing unit will be described.

撮像センサ302は、撮像部1501と色調整部1502とを含む。付加情報分離装置303は、多重化位置検出部1503、付加情報分離部1504、抽出データ解析部1505を含む。本実施形態では、テキスト文書データや音声データや動画データなどの数値化された付加情報のデータが、印刷物1411上にパターン形状として付加されているものとする。例えば、付加情報は、印刷物C全体に、同じ情報を領域毎に繰り返し付加されている。撮像部1501は、多重化エンコード処理された印刷物Cを、撮像センサ302内の撮像素子で、撮像画像データに変換する。 The image pickup sensor 302 includes an image pickup unit 1501 and a color adjustment unit 1502. The additional information separation device 303 includes a multiplexing position detection unit 1503, an additional information separation unit 1504, and an extraction data analysis unit 1505. In the present embodiment, it is assumed that digitized additional information data such as text document data, audio data, and moving image data is added as a pattern shape on the printed matter 1411. For example, as the additional information, the same information is repeatedly added to the entire printed matter C for each area. The image pickup unit 1501 converts the multiplexed and encoded printed matter C into captured image data by the image pickup element in the image pickup sensor 302.

撮像センサ302が備える撮像素子であるCCDについては、既に公知の技術なので、詳細な説明は省略する。概略を説明すると、CCDは、光をフォトダイオードという受光素子が感知して、光を電圧に変化させることが可能である。その際に、素子毎に配置したRGBやCMYなどのカラーフィルタを通すことにより、光を色のデータとして変換させることができる。撮像部1501で撮影されたセンサ値は、色調整部1502に送られる。 Since the CCD, which is an image pickup element included in the image pickup sensor 302, is a known technique, detailed description thereof will be omitted. Briefly, in a CCD, a light receiving element called a photodiode senses light and can change the light into a voltage. At that time, light can be converted as color data by passing through a color filter such as RGB or CMY arranged for each element. The sensor value captured by the image pickup unit 1501 is sent to the color adjustment unit 1502.

色調整部1502は、撮像部1501においてフォトダイオードで取り出したセンサ値に対し、例えば、1画素YUV、8ビットデータとして、画像データに変換する。また、ホワイトバランスや明るさ調整など、通常撮影時に実行される色調整処理も併せて行う。 The color adjusting unit 1502 converts the sensor value taken out by the photodiode in the imaging unit 1501 into image data as, for example, 1 pixel YUV and 8-bit data. In addition, color adjustment processing such as white balance and brightness adjustment, which is normally performed during shooting, is also performed.

多重化位置検出部1503は、多重化した印刷物が撮影され色調整された画像データを取得する。多重化位置検出部1503は、取得した画像データに対して、周波数特性を取得する。多重化位置検出部1503は、取得した周波数特性を判定することで、多重化されている位置を検出する。 The multiplexing position detection unit 1503 acquires image data in which the multiplexed printed matter is photographed and color-adjusted. The multiplexing position detection unit 1503 acquires the frequency characteristics of the acquired image data. The multiplexing position detection unit 1503 detects the multiplexed position by determining the acquired frequency characteristic.

図16(a)は、二次元の周波数領域で周波数特性の差を示す概略図である。横軸は水平方向の周波数、縦軸は垂直方向の周波数を示している。中心となる原点は直流成分を示し、原点から遠ざかるにつれて、高周波域となる。本実施形態では、図13(a)、(b)のマスクパターンの切換えにより、多重化された印刷物のYUVのU成分の周波数特性が変わる。 FIG. 16A is a schematic diagram showing the difference in frequency characteristics in the two-dimensional frequency domain. The horizontal axis shows the frequency in the horizontal direction, and the vertical axis shows the frequency in the vertical direction. The central origin indicates a DC component, and as the distance from the origin increases, the frequency becomes high. In the present embodiment, the frequency characteristics of the U component of the YUV of the multiplexed printed matter are changed by switching the mask patterns of FIGS. 13A and 13B.

例えば、図13(a)によるU成分の特性の変化により、図16(a)の直線1601の周波数ベクトル上に大きなパワースペクトルが生じるとする。また、図13(b)によるU成分の特性の変化により、図16(a)の直線1602の周波数ベクトル上に大きなパワースペクトルが生じるとする。付加情報分離時には、この大きなパワースペクトルが発生する周波数ベクトルを検出することで多重化信号を判定することができる。 For example, it is assumed that a large power spectrum is generated on the frequency vector of the straight line 1601 of FIG. 16A due to the change in the characteristics of the U component according to FIG. 13A. Further, it is assumed that a large power spectrum is generated on the frequency vector of the straight line 1602 in FIG. 16A due to the change in the characteristics of the U component according to FIG. 13B. At the time of additional information separation, the multiplexed signal can be determined by detecting the frequency vector in which this large power spectrum is generated.

図13(a)、(b)は、特定の周波数ベクトルの方向性を有するHPF(ハイパスフィルタ)に相当する。図13(a)、(b)は、周波数ベクトル検出時の空間フィルタとしても用いられる。即ち、図13(a)の空間フィルタでは、直線1601上の周波数ベクトルを強調することが可能になり、また、図13(b)の空間フィルタでは、直線1602上の周波数ベクトルを強調することが可能になる。 13 (a) and 13 (b) correspond to an HPF (high-pass filter) having a specific frequency vector directionality. 13 (a) and 13 (b) are also used as a spatial filter at the time of frequency vector detection. That is, the spatial filter of FIG. 13A can emphasize the frequency vector on the straight line 1601, and the spatial filter of FIG. 13B can emphasize the frequency vector on the straight line 1602. It will be possible.

例えば、今、図13(a)のマスクパターンにより、図16(a)の直線1601の周波数ベクトル上に大きなパワースペクトルが発生したとする。その場合、図13(a)の空間フィルタではパワースペクトルの変化量が増幅するが、図13(b)の空間フィルタでは、ほとんど増幅されない。即ち、複数の空間フィルタを並列にフィルタリングすると、周波数ベクトルが一致した空間フィルタ時のみ増幅し、それ以外のフィルタでは増幅がほとんど生じない。従って、いかなる周波数ベクトル上に大きなパワースペクトルが発生しているかを容易に判定することができる。 For example, it is assumed that the mask pattern of FIG. 13A now generates a large power spectrum on the frequency vector of the straight line 1601 of FIG. 16A. In that case, the spatial filter of FIG. 13A amplifies the amount of change in the power spectrum, but the spatial filter of FIG. 13B hardly amplifies it. That is, when a plurality of spatial filters are filtered in parallel, amplification occurs only when the spatial filters have the same frequency vector, and amplification hardly occurs in other filters. Therefore, it is possible to easily determine on what frequency vector a large power spectrum is generated.

また、今回YUVのU成分において周波数特性を変化させて多重化された印刷物の付加情報分離時にU成分により周波数ベクトルを検出したが、U成分が失われてしまうと付加情報が分離できないことになる。U成分ではなく他のY成分やV成分に特性が移った場合、Y成分やV成分で周波数特性を判定すると付加情報を分離することができるが、U成分のみ解析するよりも時間がかかってしまう。 Further, this time, the frequency vector was detected by the U component at the time of separating the additional information of the printed matter by changing the frequency characteristic in the U component of YUV, but if the U component is lost, the additional information cannot be separated. .. If the characteristics are transferred to another Y component or V component instead of the U component, additional information can be separated by determining the frequency characteristics based on the Y component or V component, but it takes longer than analyzing only the U component. It ends up.

上記のように、周波数特性の判定を行うことで、データを抽出することが可能となる。しかしながら、周波数特性を判定する際に、抽出すべき位置がずれていると、正しく抽出しにくくなってしまう。 By determining the frequency characteristics as described above, it is possible to extract data. However, when determining the frequency characteristics, if the position to be extracted is deviated, it becomes difficult to extract correctly.

図17は、周波数特性を判定する際の検出位置を説明するための図である。画像1701は、印刷物の4つのブロックにおいて多重化されている画像を示す。領域1702、1703は、ブロック単位で周波数特性を判定する領域を示す。図17において、領域1702は、多重化されているブロックの位置とずれていることを示す。領域1703は、多重化されているブロックの位置と合っていることを示す。この場合、領域1703は、予め決めた周波数を正しく特定することが可能だが、領域1702は、特定の周波数ベクトルのパワースペクトルが下がってしまうので、予め決めた周波数の特定が困難になる。 FIG. 17 is a diagram for explaining a detection position when determining a frequency characteristic. Image 1701 shows an image multiplexed in four blocks of printed matter. Regions 1702 and 1703 indicate regions for determining frequency characteristics in block units. In FIG. 17, region 1702 is shown to be offset from the position of the multiplexed block. Region 1703 indicates that it coincides with the location of the multiplexed blocks. In this case, the region 1703 can correctly specify the predetermined frequency, but the region 1702 has a lower power spectrum of the specific frequency vector, which makes it difficult to specify the predetermined frequency.

多重化位置検出部1503は、特定の周波数ベクトルのパワースペクトルが強いか弱いかに基づいてブロック位置を検出する。そこで、多重化位置検出部1503は、取得した撮像後の画像データに対し、ブロック位置をずらしながら周波数特性の判定を行い、多重化されたブロックの位置を検出する。 The multiplexed position detection unit 1503 detects the block position based on whether the power spectrum of a specific frequency vector is strong or weak. Therefore, the multiplexing position detection unit 1503 determines the frequency characteristics of the acquired image data after imaging while shifting the block position, and detects the position of the multiplexed block.

付加情報分離部1504は、多重化位置検出部1503で検出した位置を基準とし、周波数特性を判定した結果を利用して、多重化されている付加情報を抽出する。 The additional information separation unit 1504 extracts the multiplexed additional information by using the result of determining the frequency characteristic with reference to the position detected by the multiplexing position detection unit 1503.

図16(b)は、記録媒体にブロック毎に多重化されている様子を示す図である。同図において、記録媒体1603は、印刷用紙を示し、ブロック1604は、多重化されるブロックを示す。多重化されているブロック数が横8ブロック、縦12ブロック、計96ブロックとする。図16(b)において、ブロック毎に、多重化エンコード処理で、付加情報の「0」と「1」が埋め込まれているものとする。 FIG. 16B is a diagram showing how the recording medium is multiplexed for each block. In the figure, the recording medium 1603 indicates printing paper, and the block 1604 indicates a block to be multiplexed. The number of multiplexed blocks is 8 blocks in the horizontal direction and 12 blocks in the vertical direction, for a total of 96 blocks. In FIG. 16B, it is assumed that additional information "0" and "1" are embedded in each block by the multiplexing encoding process.

例えば、図16(a)の、直線1601の周波数ベクトルのパワースペクトルがある閾値を超えていれば、データ「0」と判定される。また、直線1602上の周波数ベクトルのパワースペクトルがある閾値を超えていれば、データ「1」と判定される。多重化位置検出部1503で検出した位置を基準に、ブロック単位で、96ブロック分、位置をずらしながら、周波数特性の判定が行われる。この場合、1ブロック毎に、「0」「1」の1ビットを判定できるので、合計96ビットのデータを抽出することができる。このように、位置をずらしながら周波数特性の判定を行うことで、多重化されたデータを抽出することができる。 For example, if the power spectrum of the frequency vector of the straight line 1601 in FIG. 16A exceeds a certain threshold value, the data is determined to be “0”. Further, if the power spectrum of the frequency vector on the straight line 1602 exceeds a certain threshold value, it is determined as data "1". Based on the position detected by the multiplexing position detection unit 1503, the frequency characteristic is determined while shifting the position by 96 blocks in block units. In this case, since 1 bit of "0" and "1" can be determined for each block, a total of 96 bits of data can be extracted. By determining the frequency characteristics while shifting the positions in this way, the multiplexed data can be extracted.

抽出データ解析部1505は、付加情報分離部1504で付加情報として分離した数値列に対して、データを解析し、元々埋め込んだ付加情報の形式に変換する処理である。例えば、予め多重化する付加情報を、テキスト文書データとして、文字コードを「シフトJIS」で数値化した値であるとする。 The extracted data analysis unit 1505 is a process of analyzing data on a numerical string separated as additional information by the additional information separation unit 1504 and converting it into the format of the originally embedded additional information. For example, it is assumed that the additional information to be multiplexed in advance is a text document data and the character code is a numerical value by "Shift JIS".

シフトJISの1バイトコード(半角文字)では、上位4ビットと下位4ビットの組み合わせで、数値及び文字に対応した変換を行える。例えば、上位4ビットが「0100」で、下位4ビットが「0001」の場合、文字列として、「A」と判定される。このように、変換マップを予め保持しておき、数値列を対応させることで、文字へと変換することができる。 In Shift JIS 1-byte code (half-width characters), conversion corresponding to numerical values and characters can be performed by combining the upper 4 bits and the lower 4 bits. For example, when the upper 4 bits are "0100" and the lower 4 bits are "0001", it is determined as "A" as a character string. In this way, the conversion map can be stored in advance and converted into characters by associating the numerical strings with each other.

付加情報として分離した数値列は、図3のRAM306に、一時的に保持しておき、2次記憶装置307に予め保持していた「シフトJIS」変換マップを参照可能なようにしておく。 The numerical sequence separated as additional information is temporarily stored in the RAM 306 of FIG. 3, so that the "Shift JIS" conversion map previously stored in the secondary storage device 307 can be referred to.

例えば、付加情報分離部1504で分離した付加情報の数値列が、「0110100001100101011011000110110001101111」とする。この場合、変換マップに対応させると以下のようになる。上位4ビット「0110」、下位4ビット「1000」で、文字「h」となる。上位4ビット「0110」、下位4ビット「0101」で、文字「e」となる。上位4ビット「0110」、下位4ビット「1100」で、文字「l」となる。上位4ビット「0110」、下位4ビット「1100」で、文字「l」となる。上位4ビット「0110」、下位4ビット「1111」で、文字「o」となる。従って、文字列として、「hello」が抽出される。 For example, the numerical string of the additional information separated by the additional information separation unit 1504 is set to "0110100001100101011011000110110001101111". In this case, it becomes as follows when it corresponds to the conversion map. The upper 4 bits "0110" and the lower 4 bits "1000" form the character "h". The upper 4 bits "0110" and the lower 4 bits "0101" form the character "e". The upper 4 bits "0110" and the lower 4 bits "1100" form the character "l". The upper 4 bits "0110" and the lower 4 bits "1100" form the character "l". The upper 4 bits "0110" and the lower 4 bits "1111" form the character "o". Therefore, "hello" is extracted as a character string.

付加情報を抽出すると、例えば抽出された文字列を図3のディスプレイ308で表示する。また、抽出された文字列がURL(Uniform Resource Locator)である場合、無線LAN310でネットワークに接続し、ブラウザを利用して、ディスプレイ308にURL先の画面を表示する。また、そのURLが動画サイトであった場合、ディスプレイ308で動画を表示し、スピーカー311で、音声を出力する。 When the additional information is extracted, for example, the extracted character string is displayed on the display 308 of FIG. When the extracted character string is a URL (Uniform Resource Locator), the user connects to the network with the wireless LAN 310 and uses a browser to display the screen of the URL destination on the display 308. If the URL is a video site, the video is displayed on the display 308 and the sound is output on the speaker 311.

図18は、本実施形態における多重化デコード処理を示すフローチャートである。図18の処理は、例えば、モバイル端末301のCPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。 FIG. 18 is a flowchart showing the multiplexing decoding process in the present embodiment. The process of FIG. 18 is realized, for example, by the CPU 304 of the mobile terminal 301 reading the program stored in the ROM 305 into the RAM 306 and executing the program.

S1801では、CPU304は、撮像センサ302により、多重化された印刷物Cの撮影を行う。撮像センサ302は、撮影された光が色データ値に変換されたセンサ値を、色調整部1502に送信する。S1801の処理は、図15(a)の撮像部1501の撮像センサによる撮影画像を取得する処理に対応する。 In S1801, the CPU 304 takes a picture of the multiplexed printed matter C by the image sensor 302. The image pickup sensor 302 transmits the sensor value obtained by converting the captured light into a color data value to the color adjustment unit 1502. The process of S1801 corresponds to the process of acquiring an image captured by the image pickup sensor of the image pickup unit 1501 of FIG. 15 (a).

S1802では、CPU304は、取得した撮影画像の色調整を行う。色調整部1502は、撮像部1501から色データ値を受信し、ホワイトバランス調整を行い、ホワイトバランス調整された色データを画像データとして生成する。色調整部1502は、生成した画像データを付加情報分離装置303へ送信する。もしくは、生成した画像データは、図3の2次記憶装置307に保存される。S1802の処理は、図15(a)の色調整部1502による、ホワイトバランスの色調整を行った画像を生成する処理に対応する。 In S1802, the CPU 304 adjusts the color of the acquired captured image. The color adjustment unit 1502 receives the color data value from the image pickup unit 1501, adjusts the white balance, and generates the color data for which the white balance has been adjusted as image data. The color adjustment unit 1502 transmits the generated image data to the additional information separation device 303. Alternatively, the generated image data is stored in the secondary storage device 307 of FIG. The process of S1802 corresponds to the process of generating an image in which the color of the white balance is adjusted by the color adjustment unit 1502 of FIG. 15 (a).

S1803では、CPU304は、色調整部1502からホワイトバランス後の画像データを受信し、もしくは、図3の2次記憶装置307に保存された画像データを取得する。多重化位置検出部1503は、取得した画像データに対して、周波数特性の判定を行い、多重化されている位置を検出する。S1803の処理は、図15(a)の多重化位置検出部1503による、画像データから多重化されている基準位置を検出する処理に対応する。 In S1803, the CPU 304 receives the image data after white balance from the color adjustment unit 1502, or acquires the image data stored in the secondary storage device 307 of FIG. The multiplexing position detection unit 1503 determines the frequency characteristics of the acquired image data and detects the multiplexed position. The process of S1803 corresponds to the process of detecting the multiplexed reference position from the image data by the multiplexing position detection unit 1503 of FIG. 15A.

S1804では、CPU304は、多重化位置検出部1503により、画像データから、多重化されている基準位置を検出できたか否かを判定する。検出できたと判定された場合、S1805へ進み、検出できなかったと判定された場合、S1801に戻り処理を繰り返す。 In S1804, the CPU 304 determines whether or not the multiplexing position detection unit 1503 can detect the multiplexed reference position from the image data. If it is determined that the detection was possible, the process proceeds to S1805, and if it is determined that the detection was not possible, the process returns to S1801 and the process is repeated.

S1805では、CPU304は、色調整部1502で生成された画像データと、多重化位置検出部1503で検出した多重化されている基準位置に基づいて、周波数特性を判定した結果を用いて、多重化されている付加情報を数値データとして抽出する。S1805の処理は、図15(a)の付加情報分離部1504による、画像データから付加情報を抽出する処理に対応する。付加情報分離部1504は、抽出した数値データを図15(a)の抽出データ解析部1505へ送信する。もしくは、付加情報分離部1504は、図3のRAM306に一時的に保存し、抽出データ解析部1505へ、その旨を通知する。 In S1805, the CPU 304 multiplexes using the result of determining the frequency characteristic based on the image data generated by the color adjustment unit 1502 and the multiplexed reference position detected by the multiplexing position detection unit 1503. The additional information provided is extracted as numerical data. The process of S1805 corresponds to the process of extracting the additional information from the image data by the additional information separation unit 1504 of FIG. 15A. The additional information separation unit 1504 transmits the extracted numerical data to the extracted data analysis unit 1505 of FIG. 15 (a). Alternatively, the additional information separation unit 1504 temporarily stores the data in the RAM 306 of FIG. 3, and notifies the extraction data analysis unit 1505 to that effect.

S1806では、CPU304は、図15(a)の抽出データ解析部1505により、分離した付加情報に相当する数値データを取得し、数字データを解析し、文字データなどの付加情報に変換する。S1806の処理は、図15(a)の抽出データ解析部1505による、付加情報を抽出する処理に対応する。 In S1806, the CPU 304 acquires numerical data corresponding to the separated additional information by the extracted data analysis unit 1505 of FIG. 15A, analyzes the numerical data, and converts it into additional information such as character data. The process of S1806 corresponds to the process of extracting additional information by the extraction data analysis unit 1505 of FIG. 15A.

S1807では、CPU304は、図15(a)の抽出データ解析部1505で抽出した付加情報の取得を完了したか否かを判定する。付加情報の取得を完了したと判定した場合、図18の多重化デコード処理を終了し、取得を完了していないと判定した場合、S1801の処理を繰り返す。 In S1807, the CPU 304 determines whether or not the acquisition of the additional information extracted by the extraction data analysis unit 1505 of FIG. 15A is completed. When it is determined that the acquisition of the additional information is completed, the multiplex decoding process of FIG. 18 is completed, and when it is determined that the acquisition is not completed, the process of S1801 is repeated.

多重化された印刷物から付加情報を抽出できた場合、図3のディスプレイ308などに、結果を表示したり、ネットワークにアクセスしたりする。多重化された印刷物から付加情報を抽出できなかった場合、例えば、撮影された画像データが、付加情報を抽出するだけの領域を全て含んでいない場合が考えられる。その場合、付加情報の一部しか抽出できなかったためにデータが完全ではなく、再度、撮影し直す必要がある。 When additional information can be extracted from the multiplexed printed matter, the result is displayed on the display 308 of FIG. 3 or the like, or the network is accessed. When the additional information cannot be extracted from the multiplexed printed matter, for example, it is conceivable that the captured image data does not include the entire area for extracting the additional information. In that case, since only a part of the additional information could be extracted, the data is not complete and it is necessary to take a picture again.

以下、本実施形態の特徴的な構成について説明する。
図19(a)は、付加情報が埋め込まれている画像を抽出するモバイル端末201を示した図であり、図19(b)は、モバイル端末301による付加情報の抽出処理を示したフローチャートである。本実施形態では付加情報として、例えば「http://www.XXX.XX.XX/」のようなURLの一部と、例えば「180219」のような日付閾値情報と、を画像から抽出する。なお、「180219」は、2018年2月19日を示すものとする。また、抽出した付加情報に加えて、ユーザが付加情報を抽出した日時の日時情報をモバイル端末301の時計316から取得する。以下、図19(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図19(b)の処理は、例えば、モバイル端末301のCPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
Hereinafter, the characteristic configuration of the present embodiment will be described.
FIG. 19A is a diagram showing a mobile terminal 201 for extracting an image in which additional information is embedded, and FIG. 19B is a flowchart showing a process of extracting additional information by the mobile terminal 301. .. In the present embodiment, as additional information, a part of the URL such as "http://www.XXX.XX.XX/" and the date threshold information such as "180219" are extracted from the image. In addition, "180219" shall indicate February 19, 2018. Further, in addition to the extracted additional information, the date and time information of the date and time when the user extracted the additional information is acquired from the clock 316 of the mobile terminal 301. Hereinafter, the extraction process of the additional information of the present embodiment will be described with reference to the flowchart of FIG. 19B. The process of FIG. 19B is realized, for example, by the CPU 304 of the mobile terminal 301 reading the program stored in the ROM 305 into the RAM 306 and executing the program.

付加情報の抽出処理が開始されると、CPU304はS1901で、撮像センサ302によって印刷物を撮影して、印刷物に埋め込まれた付加情報を取得する。ここではモバイル端末301は、印刷物からURLの一部と日付閾値情報とを取得する。その後、CPU304はS1902で、時計316から日時情報を取得する。そして、CPU304はS1903で、取得した付加情報と日時情報とからURLを作成する。 When the extraction process of the additional information is started, the CPU 304 takes a picture of the printed matter by the image sensor 302 in S1901 and acquires the additional information embedded in the printed matter. Here, the mobile terminal 301 acquires a part of the URL and the date threshold information from the printed matter. After that, the CPU 304 acquires date and time information from the clock 316 in S1902. Then, in S1903, the CPU 304 creates a URL from the acquired additional information and the date and time information.

具体的には、付加情報に含まれる日付閾値情報と、モバイル端末301から取得した日時情報とを比較して、日時情報の日付が日付閾値情報の日付の前か後かで、作成するURLを異ならせる。例えば、印刷物を撮影した日付である日時情報の日付が「2018年2月17日」だった場合、日付閾値情報「180219」が示す2018年2月19日より前であるため、合成するURLとして「http://www.XXX.XX.XX/before/」を作成する。また、日時情報の日付が「2018年2月20日」だった場合、日付閾値情報「180219」が示す2018年2月19日より後であるため、合成するURLとして「http://www.XXX.XX.XX/after/」を作成する。 Specifically, the date threshold information included in the additional information is compared with the date and time information acquired from the mobile terminal 301, and the URL to be created is created depending on whether the date of the date and time information is before or after the date of the date threshold information. Make it different. For example, if the date of the date and time information, which is the date when the printed matter was taken, is "February 17, 2018", it is before February 19, 2018 indicated by the date threshold information "180219", so it is used as the URL to be synthesized. Create "http://www.XXX.XX.XX/before/". If the date of the date and time information is "February 20, 2018", it is after February 19, 2018 indicated by the date threshold information "180219", so the URL to be synthesized is "http: // www. Create "XXX.XX.XX/after/".

日付閾値情報と取得した日時情報の日付とが同じであった場合は、「http://www.XXX.XX.XX/before/」か「http://www.XXX.XX.XX/after/」のいずれか一方のURLとなるように予め設定しておき、その設定に基づいていずれかのURLに決定される。その後、CPU304はS1904で、作成したURLにアクセスし、URL先のコンテンツをモバイル端末301に表示して処理を終了する。このように、本実施形態では取得した日時情報に応じて、その後の処理の内容を切り替えることができる。 If the date of the date threshold information and the acquired date and time information are the same, "http://www.XXX.XX.XX/before/" or "http://www.XXX.XX.XX/after" It is set in advance so that it becomes one of the URLs of "/", and it is determined to be one of the URLs based on the setting. After that, the CPU 304 accesses the created URL in S1904, displays the content of the URL destination on the mobile terminal 301, and ends the process. As described above, in the present embodiment, the content of the subsequent processing can be switched according to the acquired date and time information.

本実施形態が想定するケースとしては、結婚式の招待状に付加情報を埋め込んでおき、結婚式の前には招待者からのメッセージ動画を表示し、結婚式の後には結婚式動画を表示するケースが考えられる。 As a case assumed by this embodiment, additional information is embedded in the wedding invitation, a message video from the invitee is displayed before the wedding, and a wedding video is displayed after the wedding. A case is possible.

なお、本実施形態では日付について閾値を設けた例を説明したが、これに限定するものでなく、日付と時間とで閾値を設け、日時情報として日付と時間とを取得してもよい。 In the present embodiment, an example in which a threshold value is set for a date has been described, but the present invention is not limited to this, and a threshold value may be set for a date and a time, and the date and time may be acquired as date and time information.

また、本実施形態においては付加情報と日時情報とをモバイル端末301の中で合成したが、付加情報と日時情報とをサーバに送りサーバ内で処理の内容を切り替えて、URLを作成してモバイル端末に送信し、そのURLをモバイル端末301が受信してもよい。 Further, in the present embodiment, the additional information and the date and time information are combined in the mobile terminal 301, but the additional information and the date and time information are sent to the server, the processing contents are switched in the server, a URL is created, and the mobile device is created. It may be transmitted to the terminal and the URL may be received by the mobile terminal 301.

このように、本実施形態のモバイル端末は、撮像した画像より付加情報を取得し、更に、撮像の際の状況に関する撮像状況情報を取得して、その付加情報と撮像状況情報とに基づいて処理を行う。これによって、画像から付加情報を読み取り、ユーザが画像を読み取った日時や場所などの状況に応じた処理を実行することができる情報処理装置、情報処理方法およびプログラムを実現することができる。 As described above, the mobile terminal of the present embodiment acquires additional information from the captured image, further acquires imaging status information regarding the situation at the time of imaging, and processes based on the additional information and the imaging status information. I do. This makes it possible to realize an information processing device, an information processing method, and a program capable of reading additional information from an image and executing processing according to a situation such as a date and time or place where the user reads the image.

(第2の実施形態)
以下、図面を参照して本発明の第2の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
(Second embodiment)
Hereinafter, a second embodiment of the present invention will be described with reference to the drawings. Since the basic configuration of this embodiment is the same as that of the first embodiment, a characteristic configuration will be described below.

図20(a)は、モバイル端末301で付加情報が埋め込まれている画像を抽出するイメージを示した図であり、図20(b)は、付加情報の抽出処理を示したフローチャートである。本実施形態では付加情報として目的地のGPS情報(所定場所の位置を示すGPS情報)を取得する。また、抽出した付加情報に加えてモバイル端末301のGPS314より、現在のモバイル端末301の位置を示すGPS情報を取得する。以下、図20(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図20(b)の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。 FIG. 20A is a diagram showing an image of extracting an image in which additional information is embedded in the mobile terminal 301, and FIG. 20B is a flowchart showing an extraction process of additional information. In the present embodiment, GPS information of the destination (GPS information indicating the position of a predetermined place) is acquired as additional information. Further, in addition to the extracted additional information, GPS information indicating the current position of the mobile terminal 301 is acquired from the GPS 314 of the mobile terminal 301. Hereinafter, the extraction process of the additional information of the present embodiment will be described with reference to the flowchart of FIG. 20 (b). The process of FIG. 20B is realized, for example, by the CPU 304 reading the program stored in the ROM 305 into the RAM 306 and executing the program.

付加情報の抽出処理が開始されると、CPU304はS2001で、モバイル端末301によって印刷物を撮影して、印刷物に埋め込まれた付加情報を取得する。ここではモバイル端末301は、目的地のGPS情報を取得する。その後、CPU304はS2002で、モバイル端末301のGPS314よりより現在のモバイル端末301位置を示すGPS情報を取得する。そして、CPU304はS2003で、付加情報とGPS情報とから目的地と現在地との経路を算出する。経路を計算する方法はインターネット上にある地図サービスを利用する。モバイル端末301を所持しているユーザが移動し、現在地のGPS情報が変わった場合、地図上に表示される経路も変わる。その後、CPU304はS3004で、モバイル端末301のディスプレイ308に算出した経路を表示して処理を終了する。 When the extraction process of the additional information is started, the CPU 304 takes a picture of the printed matter by the mobile terminal 301 in S2001 and acquires the additional information embedded in the printed matter. Here, the mobile terminal 301 acquires GPS information of the destination. After that, the CPU 304 acquires GPS information indicating the current position of the mobile terminal 301 from the GPS 314 of the mobile terminal 301 in S2002. Then, in S2003, the CPU 304 calculates the route between the destination and the current location from the additional information and the GPS information. The map service on the Internet is used to calculate the route. When the user who owns the mobile terminal 301 moves and the GPS information of the current location changes, the route displayed on the map also changes. After that, the CPU 304 displays the calculated route on the display 308 of the mobile terminal 301 in S3004 and ends the process.

本実施形態が想定するケースとしては、コンサートチケット2011に付加情報を埋め込んでおくケースを想定している。モバイル端末301で付加情報と、現在地のGPS情報とを取得し、現在地からコンサート会場までの経路を表示することで、ユーザがどこにいてもユーザの居る場所からコンサート会場へとユーザを案内することができる。 As a case assumed by this embodiment, a case where additional information is embedded in the concert ticket 2011 is assumed. By acquiring additional information and GPS information of the current location on the mobile terminal 301 and displaying the route from the current location to the concert hall, it is possible to guide the user from the user's location to the concert hall wherever the user is. can.

なお、目的地のGPS情報と現在地のGPS情報とをインターネット上の経路探索サービスに送信し、地図と経路とを受信して表示してもよい。 The GPS information of the destination and the GPS information of the current location may be transmitted to a route search service on the Internet, and the map and the route may be received and displayed.

(第3の実施形態)
以下、図面を参照して本発明の第3の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
(Third Embodiment)
Hereinafter, a third embodiment of the present invention will be described with reference to the drawings. Since the basic configuration of this embodiment is the same as that of the first embodiment, a characteristic configuration will be described below.

図21(a)は、モバイル端末301で付加情報が埋め込まれている画像を抽出するイメージを示した図であり、図21(b)は、付加情報の抽出処理を示したフローチャートである。本実施形態では付加情報として商品の価格を取得する。また、抽出した付加情報に加えて、モバイル端末301からユーザの居住国情報を取得する。以下、図21(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図21(b)の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。 FIG. 21 (a) is a diagram showing an image of extracting an image in which additional information is embedded in the mobile terminal 301, and FIG. 21 (b) is a flowchart showing a process of extracting additional information. In this embodiment, the price of the product is acquired as additional information. Further, in addition to the extracted additional information, the user's country of residence information is acquired from the mobile terminal 301. Hereinafter, the extraction process of the additional information of the present embodiment will be described with reference to the flowchart of FIG. 21 (b). The process of FIG. 21B is realized, for example, by the CPU 304 reading the program stored in the ROM 305 into the RAM 306 and executing the program.

付加情報の抽出処理が開始されると、CPU304はS2102で、モバイル端末301によって印刷物を撮影して、印刷物2111に埋め込まれた付加情報を取得する。ここではモバイル端末301は、商品の価格、例えば「$2」を取得する。その後、CPU304はS2102で、モバイル端末よりユーザの居住国情報を取得する。本実施形態では、ユーザの居住国情報はモバイル端末301の設定値を利用するが、GSP履歴やユーザ入力等他の方法を用いてもよい。また、居住国ではなく任意の国を選択してもよい。そして、CPU304はS2103で、取得した価格情報、例えば「$2」と、ユーザの居住国情報、例えば「日本」と、からインターネットの為替変換サービスを利用し、価格情報の価格を居住国の通貨に換算した価格を取得する。具体的には、取得した価格が「$2」であれば、為替レートが$1=100円だった場合、換算された価格情報は「200円」となる。S2104で変換された価格情報を表示して処理を終了する。 When the extraction process of the additional information is started, the CPU 304 takes a picture of the printed matter by the mobile terminal 301 in S2102 and acquires the additional information embedded in the printed matter 2111. Here, the mobile terminal 301 acquires the price of the product, for example, "$ 2". After that, the CPU 304 acquires the user's country of residence information from the mobile terminal in S2102. In the present embodiment, the country of residence information of the user uses the set value of the mobile terminal 301, but other methods such as GSP history and user input may be used. Also, any country may be selected instead of the country of residence. Then, the CPU 304 uses the Internet exchange conversion service from the acquired price information, for example, "$ 2" and the user's country of residence information, for example, "Japan" in S2103, and sets the price of the price information in the currency of the country of residence. Get the price converted to. Specifically, if the acquired price is "$ 2" and the exchange rate is $ 1 = 100 yen, the converted price information will be "200 yen". The price information converted in S2104 is displayed and the process ends.

本実施形態が想定するケースとしては、商品のパッケージ2011に付加情報を埋め込むケースである。例えば、日本からアメリカに海外旅行中に、現地の商品の価格を現在の為替で日本円に換算した価格を知りたいケースを想定する。 The case assumed by this embodiment is a case in which additional information is embedded in the product package 2011. For example, suppose you are traveling abroad from Japan to the United States and want to know the price of a local product converted to Japanese yen at the current exchange rate.

なお、本実施形態では商品のパッケージから取得した商品の価格を居住国の価格に変換したが、これに限定するものではない。例えば領収書や見積書、決算書など価格情報が必要とされているものであれば、本発明を適用可能である。 In the present embodiment, the price of the product obtained from the package of the product is converted into the price of the country of residence, but the present invention is not limited to this. For example, the present invention can be applied to receipts, quotations, financial statements, and other items that require price information.

(第4の実施形態)
以下、図面を参照して本発明の第4の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
(Fourth Embodiment)
Hereinafter, a fourth embodiment of the present invention will be described with reference to the drawings. Since the basic configuration of this embodiment is the same as that of the first embodiment, a characteristic configuration will be described below.

図22(a)は、モバイル端末301で付加情報が埋め込まれている画像を抽出するイメージを示した図であり、図22(b)は、付加情報の抽出処理を示したフローチャートである。本実施形態では美術館の絵画2211の説明表示2212に付加情報としてURLを埋め込む。以下、図22(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図22(b)の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。 FIG. 22A is a diagram showing an image of extracting an image in which additional information is embedded in the mobile terminal 301, and FIG. 22B is a flowchart showing an extraction process of additional information. In the present embodiment, the URL is embedded as additional information in the explanatory display 2212 of the painting 2211 in the museum. Hereinafter, the extraction process of the additional information of the present embodiment will be described with reference to the flowchart of FIG. 22B. The process of FIG. 22B is realized, for example, by the CPU 304 reading the program stored in the ROM 305 into the RAM 306 and executing the program.

付加情報の抽出処理が開始されると、CPU304はS2201で、モバイル端末301によって説明表示2212を撮影して、説明表示2212に埋め込まれた付加情報を取得する。説明表示2212には絵画2211の簡単な説明が記載されており、説明表示2212をモバイル端末301で撮影することで、付加情報としてURLを取得する。複数の美術品の説明表示2212には、どれも同じURLが埋め込まれており、URL先には美術品が美術館のどの場所に掲示されているかを示す「レイアウト情報」と「各美術品の詳細な説明文」とが記載されている。 When the additional information extraction process is started, the CPU 304 takes a picture of the explanatory display 2212 by the mobile terminal 301 in S2201 to acquire the additional information embedded in the explanatory display 2212. A brief description of the painting 2211 is described in the explanatory display 2212, and the URL is acquired as additional information by photographing the explanatory display 2212 with the mobile terminal 301. The same URL is embedded in the explanation display 2212 of a plurality of works of art, and "layout information" and "details of each work of art" indicating where in the museum the work of art is posted are embedded in the URL destination. Explanation ".

その後、CPU304はS2202で、モバイル端末301からGPS情報と端末向き情報とを取得する。GPS情報は、GPS314から取得し、このGPS情報によって美術館の中のユーザの位置を取得することができる。また、端末向き情報は、加速度計312とジャイロスコープ313とから取得し、この端末向き情報によってモバイル端末301の向きを取得することができる。CPU304はS2203で、URL先のレイアウト情報と、ユーザの位置と、モバイル端末301の向きと、から美術館内でユーザが見ている美術品を特定し、特定した美術品の詳細な説明文をモバイル端末301が取得する。その後、CPU304はS2204で、ユーザが見ている美術品の詳細な説明文をモバイル端末301に表示して処理を終了する。 After that, the CPU 304 acquires GPS information and terminal orientation information from the mobile terminal 301 in S2202. GPS information is acquired from GPS314, and the position of the user in the museum can be acquired by this GPS information. Further, the terminal orientation information can be acquired from the accelerometer 312 and the gyroscope 313, and the orientation of the mobile terminal 301 can be acquired from this terminal orientation information. The CPU 304 is S2203, which identifies the work of art that the user is viewing in the museum from the layout information of the URL destination, the position of the user, and the orientation of the mobile terminal 301, and mobiles a detailed description of the specified work of art. Acquired by terminal 301. After that, in S2204, the CPU 304 displays a detailed description of the work of art that the user is viewing on the mobile terminal 301, and ends the process.

どの美術品にも同じ付加情報を埋め込んでおくことで、美術品のレイアウトや説明表示を変更しても、ユーザのモバイル端末301には、ユーザが見ている美術品の詳細な説明文が表示される。 By embedding the same additional information in every work of art, even if the layout or description display of the work of art is changed, the detailed description of the work of art that the user is viewing is displayed on the user's mobile terminal 301. Will be done.

なお、本実施形態では美術館の例を示したが、同様に動物園や水族館などでも使用可能である。また、宝探しゲームに応用し物品とスマホとが所定の位置、所定の向きになった時だけ情報を取得できるようにしてもよい。また、加速度計212とジャイロスコープ213とを使用して、ユーザの歩数を測定し、ユーザの歩数に応じてコンテンツを切り替えてもよい。 Although an example of a museum is shown in this embodiment, it can also be used in a zoo or an aquarium. Further, it may be applied to a treasure hunt game so that information can be acquired only when the article and the smartphone are in a predetermined position and a predetermined orientation. Further, the accelerometer 212 and the gyroscope 213 may be used to measure the number of steps of the user, and the content may be switched according to the number of steps of the user.

また、本実施形態は、メガネタイプのウェアラブル端末に搭載されたカメラを用いることにより、より効果的に適用できる。例えば、美術館でメガネタイプのウェアラブル端末で見た方向の印刷物から付加情報を取得し、対応した情報を表示することができる。 Further, the present embodiment can be applied more effectively by using a camera mounted on a glasses-type wearable terminal. For example, it is possible to acquire additional information from a printed matter in the direction viewed by a glasses-type wearable terminal in a museum and display the corresponding information.

(第5の実施形態)
以下、図面を参照して本発明の第5の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
(Fifth Embodiment)
Hereinafter, a fifth embodiment of the present invention will be described with reference to the drawings. Since the basic configuration of this embodiment is the same as that of the first embodiment, a characteristic configuration will be described below.

図23(a)は、モバイル端末301で付加情報が埋め込まれている画像を抽出するイメージを示した図であり、図23(b)は、付加情報の抽出処理を示したフローチャートである。本実施形態では、印刷物2311には付加情報が埋め込まれており、モバイル端末301は、印刷物2311の撮影後のタッチ情報を取得する。以下、図23(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図23(b)の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。 FIG. 23 (a) is a diagram showing an image of extracting an image in which additional information is embedded in the mobile terminal 301, and FIG. 23 (b) is a flowchart showing a process of extracting additional information. In the present embodiment, additional information is embedded in the printed matter 2311, and the mobile terminal 301 acquires the touch information of the printed matter 2311 after shooting. Hereinafter, the extraction process of the additional information of the present embodiment will be described with reference to the flowchart of FIG. 23 (b). The process of FIG. 23B is realized, for example, by the CPU 304 reading the program stored in the ROM 305 into the RAM 306 and executing the program.

付加情報の抽出処理が開始されると、CPU304はS2301で、モバイル端末301によって印刷物を撮影して、説明表示2311に埋め込まれた付加情報を取得する。その後、CPU304はS2302では、モバイル端末301のディスプレイ308からユーザがディスプレイ308に触れることに対応する情報であるタッチ情報を取得する。印刷物2311には押しボタンが記録されており、ユーザがモバイル端末301で印刷物2311を撮影し、モバイル端末301のディスプレイ308に表示された印刷物2311の押しボタンにユーザが触れることでモバイル端末301はタッチ情報を取得する。 When the extraction process of the additional information is started, the CPU 304 takes a picture of the printed matter by the mobile terminal 301 in S2301 and acquires the additional information embedded in the explanatory display 2311. After that, in S2302, the CPU 304 acquires touch information, which is information corresponding to the user touching the display 308, from the display 308 of the mobile terminal 301. A push button is recorded on the printed matter 2311, and the mobile terminal 301 touches the printed matter 2311 when the user photographs the printed matter 2311 with the mobile terminal 301 and the user touches the push button of the printed matter 2311 displayed on the display 308 of the mobile terminal 301. Get information.

CPU304はS2303では、モバイル端末301がタッチ情報を取得したか否かを判定する。タッチ情報を取得していれば、S2304に移行し、タッチ情報を取得していなければ処理を終了する。S2304に移行した場合は、CPU304はS2301で取得した付加情報をモバイル端末301のディスプレイ308に表示して処理を終了する。 In S2303, the CPU 304 determines whether or not the mobile terminal 301 has acquired the touch information. If the touch information has been acquired, the process proceeds to S2304, and if the touch information has not been acquired, the process ends. When shifting to S2304, the CPU 304 displays the additional information acquired in S2301 on the display 308 of the mobile terminal 301 and ends the process.

なお、付加情報は所定情報であり、どのような情報でもよく、例えば、印刷物は押しボタンが記録された商品の広告であり、撮影してディスプレイの押しボタン画像に触れることで、付加情報である商品の詳細情報が記載されたURLの画面をディスプレイに表示してもよい。このように、ユーザのタッチ動作に応じて付加情報を表示させることもできる。 The additional information is predetermined information and may be any information. For example, the printed matter is an advertisement of a product in which a push button is recorded, and is additional information by taking a picture and touching the push button image on the display. The screen of the URL in which the detailed information of the product is described may be displayed on the display. In this way, additional information can be displayed according to the touch operation of the user.

(第6の実施形態)
以下、図面を参照して本発明の第6の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
(Sixth Embodiment)
Hereinafter, a sixth embodiment of the present invention will be described with reference to the drawings. Since the basic configuration of this embodiment is the same as that of the first embodiment, a characteristic configuration will be described below.

図24は、本実施形態における付加情報の抽出処理を示したフローチャートである。本実施形態では、印刷物には付加情報が埋め込まれており、モバイル端末301は、印刷物を撮影することで、情報α(閲覧情報)と、情報αの閲覧を許可されたユーザのユーザIDとが含まれた付加情報を取得する。モバイル端末には2つのカメラを搭載したものがあり、風景を撮影するためのモバイル端末の裏側に搭載されたカメラと、ユーザ自身を撮影するために表側に搭載されたカメラとがある。本実施形態では、モバイル端末301は、裏側のカメラによって付加情報を取得し、表側のカメラでユーザの顔を写すことで、顔認証情報を取得する。以下、図24のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図24の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。 FIG. 24 is a flowchart showing the extraction process of additional information in the present embodiment. In the present embodiment, additional information is embedded in the printed matter, and the mobile terminal 301 captures the printed matter so that the information α (browsing information) and the user ID of the user who is permitted to browse the information α can be obtained. Acquire the included additional information. Some mobile terminals are equipped with two cameras, one is a camera mounted on the back side of the mobile terminal for taking a picture of a landscape, and the other is a camera mounted on the front side for taking a picture of the user himself / herself. In the present embodiment, the mobile terminal 301 acquires additional information by the camera on the back side, and acquires face authentication information by photographing the user's face with the camera on the front side. Hereinafter, the extraction process of the additional information of the present embodiment will be described with reference to the flowchart of FIG. 24. The process of FIG. 24 is realized, for example, by the CPU 304 reading the program stored in the ROM 305 into the RAM 306 and executing the program.

付加情報の抽出処理が開始されると、CPU304はS2401で、モバイル端末301によって印刷物を撮影して、印刷物に埋め込まれた付加情報を取得する。付加情報には情報αと、情報αの閲覧を許可されたユーザのユーザIDとが含まれている。その後、CPU304はS2402で、モバイル端末301でユーザを撮影して、顔認証情報を取得する。本実施形態では、1つ目のカメラ(撮像センサ202)で印刷物を撮影し、2つ目のカメラ(第二撮像センサ215)でユーザ自身を撮影するケースを想定する。顔認証情報は、第二撮像センサ215で取得した顔画像を用いて、特定のユーザを指し示すユーザIDを算出する。顔認証は多くの方法が提案されているが、ユーザが特定できればどの方法を用いてもよい。そして、CPU304はS2403で、顔認証で取得したユーザIDが、S2401で取得した情報αの閲覧を許可されたユーザのユーザIDと一致するか否かを判定する。一致していればS2404に移行して、一致していなければ処理を終了する。S2404に移行した場合、CPU304は、情報αのロックを解除して、S2402で情報αをモバイル端末301のディスプレイ308に表示する。 When the extraction process of the additional information is started, the CPU 304 takes a picture of the printed matter by the mobile terminal 301 in S2401 and acquires the additional information embedded in the printed matter. The additional information includes the information α and the user ID of the user who is permitted to view the information α. After that, the CPU 304 takes a picture of the user with the mobile terminal 301 in S2402 and acquires the face authentication information. In the present embodiment, it is assumed that the printed matter is photographed by the first camera (imaging sensor 202) and the user himself is photographed by the second camera (second imaging sensor 215). For the face recognition information, a user ID indicating a specific user is calculated using the face image acquired by the second imaging sensor 215. Many methods have been proposed for face recognition, but any method may be used as long as the user can be identified. Then, the CPU 304 determines in S2403 whether or not the user ID acquired by face authentication matches the user ID of the user who is permitted to view the information α acquired in S2401. If they match, the process proceeds to S2404, and if they do not match, the process ends. When shifting to S2404, the CPU 304 unlocks the information α and displays the information α on the display 308 of the mobile terminal 301 in S2402.

なお、本実施形態ではユーザの特定に顔認証を用いて情報αに対するロックの解除を行ったが、ユーザの特定は他の方法を用いてもよい。例えば、指紋認証機能を備えたモバイル端末で指紋認証を用いてユーザを特定してもよいし、音声認証機能を備えたモバイル端末で音声認証を用いてユーザを特定してもよい。 In the present embodiment, the lock on the information α is released by using face authentication to identify the user, but another method may be used to identify the user. For example, a mobile terminal having a fingerprint authentication function may identify a user by using fingerprint authentication, or a mobile terminal having a voice authentication function may identify a user by using voice authentication.

102 付加情報多重化装置
103 記録装置
301 モバイル端末
304 CPU
308 ディスプレイ
102 Additional information multiplexing device 103 Recording device 301 Mobile terminal 304 CPU
308 display

Claims (10)

付加情報が電子透かしとして埋め込まれた画像を撮像して撮像情報を取得する取得工程と、
前記撮像情報から前記付加情報を抽出する抽出工程と、
を有する情報処理方法であって、
前記撮像における状況に関する撮像状況情報を取得する撮像情報取得工程と、
前記付加情報と前記撮像状況情報とに基づいて、所定の処理を行う処理工程と、を更に有することを特徴とする情報処理方法。
The acquisition process of capturing an image in which additional information is embedded as a digital watermark and acquiring the imaging information,
An extraction step of extracting the additional information from the imaging information, and
It is an information processing method that has
An imaging information acquisition step for acquiring imaging status information regarding the status in the imaging, and
An information processing method further comprising a processing step of performing a predetermined process based on the additional information and the imaging status information.
前記付加情報は、URLの一部と所定の日付に関する日付情報とであり、
前記撮像状況情報は、前記印刷物を撮影した日時に関する日時情報であり、
前記処理工程では、前記印刷物を撮影した日時が、前記所定の日付に対して、前であるか後であるかに応じて、前記URLの他の一部を作成し、前記ネットワークに接続することを特徴とする請求項1に記載の情報処理方法。
The additional information is a part of the URL and date information regarding a predetermined date.
The imaging status information is date and time information relating to the date and time when the printed matter was photographed.
In the processing step, another part of the URL is created and connected to the network depending on whether the date and time when the printed matter was photographed is before or after the predetermined date. The information processing method according to claim 1.
前記付加情報は、所定場所の位置を示すGPS情報であり、
前記撮像状況情報は、前記印刷物を撮影した場所の位置を示すGPS情報であり、
前記処理工程では、前記印刷物を撮影した場所の位置から前記所定場所の位置までの経路を表示することを特徴とする請求項1に記載の情報処理方法。
The additional information is GPS information indicating the position of a predetermined place, and is
The imaging status information is GPS information indicating the position of the place where the printed matter was photographed.
The information processing method according to claim 1, wherein in the processing step, a route from a position where the printed matter is photographed to the position of the predetermined place is displayed.
前記付加情報は、商品の価格を示す価格情報であり、
前記撮像状況情報は、ユーザの居住国を示す居住国情報であり、
前記処理工程では、前記価格情報の価格を居住国の通貨に換算した価格を表示することを特徴とする請求項1に記載の情報処理方法。
The additional information is price information indicating the price of the product, and is
The imaging status information is the country of residence information indicating the country of residence of the user.
The information processing method according to claim 1, wherein in the processing step, a price obtained by converting the price of the price information into the currency of the country of residence is displayed.
前記付加情報は、所定のURLおよび物品の詳細情報であり、
前記撮像状況情報は、ユーザの位置を示すGPS情報と、モバイル端末の向きを示す端末向き情報であり、
前記処理工程では、前記所定のURLにあるレイアウト情報および物品の詳細情報と、ユーザの位置と、モバイル端末の向きと、からユーザが見ている物品の詳細情報を表示することを特徴とする請求項1に記載の情報処理方法。
The additional information is a predetermined URL and detailed information of the article, and is
The imaging status information is GPS information indicating the position of the user and terminal orientation information indicating the orientation of the mobile terminal.
The processing step is characterized in that the detailed information of the article viewed by the user is displayed from the layout information and the detailed information of the article at the predetermined URL, the position of the user, the orientation of the mobile terminal, and the like. Item 1. The information processing method according to item 1.
前記付加情報は、所定情報であり、
前記撮像状況情報は、ユーザがモバイル端末のディスプレイに触れたことに関する情報であるタッチ情報であり、
前記処理工程では、前記タッチ情報に基づいて、前記所定情報を前記ディスプレイに表示することを特徴とする請求項1に記載の情報処理方法。
The additional information is predetermined information and is
The imaging status information is touch information which is information about the user touching the display of the mobile terminal.
The information processing method according to claim 1, wherein in the processing step, the predetermined information is displayed on the display based on the touch information.
前記付加情報は、閲覧情報と、前記閲覧情報の閲覧を許可されたユーザの第1ユーザIDと、であり、
前記撮像状況情報は、前記印刷物を撮影したユーザの第2ユーザIDであり、
前記処理工程では、前記第1ユーザIDと前記第2ユーザIDとが一致する場合に、前記閲覧情報を表示することを特徴とする請求項1に記載の情報処理装置。
The additional information includes browsing information and a first user ID of a user who is permitted to browse the browsing information.
The imaging status information is the second user ID of the user who photographed the printed matter.
The information processing apparatus according to claim 1, wherein in the processing step, the browsing information is displayed when the first user ID and the second user ID match.
前記第2ユーザIDは、顔認証によって得られることを特徴とする請求項7に記載の情報処理装置。 The information processing device according to claim 7, wherein the second user ID is obtained by face authentication. 付加情報が電子透かしとして埋め込まれた画像を撮像して撮像情報を取得する取得手段と、
前記撮像情報から前記付加情報を抽出する抽出手段と、
を有する情報処理方法であって、
前記撮像における状況に関する撮像状況情報を取得する撮像情報取得手段と、
前記付加情報と前記撮像状況情報とに基づいて、所定の処理を行う処理手段と、を更に有することを特徴とする情報処理装置。
An acquisition means for acquiring imaging information by capturing an image in which additional information is embedded as a digital watermark,
An extraction means for extracting the additional information from the imaging information, and
It is an information processing method that has
An imaging information acquisition means for acquiring imaging status information regarding the situation in the imaging, and
An information processing device further comprising a processing means for performing a predetermined process based on the additional information and the imaging status information.
請求項1から8のいずれか1項に記載の情報処理方法における各工程としてコンピュータを機能させるためのプログラム。 A program for operating a computer as each step in the information processing method according to any one of claims 1 to 8.
JP2019237033A 2019-12-26 2019-12-26 Information processing device, control method for information processing device, storage medium, and program Active JP7438752B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019237033A JP7438752B2 (en) 2019-12-26 2019-12-26 Information processing device, control method for information processing device, storage medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019237033A JP7438752B2 (en) 2019-12-26 2019-12-26 Information processing device, control method for information processing device, storage medium, and program

Publications (3)

Publication Number Publication Date
JP2021106332A true JP2021106332A (en) 2021-07-26
JP2021106332A5 JP2021106332A5 (en) 2022-12-28
JP7438752B2 JP7438752B2 (en) 2024-02-27

Family

ID=76919646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019237033A Active JP7438752B2 (en) 2019-12-26 2019-12-26 Information processing device, control method for information processing device, storage medium, and program

Country Status (1)

Country Link
JP (1) JP7438752B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072580A (en) 2004-08-31 2006-03-16 Sharp Corp Electronic device, information management device, communication system, method for displaying imaging position, program, and computer readable recording medium for recording this program
JP2012181701A (en) 2011-03-01 2012-09-20 Toshiba Corp Information display device and information display method
JP2013235553A (en) 2012-04-13 2013-11-21 Hitachi Solutions Ltd Information provision system
JP2014215723A (en) 2013-04-23 2014-11-17 キヤノン株式会社 Information processor and control method thereof
JP2016161479A (en) 2015-03-04 2016-09-05 株式会社ゼンリンデータコム Navigation system and navigation method

Also Published As

Publication number Publication date
JP7438752B2 (en) 2024-02-27

Similar Documents

Publication Publication Date Title
US10469701B2 (en) Image processing method that obtains special data from an external apparatus based on information multiplexed in image data and apparatus therefor
JP6808581B2 (en) Information processing equipment, information processing methods and programs
US11943547B2 (en) Information processing apparatus that illuminates a printed image during capture when embedded information is to be processed, information processing system, information processing method, and storage medium
US10992837B2 (en) Information processing apparatus, control method thereof, and storage medium
JP2009027385A (en) Image processor, its method and computer program
US10033904B2 (en) Information processing apparatus for multiplexing information in an image, information processing method, and storage medium storing program
JP7438752B2 (en) Information processing device, control method for information processing device, storage medium, and program
JP6789890B2 (en) Information processing equipment, information processing methods and programs, and how to create multiplexing parameters
JP7451187B2 (en) Image processing device, image processing method and program
JP7455584B2 (en) Information processing device, control method for information processing device, program, and storage medium
US11831834B2 (en) Information processing apparatus, method, and product performing multiplexing processing by different methods with respect to printing and non-printing areas
JP7458766B2 (en) Information processing device, control method for information processing device, program, and storage medium
US11245810B2 (en) Image processing apparatus, method, and program product for embedding corresponding information in an area overlapping a recognized object
US20070297684A1 (en) Data Conversion Apparatus, Data Conversion Method, and Data Conversion System
JP2017073649A (en) Information processing device, information processing method and computer program
JP6577815B2 (en) Information processing apparatus, information processing method, and program
JP2005338902A (en) Document data structure, document conversion device, document restoration device, document conversion method, document restoration method, document conversion program, document restoration program and recording medium
JP2023042153A (en) Image processing device, image processing method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240214

R151 Written notification of patent or utility model registration

Ref document number: 7438752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151