JP7438752B2 - Information processing device, control method for information processing device, storage medium, and program - Google Patents

Information processing device, control method for information processing device, storage medium, and program Download PDF

Info

Publication number
JP7438752B2
JP7438752B2 JP2019237033A JP2019237033A JP7438752B2 JP 7438752 B2 JP7438752 B2 JP 7438752B2 JP 2019237033 A JP2019237033 A JP 2019237033A JP 2019237033 A JP2019237033 A JP 2019237033A JP 7438752 B2 JP7438752 B2 JP 7438752B2
Authority
JP
Japan
Prior art keywords
information
image
user
additional information
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019237033A
Other languages
Japanese (ja)
Other versions
JP2021106332A5 (en
JP2021106332A (en
Inventor
祐樹 石田
洋行 酒井
勇気 大曲
智博 鈴木
充 浦谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019237033A priority Critical patent/JP7438752B2/en
Publication of JP2021106332A publication Critical patent/JP2021106332A/en
Publication of JP2021106332A5 publication Critical patent/JP2021106332A5/ja
Application granted granted Critical
Publication of JP7438752B2 publication Critical patent/JP7438752B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像内に電子透かしとして埋め込まれた付加情報を取得して、所定の処理を行う情報処理装置、情報処理装置の制御方法、記憶媒体およびプログラムに関する。 The present invention relates to an information processing apparatus, a control method for the information processing apparatus, a storage medium, and a program that acquire additional information embedded as a digital watermark in an image and perform predetermined processing.

特許文献1には、画像に付加情報としてUniform Resource Locator(以下、URLという)を埋め込み、ソフトウエアによって埋め込まれたURLを読み取ることで、ユーザがネットワークにアクセスすることが記載されている。 Patent Document 1 describes that a Uniform Resource Locator (hereinafter referred to as URL) is embedded in an image as additional information, and a user accesses a network by reading the embedded URL using software.

特開2005-051793号公報Japanese Patent Application Publication No. 2005-051793

しかし、特許文献1の方法では、画像に埋め込まれた付加情報は、変更することができない。そのため、ソフトウエアによって埋め込まれた付加情報を読み取ることで成される処理は、常に同じ処理であり、例えば、ユーザが画像を読み取った日時や場所などの状況に合わせた処理を行うことはできなかった。 However, with the method of Patent Document 1, additional information embedded in an image cannot be changed. Therefore, the processing performed by reading the additional information embedded by the software is always the same processing, and it is not possible to perform processing that is tailored to the situation, such as the date and time or location when the user read the image. Ta.

よって本発明は、画像から付加情報を読み取り、ユーザが画像を読み取った日時や場所などの状況に応じた処理を実行することができる情報処理装置、情報処理装置の制御方法、記憶媒体およびプログラムを提供する。 Therefore, the present invention provides an information processing device , a control method for the information processing device, a storage medium, and a program that can read additional information from an image and execute processing according to the situation such as the date and time and place where the user read the image. provide.

そのため本発明の情報処理装置は、像を撮像して撮像画像を取得する取得手段と、前記撮像画像から、前記画像に電子透かしとして埋め込まれた付加情報を抽出する抽出手段と、ユーザがタッチパネルに触れたことに対応するタッチ情報が取得された場合に、前記抽出手段で抽出された付加情報を前記タッチパネルに表示するように制御する制御手段と、を有することを特徴とする。 Therefore, the information processing apparatus of the present invention includes: an acquisition unit that captures an image to obtain the captured image ; an extraction unit that extracts additional information embedded in the image as a digital watermark from the captured image; It is characterized by comprising a control means for controlling the additional information extracted by the extraction means to be displayed on the touch panel when touch information corresponding to touching is acquired.

本発明によれば、画像から付加情報を読み取り、ユーザが画像を読み取った日時や場所などの状況に応じた処理を実行することができる情報処理装置、情報処理装置の制御方法、記憶媒体およびプログラムを提供することができる。 According to the present invention, an information processing apparatus , a control method for an information processing apparatus, a storage medium, and a program are capable of reading additional information from an image and executing processing according to the situation such as the date and time and place when the user read the image. can be provided.

多重化エンコードのためのハードウェアの構成を示した図である。FIG. 2 is a diagram showing a hardware configuration for multiplex encoding. 図1(a)の付加情報多重化装置のハードウェア構成を示した図である。FIG. 2 is a diagram showing the hardware configuration of the additional information multiplexing device in FIG. 1(a). 画像情報から付加情報を抽出するハードウェアの構成を示した図である。FIG. 2 is a diagram showing the configuration of hardware that extracts additional information from image information. 多重化エンコード処理を行うファームウェア構成を示したブロック図である。FIG. 2 is a block diagram showing a firmware configuration that performs multiplex encoding processing. 画像情報を復号化する画像復元処理を示したフローチャートである。3 is a flowchart showing image restoration processing for decoding image information. 色補正テーブルを示した図である。FIG. 3 is a diagram showing a color correction table. 四面体補間のイメージ図である。It is an image diagram of tetrahedral interpolation. 色分解テーブルの一例を示した図である。FIG. 3 is a diagram showing an example of a color separation table. 誤差拡散法における誤差分配方法を説明する図である。FIG. 3 is a diagram illustrating an error distribution method in the error diffusion method. バイナリデータに対応するマスクデータを示した図である。FIG. 3 is a diagram showing mask data corresponding to binary data. 多重化エンコード処理を示すフローチャートである。3 is a flowchart showing multiplex encoding processing. 多重化部のファームウェア構成を示したブロック図である。FIG. 2 is a block diagram showing a firmware configuration of a multiplexing unit. 周波数特性が異なるマスクパターンを数値化した図である。FIG. 3 is a diagram digitizing mask patterns with different frequency characteristics. 多重化エンコード処理後の記録処理を示したフローチャートである。7 is a flowchart showing recording processing after multiplex encoding processing. 多重化デコード処理のファームウェアのブロック構成とイメージ図である。FIG. 3 is a block configuration and image diagram of firmware for multiplex decoding processing. 周波数特性の差を示す図とブロック毎に多重化された記録媒体の図である。FIG. 2 is a diagram showing differences in frequency characteristics and a diagram of a recording medium multiplexed on a block-by-block basis. 周波数特性を判定する際の検出位置を説明するための図である。FIG. 3 is a diagram for explaining detection positions when determining frequency characteristics. 多重化デコード処理を示すフローチャートである。3 is a flowchart showing multiplex decoding processing. 画像を抽出するイメージ図と抽出処理を示したフローチャートである。2 is a flowchart showing an image diagram and extraction processing for extracting an image. 画像を抽出するイメージ図と抽出処理を示したフローチャートである。2 is a flowchart showing an image diagram and extraction processing for extracting an image. 画像を抽出するイメージ図と抽出処理を示したフローチャートである。2 is a flowchart showing an image diagram and extraction processing for extracting an image. 画像を抽出するイメージ図と抽出処理を示したフローチャートである。2 is a flowchart showing an image diagram and extraction processing for extracting an image. 画像を抽出するイメージ図と抽出処理を示したフローチャートである。2 is a flowchart showing an image diagram and extraction processing for extracting an image. 抽出処理を示したフローチャートである。It is a flow chart showing extraction processing.

以下、電子透かしとして付加情報が埋め込まれた画像に関する実施形態について記載する。ここでの電子透かしとは、画像に対して不可視に、もしくは視認することが困難な状態で埋め込まれた情報である。このような情報は、該画像に対して装置が解析を行うことにより抽出可能である。この解析の詳細については後述する。なお、以降の説明において、電子透かしとしての情報の埋め込みを、画像に対する該情報の「多重化」として表現する。 An embodiment regarding an image in which additional information is embedded as a digital watermark will be described below. The digital watermark here is information embedded in an image in a state that is invisible or difficult to visually recognize. Such information can be extracted by the device analyzing the image. Details of this analysis will be described later. In the following description, embedding of information as a digital watermark will be expressed as "multiplexing" of the information into an image.

(第1の実施形態)
以下、図面を参照して本発明の第1の実施形態について説明する。先ず、画像情報に付加情報を埋め込む多重化エンコード処理部と、撮影画像(撮像情報)から付加情報を抽出する多重化デコード処理部の基本構成について説明する。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. First, the basic configurations of a multiplex encoding processing section that embeds additional information in image information and a multiplexing decoding processing section that extracts additional information from a photographed image (imaging information) will be explained.

先ず、多重化エンコード処理部と多重化エンコード処理について説明する。
図1は、本実施形態において、画像情報Aに付加情報Bを埋め込む多重化エンコードのためのハードウェアの構成を示した図である。このハードウェアは、画像情報Aと付加情報Bとを取得し、それらの画像情報Aに付加情報Bが埋め込まれた印刷物Cを生成する。
First, the multiplex encoding processing section and multiplex encoding processing will be explained.
FIG. 1 is a diagram showing a hardware configuration for multiplex encoding in which additional information B is embedded in image information A in this embodiment. This hardware acquires image information A and additional information B, and generates printed matter C in which additional information B is embedded in the image information A.

図1(a)のハードウェアは、付加情報多重化装置102と記録装置103とを備えており、付加情報多重化装置102によって画像情報Aに付加情報Bを埋め込む処理が行われ、記録装置103で画像情報Aに付加情報Bが埋め込まれた印刷物Cが生成される。図1(b)のハードウェアは、記録装置103の内部に付加情報多重化部105と記録部106とを備え、付加情報多重化部105によって画像情報Aに付加情報Bを埋め込む処理が行われ、記録部106で画像情報Aに付加情報Bが埋め込まれた印刷物Cが生成される。本実施形態を実現可能なハードウェアの構成は、図1(a)または図1(b)のいずれの構成でもよい。 The hardware in FIG. 1A includes an additional information multiplexing device 102 and a recording device 103. The additional information multiplexing device 102 performs a process of embedding additional information B in image information A, and the recording device A printed matter C in which the additional information B is embedded in the image information A is generated. The hardware in FIG. 1(b) includes an additional information multiplexing unit 105 and a recording unit 106 inside a recording device 103, and the additional information multiplexing unit 105 performs a process of embedding additional information B into image information A. , the recording unit 106 generates a printed matter C in which the additional information B is embedded in the image information A. The hardware configuration that can realize this embodiment may be either the configuration shown in FIG. 1(a) or FIG. 1(b).

図1(a)の構成において、入力端子100から入力される画像情報Aは、色成分を含む多階調の画像情報である。入力端子101から入力される付加情報Bは、テキスト文書情報、音声情報、動画情報、あるいはテキスト文書情報、音声情報、画像、動画情報を圧縮した情報、および他のバイナリ値に変換された情報などである。多重化装置102は、後述するように、画像情報Aに付加情報Bを埋め込む多重化処理を行う。記録装置103は、付加情報Bが埋め込まれた画像情報A’に基づいて記録動作を行うことによって印刷物Cを生成する。 In the configuration of FIG. 1A, image information A input from the input terminal 100 is multi-gradation image information including color components. Additional information B input from the input terminal 101 includes text document information, audio information, video information, compressed text document information, audio information, image, video information, and other information converted into binary values. It is. The multiplexing device 102 performs multiplexing processing to embed additional information B in image information A, as described later. The recording device 103 generates a printed matter C by performing a recording operation based on the image information A' in which the additional information B is embedded.

図1(b)の構成において、図1(a)の多重化装置102に相当する多重化部105は、記録装置103に含まれており、図1(a)の構成と同様に、入力端子100から画像情報Aが入力され、入力端子101から付加情報Bが入力される。記録装置103内の多重化部105は、画像情報Aに付加情報Bを埋め込む処理を行う。また、記録部106は、付加情報Bが埋め込まれた画像情報A’に基づいて記録動作を行うことによって印刷物Cを生成する。このように付加情報Bが埋め込まれた画像情報A’に基づいて印刷物Cを生成する処理を「多重化エンコード処理」ともいう。 In the configuration of FIG. 1(b), a multiplexing unit 105 corresponding to the multiplexing device 102 of FIG. 1(a) is included in the recording device 103, and as in the configuration of FIG. Image information A is input from 100, and additional information B is input from input terminal 101. A multiplexing unit 105 in the recording device 103 performs a process of embedding additional information B into image information A. Further, the recording unit 106 generates a printed matter C by performing a recording operation based on the image information A' in which the additional information B is embedded. The process of generating printed matter C based on image information A' in which additional information B is embedded in this manner is also referred to as "multiplex encoding process."

図2は、図1(a)の付加情報多重化装置102のハードウェア構成を示した図である。CPU202は、中央演算装置であり、例えば、付加情報Bを多重化する処理をプログラムに従って実行する。ROM203は、CPU202により実行されるプログラムを記憶する。RAM204は、CPU202によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリを提供する。2次記憶装置205は、例えばハードディスクであり、画像ファイルや付加情報などを保存するための記憶媒体である。ディスプレイ206は、ユーザインタフェース画面や処理内容等を表示する。キー入力装置207は、キーボードなどの機器の操作を介して処理の指示や設定、文字入力等を受け付ける。ネットワークインタフェース208は、例えばLAN(Local Area Network)に接続されている。また、LANは、インターネットに接続されている。CPU202は、ネットワークインタフェース208により、インターネットに接続されたサイトにアクセスして、ディスプレイ206にサイトの画面を表示させ、情報を送受信する。付加情報多重化装置102は、例えばコンピュータやスマートフォンなどの情報処理装置であるが、画像情報Aに付加情報Bを埋め込む処理が実行可能であれば他の形態の装置でもよい。 FIG. 2 is a diagram showing the hardware configuration of the additional information multiplexing device 102 in FIG. 1(a). The CPU 202 is a central processing unit, and executes, for example, a process of multiplexing additional information B according to a program. ROM203 stores programs executed by CPU202. The RAM 204 provides a memory for temporarily storing various information when the CPU 202 executes a program. The secondary storage device 205 is, for example, a hard disk, and is a storage medium for storing image files, additional information, and the like. The display 206 displays a user interface screen, processing details, and the like. The key input device 207 accepts processing instructions, settings, character input, etc. through the operation of a device such as a keyboard. The network interface 208 is connected to, for example, a LAN (Local Area Network). Further, the LAN is connected to the Internet. The CPU 202 accesses a site connected to the Internet through the network interface 208, displays a screen of the site on the display 206, and transmits and receives information. The additional information multiplexing device 102 is, for example, an information processing device such as a computer or a smartphone, but may be any other type of device as long as it can execute the process of embedding the additional information B in the image information A.

図3は、印刷物Cに記録された画像情報A’から付加情報Bを抽出するハードウェアの構成を示した図である。ここでは、画像情報A’から付加情報Bを抽出するハードウェアとしてモバイル端末301を例に説明する。 FIG. 3 is a diagram showing a hardware configuration for extracting additional information B from image information A' recorded on printed matter C. Here, a mobile terminal 301 will be described as an example of hardware that extracts additional information B from image information A'.

モバイル端末301は、多重化エンコード処理された印刷物Cをカメラなどの撮像装置によって撮像して、その撮影画像を解析することによって、画像に埋め込まれている付加情報Bを抽出する。 The mobile terminal 301 captures an image of a printed matter C that has undergone multiplex encoding processing using an imaging device such as a camera, and extracts additional information B embedded in the image by analyzing the captured image.

撮像センサ302を保持するカメラ付きのモバイル端末(情報処理装置)301は、印刷物Cの撮影機能をもつ。付加情報Bの分離装置303は、撮像センサ302によって撮影された画像を解析することによって、後述するように、付加情報Bを抽出する。CPU(中央演算装置)304は、プログラムにしたがって情報処理方法を実行し、ROM305には、CPU304によって実行されるプログラムが記憶されている。RAM306は、CPU304によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリとして機能する。ハードディスク等の2次記憶装置307は、画像ファイルおよび画像解析結果を含むデータベースなどを保存する。ディスプレイ308は、CPU304の処理結果などをユーザに提示する。 A camera-equipped mobile terminal (information processing device) 301 holding an image sensor 302 has a function of photographing printed matter C. The additional information B separation device 303 extracts additional information B by analyzing the image captured by the image sensor 302, as will be described later. A CPU (central processing unit) 304 executes an information processing method according to a program, and a ROM 305 stores a program executed by the CPU 304. The RAM 306 functions as a memory for temporarily storing various information when the CPU 304 executes a program. A secondary storage device 307 such as a hard disk stores a database including image files and image analysis results. The display 308 presents the processing results of the CPU 304 to the user.

キー入力装置309は、タッチパネル機能を備えるディスプレイ308を用いて、タッチパネルの操作によって処理の指示および文字の入力等を行う。無線LAN(Local Area Network)310はインターネットに接続されており、インターネットに接続されたサイトにアクセスして、ディスプレイ308にサイトの画面などを表示させる。無線LAN310は、データを送受信などにも用いられる。スピーカー311は、抽出された付加情報Bが音声情報または音声付動画データの場合に、音声を出力する。また、インターネットの接続先に動画データがある場合には、その動画データの再生時に音声を出力する。加速度計312は、モーションセンサを搭載しており、モバイル端末301を所持して歩いた時の歩数やモバイル端末301がどちらの方角を向いているかを提示する。 A key input device 309 uses a display 308 with a touch panel function to issue processing instructions, input characters, etc. by operating the touch panel. A wireless LAN (Local Area Network) 310 is connected to the Internet, accesses sites connected to the Internet, and displays the site's screen on the display 308. The wireless LAN 310 is also used for transmitting and receiving data. The speaker 311 outputs audio when the extracted additional information B is audio information or video data with audio. Furthermore, if video data is available at the Internet connection destination, audio is output when the video data is played back. The accelerometer 312 is equipped with a motion sensor, and shows the number of steps taken while carrying the mobile terminal 301 and the direction in which the mobile terminal 301 is facing.

ジャイロスコープ313は、モバイル端末301がどのような姿勢を維持しているかを感知し、加速度計312の精度をさらに向上させる。GPS(Global Positioning System)314は人工衛星と通信しモバイル端末301の地球上の位置を提示する。第二撮像センサ315は撮像センサ302と同等の機能を持つ撮像センサであり、撮像センサ302と同様に画像や動画を撮影することができる。時計316は時刻を管理する。ユーザが手動で時刻を調整する事もできるが、無線LAN310を介してサーバ上の時刻を取得し、自動で調整する事も可能である。国や地球上の位置によって時刻は変わる為、ユーザは手動もしくは自動で調整する。 The gyroscope 313 senses what attitude the mobile terminal 301 is maintaining, further improving the accuracy of the accelerometer 312. A GPS (Global Positioning System) 314 communicates with an artificial satellite and presents the position of the mobile terminal 301 on the earth. The second image sensor 315 is an image sensor that has the same function as the image sensor 302, and can take images and videos like the image sensor 302. Clock 316 manages time. Although the user can manually adjust the time, it is also possible to acquire the time on the server via the wireless LAN 310 and adjust it automatically. Since the time changes depending on the country and location on the globe, the user has to adjust it manually or automatically.

モバイル端末301はスマートフォン、タブレット、PC、デジタルカメラ、ビデオカメラやウェアラブル端末を使った構成が考えられる。また、モバイル端末301は、撮像センサ302を内蔵する構成に限定されない。例えば、モバイル端末301とは別の装置によって撮像センサ302を制御して、撮影画像を付加情報の分離装置303に送信する構成であってもよい。撮像センサ302としては、デジタルカメラおよびビデオカメラなどを用いることができる。また、付加情報Bの分離装置303としては、パソコンおよびスマートフォンなどを用いることができ、印刷物Cから付加情報Bを抽出できる構成であればよい。 The mobile terminal 301 can be configured using a smartphone, a tablet, a PC, a digital camera, a video camera, or a wearable terminal. Furthermore, the mobile terminal 301 is not limited to a configuration in which the image sensor 302 is built-in. For example, a configuration may be adopted in which the image sensor 302 is controlled by a device other than the mobile terminal 301 and the captured image is transmitted to the additional information separation device 303. As the image sensor 302, a digital camera, a video camera, or the like can be used. Further, as the additional information B separation device 303, a personal computer, a smartphone, etc. can be used, and any configuration that can extract the additional information B from the printed matter C is sufficient.

図4は、多重化エンコード処理を行う基本的なファームウェア構成を示したブロック図である。付属情報の取得部401は、画像情報Aを圧縮する際に使用された各種パラメータを取得する。その取得された各種パラメータは、復元部402で、圧縮された画像から画像情報を抽出するための処理に利用される。また、その取得された各種パラメータは、圧縮度を算出するための処理に利用される。例えば、入力画像は、文書情報をJPEGフォーマットで圧縮して得られた非可逆画像情報であり、記録媒体に記録される。非可逆画像情報には、圧縮する際に使用された量子化テーブルと画像情報サイズとが含まれている。取得された画像情報サイズ情報および量子化テーブルは、画像情報の復元部402に送られる。 FIG. 4 is a block diagram showing the basic firmware configuration for performing multiplex encoding processing. The attached information acquisition unit 401 acquires various parameters used when compressing the image information A. The obtained various parameters are used in the restoration unit 402 for processing to extract image information from the compressed image. Further, the obtained various parameters are used in processing for calculating the degree of compression. For example, the input image is irreversible image information obtained by compressing document information in a JPEG format, and is recorded on a recording medium. The irreversible image information includes the quantization table used during compression and the image information size. The acquired image information size information and quantization table are sent to the image information restoration unit 402.

画像情報の復元部402は、符号化された画像情報を復号化して、画像情報を抽出する。以下では、入力画像をJPEG画像として説明する。 The image information restoration unit 402 decodes the encoded image information and extracts the image information. In the following, the input image will be explained as a JPEG image.

ここで図5は、符号化された画像情報を復号化する画像復元処理を示したフローチャートである。以下、このフローチャートを用いて画像復元処理を説明する。図5の処理は、例えば、CPU202がROM203に記憶されたプログラムをRAM204に読み出して実行することにより実現される。ここでは、JPEG形式の画像がN個の8画素正方ブロック(8×8画素のブロック)に分割されているものとする。 Here, FIG. 5 is a flowchart showing image restoration processing for decoding encoded image information. The image restoration process will be explained below using this flowchart. The processing in FIG. 5 is realized, for example, by the CPU 202 reading a program stored in the ROM 203 into the RAM 204 and executing it. Here, it is assumed that a JPEG format image is divided into N 8-pixel square blocks (8×8 pixel blocks).

画像復元処理が開始されると、CPU202はS51でn=1として、CPU202はS52で、n番目のブロックをハフマン符号化する。ハフマン符号化は、頻度の高いデータに短いビット数の符号を割当てることによって、全体のビット数を減らすように圧縮する方法である。ハフマン復号化は、予めハフマン符号を仕様で定義しておいて元のデータに復号化する。その後、CPU202はS53で、量子化テーブルを用いて逆量子化する、逆量子化では、付属情報取得部401によって取得された量子化テーブル(画像情報を圧縮する際に使用された量子化テーブル)を用いた逆量子化により画像情報に展開する。次に、CPU202はS54で、画像情報に展開したものを逆DCT変換する。逆DCT変換は、直流成分(DC成分)と交流成分(AC成分)にDCT変換された画像情報を元の画像濃度成分のデータに戻すための逆変換を行う。 When the image restoration process is started, the CPU 202 sets n=1 in S51, and performs Huffman encoding on the nth block in S52. Huffman encoding is a compression method that reduces the overall number of bits by assigning a code with a short number of bits to frequently occurring data. In Huffman decoding, a Huffman code is defined in advance in specifications and then decoded into original data. After that, in S53, the CPU 202 performs dequantization using the quantization table. In the dequantization, the quantization table (quantization table used when compressing the image information) acquired by the attached information acquisition unit 401 It is developed into image information by inverse quantization using . Next, in S54, the CPU 202 performs inverse DCT transformation on the expanded image information. In the inverse DCT transformation, image information that has been DCT-converted into a direct current component (DC component) and an alternating current component (AC component) is inverse transformed to return it to the original image density component data.

そして、CPU202はS55でn=n+1として、CPU202はS56で、N=nであるか否かを判定し否判定であればS52に戻り処理を繰り返す。このようにして、上記の処理を対象画面のN個の全ブロックについて実行する。 Then, in S55, the CPU 202 sets n=n+1, and in S56, the CPU 202 determines whether N=n, and if it is not determined, returns to S52 and repeats the process. In this way, the above processing is executed for all N blocks of the target screen.

JPEG圧縮は、輝度Y、色差Cb、Cr形式で実施されることが多く、その場合、逆DCT処理が施されたデータもYCbCrの形式になる。下式1により、YCbCr形式の値をRGB形式の画像信号値に変換する。
式1:
R = Y + 1.402×Cr
G = Y - 0.344×Cb - 0.714×Cr
B = Y + 1.772×Cb
JPEG compression is often performed in a luminance Y, color difference Cb, Cr format, and in that case, data subjected to inverse DCT processing also becomes a YCbCr format. A value in YCbCr format is converted into an image signal value in RGB format using Equation 1 below.
Formula 1:
R = Y + 1.402×Cr
G = Y - 0.344 x Cb - 0.714 x Cr
B = Y + 1.772×Cb

図4のブロック図に戻り、画像補正部403は、画像情報復元部402により複合化されたRGBデータに対し、画像の補正処理を施す。画像の補正としては、全体の色を明るくまたは暗くする明度調整、コントラスト調整、およびカラーバランスの調整の他、写真の記録を想定した逆光補正および赤目補正などの様々な補正が挙げられる。これらの補正を画像補正部403において一元的に処理することにより、記録装置に依存しない処理を実現することができる。 Returning to the block diagram of FIG. 4, the image correction unit 403 performs image correction processing on the RGB data composited by the image information restoration unit 402. Image corrections include brightness adjustment, contrast adjustment, and color balance adjustment to brighten or darken the overall color, as well as various corrections such as backlight correction and red-eye correction for photographic recording. By processing these corrections in an integrated manner in the image correction unit 403, it is possible to realize processing that does not depend on the recording device.

解像度変換部404は、画像情報を記録装置に対応する解像度に変換する。入力される画像情報と、記録装置の解像度と、に応じて導き出された変倍量に基づいて、拡大または縮小の処理を施す。変倍処理としては、ニアレストネイバー、バイリニア、バイキュービック法などが存在し、処理の特性、および処理速度を考慮して適宜選択すればよい。 A resolution conversion unit 404 converts the image information to a resolution compatible with the recording device. Enlargement or reduction processing is performed based on the amount of magnification derived according to the input image information and the resolution of the recording device. As the scaling process, nearest neighbor, bilinear, bicubic, etc. exist, and may be selected as appropriate in consideration of processing characteristics and processing speed.

色補正部405は、記録装置103による記録画像が好適な色となるように、画像情報に変換処理を施す。例えば、表示装置に表示された画像を記録する場合、表示装置と記録装置とにおける色再現範囲は必ずしも一致しない。ある色では記録装置の再現範囲の方が狭く、また、別の色では記録装置の再現範囲の方が広い場合がある。そのため、画像の劣化を最小限にして、適宜、色の圧縮および伸長を行う必要がある。 The color correction unit 405 performs conversion processing on the image information so that the image recorded by the recording device 103 has a suitable color. For example, when recording an image displayed on a display device, the color reproduction ranges of the display device and the recording device do not necessarily match. The reproduction range of a recording device may be narrower for a certain color, and the reproduction range of the recording device may be wider for another color. Therefore, it is necessary to compress and expand colors as appropriate while minimizing image deterioration.

本実施形態では、それらの変換処理をRGB形式で実施する。つまり、記録装置103の再現性を考慮して、色補正部405に入力されたRGB値を記録装置用のRGB値(以下、「記録装置用RGB」ともいう)に変換する。この変換は、マトリクスなどの演算によって行うことも可能である。一般的には、3次元の色補正テーブル411が利用される。入力されるRGB値を各色8ビット(256階調)とした場合、全ての組み合わせを保持することは記憶容量の観点から現実的でないため、色補正テーブル411として、所定の間隔で間引かれたテーブルを用いる。 In this embodiment, these conversion processes are performed in RGB format. That is, in consideration of the reproducibility of the printing apparatus 103, the RGB values input to the color correction unit 405 are converted into RGB values for the printing apparatus (hereinafter also referred to as "RGB for printing apparatus"). This conversion can also be performed by calculations such as a matrix. Generally, a three-dimensional color correction table 411 is used. When input RGB values are 8 bits for each color (256 gradations), it is not practical to retain all combinations from the viewpoint of storage capacity, so the color correction table 411 is thinned out at predetermined intervals. Use a table.

ここで図6は、色補正テーブル411を示した図であり、図7は、四面体補間のイメージ図である。本実施形態の色補正テーブル411は、各色256階調を17点のグリッド点とし、それに対応する記録装置用RGB値を記載したテーブルである(17*17*17=4913グリッド点)。グリッド点間の値は、補間処理を利用して算出する。補間方法は、幾つかの方法の中から選択して利用することができ、本実施形態においては四面体補間法を利用した。四面体補間法とは、3次元空間の分割単位を四面体として、4つの格子点を用いる線形補間である。この四面体補間法においては、まず、図7(a)のように3次元空間を四面体に分割してから、ターゲットとなる点pが、分割された四面体のうちのいずれに属するかを決定する。その四面体の4頂点をそれぞれp0、p1、p2、p3とし、図7(b)のように、その四面体をさらに細かい小四面体に分割する。各点の変換値をそれぞれf(p0)、f(p1)、f(p2)、f(p3)とした場合、下式2により補間値f(p)を求めることができる。 Here, FIG. 6 is a diagram showing the color correction table 411, and FIG. 7 is an image diagram of tetrahedral interpolation. The color correction table 411 of this embodiment is a table in which each color has 256 gradations as 17 grid points, and the corresponding RGB values for the printing device are described (17*17*17=4913 grid points). Values between grid points are calculated using interpolation processing. The interpolation method can be selected from among several methods, and in this embodiment, the tetrahedral interpolation method was used. The tetrahedral interpolation method is linear interpolation using four lattice points, with a tetrahedron as the division unit of the three-dimensional space. In this tetrahedral interpolation method, the three-dimensional space is first divided into tetrahedrons as shown in Fig. 7(a), and then it is determined to which of the divided tetrahedrons the target point p belongs. decide. The four vertices of the tetrahedron are designated as p0, p1, p2, and p3, respectively, and the tetrahedron is further divided into smaller small tetrahedrons as shown in FIG. 7(b). If the converted values of each point are respectively f(p0), f(p1), f(p2), and f(p3), then the interpolated value f(p) can be obtained using the following equation 2.

Figure 0007438752000001
Figure 0007438752000001

ここで、w0、w1、w2、w3は、各頂点piと反対向位置における小四面体の体積比である。このように、対象となるRGB値に対応した記録装置用RGB値を算出する。その場合、階調性を考慮して、出力を8ビット以上としてもよい。また、色補正テーブルは、記録装置の色再現範囲にも依存するため、例えば、記録に使用する記録用紙(記録媒体)が異なる場合は、それに応じたテーブルを準備することが望ましい。 Here, w0, w1, w2, and w3 are the volume ratios of the small tetrahedrons at positions opposite to each vertex pi. In this way, the RGB values for the recording device corresponding to the target RGB values are calculated. In that case, the output may be set to 8 bits or more in consideration of gradation. Further, since the color correction table also depends on the color reproduction range of the recording device, for example, if the recording paper (recording medium) used for recording is different, it is desirable to prepare a table corresponding to that.

図4のブロック図に戻り、インク色変換部406は、色補正部405によって変換された記録装置用RGB値をインク色の値に変換する。この変換には、記録装置用RGB値の組み合わせと、インク色の値と、が予め対応付けられた色分解テーブル412を用いる。色補正部405と同様に、インク色変換部406においてもグリッド点17のテーブルを利用する。 Returning to the block diagram of FIG. 4, the ink color conversion unit 406 converts the recording device RGB values converted by the color correction unit 405 into ink color values. This conversion uses a color separation table 412 in which combinations of RGB values for the printing device and ink color values are associated in advance. Similar to the color correction unit 405, the ink color conversion unit 406 also uses the table of grid points 17.

ここで図8は、色分解テーブル412の一例を示した図である。本実施形態の色分解テーブル412では、インク色として、シアン(C)、マゼンタ(M)、イエロー(Y)、ブラック(K)の4色を想定し、各グリッド点に対応した4色の値が収められている。これらの値は、記録用紙の記録面上においてインクが溢れないこと、インク同士が隣接した際に滲まないこと、などを考慮して決定される。そのため、記録に使用する記録用紙が異なる場合は、それに応じた色分解テーブル412を準備することが望ましい。また、上述の色補正部405と同様に、記録装置用RGB値に対応するインク色の値は、四面体補間処理によって補間することができる。 Here, FIG. 8 is a diagram showing an example of the color separation table 412. In the color separation table 412 of this embodiment, four colors of cyan (C), magenta (M), yellow (Y), and black (K) are assumed as ink colors, and four color values corresponding to each grid point are assumed. is included. These values are determined by taking into consideration that the ink will not overflow on the recording surface of the recording paper and that the ink will not bleed when adjacent to each other. Therefore, if the recording paper used for recording is different, it is desirable to prepare a color separation table 412 corresponding to the recording paper. Further, similarly to the color correction unit 405 described above, the ink color values corresponding to the RGB values for the printing apparatus can be interpolated by tetrahedral interpolation processing.

図4のブロック図に戻り、濃度補正部407は、画像の記録濃度を補正する。一般的にインクジェット記録装置では、記録用紙上にドットを形成するために付与されるインクの量が多くなるにしたがって、ドットの重なりが増加し、画像の記録濃度が上昇しにくくなる。濃度補正部407は、このような濃度の応答性を均一にするために濃度を補正する。 Returning to the block diagram of FIG. 4, the density correction unit 407 corrects the recording density of the image. Generally, in an inkjet recording apparatus, as the amount of ink applied to form dots on recording paper increases, the overlap of the dots increases, making it difficult to increase the recording density of an image. The density correction unit 407 corrects the density in order to make such density responsiveness uniform.

濃度補正により、色補正テーブル411および色分解テーブル412の作成を高精度に行うことができる。C(シアン)、M(マゼンタ)、Y(イエロー)、K(ブラック)のインクを用いる記録装置においては、それらのインク色について濃度補正を行う。本実施形態おいては、1次元の濃度補正テーブル413を用いる。そのテーブルとしては、インク色毎の入力8ビット(256階調)に対応したテーブルを用意しておけばよく、特に間引くことなく、入力信号値と補正後の出力信号値とを対応付けたテーブルを用いることができる。 By density correction, the color correction table 411 and color separation table 412 can be created with high precision. In a recording apparatus that uses C (cyan), M (magenta), Y (yellow), and K (black) inks, density correction is performed for these ink colors. In this embodiment, a one-dimensional density correction table 413 is used. As for the table, it is sufficient to prepare a table corresponding to 8 bits of input (256 gradations) for each ink color, and a table that associates the input signal value with the corrected output signal value without any thinning. can be used.

階調変換部408は、インク色毎に変換されて濃度補正が施された多ビットデータを、記録装置において記録可能な階調数に変換する。本実施形態においては、記録「1」/非記録「0」の2階調(1ビット)に変換し、階調の変換方法としては、画像の低周波成分を排除して、視覚に好適な階調の再現が可能な誤差拡散法を用いる。また、入力信号として、0~255の8ビットのデータを想定する。 The gradation conversion unit 408 converts the multi-bit data, which has been converted for each ink color and subjected to density correction, into the number of gradations that can be printed by the printing apparatus. In this embodiment, the conversion is performed into two gradations (1 bit): recording "1"/non-recording "0". An error diffusion method is used that can reproduce gradations. Furthermore, 8-bit data from 0 to 255 is assumed as the input signal.

ここで図9は、誤差拡散法における誤差分配方法を説明する図である。ターゲットピクセルの信号値を信号値Lとし、しきい値THとして、信号値Lとしきい値THとを比較する。本実施形態においては、0~255を2値化するためにしきい値THを127とし、下記のように、そのターゲットピクセルが「1」(記録)または「0」(非記録)のいずれであるかを判定する。
L>TH ・・・・・・ 1(記録)
L≦TH ・・・・・・ 0(非記録)
FIG. 9 is a diagram illustrating an error distribution method in the error diffusion method. The signal value of the target pixel is defined as the signal value L, the threshold value TH is defined as the signal value L, and the threshold value TH is compared. In this embodiment, in order to binarize 0 to 255, the threshold value TH is set to 127, and as shown below, the target pixel is either "1" (recorded) or "0" (non-recorded). Determine whether
L>TH ・・・・・・ 1 (record)
L≦TH ・・・・・・ 0 (non-recording)

この判定結果に応じて、量子化代表値Vを下記のように設定する。
1(記録) ・・・・・・ 255
0(非記録) ・・・・・・ 0
According to this determination result, the quantization representative value V is set as follows.
1 (record) 255
0 (non-recording) ・・・・・・ 0

このように量子化代表値Vを設定することにより、発生する誤差E(=L-V)は、図9の分配係数にしたがって周囲のピクセルに分配される。 By setting the quantization representative value V in this way, the generated error E (=LV) is distributed to surrounding pixels according to the distribution coefficient shown in FIG.

次のターゲットピクセルの信号値Lに、分配された誤差Eaを加算した値Laと、しきい値THと、を比較し、下記のように、そのターゲットピクセルが「1」(記録)または「0」(非記録)のいずれであるかを判定する。
La>TH ・・・・・・ 1(記録)
La≦TH ・・・・・・ 0(非記録)
The value La obtained by adding the distributed error Ea to the signal value L of the next target pixel is compared with the threshold value TH, and it is determined whether the target pixel is "1" (recorded) or "0" as shown below. ” (non-recording).
La>TH ・・・・・・ 1 (record)
La≦TH ・・・・・・ 0 (non-recording)

このような処理を全てのピクセル、および全てのインク色C、M、Y、Kに対して実行することにより、記録可能な1ビットのインク色毎の記録データが得られる。 By performing such processing for all pixels and all ink colors C, M, Y, and K, printable 1-bit print data for each ink color is obtained.

図4のブロック図に戻り、付加情報409は、図1(a)の多重化装置102もしくは図1(b)多重化部105において、画像情報Aに埋め込まれる付加情報Bであり、テキスト文書情報などである。テキスト文書情報は、例えば、既に公知である文字コードを利用して、数字および文字を数値に割り当てた数値情報であり、この数値情報が付加情報409として多重化部410に送信される。 Returning to the block diagram of FIG. 4, additional information 409 is additional information B embedded in image information A in the multiplexing device 102 of FIG. 1(a) or the multiplexing unit 105 of FIG. etc. The text document information is, for example, numerical information in which numbers and letters are assigned to numerical values using already known character codes, and this numerical information is transmitted to the multiplexing unit 410 as additional information 409.

具体例として、「hello」という文字に対応するテキスト文書情報について説明する。テキスト文書情報は、数値情報いわゆるバイナリデータとする。バイナリデータとは「0」もしくは「1」の情報であり、この「0」もしくは「1」の情報の連続的なつながりが特定の意味を持つ。バイナリデータと文字との対応は、「文字コード」によって定義されている。文字コードの中の1つである「シフトJIS」の場合、「h」はバイナリデータの「01101000」に対応する。 As a specific example, text document information corresponding to the characters "hello" will be explained. The text document information is assumed to be numerical information, so-called binary data. Binary data is information of ``0'' or ``1'', and the continuous connection of this ``0'' or ``1'' information has a specific meaning. The correspondence between binary data and characters is defined by a "character code." In the case of "Shift JIS", which is one of the character codes, "h" corresponds to binary data "01101000".

同様に、「e」は「01100101」、「l」は「01101100」、「o」は「01101111」のバイナリデータに対応する。したがって、「hello」という文字はバイナリデータでは、「0110100001100101011011000110110001101111」と表現できる。逆に、「0110100001100101011011000110110001101111」というバイナリデータを取得できれば、「hello」という文字を取得することができる。付加情報409は、このようなバイナリデータに変換された数値情報に対応する。 Similarly, "e" corresponds to the binary data "01100101," "l" corresponds to "01101100," and "o" corresponds to the binary data "01101111." Therefore, the character "hello" can be expressed as "0110100001100101011011000110110001101111" in binary data. Conversely, if the binary data "0110100001100101011011000110110001101111" can be obtained, the characters "hello" can be obtained. Additional information 409 corresponds to such numerical information converted into binary data.

付加情報多重化部410は、解像度変換部404において変換された画像情報と、付加情報409と、を受け取り、画像情報に付加情報409を埋め込む。この埋め込み処理(多重化処理)においては、付加情報409(「0」、「1」のバイナリデータに変換されたテキスト文書など)が埋め込まれた画像情報の記録画像から、その付加情報409が読み取れるように、付加情報409を画像情報に埋め込む。例えば、付加情報409の「0」,「1」のバイナリデータが読み取れるように、画像情報にマスク処理を施して、バイナリデータに対応する「0」,「1」の情報を埋め込む。 Additional information multiplexing section 410 receives the image information converted by resolution converting section 404 and additional information 409, and embeds additional information 409 into the image information. In this embedding process (multiplexing process), the additional information 409 (such as a text document converted into binary data of "0" and "1") can be read from the recorded image of the image information in which the additional information 409 is embedded. The additional information 409 is embedded in the image information as shown in FIG. For example, so that the binary data of "0" and "1" of the additional information 409 can be read, the image information is masked and the information of "0" and "1" corresponding to the binary data is embedded.

ここで図10(a),(b)は、「0」、「1」のバイナリデータに対応するマスクデータを示した図である。画像データにマスク処理を施すことにより、所定領域の画像情報に、「0」,「1」のバイナリデータに対応する異なる周期性を持たせる。これらのマスクデータを使用する付加情報多重化部410における処理の詳細については後述する。 Here, FIGS. 10A and 10B are diagrams showing mask data corresponding to binary data of "0" and "1". By performing mask processing on the image data, image information in a predetermined area is given different periodicity corresponding to binary data of "0" and "1". Details of the processing in additional information multiplexing section 410 that uses these mask data will be described later.

図11は、多重化エンコード処理を示すフローチャートである。以下、このフローチャートを用いて多重化エンコード処理を説明する。図11の処理は、例えば、CPU202がROM203に記憶されたプログラムをRAM204に読み出して実行することにより実現される。多重化エンコード処理が開始されると、CPU202はS11で、付属情報取得部401および画像情報復元部402によって、記録用の画像情報Aを取得する。例えば、画像情報Aは、モバイル端末301により予め撮影して、JPEGフォーマットでモバイル端末内のメモリに保存されたデータである。取得したJPEGの画像情報Aを解凍し、静止画の3色8ビットのRGBの画像情報を生成する。また、必要に応じて、画像補正部403によって、取得した画像情報Aに補正もしくは加工処理を施す。 FIG. 11 is a flowchart showing multiplex encoding processing. The multiplex encoding process will be explained below using this flowchart. The processing in FIG. 11 is realized, for example, by the CPU 202 reading a program stored in the ROM 203 into the RAM 204 and executing it. When the multiplex encoding process is started, the CPU 202 acquires image information A for recording using the attached information acquisition unit 401 and the image information restoration unit 402 in S11. For example, image information A is data that has been photographed in advance by the mobile terminal 301 and stored in the memory within the mobile terminal in JPEG format. The acquired JPEG image information A is decompressed to generate three-color, 8-bit RGB image information of a still image. Further, the image correction unit 403 performs correction or processing on the acquired image information A, if necessary.

その後、CPU202はS12で、画像情報Aに埋め込む付加情報409を取得する。例えば、スマートフォンでキー入力されたテキスト文書情報を取得する。テキスト文書情報は、例えば、公知の文字コードシフトJISを利用して、数字および文字を数値に割り当てた数値情報とする。その数値情報は、付加情報409として多重化部410に送信される。そして、CPU202はS13で、任意に選択された記録媒体のサイズおよび記録装置103の解像度に基づいて、取得した画像情報Aに対して解像度変換処理を施す。例えば、選択された記録媒体のサイズを2Lとした場合、記録装置103における入力解像度の画素数に合わせて、画像情報Aの解像度を変換する。 After that, the CPU 202 acquires additional information 409 to be embedded in the image information A in S12. For example, obtain text document information keyed on a smartphone. The text document information is, for example, numerical information in which numbers and characters are assigned to numerical values using the well-known character code shift JIS. The numerical information is transmitted to multiplexing section 410 as additional information 409. Then, in S13, the CPU 202 performs resolution conversion processing on the acquired image information A based on the arbitrarily selected size of the recording medium and the resolution of the recording device 103. For example, when the size of the selected recording medium is 2L, the resolution of the image information A is converted in accordance with the number of pixels of the input resolution in the recording device 103.

具体的には、記録装置103における入力解像度を600dpi(dot per inch)とした場合、記録媒体のサイズ2Lの画素数を3000画素×4000画素に設定する。この場合、画素数が1500画素×2000画素の画像情報Aに対しては、縦方向および横方向の画素数がそれぞれ2倍となるように解像度変換を行う。入力画像のアスペクト比を変更させたくない場合に、縦方向および横方向の拡大および縮小率を同じにして解像度変換を行う。その後、CPU202はS14で、付加情報の多重化部410によって、画像情報Aに付加情報409を埋め込むための付加情報多重化処理を行って処理を終了する。 Specifically, when the input resolution of the recording device 103 is 600 dpi (dots per inch), the number of pixels of the recording medium size 2L is set to 3000 pixels x 4000 pixels. In this case, for image information A having a pixel count of 1500 pixels x 2000 pixels, resolution conversion is performed so that the number of pixels in the vertical direction and horizontal direction is doubled. When it is not desired to change the aspect ratio of an input image, resolution conversion is performed with the same enlargement and reduction ratios in the vertical and horizontal directions. Thereafter, in S14, the CPU 202 uses the additional information multiplexing unit 410 to perform additional information multiplexing processing for embedding the additional information 409 in the image information A, and ends the process.

図12は、本実施形態における多重化部410のファームウェア構成を示したブロック図である。以下、多重化部410における各処理部について説明する。 FIG. 12 is a block diagram showing the firmware configuration of the multiplexing section 410 in this embodiment. Each processing unit in the multiplexing unit 410 will be explained below.

色空間変換部1201は、解像度変換部404においてサイズが変更された画像情報の色空間を、情報多重化のための色空間に変換する処理部である。例えば、下式3のように、情報多重化を行う色空間を色空間YUVのUとし、画像情報のRGBの色空間をYUVの色空間に変換する。
式3:
Y = 0.299×R + 0.587×G + 0.114×B
U =-0.169×R - 0.331×G + 0.500×B
V = 0.500×R - 0.419×G - 0.081×B
The color space conversion unit 1201 is a processing unit that converts the color space of the image information whose size has been changed by the resolution conversion unit 404 into a color space for information multiplexing. For example, as shown in Equation 3 below, the color space in which information is multiplexed is the color space U of YUV, and the RGB color space of image information is converted to the YUV color space.
Formula 3:
Y = 0.299 x R + 0.587 x G + 0.114 x B
U = -0.169 x R - 0.331 x G + 0.500 x B
V = 0.500 x R - 0.419 x G - 0.081 x B

ブロック位置設定部1202では、後述するブロックの位置座標を設定する。本実施形態では、画像情報を複数のブロック領域に分け、ブロック単位で各画素の濃度を変調させて、図10(a),(b)のマスクデータに対応するパターンを形成させることにより、付加情報409を埋め込む。そのため、ブロック位置設定部1202では、色空間変換後の画像情報を取得し、指定された色のプレーン画像に対して、指定された1つのブロックのサイズに合わせて、ブロックの位置座標を設定する。例えば、色空間YUVのU色のプレーン画像のサイズを縦幅640px、横幅480pxとし、ブロックサイズを縦幅8px、横幅8pxとする。この場合、縦ブロック数は80(=640÷8)、横ブロック数は60(=480÷8)、合計のブロック数は4800(=80×60)となる。例えば、各ブロックの左上座標をブロック位置と定めて設定することができる。 The block position setting unit 1202 sets position coordinates of blocks, which will be described later. In this embodiment, image information is divided into a plurality of block areas, and the density of each pixel is modulated in block units to form a pattern corresponding to the mask data in FIGS. 10(a) and 10(b). Embed information 409. Therefore, the block position setting unit 1202 acquires the image information after color space conversion, and sets the block position coordinates for the plain image of the specified color according to the size of one specified block. . For example, the size of a U color plain image in the YUV color space is 640 px in height and 480 px in width, and the block size is 8 px in height and 8 px in width. In this case, the number of vertical blocks is 80 (=640÷8), the number of horizontal blocks is 60 (=480÷8), and the total number of blocks is 4800 (=80×60). For example, the upper left coordinates of each block can be set as the block position.

数値化部1203は、受信した付加情報409を数値化したデータに変換する。例えば、付加情報409をシフトJISの文字列とする。この場合には、シフトJISの形式によって文字と数値とが対応付けられた変換マップを予め保持しておき、その変換マップを用いて文字列を数値列に変換する。例えば、文字列「hello」の場合、変換後の数値列「0110100001100101011011000110110001101111」となる。 The digitization unit 1203 converts the received additional information 409 into digitized data. For example, the additional information 409 is a Shift JIS character string. In this case, a conversion map in which characters and numbers are associated in accordance with the Shift JIS format is stored in advance, and the conversion map is used to convert the character string into a numerical value string. For example, in the case of the character string "hello", the converted numerical string becomes "0110100001100101011011000110110001101111".

パターン選択部1204には、ブロック単位で各画素の濃度変調を行うためのマスクパターンが登録されており、数値化部1203によって数値化された付加情報409に対して適用すべきマスクパターンを選択する。 The pattern selection unit 1204 has registered mask patterns for performing density modulation of each pixel in block units, and selects a mask pattern to be applied to the additional information 409 digitized by the digitization unit 1203. .

ここで図13(a),(b)は、周波数特性が異なる図10(a),(b)のマスクパターンを数値化した図である。前述したように、図10(a)および図13(a)のマスクパターンは、付加情報409のバイナリデータの「0」に対応し、図10(b)および図13(b)のパターンは、付加情報409のバイナリデータの「1」に対応する。図10(a),(b)の黒の領域901が図13(a),(b)の「2」に対応する。同様に白の領域902が「0」に対応し、斜線の領域903が「-1」に対応する。 Here, FIGS. 13(a) and 13(b) are diagrams in which the mask patterns of FIGS. 10(a) and 10(b) having different frequency characteristics are digitized. As mentioned above, the mask patterns in FIGS. 10(a) and 13(a) correspond to the binary data "0" of the additional information 409, and the patterns in FIGS. 10(b) and 13(b) correspond to This corresponds to “1” in the binary data of the additional information 409. The black area 901 in FIGS. 10(a) and 10(b) corresponds to "2" in FIGS. 13(a) and 13(b). Similarly, a white area 902 corresponds to "0", and a diagonally shaded area 903 corresponds to "-1".

情報多重化部1205は、色空間変換部1201において色空間変換した画像情報と、ブロック位置設定部1202において設定された各ブロックの位置と、パターン選択部1204において選択されたマスクパターンとを取得する。情報多重化部1205は、これらの取得情報から、画像情報にマスクパターンを適用した画像情報を生成する。 The information multiplexing unit 1205 acquires the image information subjected to color space conversion in the color space conversion unit 1201, the position of each block set in the block position setting unit 1202, and the mask pattern selected in the pattern selection unit 1204. . The information multiplexing unit 1205 generates image information by applying a mask pattern to the image information from these acquired information.

印刷物Cの記録画像を撮影する際に、必ずしも画像全体を撮影できるとは限らない。そのため、印刷物Cの記録画像の一部を撮影だけでも付加情報が抽出できるように、同じ付加情報を記録画像中の複数個所に埋め込む。例えば、80ブロックを1つの付加情報とした場合、全ブロック数4800に対して、同じ付加情報を60(=4800÷80)領域に分けて埋め込む。したがって画像情報は60の領域に分けられ、それらのうちの1つの領域に対して、縦幅8px、横幅8pxを1ブロックとした80ブロックの付加情報が埋め込まれる。80ブロックを1つの付加情報として取り扱うことにより、80ビットの付加情報が設定できる。但し、80ビットの開始位置が分かるように、シフトJISにおいては文字として表現されていない「11111111」の8ビットを付加情報の先頭に含ませる。したがって、72(=80-8)ビットのデータが付加情報となる。 When photographing a recorded image of printed matter C, it is not always possible to photograph the entire image. Therefore, the same additional information is embedded in multiple locations in the recorded image so that the additional information can be extracted by just photographing a portion of the recorded image of the printed matter C. For example, when 80 blocks are used as one additional information, the same additional information is divided into 60 (=4800÷80) areas and embedded for the total number of blocks, 4800. Therefore, the image information is divided into 60 areas, and 80 blocks of additional information, each block having a vertical width of 8 px and a width of 8 px, are embedded in one of these areas. By treating 80 blocks as one piece of additional information, 80 bits of additional information can be set. However, in order to know the starting position of the 80 bits, the 8 bits of "11111111", which are not expressed as characters in Shift JIS, are included at the beginning of the additional information. Therefore, 72 (=80-8) bits of data becomes additional information.

80ビット内に収まるデータは、数値化部1203において数値化された付加情報の「0」,「1」の数値列であり、8px×8pxの1ブロック毎に数値が定義され、その数値に対応するマスクパターンが選択される。画像情報における8px×8pxのブロックに、付加情報に対応するマスクパターンが埋め込まれる。例えば、画像データをYUVのU色プレーンとし、それを1ブロック毎に処理し、そのYUVのU色プレーンの値に図12(a),(b)のマスクパターンの値を適用する。例えば、下記のように、それらのマスクパターンの数値に応じてYUVのU色プレーンの値(U値)を加減算処理し、その加減算処理を行う基準値を10とする。
式4:
適用後のU値 = YUVのU値 + 基準値 × マスクパターンの数値
The data that fits within 80 bits is a numeric string of "0" and "1" of additional information digitized by the digitization unit 1203. A numeric value is defined for each block of 8px x 8px, and a value corresponding to the numeric value is defined for each block of 8px x 8px. A mask pattern is selected. A mask pattern corresponding to the additional information is embedded in an 8px×8px block of image information. For example, the image data is a YUV U color plane, which is processed block by block, and the values of the mask patterns shown in FIGS. 12(a) and 12(b) are applied to the values of the YUV U color plane. For example, as shown below, the values of the YUV U color plane (U value) are added and subtracted according to the numerical values of these mask patterns, and the reference value for the addition and subtraction processing is set to 10.
Formula 4:
U value after application = YUV U value + reference value × mask pattern value

例えば、1ブロック内の1画素のU値が「20」であり、適用するマスクパターンの数値が「0」である場合には、下式5のようにU値が処理される。
式5:
適用後のU値 = 20 + 10 × 0 = 20
For example, if the U value of one pixel in one block is "20" and the numerical value of the applied mask pattern is "0", the U value is processed as shown in equation 5 below.
Formula 5:
U value after application = 20 + 10 × 0 = 20

また、1ブロック内の1画素のU値が「30」であり、適用するマスクパターンの数値が「2」の場合には、下式6のようにU値が処理される。
式6:
適用後のU値 = 30 + 10 × 2 = 50
Further, when the U value of one pixel in one block is "30" and the numerical value of the applied mask pattern is "2", the U value is processed as shown in Equation 6 below.
Formula 6:
U value after application = 30 + 10 × 2 = 50

このように本実施形態においては、画素毎に適用するマスクパターンの数値と、基準値と、を掛け合わせた値を加算することによって、多重化を実現する。マスクパターンの適用方法は、U色プレーン上に、マスクパターンを埋め込むことができればよく、本実施形態の方法に限定されず、例えば、YUVのU値に、マスクパターンの数値を掛け合わせてもよい。 In this manner, in this embodiment, multiplexing is achieved by adding the value obtained by multiplying the numerical value of the mask pattern applied to each pixel by the reference value. The method for applying the mask pattern is not limited to the method of this embodiment as long as the mask pattern can be embedded on the U color plane, and for example, the U value of YUV may be multiplied by the numerical value of the mask pattern. .

このような多重化エンコード処理は、図1(a)の付加情報多重化装置102または図1(b)の付加情報多重化部105によって実行される。多重化エンコード処理は、記録装置103によって処理されてもよく、記録装置103によって処理されなくてもよい。多重化装置102もしくは多重化部105において生成された多重化エンコード処理後の画像情報は、記録装置103もしくは記録部106に送信される。 Such multiplex encoding processing is executed by the additional information multiplexing device 102 in FIG. 1(a) or the additional information multiplexing unit 105 in FIG. 1(b). The multiplex encoding process may or may not be processed by the recording device 103. The multiplexed encoded image information generated in the multiplexing device 102 or the multiplexing unit 105 is transmitted to the recording device 103 or the recording unit 106.

図14は、多重化エンコード処理後の画像情報の記録処理を示したフローチャートである。図14の処理は、例えば、記録装置が備えるCPUがROMに記憶されたプログラムをRAMに読み出して実行することにより実現される。以下、このフローチャートを用いて多重化エンコード処理後の画像情報の記録処理を説明する。 FIG. 14 is a flowchart showing image information recording processing after multiplex encoding processing. The process in FIG. 14 is realized, for example, by a CPU included in the recording device reading a program stored in a ROM into a RAM and executing it. Hereinafter, the recording process of image information after the multiplex encoding process will be explained using this flowchart.

多重化エンコード処理後の画像情報の記録処理が開始されると、CPUはS31で、付加情報多重化部410において付加情報409が埋め込まれた画像情報(多重化画像データ)を取得する。次にCPUはS32で、色補正部405によって、多重化画像データに適宜、色補正を施す。次にCPUはS33で、インク色変換部406、濃度補正部407、階調変換部408において、色補正後の画像情報をインク色の値に変換してから濃度を補正し、その濃度補正後の画像情報を階調数に変換することにより記録データを生成する。生成された記録データは、記録エンジンに送信される。そして、CPUはS34で記録エンジンを制御することで、記録データに基づいて各色のインクを記録媒体に付与することにより印刷物Cを生成する。 When the recording process of the image information after the multiplex encoding process is started, the CPU acquires image information (multiplexed image data) in which the additional information 409 is embedded in the additional information multiplexing unit 410 in S31. Next, in S32, the CPU performs appropriate color correction on the multiplexed image data using the color correction unit 405. Next, in S33, the CPU converts the image information after color correction into an ink color value in the ink color conversion unit 406, density correction unit 407, and gradation conversion unit 408, and then corrects the density. Recording data is generated by converting the image information into the number of gradations. The generated recording data is sent to the recording engine. Then, in S34, the CPU controls the recording engine to generate printed matter C by applying ink of each color to the recording medium based on the recording data.

以下、多重化デコード処理部と多重化デコード処理について説明する。
図15(a)は、本実施形態における多重化デコード処理の基本ファームウェアのブロック構成を示す図であり、図15(b)は、多重化エンコード処理された印刷物をカメラ付きのモバイル端末301で撮影するイメージを示した図である。多重化デコード処理によって印刷物に埋め込まれている付加情報を抽出する。以下、多重化デコード処理部の詳細について説明する。
The multiplexing decoding processing section and multiplexing decoding processing will be explained below.
FIG. 15(a) is a diagram showing a block configuration of basic firmware for multiplex decoding processing in this embodiment, and FIG. 15(b) shows a photograph of a printed matter subjected to multiplex encoding processing using a mobile terminal 301 equipped with a camera. FIG. Additional information embedded in printed matter is extracted through multiplex decoding processing. The details of the multiplex decoding processing section will be explained below.

撮像センサ302は、撮像部1501と色調整部1502とを含む。付加情報分離装置303は、多重化位置検出部1503、付加情報分離部1504、抽出データ解析部1505を含む。本実施形態では、テキスト文書データや音声データや動画データなどの数値化された付加情報のデータが、印刷物1411上にパターン形状として付加されているものとする。例えば、付加情報は、印刷物C全体に、同じ情報を領域毎に繰り返し付加されている。撮像部1501は、多重化エンコード処理された印刷物Cを、撮像センサ302内の撮像素子で、撮像画像データに変換する。 The imaging sensor 302 includes an imaging section 1501 and a color adjustment section 1502. The additional information separation device 303 includes a multiplexing position detection section 1503, an additional information separation section 1504, and an extracted data analysis section 1505. In this embodiment, it is assumed that digitized additional information data such as text document data, audio data, and video data is added as a pattern onto the printed material 1411. For example, the same information is repeatedly added to each region of the entire printed matter C as the additional information. The imaging unit 1501 converts the multiplexed and encoded printed matter C into captured image data using an imaging element within the imaging sensor 302 .

撮像センサ302が備える撮像素子であるCCDについては、既に公知の技術なので、詳細な説明は省略する。概略を説明すると、CCDは、光をフォトダイオードという受光素子が感知して、光を電圧に変化させることが可能である。その際に、素子毎に配置したRGBやCMYなどのカラーフィルタを通すことにより、光を色のデータとして変換させることができる。撮像部1501で撮影されたセンサ値は、色調整部1502に送られる。 The CCD, which is the image sensor included in the image sensor 302, is already a well-known technology, so a detailed explanation will be omitted. Briefly, in a CCD, a light receiving element called a photodiode senses light and can convert the light into voltage. At this time, the light can be converted into color data by passing it through color filters such as RGB and CMY arranged for each element. Sensor values captured by the imaging unit 1501 are sent to a color adjustment unit 1502.

色調整部1502は、撮像部1501においてフォトダイオードで取り出したセンサ値に対し、例えば、1画素YUV、8ビットデータとして、画像データに変換する。また、ホワイトバランスや明るさ調整など、通常撮影時に実行される色調整処理も併せて行う。 The color adjustment unit 1502 converts the sensor value taken out by the photodiode in the imaging unit 1501 into image data, for example, as 1-pixel YUV, 8-bit data. It also performs color adjustment processing that is normally performed during shooting, such as white balance and brightness adjustment.

多重化位置検出部1503は、多重化した印刷物が撮影され色調整された画像データを取得する。多重化位置検出部1503は、取得した画像データに対して、周波数特性を取得する。多重化位置検出部1503は、取得した周波数特性を判定することで、多重化されている位置を検出する。 The multiplexing position detection unit 1503 acquires image data obtained by photographing and color-adjusting multiplexed printed matter. The multiplexing position detection unit 1503 acquires frequency characteristics for the acquired image data. The multiplexing position detection unit 1503 detects the multiplexed position by determining the acquired frequency characteristics.

図16(a)は、二次元の周波数領域で周波数特性の差を示す概略図である。横軸は水平方向の周波数、縦軸は垂直方向の周波数を示している。中心となる原点は直流成分を示し、原点から遠ざかるにつれて、高周波域となる。本実施形態では、図13(a)、(b)のマスクパターンの切換えにより、多重化された印刷物のYUVのU成分の周波数特性が変わる。 FIG. 16(a) is a schematic diagram showing differences in frequency characteristics in a two-dimensional frequency domain. The horizontal axis shows the frequency in the horizontal direction, and the vertical axis shows the frequency in the vertical direction. The origin, which is the center, shows a DC component, and the further away from the origin, the higher the frequency becomes. In this embodiment, the frequency characteristics of the YUV U component of the multiplexed printed matter change by switching the mask patterns shown in FIGS. 13(a) and 13(b).

例えば、図13(a)によるU成分の特性の変化により、図16(a)の直線1601の周波数ベクトル上に大きなパワースペクトルが生じるとする。また、図13(b)によるU成分の特性の変化により、図16(a)の直線1602の周波数ベクトル上に大きなパワースペクトルが生じるとする。付加情報分離時には、この大きなパワースペクトルが発生する周波数ベクトルを検出することで多重化信号を判定することができる。 For example, suppose that a large power spectrum occurs on the frequency vector of the straight line 1601 in FIG. 16(a) due to the change in the characteristic of the U component shown in FIG. 13(a). Further, it is assumed that due to the change in the characteristic of the U component shown in FIG. 13(b), a large power spectrum occurs on the frequency vector of the straight line 1602 in FIG. 16(a). When separating additional information, the multiplexed signal can be determined by detecting the frequency vector where this large power spectrum occurs.

図13(a)、(b)は、特定の周波数ベクトルの方向性を有するHPF(ハイパスフィルタ)に相当する。図13(a)、(b)は、周波数ベクトル検出時の空間フィルタとしても用いられる。即ち、図13(a)の空間フィルタでは、直線1601上の周波数ベクトルを強調することが可能になり、また、図13(b)の空間フィルタでは、直線1602上の周波数ベクトルを強調することが可能になる。 13A and 13B correspond to an HPF (high pass filter) having a specific frequency vector directionality. FIGS. 13(a) and 13(b) are also used as spatial filters when detecting frequency vectors. That is, the spatial filter in FIG. 13(a) can emphasize the frequency vector on the straight line 1601, and the spatial filter in FIG. 13(b) can emphasize the frequency vector on the straight line 1602. It becomes possible.

例えば、今、図13(a)のマスクパターンにより、図16(a)の直線1601の周波数ベクトル上に大きなパワースペクトルが発生したとする。その場合、図13(a)の空間フィルタではパワースペクトルの変化量が増幅するが、図13(b)の空間フィルタでは、ほとんど増幅されない。即ち、複数の空間フィルタを並列にフィルタリングすると、周波数ベクトルが一致した空間フィルタ時のみ増幅し、それ以外のフィルタでは増幅がほとんど生じない。従って、いかなる周波数ベクトル上に大きなパワースペクトルが発生しているかを容易に判定することができる。 For example, suppose that a large power spectrum is generated on the frequency vector of straight line 1601 in FIG. 16(a) due to the mask pattern in FIG. 13(a). In that case, the spatial filter of FIG. 13(a) amplifies the amount of change in the power spectrum, but the spatial filter of FIG. 13(b) hardly amplifies it. That is, when a plurality of spatial filters are filtered in parallel, amplification occurs only when the spatial filters have matching frequency vectors, and almost no amplification occurs when using other filters. Therefore, it is possible to easily determine on which frequency vector a large power spectrum occurs.

また、今回YUVのU成分において周波数特性を変化させて多重化された印刷物の付加情報分離時にU成分により周波数ベクトルを検出したが、U成分が失われてしまうと付加情報が分離できないことになる。U成分ではなく他のY成分やV成分に特性が移った場合、Y成分やV成分で周波数特性を判定すると付加情報を分離することができるが、U成分のみ解析するよりも時間がかかってしまう。 In addition, this time, we changed the frequency characteristics of the U component of YUV and detected a frequency vector using the U component when separating additional information from multiplexed printed matter, but if the U component is lost, the additional information cannot be separated. . If the characteristics shift to other Y or V components instead of the U component, additional information can be separated by determining the frequency characteristics using the Y or V components, but it takes more time than analyzing only the U component. Put it away.

上記のように、周波数特性の判定を行うことで、データを抽出することが可能となる。しかしながら、周波数特性を判定する際に、抽出すべき位置がずれていると、正しく抽出しにくくなってしまう。 As described above, by determining the frequency characteristics, data can be extracted. However, when determining frequency characteristics, if the position to be extracted is shifted, it becomes difficult to extract correctly.

図17は、周波数特性を判定する際の検出位置を説明するための図である。画像1701は、印刷物の4つのブロックにおいて多重化されている画像を示す。領域1702、1703は、ブロック単位で周波数特性を判定する領域を示す。図17において、領域1702は、多重化されているブロックの位置とずれていることを示す。領域1703は、多重化されているブロックの位置と合っていることを示す。この場合、領域1703は、予め決めた周波数を正しく特定することが可能だが、領域1702は、特定の周波数ベクトルのパワースペクトルが下がってしまうので、予め決めた周波数の特定が困難になる。 FIG. 17 is a diagram for explaining detection positions when determining frequency characteristics. Image 1701 shows an image that is multiplexed in four blocks of printed matter. Areas 1702 and 1703 indicate areas where frequency characteristics are determined on a block-by-block basis. In FIG. 17, a region 1702 indicates that the position of the multiplexed block is shifted. Area 1703 indicates that it matches the position of the block being multiplexed. In this case, in the region 1703, it is possible to correctly identify a predetermined frequency, but in the region 1702, the power spectrum of a specific frequency vector decreases, making it difficult to identify the predetermined frequency.

多重化位置検出部1503は、特定の周波数ベクトルのパワースペクトルが強いか弱いかに基づいてブロック位置を検出する。そこで、多重化位置検出部1503は、取得した撮像後の画像データに対し、ブロック位置をずらしながら周波数特性の判定を行い、多重化されたブロックの位置を検出する。 The multiplexing position detection unit 1503 detects the block position based on whether the power spectrum of a specific frequency vector is strong or weak. Therefore, the multiplexing position detection unit 1503 determines the frequency characteristics of the acquired image data after shifting the block position, and detects the position of the multiplexed block.

付加情報分離部1504は、多重化位置検出部1503で検出した位置を基準とし、周波数特性を判定した結果を利用して、多重化されている付加情報を抽出する。 The additional information separation unit 1504 uses the position detected by the multiplexing position detection unit 1503 as a reference and the result of determining the frequency characteristics to extract the multiplexed additional information.

図16(b)は、記録媒体にブロック毎に多重化されている様子を示す図である。同図において、記録媒体1603は、印刷用紙を示し、ブロック1604は、多重化されるブロックを示す。多重化されているブロック数が横8ブロック、縦12ブロック、計96ブロックとする。図16(b)において、ブロック毎に、多重化エンコード処理で、付加情報の「0」と「1」が埋め込まれているものとする。 FIG. 16(b) is a diagram showing how each block is multiplexed on a recording medium. In the figure, a recording medium 1603 indicates a printing paper, and a block 1604 indicates a block to be multiplexed. It is assumed that the number of multiplexed blocks is 8 blocks horizontally and 12 blocks vertically, a total of 96 blocks. In FIG. 16(b), it is assumed that additional information "0" and "1" are embedded in each block by multiplex encoding processing.

例えば、図16(a)の、直線1601の周波数ベクトルのパワースペクトルがある閾値を超えていれば、データ「0」と判定される。また、直線1602上の周波数ベクトルのパワースペクトルがある閾値を超えていれば、データ「1」と判定される。多重化位置検出部1503で検出した位置を基準に、ブロック単位で、96ブロック分、位置をずらしながら、周波数特性の判定が行われる。この場合、1ブロック毎に、「0」「1」の1ビットを判定できるので、合計96ビットのデータを抽出することができる。このように、位置をずらしながら周波数特性の判定を行うことで、多重化されたデータを抽出することができる。 For example, if the power spectrum of the frequency vector of the straight line 1601 in FIG. 16(a) exceeds a certain threshold, it is determined that the data is "0". Furthermore, if the power spectrum of the frequency vector on the straight line 1602 exceeds a certain threshold, it is determined that the data is "1". Based on the position detected by the multiplexing position detection unit 1503, the frequency characteristics are determined while shifting the position by 96 blocks in block units. In this case, since one bit of "0" or "1" can be determined for each block, a total of 96 bits of data can be extracted. In this way, multiplexed data can be extracted by determining the frequency characteristics while shifting the position.

抽出データ解析部1505は、付加情報分離部1504で付加情報として分離した数値列に対して、データを解析し、元々埋め込んだ付加情報の形式に変換する処理である。例えば、予め多重化する付加情報を、テキスト文書データとして、文字コードを「シフトJIS」で数値化した値であるとする。 The extracted data analysis unit 1505 analyzes the numerical string separated as additional information by the additional information separation unit 1504, and converts the data into the format of the additional information originally embedded. For example, it is assumed that the additional information to be multiplexed in advance is text document data, which is a value obtained by converting a character code into a numerical value using "Shift JIS".

シフトJISの1バイトコード(半角文字)では、上位4ビットと下位4ビットの組み合わせで、数値及び文字に対応した変換を行える。例えば、上位4ビットが「0100」で、下位4ビットが「0001」の場合、文字列として、「A」と判定される。このように、変換マップを予め保持しておき、数値列を対応させることで、文字へと変換することができる。 In the Shift JIS 1-byte code (half-width characters), conversion corresponding to numerical values and characters can be performed using a combination of the upper 4 bits and lower 4 bits. For example, if the upper 4 bits are "0100" and the lower 4 bits are "0001", the character string is determined to be "A". In this way, by storing a conversion map in advance and associating numerical strings, it is possible to convert to characters.

付加情報として分離した数値列は、図3のRAM306に、一時的に保持しておき、2次記憶装置307に予め保持していた「シフトJIS」変換マップを参照可能なようにしておく。 The separated numerical value string as additional information is temporarily held in the RAM 306 in FIG. 3 so that it can refer to the "shift JIS" conversion map previously held in the secondary storage device 307.

例えば、付加情報分離部1504で分離した付加情報の数値列が、「0110100001100101011011000110110001101111」とする。この場合、変換マップに対応させると以下のようになる。上位4ビット「0110」、下位4ビット「1000」で、文字「h」となる。上位4ビット「0110」、下位4ビット「0101」で、文字「e」となる。上位4ビット「0110」、下位4ビット「1100」で、文字「l」となる。上位4ビット「0110」、下位4ビット「1100」で、文字「l」となる。上位4ビット「0110」、下位4ビット「1111」で、文字「o」となる。従って、文字列として、「hello」が抽出される。 For example, assume that the numerical string of additional information separated by the additional information separation unit 1504 is "0110100001100101011011000110110001101111." In this case, the correspondence to the conversion map is as follows. The upper 4 bits "0110" and the lower 4 bits "1000" form the character "h". The upper 4 bits "0110" and the lower 4 bits "0101" form the character "e." The upper 4 bits "0110" and the lower 4 bits "1100" form the character "l". The upper 4 bits "0110" and the lower 4 bits "1100" form the character "l". The upper 4 bits "0110" and the lower 4 bits "1111" form the character "o". Therefore, "hello" is extracted as a character string.

付加情報を抽出すると、例えば抽出された文字列を図3のディスプレイ308で表示する。また、抽出された文字列がURL(Uniform Resource Locator)である場合、無線LAN310でネットワークに接続し、ブラウザを利用して、ディスプレイ308にURL先の画面を表示する。また、そのURLが動画サイトであった場合、ディスプレイ308で動画を表示し、スピーカー311で、音声を出力する。 When the additional information is extracted, the extracted character string is displayed on the display 308 in FIG. 3, for example. Further, if the extracted character string is a URL (Uniform Resource Locator), it connects to the network via the wireless LAN 310 and displays the URL destination screen on the display 308 using a browser. Further, if the URL is a video site, the display 308 displays the video, and the speaker 311 outputs audio.

図18は、本実施形態における多重化デコード処理を示すフローチャートである。図18の処理は、例えば、モバイル端末301のCPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。 FIG. 18 is a flowchart showing multiplex decoding processing in this embodiment. The process in FIG. 18 is realized, for example, by the CPU 304 of the mobile terminal 301 reading a program stored in the ROM 305 into the RAM 306 and executing it.

S1801では、CPU304は、撮像センサ302により、多重化された印刷物Cの撮影を行う。撮像センサ302は、撮影された光が色データ値に変換されたセンサ値を、色調整部1502に送信する。S1801の処理は、図15(a)の撮像部1501の撮像センサによる撮影画像を取得する処理に対応する。 In S1801, the CPU 304 uses the image sensor 302 to photograph the multiplexed printed matter C. The image sensor 302 transmits a sensor value obtained by converting the photographed light into a color data value to the color adjustment unit 1502. The process in S1801 corresponds to the process of acquiring an image captured by the image sensor of the image capturing unit 1501 in FIG. 15(a).

S1802では、CPU304は、取得した撮影画像の色調整を行う。色調整部1502は、撮像部1501から色データ値を受信し、ホワイトバランス調整を行い、ホワイトバランス調整された色データを画像データとして生成する。色調整部1502は、生成した画像データを付加情報分離装置303へ送信する。もしくは、生成した画像データは、図3の2次記憶装置307に保存される。S1802の処理は、図15(a)の色調整部1502による、ホワイトバランスの色調整を行った画像を生成する処理に対応する。 In S1802, the CPU 304 performs color adjustment of the acquired captured image. A color adjustment unit 1502 receives color data values from the imaging unit 1501, performs white balance adjustment, and generates white balance adjusted color data as image data. The color adjustment unit 1502 transmits the generated image data to the additional information separation device 303. Alternatively, the generated image data is stored in the secondary storage device 307 in FIG. The process of S1802 corresponds to the process of generating an image in which the color adjustment of white balance has been performed by the color adjustment unit 1502 in FIG. 15(a).

S1803では、CPU304は、色調整部1502からホワイトバランス後の画像データを受信し、もしくは、図3の2次記憶装置307に保存された画像データを取得する。多重化位置検出部1503は、取得した画像データに対して、周波数特性の判定を行い、多重化されている位置を検出する。S1803の処理は、図15(a)の多重化位置検出部1503による、画像データから多重化されている基準位置を検出する処理に対応する。 In S1803, the CPU 304 receives image data after white balance from the color adjustment unit 1502, or obtains image data stored in the secondary storage device 307 in FIG. The multiplexing position detection unit 1503 determines the frequency characteristics of the acquired image data and detects the multiplexed position. The process of S1803 corresponds to the process of detecting the multiplexed reference position from the image data by the multiplexing position detection unit 1503 in FIG. 15(a).

S1804では、CPU304は、多重化位置検出部1503により、画像データから、多重化されている基準位置を検出できたか否かを判定する。検出できたと判定された場合、S1805へ進み、検出できなかったと判定された場合、S1801に戻り処理を繰り返す。 In S1804, the CPU 304 determines whether the multiplexed position detection unit 1503 has been able to detect the multiplexed reference position from the image data. If it is determined that the detection was successful, the process advances to S1805; if it is determined that the detection was not possible, the process returns to S1801 and repeats the process.

S1805では、CPU304は、色調整部1502で生成された画像データと、多重化位置検出部1503で検出した多重化されている基準位置に基づいて、周波数特性を判定した結果を用いて、多重化されている付加情報を数値データとして抽出する。S1805の処理は、図15(a)の付加情報分離部1504による、画像データから付加情報を抽出する処理に対応する。付加情報分離部1504は、抽出した数値データを図15(a)の抽出データ解析部1505へ送信する。もしくは、付加情報分離部1504は、図3のRAM306に一時的に保存し、抽出データ解析部1505へ、その旨を通知する。 In S1805, the CPU 304 performs multiplexing using the result of determining the frequency characteristics based on the image data generated by the color adjustment unit 1502 and the multiplexed reference position detected by the multiplexing position detection unit 1503. Extract the additional information that is displayed as numerical data. The process in S1805 corresponds to the process of extracting additional information from image data by the additional information separation unit 1504 in FIG. 15(a). Additional information separation unit 1504 transmits the extracted numerical data to extracted data analysis unit 1505 in FIG. 15(a). Alternatively, the additional information separation unit 1504 temporarily stores it in the RAM 306 in FIG. 3 and notifies the extracted data analysis unit 1505 of this.

S1806では、CPU304は、図15(a)の抽出データ解析部1505により、分離した付加情報に相当する数値データを取得し、数字データを解析し、文字データなどの付加情報に変換する。S1806の処理は、図15(a)の抽出データ解析部1505による、付加情報を抽出する処理に対応する。 In S1806, the CPU 304 uses the extracted data analysis unit 1505 in FIG. 15A to acquire numerical data corresponding to the separated additional information, analyzes the numerical data, and converts it into additional information such as character data. The process of S1806 corresponds to the process of extracting additional information by the extracted data analysis unit 1505 in FIG. 15(a).

S1807では、CPU304は、図15(a)の抽出データ解析部1505で抽出した付加情報の取得を完了したか否かを判定する。付加情報の取得を完了したと判定した場合、図18の多重化デコード処理を終了し、取得を完了していないと判定した場合、S1801の処理を繰り返す。 In S1807, the CPU 304 determines whether acquisition of the additional information extracted by the extracted data analysis unit 1505 in FIG. 15(a) has been completed. If it is determined that the acquisition of the additional information has been completed, the multiplex decoding process of FIG. 18 is terminated, and if it is determined that the acquisition is not completed, the process of S1801 is repeated.

多重化された印刷物から付加情報を抽出できた場合、図3のディスプレイ308などに、結果を表示したり、ネットワークにアクセスしたりする。多重化された印刷物から付加情報を抽出できなかった場合、例えば、撮影された画像データが、付加情報を抽出するだけの領域を全て含んでいない場合が考えられる。その場合、付加情報の一部しか抽出できなかったためにデータが完全ではなく、再度、撮影し直す必要がある。 If additional information can be extracted from the multiplexed printed matter, the result is displayed on the display 308 in FIG. 3 or accessed the network. If additional information cannot be extracted from the multiplexed printed matter, for example, there may be a case where the photographed image data does not include all the area from which additional information can be extracted. In that case, since only part of the additional information could be extracted, the data is not complete and it is necessary to take the image again.

以下、本実施形態の特徴的な構成について説明する。
図19(a)は、付加情報が埋め込まれている画像を抽出するモバイル端末201を示した図であり、図19(b)は、モバイル端末301による付加情報の抽出処理を示したフローチャートである。本実施形態では付加情報として、例えば「http://www.XXX.XX.XX/」のようなURLの一部と、例えば「180219」のような日付閾値情報と、を画像から抽出する。なお、「180219」は、2018年2月19日を示すものとする。また、抽出した付加情報に加えて、ユーザが付加情報を抽出した日時の日時情報をモバイル端末301の時計316から取得する。以下、図19(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図19(b)の処理は、例えば、モバイル端末301のCPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
The characteristic configuration of this embodiment will be described below.
FIG. 19(a) is a diagram showing the mobile terminal 201 extracting an image in which additional information is embedded, and FIG. 19(b) is a flowchart showing additional information extraction processing by the mobile terminal 301. . In this embodiment, as additional information, a part of the URL such as "http://www.XXX.XX.XX/" and date threshold information such as "180219" are extracted from the image. Note that "180219" indicates February 19, 2018. In addition to the extracted additional information, date and time information on the date and time when the user extracted the additional information is acquired from the clock 316 of the mobile terminal 301. The additional information extraction process of this embodiment will be described below using the flowchart of FIG. 19(b). The process in FIG. 19(b) is realized, for example, by the CPU 304 of the mobile terminal 301 reading a program stored in the ROM 305 into the RAM 306 and executing it.

付加情報の抽出処理が開始されると、CPU304はS1901で、撮像センサ302によって印刷物を撮影して、印刷物に埋め込まれた付加情報を取得する。ここではモバイル端末301は、印刷物からURLの一部と日付閾値情報とを取得する。その後、CPU304はS1902で、時計316から日時情報を取得する。そして、CPU304はS1903で、取得した付加情報と日時情報とからURLを作成する。 When the additional information extraction process is started, in step S1901, the CPU 304 photographs a printed matter using the image sensor 302 to obtain additional information embedded in the printed matter. Here, the mobile terminal 301 acquires a part of the URL and date threshold information from the printed material. Thereafter, the CPU 304 acquires date and time information from the clock 316 in S1902. Then, in step S1903, the CPU 304 creates a URL from the acquired additional information and date and time information.

具体的には、付加情報に含まれる日付閾値情報と、モバイル端末301から取得した日時情報とを比較して、日時情報の日付が日付閾値情報の日付の前か後かで、作成するURLを異ならせる。例えば、印刷物を撮影した日付である日時情報の日付が「2018年2月17日」だった場合、日付閾値情報「180219」が示す2018年2月19日より前であるため、合成するURLとして「http://www.XXX.XX.XX/before/」を作成する。また、日時情報の日付が「2018年2月20日」だった場合、日付閾値情報「180219」が示す2018年2月19日より後であるため、合成するURLとして「http://www.XXX.XX.XX/after/」を作成する。 Specifically, the date threshold information included in the additional information is compared with the date and time information acquired from the mobile terminal 301, and the URL to be created is determined depending on whether the date in the date and time information is before or after the date in the date threshold information. Make it different. For example, if the date and time information, which is the date when the printed matter was photographed, is "February 17, 2018," this is before February 19, 2018, which is indicated by the date threshold information "180219," so the URL to be combined is Create "http://www.XXX.XX.XX/before/". Also, if the date and time information is "February 20, 2018," this is after February 19, 2018, which is indicated by the date threshold information "180219," so the URL to be synthesized is "http://www. Create “XXX.XX.XX/after/”.

日付閾値情報と取得した日時情報の日付とが同じであった場合は、「http://www.XXX.XX.XX/before/」か「http://www.XXX.XX.XX/after/」のいずれか一方のURLとなるように予め設定しておき、その設定に基づいていずれかのURLに決定される。その後、CPU304はS1904で、作成したURLにアクセスし、URL先のコンテンツをモバイル端末301に表示して処理を終了する。このように、本実施形態では取得した日時情報に応じて、その後の処理の内容を切り替えることができる。 If the date of the date threshold information and the acquired date and time information are the same, either "http://www.XXX.XX.XX/before/" or "http://www.XXX.XX.XX/after /'' is set in advance to be one of the URLs, and one of the URLs is determined based on the settings. Thereafter, in step S1904, the CPU 304 accesses the created URL, displays the content at the URL destination on the mobile terminal 301, and ends the process. In this manner, in this embodiment, the content of subsequent processing can be switched depending on the acquired date and time information.

本実施形態が想定するケースとしては、結婚式の招待状に付加情報を埋め込んでおき、結婚式の前には招待者からのメッセージ動画を表示し、結婚式の後には結婚式動画を表示するケースが考えられる。 The case assumed in this embodiment is to embed additional information in a wedding invitation, display a message video from the invitee before the wedding, and display the wedding video after the wedding. A case is possible.

なお、本実施形態では日付について閾値を設けた例を説明したが、これに限定するものでなく、日付と時間とで閾値を設け、日時情報として日付と時間とを取得してもよい。 In this embodiment, an example in which a threshold value is set for the date has been described, but the present invention is not limited to this, and a threshold value may be set for the date and time, and the date and time may be acquired as the date and time information.

また、本実施形態においては付加情報と日時情報とをモバイル端末301の中で合成したが、付加情報と日時情報とをサーバに送りサーバ内で処理の内容を切り替えて、URLを作成してモバイル端末に送信し、そのURLをモバイル端末301が受信してもよい。 Further, in this embodiment, the additional information and the date and time information are combined in the mobile terminal 301, but the additional information and the date and time information are sent to the server, the processing content is switched within the server, and a URL is created and the mobile The URL may be transmitted to the terminal, and the mobile terminal 301 may receive the URL.

このように、本実施形態のモバイル端末は、撮像した画像より付加情報を取得し、更に、撮像の際の状況に関する撮像状況情報を取得して、その付加情報と撮像状況情報とに基づいて処理を行う。これによって、画像から付加情報を読み取り、ユーザが画像を読み取った日時や場所などの状況に応じた処理を実行することができる情報処理装置、情報処理方法およびプログラムを実現することができる。 In this way, the mobile terminal of this embodiment acquires additional information from a captured image, further acquires imaging situation information regarding the situation at the time of imaging, and performs processing based on the additional information and imaging situation information. I do. Thereby, it is possible to realize an information processing device, an information processing method, and a program that can read additional information from an image and execute processing according to the situation such as the date and time and place when the user read the image.

(第2の実施形態)
以下、図面を参照して本発明の第2の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
(Second embodiment)
A second embodiment of the present invention will be described below with reference to the drawings. Note that since the basic configuration of this embodiment is the same as that of the first embodiment, the characteristic configuration will be described below.

図20(a)は、モバイル端末301で付加情報が埋め込まれている画像を抽出するイメージを示した図であり、図20(b)は、付加情報の抽出処理を示したフローチャートである。本実施形態では付加情報として目的地のGPS情報(所定場所の位置を示すGPS情報)を取得する。また、抽出した付加情報に加えてモバイル端末301のGPS314より、現在のモバイル端末301の位置を示すGPS情報を取得する。以下、図20(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図20(b)の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。 FIG. 20(a) is a diagram showing an image of extracting an image in which additional information is embedded using the mobile terminal 301, and FIG. 20(b) is a flowchart showing additional information extraction processing. In this embodiment, GPS information of the destination (GPS information indicating the position of a predetermined place) is acquired as additional information. Furthermore, in addition to the extracted additional information, GPS information indicating the current position of the mobile terminal 301 is acquired from the GPS 314 of the mobile terminal 301 . The additional information extraction process of this embodiment will be described below using the flowchart of FIG. 20(b). The process in FIG. 20(b) is realized, for example, by the CPU 304 reading a program stored in the ROM 305 into the RAM 306 and executing it.

付加情報の抽出処理が開始されると、CPU304はS2001で、モバイル端末301によって印刷物を撮影して、印刷物に埋め込まれた付加情報を取得する。ここではモバイル端末301は、目的地のGPS情報を取得する。その後、CPU304はS2002で、モバイル端末301のGPS314よりより現在のモバイル端末301位置を示すGPS情報を取得する。そして、CPU304はS2003で、付加情報とGPS情報とから目的地と現在地との経路を算出する。経路を計算する方法はインターネット上にある地図サービスを利用する。モバイル端末301を所持しているユーザが移動し、現在地のGPS情報が変わった場合、地図上に表示される経路も変わる。その後、CPU304はS3004で、モバイル端末301のディスプレイ308に算出した経路を表示して処理を終了する。 When the additional information extraction process is started, in step S2001, the CPU 304 photographs a printed matter using the mobile terminal 301 and acquires additional information embedded in the printed matter. Here, the mobile terminal 301 acquires GPS information of the destination. Thereafter, in S2002, the CPU 304 acquires GPS information indicating the current position of the mobile terminal 301 from the GPS 314 of the mobile terminal 301. Then, in S2003, the CPU 304 calculates a route between the destination and the current location from the additional information and the GPS information. The route is calculated using a map service available on the Internet. When the user who owns the mobile terminal 301 moves and the GPS information of the current location changes, the route displayed on the map also changes. Thereafter, in step S3004, the CPU 304 displays the calculated route on the display 308 of the mobile terminal 301, and ends the process.

本実施形態が想定するケースとしては、コンサートチケット2011に付加情報を埋め込んでおくケースを想定している。モバイル端末301で付加情報と、現在地のGPS情報とを取得し、現在地からコンサート会場までの経路を表示することで、ユーザがどこにいてもユーザの居る場所からコンサート会場へとユーザを案内することができる。 The present embodiment assumes a case in which additional information is embedded in the concert ticket 2011. By acquiring additional information and GPS information of the current location on the mobile terminal 301 and displaying the route from the current location to the concert venue, it is possible to guide the user from the user's location to the concert venue no matter where the user is. can.

なお、目的地のGPS情報と現在地のGPS情報とをインターネット上の経路探索サービスに送信し、地図と経路とを受信して表示してもよい。 Note that the GPS information of the destination and the GPS information of the current location may be transmitted to a route search service on the Internet, and the map and route may be received and displayed.

(第3の実施形態)
以下、図面を参照して本発明の第3の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
(Third embodiment)
A third embodiment of the present invention will be described below with reference to the drawings. Note that since the basic configuration of this embodiment is the same as that of the first embodiment, the characteristic configuration will be described below.

図21(a)は、モバイル端末301で付加情報が埋め込まれている画像を抽出するイメージを示した図であり、図21(b)は、付加情報の抽出処理を示したフローチャートである。本実施形態では付加情報として商品の価格を取得する。また、抽出した付加情報に加えて、モバイル端末301からユーザの居住国情報を取得する。以下、図21(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図21(b)の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。 FIG. 21(a) is a diagram showing an image of extracting an image in which additional information is embedded using the mobile terminal 301, and FIG. 21(b) is a flowchart showing additional information extraction processing. In this embodiment, the price of the product is acquired as additional information. In addition to the extracted additional information, the user's country of residence information is also acquired from the mobile terminal 301. The additional information extraction process of this embodiment will be described below using the flowchart of FIG. 21(b). The process in FIG. 21(b) is realized, for example, by the CPU 304 reading a program stored in the ROM 305 into the RAM 306 and executing it.

付加情報の抽出処理が開始されると、CPU304はS2102で、モバイル端末301によって印刷物を撮影して、印刷物2111に埋め込まれた付加情報を取得する。ここではモバイル端末301は、商品の価格、例えば「$2」を取得する。その後、CPU304はS2102で、モバイル端末よりユーザの居住国情報を取得する。本実施形態では、ユーザの居住国情報はモバイル端末301の設定値を利用するが、GSP履歴やユーザ入力等他の方法を用いてもよい。また、居住国ではなく任意の国を選択してもよい。そして、CPU304はS2103で、取得した価格情報、例えば「$2」と、ユーザの居住国情報、例えば「日本」と、からインターネットの為替変換サービスを利用し、価格情報の価格を居住国の通貨に換算した価格を取得する。具体的には、取得した価格が「$2」であれば、為替レートが$1=100円だった場合、換算された価格情報は「200円」となる。S2104で変換された価格情報を表示して処理を終了する。 When the additional information extraction process is started, the CPU 304 photographs the printed matter with the mobile terminal 301 and acquires the additional information embedded in the printed matter 2111 in step S2102. Here, the mobile terminal 301 obtains the price of the product, for example "$2". Thereafter, in step S2102, the CPU 304 acquires the user's country of residence information from the mobile terminal. In this embodiment, the user's country of residence information uses the settings of the mobile terminal 301, but other methods such as GPS history or user input may also be used. Also, you may select any country instead of your country of residence. Then, in step S2103, the CPU 304 uses the Internet exchange conversion service from the acquired price information, for example "$2" and the user's country of residence information, for example "Japan", to convert the price of the price information into the currency of the country of residence. Get the price converted to . Specifically, if the acquired price is "$2" and the exchange rate is $1=100 yen, the converted price information will be "200 yen". The converted price information is displayed in S2104 and the process ends.

本実施形態が想定するケースとしては、商品のパッケージ2011に付加情報を埋め込むケースである。例えば、日本からアメリカに海外旅行中に、現地の商品の価格を現在の為替で日本円に換算した価格を知りたいケースを想定する。 The case assumed in this embodiment is a case where additional information is embedded in the package 2011 of a product. For example, assume that you are traveling overseas from Japan to the United States and want to know the price of a local product converted into Japanese yen at the current exchange rate.

なお、本実施形態では商品のパッケージから取得した商品の価格を居住国の価格に変換したが、これに限定するものではない。例えば領収書や見積書、決算書など価格情報が必要とされているものであれば、本発明を適用可能である。 Note that in this embodiment, the price of the product obtained from the package of the product is converted to the price of the country of residence, but the present invention is not limited to this. For example, the present invention can be applied to any item that requires price information, such as a receipt, an estimate, or a financial statement.

(第4の実施形態)
以下、図面を参照して本発明の第4の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
(Fourth embodiment)
A fourth embodiment of the present invention will be described below with reference to the drawings. Note that since the basic configuration of this embodiment is the same as that of the first embodiment, the characteristic configuration will be described below.

図22(a)は、モバイル端末301で付加情報が埋め込まれている画像を抽出するイメージを示した図であり、図22(b)は、付加情報の抽出処理を示したフローチャートである。本実施形態では美術館の絵画2211の説明表示2212に付加情報としてURLを埋め込む。以下、図22(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図22(b)の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。 FIG. 22(a) is a diagram showing an image of extracting an image in which additional information is embedded by the mobile terminal 301, and FIG. 22(b) is a flowchart showing additional information extraction processing. In this embodiment, a URL is embedded as additional information in an explanation display 2212 of a painting 2211 in an art museum. The additional information extraction process of this embodiment will be described below using the flowchart of FIG. 22(b). The process in FIG. 22(b) is realized, for example, by the CPU 304 reading a program stored in the ROM 305 into the RAM 306 and executing it.

付加情報の抽出処理が開始されると、CPU304はS2201で、モバイル端末301によって説明表示2212を撮影して、説明表示2212に埋め込まれた付加情報を取得する。説明表示2212には絵画2211の簡単な説明が記載されており、説明表示2212をモバイル端末301で撮影することで、付加情報としてURLを取得する。複数の美術品の説明表示2212には、どれも同じURLが埋め込まれており、URL先には美術品が美術館のどの場所に掲示されているかを示す「レイアウト情報」と「各美術品の詳細な説明文」とが記載されている。 When the additional information extraction process is started, in step S2201, the CPU 304 photographs the explanation display 2212 using the mobile terminal 301, and acquires the additional information embedded in the explanation display 2212. An explanation display 2212 describes a simple explanation of the painting 2211, and by photographing the explanation display 2212 with the mobile terminal 301, a URL is obtained as additional information. The same URL is embedded in the description display 2212 of multiple works of art, and the URL destination contains "layout information" indicating where in the museum the work of art is displayed, and "details of each work of art". "Explanatory text" is written.

その後、CPU304はS2202で、モバイル端末301からGPS情報と端末向き情報とを取得する。GPS情報は、GPS314から取得し、このGPS情報によって美術館の中のユーザの位置を取得することができる。また、端末向き情報は、加速度計312とジャイロスコープ313とから取得し、この端末向き情報によってモバイル端末301の向きを取得することができる。CPU304はS2203で、URL先のレイアウト情報と、ユーザの位置と、モバイル端末301の向きと、から美術館内でユーザが見ている美術品を特定し、特定した美術品の詳細な説明文をモバイル端末301が取得する。その後、CPU304はS2204で、ユーザが見ている美術品の詳細な説明文をモバイル端末301に表示して処理を終了する。 After that, the CPU 304 acquires GPS information and terminal orientation information from the mobile terminal 301 in S2202. GPS information is obtained from the GPS 314, and the user's location within the museum can be obtained using this GPS information. Furthermore, terminal orientation information is obtained from the accelerometer 312 and gyroscope 313, and the orientation of the mobile terminal 301 can be obtained from this terminal orientation information. In step S2203, the CPU 304 identifies the art object that the user is looking at in the museum based on the layout information of the URL destination, the user's position, and the orientation of the mobile terminal 301, and sends a detailed description of the identified art object to the mobile device. The terminal 301 obtains the information. Thereafter, in step S2204, the CPU 304 displays a detailed explanation of the artwork that the user is viewing on the mobile terminal 301, and ends the process.

どの美術品にも同じ付加情報を埋め込んでおくことで、美術品のレイアウトや説明表示を変更しても、ユーザのモバイル端末301には、ユーザが見ている美術品の詳細な説明文が表示される。 By embedding the same additional information in every art object, even if the layout or explanation display of the art object is changed, the user's mobile terminal 301 will display a detailed explanation of the art object that the user is looking at. be done.

なお、本実施形態では美術館の例を示したが、同様に動物園や水族館などでも使用可能である。また、宝探しゲームに応用し物品とスマホとが所定の位置、所定の向きになった時だけ情報を取得できるようにしてもよい。また、加速度計212とジャイロスコープ213とを使用して、ユーザの歩数を測定し、ユーザの歩数に応じてコンテンツを切り替えてもよい。 In this embodiment, an example of an art museum is shown, but it can also be used in a zoo, an aquarium, or the like. Furthermore, the present invention may be applied to a treasure hunting game so that information can be acquired only when the article and the smartphone are in a predetermined position and in a predetermined orientation. Further, the number of steps taken by the user may be measured using the accelerometer 212 and the gyroscope 213, and the content may be switched according to the number of steps taken by the user.

また、本実施形態は、メガネタイプのウェアラブル端末に搭載されたカメラを用いることにより、より効果的に適用できる。例えば、美術館でメガネタイプのウェアラブル端末で見た方向の印刷物から付加情報を取得し、対応した情報を表示することができる。 Furthermore, this embodiment can be more effectively applied by using a camera mounted on a glasses-type wearable terminal. For example, it is possible to acquire additional information from a printed matter viewed from a glasses-type wearable terminal at an art museum and display the corresponding information.

(第5の実施形態)
以下、図面を参照して本発明の第5の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
(Fifth embodiment)
A fifth embodiment of the present invention will be described below with reference to the drawings. Note that since the basic configuration of this embodiment is the same as that of the first embodiment, the characteristic configuration will be described below.

図23(a)は、モバイル端末301で付加情報が埋め込まれている画像を抽出するイメージを示した図であり、図23(b)は、付加情報の抽出処理を示したフローチャートである。本実施形態では、印刷物2311には付加情報が埋め込まれており、モバイル端末301は、印刷物2311の撮影後のタッチ情報を取得する。以下、図23(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図23(b)の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。 FIG. 23(a) is a diagram showing an image of extracting an image in which additional information is embedded by the mobile terminal 301, and FIG. 23(b) is a flowchart showing additional information extraction processing. In this embodiment, additional information is embedded in the printed matter 2311, and the mobile terminal 301 acquires touch information after the printed matter 2311 is photographed. The additional information extraction process of this embodiment will be described below using the flowchart of FIG. 23(b). The process in FIG. 23(b) is realized, for example, by the CPU 304 reading a program stored in the ROM 305 into the RAM 306 and executing it.

付加情報の抽出処理が開始されると、CPU304はS2301で、モバイル端末301によって印刷物を撮影して、説明表示2311に埋め込まれた付加情報を取得する。その後、CPU304はS2302では、モバイル端末301のディスプレイ308からユーザがディスプレイ308に触れることに対応する情報であるタッチ情報を取得する。印刷物2311には押しボタンが記録されており、ユーザがモバイル端末301で印刷物2311を撮影し、モバイル端末301のディスプレイ308に表示された印刷物2311の押しボタンにユーザが触れることでモバイル端末301はタッチ情報を取得する。 When the additional information extraction process is started, the CPU 304 photographs the printed matter using the mobile terminal 301 and acquires the additional information embedded in the explanation display 2311 in step S2301. After that, in step S2302, the CPU 304 acquires touch information, which is information corresponding to the user touching the display 308, from the display 308 of the mobile terminal 301. A push button is recorded on the printed material 2311, and when the user photographs the printed material 2311 with the mobile terminal 301 and touches the push button of the printed material 2311 displayed on the display 308 of the mobile terminal 301, the mobile terminal 301 is touched. Get information.

CPU304はS2303では、モバイル端末301がタッチ情報を取得したか否かを判定する。タッチ情報を取得していれば、S2304に移行し、タッチ情報を取得していなければ処理を終了する。S2304に移行した場合は、CPU304はS2301で取得した付加情報をモバイル端末301のディスプレイ308に表示して処理を終了する。 In S2303, the CPU 304 determines whether the mobile terminal 301 has acquired touch information. If touch information has been acquired, the process moves to S2304, and if touch information has not been acquired, the process ends. If the process moves to S2304, the CPU 304 displays the additional information acquired in S2301 on the display 308 of the mobile terminal 301, and ends the process.

なお、付加情報は所定情報であり、どのような情報でもよく、例えば、印刷物は押しボタンが記録された商品の広告であり、撮影してディスプレイの押しボタン画像に触れることで、付加情報である商品の詳細情報が記載されたURLの画面をディスプレイに表示してもよい。このように、ユーザのタッチ動作に応じて付加情報を表示させることもできる。 Note that the additional information is predetermined information and may be any information.For example, printed matter is an advertisement for a product with a push button recorded, and by photographing and touching the push button image on the display, it is possible to obtain additional information. A URL screen containing detailed product information may be displayed on the display. In this way, additional information can be displayed in response to the user's touch action.

(第6の実施形態)
以下、図面を参照して本発明の第6の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
(Sixth embodiment)
A sixth embodiment of the present invention will be described below with reference to the drawings. Note that since the basic configuration of this embodiment is the same as that of the first embodiment, the characteristic configuration will be described below.

図24は、本実施形態における付加情報の抽出処理を示したフローチャートである。本実施形態では、印刷物には付加情報が埋め込まれており、モバイル端末301は、印刷物を撮影することで、情報α(閲覧情報)と、情報αの閲覧を許可されたユーザのユーザIDとが含まれた付加情報を取得する。モバイル端末には2つのカメラを搭載したものがあり、風景を撮影するためのモバイル端末の裏側に搭載されたカメラと、ユーザ自身を撮影するために表側に搭載されたカメラとがある。本実施形態では、モバイル端末301は、裏側のカメラによって付加情報を取得し、表側のカメラでユーザの顔を写すことで、顔認証情報を取得する。以下、図24のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図24の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。 FIG. 24 is a flowchart showing additional information extraction processing in this embodiment. In this embodiment, additional information is embedded in the printed material, and by photographing the printed material, the mobile terminal 301 can identify information α (viewing information) and the user ID of the user who is permitted to view the information α. Get the included additional information. Some mobile terminals are equipped with two cameras: a camera mounted on the back side of the mobile terminal for photographing the scenery, and a camera mounted on the front side for photographing the user himself/herself. In this embodiment, the mobile terminal 301 acquires additional information using a camera on the back side, and captures the user's face using a camera on the front side to obtain facial authentication information. The additional information extraction process of this embodiment will be described below using the flowchart of FIG. The processing in FIG. 24 is realized, for example, by the CPU 304 reading a program stored in the ROM 305 into the RAM 306 and executing it.

付加情報の抽出処理が開始されると、CPU304はS2401で、モバイル端末301によって印刷物を撮影して、印刷物に埋め込まれた付加情報を取得する。付加情報には情報αと、情報αの閲覧を許可されたユーザのユーザIDとが含まれている。その後、CPU304はS2402で、モバイル端末301でユーザを撮影して、顔認証情報を取得する。本実施形態では、1つ目のカメラ(撮像センサ202)で印刷物を撮影し、2つ目のカメラ(第二撮像センサ215)でユーザ自身を撮影するケースを想定する。顔認証情報は、第二撮像センサ215で取得した顔画像を用いて、特定のユーザを指し示すユーザIDを算出する。顔認証は多くの方法が提案されているが、ユーザが特定できればどの方法を用いてもよい。そして、CPU304はS2403で、顔認証で取得したユーザIDが、S2401で取得した情報αの閲覧を許可されたユーザのユーザIDと一致するか否かを判定する。一致していればS2404に移行して、一致していなければ処理を終了する。S2404に移行した場合、CPU304は、情報αのロックを解除して、S2402で情報αをモバイル端末301のディスプレイ308に表示する。 When the additional information extraction process is started, in step S2401, the CPU 304 photographs a printed matter using the mobile terminal 301 and acquires additional information embedded in the printed matter. The additional information includes information α and the user ID of the user who is permitted to view the information α. After that, in step S2402, the CPU 304 photographs the user with the mobile terminal 301 and acquires facial authentication information. In this embodiment, a case is assumed in which a first camera (image sensor 202) photographs a printed matter, and a second camera (second image sensor 215) photographs the user himself/herself. The face authentication information uses a face image acquired by the second image sensor 215 to calculate a user ID indicating a specific user. Although many methods have been proposed for face recognition, any method may be used as long as the user can be identified. Then, in step S2403, the CPU 304 determines whether the user ID obtained by face authentication matches the user ID of the user who is permitted to view the information α obtained in step S2401. If they match, the process moves to S2404; if they do not match, the process ends. When proceeding to S2404, the CPU 304 unlocks the information α and displays the information α on the display 308 of the mobile terminal 301 in S2402.

なお、本実施形態ではユーザの特定に顔認証を用いて情報αに対するロックの解除を行ったが、ユーザの特定は他の方法を用いてもよい。例えば、指紋認証機能を備えたモバイル端末で指紋認証を用いてユーザを特定してもよいし、音声認証機能を備えたモバイル端末で音声認証を用いてユーザを特定してもよい。 Note that in this embodiment, face authentication is used to identify the user to unlock the information α, but other methods may be used to identify the user. For example, a user may be identified using fingerprint authentication on a mobile terminal equipped with a fingerprint authentication function, or a user may be identified using voice authentication on a mobile terminal equipped with a voice authentication function.

102 付加情報多重化装置
103 記録装置
301 モバイル端末
304 CPU
308 ディスプレイ
102 Additional information multiplexing device 103 Recording device 301 Mobile terminal 304 CPU
308 Display

Claims (11)

像を撮像して撮像画像を取得する取得手段と、
前記撮像画像から、前記画像に電子透かしとして埋め込まれた付加情報を抽出する抽出手段と、
ユーザがタッチパネルに触れたことに対応するタッチ情報が取得された場合に、前記抽出手段で抽出された付加情報を前記タッチパネルに表示するように制御する制御手段と、
を有することを特徴とする情報処理装置
an acquisition means for capturing an image to obtain a captured image ;
Extracting means for extracting additional information embedded in the image as a digital watermark from the captured image;
a control unit configured to display additional information extracted by the extraction unit on the touch panel when touch information corresponding to the user touching the touch panel is acquired;
An information processing device comprising :
前記制御手段は、ユーザが前記タッチパネルの特定の位置に触れた場合に、前記抽出手段で抽出された付加情報を前記タッチパネルに表示するように制御することを特徴とする請求項1に記載の情報処理装置。 The information according to claim 1, wherein the control means controls the additional information extracted by the extraction means to be displayed on the touch panel when the user touches a specific position on the touch panel. Processing equipment. 前記制御手段は、ユーザが前記タッチパネルに表示された前記撮像画像の特定の部分に触れた場合に、前記抽出手段で抽出された付加情報を前記タッチパネルに表示するように制御することを特徴とする請求項1に記載の情報処理装置。 The control means controls the additional information extracted by the extraction means to be displayed on the touch panel when a user touches a specific part of the captured image displayed on the touch panel. The information processing device according to claim 1. 画像を撮像して撮像画像を取得する第1の取得手段と、
前記撮像画像から、前記画像に電子透かしとして埋め込まれた付加情報であって、閲覧情報と、前記閲覧情報の閲覧を許可されたユーザのIDである第1ユーザIDとを含む付加情報を抽出する抽出手段と、
前記画像を撮影したユーザのIDである第2ユーザIDを取得する第2の取得手段と、
前記第1ユーザIDと前記第2ユーザIDとが一致する場合に、前記抽出手段で抽出された付加情報に含まれる前記閲覧情報を表示するように制御する制御手段と、
を有することを特徴とする情報処理装置
a first acquisition means for capturing an image to obtain a captured image;
From the captured image, extract additional information that is embedded in the image as a digital watermark and includes viewing information and a first user ID that is an ID of a user who is permitted to view the viewing information. extraction means;
a second acquisition means for acquiring a second user ID that is the ID of the user who photographed the image;
a control means for controlling to display the viewing information included in the additional information extracted by the extraction means when the first user ID and the second user ID match;
An information processing device comprising :
前記第2ユーザIDは、顔認証によって得られることを特徴とする請求項に記載の情報処理装置 The information processing apparatus according to claim 4 , wherein the second user ID is obtained by face authentication. 前記第1の取得手段は、第1のカメラで撮像された前記撮像画像を取得し、 The first acquisition means acquires the captured image captured by a first camera,
前記第2の取得手段は、前記第1のカメラとは異なる第2のカメラによってユーザを撮影した撮影画像から顔認証によって前記第2ユーザIDを取得することを特徴とする請求項4に記載の情報処理装置。 5. The second acquisition means acquires the second user ID by face authentication from an image taken of the user by a second camera different from the first camera. Information processing device.
前記第2の取得手段は、前記情報処理装置が備える指紋認証機能を用いた指紋認証によって特定されたユーザ、あるいは前記情報処理装置が備える音声認証機能を用いた音声認証によって特定されたユーザのIDを前記第2ユーザIDとして取得することを特徴とする請求項4に記載の情報処理装置。 The second acquisition means is configured to obtain an ID of a user identified by fingerprint authentication using a fingerprint authentication function provided in the information processing device or by voice authentication using a voice authentication function provided in the information processing device. The information processing apparatus according to claim 4, wherein the information processing apparatus acquires the second user ID as the second user ID. コンピュータを、請求項1乃至7のいずれか1項に記載された情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the information processing apparatus according to claim 1. コンピュータを、請求項1乃至7のいずれか1項に記載された情報処理装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing a program for causing a computer to function as each means of the information processing apparatus according to claim 1. 画像を撮像して撮像画像を取得する取得ステップと、 an acquisition step of capturing an image to obtain a captured image;
前記撮像画像から、前記画像に電子透かしとして埋め込まれた付加情報を抽出する抽出ステップと、 an extraction step of extracting additional information embedded in the image as a digital watermark from the captured image;
ユーザがタッチパネルに触れたことに対応するタッチ情報が取得された場合に、前記抽出ステップで抽出した付加情報を前記タッチパネルに表示するように制御する制御ステップと、 a control step of controlling the additional information extracted in the extraction step to be displayed on the touch panel when touch information corresponding to the user touching the touch panel is acquired;
を有することを特徴とする情報処理装置の制御方法。A method for controlling an information processing device, comprising:
画像を撮像して撮像画像を取得する第1の取得ステップと、 a first acquisition step of capturing an image to obtain a captured image;
前記撮像画像から、前記画像に電子透かしとして埋め込まれた付加情報であって、閲覧情報と、前記閲覧情報の閲覧を許可されたユーザのIDである第1ユーザIDとを含む付加情報を抽出する抽出ステップと、 From the captured image, extract additional information that is embedded in the image as a digital watermark and includes viewing information and a first user ID that is an ID of a user who is permitted to view the viewing information. an extraction step;
前記画像を撮影したユーザのIDである第2ユーザIDを取得する第2の取得ステップと、 a second acquisition step of acquiring a second user ID that is the ID of the user who photographed the image;
前記第1ユーザIDと前記第2ユーザIDとが一致する場合に、前記抽出ステップで抽出された付加情報に含まれる前記閲覧情報を表示するように制御する制御ステップと、 a control step of controlling to display the viewing information included in the additional information extracted in the extraction step when the first user ID and the second user ID match;
を有することを特徴とする情報処理装置の制御方法。A method for controlling an information processing device, comprising:
JP2019237033A 2019-12-26 2019-12-26 Information processing device, control method for information processing device, storage medium, and program Active JP7438752B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019237033A JP7438752B2 (en) 2019-12-26 2019-12-26 Information processing device, control method for information processing device, storage medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019237033A JP7438752B2 (en) 2019-12-26 2019-12-26 Information processing device, control method for information processing device, storage medium, and program

Publications (3)

Publication Number Publication Date
JP2021106332A JP2021106332A (en) 2021-07-26
JP2021106332A5 JP2021106332A5 (en) 2022-12-28
JP7438752B2 true JP7438752B2 (en) 2024-02-27

Family

ID=76919646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019237033A Active JP7438752B2 (en) 2019-12-26 2019-12-26 Information processing device, control method for information processing device, storage medium, and program

Country Status (1)

Country Link
JP (1) JP7438752B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072580A (en) 2004-08-31 2006-03-16 Sharp Corp Electronic device, information management device, communication system, method for displaying imaging position, program, and computer readable recording medium for recording this program
JP2012181701A (en) 2011-03-01 2012-09-20 Toshiba Corp Information display device and information display method
JP2013235553A (en) 2012-04-13 2013-11-21 Hitachi Solutions Ltd Information provision system
JP2014215723A (en) 2013-04-23 2014-11-17 キヤノン株式会社 Information processor and control method thereof
JP2016161479A (en) 2015-03-04 2016-09-05 株式会社ゼンリンデータコム Navigation system and navigation method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072580A (en) 2004-08-31 2006-03-16 Sharp Corp Electronic device, information management device, communication system, method for displaying imaging position, program, and computer readable recording medium for recording this program
JP2012181701A (en) 2011-03-01 2012-09-20 Toshiba Corp Information display device and information display method
JP2013235553A (en) 2012-04-13 2013-11-21 Hitachi Solutions Ltd Information provision system
JP2014215723A (en) 2013-04-23 2014-11-17 キヤノン株式会社 Information processor and control method thereof
JP2016161479A (en) 2015-03-04 2016-09-05 株式会社ゼンリンデータコム Navigation system and navigation method

Also Published As

Publication number Publication date
JP2021106332A (en) 2021-07-26

Similar Documents

Publication Publication Date Title
US10469701B2 (en) Image processing method that obtains special data from an external apparatus based on information multiplexed in image data and apparatus therefor
Malik et al. An image interpolation based reversible data hiding scheme using pixel value adjusting feature
JP6322099B2 (en) Image processing apparatus and image processing method
JP6808581B2 (en) Information processing equipment, information processing methods and programs
US11943547B2 (en) Information processing apparatus that illuminates a printed image during capture when embedded information is to be processed, information processing system, information processing method, and storage medium
US10992837B2 (en) Information processing apparatus, control method thereof, and storage medium
JP2009027385A (en) Image processor, its method and computer program
US10033904B2 (en) Information processing apparatus for multiplexing information in an image, information processing method, and storage medium storing program
JP7438752B2 (en) Information processing device, control method for information processing device, storage medium, and program
JP2023018493A (en) Information processing device, method, and program
JP6789890B2 (en) Information processing equipment, information processing methods and programs, and how to create multiplexing parameters
JP6976734B2 (en) Image processing equipment, image processing methods, and programs
JP7455584B2 (en) Information processing device, control method for information processing device, program, and storage medium
JP7451187B2 (en) Image processing device, image processing method and program
US11831834B2 (en) Information processing apparatus, method, and product performing multiplexing processing by different methods with respect to printing and non-printing areas
JP7458766B2 (en) Information processing device, control method for information processing device, program, and storage medium
JP2017073649A (en) Information processing device, information processing method and computer program
US20210176376A1 (en) Image processing apparatus, image processing method, and storage medium
US20070297684A1 (en) Data Conversion Apparatus, Data Conversion Method, and Data Conversion System
JP6577815B2 (en) Information processing apparatus, information processing method, and program
JP2023042153A (en) Image processing device, image processing method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240214

R151 Written notification of patent or utility model registration

Ref document number: 7438752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151