JP2021106332A - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2021106332A JP2021106332A JP2019237033A JP2019237033A JP2021106332A JP 2021106332 A JP2021106332 A JP 2021106332A JP 2019237033 A JP2019237033 A JP 2019237033A JP 2019237033 A JP2019237033 A JP 2019237033A JP 2021106332 A JP2021106332 A JP 2021106332A
- Authority
- JP
- Japan
- Prior art keywords
- information
- additional information
- image
- user
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 29
- 238000003672 processing method Methods 0.000 title claims abstract description 17
- 238000000034 method Methods 0.000 claims abstract description 113
- 238000003384 imaging method Methods 0.000 claims description 34
- 238000000605 extraction Methods 0.000 claims description 28
- 238000010586 diagram Methods 0.000 description 33
- 238000006243 chemical reaction Methods 0.000 description 27
- 238000012937 correction Methods 0.000 description 25
- 239000000976 ink Substances 0.000 description 18
- 238000000926 separation method Methods 0.000 description 18
- 238000001514 detection method Methods 0.000 description 17
- 238000001228 spectrum Methods 0.000 description 10
- 238000013139 quantization Methods 0.000 description 8
- 238000007405 data analysis Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000003702 image correction Methods 0.000 description 5
- 239000003086 colorant Substances 0.000 description 4
- 238000001454 recorded image Methods 0.000 description 4
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000009792 diffusion process Methods 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 241000593989 Scardinius erythrophthalmus Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 201000005111 ocular hyperemia Diseases 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
Images
Abstract
Description
本発明は、画像内に電子透かしとして埋め込まれた付加情報を取得して、所定の処理を行う情報処理装置、情報処理方法およびプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program that acquire additional information embedded as a digital watermark in an image and perform a predetermined process.
特許文献1には、画像に付加情報としてUniform Resource Locator(以下、URLという)を埋め込み、ソフトウエアによって埋め込まれたURLを読み取ることで、ユーザがネットワークにアクセスすることが記載されている。
しかし、特許文献1の方法では、画像に埋め込まれた付加情報は、変更することができない。そのため、ソフトウエアによって埋め込まれた付加情報を読み取ることで成される処理は、常に同じ処理であり、例えば、ユーザが画像を読み取った日時や場所などの状況に合わせた処理を行うことはできなかった。
However, in the method of
よって本発明は、画像から付加情報を読み取り、ユーザが画像を読み取った日時や場所などの状況に応じた処理を実行することができる情報処理装置、情報処理方法およびプログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide an information processing device, an information processing method, and a program capable of reading additional information from an image and executing processing according to a situation such as the date and time and place where the user reads the image. do.
そのため本発明の情報処理方法は、付加情報が電子透かしとして埋め込まれた画像を撮像して撮像情報を取得する取得工程と、前記撮像情報から前記付加情報を抽出する抽出工程と、を有する情報処理方法であって、前記撮像における状況に関する撮像状況情報を取得する撮像情報取得工程と、前記付加情報と前記撮像状況情報とに基づいて、所定の処理を行う処理工程と、を更に有することを特徴とする。 Therefore, the information processing method of the present invention includes an acquisition step of capturing an image in which additional information is embedded as an electronic watermark to acquire imaging information, and an extraction step of extracting the additional information from the imaging information. The method is characterized by further including an imaging information acquisition step of acquiring imaging status information regarding the situation in the imaging, and a processing step of performing a predetermined process based on the additional information and the imaging status information. And.
本発明によれば、画像から付加情報を読み取り、ユーザが画像を読み取った日時や場所などの状況に応じた処理を実行することができる情報処理装置、情報処理方法およびプログラムを提供することができる。 According to the present invention, it is possible to provide an information processing device, an information processing method and a program capable of reading additional information from an image and executing processing according to a situation such as a date and time or place where the user reads the image. ..
以下、電子透かしとして付加情報が埋め込まれた画像に関する実施形態について記載する。ここでの電子透かしとは、画像に対して不可視に、もしくは視認することが困難な状態で埋め込まれた情報である。このような情報は、該画像に対して装置が解析を行うことにより抽出可能である。この解析の詳細については後述する。なお、以降の説明において、電子透かしとしての情報の埋め込みを、画像に対する該情報の「多重化」として表現する。 Hereinafter, embodiments relating to an image in which additional information is embedded as a digital watermark will be described. The digital watermark here is information embedded in an image invisible or difficult to see. Such information can be extracted by the apparatus analyzing the image. Details of this analysis will be described later. In the following description, the embedding of information as a digital watermark is expressed as "multiplexing" of the information in an image.
(第1の実施形態)
以下、図面を参照して本発明の第1の実施形態について説明する。先ず、画像情報に付加情報を埋め込む多重化エンコード処理部と、撮影画像(撮像情報)から付加情報を抽出する多重化デコード処理部の基本構成について説明する。
(First Embodiment)
Hereinafter, the first embodiment of the present invention will be described with reference to the drawings. First, a basic configuration of a multiplexing encoding processing unit that embeds additional information in image information and a multiplexing decoding processing unit that extracts additional information from captured images (imaging information) will be described.
先ず、多重化エンコード処理部と多重化エンコード処理について説明する。
図1は、本実施形態において、画像情報Aに付加情報Bを埋め込む多重化エンコードのためのハードウェアの構成を示した図である。このハードウェアは、画像情報Aと付加情報Bとを取得し、それらの画像情報Aに付加情報Bが埋め込まれた印刷物Cを生成する。
First, the multiplexing encoding processing unit and the multiplexing encoding processing will be described.
FIG. 1 is a diagram showing a configuration of hardware for multiplex encoding in which additional information B is embedded in image information A in the present embodiment. This hardware acquires the image information A and the additional information B, and generates a printed matter C in which the additional information B is embedded in the image information A.
図1(a)のハードウェアは、付加情報多重化装置102と記録装置103とを備えており、付加情報多重化装置102によって画像情報Aに付加情報Bを埋め込む処理が行われ、記録装置103で画像情報Aに付加情報Bが埋め込まれた印刷物Cが生成される。図1(b)のハードウェアは、記録装置103の内部に付加情報多重化部105と記録部106とを備え、付加情報多重化部105によって画像情報Aに付加情報Bを埋め込む処理が行われ、記録部106で画像情報Aに付加情報Bが埋め込まれた印刷物Cが生成される。本実施形態を実現可能なハードウェアの構成は、図1(a)または図1(b)のいずれの構成でもよい。
The hardware of FIG. 1A includes an additional
図1(a)の構成において、入力端子100から入力される画像情報Aは、色成分を含む多階調の画像情報である。入力端子101から入力される付加情報Bは、テキスト文書情報、音声情報、動画情報、あるいはテキスト文書情報、音声情報、画像、動画情報を圧縮した情報、および他のバイナリ値に変換された情報などである。多重化装置102は、後述するように、画像情報Aに付加情報Bを埋め込む多重化処理を行う。記録装置103は、付加情報Bが埋め込まれた画像情報A’に基づいて記録動作を行うことによって印刷物Cを生成する。
In the configuration of FIG. 1A, the image information A input from the
図1(b)の構成において、図1(a)の多重化装置102に相当する多重化部105は、記録装置103に含まれており、図1(a)の構成と同様に、入力端子100から画像情報Aが入力され、入力端子101から付加情報Bが入力される。記録装置103内の多重化部105は、画像情報Aに付加情報Bを埋め込む処理を行う。また、記録部106は、付加情報Bが埋め込まれた画像情報A’に基づいて記録動作を行うことによって印刷物Cを生成する。このように付加情報Bが埋め込まれた画像情報A’に基づいて印刷物Cを生成する処理を「多重化エンコード処理」ともいう。
In the configuration of FIG. 1 (b), the
図2は、図1(a)の付加情報多重化装置102のハードウェア構成を示した図である。CPU202は、中央演算装置であり、例えば、付加情報Bを多重化する処理をプログラムに従って実行する。ROM203は、CPU202により実行されるプログラムを記憶する。RAM204は、CPU202によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリを提供する。2次記憶装置205は、例えばハードディスクであり、画像ファイルや付加情報などを保存するための記憶媒体である。ディスプレイ206は、ユーザインタフェース画面や処理内容等を表示する。キー入力装置207は、キーボードなどの機器の操作を介して処理の指示や設定、文字入力等を受け付ける。ネットワークインタフェース208は、例えばLAN(Local Area Network)に接続されている。また、LANは、インターネットに接続されている。CPU202は、ネットワークインタフェース208により、インターネットに接続されたサイトにアクセスして、ディスプレイ206にサイトの画面を表示させ、情報を送受信する。付加情報多重化装置102は、例えばコンピュータやスマートフォンなどの情報処理装置であるが、画像情報Aに付加情報Bを埋め込む処理が実行可能であれば他の形態の装置でもよい。
FIG. 2 is a diagram showing a hardware configuration of the additional
図3は、印刷物Cに記録された画像情報A’から付加情報Bを抽出するハードウェアの構成を示した図である。ここでは、画像情報A’から付加情報Bを抽出するハードウェアとしてモバイル端末301を例に説明する。
FIG. 3 is a diagram showing a configuration of hardware that extracts additional information B from image information A'recorded on printed matter C. Here, the
モバイル端末301は、多重化エンコード処理された印刷物Cをカメラなどの撮像装置によって撮像して、その撮影画像を解析することによって、画像に埋め込まれている付加情報Bを抽出する。
The
撮像センサ302を保持するカメラ付きのモバイル端末(情報処理装置)301は、印刷物Cの撮影機能をもつ。付加情報Bの分離装置303は、撮像センサ302によって撮影された画像を解析することによって、後述するように、付加情報Bを抽出する。CPU(中央演算装置)304は、プログラムにしたがって情報処理方法を実行し、ROM305には、CPU304によって実行されるプログラムが記憶されている。RAM306は、CPU304によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリとして機能する。ハードディスク等の2次記憶装置307は、画像ファイルおよび画像解析結果を含むデータベースなどを保存する。ディスプレイ308は、CPU304の処理結果などをユーザに提示する。
The mobile terminal (information processing device) 301 with a camera that holds the
キー入力装置309は、タッチパネル機能を備えるディスプレイ308を用いて、タッチパネルの操作によって処理の指示および文字の入力等を行う。無線LAN(Local Area Network)310はインターネットに接続されており、インターネットに接続されたサイトにアクセスして、ディスプレイ308にサイトの画面などを表示させる。無線LAN310は、データを送受信などにも用いられる。スピーカー311は、抽出された付加情報Bが音声情報または音声付動画データの場合に、音声を出力する。また、インターネットの接続先に動画データがある場合には、その動画データの再生時に音声を出力する。加速度計312は、モーションセンサを搭載しており、モバイル端末301を所持して歩いた時の歩数やモバイル端末301がどちらの方角を向いているかを提示する。
The
ジャイロスコープ313は、モバイル端末301がどのような姿勢を維持しているかを感知し、加速度計312の精度をさらに向上させる。GPS(Global Positioning System)314は人工衛星と通信しモバイル端末301の地球上の位置を提示する。第二撮像センサ315は撮像センサ302と同等の機能を持つ撮像センサであり、撮像センサ302と同様に画像や動画を撮影することができる。時計316は時刻を管理する。ユーザが手動で時刻を調整する事もできるが、無線LAN310を介してサーバ上の時刻を取得し、自動で調整する事も可能である。国や地球上の位置によって時刻は変わる為、ユーザは手動もしくは自動で調整する。
The
モバイル端末301はスマートフォン、タブレット、PC、デジタルカメラ、ビデオカメラやウェアラブル端末を使った構成が考えられる。また、モバイル端末301は、撮像センサ302を内蔵する構成に限定されない。例えば、モバイル端末301とは別の装置によって撮像センサ302を制御して、撮影画像を付加情報の分離装置303に送信する構成であってもよい。撮像センサ302としては、デジタルカメラおよびビデオカメラなどを用いることができる。また、付加情報Bの分離装置303としては、パソコンおよびスマートフォンなどを用いることができ、印刷物Cから付加情報Bを抽出できる構成であればよい。
The
図4は、多重化エンコード処理を行う基本的なファームウェア構成を示したブロック図である。付属情報の取得部401は、画像情報Aを圧縮する際に使用された各種パラメータを取得する。その取得された各種パラメータは、復元部402で、圧縮された画像から画像情報を抽出するための処理に利用される。また、その取得された各種パラメータは、圧縮度を算出するための処理に利用される。例えば、入力画像は、文書情報をJPEGフォーマットで圧縮して得られた非可逆画像情報であり、記録媒体に記録される。非可逆画像情報には、圧縮する際に使用された量子化テーブルと画像情報サイズとが含まれている。取得された画像情報サイズ情報および量子化テーブルは、画像情報の復元部402に送られる。
FIG. 4 is a block diagram showing a basic firmware configuration for performing multiplex encoding processing. The attached
画像情報の復元部402は、符号化された画像情報を復号化して、画像情報を抽出する。以下では、入力画像をJPEG画像として説明する。
The image
ここで図5は、符号化された画像情報を復号化する画像復元処理を示したフローチャートである。以下、このフローチャートを用いて画像復元処理を説明する。図5の処理は、例えば、CPU202がROM203に記憶されたプログラムをRAM204に読み出して実行することにより実現される。ここでは、JPEG形式の画像がN個の8画素正方ブロック(8×8画素のブロック)に分割されているものとする。
Here, FIG. 5 is a flowchart showing an image restoration process for decoding the encoded image information. Hereinafter, the image restoration process will be described using this flowchart. The process of FIG. 5 is realized, for example, by the
画像復元処理が開始されると、CPU202はS51でn=1として、CPU202はS52で、n番目のブロックをハフマン符号化する。ハフマン符号化は、頻度の高いデータに短いビット数の符号を割当てることによって、全体のビット数を減らすように圧縮する方法である。ハフマン復号化は、予めハフマン符号を仕様で定義しておいて元のデータに復号化する。その後、CPU202はS53で、量子化テーブルを用いて逆量子化する、逆量子化では、付属情報取得部401によって取得された量子化テーブル(画像情報を圧縮する際に使用された量子化テーブル)を用いた逆量子化により画像情報に展開する。次に、CPU202はS54で、画像情報に展開したものを逆DCT変換する。逆DCT変換は、直流成分(DC成分)と交流成分(AC成分)にDCT変換された画像情報を元の画像濃度成分のデータに戻すための逆変換を行う。
When the image restoration process is started, the
そして、CPU202はS55でn=n+1として、CPU202はS56で、N=nであるか否かを判定し否判定であればS52に戻り処理を繰り返す。このようにして、上記の処理を対象画面のN個の全ブロックについて実行する。
Then, the
JPEG圧縮は、輝度Y、色差Cb、Cr形式で実施されることが多く、その場合、逆DCT処理が施されたデータもYCbCrの形式になる。下式1により、YCbCr形式の値をRGB形式の画像信号値に変換する。
式1:
R = Y + 1.402×Cr
G = Y − 0.344×Cb − 0.714×Cr
B = Y + 1.772×Cb
JPEG compression is often performed in the luminance Y, color difference Cb, and Cr formats, and in that case, the data subjected to the inverse DCT processing is also in the YCbCr format. The value in the YCbCr format is converted into the image signal value in the RGB format by the
Equation 1:
R = Y + 1.402 x Cr
G = Y − 0.344 × Cb − 0.714 × Cr
B = Y + 1.772 x Cb
図4のブロック図に戻り、画像補正部403は、画像情報復元部402により複合化されたRGBデータに対し、画像の補正処理を施す。画像の補正としては、全体の色を明るくまたは暗くする明度調整、コントラスト調整、およびカラーバランスの調整の他、写真の記録を想定した逆光補正および赤目補正などの様々な補正が挙げられる。これらの補正を画像補正部403において一元的に処理することにより、記録装置に依存しない処理を実現することができる。
Returning to the block diagram of FIG. 4, the
解像度変換部404は、画像情報を記録装置に対応する解像度に変換する。入力される画像情報と、記録装置の解像度と、に応じて導き出された変倍量に基づいて、拡大または縮小の処理を施す。変倍処理としては、ニアレストネイバー、バイリニア、バイキュービック法などが存在し、処理の特性、および処理速度を考慮して適宜選択すればよい。
The
色補正部405は、記録装置103による記録画像が好適な色となるように、画像情報に変換処理を施す。例えば、表示装置に表示された画像を記録する場合、表示装置と記録装置とにおける色再現範囲は必ずしも一致しない。ある色では記録装置の再現範囲の方が狭く、また、別の色では記録装置の再現範囲の方が広い場合がある。そのため、画像の劣化を最小限にして、適宜、色の圧縮および伸長を行う必要がある。
The
本実施形態では、それらの変換処理をRGB形式で実施する。つまり、記録装置103の再現性を考慮して、色補正部405に入力されたRGB値を記録装置用のRGB値(以下、「記録装置用RGB」ともいう)に変換する。この変換は、マトリクスなどの演算によって行うことも可能である。一般的には、3次元の色補正テーブル411が利用される。入力されるRGB値を各色8ビット(256階調)とした場合、全ての組み合わせを保持することは記憶容量の観点から現実的でないため、色補正テーブル411として、所定の間隔で間引かれたテーブルを用いる。
In this embodiment, those conversion processes are performed in RGB format. That is, in consideration of the reproducibility of the
ここで図6は、色補正テーブル411を示した図であり、図7は、四面体補間のイメージ図である。本実施形態の色補正テーブル411は、各色256階調を17点のグリッド点とし、それに対応する記録装置用RGB値を記載したテーブルである(17*17*17=4913グリッド点)。グリッド点間の値は、補間処理を利用して算出する。補間方法は、幾つかの方法の中から選択して利用することができ、本実施形態においては四面体補間法を利用した。四面体補間法とは、3次元空間の分割単位を四面体として、4つの格子点を用いる線形補間である。この四面体補間法においては、まず、図7(a)のように3次元空間を四面体に分割してから、ターゲットとなる点pが、分割された四面体のうちのいずれに属するかを決定する。その四面体の4頂点をそれぞれp0、p1、p2、p3とし、図7(b)のように、その四面体をさらに細かい小四面体に分割する。各点の変換値をそれぞれf(p0)、f(p1)、f(p2)、f(p3)とした場合、下式2により補間値f(p)を求めることができる。
Here, FIG. 6 is a diagram showing a color correction table 411, and FIG. 7 is an image diagram of tetrahedral interpolation. The color correction table 411 of the present embodiment is a table in which 256 gradations of each color are set as 17 grid points, and the corresponding RGB values for the recording device are described (17 * 17 * 17 = 4913 grid points). The value between the grid points is calculated by using the interpolation process. The interpolation method can be selected from several methods and used, and in the present embodiment, the tetrahedral interpolation method is used. The tetrahedron interpolation method is a linear interpolation method in which four grid points are used with the division unit of the three-dimensional space as a tetrahedron. In this tetrahedral interpolation method, first, as shown in FIG. 7A, the three-dimensional space is divided into tetrahedra, and then which of the divided tetrahedra the target point p belongs to is determined. decide. The four vertices of the tetrahedron are set to p0, p1, p2, and p3, respectively, and the tetrahedron is divided into finer small tetrahedrons as shown in FIG. 7 (b). When the conversion values of each point are f (p0), f (p1), f (p2), and f (p3), respectively, the interpolation value f (p) can be obtained by the
ここで、w0、w1、w2、w3は、各頂点piと反対向位置における小四面体の体積比である。このように、対象となるRGB値に対応した記録装置用RGB値を算出する。その場合、階調性を考慮して、出力を8ビット以上としてもよい。また、色補正テーブルは、記録装置の色再現範囲にも依存するため、例えば、記録に使用する記録用紙(記録媒体)が異なる場合は、それに応じたテーブルを準備することが望ましい。 Here, w0, w1, w2, and w3 are the volume ratios of the small tetrahedrons at the positions opposite to each vertex pi. In this way, the RGB value for the recording device corresponding to the target RGB value is calculated. In that case, the output may be 8 bits or more in consideration of gradation. Further, since the color correction table also depends on the color reproduction range of the recording device, for example, when the recording paper (recording medium) used for recording is different, it is desirable to prepare a table corresponding to the difference.
図4のブロック図に戻り、インク色変換部406は、色補正部405によって変換された記録装置用RGB値をインク色の値に変換する。この変換には、記録装置用RGB値の組み合わせと、インク色の値と、が予め対応付けられた色分解テーブル412を用いる。色補正部405と同様に、インク色変換部406においてもグリッド点17のテーブルを利用する。
Returning to the block diagram of FIG. 4, the ink
ここで図8は、色分解テーブル412の一例を示した図である。本実施形態の色分解テーブル412では、インク色として、シアン(C)、マゼンタ(M)、イエロー(Y)、ブラック(K)の4色を想定し、各グリッド点に対応した4色の値が収められている。これらの値は、記録用紙の記録面上においてインクが溢れないこと、インク同士が隣接した際に滲まないこと、などを考慮して決定される。そのため、記録に使用する記録用紙が異なる場合は、それに応じた色分解テーブル412を準備することが望ましい。また、上述の色補正部405と同様に、記録装置用RGB値に対応するインク色の値は、四面体補間処理によって補間することができる。
Here, FIG. 8 is a diagram showing an example of the color separation table 412. In the color separation table 412 of the present embodiment, four colors of cyan (C), magenta (M), yellow (Y), and black (K) are assumed as ink colors, and four color values corresponding to each grid point are assumed. Is stored. These values are determined in consideration of the fact that the ink does not overflow on the recording surface of the recording paper and that the inks do not bleed when they are adjacent to each other. Therefore, if the recording paper used for recording is different, it is desirable to prepare a color separation table 412 accordingly. Further, similarly to the
図4のブロック図に戻り、濃度補正部407は、画像の記録濃度を補正する。一般的にインクジェット記録装置では、記録用紙上にドットを形成するために付与されるインクの量が多くなるにしたがって、ドットの重なりが増加し、画像の記録濃度が上昇しにくくなる。濃度補正部407は、このような濃度の応答性を均一にするために濃度を補正する。
Returning to the block diagram of FIG. 4, the
濃度補正により、色補正テーブル411および色分解テーブル412の作成を高精度に行うことができる。C(シアン)、M(マゼンタ)、Y(イエロー)、K(ブラック)のインクを用いる記録装置においては、それらのインク色について濃度補正を行う。本実施形態おいては、1次元の濃度補正テーブル413を用いる。そのテーブルとしては、インク色毎の入力8ビット(256階調)に対応したテーブルを用意しておけばよく、特に間引くことなく、入力信号値と補正後の出力信号値とを対応付けたテーブルを用いることができる。 By the density correction, the color correction table 411 and the color separation table 412 can be created with high accuracy. In a recording device that uses C (cyan), M (magenta), Y (yellow), and K (black) inks, density correction is performed for those ink colors. In this embodiment, a one-dimensional density correction table 413 is used. As the table, it is sufficient to prepare a table corresponding to input 8 bits (256 gradations) for each ink color, and a table in which the input signal value and the corrected output signal value are associated with each other without any particular thinning. Can be used.
階調変換部408は、インク色毎に変換されて濃度補正が施された多ビットデータを、記録装置において記録可能な階調数に変換する。本実施形態においては、記録「1」/非記録「0」の2階調(1ビット)に変換し、階調の変換方法としては、画像の低周波成分を排除して、視覚に好適な階調の再現が可能な誤差拡散法を用いる。また、入力信号として、0〜255の8ビットのデータを想定する。
The
ここで図9は、誤差拡散法における誤差分配方法を説明する図である。ターゲットピクセルの信号値を信号値Lとし、しきい値THとして、信号値Lとしきい値THとを比較する。本実施形態においては、0〜255を2値化するためにしきい値THを127とし、下記のように、そのターゲットピクセルが「1」(記録)または「0」(非記録)のいずれであるかを判定する。
L>TH ・・・・・・ 1(記録)
L≦TH ・・・・・・ 0(非記録)
Here, FIG. 9 is a diagram illustrating an error distribution method in the error diffusion method. The signal value of the target pixel is set to the signal value L, and the threshold value TH is used to compare the signal value L and the threshold value TH. In the present embodiment, the threshold value TH is set to 127 in order to binarize 0 to 255, and the target pixel is either “1” (recorded) or “0” (non-recorded) as shown below. Is determined.
L> TH ・ ・ ・ ・ ・ ・ 1 (Record)
L ≦ TH ・ ・ ・ ・ ・ ・ 0 (not recorded)
この判定結果に応じて、量子化代表値Vを下記のように設定する。
1(記録) ・・・・・・ 255
0(非記録) ・・・・・・ 0
The quantization representative value V is set as follows according to the determination result.
1 (Record) ・ ・ ・ ・ ・ ・ 255
0 (non-recorded) ・ ・ ・ ・ ・ ・ 0
このように量子化代表値Vを設定することにより、発生する誤差E(=L−V)は、図9の分配係数にしたがって周囲のピクセルに分配される。 By setting the quantization representative value V in this way, the generated error E (= LV) is distributed to the surrounding pixels according to the partition coefficient of FIG.
次のターゲットピクセルの信号値Lに、分配された誤差Eaを加算した値Laと、しきい値THと、を比較し、下記のように、そのターゲットピクセルが「1」(記録)または「0」(非記録)のいずれであるかを判定する。
La>TH ・・・・・・ 1(記録)
La≦TH ・・・・・・ 0(非記録)
The value La obtained by adding the distributed error Ea to the signal value L of the next target pixel is compared with the threshold value TH, and the target pixel is "1" (recorded) or "0" as shown below. "(Non-recording) is determined.
La> TH ・ ・ ・ ・ ・ ・ 1 (Record)
La ≤ TH ・ ・ ・ ・ ・ ・ 0 (not recorded)
このような処理を全てのピクセル、および全てのインク色C、M、Y、Kに対して実行することにより、記録可能な1ビットのインク色毎の記録データが得られる。 By executing such processing for all pixels and all ink colors C, M, Y, and K, recordable 1-bit ink color recording data can be obtained.
図4のブロック図に戻り、付加情報409は、図1(a)の多重化装置102もしくは図1(b)多重化部105において、画像情報Aに埋め込まれる付加情報Bであり、テキスト文書情報などである。テキスト文書情報は、例えば、既に公知である文字コードを利用して、数字および文字を数値に割り当てた数値情報であり、この数値情報が付加情報409として多重化部410に送信される。
Returning to the block diagram of FIG. 4, the
具体例として、「hello」という文字に対応するテキスト文書情報について説明する。テキスト文書情報は、数値情報いわゆるバイナリデータとする。バイナリデータとは「0」もしくは「1」の情報であり、この「0」もしくは「1」の情報の連続的なつながりが特定の意味を持つ。バイナリデータと文字との対応は、「文字コード」によって定義されている。文字コードの中の1つである「シフトJIS」の場合、「h」はバイナリデータの「01101000」に対応する。 As a specific example, the text document information corresponding to the character "hello" will be described. The text document information is numerical information, so-called binary data. Binary data is information of "0" or "1", and the continuous connection of the information of "0" or "1" has a specific meaning. The correspondence between binary data and characters is defined by the "character code". In the case of "Shift JIS" which is one of the character codes, "h" corresponds to "01101000" of binary data.
同様に、「e」は「01100101」、「l」は「01101100」、「o」は「01101111」のバイナリデータに対応する。したがって、「hello」という文字はバイナリデータでは、「0110100001100101011011000110110001101111」と表現できる。逆に、「0110100001100101011011000110110001101111」というバイナリデータを取得できれば、「hello」という文字を取得することができる。付加情報409は、このようなバイナリデータに変換された数値情報に対応する。
Similarly, "e" corresponds to "01100101", "l" corresponds to "01101100", and "o" corresponds to the binary data of "01101111". Therefore, the character "hello" can be expressed as "0110100001100101011011000110110001101111" in the binary data. On the contrary, if the binary data "0110100001100101011011000110110001101111" can be acquired, the character "hello" can be acquired. The
付加情報多重化部410は、解像度変換部404において変換された画像情報と、付加情報409と、を受け取り、画像情報に付加情報409を埋め込む。この埋め込み処理(多重化処理)においては、付加情報409(「0」、「1」のバイナリデータに変換されたテキスト文書など)が埋め込まれた画像情報の記録画像から、その付加情報409が読み取れるように、付加情報409を画像情報に埋め込む。例えば、付加情報409の「0」,「1」のバイナリデータが読み取れるように、画像情報にマスク処理を施して、バイナリデータに対応する「0」,「1」の情報を埋め込む。
The additional
ここで図10(a),(b)は、「0」、「1」のバイナリデータに対応するマスクデータを示した図である。画像データにマスク処理を施すことにより、所定領域の画像情報に、「0」,「1」のバイナリデータに対応する異なる周期性を持たせる。これらのマスクデータを使用する付加情報多重化部410における処理の詳細については後述する。
Here, FIGS. 10A and 10B are diagrams showing mask data corresponding to the binary data of "0" and "1". By applying mask processing to the image data, the image information in a predetermined area is given different periodicity corresponding to the binary data of "0" and "1". The details of the processing in the additional
図11は、多重化エンコード処理を示すフローチャートである。以下、このフローチャートを用いて多重化エンコード処理を説明する。図11の処理は、例えば、CPU202がROM203に記憶されたプログラムをRAM204に読み出して実行することにより実現される。多重化エンコード処理が開始されると、CPU202はS11で、付属情報取得部401および画像情報復元部402によって、記録用の画像情報Aを取得する。例えば、画像情報Aは、モバイル端末301により予め撮影して、JPEGフォーマットでモバイル端末内のメモリに保存されたデータである。取得したJPEGの画像情報Aを解凍し、静止画の3色8ビットのRGBの画像情報を生成する。また、必要に応じて、画像補正部403によって、取得した画像情報Aに補正もしくは加工処理を施す。
FIG. 11 is a flowchart showing the multiplexing encoding process. Hereinafter, the multiplexing encoding process will be described using this flowchart. The process of FIG. 11 is realized, for example, by the
その後、CPU202はS12で、画像情報Aに埋め込む付加情報409を取得する。例えば、スマートフォンでキー入力されたテキスト文書情報を取得する。テキスト文書情報は、例えば、公知の文字コードシフトJISを利用して、数字および文字を数値に割り当てた数値情報とする。その数値情報は、付加情報409として多重化部410に送信される。そして、CPU202はS13で、任意に選択された記録媒体のサイズおよび記録装置103の解像度に基づいて、取得した画像情報Aに対して解像度変換処理を施す。例えば、選択された記録媒体のサイズを2Lとした場合、記録装置103における入力解像度の画素数に合わせて、画像情報Aの解像度を変換する。
After that, the
具体的には、記録装置103における入力解像度を600dpi(dot per inch)とした場合、記録媒体のサイズ2Lの画素数を3000画素×4000画素に設定する。この場合、画素数が1500画素×2000画素の画像情報Aに対しては、縦方向および横方向の画素数がそれぞれ2倍となるように解像度変換を行う。入力画像のアスペクト比を変更させたくない場合に、縦方向および横方向の拡大および縮小率を同じにして解像度変換を行う。その後、CPU202はS14で、付加情報の多重化部410によって、画像情報Aに付加情報409を埋め込むための付加情報多重化処理を行って処理を終了する。
Specifically, when the input resolution of the
図12は、本実施形態における多重化部410のファームウェア構成を示したブロック図である。以下、多重化部410における各処理部について説明する。
FIG. 12 is a block diagram showing a firmware configuration of the
色空間変換部1201は、解像度変換部404においてサイズが変更された画像情報の色空間を、情報多重化のための色空間に変換する処理部である。例えば、下式3のように、情報多重化を行う色空間を色空間YUVのUとし、画像情報のRGBの色空間をYUVの色空間に変換する。
式3:
Y = 0.299×R + 0.587×G + 0.114×B
U =−0.169×R − 0.331×G + 0.500×B
V = 0.500×R − 0.419×G − 0.081×B
The color
Equation 3:
Y = 0.299 x R + 0.587 x G + 0.114 x B
U = -0.169 x R-0.331 x G + 0.500 x B
V = 0.500 × R − 0.419 × G − 0.081 × B
ブロック位置設定部1202では、後述するブロックの位置座標を設定する。本実施形態では、画像情報を複数のブロック領域に分け、ブロック単位で各画素の濃度を変調させて、図10(a),(b)のマスクデータに対応するパターンを形成させることにより、付加情報409を埋め込む。そのため、ブロック位置設定部1202では、色空間変換後の画像情報を取得し、指定された色のプレーン画像に対して、指定された1つのブロックのサイズに合わせて、ブロックの位置座標を設定する。例えば、色空間YUVのU色のプレーン画像のサイズを縦幅640px、横幅480pxとし、ブロックサイズを縦幅8px、横幅8pxとする。この場合、縦ブロック数は80(=640÷8)、横ブロック数は60(=480÷8)、合計のブロック数は4800(=80×60)となる。例えば、各ブロックの左上座標をブロック位置と定めて設定することができる。
The block
数値化部1203は、受信した付加情報409を数値化したデータに変換する。例えば、付加情報409をシフトJISの文字列とする。この場合には、シフトJISの形式によって文字と数値とが対応付けられた変換マップを予め保持しておき、その変換マップを用いて文字列を数値列に変換する。例えば、文字列「hello」の場合、変換後の数値列「0110100001100101011011000110110001101111」となる。
The
パターン選択部1204には、ブロック単位で各画素の濃度変調を行うためのマスクパターンが登録されており、数値化部1203によって数値化された付加情報409に対して適用すべきマスクパターンを選択する。
A mask pattern for performing density modulation of each pixel is registered in the
ここで図13(a),(b)は、周波数特性が異なる図10(a),(b)のマスクパターンを数値化した図である。前述したように、図10(a)および図13(a)のマスクパターンは、付加情報409のバイナリデータの「0」に対応し、図10(b)および図13(b)のパターンは、付加情報409のバイナリデータの「1」に対応する。図10(a),(b)の黒の領域901が図13(a),(b)の「2」に対応する。同様に白の領域902が「0」に対応し、斜線の領域903が「−1」に対応する。
Here, FIGS. 13 (a) and 13 (b) are diagrams in which the mask patterns of FIGS. 10 (a) and 10 (b) having different frequency characteristics are quantified. As described above, the mask patterns of FIGS. 10 (a) and 13 (a) correspond to "0" of the binary data of the
情報多重化部1205は、色空間変換部1201において色空間変換した画像情報と、ブロック位置設定部1202において設定された各ブロックの位置と、パターン選択部1204において選択されたマスクパターンとを取得する。情報多重化部1205は、これらの取得情報から、画像情報にマスクパターンを適用した画像情報を生成する。
The
印刷物Cの記録画像を撮影する際に、必ずしも画像全体を撮影できるとは限らない。そのため、印刷物Cの記録画像の一部を撮影だけでも付加情報が抽出できるように、同じ付加情報を記録画像中の複数個所に埋め込む。例えば、80ブロックを1つの付加情報とした場合、全ブロック数4800に対して、同じ付加情報を60(=4800÷80)領域に分けて埋め込む。したがって画像情報は60の領域に分けられ、それらのうちの1つの領域に対して、縦幅8px、横幅8pxを1ブロックとした80ブロックの付加情報が埋め込まれる。80ブロックを1つの付加情報として取り扱うことにより、80ビットの付加情報が設定できる。但し、80ビットの開始位置が分かるように、シフトJISにおいては文字として表現されていない「11111111」の8ビットを付加情報の先頭に含ませる。したがって、72(=80−8)ビットのデータが付加情報となる。 When the recorded image of the printed matter C is taken, it is not always possible to take the entire image. Therefore, the same additional information is embedded in a plurality of places in the recorded image so that the additional information can be extracted only by photographing a part of the recorded image of the printed matter C. For example, when 80 blocks are regarded as one additional information, the same additional information is divided into 60 (= 4800 ÷ 80) areas and embedded for the total number of blocks of 4800. Therefore, the image information is divided into 60 regions, and 80 blocks of additional information having a vertical width of 8 px and a horizontal width of 8 px as one block are embedded in one of the regions. By treating 80 blocks as one additional information, 80-bit additional information can be set. However, 8 bits of "11111111", which are not expressed as characters in Shift JIS, are included at the beginning of the additional information so that the start position of 80 bits can be known. Therefore, 72 (= 80-8) bit data becomes additional information.
80ビット内に収まるデータは、数値化部1203において数値化された付加情報の「0」,「1」の数値列であり、8px×8pxの1ブロック毎に数値が定義され、その数値に対応するマスクパターンが選択される。画像情報における8px×8pxのブロックに、付加情報に対応するマスクパターンが埋め込まれる。例えば、画像データをYUVのU色プレーンとし、それを1ブロック毎に処理し、そのYUVのU色プレーンの値に図12(a),(b)のマスクパターンの値を適用する。例えば、下記のように、それらのマスクパターンの数値に応じてYUVのU色プレーンの値(U値)を加減算処理し、その加減算処理を行う基準値を10とする。
式4:
適用後のU値 = YUVのU値 + 基準値 × マスクパターンの数値
The data that fits in 80 bits is a numerical string of "0" and "1" of the additional information digitized by the
Equation 4:
U value after application = YUV U value + reference value x mask pattern value
例えば、1ブロック内の1画素のU値が「20」であり、適用するマスクパターンの数値が「0」である場合には、下式5のようにU値が処理される。
式5:
適用後のU値 = 20 + 10 × 0 = 20
For example, when the U value of one pixel in one block is "20" and the numerical value of the mask pattern to be applied is "0", the U value is processed as in the following equation 5.
Equation 5:
U value after application = 20 + 10 x 0 = 20
また、1ブロック内の1画素のU値が「30」であり、適用するマスクパターンの数値が「2」の場合には、下式6のようにU値が処理される。
式6:
適用後のU値 = 30 + 10 × 2 = 50
Further, when the U value of one pixel in one block is "30" and the numerical value of the mask pattern to be applied is "2", the U value is processed as in the following equation 6.
Equation 6:
U value after application = 30 + 10 x 2 = 50
このように本実施形態においては、画素毎に適用するマスクパターンの数値と、基準値と、を掛け合わせた値を加算することによって、多重化を実現する。マスクパターンの適用方法は、U色プレーン上に、マスクパターンを埋め込むことができればよく、本実施形態の方法に限定されず、例えば、YUVのU値に、マスクパターンの数値を掛け合わせてもよい。 As described above, in the present embodiment, multiplexing is realized by adding the value obtained by multiplying the numerical value of the mask pattern applied for each pixel and the reference value. The method of applying the mask pattern is not limited to the method of the present embodiment as long as the mask pattern can be embedded on the U color plane. For example, the U value of YUV may be multiplied by the numerical value of the mask pattern. ..
このような多重化エンコード処理は、図1(a)の付加情報多重化装置102または図1(b)の付加情報多重化部105によって実行される。多重化エンコード処理は、記録装置103によって処理されてもよく、記録装置103によって処理されなくてもよい。多重化装置102もしくは多重化部105において生成された多重化エンコード処理後の画像情報は、記録装置103もしくは記録部106に送信される。
Such multiplexing encoding processing is executed by the additional
図14は、多重化エンコード処理後の画像情報の記録処理を示したフローチャートである。図14の処理は、例えば、記録装置が備えるCPUがROMに記憶されたプログラムをRAMに読み出して実行することにより実現される。以下、このフローチャートを用いて多重化エンコード処理後の画像情報の記録処理を説明する。 FIG. 14 is a flowchart showing a recording process of image information after the multiplexing encoding process. The process of FIG. 14 is realized, for example, by the CPU included in the recording device reading the program stored in the ROM into the RAM and executing the program. Hereinafter, the image information recording process after the multiplex encoding process will be described using this flowchart.
多重化エンコード処理後の画像情報の記録処理が開始されると、CPUはS31で、付加情報多重化部410において付加情報409が埋め込まれた画像情報(多重化画像データ)を取得する。次にCPUはS32で、色補正部405によって、多重化画像データに適宜、色補正を施す。次にCPUはS33で、インク色変換部406、濃度補正部407、階調変換部408において、色補正後の画像情報をインク色の値に変換してから濃度を補正し、その濃度補正後の画像情報を階調数に変換することにより記録データを生成する。生成された記録データは、記録エンジンに送信される。そして、CPUはS34で記録エンジンを制御することで、記録データに基づいて各色のインクを記録媒体に付与することにより印刷物Cを生成する。
When the recording process of the image information after the multiplexing encoding process is started, the CPU acquires the image information (multiplexed image data) in which the
以下、多重化デコード処理部と多重化デコード処理について説明する。
図15(a)は、本実施形態における多重化デコード処理の基本ファームウェアのブロック構成を示す図であり、図15(b)は、多重化エンコード処理された印刷物をカメラ付きのモバイル端末301で撮影するイメージを示した図である。多重化デコード処理によって印刷物に埋め込まれている付加情報を抽出する。以下、多重化デコード処理部の詳細について説明する。
Hereinafter, the multiplex decoding processing unit and the multiplex decoding processing will be described.
FIG. 15 (a) is a diagram showing a block configuration of the basic firmware of the multiplex decoding process in the present embodiment, and FIG. 15 (b) is a photograph of a printed matter subjected to the multiplex encoding process by a
撮像センサ302は、撮像部1501と色調整部1502とを含む。付加情報分離装置303は、多重化位置検出部1503、付加情報分離部1504、抽出データ解析部1505を含む。本実施形態では、テキスト文書データや音声データや動画データなどの数値化された付加情報のデータが、印刷物1411上にパターン形状として付加されているものとする。例えば、付加情報は、印刷物C全体に、同じ情報を領域毎に繰り返し付加されている。撮像部1501は、多重化エンコード処理された印刷物Cを、撮像センサ302内の撮像素子で、撮像画像データに変換する。
The
撮像センサ302が備える撮像素子であるCCDについては、既に公知の技術なので、詳細な説明は省略する。概略を説明すると、CCDは、光をフォトダイオードという受光素子が感知して、光を電圧に変化させることが可能である。その際に、素子毎に配置したRGBやCMYなどのカラーフィルタを通すことにより、光を色のデータとして変換させることができる。撮像部1501で撮影されたセンサ値は、色調整部1502に送られる。
Since the CCD, which is an image pickup element included in the
色調整部1502は、撮像部1501においてフォトダイオードで取り出したセンサ値に対し、例えば、1画素YUV、8ビットデータとして、画像データに変換する。また、ホワイトバランスや明るさ調整など、通常撮影時に実行される色調整処理も併せて行う。
The
多重化位置検出部1503は、多重化した印刷物が撮影され色調整された画像データを取得する。多重化位置検出部1503は、取得した画像データに対して、周波数特性を取得する。多重化位置検出部1503は、取得した周波数特性を判定することで、多重化されている位置を検出する。
The multiplexing
図16(a)は、二次元の周波数領域で周波数特性の差を示す概略図である。横軸は水平方向の周波数、縦軸は垂直方向の周波数を示している。中心となる原点は直流成分を示し、原点から遠ざかるにつれて、高周波域となる。本実施形態では、図13(a)、(b)のマスクパターンの切換えにより、多重化された印刷物のYUVのU成分の周波数特性が変わる。 FIG. 16A is a schematic diagram showing the difference in frequency characteristics in the two-dimensional frequency domain. The horizontal axis shows the frequency in the horizontal direction, and the vertical axis shows the frequency in the vertical direction. The central origin indicates a DC component, and as the distance from the origin increases, the frequency becomes high. In the present embodiment, the frequency characteristics of the U component of the YUV of the multiplexed printed matter are changed by switching the mask patterns of FIGS. 13A and 13B.
例えば、図13(a)によるU成分の特性の変化により、図16(a)の直線1601の周波数ベクトル上に大きなパワースペクトルが生じるとする。また、図13(b)によるU成分の特性の変化により、図16(a)の直線1602の周波数ベクトル上に大きなパワースペクトルが生じるとする。付加情報分離時には、この大きなパワースペクトルが発生する周波数ベクトルを検出することで多重化信号を判定することができる。
For example, it is assumed that a large power spectrum is generated on the frequency vector of the
図13(a)、(b)は、特定の周波数ベクトルの方向性を有するHPF(ハイパスフィルタ)に相当する。図13(a)、(b)は、周波数ベクトル検出時の空間フィルタとしても用いられる。即ち、図13(a)の空間フィルタでは、直線1601上の周波数ベクトルを強調することが可能になり、また、図13(b)の空間フィルタでは、直線1602上の周波数ベクトルを強調することが可能になる。
13 (a) and 13 (b) correspond to an HPF (high-pass filter) having a specific frequency vector directionality. 13 (a) and 13 (b) are also used as a spatial filter at the time of frequency vector detection. That is, the spatial filter of FIG. 13A can emphasize the frequency vector on the
例えば、今、図13(a)のマスクパターンにより、図16(a)の直線1601の周波数ベクトル上に大きなパワースペクトルが発生したとする。その場合、図13(a)の空間フィルタではパワースペクトルの変化量が増幅するが、図13(b)の空間フィルタでは、ほとんど増幅されない。即ち、複数の空間フィルタを並列にフィルタリングすると、周波数ベクトルが一致した空間フィルタ時のみ増幅し、それ以外のフィルタでは増幅がほとんど生じない。従って、いかなる周波数ベクトル上に大きなパワースペクトルが発生しているかを容易に判定することができる。
For example, it is assumed that the mask pattern of FIG. 13A now generates a large power spectrum on the frequency vector of the
また、今回YUVのU成分において周波数特性を変化させて多重化された印刷物の付加情報分離時にU成分により周波数ベクトルを検出したが、U成分が失われてしまうと付加情報が分離できないことになる。U成分ではなく他のY成分やV成分に特性が移った場合、Y成分やV成分で周波数特性を判定すると付加情報を分離することができるが、U成分のみ解析するよりも時間がかかってしまう。 Further, this time, the frequency vector was detected by the U component at the time of separating the additional information of the printed matter by changing the frequency characteristic in the U component of YUV, but if the U component is lost, the additional information cannot be separated. .. If the characteristics are transferred to another Y component or V component instead of the U component, additional information can be separated by determining the frequency characteristics based on the Y component or V component, but it takes longer than analyzing only the U component. It ends up.
上記のように、周波数特性の判定を行うことで、データを抽出することが可能となる。しかしながら、周波数特性を判定する際に、抽出すべき位置がずれていると、正しく抽出しにくくなってしまう。 By determining the frequency characteristics as described above, it is possible to extract data. However, when determining the frequency characteristics, if the position to be extracted is deviated, it becomes difficult to extract correctly.
図17は、周波数特性を判定する際の検出位置を説明するための図である。画像1701は、印刷物の4つのブロックにおいて多重化されている画像を示す。領域1702、1703は、ブロック単位で周波数特性を判定する領域を示す。図17において、領域1702は、多重化されているブロックの位置とずれていることを示す。領域1703は、多重化されているブロックの位置と合っていることを示す。この場合、領域1703は、予め決めた周波数を正しく特定することが可能だが、領域1702は、特定の周波数ベクトルのパワースペクトルが下がってしまうので、予め決めた周波数の特定が困難になる。
FIG. 17 is a diagram for explaining a detection position when determining a frequency characteristic.
多重化位置検出部1503は、特定の周波数ベクトルのパワースペクトルが強いか弱いかに基づいてブロック位置を検出する。そこで、多重化位置検出部1503は、取得した撮像後の画像データに対し、ブロック位置をずらしながら周波数特性の判定を行い、多重化されたブロックの位置を検出する。
The multiplexed
付加情報分離部1504は、多重化位置検出部1503で検出した位置を基準とし、周波数特性を判定した結果を利用して、多重化されている付加情報を抽出する。
The additional
図16(b)は、記録媒体にブロック毎に多重化されている様子を示す図である。同図において、記録媒体1603は、印刷用紙を示し、ブロック1604は、多重化されるブロックを示す。多重化されているブロック数が横8ブロック、縦12ブロック、計96ブロックとする。図16(b)において、ブロック毎に、多重化エンコード処理で、付加情報の「0」と「1」が埋め込まれているものとする。
FIG. 16B is a diagram showing how the recording medium is multiplexed for each block. In the figure, the
例えば、図16(a)の、直線1601の周波数ベクトルのパワースペクトルがある閾値を超えていれば、データ「0」と判定される。また、直線1602上の周波数ベクトルのパワースペクトルがある閾値を超えていれば、データ「1」と判定される。多重化位置検出部1503で検出した位置を基準に、ブロック単位で、96ブロック分、位置をずらしながら、周波数特性の判定が行われる。この場合、1ブロック毎に、「0」「1」の1ビットを判定できるので、合計96ビットのデータを抽出することができる。このように、位置をずらしながら周波数特性の判定を行うことで、多重化されたデータを抽出することができる。
For example, if the power spectrum of the frequency vector of the
抽出データ解析部1505は、付加情報分離部1504で付加情報として分離した数値列に対して、データを解析し、元々埋め込んだ付加情報の形式に変換する処理である。例えば、予め多重化する付加情報を、テキスト文書データとして、文字コードを「シフトJIS」で数値化した値であるとする。
The extracted
シフトJISの1バイトコード(半角文字)では、上位4ビットと下位4ビットの組み合わせで、数値及び文字に対応した変換を行える。例えば、上位4ビットが「0100」で、下位4ビットが「0001」の場合、文字列として、「A」と判定される。このように、変換マップを予め保持しておき、数値列を対応させることで、文字へと変換することができる。 In Shift JIS 1-byte code (half-width characters), conversion corresponding to numerical values and characters can be performed by combining the upper 4 bits and the lower 4 bits. For example, when the upper 4 bits are "0100" and the lower 4 bits are "0001", it is determined as "A" as a character string. In this way, the conversion map can be stored in advance and converted into characters by associating the numerical strings with each other.
付加情報として分離した数値列は、図3のRAM306に、一時的に保持しておき、2次記憶装置307に予め保持していた「シフトJIS」変換マップを参照可能なようにしておく。
The numerical sequence separated as additional information is temporarily stored in the
例えば、付加情報分離部1504で分離した付加情報の数値列が、「0110100001100101011011000110110001101111」とする。この場合、変換マップに対応させると以下のようになる。上位4ビット「0110」、下位4ビット「1000」で、文字「h」となる。上位4ビット「0110」、下位4ビット「0101」で、文字「e」となる。上位4ビット「0110」、下位4ビット「1100」で、文字「l」となる。上位4ビット「0110」、下位4ビット「1100」で、文字「l」となる。上位4ビット「0110」、下位4ビット「1111」で、文字「o」となる。従って、文字列として、「hello」が抽出される。
For example, the numerical string of the additional information separated by the additional
付加情報を抽出すると、例えば抽出された文字列を図3のディスプレイ308で表示する。また、抽出された文字列がURL(Uniform Resource Locator)である場合、無線LAN310でネットワークに接続し、ブラウザを利用して、ディスプレイ308にURL先の画面を表示する。また、そのURLが動画サイトであった場合、ディスプレイ308で動画を表示し、スピーカー311で、音声を出力する。
When the additional information is extracted, for example, the extracted character string is displayed on the
図18は、本実施形態における多重化デコード処理を示すフローチャートである。図18の処理は、例えば、モバイル端末301のCPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
FIG. 18 is a flowchart showing the multiplexing decoding process in the present embodiment. The process of FIG. 18 is realized, for example, by the
S1801では、CPU304は、撮像センサ302により、多重化された印刷物Cの撮影を行う。撮像センサ302は、撮影された光が色データ値に変換されたセンサ値を、色調整部1502に送信する。S1801の処理は、図15(a)の撮像部1501の撮像センサによる撮影画像を取得する処理に対応する。
In S1801, the
S1802では、CPU304は、取得した撮影画像の色調整を行う。色調整部1502は、撮像部1501から色データ値を受信し、ホワイトバランス調整を行い、ホワイトバランス調整された色データを画像データとして生成する。色調整部1502は、生成した画像データを付加情報分離装置303へ送信する。もしくは、生成した画像データは、図3の2次記憶装置307に保存される。S1802の処理は、図15(a)の色調整部1502による、ホワイトバランスの色調整を行った画像を生成する処理に対応する。
In S1802, the
S1803では、CPU304は、色調整部1502からホワイトバランス後の画像データを受信し、もしくは、図3の2次記憶装置307に保存された画像データを取得する。多重化位置検出部1503は、取得した画像データに対して、周波数特性の判定を行い、多重化されている位置を検出する。S1803の処理は、図15(a)の多重化位置検出部1503による、画像データから多重化されている基準位置を検出する処理に対応する。
In S1803, the
S1804では、CPU304は、多重化位置検出部1503により、画像データから、多重化されている基準位置を検出できたか否かを判定する。検出できたと判定された場合、S1805へ進み、検出できなかったと判定された場合、S1801に戻り処理を繰り返す。
In S1804, the
S1805では、CPU304は、色調整部1502で生成された画像データと、多重化位置検出部1503で検出した多重化されている基準位置に基づいて、周波数特性を判定した結果を用いて、多重化されている付加情報を数値データとして抽出する。S1805の処理は、図15(a)の付加情報分離部1504による、画像データから付加情報を抽出する処理に対応する。付加情報分離部1504は、抽出した数値データを図15(a)の抽出データ解析部1505へ送信する。もしくは、付加情報分離部1504は、図3のRAM306に一時的に保存し、抽出データ解析部1505へ、その旨を通知する。
In S1805, the
S1806では、CPU304は、図15(a)の抽出データ解析部1505により、分離した付加情報に相当する数値データを取得し、数字データを解析し、文字データなどの付加情報に変換する。S1806の処理は、図15(a)の抽出データ解析部1505による、付加情報を抽出する処理に対応する。
In S1806, the
S1807では、CPU304は、図15(a)の抽出データ解析部1505で抽出した付加情報の取得を完了したか否かを判定する。付加情報の取得を完了したと判定した場合、図18の多重化デコード処理を終了し、取得を完了していないと判定した場合、S1801の処理を繰り返す。
In S1807, the
多重化された印刷物から付加情報を抽出できた場合、図3のディスプレイ308などに、結果を表示したり、ネットワークにアクセスしたりする。多重化された印刷物から付加情報を抽出できなかった場合、例えば、撮影された画像データが、付加情報を抽出するだけの領域を全て含んでいない場合が考えられる。その場合、付加情報の一部しか抽出できなかったためにデータが完全ではなく、再度、撮影し直す必要がある。
When additional information can be extracted from the multiplexed printed matter, the result is displayed on the
以下、本実施形態の特徴的な構成について説明する。
図19(a)は、付加情報が埋め込まれている画像を抽出するモバイル端末201を示した図であり、図19(b)は、モバイル端末301による付加情報の抽出処理を示したフローチャートである。本実施形態では付加情報として、例えば「http://www.XXX.XX.XX/」のようなURLの一部と、例えば「180219」のような日付閾値情報と、を画像から抽出する。なお、「180219」は、2018年2月19日を示すものとする。また、抽出した付加情報に加えて、ユーザが付加情報を抽出した日時の日時情報をモバイル端末301の時計316から取得する。以下、図19(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図19(b)の処理は、例えば、モバイル端末301のCPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
Hereinafter, the characteristic configuration of the present embodiment will be described.
FIG. 19A is a diagram showing a
付加情報の抽出処理が開始されると、CPU304はS1901で、撮像センサ302によって印刷物を撮影して、印刷物に埋め込まれた付加情報を取得する。ここではモバイル端末301は、印刷物からURLの一部と日付閾値情報とを取得する。その後、CPU304はS1902で、時計316から日時情報を取得する。そして、CPU304はS1903で、取得した付加情報と日時情報とからURLを作成する。
When the extraction process of the additional information is started, the
具体的には、付加情報に含まれる日付閾値情報と、モバイル端末301から取得した日時情報とを比較して、日時情報の日付が日付閾値情報の日付の前か後かで、作成するURLを異ならせる。例えば、印刷物を撮影した日付である日時情報の日付が「2018年2月17日」だった場合、日付閾値情報「180219」が示す2018年2月19日より前であるため、合成するURLとして「http://www.XXX.XX.XX/before/」を作成する。また、日時情報の日付が「2018年2月20日」だった場合、日付閾値情報「180219」が示す2018年2月19日より後であるため、合成するURLとして「http://www.XXX.XX.XX/after/」を作成する。
Specifically, the date threshold information included in the additional information is compared with the date and time information acquired from the
日付閾値情報と取得した日時情報の日付とが同じであった場合は、「http://www.XXX.XX.XX/before/」か「http://www.XXX.XX.XX/after/」のいずれか一方のURLとなるように予め設定しておき、その設定に基づいていずれかのURLに決定される。その後、CPU304はS1904で、作成したURLにアクセスし、URL先のコンテンツをモバイル端末301に表示して処理を終了する。このように、本実施形態では取得した日時情報に応じて、その後の処理の内容を切り替えることができる。
If the date of the date threshold information and the acquired date and time information are the same, "http://www.XXX.XX.XX/before/" or "http://www.XXX.XX.XX/after" It is set in advance so that it becomes one of the URLs of "/", and it is determined to be one of the URLs based on the setting. After that, the
本実施形態が想定するケースとしては、結婚式の招待状に付加情報を埋め込んでおき、結婚式の前には招待者からのメッセージ動画を表示し、結婚式の後には結婚式動画を表示するケースが考えられる。 As a case assumed by this embodiment, additional information is embedded in the wedding invitation, a message video from the invitee is displayed before the wedding, and a wedding video is displayed after the wedding. A case is possible.
なお、本実施形態では日付について閾値を設けた例を説明したが、これに限定するものでなく、日付と時間とで閾値を設け、日時情報として日付と時間とを取得してもよい。 In the present embodiment, an example in which a threshold value is set for a date has been described, but the present invention is not limited to this, and a threshold value may be set for a date and a time, and the date and time may be acquired as date and time information.
また、本実施形態においては付加情報と日時情報とをモバイル端末301の中で合成したが、付加情報と日時情報とをサーバに送りサーバ内で処理の内容を切り替えて、URLを作成してモバイル端末に送信し、そのURLをモバイル端末301が受信してもよい。
Further, in the present embodiment, the additional information and the date and time information are combined in the
このように、本実施形態のモバイル端末は、撮像した画像より付加情報を取得し、更に、撮像の際の状況に関する撮像状況情報を取得して、その付加情報と撮像状況情報とに基づいて処理を行う。これによって、画像から付加情報を読み取り、ユーザが画像を読み取った日時や場所などの状況に応じた処理を実行することができる情報処理装置、情報処理方法およびプログラムを実現することができる。 As described above, the mobile terminal of the present embodiment acquires additional information from the captured image, further acquires imaging status information regarding the situation at the time of imaging, and processes based on the additional information and the imaging status information. I do. This makes it possible to realize an information processing device, an information processing method, and a program capable of reading additional information from an image and executing processing according to a situation such as a date and time or place where the user reads the image.
(第2の実施形態)
以下、図面を参照して本発明の第2の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
(Second embodiment)
Hereinafter, a second embodiment of the present invention will be described with reference to the drawings. Since the basic configuration of this embodiment is the same as that of the first embodiment, a characteristic configuration will be described below.
図20(a)は、モバイル端末301で付加情報が埋め込まれている画像を抽出するイメージを示した図であり、図20(b)は、付加情報の抽出処理を示したフローチャートである。本実施形態では付加情報として目的地のGPS情報(所定場所の位置を示すGPS情報)を取得する。また、抽出した付加情報に加えてモバイル端末301のGPS314より、現在のモバイル端末301の位置を示すGPS情報を取得する。以下、図20(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図20(b)の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
FIG. 20A is a diagram showing an image of extracting an image in which additional information is embedded in the
付加情報の抽出処理が開始されると、CPU304はS2001で、モバイル端末301によって印刷物を撮影して、印刷物に埋め込まれた付加情報を取得する。ここではモバイル端末301は、目的地のGPS情報を取得する。その後、CPU304はS2002で、モバイル端末301のGPS314よりより現在のモバイル端末301位置を示すGPS情報を取得する。そして、CPU304はS2003で、付加情報とGPS情報とから目的地と現在地との経路を算出する。経路を計算する方法はインターネット上にある地図サービスを利用する。モバイル端末301を所持しているユーザが移動し、現在地のGPS情報が変わった場合、地図上に表示される経路も変わる。その後、CPU304はS3004で、モバイル端末301のディスプレイ308に算出した経路を表示して処理を終了する。
When the extraction process of the additional information is started, the
本実施形態が想定するケースとしては、コンサートチケット2011に付加情報を埋め込んでおくケースを想定している。モバイル端末301で付加情報と、現在地のGPS情報とを取得し、現在地からコンサート会場までの経路を表示することで、ユーザがどこにいてもユーザの居る場所からコンサート会場へとユーザを案内することができる。
As a case assumed by this embodiment, a case where additional information is embedded in the
なお、目的地のGPS情報と現在地のGPS情報とをインターネット上の経路探索サービスに送信し、地図と経路とを受信して表示してもよい。 The GPS information of the destination and the GPS information of the current location may be transmitted to a route search service on the Internet, and the map and the route may be received and displayed.
(第3の実施形態)
以下、図面を参照して本発明の第3の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
(Third Embodiment)
Hereinafter, a third embodiment of the present invention will be described with reference to the drawings. Since the basic configuration of this embodiment is the same as that of the first embodiment, a characteristic configuration will be described below.
図21(a)は、モバイル端末301で付加情報が埋め込まれている画像を抽出するイメージを示した図であり、図21(b)は、付加情報の抽出処理を示したフローチャートである。本実施形態では付加情報として商品の価格を取得する。また、抽出した付加情報に加えて、モバイル端末301からユーザの居住国情報を取得する。以下、図21(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図21(b)の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
FIG. 21 (a) is a diagram showing an image of extracting an image in which additional information is embedded in the
付加情報の抽出処理が開始されると、CPU304はS2102で、モバイル端末301によって印刷物を撮影して、印刷物2111に埋め込まれた付加情報を取得する。ここではモバイル端末301は、商品の価格、例えば「$2」を取得する。その後、CPU304はS2102で、モバイル端末よりユーザの居住国情報を取得する。本実施形態では、ユーザの居住国情報はモバイル端末301の設定値を利用するが、GSP履歴やユーザ入力等他の方法を用いてもよい。また、居住国ではなく任意の国を選択してもよい。そして、CPU304はS2103で、取得した価格情報、例えば「$2」と、ユーザの居住国情報、例えば「日本」と、からインターネットの為替変換サービスを利用し、価格情報の価格を居住国の通貨に換算した価格を取得する。具体的には、取得した価格が「$2」であれば、為替レートが$1=100円だった場合、換算された価格情報は「200円」となる。S2104で変換された価格情報を表示して処理を終了する。
When the extraction process of the additional information is started, the
本実施形態が想定するケースとしては、商品のパッケージ2011に付加情報を埋め込むケースである。例えば、日本からアメリカに海外旅行中に、現地の商品の価格を現在の為替で日本円に換算した価格を知りたいケースを想定する。
The case assumed by this embodiment is a case in which additional information is embedded in the
なお、本実施形態では商品のパッケージから取得した商品の価格を居住国の価格に変換したが、これに限定するものではない。例えば領収書や見積書、決算書など価格情報が必要とされているものであれば、本発明を適用可能である。 In the present embodiment, the price of the product obtained from the package of the product is converted into the price of the country of residence, but the present invention is not limited to this. For example, the present invention can be applied to receipts, quotations, financial statements, and other items that require price information.
(第4の実施形態)
以下、図面を参照して本発明の第4の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
(Fourth Embodiment)
Hereinafter, a fourth embodiment of the present invention will be described with reference to the drawings. Since the basic configuration of this embodiment is the same as that of the first embodiment, a characteristic configuration will be described below.
図22(a)は、モバイル端末301で付加情報が埋め込まれている画像を抽出するイメージを示した図であり、図22(b)は、付加情報の抽出処理を示したフローチャートである。本実施形態では美術館の絵画2211の説明表示2212に付加情報としてURLを埋め込む。以下、図22(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図22(b)の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
FIG. 22A is a diagram showing an image of extracting an image in which additional information is embedded in the
付加情報の抽出処理が開始されると、CPU304はS2201で、モバイル端末301によって説明表示2212を撮影して、説明表示2212に埋め込まれた付加情報を取得する。説明表示2212には絵画2211の簡単な説明が記載されており、説明表示2212をモバイル端末301で撮影することで、付加情報としてURLを取得する。複数の美術品の説明表示2212には、どれも同じURLが埋め込まれており、URL先には美術品が美術館のどの場所に掲示されているかを示す「レイアウト情報」と「各美術品の詳細な説明文」とが記載されている。
When the additional information extraction process is started, the
その後、CPU304はS2202で、モバイル端末301からGPS情報と端末向き情報とを取得する。GPS情報は、GPS314から取得し、このGPS情報によって美術館の中のユーザの位置を取得することができる。また、端末向き情報は、加速度計312とジャイロスコープ313とから取得し、この端末向き情報によってモバイル端末301の向きを取得することができる。CPU304はS2203で、URL先のレイアウト情報と、ユーザの位置と、モバイル端末301の向きと、から美術館内でユーザが見ている美術品を特定し、特定した美術品の詳細な説明文をモバイル端末301が取得する。その後、CPU304はS2204で、ユーザが見ている美術品の詳細な説明文をモバイル端末301に表示して処理を終了する。
After that, the
どの美術品にも同じ付加情報を埋め込んでおくことで、美術品のレイアウトや説明表示を変更しても、ユーザのモバイル端末301には、ユーザが見ている美術品の詳細な説明文が表示される。
By embedding the same additional information in every work of art, even if the layout or description display of the work of art is changed, the detailed description of the work of art that the user is viewing is displayed on the user's
なお、本実施形態では美術館の例を示したが、同様に動物園や水族館などでも使用可能である。また、宝探しゲームに応用し物品とスマホとが所定の位置、所定の向きになった時だけ情報を取得できるようにしてもよい。また、加速度計212とジャイロスコープ213とを使用して、ユーザの歩数を測定し、ユーザの歩数に応じてコンテンツを切り替えてもよい。 Although an example of a museum is shown in this embodiment, it can also be used in a zoo or an aquarium. Further, it may be applied to a treasure hunt game so that information can be acquired only when the article and the smartphone are in a predetermined position and a predetermined orientation. Further, the accelerometer 212 and the gyroscope 213 may be used to measure the number of steps of the user, and the content may be switched according to the number of steps of the user.
また、本実施形態は、メガネタイプのウェアラブル端末に搭載されたカメラを用いることにより、より効果的に適用できる。例えば、美術館でメガネタイプのウェアラブル端末で見た方向の印刷物から付加情報を取得し、対応した情報を表示することができる。 Further, the present embodiment can be applied more effectively by using a camera mounted on a glasses-type wearable terminal. For example, it is possible to acquire additional information from a printed matter in the direction viewed by a glasses-type wearable terminal in a museum and display the corresponding information.
(第5の実施形態)
以下、図面を参照して本発明の第5の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
(Fifth Embodiment)
Hereinafter, a fifth embodiment of the present invention will be described with reference to the drawings. Since the basic configuration of this embodiment is the same as that of the first embodiment, a characteristic configuration will be described below.
図23(a)は、モバイル端末301で付加情報が埋め込まれている画像を抽出するイメージを示した図であり、図23(b)は、付加情報の抽出処理を示したフローチャートである。本実施形態では、印刷物2311には付加情報が埋め込まれており、モバイル端末301は、印刷物2311の撮影後のタッチ情報を取得する。以下、図23(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図23(b)の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
FIG. 23 (a) is a diagram showing an image of extracting an image in which additional information is embedded in the
付加情報の抽出処理が開始されると、CPU304はS2301で、モバイル端末301によって印刷物を撮影して、説明表示2311に埋め込まれた付加情報を取得する。その後、CPU304はS2302では、モバイル端末301のディスプレイ308からユーザがディスプレイ308に触れることに対応する情報であるタッチ情報を取得する。印刷物2311には押しボタンが記録されており、ユーザがモバイル端末301で印刷物2311を撮影し、モバイル端末301のディスプレイ308に表示された印刷物2311の押しボタンにユーザが触れることでモバイル端末301はタッチ情報を取得する。
When the extraction process of the additional information is started, the
CPU304はS2303では、モバイル端末301がタッチ情報を取得したか否かを判定する。タッチ情報を取得していれば、S2304に移行し、タッチ情報を取得していなければ処理を終了する。S2304に移行した場合は、CPU304はS2301で取得した付加情報をモバイル端末301のディスプレイ308に表示して処理を終了する。
In S2303, the
なお、付加情報は所定情報であり、どのような情報でもよく、例えば、印刷物は押しボタンが記録された商品の広告であり、撮影してディスプレイの押しボタン画像に触れることで、付加情報である商品の詳細情報が記載されたURLの画面をディスプレイに表示してもよい。このように、ユーザのタッチ動作に応じて付加情報を表示させることもできる。 The additional information is predetermined information and may be any information. For example, the printed matter is an advertisement of a product in which a push button is recorded, and is additional information by taking a picture and touching the push button image on the display. The screen of the URL in which the detailed information of the product is described may be displayed on the display. In this way, additional information can be displayed according to the touch operation of the user.
(第6の実施形態)
以下、図面を参照して本発明の第6の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
(Sixth Embodiment)
Hereinafter, a sixth embodiment of the present invention will be described with reference to the drawings. Since the basic configuration of this embodiment is the same as that of the first embodiment, a characteristic configuration will be described below.
図24は、本実施形態における付加情報の抽出処理を示したフローチャートである。本実施形態では、印刷物には付加情報が埋め込まれており、モバイル端末301は、印刷物を撮影することで、情報α(閲覧情報)と、情報αの閲覧を許可されたユーザのユーザIDとが含まれた付加情報を取得する。モバイル端末には2つのカメラを搭載したものがあり、風景を撮影するためのモバイル端末の裏側に搭載されたカメラと、ユーザ自身を撮影するために表側に搭載されたカメラとがある。本実施形態では、モバイル端末301は、裏側のカメラによって付加情報を取得し、表側のカメラでユーザの顔を写すことで、顔認証情報を取得する。以下、図24のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図24の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
FIG. 24 is a flowchart showing the extraction process of additional information in the present embodiment. In the present embodiment, additional information is embedded in the printed matter, and the
付加情報の抽出処理が開始されると、CPU304はS2401で、モバイル端末301によって印刷物を撮影して、印刷物に埋め込まれた付加情報を取得する。付加情報には情報αと、情報αの閲覧を許可されたユーザのユーザIDとが含まれている。その後、CPU304はS2402で、モバイル端末301でユーザを撮影して、顔認証情報を取得する。本実施形態では、1つ目のカメラ(撮像センサ202)で印刷物を撮影し、2つ目のカメラ(第二撮像センサ215)でユーザ自身を撮影するケースを想定する。顔認証情報は、第二撮像センサ215で取得した顔画像を用いて、特定のユーザを指し示すユーザIDを算出する。顔認証は多くの方法が提案されているが、ユーザが特定できればどの方法を用いてもよい。そして、CPU304はS2403で、顔認証で取得したユーザIDが、S2401で取得した情報αの閲覧を許可されたユーザのユーザIDと一致するか否かを判定する。一致していればS2404に移行して、一致していなければ処理を終了する。S2404に移行した場合、CPU304は、情報αのロックを解除して、S2402で情報αをモバイル端末301のディスプレイ308に表示する。
When the extraction process of the additional information is started, the
なお、本実施形態ではユーザの特定に顔認証を用いて情報αに対するロックの解除を行ったが、ユーザの特定は他の方法を用いてもよい。例えば、指紋認証機能を備えたモバイル端末で指紋認証を用いてユーザを特定してもよいし、音声認証機能を備えたモバイル端末で音声認証を用いてユーザを特定してもよい。 In the present embodiment, the lock on the information α is released by using face authentication to identify the user, but another method may be used to identify the user. For example, a mobile terminal having a fingerprint authentication function may identify a user by using fingerprint authentication, or a mobile terminal having a voice authentication function may identify a user by using voice authentication.
102 付加情報多重化装置
103 記録装置
301 モバイル端末
304 CPU
308 ディスプレイ
102 Additional
308 display
Claims (10)
前記撮像情報から前記付加情報を抽出する抽出工程と、
を有する情報処理方法であって、
前記撮像における状況に関する撮像状況情報を取得する撮像情報取得工程と、
前記付加情報と前記撮像状況情報とに基づいて、所定の処理を行う処理工程と、を更に有することを特徴とする情報処理方法。 The acquisition process of capturing an image in which additional information is embedded as a digital watermark and acquiring the imaging information,
An extraction step of extracting the additional information from the imaging information, and
It is an information processing method that has
An imaging information acquisition step for acquiring imaging status information regarding the status in the imaging, and
An information processing method further comprising a processing step of performing a predetermined process based on the additional information and the imaging status information.
前記撮像状況情報は、前記印刷物を撮影した日時に関する日時情報であり、
前記処理工程では、前記印刷物を撮影した日時が、前記所定の日付に対して、前であるか後であるかに応じて、前記URLの他の一部を作成し、前記ネットワークに接続することを特徴とする請求項1に記載の情報処理方法。 The additional information is a part of the URL and date information regarding a predetermined date.
The imaging status information is date and time information relating to the date and time when the printed matter was photographed.
In the processing step, another part of the URL is created and connected to the network depending on whether the date and time when the printed matter was photographed is before or after the predetermined date. The information processing method according to claim 1.
前記撮像状況情報は、前記印刷物を撮影した場所の位置を示すGPS情報であり、
前記処理工程では、前記印刷物を撮影した場所の位置から前記所定場所の位置までの経路を表示することを特徴とする請求項1に記載の情報処理方法。 The additional information is GPS information indicating the position of a predetermined place, and is
The imaging status information is GPS information indicating the position of the place where the printed matter was photographed.
The information processing method according to claim 1, wherein in the processing step, a route from a position where the printed matter is photographed to the position of the predetermined place is displayed.
前記撮像状況情報は、ユーザの居住国を示す居住国情報であり、
前記処理工程では、前記価格情報の価格を居住国の通貨に換算した価格を表示することを特徴とする請求項1に記載の情報処理方法。 The additional information is price information indicating the price of the product, and is
The imaging status information is the country of residence information indicating the country of residence of the user.
The information processing method according to claim 1, wherein in the processing step, a price obtained by converting the price of the price information into the currency of the country of residence is displayed.
前記撮像状況情報は、ユーザの位置を示すGPS情報と、モバイル端末の向きを示す端末向き情報であり、
前記処理工程では、前記所定のURLにあるレイアウト情報および物品の詳細情報と、ユーザの位置と、モバイル端末の向きと、からユーザが見ている物品の詳細情報を表示することを特徴とする請求項1に記載の情報処理方法。 The additional information is a predetermined URL and detailed information of the article, and is
The imaging status information is GPS information indicating the position of the user and terminal orientation information indicating the orientation of the mobile terminal.
The processing step is characterized in that the detailed information of the article viewed by the user is displayed from the layout information and the detailed information of the article at the predetermined URL, the position of the user, the orientation of the mobile terminal, and the like. Item 1. The information processing method according to item 1.
前記撮像状況情報は、ユーザがモバイル端末のディスプレイに触れたことに関する情報であるタッチ情報であり、
前記処理工程では、前記タッチ情報に基づいて、前記所定情報を前記ディスプレイに表示することを特徴とする請求項1に記載の情報処理方法。 The additional information is predetermined information and is
The imaging status information is touch information which is information about the user touching the display of the mobile terminal.
The information processing method according to claim 1, wherein in the processing step, the predetermined information is displayed on the display based on the touch information.
前記撮像状況情報は、前記印刷物を撮影したユーザの第2ユーザIDであり、
前記処理工程では、前記第1ユーザIDと前記第2ユーザIDとが一致する場合に、前記閲覧情報を表示することを特徴とする請求項1に記載の情報処理装置。 The additional information includes browsing information and a first user ID of a user who is permitted to browse the browsing information.
The imaging status information is the second user ID of the user who photographed the printed matter.
The information processing apparatus according to claim 1, wherein in the processing step, the browsing information is displayed when the first user ID and the second user ID match.
前記撮像情報から前記付加情報を抽出する抽出手段と、
を有する情報処理方法であって、
前記撮像における状況に関する撮像状況情報を取得する撮像情報取得手段と、
前記付加情報と前記撮像状況情報とに基づいて、所定の処理を行う処理手段と、を更に有することを特徴とする情報処理装置。 An acquisition means for acquiring imaging information by capturing an image in which additional information is embedded as a digital watermark,
An extraction means for extracting the additional information from the imaging information, and
It is an information processing method that has
An imaging information acquisition means for acquiring imaging status information regarding the situation in the imaging, and
An information processing device further comprising a processing means for performing a predetermined process based on the additional information and the imaging status information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019237033A JP7438752B2 (en) | 2019-12-26 | 2019-12-26 | Information processing device, control method for information processing device, storage medium, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019237033A JP7438752B2 (en) | 2019-12-26 | 2019-12-26 | Information processing device, control method for information processing device, storage medium, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021106332A true JP2021106332A (en) | 2021-07-26 |
JP2021106332A5 JP2021106332A5 (en) | 2022-12-28 |
JP7438752B2 JP7438752B2 (en) | 2024-02-27 |
Family
ID=76919646
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019237033A Active JP7438752B2 (en) | 2019-12-26 | 2019-12-26 | Information processing device, control method for information processing device, storage medium, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7438752B2 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006072580A (en) | 2004-08-31 | 2006-03-16 | Sharp Corp | Electronic device, information management device, communication system, method for displaying imaging position, program, and computer readable recording medium for recording this program |
JP2012181701A (en) | 2011-03-01 | 2012-09-20 | Toshiba Corp | Information display device and information display method |
JP2013235553A (en) | 2012-04-13 | 2013-11-21 | Hitachi Solutions Ltd | Information provision system |
JP2014215723A (en) | 2013-04-23 | 2014-11-17 | キヤノン株式会社 | Information processor and control method thereof |
JP2016161479A (en) | 2015-03-04 | 2016-09-05 | 株式会社ゼンリンデータコム | Navigation system and navigation method |
-
2019
- 2019-12-26 JP JP2019237033A patent/JP7438752B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7438752B2 (en) | 2024-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10469701B2 (en) | Image processing method that obtains special data from an external apparatus based on information multiplexed in image data and apparatus therefor | |
JP6808581B2 (en) | Information processing equipment, information processing methods and programs | |
US11943547B2 (en) | Information processing apparatus that illuminates a printed image during capture when embedded information is to be processed, information processing system, information processing method, and storage medium | |
US10992837B2 (en) | Information processing apparatus, control method thereof, and storage medium | |
JP2009027385A (en) | Image processor, its method and computer program | |
US10033904B2 (en) | Information processing apparatus for multiplexing information in an image, information processing method, and storage medium storing program | |
JP7438752B2 (en) | Information processing device, control method for information processing device, storage medium, and program | |
JP6789890B2 (en) | Information processing equipment, information processing methods and programs, and how to create multiplexing parameters | |
JP7451187B2 (en) | Image processing device, image processing method and program | |
JP7455584B2 (en) | Information processing device, control method for information processing device, program, and storage medium | |
US11831834B2 (en) | Information processing apparatus, method, and product performing multiplexing processing by different methods with respect to printing and non-printing areas | |
JP7458766B2 (en) | Information processing device, control method for information processing device, program, and storage medium | |
US11245810B2 (en) | Image processing apparatus, method, and program product for embedding corresponding information in an area overlapping a recognized object | |
US20070297684A1 (en) | Data Conversion Apparatus, Data Conversion Method, and Data Conversion System | |
JP2017073649A (en) | Information processing device, information processing method and computer program | |
JP6577815B2 (en) | Information processing apparatus, information processing method, and program | |
JP2005338902A (en) | Document data structure, document conversion device, document restoration device, document conversion method, document restoration method, document conversion program, document restoration program and recording medium | |
JP2023042153A (en) | Image processing device, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221220 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230908 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240214 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7438752 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |