JP7438752B2 - Information processing device, control method for information processing device, storage medium, and program - Google Patents
Information processing device, control method for information processing device, storage medium, and program Download PDFInfo
- Publication number
- JP7438752B2 JP7438752B2 JP2019237033A JP2019237033A JP7438752B2 JP 7438752 B2 JP7438752 B2 JP 7438752B2 JP 2019237033 A JP2019237033 A JP 2019237033A JP 2019237033 A JP2019237033 A JP 2019237033A JP 7438752 B2 JP7438752 B2 JP 7438752B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- user
- additional information
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 75
- 230000010365 information processing Effects 0.000 title claims description 27
- 238000000605 extraction Methods 0.000 claims description 35
- 239000000284 extract Substances 0.000 claims description 11
- 230000008569 process Effects 0.000 description 54
- 238000010586 diagram Methods 0.000 description 44
- 238000012937 correction Methods 0.000 description 27
- 238000006243 chemical reaction Methods 0.000 description 26
- 239000000976 ink Substances 0.000 description 18
- 238000000926 separation method Methods 0.000 description 18
- 238000001514 detection method Methods 0.000 description 16
- 239000013598 vector Substances 0.000 description 15
- 238000003384 imaging method Methods 0.000 description 13
- 238000001228 spectrum Methods 0.000 description 10
- 238000013139 quantization Methods 0.000 description 8
- 238000007405 data analysis Methods 0.000 description 7
- 239000000463 material Substances 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 239000003086 colorant Substances 0.000 description 5
- 238000003702 image correction Methods 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 238000001454 recorded image Methods 0.000 description 4
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 3
- 238000009792 diffusion process Methods 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000002427 irreversible effect Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241000593989 Scardinius erythrophthalmus Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 201000005111 ocular hyperemia Diseases 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
Images
Description
本発明は、画像内に電子透かしとして埋め込まれた付加情報を取得して、所定の処理を行う情報処理装置、情報処理装置の制御方法、記憶媒体およびプログラムに関する。 The present invention relates to an information processing apparatus, a control method for the information processing apparatus, a storage medium, and a program that acquire additional information embedded as a digital watermark in an image and perform predetermined processing.
特許文献1には、画像に付加情報としてUniform Resource Locator(以下、URLという)を埋め込み、ソフトウエアによって埋め込まれたURLを読み取ることで、ユーザがネットワークにアクセスすることが記載されている。
しかし、特許文献1の方法では、画像に埋め込まれた付加情報は、変更することができない。そのため、ソフトウエアによって埋め込まれた付加情報を読み取ることで成される処理は、常に同じ処理であり、例えば、ユーザが画像を読み取った日時や場所などの状況に合わせた処理を行うことはできなかった。
However, with the method of
よって本発明は、画像から付加情報を読み取り、ユーザが画像を読み取った日時や場所などの状況に応じた処理を実行することができる情報処理装置、情報処理装置の制御方法、記憶媒体およびプログラムを提供する。 Therefore, the present invention provides an information processing device , a control method for the information processing device, a storage medium, and a program that can read additional information from an image and execute processing according to the situation such as the date and time and place where the user read the image. provide.
そのため本発明の情報処理装置は、画像を撮像して撮像画像を取得する取得手段と、前記撮像画像から、前記画像に電子透かしとして埋め込まれた付加情報を抽出する抽出手段と、ユーザがタッチパネルに触れたことに対応するタッチ情報が取得された場合に、前記抽出手段で抽出された付加情報を前記タッチパネルに表示するように制御する制御手段と、を有することを特徴とする。 Therefore, the information processing apparatus of the present invention includes: an acquisition unit that captures an image to obtain the captured image ; an extraction unit that extracts additional information embedded in the image as a digital watermark from the captured image; It is characterized by comprising a control means for controlling the additional information extracted by the extraction means to be displayed on the touch panel when touch information corresponding to touching is acquired.
本発明によれば、画像から付加情報を読み取り、ユーザが画像を読み取った日時や場所などの状況に応じた処理を実行することができる情報処理装置、情報処理装置の制御方法、記憶媒体およびプログラムを提供することができる。 According to the present invention, an information processing apparatus , a control method for an information processing apparatus, a storage medium, and a program are capable of reading additional information from an image and executing processing according to the situation such as the date and time and place when the user read the image. can be provided.
以下、電子透かしとして付加情報が埋め込まれた画像に関する実施形態について記載する。ここでの電子透かしとは、画像に対して不可視に、もしくは視認することが困難な状態で埋め込まれた情報である。このような情報は、該画像に対して装置が解析を行うことにより抽出可能である。この解析の詳細については後述する。なお、以降の説明において、電子透かしとしての情報の埋め込みを、画像に対する該情報の「多重化」として表現する。 An embodiment regarding an image in which additional information is embedded as a digital watermark will be described below. The digital watermark here is information embedded in an image in a state that is invisible or difficult to visually recognize. Such information can be extracted by the device analyzing the image. Details of this analysis will be described later. In the following description, embedding of information as a digital watermark will be expressed as "multiplexing" of the information into an image.
(第1の実施形態)
以下、図面を参照して本発明の第1の実施形態について説明する。先ず、画像情報に付加情報を埋め込む多重化エンコード処理部と、撮影画像(撮像情報)から付加情報を抽出する多重化デコード処理部の基本構成について説明する。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. First, the basic configurations of a multiplex encoding processing section that embeds additional information in image information and a multiplexing decoding processing section that extracts additional information from a photographed image (imaging information) will be explained.
先ず、多重化エンコード処理部と多重化エンコード処理について説明する。
図1は、本実施形態において、画像情報Aに付加情報Bを埋め込む多重化エンコードのためのハードウェアの構成を示した図である。このハードウェアは、画像情報Aと付加情報Bとを取得し、それらの画像情報Aに付加情報Bが埋め込まれた印刷物Cを生成する。
First, the multiplex encoding processing section and multiplex encoding processing will be explained.
FIG. 1 is a diagram showing a hardware configuration for multiplex encoding in which additional information B is embedded in image information A in this embodiment. This hardware acquires image information A and additional information B, and generates printed matter C in which additional information B is embedded in the image information A.
図1(a)のハードウェアは、付加情報多重化装置102と記録装置103とを備えており、付加情報多重化装置102によって画像情報Aに付加情報Bを埋め込む処理が行われ、記録装置103で画像情報Aに付加情報Bが埋め込まれた印刷物Cが生成される。図1(b)のハードウェアは、記録装置103の内部に付加情報多重化部105と記録部106とを備え、付加情報多重化部105によって画像情報Aに付加情報Bを埋め込む処理が行われ、記録部106で画像情報Aに付加情報Bが埋め込まれた印刷物Cが生成される。本実施形態を実現可能なハードウェアの構成は、図1(a)または図1(b)のいずれの構成でもよい。
The hardware in FIG. 1A includes an additional
図1(a)の構成において、入力端子100から入力される画像情報Aは、色成分を含む多階調の画像情報である。入力端子101から入力される付加情報Bは、テキスト文書情報、音声情報、動画情報、あるいはテキスト文書情報、音声情報、画像、動画情報を圧縮した情報、および他のバイナリ値に変換された情報などである。多重化装置102は、後述するように、画像情報Aに付加情報Bを埋め込む多重化処理を行う。記録装置103は、付加情報Bが埋め込まれた画像情報A’に基づいて記録動作を行うことによって印刷物Cを生成する。
In the configuration of FIG. 1A, image information A input from the
図1(b)の構成において、図1(a)の多重化装置102に相当する多重化部105は、記録装置103に含まれており、図1(a)の構成と同様に、入力端子100から画像情報Aが入力され、入力端子101から付加情報Bが入力される。記録装置103内の多重化部105は、画像情報Aに付加情報Bを埋め込む処理を行う。また、記録部106は、付加情報Bが埋め込まれた画像情報A’に基づいて記録動作を行うことによって印刷物Cを生成する。このように付加情報Bが埋め込まれた画像情報A’に基づいて印刷物Cを生成する処理を「多重化エンコード処理」ともいう。
In the configuration of FIG. 1(b), a
図2は、図1(a)の付加情報多重化装置102のハードウェア構成を示した図である。CPU202は、中央演算装置であり、例えば、付加情報Bを多重化する処理をプログラムに従って実行する。ROM203は、CPU202により実行されるプログラムを記憶する。RAM204は、CPU202によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリを提供する。2次記憶装置205は、例えばハードディスクであり、画像ファイルや付加情報などを保存するための記憶媒体である。ディスプレイ206は、ユーザインタフェース画面や処理内容等を表示する。キー入力装置207は、キーボードなどの機器の操作を介して処理の指示や設定、文字入力等を受け付ける。ネットワークインタフェース208は、例えばLAN(Local Area Network)に接続されている。また、LANは、インターネットに接続されている。CPU202は、ネットワークインタフェース208により、インターネットに接続されたサイトにアクセスして、ディスプレイ206にサイトの画面を表示させ、情報を送受信する。付加情報多重化装置102は、例えばコンピュータやスマートフォンなどの情報処理装置であるが、画像情報Aに付加情報Bを埋め込む処理が実行可能であれば他の形態の装置でもよい。
FIG. 2 is a diagram showing the hardware configuration of the additional
図3は、印刷物Cに記録された画像情報A’から付加情報Bを抽出するハードウェアの構成を示した図である。ここでは、画像情報A’から付加情報Bを抽出するハードウェアとしてモバイル端末301を例に説明する。
FIG. 3 is a diagram showing a hardware configuration for extracting additional information B from image information A' recorded on printed matter C. Here, a
モバイル端末301は、多重化エンコード処理された印刷物Cをカメラなどの撮像装置によって撮像して、その撮影画像を解析することによって、画像に埋め込まれている付加情報Bを抽出する。
The
撮像センサ302を保持するカメラ付きのモバイル端末(情報処理装置)301は、印刷物Cの撮影機能をもつ。付加情報Bの分離装置303は、撮像センサ302によって撮影された画像を解析することによって、後述するように、付加情報Bを抽出する。CPU(中央演算装置)304は、プログラムにしたがって情報処理方法を実行し、ROM305には、CPU304によって実行されるプログラムが記憶されている。RAM306は、CPU304によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリとして機能する。ハードディスク等の2次記憶装置307は、画像ファイルおよび画像解析結果を含むデータベースなどを保存する。ディスプレイ308は、CPU304の処理結果などをユーザに提示する。
A camera-equipped mobile terminal (information processing device) 301 holding an
キー入力装置309は、タッチパネル機能を備えるディスプレイ308を用いて、タッチパネルの操作によって処理の指示および文字の入力等を行う。無線LAN(Local Area Network)310はインターネットに接続されており、インターネットに接続されたサイトにアクセスして、ディスプレイ308にサイトの画面などを表示させる。無線LAN310は、データを送受信などにも用いられる。スピーカー311は、抽出された付加情報Bが音声情報または音声付動画データの場合に、音声を出力する。また、インターネットの接続先に動画データがある場合には、その動画データの再生時に音声を出力する。加速度計312は、モーションセンサを搭載しており、モバイル端末301を所持して歩いた時の歩数やモバイル端末301がどちらの方角を向いているかを提示する。
A
ジャイロスコープ313は、モバイル端末301がどのような姿勢を維持しているかを感知し、加速度計312の精度をさらに向上させる。GPS(Global Positioning System)314は人工衛星と通信しモバイル端末301の地球上の位置を提示する。第二撮像センサ315は撮像センサ302と同等の機能を持つ撮像センサであり、撮像センサ302と同様に画像や動画を撮影することができる。時計316は時刻を管理する。ユーザが手動で時刻を調整する事もできるが、無線LAN310を介してサーバ上の時刻を取得し、自動で調整する事も可能である。国や地球上の位置によって時刻は変わる為、ユーザは手動もしくは自動で調整する。
The
モバイル端末301はスマートフォン、タブレット、PC、デジタルカメラ、ビデオカメラやウェアラブル端末を使った構成が考えられる。また、モバイル端末301は、撮像センサ302を内蔵する構成に限定されない。例えば、モバイル端末301とは別の装置によって撮像センサ302を制御して、撮影画像を付加情報の分離装置303に送信する構成であってもよい。撮像センサ302としては、デジタルカメラおよびビデオカメラなどを用いることができる。また、付加情報Bの分離装置303としては、パソコンおよびスマートフォンなどを用いることができ、印刷物Cから付加情報Bを抽出できる構成であればよい。
The
図4は、多重化エンコード処理を行う基本的なファームウェア構成を示したブロック図である。付属情報の取得部401は、画像情報Aを圧縮する際に使用された各種パラメータを取得する。その取得された各種パラメータは、復元部402で、圧縮された画像から画像情報を抽出するための処理に利用される。また、その取得された各種パラメータは、圧縮度を算出するための処理に利用される。例えば、入力画像は、文書情報をJPEGフォーマットで圧縮して得られた非可逆画像情報であり、記録媒体に記録される。非可逆画像情報には、圧縮する際に使用された量子化テーブルと画像情報サイズとが含まれている。取得された画像情報サイズ情報および量子化テーブルは、画像情報の復元部402に送られる。
FIG. 4 is a block diagram showing the basic firmware configuration for performing multiplex encoding processing. The attached
画像情報の復元部402は、符号化された画像情報を復号化して、画像情報を抽出する。以下では、入力画像をJPEG画像として説明する。
The image
ここで図5は、符号化された画像情報を復号化する画像復元処理を示したフローチャートである。以下、このフローチャートを用いて画像復元処理を説明する。図5の処理は、例えば、CPU202がROM203に記憶されたプログラムをRAM204に読み出して実行することにより実現される。ここでは、JPEG形式の画像がN個の8画素正方ブロック(8×8画素のブロック)に分割されているものとする。
Here, FIG. 5 is a flowchart showing image restoration processing for decoding encoded image information. The image restoration process will be explained below using this flowchart. The processing in FIG. 5 is realized, for example, by the
画像復元処理が開始されると、CPU202はS51でn=1として、CPU202はS52で、n番目のブロックをハフマン符号化する。ハフマン符号化は、頻度の高いデータに短いビット数の符号を割当てることによって、全体のビット数を減らすように圧縮する方法である。ハフマン復号化は、予めハフマン符号を仕様で定義しておいて元のデータに復号化する。その後、CPU202はS53で、量子化テーブルを用いて逆量子化する、逆量子化では、付属情報取得部401によって取得された量子化テーブル(画像情報を圧縮する際に使用された量子化テーブル)を用いた逆量子化により画像情報に展開する。次に、CPU202はS54で、画像情報に展開したものを逆DCT変換する。逆DCT変換は、直流成分(DC成分)と交流成分(AC成分)にDCT変換された画像情報を元の画像濃度成分のデータに戻すための逆変換を行う。
When the image restoration process is started, the
そして、CPU202はS55でn=n+1として、CPU202はS56で、N=nであるか否かを判定し否判定であればS52に戻り処理を繰り返す。このようにして、上記の処理を対象画面のN個の全ブロックについて実行する。
Then, in S55, the
JPEG圧縮は、輝度Y、色差Cb、Cr形式で実施されることが多く、その場合、逆DCT処理が施されたデータもYCbCrの形式になる。下式1により、YCbCr形式の値をRGB形式の画像信号値に変換する。
式1:
R = Y + 1.402×Cr
G = Y - 0.344×Cb - 0.714×Cr
B = Y + 1.772×Cb
JPEG compression is often performed in a luminance Y, color difference Cb, Cr format, and in that case, data subjected to inverse DCT processing also becomes a YCbCr format. A value in YCbCr format is converted into an image signal value in RGB
Formula 1:
R = Y + 1.402×Cr
G = Y - 0.344 x Cb - 0.714 x Cr
B = Y + 1.772×Cb
図4のブロック図に戻り、画像補正部403は、画像情報復元部402により複合化されたRGBデータに対し、画像の補正処理を施す。画像の補正としては、全体の色を明るくまたは暗くする明度調整、コントラスト調整、およびカラーバランスの調整の他、写真の記録を想定した逆光補正および赤目補正などの様々な補正が挙げられる。これらの補正を画像補正部403において一元的に処理することにより、記録装置に依存しない処理を実現することができる。
Returning to the block diagram of FIG. 4, the
解像度変換部404は、画像情報を記録装置に対応する解像度に変換する。入力される画像情報と、記録装置の解像度と、に応じて導き出された変倍量に基づいて、拡大または縮小の処理を施す。変倍処理としては、ニアレストネイバー、バイリニア、バイキュービック法などが存在し、処理の特性、および処理速度を考慮して適宜選択すればよい。
A
色補正部405は、記録装置103による記録画像が好適な色となるように、画像情報に変換処理を施す。例えば、表示装置に表示された画像を記録する場合、表示装置と記録装置とにおける色再現範囲は必ずしも一致しない。ある色では記録装置の再現範囲の方が狭く、また、別の色では記録装置の再現範囲の方が広い場合がある。そのため、画像の劣化を最小限にして、適宜、色の圧縮および伸長を行う必要がある。
The
本実施形態では、それらの変換処理をRGB形式で実施する。つまり、記録装置103の再現性を考慮して、色補正部405に入力されたRGB値を記録装置用のRGB値(以下、「記録装置用RGB」ともいう)に変換する。この変換は、マトリクスなどの演算によって行うことも可能である。一般的には、3次元の色補正テーブル411が利用される。入力されるRGB値を各色8ビット(256階調)とした場合、全ての組み合わせを保持することは記憶容量の観点から現実的でないため、色補正テーブル411として、所定の間隔で間引かれたテーブルを用いる。
In this embodiment, these conversion processes are performed in RGB format. That is, in consideration of the reproducibility of the
ここで図6は、色補正テーブル411を示した図であり、図7は、四面体補間のイメージ図である。本実施形態の色補正テーブル411は、各色256階調を17点のグリッド点とし、それに対応する記録装置用RGB値を記載したテーブルである(17*17*17=4913グリッド点)。グリッド点間の値は、補間処理を利用して算出する。補間方法は、幾つかの方法の中から選択して利用することができ、本実施形態においては四面体補間法を利用した。四面体補間法とは、3次元空間の分割単位を四面体として、4つの格子点を用いる線形補間である。この四面体補間法においては、まず、図7(a)のように3次元空間を四面体に分割してから、ターゲットとなる点pが、分割された四面体のうちのいずれに属するかを決定する。その四面体の4頂点をそれぞれp0、p1、p2、p3とし、図7(b)のように、その四面体をさらに細かい小四面体に分割する。各点の変換値をそれぞれf(p0)、f(p1)、f(p2)、f(p3)とした場合、下式2により補間値f(p)を求めることができる。
Here, FIG. 6 is a diagram showing the color correction table 411, and FIG. 7 is an image diagram of tetrahedral interpolation. The color correction table 411 of this embodiment is a table in which each color has 256 gradations as 17 grid points, and the corresponding RGB values for the printing device are described (17*17*17=4913 grid points). Values between grid points are calculated using interpolation processing. The interpolation method can be selected from among several methods, and in this embodiment, the tetrahedral interpolation method was used. The tetrahedral interpolation method is linear interpolation using four lattice points, with a tetrahedron as the division unit of the three-dimensional space. In this tetrahedral interpolation method, the three-dimensional space is first divided into tetrahedrons as shown in Fig. 7(a), and then it is determined to which of the divided tetrahedrons the target point p belongs. decide. The four vertices of the tetrahedron are designated as p0, p1, p2, and p3, respectively, and the tetrahedron is further divided into smaller small tetrahedrons as shown in FIG. 7(b). If the converted values of each point are respectively f(p0), f(p1), f(p2), and f(p3), then the interpolated value f(p) can be obtained using the
ここで、w0、w1、w2、w3は、各頂点piと反対向位置における小四面体の体積比である。このように、対象となるRGB値に対応した記録装置用RGB値を算出する。その場合、階調性を考慮して、出力を8ビット以上としてもよい。また、色補正テーブルは、記録装置の色再現範囲にも依存するため、例えば、記録に使用する記録用紙(記録媒体)が異なる場合は、それに応じたテーブルを準備することが望ましい。 Here, w0, w1, w2, and w3 are the volume ratios of the small tetrahedrons at positions opposite to each vertex pi. In this way, the RGB values for the recording device corresponding to the target RGB values are calculated. In that case, the output may be set to 8 bits or more in consideration of gradation. Further, since the color correction table also depends on the color reproduction range of the recording device, for example, if the recording paper (recording medium) used for recording is different, it is desirable to prepare a table corresponding to that.
図4のブロック図に戻り、インク色変換部406は、色補正部405によって変換された記録装置用RGB値をインク色の値に変換する。この変換には、記録装置用RGB値の組み合わせと、インク色の値と、が予め対応付けられた色分解テーブル412を用いる。色補正部405と同様に、インク色変換部406においてもグリッド点17のテーブルを利用する。
Returning to the block diagram of FIG. 4, the ink
ここで図8は、色分解テーブル412の一例を示した図である。本実施形態の色分解テーブル412では、インク色として、シアン(C)、マゼンタ(M)、イエロー(Y)、ブラック(K)の4色を想定し、各グリッド点に対応した4色の値が収められている。これらの値は、記録用紙の記録面上においてインクが溢れないこと、インク同士が隣接した際に滲まないこと、などを考慮して決定される。そのため、記録に使用する記録用紙が異なる場合は、それに応じた色分解テーブル412を準備することが望ましい。また、上述の色補正部405と同様に、記録装置用RGB値に対応するインク色の値は、四面体補間処理によって補間することができる。
Here, FIG. 8 is a diagram showing an example of the color separation table 412. In the color separation table 412 of this embodiment, four colors of cyan (C), magenta (M), yellow (Y), and black (K) are assumed as ink colors, and four color values corresponding to each grid point are assumed. is included. These values are determined by taking into consideration that the ink will not overflow on the recording surface of the recording paper and that the ink will not bleed when adjacent to each other. Therefore, if the recording paper used for recording is different, it is desirable to prepare a color separation table 412 corresponding to the recording paper. Further, similarly to the
図4のブロック図に戻り、濃度補正部407は、画像の記録濃度を補正する。一般的にインクジェット記録装置では、記録用紙上にドットを形成するために付与されるインクの量が多くなるにしたがって、ドットの重なりが増加し、画像の記録濃度が上昇しにくくなる。濃度補正部407は、このような濃度の応答性を均一にするために濃度を補正する。
Returning to the block diagram of FIG. 4, the
濃度補正により、色補正テーブル411および色分解テーブル412の作成を高精度に行うことができる。C(シアン)、M(マゼンタ)、Y(イエロー)、K(ブラック)のインクを用いる記録装置においては、それらのインク色について濃度補正を行う。本実施形態おいては、1次元の濃度補正テーブル413を用いる。そのテーブルとしては、インク色毎の入力8ビット(256階調)に対応したテーブルを用意しておけばよく、特に間引くことなく、入力信号値と補正後の出力信号値とを対応付けたテーブルを用いることができる。 By density correction, the color correction table 411 and color separation table 412 can be created with high precision. In a recording apparatus that uses C (cyan), M (magenta), Y (yellow), and K (black) inks, density correction is performed for these ink colors. In this embodiment, a one-dimensional density correction table 413 is used. As for the table, it is sufficient to prepare a table corresponding to 8 bits of input (256 gradations) for each ink color, and a table that associates the input signal value with the corrected output signal value without any thinning. can be used.
階調変換部408は、インク色毎に変換されて濃度補正が施された多ビットデータを、記録装置において記録可能な階調数に変換する。本実施形態においては、記録「1」/非記録「0」の2階調(1ビット)に変換し、階調の変換方法としては、画像の低周波成分を排除して、視覚に好適な階調の再現が可能な誤差拡散法を用いる。また、入力信号として、0~255の8ビットのデータを想定する。
The
ここで図9は、誤差拡散法における誤差分配方法を説明する図である。ターゲットピクセルの信号値を信号値Lとし、しきい値THとして、信号値Lとしきい値THとを比較する。本実施形態においては、0~255を2値化するためにしきい値THを127とし、下記のように、そのターゲットピクセルが「1」(記録)または「0」(非記録)のいずれであるかを判定する。
L>TH ・・・・・・ 1(記録)
L≦TH ・・・・・・ 0(非記録)
FIG. 9 is a diagram illustrating an error distribution method in the error diffusion method. The signal value of the target pixel is defined as the signal value L, the threshold value TH is defined as the signal value L, and the threshold value TH is compared. In this embodiment, in order to binarize 0 to 255, the threshold value TH is set to 127, and as shown below, the target pixel is either "1" (recorded) or "0" (non-recorded). Determine whether
L>TH ・・・・・・ 1 (record)
L≦TH ・・・・・・ 0 (non-recording)
この判定結果に応じて、量子化代表値Vを下記のように設定する。
1(記録) ・・・・・・ 255
0(非記録) ・・・・・・ 0
According to this determination result, the quantization representative value V is set as follows.
1 (record) 255
0 (non-recording) ・・・・・・ 0
このように量子化代表値Vを設定することにより、発生する誤差E(=L-V)は、図9の分配係数にしたがって周囲のピクセルに分配される。 By setting the quantization representative value V in this way, the generated error E (=LV) is distributed to surrounding pixels according to the distribution coefficient shown in FIG.
次のターゲットピクセルの信号値Lに、分配された誤差Eaを加算した値Laと、しきい値THと、を比較し、下記のように、そのターゲットピクセルが「1」(記録)または「0」(非記録)のいずれであるかを判定する。
La>TH ・・・・・・ 1(記録)
La≦TH ・・・・・・ 0(非記録)
The value La obtained by adding the distributed error Ea to the signal value L of the next target pixel is compared with the threshold value TH, and it is determined whether the target pixel is "1" (recorded) or "0" as shown below. ” (non-recording).
La>TH ・・・・・・ 1 (record)
La≦TH ・・・・・・ 0 (non-recording)
このような処理を全てのピクセル、および全てのインク色C、M、Y、Kに対して実行することにより、記録可能な1ビットのインク色毎の記録データが得られる。 By performing such processing for all pixels and all ink colors C, M, Y, and K, printable 1-bit print data for each ink color is obtained.
図4のブロック図に戻り、付加情報409は、図1(a)の多重化装置102もしくは図1(b)多重化部105において、画像情報Aに埋め込まれる付加情報Bであり、テキスト文書情報などである。テキスト文書情報は、例えば、既に公知である文字コードを利用して、数字および文字を数値に割り当てた数値情報であり、この数値情報が付加情報409として多重化部410に送信される。
Returning to the block diagram of FIG. 4,
具体例として、「hello」という文字に対応するテキスト文書情報について説明する。テキスト文書情報は、数値情報いわゆるバイナリデータとする。バイナリデータとは「0」もしくは「1」の情報であり、この「0」もしくは「1」の情報の連続的なつながりが特定の意味を持つ。バイナリデータと文字との対応は、「文字コード」によって定義されている。文字コードの中の1つである「シフトJIS」の場合、「h」はバイナリデータの「01101000」に対応する。 As a specific example, text document information corresponding to the characters "hello" will be explained. The text document information is assumed to be numerical information, so-called binary data. Binary data is information of ``0'' or ``1'', and the continuous connection of this ``0'' or ``1'' information has a specific meaning. The correspondence between binary data and characters is defined by a "character code." In the case of "Shift JIS", which is one of the character codes, "h" corresponds to binary data "01101000".
同様に、「e」は「01100101」、「l」は「01101100」、「o」は「01101111」のバイナリデータに対応する。したがって、「hello」という文字はバイナリデータでは、「0110100001100101011011000110110001101111」と表現できる。逆に、「0110100001100101011011000110110001101111」というバイナリデータを取得できれば、「hello」という文字を取得することができる。付加情報409は、このようなバイナリデータに変換された数値情報に対応する。
Similarly, "e" corresponds to the binary data "01100101," "l" corresponds to "01101100," and "o" corresponds to the binary data "01101111." Therefore, the character "hello" can be expressed as "0110100001100101011011000110110001101111" in binary data. Conversely, if the binary data "0110100001100101011011000110110001101111" can be obtained, the characters "hello" can be obtained.
付加情報多重化部410は、解像度変換部404において変換された画像情報と、付加情報409と、を受け取り、画像情報に付加情報409を埋め込む。この埋め込み処理(多重化処理)においては、付加情報409(「0」、「1」のバイナリデータに変換されたテキスト文書など)が埋め込まれた画像情報の記録画像から、その付加情報409が読み取れるように、付加情報409を画像情報に埋め込む。例えば、付加情報409の「0」,「1」のバイナリデータが読み取れるように、画像情報にマスク処理を施して、バイナリデータに対応する「0」,「1」の情報を埋め込む。
Additional
ここで図10(a),(b)は、「0」、「1」のバイナリデータに対応するマスクデータを示した図である。画像データにマスク処理を施すことにより、所定領域の画像情報に、「0」,「1」のバイナリデータに対応する異なる周期性を持たせる。これらのマスクデータを使用する付加情報多重化部410における処理の詳細については後述する。
Here, FIGS. 10A and 10B are diagrams showing mask data corresponding to binary data of "0" and "1". By performing mask processing on the image data, image information in a predetermined area is given different periodicity corresponding to binary data of "0" and "1". Details of the processing in additional
図11は、多重化エンコード処理を示すフローチャートである。以下、このフローチャートを用いて多重化エンコード処理を説明する。図11の処理は、例えば、CPU202がROM203に記憶されたプログラムをRAM204に読み出して実行することにより実現される。多重化エンコード処理が開始されると、CPU202はS11で、付属情報取得部401および画像情報復元部402によって、記録用の画像情報Aを取得する。例えば、画像情報Aは、モバイル端末301により予め撮影して、JPEGフォーマットでモバイル端末内のメモリに保存されたデータである。取得したJPEGの画像情報Aを解凍し、静止画の3色8ビットのRGBの画像情報を生成する。また、必要に応じて、画像補正部403によって、取得した画像情報Aに補正もしくは加工処理を施す。
FIG. 11 is a flowchart showing multiplex encoding processing. The multiplex encoding process will be explained below using this flowchart. The processing in FIG. 11 is realized, for example, by the
その後、CPU202はS12で、画像情報Aに埋め込む付加情報409を取得する。例えば、スマートフォンでキー入力されたテキスト文書情報を取得する。テキスト文書情報は、例えば、公知の文字コードシフトJISを利用して、数字および文字を数値に割り当てた数値情報とする。その数値情報は、付加情報409として多重化部410に送信される。そして、CPU202はS13で、任意に選択された記録媒体のサイズおよび記録装置103の解像度に基づいて、取得した画像情報Aに対して解像度変換処理を施す。例えば、選択された記録媒体のサイズを2Lとした場合、記録装置103における入力解像度の画素数に合わせて、画像情報Aの解像度を変換する。
After that, the
具体的には、記録装置103における入力解像度を600dpi(dot per inch)とした場合、記録媒体のサイズ2Lの画素数を3000画素×4000画素に設定する。この場合、画素数が1500画素×2000画素の画像情報Aに対しては、縦方向および横方向の画素数がそれぞれ2倍となるように解像度変換を行う。入力画像のアスペクト比を変更させたくない場合に、縦方向および横方向の拡大および縮小率を同じにして解像度変換を行う。その後、CPU202はS14で、付加情報の多重化部410によって、画像情報Aに付加情報409を埋め込むための付加情報多重化処理を行って処理を終了する。
Specifically, when the input resolution of the
図12は、本実施形態における多重化部410のファームウェア構成を示したブロック図である。以下、多重化部410における各処理部について説明する。
FIG. 12 is a block diagram showing the firmware configuration of the
色空間変換部1201は、解像度変換部404においてサイズが変更された画像情報の色空間を、情報多重化のための色空間に変換する処理部である。例えば、下式3のように、情報多重化を行う色空間を色空間YUVのUとし、画像情報のRGBの色空間をYUVの色空間に変換する。
式3:
Y = 0.299×R + 0.587×G + 0.114×B
U =-0.169×R - 0.331×G + 0.500×B
V = 0.500×R - 0.419×G - 0.081×B
The color
Formula 3:
Y = 0.299 x R + 0.587 x G + 0.114 x B
U = -0.169 x R - 0.331 x G + 0.500 x B
V = 0.500 x R - 0.419 x G - 0.081 x B
ブロック位置設定部1202では、後述するブロックの位置座標を設定する。本実施形態では、画像情報を複数のブロック領域に分け、ブロック単位で各画素の濃度を変調させて、図10(a),(b)のマスクデータに対応するパターンを形成させることにより、付加情報409を埋め込む。そのため、ブロック位置設定部1202では、色空間変換後の画像情報を取得し、指定された色のプレーン画像に対して、指定された1つのブロックのサイズに合わせて、ブロックの位置座標を設定する。例えば、色空間YUVのU色のプレーン画像のサイズを縦幅640px、横幅480pxとし、ブロックサイズを縦幅8px、横幅8pxとする。この場合、縦ブロック数は80(=640÷8)、横ブロック数は60(=480÷8)、合計のブロック数は4800(=80×60)となる。例えば、各ブロックの左上座標をブロック位置と定めて設定することができる。
The block
数値化部1203は、受信した付加情報409を数値化したデータに変換する。例えば、付加情報409をシフトJISの文字列とする。この場合には、シフトJISの形式によって文字と数値とが対応付けられた変換マップを予め保持しておき、その変換マップを用いて文字列を数値列に変換する。例えば、文字列「hello」の場合、変換後の数値列「0110100001100101011011000110110001101111」となる。
The
パターン選択部1204には、ブロック単位で各画素の濃度変調を行うためのマスクパターンが登録されており、数値化部1203によって数値化された付加情報409に対して適用すべきマスクパターンを選択する。
The
ここで図13(a),(b)は、周波数特性が異なる図10(a),(b)のマスクパターンを数値化した図である。前述したように、図10(a)および図13(a)のマスクパターンは、付加情報409のバイナリデータの「0」に対応し、図10(b)および図13(b)のパターンは、付加情報409のバイナリデータの「1」に対応する。図10(a),(b)の黒の領域901が図13(a),(b)の「2」に対応する。同様に白の領域902が「0」に対応し、斜線の領域903が「-1」に対応する。
Here, FIGS. 13(a) and 13(b) are diagrams in which the mask patterns of FIGS. 10(a) and 10(b) having different frequency characteristics are digitized. As mentioned above, the mask patterns in FIGS. 10(a) and 13(a) correspond to the binary data "0" of the
情報多重化部1205は、色空間変換部1201において色空間変換した画像情報と、ブロック位置設定部1202において設定された各ブロックの位置と、パターン選択部1204において選択されたマスクパターンとを取得する。情報多重化部1205は、これらの取得情報から、画像情報にマスクパターンを適用した画像情報を生成する。
The
印刷物Cの記録画像を撮影する際に、必ずしも画像全体を撮影できるとは限らない。そのため、印刷物Cの記録画像の一部を撮影だけでも付加情報が抽出できるように、同じ付加情報を記録画像中の複数個所に埋め込む。例えば、80ブロックを1つの付加情報とした場合、全ブロック数4800に対して、同じ付加情報を60(=4800÷80)領域に分けて埋め込む。したがって画像情報は60の領域に分けられ、それらのうちの1つの領域に対して、縦幅8px、横幅8pxを1ブロックとした80ブロックの付加情報が埋め込まれる。80ブロックを1つの付加情報として取り扱うことにより、80ビットの付加情報が設定できる。但し、80ビットの開始位置が分かるように、シフトJISにおいては文字として表現されていない「11111111」の8ビットを付加情報の先頭に含ませる。したがって、72(=80-8)ビットのデータが付加情報となる。 When photographing a recorded image of printed matter C, it is not always possible to photograph the entire image. Therefore, the same additional information is embedded in multiple locations in the recorded image so that the additional information can be extracted by just photographing a portion of the recorded image of the printed matter C. For example, when 80 blocks are used as one additional information, the same additional information is divided into 60 (=4800÷80) areas and embedded for the total number of blocks, 4800. Therefore, the image information is divided into 60 areas, and 80 blocks of additional information, each block having a vertical width of 8 px and a width of 8 px, are embedded in one of these areas. By treating 80 blocks as one piece of additional information, 80 bits of additional information can be set. However, in order to know the starting position of the 80 bits, the 8 bits of "11111111", which are not expressed as characters in Shift JIS, are included at the beginning of the additional information. Therefore, 72 (=80-8) bits of data becomes additional information.
80ビット内に収まるデータは、数値化部1203において数値化された付加情報の「0」,「1」の数値列であり、8px×8pxの1ブロック毎に数値が定義され、その数値に対応するマスクパターンが選択される。画像情報における8px×8pxのブロックに、付加情報に対応するマスクパターンが埋め込まれる。例えば、画像データをYUVのU色プレーンとし、それを1ブロック毎に処理し、そのYUVのU色プレーンの値に図12(a),(b)のマスクパターンの値を適用する。例えば、下記のように、それらのマスクパターンの数値に応じてYUVのU色プレーンの値(U値)を加減算処理し、その加減算処理を行う基準値を10とする。
式4:
適用後のU値 = YUVのU値 + 基準値 × マスクパターンの数値
The data that fits within 80 bits is a numeric string of "0" and "1" of additional information digitized by the
Formula 4:
U value after application = YUV U value + reference value × mask pattern value
例えば、1ブロック内の1画素のU値が「20」であり、適用するマスクパターンの数値が「0」である場合には、下式5のようにU値が処理される。
式5:
適用後のU値 = 20 + 10 × 0 = 20
For example, if the U value of one pixel in one block is "20" and the numerical value of the applied mask pattern is "0", the U value is processed as shown in equation 5 below.
Formula 5:
U value after application = 20 + 10 × 0 = 20
また、1ブロック内の1画素のU値が「30」であり、適用するマスクパターンの数値が「2」の場合には、下式6のようにU値が処理される。
式6:
適用後のU値 = 30 + 10 × 2 = 50
Further, when the U value of one pixel in one block is "30" and the numerical value of the applied mask pattern is "2", the U value is processed as shown in Equation 6 below.
Formula 6:
U value after application = 30 + 10 × 2 = 50
このように本実施形態においては、画素毎に適用するマスクパターンの数値と、基準値と、を掛け合わせた値を加算することによって、多重化を実現する。マスクパターンの適用方法は、U色プレーン上に、マスクパターンを埋め込むことができればよく、本実施形態の方法に限定されず、例えば、YUVのU値に、マスクパターンの数値を掛け合わせてもよい。 In this manner, in this embodiment, multiplexing is achieved by adding the value obtained by multiplying the numerical value of the mask pattern applied to each pixel by the reference value. The method for applying the mask pattern is not limited to the method of this embodiment as long as the mask pattern can be embedded on the U color plane, and for example, the U value of YUV may be multiplied by the numerical value of the mask pattern. .
このような多重化エンコード処理は、図1(a)の付加情報多重化装置102または図1(b)の付加情報多重化部105によって実行される。多重化エンコード処理は、記録装置103によって処理されてもよく、記録装置103によって処理されなくてもよい。多重化装置102もしくは多重化部105において生成された多重化エンコード処理後の画像情報は、記録装置103もしくは記録部106に送信される。
Such multiplex encoding processing is executed by the additional
図14は、多重化エンコード処理後の画像情報の記録処理を示したフローチャートである。図14の処理は、例えば、記録装置が備えるCPUがROMに記憶されたプログラムをRAMに読み出して実行することにより実現される。以下、このフローチャートを用いて多重化エンコード処理後の画像情報の記録処理を説明する。 FIG. 14 is a flowchart showing image information recording processing after multiplex encoding processing. The process in FIG. 14 is realized, for example, by a CPU included in the recording device reading a program stored in a ROM into a RAM and executing it. Hereinafter, the recording process of image information after the multiplex encoding process will be explained using this flowchart.
多重化エンコード処理後の画像情報の記録処理が開始されると、CPUはS31で、付加情報多重化部410において付加情報409が埋め込まれた画像情報(多重化画像データ)を取得する。次にCPUはS32で、色補正部405によって、多重化画像データに適宜、色補正を施す。次にCPUはS33で、インク色変換部406、濃度補正部407、階調変換部408において、色補正後の画像情報をインク色の値に変換してから濃度を補正し、その濃度補正後の画像情報を階調数に変換することにより記録データを生成する。生成された記録データは、記録エンジンに送信される。そして、CPUはS34で記録エンジンを制御することで、記録データに基づいて各色のインクを記録媒体に付与することにより印刷物Cを生成する。
When the recording process of the image information after the multiplex encoding process is started, the CPU acquires image information (multiplexed image data) in which the
以下、多重化デコード処理部と多重化デコード処理について説明する。
図15(a)は、本実施形態における多重化デコード処理の基本ファームウェアのブロック構成を示す図であり、図15(b)は、多重化エンコード処理された印刷物をカメラ付きのモバイル端末301で撮影するイメージを示した図である。多重化デコード処理によって印刷物に埋め込まれている付加情報を抽出する。以下、多重化デコード処理部の詳細について説明する。
The multiplexing decoding processing section and multiplexing decoding processing will be explained below.
FIG. 15(a) is a diagram showing a block configuration of basic firmware for multiplex decoding processing in this embodiment, and FIG. 15(b) shows a photograph of a printed matter subjected to multiplex encoding processing using a
撮像センサ302は、撮像部1501と色調整部1502とを含む。付加情報分離装置303は、多重化位置検出部1503、付加情報分離部1504、抽出データ解析部1505を含む。本実施形態では、テキスト文書データや音声データや動画データなどの数値化された付加情報のデータが、印刷物1411上にパターン形状として付加されているものとする。例えば、付加情報は、印刷物C全体に、同じ情報を領域毎に繰り返し付加されている。撮像部1501は、多重化エンコード処理された印刷物Cを、撮像センサ302内の撮像素子で、撮像画像データに変換する。
The
撮像センサ302が備える撮像素子であるCCDについては、既に公知の技術なので、詳細な説明は省略する。概略を説明すると、CCDは、光をフォトダイオードという受光素子が感知して、光を電圧に変化させることが可能である。その際に、素子毎に配置したRGBやCMYなどのカラーフィルタを通すことにより、光を色のデータとして変換させることができる。撮像部1501で撮影されたセンサ値は、色調整部1502に送られる。
The CCD, which is the image sensor included in the
色調整部1502は、撮像部1501においてフォトダイオードで取り出したセンサ値に対し、例えば、1画素YUV、8ビットデータとして、画像データに変換する。また、ホワイトバランスや明るさ調整など、通常撮影時に実行される色調整処理も併せて行う。
The
多重化位置検出部1503は、多重化した印刷物が撮影され色調整された画像データを取得する。多重化位置検出部1503は、取得した画像データに対して、周波数特性を取得する。多重化位置検出部1503は、取得した周波数特性を判定することで、多重化されている位置を検出する。
The multiplexing
図16(a)は、二次元の周波数領域で周波数特性の差を示す概略図である。横軸は水平方向の周波数、縦軸は垂直方向の周波数を示している。中心となる原点は直流成分を示し、原点から遠ざかるにつれて、高周波域となる。本実施形態では、図13(a)、(b)のマスクパターンの切換えにより、多重化された印刷物のYUVのU成分の周波数特性が変わる。 FIG. 16(a) is a schematic diagram showing differences in frequency characteristics in a two-dimensional frequency domain. The horizontal axis shows the frequency in the horizontal direction, and the vertical axis shows the frequency in the vertical direction. The origin, which is the center, shows a DC component, and the further away from the origin, the higher the frequency becomes. In this embodiment, the frequency characteristics of the YUV U component of the multiplexed printed matter change by switching the mask patterns shown in FIGS. 13(a) and 13(b).
例えば、図13(a)によるU成分の特性の変化により、図16(a)の直線1601の周波数ベクトル上に大きなパワースペクトルが生じるとする。また、図13(b)によるU成分の特性の変化により、図16(a)の直線1602の周波数ベクトル上に大きなパワースペクトルが生じるとする。付加情報分離時には、この大きなパワースペクトルが発生する周波数ベクトルを検出することで多重化信号を判定することができる。
For example, suppose that a large power spectrum occurs on the frequency vector of the
図13(a)、(b)は、特定の周波数ベクトルの方向性を有するHPF(ハイパスフィルタ)に相当する。図13(a)、(b)は、周波数ベクトル検出時の空間フィルタとしても用いられる。即ち、図13(a)の空間フィルタでは、直線1601上の周波数ベクトルを強調することが可能になり、また、図13(b)の空間フィルタでは、直線1602上の周波数ベクトルを強調することが可能になる。
13A and 13B correspond to an HPF (high pass filter) having a specific frequency vector directionality. FIGS. 13(a) and 13(b) are also used as spatial filters when detecting frequency vectors. That is, the spatial filter in FIG. 13(a) can emphasize the frequency vector on the
例えば、今、図13(a)のマスクパターンにより、図16(a)の直線1601の周波数ベクトル上に大きなパワースペクトルが発生したとする。その場合、図13(a)の空間フィルタではパワースペクトルの変化量が増幅するが、図13(b)の空間フィルタでは、ほとんど増幅されない。即ち、複数の空間フィルタを並列にフィルタリングすると、周波数ベクトルが一致した空間フィルタ時のみ増幅し、それ以外のフィルタでは増幅がほとんど生じない。従って、いかなる周波数ベクトル上に大きなパワースペクトルが発生しているかを容易に判定することができる。
For example, suppose that a large power spectrum is generated on the frequency vector of
また、今回YUVのU成分において周波数特性を変化させて多重化された印刷物の付加情報分離時にU成分により周波数ベクトルを検出したが、U成分が失われてしまうと付加情報が分離できないことになる。U成分ではなく他のY成分やV成分に特性が移った場合、Y成分やV成分で周波数特性を判定すると付加情報を分離することができるが、U成分のみ解析するよりも時間がかかってしまう。 In addition, this time, we changed the frequency characteristics of the U component of YUV and detected a frequency vector using the U component when separating additional information from multiplexed printed matter, but if the U component is lost, the additional information cannot be separated. . If the characteristics shift to other Y or V components instead of the U component, additional information can be separated by determining the frequency characteristics using the Y or V components, but it takes more time than analyzing only the U component. Put it away.
上記のように、周波数特性の判定を行うことで、データを抽出することが可能となる。しかしながら、周波数特性を判定する際に、抽出すべき位置がずれていると、正しく抽出しにくくなってしまう。 As described above, by determining the frequency characteristics, data can be extracted. However, when determining frequency characteristics, if the position to be extracted is shifted, it becomes difficult to extract correctly.
図17は、周波数特性を判定する際の検出位置を説明するための図である。画像1701は、印刷物の4つのブロックにおいて多重化されている画像を示す。領域1702、1703は、ブロック単位で周波数特性を判定する領域を示す。図17において、領域1702は、多重化されているブロックの位置とずれていることを示す。領域1703は、多重化されているブロックの位置と合っていることを示す。この場合、領域1703は、予め決めた周波数を正しく特定することが可能だが、領域1702は、特定の周波数ベクトルのパワースペクトルが下がってしまうので、予め決めた周波数の特定が困難になる。
FIG. 17 is a diagram for explaining detection positions when determining frequency characteristics.
多重化位置検出部1503は、特定の周波数ベクトルのパワースペクトルが強いか弱いかに基づいてブロック位置を検出する。そこで、多重化位置検出部1503は、取得した撮像後の画像データに対し、ブロック位置をずらしながら周波数特性の判定を行い、多重化されたブロックの位置を検出する。
The multiplexing
付加情報分離部1504は、多重化位置検出部1503で検出した位置を基準とし、周波数特性を判定した結果を利用して、多重化されている付加情報を抽出する。
The additional
図16(b)は、記録媒体にブロック毎に多重化されている様子を示す図である。同図において、記録媒体1603は、印刷用紙を示し、ブロック1604は、多重化されるブロックを示す。多重化されているブロック数が横8ブロック、縦12ブロック、計96ブロックとする。図16(b)において、ブロック毎に、多重化エンコード処理で、付加情報の「0」と「1」が埋め込まれているものとする。
FIG. 16(b) is a diagram showing how each block is multiplexed on a recording medium. In the figure, a
例えば、図16(a)の、直線1601の周波数ベクトルのパワースペクトルがある閾値を超えていれば、データ「0」と判定される。また、直線1602上の周波数ベクトルのパワースペクトルがある閾値を超えていれば、データ「1」と判定される。多重化位置検出部1503で検出した位置を基準に、ブロック単位で、96ブロック分、位置をずらしながら、周波数特性の判定が行われる。この場合、1ブロック毎に、「0」「1」の1ビットを判定できるので、合計96ビットのデータを抽出することができる。このように、位置をずらしながら周波数特性の判定を行うことで、多重化されたデータを抽出することができる。
For example, if the power spectrum of the frequency vector of the
抽出データ解析部1505は、付加情報分離部1504で付加情報として分離した数値列に対して、データを解析し、元々埋め込んだ付加情報の形式に変換する処理である。例えば、予め多重化する付加情報を、テキスト文書データとして、文字コードを「シフトJIS」で数値化した値であるとする。
The extracted
シフトJISの1バイトコード(半角文字)では、上位4ビットと下位4ビットの組み合わせで、数値及び文字に対応した変換を行える。例えば、上位4ビットが「0100」で、下位4ビットが「0001」の場合、文字列として、「A」と判定される。このように、変換マップを予め保持しておき、数値列を対応させることで、文字へと変換することができる。 In the Shift JIS 1-byte code (half-width characters), conversion corresponding to numerical values and characters can be performed using a combination of the upper 4 bits and lower 4 bits. For example, if the upper 4 bits are "0100" and the lower 4 bits are "0001", the character string is determined to be "A". In this way, by storing a conversion map in advance and associating numerical strings, it is possible to convert to characters.
付加情報として分離した数値列は、図3のRAM306に、一時的に保持しておき、2次記憶装置307に予め保持していた「シフトJIS」変換マップを参照可能なようにしておく。
The separated numerical value string as additional information is temporarily held in the
例えば、付加情報分離部1504で分離した付加情報の数値列が、「0110100001100101011011000110110001101111」とする。この場合、変換マップに対応させると以下のようになる。上位4ビット「0110」、下位4ビット「1000」で、文字「h」となる。上位4ビット「0110」、下位4ビット「0101」で、文字「e」となる。上位4ビット「0110」、下位4ビット「1100」で、文字「l」となる。上位4ビット「0110」、下位4ビット「1100」で、文字「l」となる。上位4ビット「0110」、下位4ビット「1111」で、文字「o」となる。従って、文字列として、「hello」が抽出される。
For example, assume that the numerical string of additional information separated by the additional
付加情報を抽出すると、例えば抽出された文字列を図3のディスプレイ308で表示する。また、抽出された文字列がURL(Uniform Resource Locator)である場合、無線LAN310でネットワークに接続し、ブラウザを利用して、ディスプレイ308にURL先の画面を表示する。また、そのURLが動画サイトであった場合、ディスプレイ308で動画を表示し、スピーカー311で、音声を出力する。
When the additional information is extracted, the extracted character string is displayed on the
図18は、本実施形態における多重化デコード処理を示すフローチャートである。図18の処理は、例えば、モバイル端末301のCPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
FIG. 18 is a flowchart showing multiplex decoding processing in this embodiment. The process in FIG. 18 is realized, for example, by the
S1801では、CPU304は、撮像センサ302により、多重化された印刷物Cの撮影を行う。撮像センサ302は、撮影された光が色データ値に変換されたセンサ値を、色調整部1502に送信する。S1801の処理は、図15(a)の撮像部1501の撮像センサによる撮影画像を取得する処理に対応する。
In S1801, the
S1802では、CPU304は、取得した撮影画像の色調整を行う。色調整部1502は、撮像部1501から色データ値を受信し、ホワイトバランス調整を行い、ホワイトバランス調整された色データを画像データとして生成する。色調整部1502は、生成した画像データを付加情報分離装置303へ送信する。もしくは、生成した画像データは、図3の2次記憶装置307に保存される。S1802の処理は、図15(a)の色調整部1502による、ホワイトバランスの色調整を行った画像を生成する処理に対応する。
In S1802, the
S1803では、CPU304は、色調整部1502からホワイトバランス後の画像データを受信し、もしくは、図3の2次記憶装置307に保存された画像データを取得する。多重化位置検出部1503は、取得した画像データに対して、周波数特性の判定を行い、多重化されている位置を検出する。S1803の処理は、図15(a)の多重化位置検出部1503による、画像データから多重化されている基準位置を検出する処理に対応する。
In S1803, the
S1804では、CPU304は、多重化位置検出部1503により、画像データから、多重化されている基準位置を検出できたか否かを判定する。検出できたと判定された場合、S1805へ進み、検出できなかったと判定された場合、S1801に戻り処理を繰り返す。
In S1804, the
S1805では、CPU304は、色調整部1502で生成された画像データと、多重化位置検出部1503で検出した多重化されている基準位置に基づいて、周波数特性を判定した結果を用いて、多重化されている付加情報を数値データとして抽出する。S1805の処理は、図15(a)の付加情報分離部1504による、画像データから付加情報を抽出する処理に対応する。付加情報分離部1504は、抽出した数値データを図15(a)の抽出データ解析部1505へ送信する。もしくは、付加情報分離部1504は、図3のRAM306に一時的に保存し、抽出データ解析部1505へ、その旨を通知する。
In S1805, the
S1806では、CPU304は、図15(a)の抽出データ解析部1505により、分離した付加情報に相当する数値データを取得し、数字データを解析し、文字データなどの付加情報に変換する。S1806の処理は、図15(a)の抽出データ解析部1505による、付加情報を抽出する処理に対応する。
In S1806, the
S1807では、CPU304は、図15(a)の抽出データ解析部1505で抽出した付加情報の取得を完了したか否かを判定する。付加情報の取得を完了したと判定した場合、図18の多重化デコード処理を終了し、取得を完了していないと判定した場合、S1801の処理を繰り返す。
In S1807, the
多重化された印刷物から付加情報を抽出できた場合、図3のディスプレイ308などに、結果を表示したり、ネットワークにアクセスしたりする。多重化された印刷物から付加情報を抽出できなかった場合、例えば、撮影された画像データが、付加情報を抽出するだけの領域を全て含んでいない場合が考えられる。その場合、付加情報の一部しか抽出できなかったためにデータが完全ではなく、再度、撮影し直す必要がある。
If additional information can be extracted from the multiplexed printed matter, the result is displayed on the
以下、本実施形態の特徴的な構成について説明する。
図19(a)は、付加情報が埋め込まれている画像を抽出するモバイル端末201を示した図であり、図19(b)は、モバイル端末301による付加情報の抽出処理を示したフローチャートである。本実施形態では付加情報として、例えば「http://www.XXX.XX.XX/」のようなURLの一部と、例えば「180219」のような日付閾値情報と、を画像から抽出する。なお、「180219」は、2018年2月19日を示すものとする。また、抽出した付加情報に加えて、ユーザが付加情報を抽出した日時の日時情報をモバイル端末301の時計316から取得する。以下、図19(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図19(b)の処理は、例えば、モバイル端末301のCPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
The characteristic configuration of this embodiment will be described below.
FIG. 19(a) is a diagram showing the
付加情報の抽出処理が開始されると、CPU304はS1901で、撮像センサ302によって印刷物を撮影して、印刷物に埋め込まれた付加情報を取得する。ここではモバイル端末301は、印刷物からURLの一部と日付閾値情報とを取得する。その後、CPU304はS1902で、時計316から日時情報を取得する。そして、CPU304はS1903で、取得した付加情報と日時情報とからURLを作成する。
When the additional information extraction process is started, in step S1901, the
具体的には、付加情報に含まれる日付閾値情報と、モバイル端末301から取得した日時情報とを比較して、日時情報の日付が日付閾値情報の日付の前か後かで、作成するURLを異ならせる。例えば、印刷物を撮影した日付である日時情報の日付が「2018年2月17日」だった場合、日付閾値情報「180219」が示す2018年2月19日より前であるため、合成するURLとして「http://www.XXX.XX.XX/before/」を作成する。また、日時情報の日付が「2018年2月20日」だった場合、日付閾値情報「180219」が示す2018年2月19日より後であるため、合成するURLとして「http://www.XXX.XX.XX/after/」を作成する。
Specifically, the date threshold information included in the additional information is compared with the date and time information acquired from the
日付閾値情報と取得した日時情報の日付とが同じであった場合は、「http://www.XXX.XX.XX/before/」か「http://www.XXX.XX.XX/after/」のいずれか一方のURLとなるように予め設定しておき、その設定に基づいていずれかのURLに決定される。その後、CPU304はS1904で、作成したURLにアクセスし、URL先のコンテンツをモバイル端末301に表示して処理を終了する。このように、本実施形態では取得した日時情報に応じて、その後の処理の内容を切り替えることができる。
If the date of the date threshold information and the acquired date and time information are the same, either "http://www.XXX.XX.XX/before/" or "http://www.XXX.XX.XX/after /'' is set in advance to be one of the URLs, and one of the URLs is determined based on the settings. Thereafter, in step S1904, the
本実施形態が想定するケースとしては、結婚式の招待状に付加情報を埋め込んでおき、結婚式の前には招待者からのメッセージ動画を表示し、結婚式の後には結婚式動画を表示するケースが考えられる。 The case assumed in this embodiment is to embed additional information in a wedding invitation, display a message video from the invitee before the wedding, and display the wedding video after the wedding. A case is possible.
なお、本実施形態では日付について閾値を設けた例を説明したが、これに限定するものでなく、日付と時間とで閾値を設け、日時情報として日付と時間とを取得してもよい。 In this embodiment, an example in which a threshold value is set for the date has been described, but the present invention is not limited to this, and a threshold value may be set for the date and time, and the date and time may be acquired as the date and time information.
また、本実施形態においては付加情報と日時情報とをモバイル端末301の中で合成したが、付加情報と日時情報とをサーバに送りサーバ内で処理の内容を切り替えて、URLを作成してモバイル端末に送信し、そのURLをモバイル端末301が受信してもよい。
Further, in this embodiment, the additional information and the date and time information are combined in the
このように、本実施形態のモバイル端末は、撮像した画像より付加情報を取得し、更に、撮像の際の状況に関する撮像状況情報を取得して、その付加情報と撮像状況情報とに基づいて処理を行う。これによって、画像から付加情報を読み取り、ユーザが画像を読み取った日時や場所などの状況に応じた処理を実行することができる情報処理装置、情報処理方法およびプログラムを実現することができる。 In this way, the mobile terminal of this embodiment acquires additional information from a captured image, further acquires imaging situation information regarding the situation at the time of imaging, and performs processing based on the additional information and imaging situation information. I do. Thereby, it is possible to realize an information processing device, an information processing method, and a program that can read additional information from an image and execute processing according to the situation such as the date and time and place when the user read the image.
(第2の実施形態)
以下、図面を参照して本発明の第2の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
(Second embodiment)
A second embodiment of the present invention will be described below with reference to the drawings. Note that since the basic configuration of this embodiment is the same as that of the first embodiment, the characteristic configuration will be described below.
図20(a)は、モバイル端末301で付加情報が埋め込まれている画像を抽出するイメージを示した図であり、図20(b)は、付加情報の抽出処理を示したフローチャートである。本実施形態では付加情報として目的地のGPS情報(所定場所の位置を示すGPS情報)を取得する。また、抽出した付加情報に加えてモバイル端末301のGPS314より、現在のモバイル端末301の位置を示すGPS情報を取得する。以下、図20(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図20(b)の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
FIG. 20(a) is a diagram showing an image of extracting an image in which additional information is embedded using the
付加情報の抽出処理が開始されると、CPU304はS2001で、モバイル端末301によって印刷物を撮影して、印刷物に埋め込まれた付加情報を取得する。ここではモバイル端末301は、目的地のGPS情報を取得する。その後、CPU304はS2002で、モバイル端末301のGPS314よりより現在のモバイル端末301位置を示すGPS情報を取得する。そして、CPU304はS2003で、付加情報とGPS情報とから目的地と現在地との経路を算出する。経路を計算する方法はインターネット上にある地図サービスを利用する。モバイル端末301を所持しているユーザが移動し、現在地のGPS情報が変わった場合、地図上に表示される経路も変わる。その後、CPU304はS3004で、モバイル端末301のディスプレイ308に算出した経路を表示して処理を終了する。
When the additional information extraction process is started, in step S2001, the
本実施形態が想定するケースとしては、コンサートチケット2011に付加情報を埋め込んでおくケースを想定している。モバイル端末301で付加情報と、現在地のGPS情報とを取得し、現在地からコンサート会場までの経路を表示することで、ユーザがどこにいてもユーザの居る場所からコンサート会場へとユーザを案内することができる。
The present embodiment assumes a case in which additional information is embedded in the
なお、目的地のGPS情報と現在地のGPS情報とをインターネット上の経路探索サービスに送信し、地図と経路とを受信して表示してもよい。 Note that the GPS information of the destination and the GPS information of the current location may be transmitted to a route search service on the Internet, and the map and route may be received and displayed.
(第3の実施形態)
以下、図面を参照して本発明の第3の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
(Third embodiment)
A third embodiment of the present invention will be described below with reference to the drawings. Note that since the basic configuration of this embodiment is the same as that of the first embodiment, the characteristic configuration will be described below.
図21(a)は、モバイル端末301で付加情報が埋め込まれている画像を抽出するイメージを示した図であり、図21(b)は、付加情報の抽出処理を示したフローチャートである。本実施形態では付加情報として商品の価格を取得する。また、抽出した付加情報に加えて、モバイル端末301からユーザの居住国情報を取得する。以下、図21(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図21(b)の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
FIG. 21(a) is a diagram showing an image of extracting an image in which additional information is embedded using the
付加情報の抽出処理が開始されると、CPU304はS2102で、モバイル端末301によって印刷物を撮影して、印刷物2111に埋め込まれた付加情報を取得する。ここではモバイル端末301は、商品の価格、例えば「$2」を取得する。その後、CPU304はS2102で、モバイル端末よりユーザの居住国情報を取得する。本実施形態では、ユーザの居住国情報はモバイル端末301の設定値を利用するが、GSP履歴やユーザ入力等他の方法を用いてもよい。また、居住国ではなく任意の国を選択してもよい。そして、CPU304はS2103で、取得した価格情報、例えば「$2」と、ユーザの居住国情報、例えば「日本」と、からインターネットの為替変換サービスを利用し、価格情報の価格を居住国の通貨に換算した価格を取得する。具体的には、取得した価格が「$2」であれば、為替レートが$1=100円だった場合、換算された価格情報は「200円」となる。S2104で変換された価格情報を表示して処理を終了する。
When the additional information extraction process is started, the
本実施形態が想定するケースとしては、商品のパッケージ2011に付加情報を埋め込むケースである。例えば、日本からアメリカに海外旅行中に、現地の商品の価格を現在の為替で日本円に換算した価格を知りたいケースを想定する。
The case assumed in this embodiment is a case where additional information is embedded in the
なお、本実施形態では商品のパッケージから取得した商品の価格を居住国の価格に変換したが、これに限定するものではない。例えば領収書や見積書、決算書など価格情報が必要とされているものであれば、本発明を適用可能である。 Note that in this embodiment, the price of the product obtained from the package of the product is converted to the price of the country of residence, but the present invention is not limited to this. For example, the present invention can be applied to any item that requires price information, such as a receipt, an estimate, or a financial statement.
(第4の実施形態)
以下、図面を参照して本発明の第4の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
(Fourth embodiment)
A fourth embodiment of the present invention will be described below with reference to the drawings. Note that since the basic configuration of this embodiment is the same as that of the first embodiment, the characteristic configuration will be described below.
図22(a)は、モバイル端末301で付加情報が埋め込まれている画像を抽出するイメージを示した図であり、図22(b)は、付加情報の抽出処理を示したフローチャートである。本実施形態では美術館の絵画2211の説明表示2212に付加情報としてURLを埋め込む。以下、図22(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図22(b)の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
FIG. 22(a) is a diagram showing an image of extracting an image in which additional information is embedded by the
付加情報の抽出処理が開始されると、CPU304はS2201で、モバイル端末301によって説明表示2212を撮影して、説明表示2212に埋め込まれた付加情報を取得する。説明表示2212には絵画2211の簡単な説明が記載されており、説明表示2212をモバイル端末301で撮影することで、付加情報としてURLを取得する。複数の美術品の説明表示2212には、どれも同じURLが埋め込まれており、URL先には美術品が美術館のどの場所に掲示されているかを示す「レイアウト情報」と「各美術品の詳細な説明文」とが記載されている。
When the additional information extraction process is started, in step S2201, the
その後、CPU304はS2202で、モバイル端末301からGPS情報と端末向き情報とを取得する。GPS情報は、GPS314から取得し、このGPS情報によって美術館の中のユーザの位置を取得することができる。また、端末向き情報は、加速度計312とジャイロスコープ313とから取得し、この端末向き情報によってモバイル端末301の向きを取得することができる。CPU304はS2203で、URL先のレイアウト情報と、ユーザの位置と、モバイル端末301の向きと、から美術館内でユーザが見ている美術品を特定し、特定した美術品の詳細な説明文をモバイル端末301が取得する。その後、CPU304はS2204で、ユーザが見ている美術品の詳細な説明文をモバイル端末301に表示して処理を終了する。
After that, the
どの美術品にも同じ付加情報を埋め込んでおくことで、美術品のレイアウトや説明表示を変更しても、ユーザのモバイル端末301には、ユーザが見ている美術品の詳細な説明文が表示される。
By embedding the same additional information in every art object, even if the layout or explanation display of the art object is changed, the user's
なお、本実施形態では美術館の例を示したが、同様に動物園や水族館などでも使用可能である。また、宝探しゲームに応用し物品とスマホとが所定の位置、所定の向きになった時だけ情報を取得できるようにしてもよい。また、加速度計212とジャイロスコープ213とを使用して、ユーザの歩数を測定し、ユーザの歩数に応じてコンテンツを切り替えてもよい。 In this embodiment, an example of an art museum is shown, but it can also be used in a zoo, an aquarium, or the like. Furthermore, the present invention may be applied to a treasure hunting game so that information can be acquired only when the article and the smartphone are in a predetermined position and in a predetermined orientation. Further, the number of steps taken by the user may be measured using the accelerometer 212 and the gyroscope 213, and the content may be switched according to the number of steps taken by the user.
また、本実施形態は、メガネタイプのウェアラブル端末に搭載されたカメラを用いることにより、より効果的に適用できる。例えば、美術館でメガネタイプのウェアラブル端末で見た方向の印刷物から付加情報を取得し、対応した情報を表示することができる。 Furthermore, this embodiment can be more effectively applied by using a camera mounted on a glasses-type wearable terminal. For example, it is possible to acquire additional information from a printed matter viewed from a glasses-type wearable terminal at an art museum and display the corresponding information.
(第5の実施形態)
以下、図面を参照して本発明の第5の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
(Fifth embodiment)
A fifth embodiment of the present invention will be described below with reference to the drawings. Note that since the basic configuration of this embodiment is the same as that of the first embodiment, the characteristic configuration will be described below.
図23(a)は、モバイル端末301で付加情報が埋め込まれている画像を抽出するイメージを示した図であり、図23(b)は、付加情報の抽出処理を示したフローチャートである。本実施形態では、印刷物2311には付加情報が埋め込まれており、モバイル端末301は、印刷物2311の撮影後のタッチ情報を取得する。以下、図23(b)のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図23(b)の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
FIG. 23(a) is a diagram showing an image of extracting an image in which additional information is embedded by the
付加情報の抽出処理が開始されると、CPU304はS2301で、モバイル端末301によって印刷物を撮影して、説明表示2311に埋め込まれた付加情報を取得する。その後、CPU304はS2302では、モバイル端末301のディスプレイ308からユーザがディスプレイ308に触れることに対応する情報であるタッチ情報を取得する。印刷物2311には押しボタンが記録されており、ユーザがモバイル端末301で印刷物2311を撮影し、モバイル端末301のディスプレイ308に表示された印刷物2311の押しボタンにユーザが触れることでモバイル端末301はタッチ情報を取得する。
When the additional information extraction process is started, the
CPU304はS2303では、モバイル端末301がタッチ情報を取得したか否かを判定する。タッチ情報を取得していれば、S2304に移行し、タッチ情報を取得していなければ処理を終了する。S2304に移行した場合は、CPU304はS2301で取得した付加情報をモバイル端末301のディスプレイ308に表示して処理を終了する。
In S2303, the
なお、付加情報は所定情報であり、どのような情報でもよく、例えば、印刷物は押しボタンが記録された商品の広告であり、撮影してディスプレイの押しボタン画像に触れることで、付加情報である商品の詳細情報が記載されたURLの画面をディスプレイに表示してもよい。このように、ユーザのタッチ動作に応じて付加情報を表示させることもできる。 Note that the additional information is predetermined information and may be any information.For example, printed matter is an advertisement for a product with a push button recorded, and by photographing and touching the push button image on the display, it is possible to obtain additional information. A URL screen containing detailed product information may be displayed on the display. In this way, additional information can be displayed in response to the user's touch action.
(第6の実施形態)
以下、図面を参照して本発明の第6の実施形態を説明する。なお、本実施形態の基本的な構成は第1の実施形態と同様であるため、以下では特徴的な構成について説明する。
(Sixth embodiment)
A sixth embodiment of the present invention will be described below with reference to the drawings. Note that since the basic configuration of this embodiment is the same as that of the first embodiment, the characteristic configuration will be described below.
図24は、本実施形態における付加情報の抽出処理を示したフローチャートである。本実施形態では、印刷物には付加情報が埋め込まれており、モバイル端末301は、印刷物を撮影することで、情報α(閲覧情報)と、情報αの閲覧を許可されたユーザのユーザIDとが含まれた付加情報を取得する。モバイル端末には2つのカメラを搭載したものがあり、風景を撮影するためのモバイル端末の裏側に搭載されたカメラと、ユーザ自身を撮影するために表側に搭載されたカメラとがある。本実施形態では、モバイル端末301は、裏側のカメラによって付加情報を取得し、表側のカメラでユーザの顔を写すことで、顔認証情報を取得する。以下、図24のフローチャートを用いて本実施形態の付加情報の抽出処理を説明する。図24の処理は、例えば、CPU304がROM305に記憶されたプログラムをRAM306に読み出して実行することにより実現される。
FIG. 24 is a flowchart showing additional information extraction processing in this embodiment. In this embodiment, additional information is embedded in the printed material, and by photographing the printed material, the
付加情報の抽出処理が開始されると、CPU304はS2401で、モバイル端末301によって印刷物を撮影して、印刷物に埋め込まれた付加情報を取得する。付加情報には情報αと、情報αの閲覧を許可されたユーザのユーザIDとが含まれている。その後、CPU304はS2402で、モバイル端末301でユーザを撮影して、顔認証情報を取得する。本実施形態では、1つ目のカメラ(撮像センサ202)で印刷物を撮影し、2つ目のカメラ(第二撮像センサ215)でユーザ自身を撮影するケースを想定する。顔認証情報は、第二撮像センサ215で取得した顔画像を用いて、特定のユーザを指し示すユーザIDを算出する。顔認証は多くの方法が提案されているが、ユーザが特定できればどの方法を用いてもよい。そして、CPU304はS2403で、顔認証で取得したユーザIDが、S2401で取得した情報αの閲覧を許可されたユーザのユーザIDと一致するか否かを判定する。一致していればS2404に移行して、一致していなければ処理を終了する。S2404に移行した場合、CPU304は、情報αのロックを解除して、S2402で情報αをモバイル端末301のディスプレイ308に表示する。
When the additional information extraction process is started, in step S2401, the
なお、本実施形態ではユーザの特定に顔認証を用いて情報αに対するロックの解除を行ったが、ユーザの特定は他の方法を用いてもよい。例えば、指紋認証機能を備えたモバイル端末で指紋認証を用いてユーザを特定してもよいし、音声認証機能を備えたモバイル端末で音声認証を用いてユーザを特定してもよい。 Note that in this embodiment, face authentication is used to identify the user to unlock the information α, but other methods may be used to identify the user. For example, a user may be identified using fingerprint authentication on a mobile terminal equipped with a fingerprint authentication function, or a user may be identified using voice authentication on a mobile terminal equipped with a voice authentication function.
102 付加情報多重化装置
103 記録装置
301 モバイル端末
304 CPU
308 ディスプレイ
102 Additional
308 Display
Claims (11)
前記撮像画像から、前記画像に電子透かしとして埋め込まれた付加情報を抽出する抽出手段と、
ユーザがタッチパネルに触れたことに対応するタッチ情報が取得された場合に、前記抽出手段で抽出された付加情報を前記タッチパネルに表示するように制御する制御手段と、
を有することを特徴とする情報処理装置。 an acquisition means for capturing an image to obtain a captured image ;
Extracting means for extracting additional information embedded in the image as a digital watermark from the captured image;
a control unit configured to display additional information extracted by the extraction unit on the touch panel when touch information corresponding to the user touching the touch panel is acquired;
An information processing device comprising :
前記撮像画像から、前記画像に電子透かしとして埋め込まれた付加情報であって、閲覧情報と、前記閲覧情報の閲覧を許可されたユーザのIDである第1ユーザIDとを含む付加情報を抽出する抽出手段と、
前記画像を撮影したユーザのIDである第2ユーザIDを取得する第2の取得手段と、
前記第1ユーザIDと前記第2ユーザIDとが一致する場合に、前記抽出手段で抽出された付加情報に含まれる前記閲覧情報を表示するように制御する制御手段と、
を有することを特徴とする情報処理装置。 a first acquisition means for capturing an image to obtain a captured image;
From the captured image, extract additional information that is embedded in the image as a digital watermark and includes viewing information and a first user ID that is an ID of a user who is permitted to view the viewing information. extraction means;
a second acquisition means for acquiring a second user ID that is the ID of the user who photographed the image;
a control means for controlling to display the viewing information included in the additional information extracted by the extraction means when the first user ID and the second user ID match;
An information processing device comprising :
前記第2の取得手段は、前記第1のカメラとは異なる第2のカメラによってユーザを撮影した撮影画像から顔認証によって前記第2ユーザIDを取得することを特徴とする請求項4に記載の情報処理装置。 5. The second acquisition means acquires the second user ID by face authentication from an image taken of the user by a second camera different from the first camera. Information processing device.
前記撮像画像から、前記画像に電子透かしとして埋め込まれた付加情報を抽出する抽出ステップと、 an extraction step of extracting additional information embedded in the image as a digital watermark from the captured image;
ユーザがタッチパネルに触れたことに対応するタッチ情報が取得された場合に、前記抽出ステップで抽出した付加情報を前記タッチパネルに表示するように制御する制御ステップと、 a control step of controlling the additional information extracted in the extraction step to be displayed on the touch panel when touch information corresponding to the user touching the touch panel is acquired;
を有することを特徴とする情報処理装置の制御方法。A method for controlling an information processing device, comprising:
前記撮像画像から、前記画像に電子透かしとして埋め込まれた付加情報であって、閲覧情報と、前記閲覧情報の閲覧を許可されたユーザのIDである第1ユーザIDとを含む付加情報を抽出する抽出ステップと、 From the captured image, extract additional information that is embedded in the image as a digital watermark and includes viewing information and a first user ID that is an ID of a user who is permitted to view the viewing information. an extraction step;
前記画像を撮影したユーザのIDである第2ユーザIDを取得する第2の取得ステップと、 a second acquisition step of acquiring a second user ID that is the ID of the user who photographed the image;
前記第1ユーザIDと前記第2ユーザIDとが一致する場合に、前記抽出ステップで抽出された付加情報に含まれる前記閲覧情報を表示するように制御する制御ステップと、 a control step of controlling to display the viewing information included in the additional information extracted in the extraction step when the first user ID and the second user ID match;
を有することを特徴とする情報処理装置の制御方法。A method for controlling an information processing device, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019237033A JP7438752B2 (en) | 2019-12-26 | 2019-12-26 | Information processing device, control method for information processing device, storage medium, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019237033A JP7438752B2 (en) | 2019-12-26 | 2019-12-26 | Information processing device, control method for information processing device, storage medium, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021106332A JP2021106332A (en) | 2021-07-26 |
JP2021106332A5 JP2021106332A5 (en) | 2022-12-28 |
JP7438752B2 true JP7438752B2 (en) | 2024-02-27 |
Family
ID=76919646
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019237033A Active JP7438752B2 (en) | 2019-12-26 | 2019-12-26 | Information processing device, control method for information processing device, storage medium, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7438752B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006072580A (en) | 2004-08-31 | 2006-03-16 | Sharp Corp | Electronic device, information management device, communication system, method for displaying imaging position, program, and computer readable recording medium for recording this program |
JP2012181701A (en) | 2011-03-01 | 2012-09-20 | Toshiba Corp | Information display device and information display method |
JP2013235553A (en) | 2012-04-13 | 2013-11-21 | Hitachi Solutions Ltd | Information provision system |
JP2014215723A (en) | 2013-04-23 | 2014-11-17 | キヤノン株式会社 | Information processor and control method thereof |
JP2016161479A (en) | 2015-03-04 | 2016-09-05 | 株式会社ゼンリンデータコム | Navigation system and navigation method |
-
2019
- 2019-12-26 JP JP2019237033A patent/JP7438752B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006072580A (en) | 2004-08-31 | 2006-03-16 | Sharp Corp | Electronic device, information management device, communication system, method for displaying imaging position, program, and computer readable recording medium for recording this program |
JP2012181701A (en) | 2011-03-01 | 2012-09-20 | Toshiba Corp | Information display device and information display method |
JP2013235553A (en) | 2012-04-13 | 2013-11-21 | Hitachi Solutions Ltd | Information provision system |
JP2014215723A (en) | 2013-04-23 | 2014-11-17 | キヤノン株式会社 | Information processor and control method thereof |
JP2016161479A (en) | 2015-03-04 | 2016-09-05 | 株式会社ゼンリンデータコム | Navigation system and navigation method |
Also Published As
Publication number | Publication date |
---|---|
JP2021106332A (en) | 2021-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10469701B2 (en) | Image processing method that obtains special data from an external apparatus based on information multiplexed in image data and apparatus therefor | |
Malik et al. | An image interpolation based reversible data hiding scheme using pixel value adjusting feature | |
JP6322099B2 (en) | Image processing apparatus and image processing method | |
JP6808581B2 (en) | Information processing equipment, information processing methods and programs | |
US11943547B2 (en) | Information processing apparatus that illuminates a printed image during capture when embedded information is to be processed, information processing system, information processing method, and storage medium | |
US10992837B2 (en) | Information processing apparatus, control method thereof, and storage medium | |
JP2009027385A (en) | Image processor, its method and computer program | |
US10033904B2 (en) | Information processing apparatus for multiplexing information in an image, information processing method, and storage medium storing program | |
JP7438752B2 (en) | Information processing device, control method for information processing device, storage medium, and program | |
JP2023018493A (en) | Information processing device, method, and program | |
JP6789890B2 (en) | Information processing equipment, information processing methods and programs, and how to create multiplexing parameters | |
JP6976734B2 (en) | Image processing equipment, image processing methods, and programs | |
JP7455584B2 (en) | Information processing device, control method for information processing device, program, and storage medium | |
JP7451187B2 (en) | Image processing device, image processing method and program | |
US11831834B2 (en) | Information processing apparatus, method, and product performing multiplexing processing by different methods with respect to printing and non-printing areas | |
JP7458766B2 (en) | Information processing device, control method for information processing device, program, and storage medium | |
JP2017073649A (en) | Information processing device, information processing method and computer program | |
US20210176376A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US20070297684A1 (en) | Data Conversion Apparatus, Data Conversion Method, and Data Conversion System | |
JP6577815B2 (en) | Information processing apparatus, information processing method, and program | |
JP2023042153A (en) | Image processing device, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221220 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230908 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240214 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7438752 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |