JP6001275B2 - Non-visualization information embedding device, non-visualization information embedding method, and non-visualization information embedding program - Google Patents

Non-visualization information embedding device, non-visualization information embedding method, and non-visualization information embedding program Download PDF

Info

Publication number
JP6001275B2
JP6001275B2 JP2012030971A JP2012030971A JP6001275B2 JP 6001275 B2 JP6001275 B2 JP 6001275B2 JP 2012030971 A JP2012030971 A JP 2012030971A JP 2012030971 A JP2012030971 A JP 2012030971A JP 6001275 B2 JP6001275 B2 JP 6001275B2
Authority
JP
Japan
Prior art keywords
information
image
embedding
visualization
visualization information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012030971A
Other languages
Japanese (ja)
Other versions
JP2013168805A (en
Inventor
健一 佐久間
健一 佐久間
直人 羽生
直人 羽生
道関 隆国
隆国 道関
一真 北村
一真 北村
寛 福井
寛 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ritsumeikan Trust
Original Assignee
Ritsumeikan Trust
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ritsumeikan Trust filed Critical Ritsumeikan Trust
Priority to JP2012030971A priority Critical patent/JP6001275B2/en
Publication of JP2013168805A publication Critical patent/JP2013168805A/en
Application granted granted Critical
Publication of JP6001275B2 publication Critical patent/JP6001275B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は、非可視化情報埋込装置、非可視化情報埋込方法、及び非可視化情報埋込プログラムに係り、特に目視による視認性を低下させた高精度な非可視化情報を画像に埋め込むための非可視化情報埋込装置、非可視化情報埋込方法、及び非可視化情報埋込プログラムに関する。   The present invention relates to an invisible information embedding device, an invisible information embedding method, and an invisible information embedding program, and in particular, a non-visualization information for embedding highly accurate invisible information with reduced visual visibility in an image. The present invention relates to a visualization information embedding device, a non-visualization information embedding method, and a non-visualization information embedding program.

従来では、動画像に人間の知覚(視覚、聴覚)特性を利用し、静止画、動画、オーディオ等のディジタルコンテンツに対して、コンテンツとは別の情報を人間に知覚できないように埋め込む電子透かし技術が知られている(例えば、特許文献1及び2参照。)。   Conventionally, a digital watermark technology that uses human perception (visual and auditory) characteristics in moving images and embeds information different from content into digital content such as still images, moving images, and audio so that it cannot be perceived by humans Is known (see, for example, Patent Documents 1 and 2).

また、従来では、取得した画像の所定の位置に非可視化情報を埋め込む際に、画像に含まれる物体情報及び位置情報を取得し、取得した物体情報から画像が埋め込み対象の画像であるかを判定し、その判定結果に基づいて、画像に2次元コードを埋め込む非可視化情報埋込装置が知られている(例えば、特許文献3参照)。   Also, conventionally, when embedding non-visualization information at a predetermined position of an acquired image, object information and position information included in the image are acquired, and it is determined from the acquired object information whether the image is an image to be embedded. A non-visualization information embedding device that embeds a two-dimensional code in an image based on the determination result is known (see, for example, Patent Document 3).

国際公開第2005/074248号パンフレットInternational Publication No. 2005/074248 Pamphlet 国際公開第2007/015452号パンフレットInternational Publication No. 2007/015452 Pamphlet 特開2011−142607号公報JP 2011-142607 A

ところで、上述した非可視化情報は、ユーザにバーコードリーダやスキャナー等の機械的手段を用いて読み取らせることで、更に付加的な情報を提供することができるため、とても有益である。しかしながら、上述した従来手法では、機械的に読み取らせるために、ある程度の可視化は避けられず、その結果、目視(肉眼)でもある程度の視認性を有していたため、違和感が生じる場合があった。   By the way, the above-described non-visualization information is very useful because it can provide additional information by allowing the user to read it using mechanical means such as a barcode reader or a scanner. However, in the above-described conventional method, a certain degree of visualization is unavoidable because it is mechanically read, and as a result, there is a certain degree of visibility even with the naked eye (the naked eye).

例えば、非可視化情報として2次元コードを埋め込む場合には、全体としてコードのエッジ部分は、シャープであるため、背景画像に表示されている物体(オブジェクト)等が丸みや曲線等を多く含んでいる場合には、埋め込まれた2次元コードが視認しやすくなってしまっていた。   For example, when embedding a two-dimensional code as non-visualization information, since the edge portion of the code is sharp as a whole, the object (object) displayed in the background image includes many rounds, curves, and the like. In some cases, the embedded two-dimensional code is easily visible.

また、従来の電子透かし技術を用いて情報を画像に埋め込む場合には、画面の一部に埋め込んでしまうと、画像中のどの部分に電子透かしの情報が入っているかを判別することができないため、画像全体にデータを埋め込まなければならない。そのような場合には、例えばテレビに表示された映像に含まれる部分的な物体(例えば、花や人等)に対してのみに情報を埋め込むことができず、結果として画面上に表示されている物体の全てについての情報を取得しなければならない。そのため、従来では、ユーザが求めていない余計な情報をも取得しなければならなかった。また、テレビ画面全体に電子透かしが埋め込まれている場合には、それを携帯電話等に設けられたレンズで撮影して認識する際、かなり離れて位置で撮影する必要が生じていた。   In addition, when embedding information in an image using conventional digital watermark technology, it is impossible to determine which part of the image contains the digital watermark information if it is embedded in a part of the screen. The data must be embedded in the entire image. In such a case, for example, information cannot be embedded only in a partial object (for example, a flower or a person) included in the video displayed on the television, and as a result, it is displayed on the screen. You have to get information about all the objects you have. For this reason, conventionally, it has been necessary to acquire extra information that is not requested by the user. In addition, when a digital watermark is embedded in the entire TV screen, it has been necessary to shoot at a considerably distant position when recognizing it with a lens provided on a mobile phone or the like.

本発明は、上述した課題に鑑みてなされたものであって、目視による視認性を低下させた高精度な非可視化情報を画像に埋め込むための非可視化情報埋込装置、非可視化情報埋込方法、及び非可視化情報埋込プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and is a non-visualized information embedding device and non-visualized information embedding method for embedding highly accurate non-visualized information with reduced visual visibility in an image. And a non-visualized information embedding program.

上述した課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。   In order to solve the above-described problems, the present invention employs means for solving the problems having the following characteristics.

本発明は、取得した画像の所定の位置に非可視化情報を埋め込む非可視化情報埋込装置において、前記画像に含まれる物体情報及び位置情報を取得する画像解析手段と、前記画像解析手段により得られた物体情報から前記画像が埋め込み対象の画像であるかを判定する埋込対象画像判定手段と、前記画像に合成される前記非可視化情報の輪郭形状を設定する非可視化情報設定手段と、前記非可視化情報設定手段により得られる設定情報に対応させた輪郭形状を用いた非可視化情報を生成する非可視化情報生成手段と、前記埋込対象画像判定手段により得られる判定結果に基づいて、前記画像の所定の位置に前記非可視化情報生成手段により得られた非可視化情報を埋め込んで画像を合成する画像合成手段とを有し、前記非可視化情報設定手段は、前記非可視化情報の輪郭形状のぼかしの有無を設定することを特徴とする。 The present invention provides a non-visualization information embedding device that embeds non-visualization information at a predetermined position of an acquired image, an image analysis unit that acquires object information and position information included in the image, and the image analysis unit. Embedded image determination means for determining whether the image is an image to be embedded based on the object information obtained, non-visualization information setting means for setting a contour shape of the non-visualization information combined with the image, Based on the determination result obtained by the non-visualization information generation means for generating the non-visualization information using the contour shape corresponding to the setting information obtained by the visualization information setting means and the embedding target image determination means, the image It possesses an image synthesizing means for synthesizing an image by embedding an invisible information obtained by the non-visible information generating means to a predetermined position, the non-visible information setting means , And sets the presence or absence of blurring of the contour of the non-visible information.

また、本発明は、取得した画像の所定の位置に非可視化情報を埋め込む非可視化情報埋込方法において、前記画像に含まれる物体情報及び位置情報を取得する画像解析ステップと、前記画像解析ステップにより得られた物体情報から前記画像が埋め込み対象の画像であるかを判定する埋込対象画像判定ステップと、前記画像に合成される前記非可視化情報の輪郭形状を設定する非可視化情報設定ステップと、前記非可視化情報設定ステップにより得られる設定情報に対応させた輪郭形状を用いた非可視化情報を生成する非可視化情報生成ステップと、前記埋込対象画像判定ステップにより得られる判定結果に基づいて、前記画像の所定の位置に前記非可視化情報生成ステップにより得られた非可視化情報を埋め込んで画像を合成する画像合成ステップとを有し、前記非可視化情報設定ステップは、前記非可視化情報の輪郭形状のぼかしの有無を設定することを特徴とする。
Further, the present invention provides a non-visualization information embedding method for embedding non-visualization information at a predetermined position of an acquired image, an image analysis step for acquiring object information and position information included in the image, and the image analysis step. An embedding target image determination step for determining whether the image is an image to be embedded from the obtained object information, a non-visualization information setting step for setting an outline shape of the non-visualization information to be combined with the image, Based on the non-visualization information generation step for generating non-visualization information using the contour shape corresponding to the setting information obtained by the de-visualization information setting step, and the determination result obtained by the embedding target image determination step, the Image composition that synthesizes an image by embedding the invisible information obtained by the invisible information generation step at a predetermined position of the image It possesses a step, the non-visible information setting step, and sets the presence or absence of blurring of the contour of the non-visible information.

また、本発明は、コンピュータを、請求項1乃至4の何れか1項に記載の非可視化情報埋込装置が有する各手段として機能させるための非可視化情報埋込プログラムである。   The present invention is also a non-visualized information embedding program for causing a computer to function as each unit included in the non-visualized information embedding device according to any one of claims 1 to 4.

なお、本発明の構成要素、表現又は構成要素の任意の組み合わせを、方法、装置、システム、コンピュータプログラム、記録媒体、データ構造等に適用したものも本発明の態様として有効である。   In addition, what applied the component, expression, or arbitrary combination of the component of this invention to a method, an apparatus, a system, a computer program, a recording medium, a data structure, etc. is effective as an aspect of this invention.

本発明によれば、目視による視認性を低下させた高精度な非可視化情報を画像に埋め込むことができる。   According to the present invention, it is possible to embed highly accurate non-visualized information with reduced visual visibility in an image.

本実施形態における非可視化情報埋込装置の機構構成の一例を示す図である。It is a figure which shows an example of the mechanism structure of the invisible information embedding apparatus in this embodiment. 本実施形態における非可視化情報埋込処理が実現可能なハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions which can implement | achieve the invisible information embedding process in this embodiment. 本実施形態における非可視化情報埋込処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the non-visualization information embedding process procedure in this embodiment. 本実施形態における画像合成処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the image composition processing procedure in this embodiment. 本実施形態における非可視化情報の概念の一例を示す図である。It is a figure which shows an example of the concept of the invisible information in this embodiment. 実際に生成された非可視化情報の一例を示す図である。It is a figure which shows an example of the non-visualization information actually produced | generated. 本実施形態における非可視化情報を埋め込んだ画像例を示す図である。It is a figure which shows the example of an image which embedded the invisible information in this embodiment. 本実施形態により得られた画像に対する評価結果の一例を示す図である。It is a figure which shows an example of the evaluation result with respect to the image obtained by this embodiment.

<本発明ついて>
本発明では、例えば画面に表示される画像や映像又は紙やハガキ、ポスター等の各種印刷媒体等に対して、ユーザの目視(肉眼)では認識不可能な加工により非可視化情報(マーカー)を、画像に対して部分的に埋め込む。このとき、本発明では、非可視化情報のエッジ部分(輪郭形状)を変更したり、ぼかし(例えば、グラデーション等)処理を行うことで、エッジ部分を減らした非可視化情報を生成する。
<About the present invention>
In the present invention, for example, for images and videos displayed on the screen or various print media such as paper, postcards, posters, etc., non-visualized information (markers) by processing that cannot be recognized by the user's visual (visual), Partially embed in the image. At this time, in the present invention, the invisible information in which the edge portion is reduced is generated by changing the edge portion (contour shape) of the invisible information or performing blurring (for example, gradation) processing.

また本発明では、例えば画像中から非可視化情報の埋め込み箇所を探索し、その埋め込み箇所の背景にあるオブジェクト(物体等)の形状等に対応させて、埋め込む非可視化情報のエッジ部分の形状を変形する。これにより、本発明は、非可視化情報を目立ちにくくし、機械認識性を落とすことなく、目視(肉眼)での視認性を低下することができる。   Further, in the present invention, for example, an embedded part of the invisible information is searched from the image, and the shape of the edge part of the invisible information to be embedded is modified in accordance with the shape of the object (object etc.) in the background of the embedded part. To do. As a result, the present invention makes the non-visualized information less noticeable, and can reduce the visual (visual) visibility without degrading machine recognition.

以下に、本発明における非可視化情報埋込装置、非可視化情報埋込方法、及び非可視化情報埋込プログラムを好適に実施した形態について、図面を用いて説明する。なお、本実施形態において説明する「画像」とは、例えば写真等の1枚の画像、又は、映像における連続したフレーム単位の画像等が含まれるものとする。   Hereinafter, embodiments in which the invisible information embedding device, the invisible information embedding method, and the invisible information embedding program according to the present invention are suitably implemented will be described with reference to the drawings. Note that the “image” described in the present embodiment includes, for example, a single image such as a photograph or a continuous frame unit image in a video.

<非可視化情報埋込装置:機能構成例>
ここで、本実施形態における非可視化情報埋込装置の機構構成例について図を用いて説明する。図1は、本実施形態における非可視化情報埋込装置の機構構成の一例を示す図である。
<Non-visualization information embedding device: functional configuration example>
Here, an example of a mechanism configuration of the invisible information embedding device according to the present embodiment will be described with reference to the drawings. FIG. 1 is a diagram illustrating an example of a mechanism configuration of the invisible information embedding device according to the present embodiment.

図1に示す非可視化情報埋込装置10は、入力手段11と、出力手段12と、蓄積手段13と、画像取得手段14と、画像解析手段15と、埋込対象画像判定手段16と、非可視化情報設定手段17と、非可視化情報生成手段18と、画像合成手段19と、送受信手段20と、制御手段21とを有するよう構成されている。   The invisible information embedding device 10 shown in FIG. 1 includes an input unit 11, an output unit 12, a storage unit 13, an image acquisition unit 14, an image analysis unit 15, an embedding target image determination unit 16, and a non-display unit. Visualization information setting means 17, non-visualization information generation means 18, image composition means 19, transmission / reception means 20, and control means 21 are configured.

入力手段11は、ユーザ等からの画像取得指示や、画像解析指示、埋込対象画像判定指示、非可視化情報設定指示、非可視化情報生成指示、画像合成指示、送受信指示等の各種指示の開始/終了等の入力を受け付ける。なお、入力手段11は、例えばパソコン等の汎用のコンピュータであればキーボードやマウス等のポインティングデバイスからなり、携帯型端末やゲーム機器等であれば各操作ボタン群等からなる。また、入力手段11は、例えばデジタルカメラ等の撮像手段等により撮影された画像や映像等を入力する機能も有する。なお、上述の撮像手段は、非可視化情報埋込装置10内に設けられていてもよく、外部の機能構成であってもよい。   The input means 11 starts / starts various instructions such as an image acquisition instruction from the user, an image analysis instruction, an embedding target image determination instruction, a non-visualization information setting instruction, a non-visualization information generation instruction, an image synthesis instruction, and a transmission / reception instruction. Accepts input such as end. Note that the input unit 11 includes a pointing device such as a keyboard or a mouse if it is a general-purpose computer such as a personal computer, and includes a group of operation buttons if it is a portable terminal or game device. The input unit 11 also has a function of inputting an image or video captured by an imaging unit such as a digital camera. Note that the above-described imaging unit may be provided in the invisible information embedding device 10 or may have an external functional configuration.

出力手段12は、入力手段11により入力された内容や、入力内容に基づいて実行された内容等の出力を行う。具体的には、出力手段12は、取得した画像や、画像解析結果、埋込対象画像判定結果、設定された非可視化情報、生成された非可視化情報、非可視化情報が合成された合成画像、各構成における処理の結果等の画面表示や音声出力等を行う。なお、出力手段12は、ディスプレイやスピーカ等からなる。   The output unit 12 outputs the content input by the input unit 11 and the content executed based on the input content. Specifically, the output unit 12 includes the acquired image, the image analysis result, the embedding target image determination result, the set non-visualization information, the generated non-visualization information, the synthesized image obtained by synthesizing the non-visualization information, Screen display of results of processing in each configuration, audio output, and the like are performed. The output unit 12 includes a display, a speaker, and the like.

更に、出力手段12は、プリンタ等の印刷機能を有していてもよく、上述の各出力内容を紙やハガキ、ポスター等の各種印刷媒体等に印刷して、ユーザ等に提供することもできる。   Furthermore, the output unit 12 may have a printing function such as a printer, and can print the above-described output contents on various print media such as paper, postcards, and posters and provide them to the user. .

蓄積手段13は、本実施形態において必要となる各種情報や埋込処理の実行時、又は実行後の各種データを蓄積する。具体的には、蓄積手段13は、入力又は予め蓄積されている画像取得手段14で取得される1又は複数の画像或いは映像を取得する。また、蓄積手段13は、画像解析手段15にて解析された結果や、埋込対象画像判定手段16における判定結果、非可視化情報設定手段17による設定内容、非可視化情報生成手段18により生成された非可視化情報、画像合成手段19により合成された画像等を蓄積する。また、蓄積手段13は、必要に応じて蓄積されている各種データを読み出すことができる。   The storage unit 13 stores various information necessary in the present embodiment and various data at the time of execution or after execution of the embedding process. Specifically, the storage unit 13 acquires one or a plurality of images or videos acquired by the image acquisition unit 14 that is input or stored in advance. In addition, the storage unit 13 is generated by the result analyzed by the image analysis unit 15, the determination result by the embedding target image determination unit 16, the setting content by the non-visualization information setting unit 17, and the non-visualization information generation unit 18. The non-visualized information, the image synthesized by the image synthesizing means 19 and the like are accumulated. Further, the storage means 13 can read out various data stored as required.

画像取得手段14は、情報を埋め込む対象となる画像や映像等を取得する。なお、画像や映像等は、例えばカメラ等の撮像手段により得られる画像や映像等でもよく、ポスターや写真、カード、シール等に適用される対象画像等であってもよい。また、画像取得手段14は、送受信手段20を介して通信ネットワーク上に接続される外部の装置で撮影された情報やデータベース等に蓄積された画像や映像等を取得することもでき、また、入力手段11を介して実際にユーザ等がカメラ等で撮影した画像を用いてもよい。   The image acquisition unit 14 acquires an image, video, or the like that is a target for embedding information. Note that the images, videos, and the like may be images, videos, and the like obtained by imaging means such as a camera, for example, and may be target images that are applied to posters, photos, cards, stickers, and the like. The image acquisition unit 14 can also acquire information and images stored in an external device connected to the communication network via the transmission / reception unit 20 and images and videos stored in a database. You may use the image which the user etc. actually image | photographed with the camera etc. via the means 11. FIG.

画像解析手段15は、画像取得手段14にて取得した画像を解析して画像中に含まれる内容を解析する。具体的には、画像中のどの部分(位置、領域)にどのような物体が映し出されているか、又は、映像中において物体がどのように移動しているか等、物体情報及び座標等からなる物体の位置情報を取得する。例えば、物体が人物の場合、画像解析手段15は、顔の特徴部分から顔検出を行ってもよく、また特徴量を数値化し、その結果により人物特定をおこなってもよい。   The image analysis unit 15 analyzes the image acquired by the image acquisition unit 14 and analyzes the contents included in the image. Specifically, an object consisting of object information, coordinates, etc., such as what part (position, region) in the image is projected, how the object is moving in the video, etc. Get location information. For example, when the object is a person, the image analysis unit 15 may detect the face from the feature portion of the face, or may digitize the feature amount and specify the person based on the result.

更に、画像解析手段15は、非可視化情報を埋め込む画像中に含まれる物体(背景部分)の輪郭形状や模様等から、どの程度のエッジ量を有するかを物体毎に解析する。本実施形態では、画像解析手段15により解析されたエッジ量に対応させて、予め設定された非可視化情報生成手段18により非可視化のエッジ部分の形状を変形させたり、ぼかし処理等を行う。   Further, the image analysis unit 15 analyzes for each object how much the edge amount is based on the contour shape or pattern of the object (background portion) included in the image in which the invisible information is embedded. In the present embodiment, in accordance with the edge amount analyzed by the image analysis unit 15, the shape of the invisible edge portion is deformed by the preset non-visualization information generation unit 18, or blurring processing is performed.

埋込対象画像判定手段16は、画像解析手段15によって解析された結果に基づいて、その画像に映し出された物体が予め設定された非可視化情報の埋め込み対象であるか否かを判断する。なお、物体が非可視化情報を埋め込む情報であるか否かの判定は、例えば予め設定された埋込判定情報を蓄積手段13等に蓄積しておき、その埋込判定情報と比較することで判定してもよく、また、その物体に対する何らかの付加情報が蓄積手段13に蓄積されているかを検索し、もし付加情報が蓄積されている場合には、埋込対象物体であると判定してもよい。   Based on the result analyzed by the image analysis unit 15, the embedding target image determination unit 16 determines whether or not the object displayed in the image is a target for embedding preset invisible information. Note that whether or not the object is information that embeds invisible information is determined by, for example, storing preset embedding determination information in the storage unit 13 or the like and comparing the information with the embedding determination information. It is also possible to search whether any additional information for the object is stored in the storage means 13, and if the additional information is stored, it may be determined that the object is an embedding target object. .

したがって、例えば、画像解析手段15によって画像を解析した結果、画像の一部にパソコンの画像が含まれていると解析された場合、埋込対象画像判定手段16は、パソコンに関する付加情報が蓄積手段13に蓄積されているか否かを判断し、パソコンに関する付加情報が存在する場合には、そのパソコンを埋込対象画像であると判定する。なお、埋め込む内容(付加情報)は、例えば非可視化情報設定手段17において設定され、設定された内容は蓄積手段13に蓄積される。   Therefore, for example, when the image is analyzed by the image analysis unit 15 and it is analyzed that a part of the image includes a personal computer image, the embedding target image determination unit 16 stores additional information about the personal computer. 13 is determined. If additional information relating to the personal computer exists, it is determined that the personal computer is an image to be embedded. The contents to be embedded (additional information) are set by, for example, the non-visualization information setting unit 17, and the set contents are stored in the storage unit 13.

また、画像の一部の物体に対して非可視化情報を埋め込む場合だけでなく、画像全体に対して非可視化情報を埋め込む場合には、予め設定された位置(例えば、画像の中心、又は、画像の四隅のうちの少なくとも1つ(例えば、右下)等の予め設定された座標位置に設定される。   In addition to embedding non-visualization information for a part of an object in an image, when embedding non-visualization information for the entire image, a predetermined position (for example, the center of the image or the image Are set to preset coordinate positions such as at least one of the four corners (for example, lower right).

また、埋込対象画像判定手段16は、画像中に複数の物体が存在する場合には、全ての物体を埋め込み対象にしてもよく、また少なくとも1つの物体を埋め込み対象としてもよい。この場合には、例えば物体に対して、予め設定される優先度や、その物体の画面全体に対する表示領域の位置、大きさ、映像であればその物体が表示されていた時間等により任意に設定することができ、それらの画像の詳細情報も蓄積手段13に蓄積される。   In addition, when there are a plurality of objects in the image, the embedding target image determination unit 16 may set all the objects as the embedding target, or may set at least one object as the embedding target. In this case, for example, for an object, the priority is set in advance, the position and size of the display area with respect to the entire screen of the object, and if the image is displayed, the time is set arbitrarily. The detailed information of these images is also stored in the storage means 13.

非可視化情報設定手段17は、埋込対象画像判定手段16により得られる埋め込み対象として判定された物体情報に基づいて、どのような情報を付加情報として埋め込むのか、その具体的な情報の中身等を設定する。例えば、物体情報が化粧品や洋服等の商品である場合には、そのブランド名や商品名、値段、ホームページのアドレス等を設定し、物体情報が人物である場合には、その人物の氏名、年齢、性別、身長、趣味、経歴等を設定し、物体情報が本である場合には、その本のタイトル、著者、発行日、値段、著者に関する情報等を設定する。なお、非可視化情報設定手段17にて設定される付加情報としては映像も含まれる。   The non-visualization information setting means 17 determines what information is embedded as additional information based on the object information determined as the embedding target obtained by the embedding target image determination means 16, the contents of the specific information, etc. Set. For example, if the object information is a product such as cosmetics or clothes, the brand name, product name, price, homepage address, etc. are set. If the object information is a person, the name and age of the person If the object information is a book, the title, author, publication date, price, information about the author, etc. are set. Note that the additional information set by the non-visualization information setting unit 17 includes video.

また、非可視化情報設定手段17は、埋め込み情報をどのような形態で情報を付加するのかを設定する。例えば、付加情報は、特定の暗号化された文字であるのか、或いは模様や記号、コード情報等であるのか等を設定する。なお、非可視化情報設定手段17は、予め設定された複数の形態から、少なくとも1つの形態を設定することができる。そのため、非可視化情報設定手段17は、例えば埋め込み対象の画像の内容に応じて適切な埋め込み情報を選択して設定することができる。   Further, the non-visualization information setting unit 17 sets in what form the embedded information is added. For example, whether the additional information is a specific encrypted character, a pattern, a symbol, code information, or the like is set. The invisible information setting unit 17 can set at least one form from a plurality of preset forms. Therefore, the non-visualization information setting unit 17 can select and set appropriate embedding information according to the content of the image to be embedded, for example.

また、非可視化情報設定手段17は、コード情報として非可視化情報を設定する際、そのエッジ部分の形状を変更できるように、予め複数の輪郭形状の設定を行う。なお、輪郭形状としては、円形、楕円形、或いは三角形以上の多角形状等があるが、本発明においてはこれに限定されるものではなく、例えば星型(例えば、五芒星や六芒星等の概念を広く含む)、凹凸を含む形状、予め設定された関数に基づく曲線形状等であってもよい。これらの設定された輪郭形状に関する情報やそれ以外の設定情報は、例えば蓄積手段13に蓄積され、逐次読み出すことができ、読み出した情報を参照して設定することができる。   Further, when setting the invisible information as the code information, the invisible information setting unit 17 sets a plurality of contour shapes in advance so that the shape of the edge portion can be changed. The outline shape includes a circular shape, an elliptical shape, a polygonal shape that is equal to or greater than a triangle, and the present invention is not limited to this. For example, a star shape (for example, a concept such as a pentagram or a hexagonal star). ), A shape including irregularities, a curved shape based on a preset function, and the like. Information regarding the set contour shape and other setting information are stored in, for example, the storage unit 13 and can be read sequentially, and can be set with reference to the read information.

また、非可視化情報設定手段17は、上述した非可視化情報の輪郭形状に対してぼかし(例えば、グラデーション等)の有無を設定する。なお、上述した輪郭形状やぼかしの有無の設定は、ユーザ等が入力手段11を用いて、その非可視化情報を埋め込む画像中の物体の形状や模様等に応じて設定することができる。   Further, the non-visualization information setting unit 17 sets whether or not the outline shape of the above-described non-visualization information is blurred (for example, gradation or the like). Note that the above-described setting of the contour shape and the presence / absence of blurring can be set by the user or the like according to the shape or pattern of the object in the image in which the invisible information is embedded using the input unit 11.

非可視化情報生成手段18は、埋込対象画像に埋め込む非可視化情報を生成する。非可視化情報生成手段18は、直接文字情報を用いて非可視化情報を生成してもよく、コード情報を用いて非可視化情報を生成してもよい。なお、コード情報としては、例えばQRコード(登録商標)等の2次元バーコード等を使用することができる。また、本実施形態において、コード情報はQRコードに限定されず、例えばJANコードや、ITFコード、NW−7、CODE39、CODE128、PDF417、CODE49、Data Matrix、Maxi Code等の各種バーコードを選択的に用いることもできる。   The non-visualization information generating means 18 generates non-visualization information to be embedded in the embedding target image. The non-visualization information generating means 18 may generate non-visualization information using direct character information, or may generate non-visualization information using code information. As the code information, for example, a two-dimensional barcode such as a QR code (registered trademark) can be used. In the present embodiment, the code information is not limited to a QR code, and various bar codes such as JAN code, ITF code, NW-7, CODE39, CODE128, PDF417, CODE49, Data Matrix, Maxi Code are selectively used. It can also be used.

更に、非可視化情報生成手段18は、埋め込んだ情報が実際にユーザに提供される画像に対して見えにくくするために、埋込対象となる情報を原画像の色情報を対象にして高周波部と低周波部を用いた画像を生成する。なお、非可視化情報生成手段18における非可視化情報の詳細については後述する。   Further, the non-visualized information generating means 18 sets the information to be embedded as the high-frequency unit for the color information of the original image in order to make the embedded information difficult to see against the image actually provided to the user. An image using the low frequency part is generated. The details of the invisible information in the invisible information generating means 18 will be described later.

また、非可視化情報生成手段18は、非可視化情報の他に、埋め込み画像のどの位置に非可視化情報を埋め込むかの座標情報を生成する。本実施形態では、非可視化情報を埋め込む際、例えば画像中に表示されている埋込対象物体の位置上又はその周辺に埋め込むのが好ましい。したがって、座標情報は、埋込対象画像判定手段16により得られる物体の位置情報等に対応して生成される。   In addition, the non-visualization information generation unit 18 generates coordinate information on which position of the embedded image is embedded in addition to the non-visualization information. In this embodiment, when embedding the invisible information, for example, it is preferable to embed it on or around the position of the embedding target object displayed in the image. Therefore, the coordinate information is generated corresponding to the position information of the object obtained by the embedding target image determination unit 16.

これにより、本実施形態によれば、画像全体に対して1つの埋め込み情報を付与するのではなく、例えば画像中の物体毎に複数の非可視化情報を適切な場所に埋め込むことができる。   Thus, according to the present embodiment, a plurality of pieces of non-visualization information can be embedded in an appropriate place for each object in the image, for example, instead of giving one embedded information to the entire image.

また、非可視化情報生成手段18は、非可視化情報設定手段17により得られる設定情報に含まれる輪郭形状に基づいて、高周波成分、低周波成分等を用いた各データブロックからなる非可視化情報を生成する。更に、非可視化情報生成手段18は、上述した設定情報に基づいて、各データブロックの輪郭部分をぼかす設定がある場合には、所定のぼかし処理等を行う。なお、所定のぼかし処理とは、例えば非可視化情報に含まれる高周波領域又は低周波領域の各領域の中心からの距離が離れるにつれて順次グラデーションの割合を大きくすることで、輪郭形状をぼかすことができる。なお、ぼかし処理については、これに限定されるものではない。   Further, the non-visualization information generating unit 18 generates non-visualization information including each data block using a high frequency component, a low frequency component, and the like based on the contour shape included in the setting information obtained by the non-visualization information setting unit 17. To do. Further, the non-visualization information generating means 18 performs a predetermined blurring process or the like when there is a setting for blurring the outline portion of each data block based on the setting information described above. The predetermined blurring process can blur the contour shape by sequentially increasing the gradation ratio as the distance from the center of each region of the high frequency region or the low frequency region included in the invisible information is increased, for example. . Note that the blurring process is not limited to this.

なお、1画面に合成する非可視化情報に対して変形される輪郭形状については、1つでもよく、複数でもよい。したがって、本実施形態では、例えば、背景の物体の形状や模様等のエッジ量に基づいて、1画面中に異なる輪郭形状の非可視化情報を埋め込むことができる。   Note that there may be one or more contour shapes deformed with respect to the invisible information combined on one screen. Therefore, in this embodiment, for example, non-visualization information with different contour shapes can be embedded in one screen based on the amount of edges such as the shape or pattern of a background object.

画像合成手段19は、画像解析手段15により得られる画像と、その画像の物体情報、及び座標情報等からなる物体位置情報とに基づいて、非可視化情報生成手段18にて生成された非可視化情報を所定の位置に埋め込んで画像を合成する。   The image synthesizing unit 19 generates the non-visualization information generated by the non-visualization information generation unit 18 based on the image obtained by the image analysis unit 15 and the object position information including the object information and coordinate information of the image. Is embedded at a predetermined position to synthesize an image.

なお、画像合成手段19は、合成対象の画像が映像である場合、再生中の映像における物体の移動に対応させて非可視化情報を追随して移動させ、例えばその物体上に非可視化情報が常に埋め込まれているように合成することもできる。そのため、画像合成手段19は、例えば映像に含まれる各画像フレームに対して非可視化情報の合成を行い、その合成画像を順次表示する。なお、本発明においてはこれに限定されるものではなく、例えば物体が動かない場合には、数フレーム毎に非可視化情報を埋め込んでもよい。   When the image to be synthesized is a video, the image synthesizing unit 19 follows the non-visualization information in accordance with the movement of the object in the video being reproduced. For example, the non-visualization information is always on the object. It can also be synthesized as if it were embedded. Therefore, the image synthesis means 19 synthesizes the invisible information for each image frame included in the video, for example, and sequentially displays the synthesized image. The present invention is not limited to this. For example, when the object does not move, the invisible information may be embedded every few frames.

更に、画像合成手段19は、非可視化情報を埋め込む際、その埋め込む位置の物体が有する輪郭形状又は色、エッジ部分等に合わせて、非可視化情報を所定方向に所定角度だけ回転させて埋め込むことができる。つまり、画像合成手段19は、埋め込み箇所に対応させて非可視化情報の埋め込み手法を最適化して埋め込むことができる。これにより、本実施形態では、非可視化情報を違和感なく埋め込ませることができる。   Further, when embedding the non-visualization information, the image synthesizing unit 19 embeds the non-visualization information by rotating the non-visualization information by a predetermined angle in a predetermined direction in accordance with the outline shape or color of the object at the embedding position, the edge portion, or the like. it can. That is, the image synthesizing unit 19 can optimize and embed the invisible information embedding method in correspondence with the embedding location. Thereby, in this embodiment, non-visualization information can be embedded without a sense of incongruity.

送受信手段20は、通信ネットワーク等を用いて接続可能な外部装置から所望する外部画像(撮影画像や合成画像等)や、本発明における非可視化情報埋込処理を実現するための実行プログラム等を取得するためのインタフェースである。また、送受信手段20は、非可視化情報埋込装置10内で生成された各種情報を外部装置に送信することができる。   The transmission / reception means 20 obtains a desired external image (captured image, composite image, etc.), an execution program for realizing the invisible information embedding process in the present invention, from an external device connectable using a communication network or the like. It is an interface to do. The transmission / reception means 20 can transmit various information generated in the non-visualization information embedding device 10 to an external device.

制御手段21は、非可視化情報埋込装置10の各構成部全体の制御を行う。具体的には、制御手段21は、例えばユーザ等による入力手段11からの指示等に基づいて、画像の取得や画像解析、埋込対象画像であるか否かの判断、非可視化情報の設定並びに生成、画像合成等の各処理の制御等を行う。   The control means 21 controls the entire components of the invisible information embedding device 10. Specifically, the control unit 21 acquires an image, analyzes an image, determines whether the image is an embedding target image, sets non-visualization information, and the like based on an instruction from the input unit 11 by a user or the like, for example. Control of processing such as generation and image composition is performed.

本実施形態では、上述した非可視化情報を画像等に埋め込むことで、効率的な情報の取得により付加価値性に優れた高精度な画像を提供することができる。   In this embodiment, by embedding the above-described invisible information in an image or the like, it is possible to provide a highly accurate image with excellent added value by efficiently acquiring information.

<非可視化情報埋込装置10:ハードウェア構成>
ここで、上述した非可視化情報埋込装置10においては、各機能をコンピュータに実行させることができる実行プログラム(非可視化情報埋込プログラム)を生成し、例えば汎用のパーソナルコンピュータ、サーバ、携帯型端末、ゲーム機器等にその実行プログラムをインストールすることにより、本発明における非可視化情報埋込処理及び非可視化情報認識処理等を実現することができる。
<Non-Visualization Information Embedding Device 10: Hardware Configuration>
Here, in the invisible information embedding device 10 described above, an execution program (invisible information embedding program) capable of causing a computer to execute each function is generated, and for example, a general-purpose personal computer, server, portable terminal By installing the execution program in a game machine or the like, the invisible information embedding process and the invisible information recognition process in the present invention can be realized.

ここで、本実施形態における非可視化情報埋込処理が実現可能なコンピュータのハードウェア構成例について図を用いて説明する。   Here, a hardware configuration example of a computer capable of realizing the invisible information embedding process according to the present embodiment will be described with reference to the drawings.

図2は、本実施形態における非可視化情報埋込処理が実現可能なハードウェア構成の一例を示す図である。図2におけるコンピュータ本体には、入力装置31と、出力装置32と、ドライブ装置33と、補助記憶装置34と、メモリ装置35と、各種制御を行うCPU(Central Processing Unit)36と、ネットワーク接続装置37とを有するよう構成されており、これらはシステムバスBで相互に接続されている。   FIG. 2 is a diagram illustrating an example of a hardware configuration capable of realizing the invisible information embedding process according to the present embodiment. 2 includes an input device 31, an output device 32, a drive device 33, an auxiliary storage device 34, a memory device 35, a CPU (Central Processing Unit) 36 that performs various controls, and a network connection device. 37, and these are connected to each other by a system bus B.

入力装置31は、ユーザ等が操作するキーボード及びマウス等のポインティングデバイスを有しており、ユーザ等からのプログラムの実行等、各種操作信号を入力する。また、入力装置31は、カメラ等の撮像手段から撮影された画像を入力する画像入力ユニットを有していてもよい。   The input device 31 has a pointing device such as a keyboard and a mouse operated by a user or the like, and inputs various operation signals such as execution of a program from the user or the like. Further, the input device 31 may include an image input unit that inputs an image taken from an imaging unit such as a camera.

出力装置32は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイを有し、CPU36が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。   The output device 32 has a display for displaying various windows and data necessary for operating the computer main body for performing the processing according to the present invention, and displays the program execution progress and results by the control program of the CPU 36. can do.

ここで、本発明においてコンピュータ本体にインストールされる実行プログラムは、例えばUSB(Universal Serial Bus)メモリやCD−ROM等の可搬型の記録媒体68等により提供される。プログラムを記録した記録媒体38は、ドライブ装置33にセット可能であり、記録媒体38に含まれる実行プログラムが、記録媒体38からドライブ装置33を介して補助記憶装置34にインストールされる。   Here, the execution program installed in the computer main body in the present invention is provided by a portable recording medium 68 such as a USB (Universal Serial Bus) memory or a CD-ROM, for example. The recording medium 38 on which the program is recorded can be set in the drive device 33, and the execution program included in the recording medium 38 is installed in the auxiliary storage device 34 from the recording medium 38 via the drive device 33.

補助記憶装置34は、ハードディスク等のストレージ手段であり、本発明における実行プログラムやコンピュータに設けられた制御プログラム等を蓄積し、必要に応じて入出力を行うことができる。   The auxiliary storage device 34 is a storage means such as a hard disk, and can store an execution program according to the present invention, a control program provided in a computer, and the like, and can perform input / output as necessary.

メモリ装置35は、CPU36により補助記憶装置34から読み出された実行プログラム等を格納する。なお、メモリ装置35は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。   The memory device 35 stores an execution program read from the auxiliary storage device 34 by the CPU 36. The memory device 35 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.

CPU36は、OS(Operating System)等の制御プログラム、及びメモリ装置35に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して、非可視化情報の埋め込みにおける各処理を実現することができる。なお、プログラムの実行中に必要な各種情報等は、補助記憶装置34から取得することができ、また実行結果等を格納することもできる。   The CPU 36 controls processing of the entire computer, such as various operations and input / output of data with each hardware component, based on a control program such as an OS (Operating System) and an execution program stored in the memory device 35. Thus, each process in embedding the invisible information can be realized. Various information necessary during the execution of the program can be acquired from the auxiliary storage device 34, and the execution result and the like can also be stored.

ネットワーク接続装置37は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果又は本発明における実行プログラム自体を他の端末等に提供することができる。   The network connection device 37 acquires an execution program from another terminal connected to the communication network by connecting to a communication network or the like, or an execution result obtained by executing the program or an execution in the present invention The program itself can be provided to other terminals.

上述したようなハードウェア構成により、本発明における非可視化情報埋込処理を実行することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における非可視化情報埋込処理を容易に実現することができる。   With the hardware configuration described above, the invisible information embedding process in the present invention can be executed. Further, by installing the program, the non-visualized information embedding process in the present invention can be easily realized by a general-purpose personal computer or the like.

次に、非可視化情報埋込処理について具体的に説明する。   Next, the invisible information embedding process will be specifically described.

<非可視化情報埋込処理手順>
まず、本実施形態における非可視化情報埋込処理手順について説明する。図3は、本実施形態における非可視化情報埋込処理手順の一例を示すフローチャートである。
<Non-visible information embedding procedure>
First, a non-visualized information embedding process procedure in the present embodiment will be described. FIG. 3 is a flowchart showing an example of the non-visualized information embedding processing procedure in the present embodiment.

図3に示す非可視化情報埋込処理は、まずカメラ等の撮像手段により撮影された画像を取得し(S01)、画像の解析を行い(S02)、画像中に含まれる物体情報、物体位置情報、エッジ量等を取得する。   In the invisible information embedding process shown in FIG. 3, first, an image taken by an imaging means such as a camera is acquired (S01), the image is analyzed (S02), and object information and object position information included in the image are obtained. Get the edge amount.

次に、非可視化情報埋込処理は、S02の処理にて得られた情報に基づいて埋込対象画像の判定を行い(S03)、その物体に対して非可視化情報(マーカー)を埋め込むか否かを判断する(S04)。ここで、非可視化情報埋込処理は、非可視化情報を埋め込む場合(S04において、YES)、非可視化情報を設定し(S05)、S05の処理により設定された非可視化情報に基づいて、画像に合成する非可視化情報を生成する(S06)。   Next, in the invisible information embedding process, an embedding target image is determined based on the information obtained in the process of S02 (S03), and whether or not the invisible information (marker) is embedded in the object. Is determined (S04). Here, in the invisible information embedding process, in the case where the invisible information is embedded (YES in S04), the invisible information is set (S05), and the invisible information is embedded in the image based on the invisible information set by the process of S05. The invisible information to be synthesized is generated (S06).

なお、本実施形態における非可視化情報は、予め設定されていてもよく、画像中の物体(オブジェクト)に対応させて非可視化情報を設定してもよい。また、本実施形態では、ユーザ等の設定により、非可視化情報の輪郭形状を変更することができ、輪郭形状にぼかし処理を行うこともできる。   Note that the invisible information in the present embodiment may be set in advance, or the invisible information may be set in association with an object (object) in the image. In the present embodiment, the contour shape of the non-visualization information can be changed by the setting of the user or the like, and the blur processing can be performed on the contour shape.

また、非可視化情報埋込処理は、S06の処理にて生成された非可視化情報を画像の所定位置に合成して(S07)、合成画像をディスプレイ等の出力手段により表示又はデータとして出力する(S08)。   Further, in the invisible information embedding process, the invisible information generated in the process of S06 is synthesized at a predetermined position of the image (S07), and the synthesized image is displayed or output as output data by an output means such as a display ( S08).

非可視化情報埋込処理は、S08の処理終了後又はS04の処理において、非可視化情報を埋め込まない場合(S04において、NO)、他の画像に非可視化情報を埋め込むか否かを判断する(S09)。また、非可視化情報埋込処理は、他の画像に非可視化情報を埋め込む場合(S09において、YES)、S01に戻り以降の処理を繰り返し実行する。また、非可視化情報埋込処理は、S09の処理において、他の画像に非可視化情報を埋め込まない場合(S09において、NO)、非可視化情報埋込処理を終了する。   In the non-visualization information embedding process, when the non-visualization information is not embedded after the process of S08 is completed or in the process of S04 (NO in S04), it is determined whether or not the non-visualization information is embedded in another image (S09). ). Further, in the invisible information embedding process, when invisible information is embedded in another image (YES in S09), the process returns to S01 and the subsequent processes are repeatedly executed. In the non-visualization information embedding process, if the non-visualization information is not embedded in another image in the process of S09 (NO in S09), the non-visualization information embedding process is terminated.

<画像合成処理手順>
次に、上述したS07における画像合成処理手順について説明する。図4は、本実施形態における画像合成処理手順の一例を示すフローチャートである。
<Image composition processing procedure>
Next, the image composition processing procedure in S07 described above will be described. FIG. 4 is a flowchart showing an example of an image composition processing procedure in the present embodiment.

図4に示す画像合成処理は、まず埋め込み対象の背景の輝度に応じて、ピクセル(画素)毎に埋め込みやすさを点数化する(S11)。次に、画像合成処理は、埋め込み領域の点数の和が最大になる領域を探索する(S12)。また、画像合成処理は、埋め込み領域における背景部分のエッジを抽出し(S13)、例えば非可視化情報のファインダパターン等の所定のエッジ部分が、S13の処理で抽出された背景部分のエッジに沿うように、非可視化情報を回転させる(S14)。なお、ファインダパターンとは、例えばQRコード等の2次元バーコードに対して、その位置と向きを検出するための3隅にある切り出しシンボル(なお、マイクロQRの場合には、1個の切り出しシンボル)を示すが、本発明においてはこれに限定されるものではない。   In the image composition processing shown in FIG. 4, first, the ease of embedding is scored for each pixel (pixel) according to the luminance of the background to be embedded (S11). Next, in the image composition process, an area where the sum of the points of the embedded area is maximized is searched (S12). Further, the image composition processing extracts the edge of the background portion in the embedding area (S13), and for example, a predetermined edge portion such as a finder pattern of the non-visualized information follows the edge of the background portion extracted in the processing of S13. The invisible information is rotated (S14). A finder pattern is a cut-out symbol at three corners for detecting the position and orientation of a two-dimensional bar code such as a QR code (in the case of micro QR, one cut-out symbol). However, the present invention is not limited to this.

その後、画像合成処理は、画像の背景のエッジに沿うように、非可視化情報のデータブロックの形状(輪郭形状)を変形して埋め込む(S15)。   Thereafter, in the image composition processing, the shape (contour shape) of the data block of the non-visualization information is deformed and embedded so as to follow the background edge of the image (S15).

上述した処理により、効率的な情報の取得により付加価値性に優れた高精度な画像を提供することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における非可視化情報埋込処理を容易に実現することができる。   Through the above-described processing, it is possible to provide a highly accurate image with excellent added value by efficiently acquiring information. Further, by installing the program, the non-visualized information embedding process in the present invention can be easily realized by a general-purpose personal computer or the like.

<非可視化情報について>
ここで、本実施形態における非可視化情報について具体的に説明する。なお、非可視化情報としては、文字や数字、記号、マーク、模様、色彩、1次元コード、2次元コード等を用いることができる。
<About invisible information>
Here, the invisible information in the present embodiment will be specifically described. Note that as the invisible information, letters, numbers, symbols, marks, patterns, colors, one-dimensional codes, two-dimensional codes, and the like can be used.

ここで、図5は、本実施形態における非可視化情報の概念の一例を示す図である。なお、図5(a)は非可視化情報の輪郭形状を円形にぼかした例を示し、図5(b)は非可視化情報の輪郭形状を三角形にぼかした例と示し、図5(c)は非可視化情報の輪郭形状を星型にぼかした例を示している。なお、図5(b)では、三角形ぼかしの例を示しているが、本発明においては、その他の多角形のぼかし処理を行ってもよい。また、本実施形態では、通常の四角形の輪郭形状に対してもぼかし処理を行うことができる。   Here, FIG. 5 is a diagram showing an example of the concept of the invisible information in the present embodiment. 5A shows an example in which the contour shape of the invisible information is blurred in a circle, FIG. 5B shows an example in which the contour shape of the invisible information is blurred in a triangle, and FIG. An example in which the contour shape of the invisible information is blurred in a star shape is shown. FIG. 5B shows an example of triangular blurring, but in the present invention, other polygon blurring processing may be performed. In the present embodiment, the blurring process can be performed on a normal quadrangular contour shape.

なお、図5(a)〜(c)に示す非可視化情報40−1〜40−3は、QRコードによる非可視化情報であり、ファインダパターンとして、非可視化情報の向きを認識するための3隅の四角い切り出しシンボル41−1a〜41−1c,41−2a〜41−2c,41−3a〜41−3cがそれぞれ設けられている。   In addition, the non-visualization information 40-1 to 40-3 shown in FIGS. 5A to 5C is non-visualization information by QR codes, and three corners for recognizing the direction of the non-visualization information as a finder pattern. Square cut-out symbols 41-1a to 41-1c, 41-2a to 41-2c, and 41-3a to 41-3c are provided.

本実施形態では、図5に示すように、各非可視化情報40−1〜40−3の低周波部分の形状を通常の四角形から所定の形状に変形し、更に必要に応じてぼかし処理を施して視認しにくい非可視化情報を提供することができる。なお、ぼかし処理は、低周波部分だけでもよく、高周波部分だけでもよく、高周波と低周波の両方に施してもよい。   In the present embodiment, as shown in FIG. 5, the shape of the low-frequency portion of each of the invisible information 40-1 to 40-3 is changed from a normal quadrangular shape to a predetermined shape, and a blurring process is performed as necessary. It is possible to provide invisible information that is difficult to visually recognize. Note that the blurring process may be performed on only the low frequency part, only the high frequency part, or both high frequency and low frequency.

更に、本実施形態では、上述した輪郭形状の選択やぼかしの有無については、埋め込む対象画像のオブジェクトのエッジ量や色情報、ユーザの指示等に基づいて適宜設定することができる。   Further, in the present embodiment, the above-described selection of the contour shape and the presence / absence of blurring can be appropriately set based on the edge amount and color information of the object of the target image to be embedded, a user instruction, and the like.

また、図6は、実際に生成された非可視化情報の一例を示す図である。なお、図6(a)〜(e)は、画像全体から非可視化情報部分を抽出したものである。ここで、図6(a)は非可視化情報の四角形のぼかし例を示し、図6(b)は非可視化情報の円形のぼかし例を示し、図6(c)は非可視化情報の三角形のぼかし例を示し、図6(d)は非可視化情報の六角形のぼかし例を示し、図6(e)は非可視化情報の星型のぼかし例を示している。   FIG. 6 is a diagram illustrating an example of the invisible information actually generated. 6A to 6E are obtained by extracting the invisible information portion from the entire image. Here, FIG. 6A shows an example of a quadrangle blur of the invisible information, FIG. 6B shows an example of a circular blur of the invisible information, and FIG. 6C shows a triangle blur of the invisible information. FIG. 6D shows an example of hexagonal blurring of invisible information, and FIG. 6E shows a star-shaped blurring example of invisible information.

図6に示す画像42−1〜42−5は、灰色の背景に対して、高周波の部分を円形、三角形、六角形、星型にした例を示している。なお、本発明においては、その他の多角形のぼかし処理を行ってもよい。また、図6の例では、低周波の部分にぼかしを入れているが、高周波の部分にぼかしを入れてもよい。このように、ぼかし処理を行うことで、非可視化情報を目立ちにくくし、機械認識性を落とすことなく、目視(肉眼)での視認性を低下することができる。   Images 42-1 to 42-5 shown in FIG. 6 show an example in which a high-frequency portion is circular, triangular, hexagonal, or star-shaped with respect to a gray background. In the present invention, other polygon blurring processing may be performed. Further, in the example of FIG. 6, the low frequency part is blurred, but the high frequency part may be blurred. In this way, by performing the blurring process, the invisible information is made inconspicuous, and visibility with the naked eye can be reduced without degrading machine recognition.

<非可視化情報を埋め込んだ画像例>
図7は、本実施形態における非可視化情報を埋め込んだ画像例を示す図である。図7(a)は、上述した図5(a)に示す円形ぼかしの非可視化情報を埋め込んだ画像例を示し、図7(b)は図5(b)に示す三角形ぼかしの非可視化情報を埋め込んだ画像例を示し、図7(c)は図5(c)に示す星型ぼかしの非可視化情報を埋め込んだ画像例を示している。
<Example of image with invisible information embedded>
FIG. 7 is a diagram illustrating an example of an image in which the invisible information is embedded in the present embodiment. FIG. 7A shows an example of an image in which the circular blur non-visualization information shown in FIG. 5A is embedded, and FIG. 7B shows the triangular blur non-visualization information shown in FIG. 5B. FIG. 7C shows an example of an embedded image, and FIG. 7C shows an example of an image in which the star-blurred non-visualization information shown in FIG. 5C is embedded.

図7に示す各画像50−1〜50−3には、それぞれの領域51−1〜51−3に所定の輪郭形状に変形させ、所定のぼかし処理を行った非可視化情報が埋め込まれている。   In each of the images 50-1 to 50-3 illustrated in FIG. 7, invisible information obtained by transforming the regions 51-1 to 51-3 into a predetermined contour shape and performing a predetermined blurring process is embedded. .

また、図7の例では、図6と同様に、高周波の部分を円形、三角形、星型に変形し、更に低周波の部分にはぼかしを入れている。なお、本発明においては図7の例に限定されるものではなく、では、高周波部分のみにぼかし処理を行ってもよく、両方の成分に対してぼかし処理を行ってもよい。このとき、本実施形態では、ぼかす量を各成分(高周波、低周波)毎に変えてもよく、同じ量に設定してもよい。また、これらの設定は、非可視化情報設定手段17で設定される設定情報に含まれていてもよく、また非可視化情報に埋め込むオブジェクトのエッジ量や色情報等に応じて適宜変更することができる。   In the example of FIG. 7, as in FIG. 6, the high-frequency part is transformed into a circle, a triangle, and a star, and the low-frequency part is blurred. In the present invention, the present invention is not limited to the example shown in FIG. 7. In this case, the blurring process may be performed only on the high frequency portion, or the blurring process may be performed on both components. At this time, in this embodiment, the amount to be blurred may be changed for each component (high frequency, low frequency), or may be set to the same amount. These settings may be included in the setting information set by the non-visualization information setting unit 17 and can be appropriately changed according to the edge amount, color information, etc. of the object embedded in the non-visualization information. .

<付加情報の具体的な埋め込み例>
次に、本実施形態の画像合成手段19における付加情報の具体的な埋め込み例について図を用いて説明する。なお、以下の説明では、付加情報として2次元コードの埋め込み例について説明する。本実施形態における非可視化情報は、拡大すると低周波部と高周波部とが所定の領域(例えば正方形)内で所定の条件に基づいて配列されている。ここで、低周波部を「0」とし、高周波部を「1」としてコードを埋め込む。また、高周波部は、濃色と淡色を所定ピクセル単位で交互に並べ、更に遠くから見た時には平均すると元の画像そのものの色になるよう調整する。
<Specific example of embedding additional information>
Next, a specific example of embedding additional information in the image composition means 19 of the present embodiment will be described with reference to the drawings. In the following description, an example of embedding a two-dimensional code as additional information will be described. When the invisible information in the present embodiment is enlarged, the low frequency part and the high frequency part are arranged in a predetermined region (for example, a square) based on a predetermined condition. Here, the code is embedded with the low frequency portion set to “0” and the high frequency portion set to “1”. Further, the high-frequency unit arranges the dark color and the light color alternately in predetermined pixel units, and adjusts the color so as to be the color of the original image when averaged when viewed from a further distance.

<低周波及び高周波について>
ここで、本実施形態における低周波及び高周波については、例えば上述した特許文献3に示されている手法を用いて各成分を求めることができる。以下に、その内容について説明する。通常、周波数には時間についての周波数(時間周波数)と空間の位置についての周波数(空間周波数)があるが、本実施形態においては、特に断らない限りは空間周波数を指す。空間周波数とは、「単位長さに対する画素値の周期の逆数」と定義される。
<About low frequency and high frequency>
Here, for the low frequency and the high frequency in the present embodiment, each component can be obtained using, for example, the technique disclosed in Patent Document 3 described above. The contents will be described below. Normally, there are frequencies for time (temporal frequency) and frequencies for space positions (spatial frequency). In the present embodiment, the frequency refers to the spatial frequency unless otherwise specified. Spatial frequency is defined as “the reciprocal of the period of the pixel value relative to the unit length”.

本実施形態における周波数は、特に限定されるものではないが、例えば高周波部では0.2〜2[cycle/画素]、低周波部では0〜1[cycle/画素]の範囲で設定すればよく、具体的には低周波部より高周波部のほうが、周波数が高くなっていればよい。   The frequency in the present embodiment is not particularly limited. For example, the frequency may be set in the range of 0.2 to 2 [cycle / pixel] in the high frequency part and 0 to 1 [cycle / pixel] in the low frequency part. Specifically, it is sufficient that the high frequency portion has a higher frequency than the low frequency portion.

また、高周波部にて形成される所定の画素領域(例えば、4×4px(ピクセル)等)からなるグリッドは、明部と暗部が周期的に繰り返していればよく、例えば、縦縞、横縞、格子状等があげられる。また、そのときの明部と暗部の明度差は10以上であればよく、好適なのは50以上であり、更に好適なのは100以上である。   In addition, a grid composed of predetermined pixel regions (for example, 4 × 4 px (pixels) or the like) formed in a high-frequency part is sufficient if a bright part and a dark part are periodically repeated. For example, vertical stripes, horizontal stripes, grids State. In addition, the brightness difference between the bright part and the dark part at that time may be 10 or more, preferably 50 or more, and more preferably 100 or more.

また、上述した付加情報の使用可能なピクセルサイズは、例えばその画像と、画像を見る人との距離により変化するため、限定されるものではないが、例えば1mの距離であれば、約0.05〜2mm程度が好ましく、10mの距離であれば、0.5mm〜20mm程度が好ましい。更に離れた距離から使用する場合でも、同様のピクセルサイズと距離の比率を保っていることが好ましい。   The usable pixel size of the additional information described above is not limited because it varies depending on the distance between the image and the person viewing the image, for example. About 0.5 to 2 mm is preferable, and if the distance is 10 m, about 0.5 to 20 mm is preferable. Even when used from a further distance, it is preferable to maintain the same pixel size / distance ratio.

<低周波部のコードの埋め込み>
次に、上述した低周波部のコードの埋め込み例について説明する。低周波部のコードの埋め込みは、例えば、画像に所定のグリッドが形成されている場合には、例えばガウシアンフィルター(Gaussian Filter)によるフィルタリング処理により、グリッド全体に所謂ぼかしフィルタをかけ、グリッド内の明度値を平滑化する。つまり、グリッドの明度が130前後で平滑化される。
<Embedding the low frequency code>
Next, an example of embedding the above-described low-frequency code is described. For example, when a predetermined grid is formed in the image, the low-frequency code is embedded by applying a so-called blur filter to the entire grid by, for example, a filtering process using a Gaussian filter. Smooth the value. That is, the brightness of the grid is smoothed around 130.

<高周波部のコードの埋め込み>
次に、上述した高周波部のコードの埋め込み例について説明する。高周波部のコードは、所定のグリッドにおいて、高周波を埋め込むために縞模様を生成する。そのため、グリッドの偶数行(列)は明度を上げ、奇数行(列)は明度を落とす処理を行う。なお、明度の増減値は、例えば背景の明度から判断して決定することができる。このように、本実施形態では、明度の値に対応して増減値を設定することで、埋め込み情報を効率的に生成することができ、また埋め込み情報をより目立たなくさせることができる。
<Embedding high-frequency code>
Next, a description will be given of an example of embedding the above-described high-frequency code. The code of the high frequency part generates a striped pattern in order to embed a high frequency in a predetermined grid. Therefore, processing is performed to increase the brightness of even rows (columns) of the grid and decrease the brightness of odd rows (columns). In addition, the increase / decrease value of the brightness can be determined by judging from the brightness of the background, for example. As described above, in the present embodiment, by setting the increase / decrease value corresponding to the brightness value, the embedded information can be generated efficiently and the embedded information can be made less noticeable.

具体的には、画像中におけるグリッドの画素のラインが奇数行の場合には、明度減となる処理を行い増減値は「−35」を用いて「152」から「127」となる。また、偶数行の場合には、明度増となる処理を行い増減値は「+30」を用いて「120」から「150」となる。本実施形態では、上述したような低周波部、高周波部のコードの埋め込み処理を非可視化領域に対して行うことで、2次元コードを生成することができる。   Specifically, when the pixel line of the grid in the image is an odd number, the process of decreasing the brightness is performed, and the increase / decrease value is changed from “152” to “127” using “−35”. Further, in the case of an even-numbered line, processing for increasing brightness is performed, and the increase / decrease value is changed from “120” to “150” using “+30”. In the present embodiment, a two-dimensional code can be generated by performing the low frequency portion and high frequency portion code embedding processing on the invisible region as described above.

<本実施形態を適用した場合の従来との比較による評価結果>
次に、本実施形態を適用した場合の画像と従来の画像との読み取り精度評価と、見えにくさ評価結果について、図を用いて説明する。図8は、本実施形態により得られた画像に対する評価結果の一例を示す図である。なお、図8(a)は読み取り精度評価の一例を示し、図8(b)は見えにくさ評価の一例を示している。
<Evaluation result by comparison with the conventional case when this embodiment is applied>
Next, a reading accuracy evaluation between an image and a conventional image when this embodiment is applied, and an invisibility evaluation result will be described with reference to the drawings. FIG. 8 is a diagram illustrating an example of an evaluation result for an image obtained according to the present embodiment. 8A shows an example of reading accuracy evaluation, and FIG. 8B shows an example of invisibility evaluation.

図8(a)に示す読み取り精度評価では、例えば上述する図6に示すような灰色背景画像に対して非可視化情報の輪郭形状(高周波又は低周波、又は両方の周波数成分に対する輪郭形状)が四角形、円形、三角形、六角形、星型の認識精度評価を示している。なお、図8の例では、各形状に対して3回の実験結果の平均値をとり、突発的なエラーに対する誤差がないようにしている。   In the reading accuracy evaluation shown in FIG. 8A, for example, the contour shape of the non-visualized information (contour shape for high frequency or low frequency, or both frequency components) is square with respect to the gray background image as shown in FIG. The recognition accuracy evaluation of circle, triangle, hexagon and star is shown. In the example of FIG. 8, the average value of the three experimental results is taken for each shape so that there is no error with respect to sudden errors.

図8(a)に示す評価結果によれば、認識精度が一番よいのは四角形であるが、他の形状についても四角形と略同様の読み取り精度を得ることができる。なお、その中でも特に円形と六角形については、他の形状に比べて読み取り精度が高いことが分かる。   According to the evaluation result shown in FIG. 8A, the best recognition accuracy is the quadrangle, but the reading accuracy of the other shapes can be obtained substantially the same as the quadrangle. It can be seen that the reading accuracy is particularly high for circular and hexagonal shapes compared to other shapes.

また、図8(b)に示す見えにくさの評価については、複数の実験参加者(今回の実験では6人)に対し、見えにくい画像から順に5点、4点、3点と点数を受けてもらい、その点数を集計した合計点が高い順に順位を付けている。図8(b)の例によれば、見えにくい順に円形→六角形→四角形→三角形→星型となることが分かる。   In addition, regarding the evaluation of the invisibility shown in FIG. 8 (b), 5 points, 4 points, 3 points, etc. were sequentially given to the plurality of experiment participants (6 people in this experiment) in order from the images that are difficult to see. They are ranked in descending order of the total score. According to the example of FIG. 8B, it is understood that the order of circle → hexagon → rectangle → triangle → star shape is in order of difficulty.

上述した評価結果によれば、特に星型又は六角形形状に変更することが好ましい。したがって、非可視化情報設定手段17において、ユーザの指示で非可視化情報の輪郭形状を設定する場合に、円形又は六角形を設定することが好ましい。   According to the evaluation results described above, it is particularly preferable to change to a star shape or hexagonal shape. Therefore, when setting the contour shape of the non-visualization information by the user's instruction in the non-visualization information setting unit 17, it is preferable to set a circle or a hexagon.

なお、本実施形態では、非可視化情報を埋め込む場合に、その位置の背景画像の物体(オブジェクト)の形状や模様のエッジ部分等に合わせて非可視化情報を回転させたり、物体のエッジ部分等に合うように大きさを変更(拡大又は縮小)することで、更に人の目視による認識性を低下させることができる。   In this embodiment, when embedding non-visualization information, the non-visualization information is rotated according to the shape of the object (object) of the background image at that position, the edge portion of the pattern, or the like. By changing the size so as to fit (enlarge or reduce), the human visual recognition can be further reduced.

上述したように本発明によれば、視認性を低下させた高精度な非可視化情報を画像に埋め込むことができる。また本発明により効率的に情報を取得して、付加価値性に優れた高精度な画像を提供することができる。   As described above, according to the present invention, it is possible to embed highly accurate invisible information with reduced visibility in an image. Further, according to the present invention, it is possible to efficiently acquire information and provide a highly accurate image with excellent added value.

以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed.

10 非可視化情報埋込装置
11 入力手段
12 出力手段
13 蓄積手段
14 画像取得手段
15 画像解析手段
16 埋込対象画像判定手段
17 非可視化情報設定手段
18 非可視化情報生成手段
19 画像合成手段
20 送受信手段
21 制御手段
31 入力装置
32 出力装置
33 ドライブ装置
34 補助記憶装置
35 メモリ装置
36 CPU(Central Processing Unit)
37 ネットワーク接続装置
38 記録媒体
40 非可視化領域
41 シンボル
42,50 画像
51 領域
DESCRIPTION OF SYMBOLS 10 Non-visualization information embedding apparatus 11 Input means 12 Output means 13 Storage means 14 Image acquisition means 15 Image analysis means 16 Embedding target image determination means 17 Non-visualization information setting means 18 Non-visualization information generation means 19 Image synthesis means 20 Transmission / reception means 21 Control Unit 31 Input Device 32 Output Device 33 Drive Device 34 Auxiliary Storage Device 35 Memory Device 36 CPU (Central Processing Unit)
37 Network connection device 38 Recording medium 40 Non-visible region 41 Symbol 42, 50 Image 51 region

Claims (7)

取得した画像の所定の位置に非可視化情報を埋め込む非可視化情報埋込装置において、
前記画像に含まれる物体情報及び位置情報を取得する画像解析手段と、
前記画像解析手段により得られた物体情報から前記画像が埋め込み対象の画像であるかを判定する埋込対象画像判定手段と、
前記画像に合成される前記非可視化情報の輪郭形状を設定する非可視化情報設定手段と、
前記非可視化情報設定手段により得られる設定情報に対応させた輪郭形状を用いた非可視化情報を生成する非可視化情報生成手段と、
前記埋込対象画像判定手段により得られる判定結果に基づいて、前記画像の所定の位置に前記非可視化情報生成手段により得られた非可視化情報を埋め込んで画像を合成する画像合成手段とを有し、
前記非可視化情報設定手段は、前記非可視化情報の輪郭形状のぼかしの有無を設定することを特徴とする非可視化情報埋込装置。
In the non-visualization information embedding device that embeds the non-visualization information at a predetermined position of the acquired image,
Image analysis means for acquiring object information and position information included in the image;
An embedding target image determination unit that determines whether the image is an image to be embedded from the object information obtained by the image analysis unit;
Non-visualization information setting means for setting a contour shape of the non-visualization information combined with the image;
Non-visualization information generating means for generating non-visualization information using a contour shape corresponding to the setting information obtained by the non-visualization information setting means;
Based on the determination result obtained by the embedding target image determining unit, it has a image combining means for combining an image by embedding an invisible information obtained by the non-visible information generating means to a predetermined position of the image ,
The non -visualized information embedding device , wherein the non-visualized information setting means sets whether or not the contour shape of the non-visualized information is blurred .
前記画像解析手段は、前記物体情報に対する物体形状のエッジ量を解析し、
前記非可視化情報生成手段は、前記画像解析手段により得られる前記物体形状のエッジ量に対応させて、前記非可視化情報の輪郭形状を変形させることを特徴とする請求項に記載の非可視化情報埋込装置。
The image analysis unit analyzes an edge amount of an object shape with respect to the object information,
2. The non-visualization information according to claim 1 , wherein the non-visualization information generation unit deforms a contour shape of the non-visualization information according to an edge amount of the object shape obtained by the image analysis unit. Implanting device.
前記画像合成手段は、
前記画像解析手段により得られる前記物体形状のエッジ部分に対応させて前記非可視化情報を回転させて前記画像に埋め込むことを特徴とする請求項に記載の非可視化情報埋込装置。
The image composition means includes
The invisible information embedding apparatus according to claim 2 , wherein the invisible information is rotated and embedded in the image in correspondence with an edge portion of the object shape obtained by the image analysis unit.
取得した画像の所定の位置に非可視化情報を埋め込む非可視化情報埋込方法において、
前記画像に含まれる物体情報及び位置情報を取得する画像解析ステップと、
前記画像解析ステップにより得られた物体情報から前記画像が埋め込み対象の画像であるかを判定する埋込対象画像判定ステップと、
前記画像に合成される前記非可視化情報の輪郭形状を設定する非可視化情報設定ステップと、
前記非可視化情報設定ステップにより得られる設定情報に対応させた輪郭形状を用いた非可視化情報を生成する非可視化情報生成ステップと、
前記埋込対象画像判定ステップにより得られる判定結果に基づいて、前記画像の所定の位置に前記非可視化情報生成ステップにより得られた非可視化情報を埋め込んで画像を合成する画像合成ステップとを有し、
前記非可視化情報設定ステップは、前記非可視化情報の輪郭形状のぼかしの有無を設定することを特徴とする非可視化情報埋込方法。
In the non-visualization information embedding method of embedding non-visualization information at a predetermined position of the acquired image,
An image analysis step of acquiring object information and position information included in the image;
An embedding target image determination step for determining whether the image is an image to be embedded from the object information obtained by the image analysis step;
A non-visualization information setting step for setting a contour shape of the non-visualization information combined with the image;
A non-visualization information generating step for generating non-visualization information using a contour shape corresponding to the setting information obtained by the non-visualization information setting step;
Based on the determination result obtained by the embedding target image determination step, have a an image combining step of combining the image by embedding the non-visible information obtained by the non-visible information generating step in a predetermined position of the image ,
The non -visualization information embedding method , wherein the non-visualization information setting step sets whether or not the contour shape of the non-visualization information is blurred .
前記画像解析ステップは、前記物体情報に対する物体形状のエッジ量を解析し、
前記非可視化情報生成ステップは、前記画像解析ステップにより得られる前記物体形状のエッジ量に対応させて、前記非可視化情報の輪郭形状を変形させることを特徴とする請求項に記載の非可視化情報埋込方法。
The image analysis step analyzes an edge amount of an object shape with respect to the object information,
5. The non-visualization information according to claim 4 , wherein the non-visualization information generation step deforms a contour shape of the non-visualization information in accordance with an edge amount of the object shape obtained by the image analysis step. Embedding method.
前記画像合成ステップは、
前記画像解析ステップにより得られる前記物体形状のエッジ部分に対応させて前記非可視化情報を回転させて前記画像に埋め込むことを特徴とする請求項に記載の非可視化情報埋込方法。
The image composition step includes
6. The invisible information embedding method according to claim 5 , wherein the invisible information is rotated and embedded in the image in correspondence with an edge portion of the object shape obtained by the image analysis step.
コンピュータを、請求項1乃至の何れか1項に記載の非可視化情報埋込装置が有する各手段として機能させるための非可視化情報埋込プログラム。 The non-visualization information embedding program for functioning a computer as each means which the non-visualization information embedding apparatus of any one of Claims 1 thru | or 3 has.
JP2012030971A 2012-02-15 2012-02-15 Non-visualization information embedding device, non-visualization information embedding method, and non-visualization information embedding program Expired - Fee Related JP6001275B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012030971A JP6001275B2 (en) 2012-02-15 2012-02-15 Non-visualization information embedding device, non-visualization information embedding method, and non-visualization information embedding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012030971A JP6001275B2 (en) 2012-02-15 2012-02-15 Non-visualization information embedding device, non-visualization information embedding method, and non-visualization information embedding program

Publications (2)

Publication Number Publication Date
JP2013168805A JP2013168805A (en) 2013-08-29
JP6001275B2 true JP6001275B2 (en) 2016-10-05

Family

ID=49178896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012030971A Expired - Fee Related JP6001275B2 (en) 2012-02-15 2012-02-15 Non-visualization information embedding device, non-visualization information embedding method, and non-visualization information embedding program

Country Status (1)

Country Link
JP (1) JP6001275B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101946579B1 (en) * 2018-10-19 2019-05-21 (주)동광지엔티 System For Drawing Of Renewal Area
KR101946573B1 (en) * 2018-10-24 2019-05-21 (주)동광지엔티 Equipment For Drawing Image

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5021061B2 (en) * 2009-12-08 2012-09-05 株式会社 資生堂 Non-visualization information embedding device, non-visualization information recognition device, non-visualization information embedding method, non-visualization information recognition method, non-visualization information embedding program, and non-visualization information recognition program
CN106022434A (en) * 2010-03-26 2016-10-12 At信息股份有限公司 Two-dimensional code with a logo

Also Published As

Publication number Publication date
JP2013168805A (en) 2013-08-29

Similar Documents

Publication Publication Date Title
JP5021061B2 (en) Non-visualization information embedding device, non-visualization information recognition device, non-visualization information embedding method, non-visualization information recognition method, non-visualization information embedding program, and non-visualization information recognition program
JP2017108401A5 (en) Smartphone based method, smart phone and computer readable medium
JP4972712B1 (en) Content providing system using invisible information, invisible information embedding device, recognition device, embedding method, recognition method, embedding program, and recognition program
JP5822400B2 (en) Pointing device with camera and mark output
KR101542756B1 (en) Hidden image signaling
KR101330811B1 (en) Apparatus and Method for augmented reality using instant marker
JP4848427B2 (en) Video image code, apparatus and method for generating or decoding video image code
JP7010122B2 (en) Video generator, video generation method, and program
US9626934B2 (en) Display format using display device for machine-readable dot patterns
JP6001275B2 (en) Non-visualization information embedding device, non-visualization information embedding method, and non-visualization information embedding program
JP2012190085A (en) Marker recognition processor, recognition processing program and recognition processing method
JP6645076B2 (en) Image processing device
JP6369143B2 (en) Authenticity evaluation apparatus and program
US9918057B2 (en) Projecting text characters onto a textured surface
KR20120087232A (en) System and method for expressing augmented reality-based content
KR20180058326A (en) Augmented reality display method of game card
CN108712570B (en) Method for enhancing live performance and reality of intelligent mobile device for detecting hidden image
Suzuki et al. Mobile interaction using steganographic image on mobile display
JP2019168767A (en) Authentication system for authenticating concealed image or concealed information, authentication method, and authentication program
KR20160038193A (en) Method and program for providing enterprise introduction using augmented reality contents based on business card or brochure
JP6166767B2 (en) Machine readable dot pattern
GB2535727A (en) Interactive information system
EP3410256A1 (en) Method for outputting of combined 2d and 3d imaging
WO2016162039A1 (en) A method for capturing visually encoded data tags from lenticular 3d pictures
CN115578715A (en) Image generation method and vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160404

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160901

R150 Certificate of patent or registration of utility model

Ref document number: 6001275

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees