JP2012138892A - Content providing system using invisible information, invisible information embedding device, invisible information recognition device, invisible information embedding method, invisible information recognition method, invisible information embedding program, and invisible information recognition program - Google Patents

Content providing system using invisible information, invisible information embedding device, invisible information recognition device, invisible information embedding method, invisible information recognition method, invisible information embedding program, and invisible information recognition program Download PDF

Info

Publication number
JP2012138892A
JP2012138892A JP2011187597A JP2011187597A JP2012138892A JP 2012138892 A JP2012138892 A JP 2012138892A JP 2011187597 A JP2011187597 A JP 2011187597A JP 2011187597 A JP2011187597 A JP 2011187597A JP 2012138892 A JP2012138892 A JP 2012138892A
Authority
JP
Japan
Prior art keywords
information
embedding
image
embedded
invisible
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011187597A
Other languages
Japanese (ja)
Other versions
JP4972712B1 (en
Inventor
Kenichi Sakuma
健一 佐久間
Naoto Haniyu
直人 羽生
Takakuni Doseki
隆国 道関
Kazuma Kitamura
一真 北村
Hiroshi Fukui
寛 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ritsumeikan Trust
Shiseido Co Ltd
Original Assignee
Ritsumeikan Trust
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ritsumeikan Trust, Shiseido Co Ltd filed Critical Ritsumeikan Trust
Priority to JP2011187597A priority Critical patent/JP4972712B1/en
Priority to PCT/JP2011/078315 priority patent/WO2012077715A1/en
Priority to TW100145223A priority patent/TW201237802A/en
Application granted granted Critical
Publication of JP4972712B1 publication Critical patent/JP4972712B1/en
Publication of JP2012138892A publication Critical patent/JP2012138892A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To speedily embed and extract invisible information and to provide an accurate content having excellent added value.SOLUTION: An embedding device which embeds the invisible information in a prescribed position of an acquired image has: image analysis means that acquires object and position information included in the image; embedding target object setting means that sets an object into which the image is to be embedded from the object acquired by the image analysis means; and invisible information embedding means which embeds the invisible information corresponding to the object into the surrounding of the object obtained by the embedding target object setting means.

Description

本発明は、非可視化情報を用いたコンテンツ提供システム、非可視化情報の埋込装置、認識装置、埋込方法、認識方法、埋込プログラム、及び認識プログラムに係り、特に非可視化情報の埋め込みや抽出を迅速に行うと共に付加価値性に優れた高精度なコンテンツサービスを提供するための非可視化情報を用いたコンテンツ提供システム、非可視化情報の埋込装置、認識装置、埋込方法、認識方法、埋込プログラム、及び認識プログラムに関する。   The present invention relates to a content providing system using invisible information, an invisible information embedding device, a recognition device, an embedding method, a recognition method, an embedding program, and a recognition program, and in particular, embedding and extracting invisible information. Content providing system using non-visualized information, non-visualized information embedding device, recognizing device, embedding method, recognizing method, embedding, for providing high-accuracy content services with high added value. Related programs and recognition programs.

従来では、カメラ付き携帯端末等の普及に伴い、静止画、動画等を用いた様々なディジタルコンテンツが提供されている。また、従来では、携帯端末等のカメラを用いて、紙等の印刷媒体に印刷されたQRコード(登録商標)等の2次元コードを読み取り、読み取った2次元コードから得られるコンテンツサイトにアクセスしたり、コンテンツに対応するメッセージ等を表示したりすることができる。   Conventionally, with the widespread use of mobile terminals with cameras, various digital contents using still images, moving images, and the like have been provided. Conventionally, a two-dimensional code such as QR code (registered trademark) printed on a print medium such as paper is read using a camera such as a portable terminal, and a content site obtained from the read two-dimensional code is accessed. Or a message corresponding to the content can be displayed.

しかしながら、2次元コードは見栄えが悪く、また2次元コードを配置するためのスペースも必要となる。そこで、近年では2次元コードを使用せずにコンテンツの画像中から情報を取得し、取得した情報に基づいて、対応する処理を行う技術が開示されている(例えば、特許文献1及び特許文献2参照)。   However, the two-dimensional code does not look good, and a space for arranging the two-dimensional code is also required. Therefore, in recent years, a technique has been disclosed in which information is acquired from an image of content without using a two-dimensional code, and corresponding processing is performed based on the acquired information (for example, Patent Document 1 and Patent Document 2). reference).

特許文献1に示されている技術は、画像中に含まれる所定の領域を抽出する条件として、画像の属性に関する指示情報を取得し、取得した指示情報に基づいて、画像中から抽出すべき領域を特定する領域特定手段とを備える画像処理装置が示されている。つまり、特許文献1では、画像中の特徴量を用いて背景画像との分離を行う技術が示されている。   The technique disclosed in Patent Document 1 acquires instruction information regarding image attributes as a condition for extracting a predetermined area included in an image, and extracts an area from the image based on the acquired instruction information. An image processing apparatus including an area specifying unit for specifying the image is shown. That is, Patent Document 1 discloses a technique for performing separation from a background image using a feature amount in an image.

また特許文献2に示されている技術は、画像データを入力する入力手段と、画像データを符号化して符号化データを生成する符号化手段と、画像データから任意形状のオブジェクトを抽出し、オブジェクトの形状データを生成する形状データ生成手段と、形状データを電子透かしによって符号化データに埋め込む埋め込み手段とを備える画像処理装置が示されている。また、特許文献2では、画像中に電子透かしを埋め込み、電子透かしの埋め込まれている場所と埋め込まれていない場所の境界を背景分離の情報として用いる技術が示されている。   In addition, the technique disclosed in Patent Document 2 includes an input unit that inputs image data, an encoding unit that encodes image data to generate encoded data, and extracts an object of arbitrary shape from the image data. There is shown an image processing apparatus including shape data generating means for generating the shape data and an embedding means for embedding the shape data into encoded data by digital watermarking. Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique in which a digital watermark is embedded in an image and a boundary between a place where the digital watermark is embedded and a place where the digital watermark is not embedded is used as background separation information.

特開2006−13722号公報JP 2006-13722 A 特開2004−80096号公報JP 2004-80096 A

しかしながら、例えば特許文献1に示されているような技術では、画像中の特徴量を用いて背景画像との分離を行うため、背景画像とオブジェクトの色が同一であったり類似している場合には、画像中の特徴量から正確な位置でオブジェクトを分離することができない。   However, for example, in the technique disclosed in Patent Document 1, since the feature image content is used to separate the background image, the background image and the object color are the same or similar. Cannot separate an object at an accurate position from a feature amount in an image.

また、特許文献2に示されている技術では、2次元コード等を画像に埋め込む場合に原画像を周波数領域に変換した後、2次元コードを埋め込み、その後、更に空間領域に変換して埋め込みを行う必要が生じる。また、2次元コードを読み出す場合には、入力された画像を周波数領域に変換し、コードを読み出した後、空間領域に変換してコードを抽出する必要が生じる。したがって、コードを埋め込む場合や読み出す場合には、多くの画像処理が発生するため、携帯端末等の低スペックの機器での処理やリアルタイム処理には向いていなかった。   In the technique disclosed in Patent Document 2, when embedding a two-dimensional code or the like in an image, the original image is converted into the frequency domain, the two-dimensional code is embedded, and then further converted into the spatial domain and embedded. Need to do it. Further, when reading a two-dimensional code, it is necessary to convert the input image to the frequency domain, read the code, and then convert to the spatial domain to extract the code. Therefore, when a code is embedded or read, a lot of image processing occurs, which is not suitable for processing in a low-spec device such as a portable terminal or real-time processing.

本発明は、上述した課題に鑑みてなされたものであって、非可視化情報の埋め込みや抽出を迅速に行うと共に付加価値性に優れた高精度なコンテンツサービスを提供するための非可視化情報を用いたコンテンツ提供システム、非可視化情報の埋込装置、認識装置、埋込方法、認識方法、埋込プログラム、及び認識プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and uses non-visualized information for quickly embedding and extracting non-visualized information and providing a highly accurate content service with excellent added value. It is an object of the present invention to provide a content providing system, an invisible information embedding device, a recognition device, an embedding method, a recognition method, an embedding program, and a recognition program.

上述した課題を解決するために、本発明は、以下の特徴を有する課題を解決するための手段を採用している。   In order to solve the above-described problems, the present invention employs means for solving the problems having the following characteristics.

本発明は、取得した画像の所定の位置に非可視化情報を埋め込む非可視化情報の埋込装置と、該埋込装置により得られる画像に含まれるオブジェクト及び非可視化情報を認識する認識装置とからなる非可視化情報を用いたコンテンツ提供システムにおいて、前記埋込装置は、前記取得した画像に含まれるオブジェクトから非可視化情報を埋め込むオブジェクトを設定する埋込対象オブジェクト設定手段と、前記埋込対象オブジェクト設定手段により得られるオブジェクトの周囲に前記オブジェクトに対応する前記非可視化情報を埋め込む非可視化情報埋込手段とを有し、前記認識装置は、前記画像中に含まれる非可視化情報の埋め込み領域からオブジェクトを抽出するオブジェクト抽出手段と、前記オブジェクト抽出手段により前記オブジェクトが抽出された場合、前記非可視化情報から、前記オブジェクトに対する処理内容を解析する非可視化情報解析手段と、前記非可視化情報解析手段により得られる処理内容に対応させて画面に表示させるオブジェクトを生成する表示情報生成手段とを有することを特徴とするコンテンツ提供システム。   The present invention comprises a non-visualization information embedding device for embedding non-visualization information at a predetermined position of an acquired image, and a recognition device for recognizing an object and non-visualization information included in the image obtained by the embedding device. In the content providing system using non-visualization information, the embedding device includes an embedding target object setting unit that sets an object in which the non-visualization information is embedded from an object included in the acquired image, and the embedding target object setting unit. And a non-visualization information embedding unit that embeds the non-visualization information corresponding to the object around the object obtained by the step, and the recognition device extracts an object from an embedding region of the non-visualization information included in the image And an object extracting means for performing the object extraction by the object extracting means. When the image is extracted, a non-visualization information analysis unit that analyzes the processing content for the object is generated from the de-visualization information, and an object that is displayed on the screen in correspondence with the processing content obtained by the non-visualization information analysis unit And a display information generating means.

また本発明は、取得した画像の所定の位置に非可視化情報を埋め込む埋込装置において、前記画像に含まれるオブジェクト及び位置情報を取得する画像解析手段と、前記画像解析手段により得られたオブジェクトから前記画像が埋め込み対象のオブジェクトを設定する埋込対象オブジェクト設定手段と、前記埋込対象オブジェクト設定手段により得られるオブジェクトの周囲に前記オブジェクトに対応する前記非可視化情報を埋め込む非可視化情報埋込手段とを有することを特徴とする。   According to the present invention, in an embedding device that embeds invisible information at a predetermined position of an acquired image, an image analysis unit that acquires an object and position information included in the image, and an object obtained by the image analysis unit An embedding target object setting means for setting an object to be embedded in the image; and an invisible information embedding means for embedding the invisible information corresponding to the object around the object obtained by the embedding target object setting means. It is characterized by having.

また本発明は、取得した画像に含まれるオブジェクト及び非可視化情報を認識する認識装置において、前記画像中に含まれる非可視化情報の埋め込み領域からオブジェクトを抽出するオブジェクト抽出手段と、前記オブジェクト抽出手段により前記オブジェクトが抽出された場合、前記非可視化情報から、前記オブジェクトに対する処理内容を解析する非可視化情報解析手段と、前記非可視化情報解析手段により得られる処理内容に対応させて画面に表示させるオブジェクトを生成する表示情報生成手段とを有することを特徴とする。   Further, the present invention provides a recognition apparatus for recognizing an object and non-visualization information included in an acquired image, by an object extraction unit that extracts an object from an embedded region of the non-visualization information included in the image, and the object extraction unit. When the object is extracted, a non-visualization information analysis unit that analyzes the processing content of the object from the non-visualization information, and an object that is displayed on the screen in correspondence with the processing content obtained by the non-visualization information analysis unit. Display information generating means for generating.

また本発明は、コンピュータを、上述した埋込装置が有する各手段として機能させるための埋込プログラムである。また本発明は、コンピュータを、上述した認識装置が有する各手段として機能させるための認識プログラムである。   Further, the present invention is an embedding program for causing a computer to function as each unit included in the embedding device described above. Furthermore, the present invention is a recognition program for causing a computer to function as each unit included in the above-described recognition device.

本発明によれば、非可視化情報の埋め込みや抽出を迅速に行うと共に付加価値性に優れた高精度なコンテンツサービスを提供することができる。   According to the present invention, it is possible to quickly embed and extract invisible information and provide a highly accurate content service excellent in added value.

本実施形態におけるコンテンツ提供システムの概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the content provision system in this embodiment. 本実施形態における埋込装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the embedding apparatus in this embodiment. 本実施形態における認識装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the recognition apparatus in this embodiment. 本実施形態における非可視化情報の埋込処理及び認識処理が実現可能なハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions which can implement | achieve the embedding process and recognition process of non-visualization information in this embodiment. 本実施形態における非可視化情報の埋込処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the embedding process procedure of the invisible information in this embodiment. 本実施形態における非可視化情報の認識処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the recognition process procedure of the invisible information in this embodiment. 本実施形態における非可視化情報の埋め込み例について説明するための図である。It is a figure for demonstrating the example of embedding invisible information in this embodiment. 本実施形態における非可視化情報の抽出及びオブジェクトの認識例について説明するための図である。It is a figure for demonstrating the extraction of the invisible information in this embodiment, and the recognition example of an object. 本実施形態におけるオブジェクト動作例を説明するための図である。It is a figure for demonstrating the example of object operation | movement in this embodiment. 高周波部及び低周波部を有する非可視化情報を説明するための図である。It is a figure for demonstrating the invisible information which has a high frequency part and a low frequency part. 埋め込み強度と背景のグレースケール値の関係を示す図である。It is a figure which shows the relationship between embedding strength and the gray scale value of a background. モノクロイメージ用の非可視化コードの例を示す図である。It is a figure which shows the example of the non-visualization code | symbol for monochrome images. 0〜255までグレーイメージを変化させた明るさに対する読み取り認識精度と非可視化との関係を示す図である。It is a figure which shows the relationship between the read recognition precision with respect to the brightness which changed the gray image from 0 to 255, and non-visualization. 本実施形態におけるイメージ毎の非可視化情報の読み取り認識精度の評価について説明するための図である。It is a figure for demonstrating evaluation of the read recognition accuracy of the invisible information for every image in this embodiment. 図14に対応する評価結果を示す図である。It is a figure which shows the evaluation result corresponding to FIG. 実施例1におけるARアプリケーションシステムの一例を示す図である。1 is a diagram illustrating an example of an AR application system in Embodiment 1. FIG. 取得したトリミングマーカによる風車の動作例を示す図である。It is a figure which shows the operation example of the windmill by the acquired trimming marker. 画像中に含まれる非可視化情報と動作指示情報との関係を説明するための図である。It is a figure for demonstrating the relationship between the non-visualization information contained in an image, and operation | movement instruction information. 実施例2におけるARアプリケーションシステムの一例を示す図である。It is a figure which shows an example of the AR application system in Example 2. FIG. 実施例3におけるARアプリケーションシステムの一例を示す図である。FIG. 10 illustrates an example of an AR application system according to a third embodiment. 実施例4におけるARアプリケーションシステムの一例を示す図である。FIG. 10 is a diagram illustrating an example of an AR application system according to a fourth embodiment.

<本発明ついて>
本発明では、例えば画面に表示される画像や映像、又は紙やフィルム等の各種印刷媒体等からなる写真、ハガキ、ポスター、カード等に対して、肉眼では認識不可能な加工により非可視化情報(マーカ)を画像中に含まれるオブジェクト(物体情報)の周囲に埋め込み、デジタルカメラや携帯端末(携帯電話、スマートフォン(登録商標)等)に設けられたカメラ等の撮影手段によって、その画像や映像、印刷媒体等の一部を撮影し、撮影された画像や映像等を、パソコンや携帯端末、ipad(登録商標)等のようなタブレットPC等に取り込み画像処理することで、埋め込まれたマーカを認識し、オブジェクトを抽出する。
<About the present invention>
In the present invention, for example, an image or video displayed on a screen or a photo, a postcard, a poster, a card, or the like made of various print media such as paper or film is made invisible information by processing that cannot be recognized with the naked eye ( Marker) is embedded around an object (object information) included in the image, and the image or video is captured by a photographing device such as a digital camera or a camera provided in a mobile terminal (mobile phone, smartphone (registered trademark), etc.) Recognize the embedded marker by capturing a part of a print medium, etc., and capturing the captured image or video into a tablet PC such as a personal computer, mobile terminal, or ipad (registered trademark). And extract objects.

また本発明は、例えば携帯端末等のような容量や性能が制限された機種でも埋め込まれたマーカの認識が実施可能となるマーカの埋込方法と、画像処理を組み合わせたマーカ認識を可能にする。   In addition, the present invention enables marker recognition that combines image processing with a marker embedding method that enables recognition of an embedded marker even in a model with limited capacity and performance such as a portable terminal. .

更に、本発明では、認識されたマーカの情報から、例えばオブジェクトを動作させるための埋込情報を取得し、取得した埋込情報に基づいて、抽出された対象のオブジェクトに対する処理を行う。また、本発明では、非可視化情報の埋め込みから抽出、画像中のオブジェクトに対する処理内容までの一連の動作を行うコンテンツ提供システムを提供する。   Further, in the present invention, for example, embedded information for operating the object is acquired from the recognized marker information, and the extracted target object is processed based on the acquired embedded information. In addition, the present invention provides a content providing system that performs a series of operations from embedding and extracting non-visualized information to processing contents for an object in an image.

なお、非可視化情報とは、ユーザの目の網膜が感知できない状態であってもよいし、ユーザの目の網膜は感知できるものの、ユーザの脳がそれを情報として識別できないような状態となる情報等を意味する。   The non-visualized information may be a state where the retina of the user's eyes cannot be sensed, or information where the retina of the user's eyes can be sensed but the user's brain cannot identify it as information. Etc.

また、非可視化情報は、画像中の画素毎の明度(明暗差)等を調整した高周波部や低周波部であってもよく、また直接認識することができる文字情報であってもよく、また記号や数字、マーク、模様、色彩、1次元コード、2次元コード等であってもよく、更にそれらの組み合わせであってもよい。なお、コード情報としては、例えばQRコード等の2次元バーコード等を使用することができる。また、本実施形態において、コード情報は、QRコードに限定されるものではなく、例えばJANコードや、ITFコード、NW−7、CODE39、CODE128、UPC、PDF417、CODE49、Data Matrix、Maxi Code等のバーコード情報等を用いることもできる。   The non-visualization information may be a high-frequency part or a low-frequency part in which the brightness (brightness difference) of each pixel in the image is adjusted, or may be character information that can be directly recognized, It may be a symbol, number, mark, pattern, color, one-dimensional code, two-dimensional code, or the like, or a combination thereof. As the code information, for example, a two-dimensional barcode such as a QR code can be used. In the present embodiment, the code information is not limited to the QR code. For example, JAN code, ITF code, NW-7, CODE39, CODE128, UPC, PDF417, CODE49, Data Matrix, Maxi Code, etc. Bar code information or the like can also be used.

以下に、本発明における非可視化情報を用いたコンテンツ提供システム、非可視化情報の埋込装置、認識装置、埋込方法、認識方法、埋込プログラム、及び認識プログラムを好適に実施した形態について、図面を用いて説明する。なお、本実施形態において説明する「画像」とは、写真等の1枚の画像も、映像における連続したフレーム単位の画像も含まれるものとする。また、本実施形態におけるコンテンツ提供システムとは、例えば、AR(Augmented Reality:拡張現実感)システムを示しているが本発明においてはこれに限定されるものではなく、他のコンテンツサービス全般に適用される。   FIG. 1 is a diagram showing a content providing system using non-visualization information, a non-visualization information embedding device, a recognition device, an embedding method, a recognition method, an embedding program, and a recognition program according to the present invention. Will be described. The “image” described in the present embodiment includes one image such as a photograph and an image of continuous frames in a video. The content providing system in the present embodiment is, for example, an AR (Augmented Reality) system, but is not limited to this in the present invention, and is applied to other content services in general. The

<可視化情報を用いたコンテンツ提供システム>
まず、本実施形態における可視化情報を用いたコンテンツ提供システムの概略について、図を用いて説明する。図1は、本実施形態におけるコンテンツ提供システムの概略構成の一例を示す図である。図1に示すコンテンツ提供システム10は、入力される第1の印刷媒体11と、第1の画像情報取得装置12と、埋込装置13と、第2の印刷媒体14と、第2の画像情報取得装置15と、認識装置16とを有するよう構成されている。
<Content provision system using visualization information>
First, an outline of a content providing system using visualization information in the present embodiment will be described with reference to the drawings. FIG. 1 is a diagram illustrating an example of a schematic configuration of a content providing system according to the present embodiment. The content providing system 10 shown in FIG. 1 includes an input first print medium 11, a first image information acquisition device 12, an embedding device 13, a second print medium 14, and second image information. An acquisition device 15 and a recognition device 16 are included.

第1の印刷媒体11は、非可視化情報が埋め込まれる前の画像が印刷されている。コンテンツ提供システム10では、複数の第1の印刷媒体11(図1の例では、第1の印刷媒体11−1,11−2)を用いることができる。なお、本実施形態においては、一例として第1の印刷媒体11に対して、埋込装置13を用いて非可視化情報が埋め込まれた第2の印刷媒体14を生成する例を示しているが、本発明においてはこれに限定されるものではなく、例えば画像を直接取得し、取得した画像に対して非可視化情報を埋め込み、埋め込んだ画像等を印刷して第2の印刷媒体14を生成してもよい。   The first print medium 11 is printed with an image before the invisible information is embedded. In the content providing system 10, a plurality of first print media 11 (in the example of FIG. 1, the first print media 11-1 and 11-2) can be used. In the present embodiment, as an example, the second print medium 14 in which the invisible information is embedded is generated with respect to the first print medium 11 using the embedding device 13. In the present invention, the present invention is not limited to this. For example, the image is directly acquired, the invisible information is embedded in the acquired image, and the embedded image is printed to generate the second print medium 14. Also good.

また、本実施形態において、第1の印刷媒体11に印刷されている画像等には、オブジェクトが含まれている。オブジェクトとは、本発明において、例えば非可視化情報に含まれている情報等に基づいて動作させたり、関連情報を表示させるための物体情報を意味し、例えば人間や動物(顔や手、足等の部分的なオブジェクト等も含む)、虫、花、木、乗り物、机、椅子、帽子、眼鏡、靴、鞄等の製造物等、背景と分別可能なオブジェクト全般等を意味する。   In the present embodiment, the image or the like printed on the first print medium 11 includes an object. In the present invention, an object means object information for operating based on information included in non-visualized information or displaying related information, for example, a human being or an animal (face, hand, foot, etc.) ), Insects, flowers, trees, vehicles, desks, chairs, hats, glasses, shoes, bags, etc., and other objects that can be separated from the background.

画像情報取得装置12は、非可視化情報が含まれていない第1の印刷媒体11を撮影し、画像情報として取得する。なお、第1の画像情報取得手段12としては、例えば、カメラ(撮像手段)12−1や、スキャナ(情報読取装置)12−2等を用いることができるが、本発明においてはこれに限定されるものではなく、例えば、複写機やカメラ機能のついた携帯端末、ゲーム機器、タブレットPC(Personal Computer)等、画像情報が取得可能な機能を有する装置形態全般を用いることができる。   The image information acquisition device 12 captures the first print medium 11 that does not include the invisible information, and acquires it as image information. As the first image information acquisition unit 12, for example, a camera (imaging unit) 12-1, a scanner (information reading device) 12-2, or the like can be used, but the present invention is not limited to this. For example, a general apparatus configuration having a function capable of acquiring image information such as a copying machine, a portable terminal with a camera function, a game machine, a tablet PC (Personal Computer), or the like can be used.

埋込装置13は、第1の印刷媒体11等から入力された画像データに対し、認識装置16においてトリミング等の処理を実行する対象のオブジェクトを選択し、そのオブジェクトの所定の周囲に予め設定された非可視化情報を埋め込み、埋め込んだ画像を出力する。   The embedding device 13 selects an object to be subjected to processing such as trimming in the recognition device 16 for the image data input from the first print medium 11 or the like, and is set in advance around the object. Invisible information is embedded, and the embedded image is output.

なお、埋込装置13は、非可視化情報を埋め込んだ後の画像を印刷媒体(第2の印刷媒体14)として出力してよく、画像のまま出力してもよい。   The embedding device 13 may output the image after embedding the invisible information as a print medium (second print medium 14), or may output the image as it is.

なお、埋込装置13は、例えば、汎用のPC13−1や携帯端末13−2等を用いることができるが、本発明においてはこれに限定されるものではない。また、携帯端末13−2には、第1の画像情報取得手段12としての内蔵カメラ12−3が設けられており、これにより直接第1の印刷媒体11の画像データを取得することができる。なお、埋込装置13の具体的な機能構成等については後述する。   As the embedding device 13, for example, a general-purpose PC 13-1, a portable terminal 13-2, or the like can be used. However, the present invention is not limited to this. Further, the portable terminal 13-2 is provided with a built-in camera 12-3 as the first image information acquisition unit 12, whereby the image data of the first print medium 11 can be directly acquired. A specific functional configuration of the embedding device 13 will be described later.

第2の印刷媒体14は、本実施形態における非可視化情報が埋め込まれた印刷媒体である。なお、第2の印刷媒体14には、例えば所定のオブジェクに対してトリミングや所定の動作等を行わせるための非可視化情報が埋め込まれている。   The second print medium 14 is a print medium in which the invisible information in the present embodiment is embedded. The second print medium 14 is embedded with invisibility information for performing, for example, trimming or a predetermined operation on a predetermined object.

第2の画像情報取得手段15は、第2の印刷媒体14に対して、上述した第1の画像情報取得手段12と同様にその画像データを取得する。なお、第2の画像情報取得手段15としては、例えば、カメラ15−1や、スキャナ15−2等を用いることができるが、本発明においてはこれに限定されるものではなく、例えば、複写機やカメラ機能のついた携帯端末、ゲーム機器、タブレットPC等、画像情報が取得可能な機能を有する装置形態全般を用いることができる。   The second image information acquisition unit 15 acquires the image data of the second print medium 14 in the same manner as the first image information acquisition unit 12 described above. As the second image information acquisition means 15, for example, a camera 15-1, a scanner 15-2 or the like can be used. However, the present invention is not limited to this, and for example, a copying machine In general, a device having a function capable of acquiring image information, such as a portable terminal with a camera function, a game machine, or a tablet PC, can be used.

認識装置16は、第2の画像情報取得手段15から得られる画像データを用いて、画像に含まれる非可視化情報を認識し、認識した非可視化情報から画像データに含まれる所定のオブジェクトをトリミングする。なお、トリミングとは、例えば、画像中から不要な部分等を取り除いて対象のオブジェクトのみ(オブジェクトの大まかな外枠等も含む)を抽出することをいう。   The recognition device 16 recognizes the non-visualization information included in the image using the image data obtained from the second image information acquisition unit 15, and trims a predetermined object included in the image data from the recognized non-visualization information. . Note that trimming refers to, for example, extracting only a target object (including a rough outer frame of an object) by removing unnecessary portions from the image.

また、認識手段16は、抽出されたオブジェクトに対して、予め設定された又は非可視化情報に含まれる指示内容に対応した動作を実行させる。なお、オブジェクトに対する処理内容としては、例えば、認識装置16の画面上でオブジェクトを移動させたり、回転させたり、拡大や縮小、他のオブジェクトに置換、他の異なる画像や文字の表示、音声出力、関連情報の表示、更にはそれらの組み合わせ等を行う。   Further, the recognition unit 16 causes the extracted object to perform an operation corresponding to the instruction content set in advance or included in the non-visualization information. The processing contents for the object include, for example, moving or rotating the object on the screen of the recognition device 16, enlarging or reducing, replacing with another object, displaying other different images or characters, outputting sound, Related information is displayed, and combinations thereof are also performed.

また、認識装置16は、抽出したオブジェクトに対して、直ぐに動作を行わずに、例えばユーザ等による二次的な指示情報に基づいて、その対象のオブジェクトに対する処理を実行することができる。なお、二次的な指示情報としては、例えば、その認識装置16に対する風圧(例えば、マイク等の音声入力手段に息を吹きかけたり、実際に風が吹く等)や、音(声、音楽、特定の言葉(例えば、呪文やかけ声等))、光(例えば、太陽にあてる等)、機器の回転(例えば、その場で回したり、振ったり、水平や垂直に保つ等の動作を含む)、圧力(画面をタッチしたり、ドラッグする等)、その他、温度や時間、場所、天気等の環境条件等により得られる情報を含み、またこれらの情報のうち幾つかを組み合わせてもよく、その場合には、複数の二次的な指示情報の指示順序(例えば、回転させた後にかけ声等)や指示情報毎に予め設定された優先度等に応じて最終的な指示情報を設定してもよい。   In addition, the recognition device 16 can execute processing on the target object based on secondary instruction information by a user or the like without immediately performing an operation on the extracted object. As secondary instruction information, for example, wind pressure (for example, blowing a voice on a voice input means such as a microphone or actually blowing a wind) or sound (voice, music, specific) Words (for example, spells and shouts)), light (for example, hitting the sun), device rotation (for example, rotating, shaking, keeping horizontal or vertical), pressure (Including touching and dragging the screen), and other information obtained by environmental conditions such as temperature, time, location, weather, etc., and some of these information may be combined. The final instruction information may be set according to the instruction order of a plurality of secondary instruction information (for example, a call after rotation), a priority set in advance for each instruction information, or the like.

なお、認識装置16は、例えば、汎用のPC16−1や携帯端末16−2等を用いることができるが、本発明においてはこれに限定されるものではない。また、携帯端末16−2には、第2の画像情報取得手段15としての内蔵カメラ15−3が設けられており、これにより直接第2の印刷媒体14の画像データを取得することができる。なお、認識装置16の具体的な機能構成等については後述する。   The recognition device 16 may be a general-purpose PC 16-1, a portable terminal 16-2, or the like, for example. However, the present invention is not limited to this. Further, the portable terminal 16-2 is provided with a built-in camera 15-3 as the second image information acquisition unit 15, whereby the image data of the second print medium 14 can be directly acquired. A specific functional configuration of the recognition device 16 will be described later.

<埋込装置13:機能構成例>
ここで、上述した本実施形態における埋込装置13の機能構成例について図を用いて説明する。図2は、本実施形態における埋込装置の機能構成の一例を示す図である。
<Embedding device 13: functional configuration example>
Here, a functional configuration example of the embedding device 13 in the above-described embodiment will be described with reference to the drawings. FIG. 2 is a diagram illustrating an example of a functional configuration of the embedding device according to the present embodiment.

図1に示す埋込装置13は、入力手段21と、出力手段22と、蓄積手段23と、画像取得手段24と、画像解析手段25と、埋込対象オブジェクト設定手段26と、埋込情報設定手段27と、埋込情報生成手段28と、非可視化情報埋込手段29と、送受信手段30と、制御手段31とを有するよう構成されている。   The embedding device 13 shown in FIG. 1 includes an input unit 21, an output unit 22, a storage unit 23, an image acquisition unit 24, an image analysis unit 25, an embedding target object setting unit 26, and an embedding information setting. Means 27, embedded information generating means 28, invisible information embedding means 29, transmission / reception means 30, and control means 31 are provided.

入力手段21は、ユーザ等からの画像取得指示や、画像解析指示、埋込対象オブジェクト設定指示、埋込情報設定指示、埋込情報生成指示、非可視化情報埋込指示、送受信指示等の各種指示の開始/終了等の入力を受け付ける。なお、入力手段21は、例えばPC等の汎用のコンピュータであればキーボードやマウス等のポインティングデバイスからなり、携帯端末等であれば各操作ボタン群等からなる。   The input means 21 includes various instructions such as an image acquisition instruction, an image analysis instruction, an embedding target object setting instruction, an embedding information setting instruction, an embedding information generation instruction, a non-visualization information embedding instruction, and a transmission / reception instruction from the user. Accepts input such as start / end of. The input means 21 is composed of a pointing device such as a keyboard and a mouse if it is a general-purpose computer such as a PC, and comprises a group of operation buttons if it is a portable terminal or the like.

また、入力手段21は、例えばデジタルカメラ等の撮像手段等により撮影された画像や映像等を入力する機能を有してもよい。その場合、撮像手段は、埋込装置13に内蔵されていてもよく、外部の機能構成であってもよい。更に、入力手段21は、音声等を入力する音声入力機能があってもよい。   Further, the input unit 21 may have a function of inputting an image or video captured by an imaging unit such as a digital camera. In that case, the imaging means may be built in the embedding device 13 or may have an external functional configuration. Furthermore, the input means 21 may have a voice input function for inputting voice or the like.

出力手段22は、入力手段21により入力された内容や、入力内容に基づいて実行された内容等の出力を行う。具体的には、出力手段22は、取得した画像や、画像解析結果、埋込対象オブジェクト設定結果、設定された非可視化情報、生成された非可視化情報、非可視化情報が埋め込まれた(合成された)埋込画像、各構成における処理の結果等の画面表示や音声出力等を行う。なお、出力手段22は、ディスプレイやスピーカ等からなる。   The output unit 22 outputs the content input by the input unit 21 and the content executed based on the input content. Specifically, the output unit 22 embeds (synthesizes) the acquired image, the image analysis result, the embedding target object setting result, the set invisibility information, the generated invisibility information, and the invisibility information. E) Screen display of the embedded image and the result of processing in each configuration, audio output, and the like. Note that the output means 22 includes a display, a speaker, and the like.

更に、出力手段22は、プリンタ等の印刷機能を有していてもよく、上述の各出力内容を、例えば紙やハガキ、ポスター等の各種印刷媒体等に印刷し、上述した第2の印刷媒体14としてユーザ等に提供することもできる。   Further, the output means 22 may have a printing function such as a printer, and prints the above-described output contents on various print media such as paper, postcards, posters, etc., and the above-described second print medium. 14 can be provided to a user or the like.

蓄積手段23は、本実施形態において必要となる各種情報や埋込処理の実行時、又は実行後の各種データを蓄積する。具体的には、蓄積手段23は、入力又は予め蓄積されている画像取得手段24で取得される撮影等により得られた1又は複数の画像或いは映像を取得する。また、蓄積手段23は、画像解析手段25にて解析された結果や埋込対象オブジェクト設定手段26における判定結果、埋込情報設定手段27による設定内容、埋込情報生成手段28により生成された埋込情報、非可視化情報埋込手段29により埋め込まれた画像等を蓄積する。また、蓄積手段23は、必要に応じて蓄積されている各種データを読み出すことができる。   The storage unit 23 stores various information required in the present embodiment and various data at the time of execution or after execution of the embedding process. Specifically, the storage unit 23 acquires one or a plurality of images or videos obtained by input or photographing acquired by the image acquisition unit 24 stored in advance. In addition, the storage unit 23 stores the result analyzed by the image analysis unit 25, the determination result by the embedding target object setting unit 26, the setting content by the embedding information setting unit 27, and the embedding information generation unit 28. Embedded information, images embedded by the non-visualization information embedding unit 29, and the like are stored. Further, the storage means 23 can read out various data stored as required.

画像取得手段24は、非可視化情報を埋め込む対象となるオブジェクトを含む画像や映像等を取得する。なお、画像や映像等は、例えばカメラ等の撮像手段により得られる画像や映像等でもよく、カタログやパンフレット、ポスター、写真、カード、シール、雑誌等の書籍類、商品の包装(箱も含む)や説明書等に適用される対象画像等であってもよい。また、画像取得手段24は、送受信手段30を介して通信ネットワーク上に接続される外部の装置で撮影された情報やデータベース等に蓄積された画像や映像等を取得することもでき、また、入力手段21を介して実際にユーザ等がカメラ等で撮影した画像を用いてもよい。   The image acquisition unit 24 acquires an image, a video, or the like including an object to be embedded with the invisible information. The images and videos may be images and videos obtained by imaging means such as a camera, for example, catalogs, brochures, posters, photos, cards, stickers, magazines and other books, and product packaging (including boxes). Or a target image applied to a manual or the like. The image acquisition unit 24 can also acquire information and images stored in a database or the like captured by an external device connected to the communication network via the transmission / reception unit 30, and input You may use the image which the user etc. actually image | photographed with the camera etc. via the means 21. FIG.

画像解析手段25は、画像取得手段24にて取得した画像を解析して画像中に含まれる内容を解析する。具体的には、画像中のどの部分(位置、領域)にどのようなオブジェクトが映し出されているか、又は、映像中においてオブジェクトがどのように移動しているか等、オブジェクト情報及び座標等からなるオブジェクトの位置情報を取得する。   The image analysis unit 25 analyzes the image acquired by the image acquisition unit 24 and analyzes the contents included in the image. Specifically, an object made up of object information, coordinates, etc., such as what part (position, region) in the image is projected, how the object is moving in the video, etc. Get location information.

なお、画像解析手段25は、オブジェクトを取得する際、例えば、予め設定された複数のオブジェクト画像等を蓄積手段23に蓄積しておき、オブジェクト画像を用いてパターンマッチング等を行い、オブジェクトを抽出してもよい。また、画像解析手段25は、例えば、オブジェクトが人物の場合に、その人物の顔の特徴部分から顔検出を行ってもよく、また顔の特徴量を数値化し、その結果により人物特定を行ってもよい。   The image analyzing unit 25, when acquiring an object, for example, stores a plurality of object images set in advance in the storage unit 23, performs pattern matching using the object image, and extracts the object. May be. In addition, for example, when the object is a person, the image analysis unit 25 may perform face detection from the facial feature portion of the person, digitize the facial feature amount, and perform person identification based on the result. Also good.

更に、画像解析手段25は、ユーザ等が入力手段21等によって指定されたオブジェクトの輪郭(外枠)情報を用いて、オブジェクトを抽出することもできる。   Furthermore, the image analysis means 25 can also extract an object using the outline (outer frame) information of the object designated by the user or the like using the input means 21 or the like.

埋込対象オブジェクト設定手段26は、画像解析手段25により解析された結果に基づいて、その画像データにオブジェクトが含まれているか、又は、画像データにオブジェクトが含まれている場合には、そのオブジェクトが予め設定された非可視化情報の埋め込み対象であるか否か等を判定し、その判定結果から埋込対象オブジェクトを設定する。なお、埋込対象オブジェクト設定手段26は、画像データ中に複数のオブジェクトが存在する場合には、複数のオブジェクトのうち、少なくとも1つのオブジェクトを設定する。この場合には、オブジェクトに対して、例えば、予め設定される優先度や、そのオブジェクトの画面全体に対する表示領域の位置、映像であれば、そのオブジェクトが表示されていた時間等により任意に設定することができ、それらの埋込詳細情報も蓄積手段23に蓄積される。   Based on the result analyzed by the image analysis unit 25, the embedding target object setting unit 26 includes an object when the image data includes an object or when the image data includes an object. Is a target for embedding preset invisible information, etc., and an embedding target object is set from the determination result. The embedding target object setting unit 26 sets at least one of the plurality of objects when there are a plurality of objects in the image data. In this case, for an object, for example, the priority is set in advance, the position of the display area with respect to the entire screen of the object, and if it is a video, it is arbitrarily set according to the time the object was displayed. The embedded detailed information is also stored in the storage means 23.

ここで、埋込対象オブジェクト設定手段26において、画像中に含まれるオブジェクトが非可視化情報を埋め込む対象であるか否かは、例えばユーザ等により予め設定された埋込判定情報が蓄積手段23等に蓄積され、その埋込判定情報を用いて埋め込み判定を行ってもよく、又は、そのオブジェクトに対する動作や付加情報が蓄積手段23に蓄積されているかを検索し、もし付加情報が蓄積されている場合には、埋込対象のオブジェクトであると判定してもよい。   Here, in the embedding target object setting unit 26, whether or not the object included in the image is a target for embedding the invisible information is determined based on whether the embedding determination information preset by the user or the like is stored in the accumulating unit 23 or the like. The embedded determination may be performed using the embedded determination information, or if the operation or additional information for the object is stored in the storage means 23 and the additional information is stored May be determined to be an object to be embedded.

したがって、例えば、画像解析手段25によって画像を解析した結果、画像の一部に風車やパンダ、商品等のオブジェクトが含まれていると解析された場合、埋込対象オブジェクト設定手段26は、そのオブジェクトに関する付加情報が蓄積手段23に蓄積されているか否かを判断し、そのオブジェクトに関する付加情報が存在する場合には、そのオブジェクトを埋込対象オブジェクトであると判定する。なお、埋め込む内容(付加情報)は、例えば埋込情報設定手段27等において設定することもでき、設定された内容は、蓄積手段23に蓄積される。   Therefore, for example, when the image is analyzed by the image analysis unit 25 and it is analyzed that an object such as a windmill, a panda, or a product is included in a part of the image, the embedding target object setting unit 26 It is determined whether or not additional information related to the object is stored in the storage means 23. If additional information related to the object exists, it is determined that the object is an object to be embedded. The contents to be embedded (additional information) can also be set, for example, in the embedded information setting means 27 or the like, and the set contents are stored in the storage means 23.

なお、上述した本実施形態では、画像解析手段25による解析結果に基づいて、埋込対象オブジェクトの設定を行っていたが、本発明においてはこれに限定されるものではなく、例えば出力手段22等を用いて画像データを画面に表示し、ユーザ等が表示された画像データに含まれる1又は複数のオブジェクトから、入力手段21を用いて埋込対象オブジェクトを選択してもよい。   In the above-described embodiment, the embedding target object is set based on the analysis result by the image analysis unit 25. However, the present invention is not limited to this, and for example, the output unit 22 or the like. The image data may be displayed on the screen using a user, and an embedding target object may be selected by using the input means 21 from one or a plurality of objects included in the displayed image data.

埋込情報設定手段27は、埋込対象オブジェクト設定手段26により設定されたオブジェクトに対して、どのような情報を付加情報として埋め込むのか、その具体的な情報の内容、及び表示手法(例えば、画面表示(表示サイズや位置等の詳細な情報を含む)、音声出力、印刷出力等)を設定する。具体的には、埋込情報設定手段27は、例えば、オブジェクトが人物である場合には、そのオブジェクトに対してどのような動作(回転、移動、拡大、縮小、他のオブジェクトに置換等)をさせるかの動作指示情報を設定したり、その人物の氏名、年齢、性別、身長、趣味、経歴等を設定し、更にその設定された各種情報の表示手法等を設定する。また、オブジェクトが財布や洋服等の場合には、そのブランド名や商品名、値段、ホームページやブログ等のアドレス等を設定し、更にその設定された各種情報の表示手法等を設定する。また、オブジェクトが本である場合には、その本のタイトル、著者、発行日、値段、著者に関する情報等を設定し、更にその設定された各種情報の表示手法等を設定する。なお、埋込情報設定手段27にて設定される付加情報としては、映像、画像等が含まれる。   The embedding information setting unit 27, what information is embedded as additional information in the object set by the embedding target object setting unit 26, the content of the specific information, and a display method (for example, screen Display (including detailed information such as display size and position), audio output, print output, etc.) is set. Specifically, for example, when the object is a person, the embedded information setting unit 27 performs any operation (rotation, movement, enlargement, reduction, replacement with another object, etc.) on the object. The operation instruction information to be performed is set, the name, age, gender, height, hobby, career, etc. of the person are set, and the display method of the set various information is set. If the object is a wallet, clothes, etc., the brand name, product name, price, address of a homepage, blog, etc. are set, and the display method of the various information set is set. If the object is a book, the title, author, publication date, price, information about the author, etc. of the book are set, and the display method for the various information set is set. Note that the additional information set by the embedded information setting unit 27 includes video, images, and the like.

また、埋込情報設定手段27は、どのような形態で情報を付加するのかを設定する。例えば、付加情報は、特定の暗号化された文字であるのか、或いは模様や記号、コード情報等であるのか等を設定する。なお、コード情報等の場合には、認識装置16側で、そのコードに対する情報が取得できるように対応データベースが設けられていることが好ましい。上述したように、複数の形態から設定することができるため、埋め込み対象の画像の内容に応じて適切な埋込情報を選択して設定することができる。   The embedded information setting means 27 sets in what form information is added. For example, whether the additional information is a specific encrypted character, a pattern, a symbol, code information, or the like is set. In the case of code information or the like, it is preferable that a correspondence database is provided on the recognition device 16 side so that information on the code can be acquired. As described above, since a plurality of forms can be set, it is possible to select and set appropriate embedding information according to the content of the image to be embedded.

埋込情報生成手段28は、埋込対象オブジェクトに対してどのような動作等をさせるか(動作指示情報)等の処理内容を含む埋込情報を生成する。なお、埋込情報生成手段28は、直接文字情報として生成してもよく、コード情報として生成してもよい。具体的には、埋込情報生成手段28は、例えば、埋込情報が実際にユーザに提供される印刷媒体や画像等に対して見えにくくするために埋込情報を、埋め込み対象の原画像の色情報等を基準にして、例えば、低周波部と高周波部とを用いた画像、又は、低周波部のみ或いは高周波部のみを用いた画像を生成する。   The embedding information generation unit 28 generates embedding information including processing contents such as what kind of motion is to be performed on the object to be embedded (operation instruction information). The embedded information generating means 28 may generate directly as character information or code information. Specifically, the embedding information generation unit 28 embeds the embedding information in the original image to be embedded in order to make the embedding information difficult to see against a print medium or an image actually provided to the user. For example, an image using a low-frequency part and a high-frequency part, or an image using only a low-frequency part or only a high-frequency part is generated on the basis of color information or the like.

ここで、本実施形態における低周波部とは、非可視化情報を埋め込む部分の原画像の明度を基準とし、それより明度を低くした部分又は領域を示し、高周波部とは、上述した原画像の明度を基準として、それより明度を高くした部分又は領域を意味する。埋込情報生成手段28における非可視化情報の詳細については後述する。   Here, the low-frequency part in the present embodiment refers to a part or region in which the lightness is lower than that of the original image in which the invisible information is embedded, and the high-frequency part refers to the above-described original image. This means a part or region having a higher brightness with respect to the brightness. Details of the invisible information in the embedded information generating unit 28 will be described later.

また、本実施形態における非可視化情報は、認識装置16側において、オブジェクトを抽出するために用いられるため、埋込情報を埋め込む場合には、その非可視化情報の全部に埋込情報を埋め込んでもよく、また非可視化情報の一部(例えば、非可視化情報領域(トリミングマーカ)内の隅や周囲等)に埋め込んでもよい。   In addition, since the invisible information in the present embodiment is used for extracting an object on the recognition device 16 side, when embedding the embedded information, the embedded information may be embedded in the entire invisible information. Alternatively, it may be embedded in a part of the invisible information (for example, a corner or the periphery in the invisible information area (trimming marker)).

また、埋込情報生成手段28は、画像中のどの位置に非可視化情報を埋め込むかを座標情報として取得する。なお、本実施形態では、例えば動作対象となるオブジェクトを基準にして、その周囲の所定領域に非可視化情報を埋め込む。つまり、本実施形態では、認識装置16において、この非可視化情報によりオブジェクトの位置を把握し、オブジェクトをトリミング(抽出等)する。   In addition, the embedding information generation unit 28 acquires, as coordinate information, in which position in the image the non-visualization information is embedded. In the present embodiment, for example, the non-visualization information is embedded in a predetermined area around an object to be operated. That is, in the present embodiment, the recognition device 16 grasps the position of the object based on this invisible information and trims (extracts) the object.

したがって、本実施形態における非可視化情報には、認識装置16側において、例えば、トリミングするオブジェクトを抽出させる用途と、必要に応じてオブジェクトにどのような動作をさせるかを指示する動作指示情報やその他の付加情報等を取得させる用途とがある。   Accordingly, the non-visualization information in the present embodiment includes, for example, the use of extracting the object to be trimmed on the recognition device 16 side, the operation instruction information for instructing what operation the object should perform as necessary, and the like. There are uses for acquiring additional information and the like.

非可視化情報埋込手段29は、画像解析手段25により得られる画像と、その画像のオブジェクト情報、及び座標情報等からなるオブジェクト位置情報等に基づいて、埋込情報生成手段28にて生成された非可視化情報を所定の位置に埋め込んで画像を合成する。   The non-visualization information embedding unit 29 is generated by the embedding information generation unit 28 based on the image obtained by the image analysis unit 25 and the object position information including the object information and coordinate information of the image. The image is synthesized by embedding non-visualization information at a predetermined position.

なお、本実施形態において、埋込情報を埋め込む際、例えば画像中に表示されているオブジェクトの位置上又はその周辺に、そのオブジェクトに対応する埋込情報が埋め込まれているのが好ましく、この場合には、画像解析手段25により得られたオブジェクト位置情報を基準として対象画像に埋込画像の埋め込みを行う。   In the present embodiment, when embedding embedded information, it is preferable that embedded information corresponding to the object is embedded, for example, on or around the position of the object displayed in the image. First, the embedded image is embedded in the target image based on the object position information obtained by the image analysis means 25.

つまり、本実施形態によれば、画像全体に対して1つの埋込情報を付与するのではなく、複数の非可視化情報を適切な場所に埋め込むことができる。なお、非可視化情報埋込手段29は、原画像に含まれる複数又は全てのオブジェクトを動作させるための非可視化情報を埋め込むこともできる。   That is, according to the present embodiment, it is possible to embed a plurality of non-visualized information in an appropriate place, instead of assigning one embedding information to the entire image. The invisible information embedding unit 29 can also embed invisible information for operating a plurality of or all objects included in the original image.

また、非可視化情報埋込手段29は、埋込対象の画像が映像の場合、再生中の映像におけるオブジェクトの移動に対して追随して移動し、そのオブジェクト上に非可視化情報が埋め込まれるようにすることができる。つまり、非可視化情報埋込手段29は、埋込対象画像が入力される毎に撮影画像に対して埋め込み処理を行い、その埋込画像を順次表示させたり、第2の印刷媒体14として出力させることができる。   Further, when the image to be embedded is a video, the invisible information embedding unit 29 moves following the movement of the object in the video being reproduced so that the invisible information is embedded on the object. can do. That is, the non-visualization information embedding unit 29 performs an embedding process on the captured image every time an embedding target image is input, and sequentially displays the embedded image or outputs it as the second print medium 14. be able to.

送受信手段30は、通信ネットワーク等を用いて接続可能な外部装置から所望する外部画像(撮影画像や埋込画像等)や、本発明における非可視化情報埋込処理を実現するための実行プログラム等を取得するためのインタフェースである。また、送受信手段30は、埋込装置13内で生成された各種情報を外部装置に送信することができる。   The transmission / reception means 30 executes a desired external image (captured image, embedded image, etc.) from an external device connectable using a communication network or the like, an execution program for realizing the invisible information embedding process in the present invention, and the like. It is an interface for obtaining. The transmission / reception means 30 can transmit various information generated in the embedding device 13 to an external device.

制御手段31は、埋込装置13の各構成部全体の制御を行う。具体的には、制御手段31は、例えばユーザ等による入力手段21からの指示等に基づいて、画像の取得や画像解析、埋込対象オブジェクトであるか否かの判断、非可視化情報の設定並びに埋め込み等の各処理における制御等を行う。なお、埋込情報設定手段27における非可視化情報や埋込情報生成手段28における非可視化情報は、予め設定や生成をしておき蓄積手段23に蓄積させていてもよい。   The control means 31 controls the entire components of the embedding device 13. Specifically, the control unit 31 acquires an image, analyzes an image, determines whether the object is an embedding target object, sets invisible information, and the like based on an instruction from the input unit 21 by a user or the like, for example. Control in each process such as embedding is performed. Note that the invisible information in the embedded information setting unit 27 and the invisible information in the embedded information generating unit 28 may be set and generated in advance and stored in the storage unit 23.

<認識装置16:機能構成例>
次に、上述した本実施形態における認識装置16の機能構成例について図を用いて説明する。図3は、本実施形態における認識装置の機能構成の一例を示す図である。
<Recognition device 16: functional configuration example>
Next, a functional configuration example of the recognition device 16 in the above-described embodiment will be described with reference to the drawings. FIG. 3 is a diagram illustrating an example of a functional configuration of the recognition apparatus according to the present embodiment.

図2に示す認識装置16は、入力手段41と、出力手段42と、蓄積手段43と、埋込画像取得手段44と、オブジェクト抽出手段45と、非可視化情報解析手段46と、表示情報生成手段47と、送受信手段48と、制御手段49とを有するよう構成されている。   2 includes an input unit 41, an output unit 42, a storage unit 43, an embedded image acquisition unit 44, an object extraction unit 45, a non-visualization information analysis unit 46, and a display information generation unit. 47, a transmission / reception means 48, and a control means 49.

入力手段41は、ユーザ等からの埋込画像取得指示や、非可視化情報抽出指示、非可視化情報解析指示、表示情報生成指示、送受信指示等の各種指示の開始/終了等の入力を受け付ける。なお、入力手段41は、例えばPC等の汎用コンピュータであればキーボードやマウス等のポインティングデバイスからなり、携帯端末等であれば各操作ボタン群等からなる。また、入力手段41は、例えばデジタルカメラ等の撮像手段等により撮影された画像や映像を入力する機能も有する。なお、上述の撮像手段は、認識装置16に内蔵されていてもよく、外部の機能構成であってもよい。更に、入力手段41は、音声等を入力する音声入力機能があってもよい。   The input unit 41 accepts input such as start / end of various instructions such as an embedded image acquisition instruction, a non-visualization information extraction instruction, a non-visualization information analysis instruction, a display information generation instruction, and a transmission / reception instruction from a user or the like. The input means 41 is composed of a pointing device such as a keyboard and a mouse if it is a general-purpose computer such as a PC, and a group of operation buttons if it is a portable terminal or the like. The input unit 41 also has a function of inputting an image or video taken by an imaging unit such as a digital camera. Note that the above-described imaging unit may be built in the recognition device 16 or may have an external functional configuration. Further, the input means 41 may have a voice input function for inputting voice or the like.

また、入力手段41は、上述した第2の印刷媒体14、つまり紙やハガキ、ポスター、写真、カード等の印刷媒体から埋込画像を取得することができる。この場合、カメラ等の撮像手段や、スキャナ機能等を用いてデータを読み取る機能を備える。   The input unit 41 can acquire an embedded image from the above-described second print medium 14, that is, a print medium such as paper, a postcard, a poster, a photograph, or a card. In this case, an image capturing unit such as a camera and a function of reading data using a scanner function or the like are provided.

また、出力手段42は、入力手段41により入力された内容や、入力内容に基づいて実行された内容等の出力を行う。具体的には、出力手段42は、表示情報生成手段47により得られる画像や映像に表示されるオブジェクトに対する付加情報等を出力する。なお、出力手段42は、ディスプレイやスピーカ等からなる。   The output means 42 outputs the contents input by the input means 41 and the contents executed based on the input contents. Specifically, the output unit 42 outputs additional information for an object displayed on the image or video obtained by the display information generation unit 47. Note that the output means 42 includes a display, a speaker, and the like.

更に、出力手段42は、プリンタ等の印刷機能を有していてもよく、上述のオブジェクトに対する実際の動作内容等の各出力内容を、例えば紙等の各種印刷媒体に印刷してユーザ等に提供することもできる。   Further, the output means 42 may have a printing function such as a printer, and prints each output content such as the actual operation content for the above-mentioned object on various print media such as paper and provides it to the user or the like. You can also

蓄積手段43は、本実施形態において必要となる各種情報や非可視化情報認識処理の実行時、又は実行後の各種データを蓄積する。具体的には、蓄積手段43は、埋込画像取得手段44で取得した埋込画像や、オブジェクト抽出手段45で取得した非可視化情報(マーカ)、非可視化情報解析手段46により解析した非可視化情報や埋込情報、表示情報生成手段47で生成された表示内容等を蓄積する。   The accumulating unit 43 accumulates various information necessary in the present embodiment and various data at the time of execution of the invisible information recognition process or after execution. Specifically, the storage unit 43 includes the embedded image acquired by the embedded image acquisition unit 44, the non-visualization information (marker) acquired by the object extraction unit 45, and the non-visualization information analyzed by the non-visualization information analysis unit 46. , Embedded information, display contents generated by the display information generating means 47, and the like are stored.

更に、蓄積手段43は、非可視化情報解析手段46によって解析されたデータに対する関連情報を蓄積することができる。例えば、非可視化情報があるコード情報(文字コード、2次元コード等も含む)等であった場合には、そのコード情報に対応する各種データ(例えば、コード情報に対応するオブジェクトに対する詳細情報(文字、映像、画像、音声等)、データを画面に表示するときのサイズ、色、時間、位置、動作内容等)を蓄積手段43に蓄積しておく。また、蓄積手段43は、コード等を取得したときや、その他の必要に応じて蓄積されている各種データを読み出すことができる。   Further, the storage unit 43 can store related information for the data analyzed by the non-visualized information analysis unit 46. For example, when there is code information (including a character code, a two-dimensional code, etc.) that has non-visualization information, various data corresponding to the code information (for example, detailed information (characters) for an object corresponding to the code information , Video, image, audio, etc.), the size, color, time, position, operation content, etc. when data is displayed on the screen are stored in the storage means 43. Further, the storage means 43 can read various data stored when a code or the like is acquired, or when necessary.

埋込画像取得手段44は、第2の画像情報取得装置15から第2の印刷媒体14に対応する画像データを取得する。また、埋込画像取得手段44は、予め蓄積手段43に処理対象の画像データが蓄積されている場合は、蓄積手段43から蓄積してもよく、また送受信手段48を介して通信ネットワークに接続される外部装置から埋込画像を取得してもよい。なお、埋込画像には、映像も含まれる。   The embedded image acquisition unit 44 acquires image data corresponding to the second print medium 14 from the second image information acquisition device 15. The embedded image acquisition unit 44 may store the image data to be processed in the storage unit 43 in advance, and may store the image data from the storage unit 43 and is connected to the communication network via the transmission / reception unit 48. The embedded image may be acquired from an external device. The embedded image includes a video.

オブジェクト抽出手段45は、埋込画像に含まれるオブジェクトを抽出する。具体的には、オブジェクト抽出手段45は、例えば、入力される埋込画像に対して、ある所定の周波数によるフィルタリングを行い、画像中に埋め込まれている非可視化情報を取得する。所定の周波数によりフィルタリングを行うことで、高周波部、低周波部の領域を容易に抽出することができる。なお、本発明においては、これに限定されるものではなく他の手法を用いてもよい。また、画像中に複数の非可視化情報がある場合には、全ての非可視化情報を抽出する。   The object extraction unit 45 extracts an object included in the embedded image. Specifically, for example, the object extraction unit 45 performs filtering at a predetermined frequency on the input embedded image, and acquires the invisible information embedded in the image. By performing filtering at a predetermined frequency, it is possible to easily extract the regions of the high frequency part and the low frequency part. Note that the present invention is not limited to this, and other methods may be used. Further, when there are a plurality of invisible information in the image, all the invisible information is extracted.

次に、オブジェクト抽出手段45は、画像中に含まれる非可視化情報の埋め込み位置からオブジェクトの外枠(エッジ)を抽出し、その抽出されたオブジェクトの外枠(エッジ)に対応させて、その内側にあるオブジェクトを背景から分離して抽出する。   Next, the object extracting means 45 extracts the outer frame (edge) of the object from the embedding position of the non-visualization information included in the image, and associates it with the extracted outer frame (edge) of the object. The object in is separated from the background and extracted.

例えば、オブジェクト抽出手段45は、非可視化情報として設定される低周波部と高周波部との組み合わせにより、オブジェクトの周囲の位置情報を抽出し、抽出した位置情報に基づいて、そのオブジェクトを抽出する。なお、本実施形態においては、上述した低周波部及び高周波部に限定されるものではなく、例えば色差、明度差等に基づいてオブジェクトを抽出してもよい。   For example, the object extraction unit 45 extracts position information around the object by a combination of a low frequency part and a high frequency part set as the invisible information, and extracts the object based on the extracted position information. In the present embodiment, the object is not limited to the above-described low-frequency part and high-frequency part. For example, an object may be extracted based on a color difference, a brightness difference, or the like.

なお、オブジェクト抽出手段45は、埋込画像中に複数の非可視化情報がある場合には、その全ての非可視化情報からオブジェクトを抽出してもよく、予め決められた少なくとも1つの非可視化情報(例えば、埋込画像の一番左にある非可視化情報や、大きさが最大の非可視化情報等)を抽出してもよい。   The object extracting means 45 may extract an object from all the invisible information when there are a plurality of invisible information in the embedded image. At least one invisible information (predetermined information ( For example, invisible information at the leftmost of the embedded image, invisible information having the maximum size, etc.) may be extracted.

また、オブジェクト抽出手段45は、どの位置から非可視化情報を抽出したかの非可視化情報抽出位置情報も取得する。オブジェクト抽出手段45は、上述にて取得した各種情報を蓄積手段43に蓄積させる。   In addition, the object extraction unit 45 also acquires the invisible information extraction position information indicating from which position the invisible information is extracted. The object extraction unit 45 causes the accumulation unit 43 to accumulate various information acquired as described above.

更に、本実施形態では、非可視化情報を抽出することで、そのオブジェクトの向き(角度)や傾き等を取得することができる。そのため、オブジェクト抽出手段45は、非可視化情報から得られる向きや傾き等の情報から対象オブジェクトの角度や傾きを補正することができる。   Furthermore, in this embodiment, by extracting the invisible information, the direction (angle), inclination, etc. of the object can be acquired. Therefore, the object extraction unit 45 can correct the angle and inclination of the target object from information such as the direction and inclination obtained from the invisible information.

非可視化情報解析手段46は、オブジェクト抽出手段45により得られた非可視化情報に埋込情報が含まれているか否か解析し、埋込情報が含まれている場合には、その具体的な埋込情報の内容を取得する。   The invisible information analyzing means 46 analyzes whether or not the invisible information obtained by the object extracting means 45 includes embedded information. If the embedded information is included, the specific invisible information is analyzed. Get the contents of the included information.

例えば、非可視化情報に埋込情報として文字(例えば、回転、右に移動等)が含まれている場合には、その文字を付加情報として取得する。また、埋込情報としてコードが含まれている場合には、そのコードの情報を取得し、その取得した内容(例えば、コードID等)をキーにして、蓄積手段43や送受信手段48を介して通信ネットワークに接続される予め設定されたサーバやデータベース等の外部装置等を検索し、検索した結果、キーに対応するオブジェクトへの動作指示情報や表示手法等の各種処理内容(付加情報)があれば、その情報を取得する。   For example, when a character (for example, rotation, movement to the right, etc.) is included as the embedded information in the invisible information, the character is acquired as additional information. Further, when a code is included as embedded information, the code information is acquired, and the acquired content (for example, code ID) is used as a key via the storage means 43 and the transmission / reception means 48. Search for external devices such as pre-set servers and databases connected to the communication network. As a result of the search, there are various processing contents (additional information) such as operation instruction information and display method for the object corresponding to the key. If so, get that information.

なお、本実施形態における非可視化情報解析手段46は、バーコードを読み取るバーコードリーダ等の読み取り機能を有していてもよい。その場合には、例えば、非可視化情報が2次元バーコードである場合には、その2次元バーコードからバーコードリーダを用いて付加情報を取得する。   Note that the invisible information analysis means 46 in this embodiment may have a reading function such as a barcode reader for reading a barcode. In that case, for example, when the invisible information is a two-dimensional barcode, additional information is acquired from the two-dimensional barcode using a barcode reader.

表示情報生成手段47は、非可視化情報解析手段46により得られた付加情報に基づいて画面に表示されたオブジェクトに対する動作内容や、表示手法に基づく表示内容等を生成する。なお、画面への表示は、画面上に別枠(別ウィンドウ)を設けて動作を表示させてもよく、対応するオブジェクトが表示されている位置上に表示してもよく、更に音声により出力してもよい。   The display information generation unit 47 generates the operation content for the object displayed on the screen based on the additional information obtained by the non-visualization information analysis unit 46, the display content based on the display method, and the like. Note that the display on the screen may be performed by providing another frame (another window) on the screen, or may be displayed on the position where the corresponding object is displayed, and output by voice. Also good.

なお、表示情報生成手段47における処理としては、例えば、上述したようにオブジェクトを背景から消す処理を行ったり、その消した位置にオブジェクトを表示し、拡大、縮小、回転、移動、他のオブジェクトに置換等を行うことができる。したがって、画像中に含まれる所定のオブジェクトに対して、個々の動作を行わせて表示させることができる。更に、表示情報生成手段47は、表示されるオブジェクトを背景画像に重畳させたり、空間認識による角度や傾きの補正処理等を行うことができる。   As the processing in the display information generation means 47, for example, as described above, the processing for erasing the object from the background is performed, or the object is displayed at the erased position, and enlarged, reduced, rotated, moved, and other objects are displayed. Substitution etc. can be performed. Therefore, it is possible to display the predetermined object included in the image by performing individual operations. Furthermore, the display information generation unit 47 can superimpose the displayed object on the background image, and can perform angle and inclination correction processing by space recognition.

ここで、本実施形態において、どのオブジェクトにどのような動作をさせるかについては、例えば、そのオブジェクトの周囲にある非可視化情報から取得することができる。したがって、本実施形態では、画像中の動作させたいオブジェクトに対してのみ、その周囲に非可視化情報を埋め込むだけで、そのオブジェクト毎に独自の処理を埋込装置13側で設定することができる。   Here, in the present embodiment, what kind of operation is performed on which object can be acquired from, for example, non-visualization information around the object. Therefore, in the present embodiment, only by embedding non-visualization information around the object to be operated in the image, unique processing can be set on the embedding device 13 side for each object.

また、表示情報生成手段47は、取得した非可視化情報をそのまま可視化して表示してもよく、非可視化情報に対応する付加情報を蓄積手段43や外部装置等から取得して、その取得した付加情報を表示してもよい。   Further, the display information generating unit 47 may visualize and display the acquired invisible information as it is, acquire additional information corresponding to the invisible information from the storage unit 43 or an external device, and the acquired additional information. Information may be displayed.

更に、表示情報生成手段47は、非可視化情報解析手段46により得られた結果がコードである場合、上述したコードID等に基づいて蓄積手段43等から取得した付加情報毎に設定されている画面に表示するときのサイズ、色、時間、位置、動作内容等に基づいて表示させるための表示情報を生成する。なお、映像として対象オブジェクトが移動している場合には、そのオブジェクトの位置に追随して表示させてもよく、また、最初に画面に表示した位置に固定して表示させてもよい。   Furthermore, when the result obtained by the non-visualized information analyzing unit 46 is a code, the display information generating unit 47 is a screen set for each additional information acquired from the accumulating unit 43 based on the code ID described above. Display information to be displayed is generated based on the size, color, time, position, operation content, and the like when displayed. When the target object is moving as a video, it may be displayed following the position of the object, or may be displayed fixed at the position initially displayed on the screen.

送受信手段48は、通信ネットワーク等を用いて接続可能な外部装置から所望する外部画像(撮影画像等)や、本発明における非可視化情報認識処理を実現するための実行プログラム等を取得するためのインタフェースである。また、送受信手段48は、認識装置16内で生成された各種情報を外部装置に送信することができる。   The transmission / reception means 48 is an interface for acquiring a desired external image (captured image or the like) from an external device connectable using a communication network or the like, an execution program for realizing the invisible information recognition processing in the present invention, and the like. It is. The transmission / reception unit 48 can transmit various information generated in the recognition device 16 to an external device.

制御手段49は、認識装置16の各構成部全体の制御を行う。具体的には、制御手段49は、例えばユーザ等による入力手段41からの指示等に基づいて、埋込画像の取得や非可視化情報の抽出、非可視化情報の解析、表示情報の生成等の各処理の各制御等を行う。   The control means 49 controls the entire components of the recognition device 16. Specifically, for example, the control unit 49 obtains embedded images, extracts non-visualized information, analyzes non-visualized information, generates display information, and the like based on an instruction from the input unit 41 by a user or the like. Each control of processing is performed.

上述した装置構成により、効率的な情報の取得により付加価値性に優れた高精度な画像を提供することができる。   With the above-described apparatus configuration, it is possible to provide a highly accurate image with excellent added value by efficiently acquiring information.

<埋込装置13、認識装置16:ハードウェア構成>
ここで、上述した埋込装置13及び認識装置16においては、各機能をコンピュータに実行させることができる実行プログラム(埋込プログラム、認識プログラム)を生成し、例えば汎用のパーソナルコンピュータ、サーバ等にその実行プログラムをインストールすることにより、本発明における非可視化情報の埋込処理及び認識処理等を実現することができる。
<Embedding device 13, recognition device 16: hardware configuration>
Here, in the embedding device 13 and the recognition device 16 described above, an execution program (embedding program, recognition program) capable of causing a computer to execute each function is generated, and the program is transmitted to, for example, a general-purpose personal computer or server. By installing the execution program, the invisible information embedding process and the recognition process in the present invention can be realized.

ここで、本実施形態における非可視化情報の埋込処理及び認識処理が実現可能なコンピュータのハードウェア構成例について図を用いて説明する。図4は、本実施形態における非可視化情報の埋込処理及び認識処理が実現可能なハードウェア構成の一例を示す図である。   Here, a hardware configuration example of a computer capable of realizing the invisible information embedding process and the recognition process in the present embodiment will be described with reference to the drawings. FIG. 4 is a diagram illustrating an example of a hardware configuration capable of realizing the invisible information embedding process and the recognition process in the present embodiment.

図4におけるコンピュータ本体には、入力装置51と、出力装置52と、ドライブ装置53と、補助記憶装置54と、メモリ装置55と、各種制御を行うCPU(Central Processing Unit)56と、ネットワーク接続装置57とを有するよう構成されており、これらはシステムバスBで相互に接続されている。   4 includes an input device 51, an output device 52, a drive device 53, an auxiliary storage device 54, a memory device 55, a CPU (Central Processing Unit) 56 that performs various controls, and a network connection device. 57 are connected to each other by a system bus B.

入力装置51は、ユーザ等が操作するキーボード及びマウス等のポインティングデバイスを有しており、ユーザ等からのプログラムの実行等、各種操作信号を入力する。また、入力装置51は、カメラ等の撮像手段から撮影された画像を入力する画像入力ユニットを有している。   The input device 51 has a pointing device such as a keyboard and a mouse operated by a user or the like, and inputs various operation signals such as execution of a program from the user or the like. The input device 51 has an image input unit for inputting an image taken from an imaging means such as a camera.

出力装置52は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイを有し、CPU56が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。   The output device 52 has a display for displaying various windows and data necessary for operating the computer main body for performing processing according to the present invention, and displays the program execution progress, results, and the like by the control program of the CPU 56. can do.

ここで、本発明においてコンピュータ本体にインストールされる実行プログラムは、例えばUSB(Universal Serial Bus)メモリやCD−ROM等の可搬型の記録媒体58等により提供される。プログラムを記録した記録媒体58は、ドライブ装置53にセット可能であり、記録媒体58に含まれる実行プログラムが、記録媒体58からドライブ装置53を介して補助記憶装置54にインストールされる。   Here, the execution program installed in the computer main body in the present invention is provided by a portable recording medium 58 such as a USB (Universal Serial Bus) memory or a CD-ROM, for example. The recording medium 58 on which the program is recorded can be set in the drive device 53, and the execution program included in the recording medium 58 is installed in the auxiliary storage device 54 from the recording medium 58 via the drive device 53.

補助記憶装置54は、ハードディスク等のストレージ手段であり、本発明における実行プログラムやコンピュータに設けられた制御プログラム等を蓄積し、必要に応じて入出力を行うことができる。   The auxiliary storage device 54 is a storage means such as a hard disk, and can store an execution program according to the present invention, a control program provided in a computer, and the like, and can perform input / output as necessary.

メモリ装置55は、CPU56により補助記憶装置54から読み出された実行プログラム等を格納する。なお、メモリ装置55は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。   The memory device 55 stores an execution program or the like read from the auxiliary storage device 54 by the CPU 56. The memory device 55 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.

CPU56は、OS(Operating System)等の制御プログラム、及びメモリ装置55に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して、埋込処理及び認識処理における各処理を実現することができる。なお、プログラムの実行中に必要な各種情報等は、補助記憶装置54から取得することができ、また実行結果等を格納することもできる。   The CPU 56 controls processing of the entire computer, such as various operations and input / output of data with each hardware component, based on a control program such as an OS (Operating System) and an execution program stored in the memory device 55. Thus, each process in the embedding process and the recognition process can be realized. Various information necessary during the execution of the program can be acquired from the auxiliary storage device 54, and the execution result and the like can also be stored.

ネットワーク接続装置57は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果又は本発明における実行プログラム自体を他の端末等に提供することができる。   The network connection device 57 obtains an execution program from another terminal connected to the communication network by connecting to a communication network or the like, or an execution result obtained by executing the program or an execution in the present invention The program itself can be provided to other terminals.

上述したようなハードウェア構成により、本発明における非可視化情報の埋込処理及び認識処理を実行することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における埋込処理及び認識処理を容易に実現することができる。   With the hardware configuration as described above, the invisible information embedding process and the recognition process in the present invention can be executed. Further, by installing the program, the embedding process and the recognition process in the present invention can be easily realized by a general-purpose personal computer or the like.

次に、上述した埋込プログラムにおける非可視化情報の埋込処理、及び認識プログラムにおける非可視化情報の認識処理について具体的に説明する。   Next, the invisible information embedding process in the above-described embedding program and the invisible information recognizing process in the recognition program will be specifically described.

<非可視化情報の埋込処理手順>
まず、本実施形態における非可視化情報の埋込処理手順について説明する。図5は、本実施形態における非可視化情報の埋込処理手順の一例を示すフローチャートである。
<Procedure for embedding non-visualized information>
First, a procedure for embedding non-visualized information in the present embodiment will be described. FIG. 5 is a flowchart illustrating an example of the embedding process procedure of the invisible information in the present embodiment.

図5に示す埋込処理は、まずカメラ等の撮像手段により撮影された画像を取得し(S01)、画像の解析を行い(S02)、画像中に含まれるオブジェクト、オブジェクト位置情報等を取得する。   In the embedding process shown in FIG. 5, first, an image taken by an imaging means such as a camera is acquired (S01), the image is analyzed (S02), and an object included in the image, object position information, and the like are acquired. .

次に、S02の処理にて得られた情報に基づいて埋込対象オブジェクトの設定を行い(S03)、そのオブジェクトに対して非可視化情報(マーカ)を埋め込むか否かを判断する(S04)。ここで、非可視化情報を埋め込む場合(S04において、YES)、そのオブジェクトに対してどのような動作指示情報を埋め込むか等の処理内容を示した埋込情報を設定し(S05)、S05の処理により設定された埋込情報を生成する(S06)。   Next, the embedding target object is set based on the information obtained in the process of S02 (S03), and it is determined whether or not the invisible information (marker) is embedded in the object (S04). Here, when the invisible information is embedded (YES in S04), the embedded information indicating the processing contents such as what kind of operation instruction information is embedded in the object is set (S05), and the process of S05 is performed. The embedded information set by is generated (S06).

また、S06の処理にて生成された埋込情報を含む画像中の所定のオブジェクトの周囲の所定位置に埋め込み(S07)、その埋め込み後の合成画像をディスプレイ等の出力手段により表示又はデータとして出力する(S08)。なお、S08の処理では、S07により得られた画像を印刷媒体に出力することもできる。   Also, embedding is performed at a predetermined position around a predetermined object in the image including the embedding information generated in the process of S06 (S07), and the combined image after the embedding is displayed or output as data by an output means such as a display. (S08). In the process of S08, the image obtained in S07 can be output to a print medium.

S08の処理終了後又はS04の処理において、非可視化情報を埋め込まない場合(S04において、NO)、他の画像に非可視化情報を埋め込むか否かを判断する(S09)。他の画像に非可視化情報を埋め込む場合(S09において、YES)、S01に戻り以降の処理を繰り返し実行する。また、S09の処理において、他の画像に非可視化情報を埋め込まない場合(S09において、NO)、非可視化情報埋込処理を終了する。   When the invisible information is not embedded after the processing of S08 or in the processing of S04 (NO in S04), it is determined whether or not the invisible information is embedded in another image (S09). When the invisible information is embedded in another image (YES in S09), the process returns to S01 and the subsequent processing is repeatedly executed. Further, in the process of S09, when the invisible information is not embedded in another image (NO in S09), the invisible information embedding process is terminated.

なお、本実施形態では、上述S02の処理は行わずに、ユーザ等が画面上に表示される画像データから少なくとも1つのオブジェクトを設定してもよい。   In the present embodiment, the user or the like may set at least one object from the image data displayed on the screen without performing the process of S02 described above.

<非可視化情報の認識処理手順>
次に、本実施形態における非可視化情報の認識処理手順について説明する。図6は、本実施形態における非可視化情報の認識処理手順の一例を示すフローチャートである。
<Recognition processing procedure for invisible information>
Next, the recognition process procedure of the invisible information in this embodiment will be described. FIG. 6 is a flowchart showing an example of the recognition processing procedure of the invisible information in the present embodiment.

図6に示す認識処理は、まず、上述した埋込処理により非可視化情報が埋め込まれた埋込画像を取得する(S11)。なお、S11の処理では、画像が取得できれば、どのような手段を用いてもよく、例えば、上述したように印刷媒体を撮影してその画像データを取得してもよく、また予め画像データとして存在する埋込画像を外部装置等から取得してもよい。次に、取得した画像に含まれる非可視化情報からオブジェクトを抽出する(S12)。   In the recognition process shown in FIG. 6, first, an embedded image in which the invisible information is embedded by the above-described embedding process is acquired (S11). In the process of S11, any means may be used as long as an image can be acquired. For example, as described above, a print medium may be photographed to acquire the image data, and the image data exists in advance. The embedded image to be acquired may be acquired from an external device or the like. Next, an object is extracted from the non-visualization information included in the acquired image (S12).

次に、S12の処理において、非可視化情報からオブジェクトに対する動作指示内容や表示手法等の各種処理内容からなる埋込情報が抽出されたか否かを判断し(S13)、埋込情報が抽出された場合(S13において、YES)、埋込情報の解析を行う(S14)。また、埋込情報の解析結果により得られた付加情報から画面等に表示する表示情報等を生成し(S15)、生成した内容を表示する(S16)。   Next, in the process of S12, it is determined whether or not embedded information including various processing contents such as operation instruction contents and display methods for the object is extracted from the invisible information (S13), and the embedded information is extracted. If so (YES in S13), the embedded information is analyzed (S14). Also, display information to be displayed on the screen or the like is generated from the additional information obtained from the analysis result of the embedded information (S15), and the generated content is displayed (S16).

ここで、他の画像から非可視化情報を認識するか否かを判断し(S17)、他の画像から非可視化情報を認識する場合(S17において、YES)、S11に戻り以降の処理を繰り返し実行する。また、S17の処理において、他の画像から非可視化情報を認識しない場合(S17において、NO)、非可視化情報認識処理を終了する。   Here, it is determined whether or not the invisible information is recognized from another image (S17). When the invisible information is recognized from another image (YES in S17), the process returns to S11 and the subsequent processing is repeatedly executed. To do. Further, in the process of S17, when the invisible information is not recognized from another image (NO in S17), the invisible information recognition process is terminated.

上述した処理により、非可視化情報の埋め込みや抽出を迅速に行うと共に付加価値性に優れた高精度なコンテンツサービスを提供することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における非可視化情報埋込処理や認識処理を容易に実現することができる。   Through the processing described above, it is possible to quickly embed and extract invisible information and provide a highly accurate content service with excellent added value. In addition, by installing the program, the non-visualized information embedding process and the recognition process in the present invention can be easily realized by a general-purpose personal computer or the like.

<非可視化情報の埋め込み例について>
次に、本実施形態における非可視化情報の埋め込み例について、図を用いて説明する。図7は、本実施形態における非可視化情報の埋め込み例について説明するための図である。なお、埋込処理を行う場合には、図7(a)〜図7(d)の順序で埋め込みが行われる。
<Example of embedding non-visualized information>
Next, an example of embedding invisible information in the present embodiment will be described with reference to the drawings. FIG. 7 is a diagram for explaining an example of embedding non-visualization information in the present embodiment. When embedding processing is performed, embedding is performed in the order of FIGS. 7A to 7D.

まず、上述した第1の印刷媒体11等から入力された撮影画像である画像データ61に含まれるある所定のオブジェクト62に対して非可視化情報を挿入する場合には、図7(a)に示すように、オブジェクト62を中心とし、その中心から図7(a)の矢印に示すようにオブジェクト62の周囲に所定形状のコードの外枠63を配置する。   First, in the case where the invisible information is inserted into a predetermined object 62 included in the image data 61 that is a photographed image input from the first print medium 11 or the like described above, as shown in FIG. As described above, an outer frame 63 of a cord having a predetermined shape is arranged around the object 62 as shown by an arrow in FIG.

なお、外枠形状は、認識装置16における読み取り精度を向上させるために正方形が好ましいが、本発明においてはこれに限定されるものではなく、例えば、矩形や菱形、6角形、8角形等の多角形や円形、楕円形、オブジェクトの形状に相似して拡大された形状、或いはユーザ等によりマウス等の入力手段によってフリーライドされた形状等であってもよい。   The outer frame shape is preferably a square in order to improve the reading accuracy in the recognition device 16, but is not limited to this in the present invention. The shape may be a square, a circle, an ellipse, an enlarged shape similar to the shape of an object, a shape free-ridden by an input means such as a mouse by a user or the like.

次に、図7(b)に示すように、オブジェクト62に対する大体の輪郭64を指定する。なお、輪郭64は、ユーザ等によりマウスやタッチパネル等の入力手段を用いて任意に設定することができる。また、輪郭64は、オブジェクト62とその背景との輝度値等の違いにより大まかな輪郭64を抽出することもできる。なお、この輪郭64は、大まかなものであってよく、例えばオブジェクト62の全体を含む領域であればよい。   Next, as shown in FIG. 7B, a rough outline 64 for the object 62 is designated. Note that the contour 64 can be arbitrarily set by a user or the like using input means such as a mouse or a touch panel. The outline 64 can also be roughly extracted based on a difference in luminance value between the object 62 and its background. The outline 64 may be a rough one, and may be an area including the entire object 62, for example.

次に、図7(c)に示すように、輪郭64の形状に対応させてコード内枠65を設定する。なお、コード内枠65は、外枠63を超えることがなく、例えば輪郭64の一回り(所定画素数分)外側の領域が設定される。次に、図7(d)に示すように、コード内枠65と外枠63の間に高周波部66の符号化領域を付加し、輪郭と内枠の間に低周波部67を付与する。これにより、認識装置16側でオブジェクト62の位置を認識させるための非可視化情報を埋め込むことができる。   Next, as shown in FIG. 7C, a code inner frame 65 is set in correspondence with the shape of the contour 64. The code inner frame 65 does not exceed the outer frame 63, and an area outside the circumference of the outline 64 (for a predetermined number of pixels) is set, for example. Next, as shown in FIG. 7D, an encoding region of the high frequency unit 66 is added between the code inner frame 65 and the outer frame 63, and a low frequency unit 67 is added between the contour and the inner frame. Thereby, the invisible information for recognizing the position of the object 62 on the recognition device 16 side can be embedded.

また、本実施形態では、非可視化情報に何らかの文字や記号、コード等により、オブジェクトに対する動作指示情報や表示手法等の各処理内容を挿入することで、画像中の所定のオブジェクト毎に所定の動作等を行わせることができる。これにより、付加価値のあるコンテンツサービスを提供することができる。   Further, in the present embodiment, a predetermined operation is performed for each predetermined object in the image by inserting each processing content such as operation instruction information and display method for the object by some character, symbol, code, or the like in the invisible information. Etc. can be performed. Thereby, a content service with added value can be provided.

<非可視化情報の抽出及びオブジェクトの認識例について>
次に、本実施形態における認識装置16における非可視化情報の抽出及びオブジェクトの認識例について図を用いて説明する。図8は、本実施形態における非可視化情報の抽出及びオブジェクトの認識例について説明するための図である。
<Extraction of non-visualized information and object recognition example>
Next, extraction of non-visualized information and object recognition examples in the recognition apparatus 16 according to the present embodiment will be described with reference to the drawings. FIG. 8 is a diagram for explaining an example of extracting the invisible information and recognizing an object in the present embodiment.

なお、本実施形態の認識処理に係る非可視化情報の抽出及びオブジェクトの認識を行う場合には、図8(a)〜図8(d)の順序で埋め込みが行われる。まず、上述した第1の印刷媒体11等から入力された画像データ61に含まれるある所定のオブジェクト62に対して非可視化情報を挿入する場合には、まず図8(a)に示すように、画像61に含まれるコード情報を取得する。具体的には、例えば、外枠63と高周波部66と低周波部67とが存在する領域を抽出する。   In addition, when extracting the invisible information and recognizing the object according to the recognition processing of the present embodiment, the embedding is performed in the order of FIG. 8A to FIG. First, when inserting invisible information into a predetermined object 62 included in the image data 61 input from the first print medium 11 or the like described above, first, as shown in FIG. The code information included in the image 61 is acquired. Specifically, for example, a region where the outer frame 63, the high frequency unit 66, and the low frequency unit 67 exist is extracted.

次に、図8(b)に示すように、外枠63から内側の高周波部66を透明化し、更に図8(c)に示すように、高周波部66のエッジから内側に向かって低周波部67を透明にする。なお、低周波部67は、周囲との画素の輝度情報等に基づいて、把握することができるが、本発明においてはこれに限定されるものではなく、例えば高周波部から所定ビット数分内側を透明化するといったように、予め設定されたビット数のみを透明化してもよく、又は色差や明暗差等を用いて上述した透明化処理を行ってもよい。   Next, as shown in FIG. 8 (b), the inner high frequency part 66 is made transparent from the outer frame 63, and further, as shown in FIG. 8 (c), the low frequency part is directed inward from the edge of the high frequency part 66. Make 67 transparent. Note that the low frequency unit 67 can be grasped based on the luminance information of the surrounding pixels, but is not limited to this in the present invention. For example, the inside of the high frequency unit by a predetermined number of bits. Only a predetermined number of bits may be made transparent, such as making it transparent, or the above-described transparency processing may be performed using a color difference, a light / dark difference, or the like.

その後、図8(d)に示すようにオブジェクトのみからなるトリミング画像71を得ることができる。なお、図8(d)に示すオブジェクトの周囲のエリアは、便宜上、透明化されていることを示す模様が付されている。   Thereafter, as shown in FIG. 8D, a trimmed image 71 composed only of objects can be obtained. The area around the object shown in FIG. 8D is given a pattern indicating that it is transparent for convenience.

<オブジェクトに対する動作例>
次に、本実施形態において、提供されたコンテンツに含まれるオブジェクトに対する動作例について、図を用いて説明する。図9は、本実施形態におけるオブジェクト動作例を説明するための図である。
<Operation example for object>
Next, in this embodiment, an operation example for an object included in provided content will be described with reference to the drawings. FIG. 9 is a diagram for explaining an object operation example in the present embodiment.

オブジェクトを動作させる場合には、例えば、図9(a)に示すように、撮影画像61にトリミング画像71を重畳し、次に、図9(b)に示すように、背景画像のオブジェクト62aを削除する。具体的には、例えば、オブジェクト62aの周囲の背景画像の画素を用いてオブジェクト62aの領域を上塗りする。なお、本発明においてはこれに限定されるものではなく、例えば、予め設定された色等を用いて塗り潰してもよい。   When moving the object, for example, as shown in FIG. 9A, the trimming image 71 is superimposed on the captured image 61, and then, as shown in FIG. delete. Specifically, for example, the area of the object 62a is overcoated using pixels of the background image around the object 62a. In the present invention, the present invention is not limited to this. For example, the color may be painted using a preset color or the like.

次に、トリミング画像71に含まれるオブジェクト62bを、オブジェクト62aを削除した撮影画像61を背景画像として、その上で動作させる。なお、図9(c)の動作内容では、オブジェクト62bを所定のタイミングで右回転に動作させる処理を示しているが、本発明においては、これに限定されるものではなく、オブジェクト62bを拡大させたり、縮小させたり、所定の方向に移動させたり、他のオブジェクトに置換するといった動作を行うことができる。   Next, the object 62b included in the trimmed image 71 is operated on the captured image 61 from which the object 62a is deleted as a background image. 9C shows the process of moving the object 62b to the right at a predetermined timing. However, the present invention is not limited to this, and the object 62b is enlarged. Or can be reduced, moved in a predetermined direction, or replaced with another object.

また、入力と対応動作のバリエーションとして、本実施形態では、例えば、ユーザ等が認識装置16の音声入力装置等に対して息を吹きかける(マイク入力)とオブジェクトの一部又は全部が回転したり、傾けるとオブジェクトが転がったり、認識装置16の画面に触るとオブジェクトがリアクションをとったり、特定の場所に行くとオブジェクトがその場所固有の動作をすることができる。   Further, as a variation of the input and the corresponding operation, in this embodiment, for example, when a user blows on the voice input device or the like of the recognition device 16 (microphone input), a part or all of the object rotates, When tilted, the object rolls, when the screen of the recognition device 16 is touched, the object takes a reaction, and when the user goes to a specific place, the object can perform an action specific to the place.

更に、本実施形態では、向いている方角によってオブジェクトの動作が変化したり、時間によってオブジェクトが寝たり起きたりすることもでき、また天気等によってオブジェクトの動作が変化したり、ユーザが歩く動作やその動作に伴う振動、移動速度、移動距離等に従って、オブジェクトも変形するといった動作を行うことができる。   Furthermore, in this embodiment, the movement of the object can change depending on the direction in which it is facing, the object can sleep or wake up depending on the time, the movement of the object can change depending on the weather, etc. It is possible to perform an operation of deforming the object in accordance with the vibration, the moving speed, the moving distance, etc. associated with the operation.

<低周波部、高周波部について>
ここで、本実施形態における低周波部及び高周波部について説明する。通常、周波数には時間についての周波数(時間周波数)と空間の位置についての周波数(空間周波数)があるが、本実施形態においては、特に断らない限りは空間周波数を指す。空間周波数とは、「単位長さに対する画素値の周期の逆数」と定義される。
<About low frequency part and high frequency part>
Here, the low frequency part and the high frequency part in the present embodiment will be described. Normally, there are frequencies for time (temporal frequency) and frequencies for space positions (spatial frequency). In the present embodiment, the frequency refers to the spatial frequency unless otherwise specified. Spatial frequency is defined as “the reciprocal of the period of the pixel value relative to the unit length”.

本実施形態における周波数は、特に限定されるものではないが、例えば高周波部では0.2〜2[cycle/画素]、低周波部では0〜1[cycle/画素]の範囲で設定すればよく、具体的には低周波部より高周波部の方が、周波数が高くなっていればよい。   The frequency in the present embodiment is not particularly limited. For example, the frequency may be set in the range of 0.2 to 2 [cycle / pixel] in the high frequency part and 0 to 1 [cycle / pixel] in the low frequency part. Specifically, it is sufficient that the high frequency portion has a higher frequency than the low frequency portion.

また、高周波部にて形成される所定の画素領域(例えば、4×4px(ピクセル)等)からなるグリッドは、明部と暗部が周期的に繰り返していればよく、例えば、縦縞、横縞、格子状等があげられる。
例えば、
明明明明
暗暗暗暗
明明明明
暗暗暗暗
又は、
明暗明暗
暗明暗明
明暗明暗
暗明暗明
等である。
In addition, a grid composed of predetermined pixel regions (for example, 4 × 4 px (pixels) or the like) formed in a high-frequency part is sufficient if a bright part and a dark part are periodically repeated. For example, vertical stripes, horizontal stripes, grids State.
For example,
Bright light dark dark dark bright light bright dark dark dark or
Light / dark / dark / dark / light / dark / dark / light / dark.

また、そのときの明部と暗部の明度差は10以上であればよく、好適なのは50以上であり、更に好適なのは100以上である。なお、本実施形態における明度差は、上述したように、まず通常表示される画像の明度を基準として明部と暗部とを生成し、生成された明部と暗部とにおける明度差を用いていたが、本発明においてはこれに限定されるものではない。例えば、通常の画像の明度と、その明度に対して低周波部又は高周波部における明度とにおける明度差を用いていてもよい。   In addition, the brightness difference between the bright part and the dark part at that time may be 10 or more, preferably 50 or more, and more preferably 100 or more. As described above, the brightness difference in the present embodiment first generates a bright part and a dark part on the basis of the brightness of an image that is normally displayed, and uses the brightness difference between the generated bright part and the dark part. However, the present invention is not limited to this. For example, the brightness difference between the brightness of a normal image and the brightness at the low frequency part or the high frequency part may be used.

この場合、例えば、高周波部と見なされる明暗差は、グレースケールで隣り合うエレメントを基準として約15以上であれば高周波部とみなすことができる。具体的には、約15〜35程度の明度差が高周波部として主に使うことができる領域である。なお、エレメントとは、縦横1px以上のピクセルで構成されたものであり、本実施形態では、例えば1エレメントを2×2pxとすることができる。   In this case, for example, if the brightness difference considered to be a high-frequency part is about 15 or more with reference to an adjacent element in gray scale, it can be regarded as a high-frequency part. Specifically, a brightness difference of about 15 to 35 is an area that can be mainly used as a high-frequency part. In addition, an element is comprised by the pixel of 1 px or more in length and width, and in this embodiment, 1 element can be 2x2 px, for example.

ここで、例えばカメラ等の撮像装置で読み取れる明度差の最小値が15である場合、明度差が35を超えると人間の目にも容易に認識できてしまう。また逆に、埋め込む画像の部分が極端に暗い場合や明るい場合には、カメラ等による読み取り精度を上げるために例えば35以上の明度差を付けることも必要となる。したがって、本実施形態では、埋め込む位置の画像(背景)の明度や輝度等や撮影されるカメラの性能等に応じて任意に明度差に変化を付けて非可視化情報のコードを生成する。   Here, for example, when the minimum value of the brightness difference that can be read by an imaging device such as a camera is 15, if the brightness difference exceeds 35, it can be easily recognized by human eyes. On the other hand, if the portion of the image to be embedded is extremely dark or bright, it is necessary to add a brightness difference of, for example, 35 or more in order to improve the reading accuracy by a camera or the like. Therefore, in the present embodiment, the code of the invisible information is generated by arbitrarily changing the brightness difference according to the brightness and brightness of the image (background) at the embedded position, the performance of the camera to be photographed, and the like.

また、上述した付加情報における使用可能なピクセルサイズは、例えばその画像と、画像を見る人との距離により変化するため、特に限定されるものではないが、例えば約1mの距離であれば、約0.05〜2mm程度が好ましく、約10mの距離であれば、約0.5mm〜20mm程度が好ましい。更に離れた距離から使用する場合でも、同様のピクセルサイズと距離の比率を保っていることが好ましい。   In addition, the usable pixel size in the additional information described above is not particularly limited because it varies depending on the distance between the image and the person viewing the image, for example. About 0.05 to 2 mm is preferable, and if the distance is about 10 m, about 0.5 mm to 20 mm is preferable. Even when used from a further distance, it is preferable to maintain the same pixel size / distance ratio.

つまり、本実施形態では、碁盤の目パターン中(市松模様)の小さな明るく暗い正方形から成る高頻度のブロックを使用する非可視化コードを本実施形態における非可視化情報として用いる。これにより、いかなる場所でも埋め込むことができ、任意の角度から読むことができる。   That is, in this embodiment, a non-visualization code that uses a high-frequency block made up of small bright and dark squares in a grid pattern (checkered pattern) is used as the non-visualization information in this embodiment. Thereby, it can embed in any place and can read from arbitrary angles.

ここで、図10は、高周波部及び低周波部を有する非可視化情報を説明するための図である。図10(a)に示す非可視化画像の構造例では、位置検知パターン81内に回転検知パターン82を有する。これにより、コードのある位置とコードの向きを正確に認識することができる。   Here, FIG. 10 is a diagram for explaining the invisible information having the high-frequency part and the low-frequency part. In the structural example of the invisible image shown in FIG. 10A, the position detection pattern 81 has a rotation detection pattern 82. This makes it possible to accurately recognize the position where the code is and the direction of the code.

また、位置検知パターン81には、イメージに埋め込まれていた高周波部としての高周波ブロック83を有しており、中心には、オブジェクトを収納するエッジ84を有している。図10(a)に示すように、本実施形態では、イメージの位置及び方向は、周囲の位置と方向の検知パターンによって検知される。これらのパターンも高周波ブロック83から構成される。なお、図10(a)の例では、位置検知パターン81の外枠を点線のガイドラインで囲み、回転検知パターン82の外枠を実線のガイドラインで囲んでいるが、実際には枠線を必要としない。   Further, the position detection pattern 81 has a high frequency block 83 as a high frequency portion embedded in the image, and has an edge 84 for storing an object at the center. As shown in FIG. 10A, in the present embodiment, the position and direction of the image are detected by a detection pattern of surrounding positions and directions. These patterns are also composed of the high frequency block 83. In the example of FIG. 10A, the outer frame of the position detection pattern 81 is surrounded by a dotted line guideline, and the outer frame of the rotation detection pattern 82 is surrounded by a solid line guideline. do not do.

図10(b)に示す各ブロックは、人が目で見て認識しづらくして視界を縮小するために明るく暗い要素を交互にするN×Nの碁盤配列からなる。明るいエレメント(要素)と暗いエレメントは、上述したように背景の輝度(明るさ)を基準にして、その輝度を上げるか下げることにより生成される。   Each block shown in FIG. 10 (b) is composed of an N × N grid arrangement in which bright and dark elements are alternated so that it is difficult for humans to visually recognize and reduce the field of view. As described above, the bright element (element) and the dark element are generated by increasing or decreasing the luminance with respect to the luminance (brightness) of the background.

なお、明るさにおける変化は、埋め込み強度(それは明るさにおける±α変化である)によって調節される。埋め込み強度が一定の場合、イメージが非常に明るいか、非常に暗い場合、読み取り認識精度はよくない。そこで、図10(c)に示すように、背景色の埋め込み強度を変えることにより読み取り認識精度を向上させる。具体的には、背景の各RGB値がエレメント(要素)の明るさを変更するために独立して変えられる場合、色調はイメージの視界を上げて変わる。したがって、本実施形態では、視界を縮小し、かつ読み取り認識の正確さを向上させるため、オリジナルカラーイメージをグレーレベルに変換し、背景のグレーの規模の値を基準にして埋め込み強度を設定した。   Note that the change in brightness is adjusted by the embedding strength (which is a ± α change in brightness). When the embedding strength is constant, the read recognition accuracy is not good when the image is very bright or very dark. Therefore, as shown in FIG. 10C, the read recognition accuracy is improved by changing the embedding strength of the background color. Specifically, when each RGB value of the background can be changed independently to change the brightness of the element, the color tone changes by raising the field of view of the image. Therefore, in this embodiment, in order to reduce the field of view and improve the accuracy of reading recognition, the original color image is converted to a gray level, and the embedding strength is set based on the value of the background gray scale.

ここで、図11は、埋め込み強度と背景のグレースケール値の関係を示す図である。図11に示すように、人間の目は白の明るさの変化に非常に敏感で、黒の変化に無感覚である。そのため、埋め込み強度の変化は、グレースケール値に関して二次関数的に、最小の強さが20となる方程式によって以下の式で与えられる。
グレーレベル値α=1/2167×(αr−255)+20
<実験結果>
ここで、本発明を適用した実験結果について図を用いて説明する。本実施形態における読み取り認識精度は、どのようなコードを埋め込んだか(コード・スタイル)で評価される。
Here, FIG. 11 is a diagram showing the relationship between the embedding strength and the gray scale value of the background. As shown in FIG. 11, the human eye is very sensitive to changes in white brightness and insensitive to changes in black. Therefore, the change in the embedding strength is given by the following equation using an equation in which the minimum strength is 20 as a quadratic function with respect to the gray scale value.
Gray level value α = 1/2167 × (αr−255) 2 +20
<Experimental result>
Here, experimental results to which the present invention is applied will be described with reference to the drawings. The read recognition accuracy in this embodiment is evaluated by what code is embedded (code style).

図12は、モノクロイメージ用の非可視化コードの例を示す図である。図12に示すコードは、約3cm程度正方形で、データを100ビット保持することができる。また、高周波ブロックの各サイドは4つの長いエレメント(要素)を有している。また、エレメントのサイズは、約2×2ピクセルとしている。また、図12に示すように、高周波部ブロックは、モノクロイメージに対する碁盤(市松模様)のブロックを有している。   FIG. 12 is a diagram illustrating an example of a non-visualization code for a monochrome image. The code shown in FIG. 12 is about 3 cm square and can hold 100 bits of data. Each side of the high frequency block has four long elements. The element size is about 2 × 2 pixels. Further, as shown in FIG. 12, the high-frequency unit block has a checkerboard (checkered pattern) block for a monochrome image.

図13は、0〜255までグレーイメージを変化させた明るさに対する読み取り認識精度と非可視化との関係を示す図である。本実施形態では、コードありのイメージとコードなしのイメージとの差を50cm離れた地点から見た評価結果を示している。その結果、背景イメージの明るさの範囲がグレーレベル40〜180にある場合に読み取り認識精度が90%以上であり、可視化されていると判断される場合が10%未満であった。   FIG. 13 is a diagram illustrating a relationship between reading recognition accuracy and invisibility with respect to brightness obtained by changing a gray image from 0 to 255. In the present embodiment, an evaluation result is shown in which a difference between an image with a cord and an image without a cord is viewed from a point 50 cm away. As a result, when the brightness range of the background image is in the gray level of 40 to 180, the read recognition accuracy is 90% or more, and the case where it is determined that the background image is visualized is less than 10%.

更に、本実施形態における非可視化コードの有効性を確認するために、一例として3つの共通のタイプのイメージに埋め込まれていた非可視化コードの読み取り認識精度を評価した。   Furthermore, in order to confirm the effectiveness of the non-visualization code in the present embodiment, the read recognition accuracy of the non-visualization code embedded in three common types of images was evaluated as an example.

図14は、本実施形態におけるイメージ毎の非可視化情報の読み取り認識精度の評価について説明するための図である。図14(a)に示すような非可視化コードを、図14(b)に示すテストイメージとして、白黒(モノクロ)イメージ、女性イメージ、動物(マントヒヒ)イメージに挿入して、様々なイメージにおけるコードの認識精度を評価した。   FIG. 14 is a diagram for describing the evaluation of the read recognition accuracy of the invisible information for each image in the present embodiment. 14A is inserted as a test image shown in FIG. 14B into a black-and-white (monochrome) image, a female image, and an animal (manto baboon) image. Recognition accuracy was evaluated.

ここで、図15は、図14に対応する評価結果を示す図である。なお、図15(a)は、カメラからコードまで距離に対する認識精度を示すグラフであり、図15(b)は、カメラの撮影角度に対する認識精度を示すグラフである。   Here, FIG. 15 is a figure which shows the evaluation result corresponding to FIG. 15A is a graph showing the recognition accuracy with respect to the distance from the camera to the code, and FIG. 15B is a graph showing the recognition accuracy with respect to the shooting angle of the camera.

図15(a)に示すように、カメラからコードまでの距離に関する正確性については、その距離が約7〜11cm程度の距離であれば全てのイメージに対して、認識精度が100%であることが示された。   As shown in FIG. 15 (a), regarding the accuracy regarding the distance from the camera to the code, if the distance is about 7 to 11 cm, the recognition accuracy is 100% for all images. It has been shown.

また、図15(b)に示すように、カメラの角度に対しては、約0〜40の角度で、全てのイメージに対して、認識精度が100%であることが示された。   Moreover, as shown in FIG.15 (b), it was shown that the recognition accuracy is 100% with respect to all the images at an angle of about 0 to 40 with respect to the camera angle.

<本実施形態を適用したコンテンツアプリケーション例>
次に、上述した本実施形態を適用したコンテンツアプリケーション例について図を用いて説明する。なお、以下に示す例では、非可視化情報としてのトリミングマーカを備えたARアプリケーションシステムについて説明する。
<Example of content application to which this embodiment is applied>
Next, a content application example to which the above-described embodiment is applied will be described with reference to the drawings. In the following example, an AR application system including a trimming marker as non-visualization information will be described.

<実施例1>
図16は、実施例1におけるARアプリケーションシステムの一例を示す図である。図16(a)では、非可視化情報としてトリミングマーカを用いるイメージの例を示している。トリミングマーカは、図16(a)に示す風車のためのイメージの周囲に埋め込まれる。なお、実施例1においては、周囲全体であってもよく、また周囲の一部の領域であってもよい。
<Example 1>
FIG. 16 is a diagram illustrating an example of the AR application system according to the first embodiment. FIG. 16A shows an example of an image using a trimming marker as non-visualization information. The trimming marker is embedded around the image for the windmill shown in FIG. In the first embodiment, it may be the entire periphery or a part of the periphery.

例えば、ユーザは、例えばスマートフォン等の携帯端末に設けられたカメラによりイメージの写真を撮ることにより、風車のイメージを取得する。また、ユーザは、携帯端末を使って、撮影された画像に含まれるオブジェクトのうち少なくとも1つを選択すると、実施例1におけるARアプリケーションにより、そのオブジェクトに対してトリミングマーカが埋め込まれる。図16の例では、風車にトリミングマーカを埋め込み、埋め込んだ画像(風車)を印刷する。なお、実施例1において、トリミングマーカは、図16(a)に示す複数の風車(オブジェクト)のうち、認識側でトリミングを行う対象の所定の風車(トリミングオブジェクト)に対してのみ行えばよい。   For example, a user acquires an image of a windmill by taking a picture of the image with a camera provided in a mobile terminal such as a smartphone. When the user selects at least one of the objects included in the photographed image using the portable terminal, the AR marker in the first embodiment causes a trimming marker to be embedded in the object. In the example of FIG. 16, the trimming marker is embedded in the windmill, and the embedded image (windmill) is printed. In the first embodiment, the trimming marker may be performed only on a predetermined windmill (trimming object) to be trimmed on the recognition side among the plurality of windmills (objects) illustrated in FIG.

ここで、図16(b)は、非可視化トリミングマーカの構造を示している。トリミングマーカは、高周波部と低周波部とを含み、トリミングマーカの中心には抽出する対象のオブジェクト(トリミングオブジェクト)からなる。トリミングマーカの位置は、オブジェクトの周りに存在する位置検知パターンにより取得される。また、オブジェクトの向き(方向)は、例えば上述した回転検知パターン等をトリミングマーカに埋め込んでおくことで取得することができる。なお、上述の処理は、携帯端末で行われる。したがって、携帯端末には、上述した第1の画像情報取得装置12及び埋込装置13としての機能を有し、それらの機能は、上述した埋込プログラムにおけるARアプリケーションによって実現される。   Here, FIG. 16B shows the structure of the invisible trimming marker. The trimming marker includes a high-frequency part and a low-frequency part, and is composed of an object to be extracted (trimming object) at the center of the trimming marker. The position of the trimming marker is acquired by a position detection pattern existing around the object. Further, the direction (direction) of the object can be acquired by, for example, embedding the rotation detection pattern described above in a trimming marker. Note that the above-described processing is performed by a mobile terminal. Therefore, the portable terminal has functions as the first image information acquisition device 12 and the embedding device 13 described above, and these functions are realized by the AR application in the above-described embedding program.

また、図16(c)は、トリミングマーカによるオブジェクトの抽出例を示す図である。ユーザは、例えばスマートフォン等の携帯端末に設けられたカメラによりトリミングマーカを含む印刷された画像を撮影する。携帯端末(認識装置16)は、上述したように、トリミングマーカの埋め込み位置から高周波部、低周波部の順序で透明化処理を行い、トリミングオブジェクトを背景とは分離した状態で取得する。また、携帯端末は、取得したトリミングオブジェクトを、背景イメージとバーチャルに合成した画像を生成し、画面に表示する。   FIG. 16C is a diagram illustrating an example of extracting an object using a trimming marker. A user photographs a printed image including a trimming marker with a camera provided in a mobile terminal such as a smartphone. As described above, the mobile terminal (recognition device 16) performs the transparency processing in the order of the high-frequency part and the low-frequency part from the embedding position of the trimming marker, and acquires the trimming object in a state separated from the background. In addition, the mobile terminal generates an image obtained by virtually synthesizing the acquired trimming object with the background image, and displays the image on the screen.

次に、取得したトリミングマーカにより抽出されたオブジェクト(風車)がどのように動作するかについて、図を用いて具体的に説明する。図17は、取得したトリミングマーカによる風車の動作例を示す図である。具体的には、図17(a)〜図17(d)の順に動作が遷移する。   Next, how the object (windmill) extracted by the acquired trimming marker operates will be specifically described with reference to the drawings. FIG. 17 is a diagram illustrating an operation example of the windmill by the acquired trimming marker. Specifically, the operation transitions in the order of FIG. 17 (a) to FIG. 17 (d).

例えば、あるユーザが、例えばスマートフォン等の携帯端末を使用して、風車イメージの写真を撮影すると(図17(a))、ターゲットイメージである風車イメージ(トリミングオブジェクト)は、上述した本実施形態による手法により背景イメージから分けられる(図17(b))。その後、風車及び背景イメージは、携帯端末の表示画面に表示される(図17(c))。   For example, when a user takes a picture of a windmill image using a mobile terminal such as a smartphone (FIG. 17A), the windmill image (trimming object) that is a target image is obtained according to the above-described embodiment. It is separated from the background image by the technique (FIG. 17B). Thereafter, the windmill and the background image are displayed on the display screen of the portable terminal (FIG. 17C).

ここで、ユーザは、上述した二次的な指示情報として、スマートフォンに設けられたマイク等の音声入力装置に息や呼吸を吹きかけたり、何か喋ったりすることにより、その音量(ボリューム)又は音の変化を把握し、その変化量に応じて風車を回転させるイメージを作る(図17(d))。なお、どのような二次的な指示情報に対してどのような動作を行うかについては、予め設定されていてもよく、またトリミングマーカの情報から抽出されていてもよい。   Here, as the secondary instruction information described above, the user blows or breathes a voice input device such as a microphone provided on the smartphone or squeezes something, so that the volume (volume) or sound And an image of rotating the windmill according to the amount of change is created (FIG. 17D). It should be noted that what operation is performed for what secondary instruction information may be set in advance or may be extracted from the information of the trimming marker.

なお、上述の処理は、携帯端末で行われる。したがって、携帯端末には、上述した第2の画像情報取得装置15及び認識装置16としての機能を有し、それらの機能は、上述した認識プログラムにおけるARアプリケーションによって実現される。   Note that the above-described processing is performed by a mobile terminal. Therefore, the portable terminal has functions as the second image information acquisition device 15 and the recognition device 16 described above, and these functions are realized by the AR application in the recognition program described above.

なお、実施例1では、上述したトリミングマーカを用いて動作を指示する場合に、画面上にトリミングマーカが複数あれば、各オブジェクト(風車)に対応するトリミングマーカに含まれる埋込情報の指示内容によってオブジェクト毎に動作してもよく、また1つのトリミングマーカに含まれる指示情報によって、抽出された複数のオブジェクトに対して動作内容を指示してもよい。これにより、例えば、複数のオブジェクトで同一の動作を行う場合には、それぞれのオブジェクトに対応するトリミングマーカに対して、動作指示情報等を含む埋込情報を設定する必要がなく、1つの埋込情報により複数のオブジェクトを動作させることができるため、効率的且つ迅速にオブジェクト動作を実現できる。   In the first embodiment, when an operation is instructed using the above-described trimming marker, if there are a plurality of trimming markers on the screen, the content of the embedded information included in the trimming marker corresponding to each object (windmill) May be operated for each object, or the operation content may be instructed to a plurality of extracted objects by instruction information included in one trimming marker. As a result, for example, when the same action is performed on a plurality of objects, it is not necessary to set embedding information including action instruction information etc. for the trimming marker corresponding to each object. Since a plurality of objects can be operated by information, an object operation can be realized efficiently and quickly.

ここで、図18は、画像中に含まれる非可視化情報と動作指示情報との関係を説明するための図である。なお、図18(a)は埋込画像の一例を示し、図18(b)は非可視化情報及び動作指示情報(埋込情報)が埋め込まれたオブジェクトの拡大図(動作指示情報のガイドライン付き)を示し、図18(c)は図18(b)に対応するガイドラインなしの図を示している。   Here, FIG. 18 is a diagram for explaining the relationship between the non-visualization information included in the image and the operation instruction information. 18A shows an example of an embedded image, and FIG. 18B is an enlarged view of an object in which the invisible information and the operation instruction information (embedding information) are embedded (with the operation instruction information guidelines). FIG. 18 (c) shows a diagram without the guideline corresponding to FIG. 18 (b).

次に、図18(a)に示す埋込画像91では、画像中の3つの風車のオブジェクトのうち、2つのオブジェクトに非可視化情報92−1,92−2が埋め込まれている。したがって、上述した実施例1においては、認識装置16において、オブジェクトと認識され抽出されるオブジェクトは、非可視化情報92−1,92−2で囲まれた2つの風車のみとなる。なお、図18(a)〜図18(c)の例では、説明の便宜上、非可視化情報92−1,92−2の外枠が可視化している。   Next, in the embedded image 91 shown in FIG. 18A, the non-visualization information 92-1 and 92-2 are embedded in two objects among the three windmill objects in the image. Therefore, in the first embodiment described above, the objects recognized and extracted by the recognition device 16 are only two windmills surrounded by the non-visualization information 92-1 and 92-2. In the examples of FIGS. 18A to 18C, the outer frames of the non-visualized information 92-1 and 92-2 are visualized for convenience of explanation.

次に、図18(b)の例では、非可視化情報92−2の4隅に動作指示情報(埋込情報)93−1〜93−4が埋め込まれている。なお、図18(b)の例では、動作指示情報93−1〜93−4の埋め込み領域にガイドライン(実線)が示されているが、実際の画像では、図18(c)に示すようになる。   Next, in the example of FIG. 18B, operation instruction information (embedding information) 93-1 to 93-4 is embedded at the four corners of the non-visualization information 92-2. In the example of FIG. 18B, a guideline (solid line) is shown in the embedding area of the operation instruction information 93-1 to 93-4. However, in an actual image, as shown in FIG. Become.

ここで、動作指示情報が非可視化情報のどこに埋め込まれるかについては、本発明においてはこれに限定されるものではなく、例えば非可視化情報の少なくとも1つの隅であってもよく、非可視化情報の外枠上にあってもよい。また、動作指示情報93−1〜93−4を上述した回転検知パターンとして利用することもできる。   Here, where the operation instruction information is embedded in the non-visualized information is not limited to this in the present invention. For example, it may be at least one corner of the non-visualized information. It may be on the outer frame. Further, the operation instruction information 93-1 to 93-4 can be used as the rotation detection pattern described above.

なお、図18(b)に示す動作指示情報93−1〜93−4は、例えば各隅に各4ビットの情報が埋め込まれている。したがって、動作指示情報93−1〜93−4は、この4隅の情報を所定の順序で繋げて全16ビットとして、1つの情報を生成することができる。なお、16ビットを用いることで、65536通りのコードパターンを取得することができるため、コードから得られる情報をIDや動作スイッチとして用いることで、オブジェクトに対して多種の動作内容や表示手法を設定することができる。   In the operation instruction information 93-1 to 93-4 shown in FIG. 18B, for example, 4-bit information is embedded in each corner. Accordingly, the operation instruction information 93-1 to 93-4 can generate one piece of information by connecting the information at the four corners in a predetermined order to make a total of 16 bits. Since 65536 code patterns can be acquired by using 16 bits, various operation contents and display methods can be set for an object by using information obtained from the code as an ID or an operation switch. can do.

更に、実施例1では、上述した4隅の埋込情報に対応する動作を所定の順序及びタイミングで実行させてもよく、また、1つの埋込情報の内容を抽出された全てのオブジェクトに対して実行させてもよい。   Furthermore, in the first embodiment, the operation corresponding to the above-described four corner embedding information may be executed in a predetermined order and timing, and the contents of one embedding information may be applied to all the extracted objects. May be executed.

なお、上述した埋込情報は、予め特定された範囲に埋め込んでおくことで、上述した非可視化情報解析手段46にて解析する際、その特定された範囲を参照することで、即座に埋込情報を取得することができる。   The above-described embedding information is embedded in a previously specified range. When the above-described invisible information analyzing means 46 analyzes the embedding information, it can be immediately embedded by referring to the specified range. Information can be acquired.

<実施例2>
図19は、実施例2におけるARアプリケーションシステムの一例を示す図である。なお、図19におけるARアプリケーションシステムも上述した実施例1と同様に携帯端末を用いて行うことができる。なお、ここで使用される携帯端末は、例えば上述した第2の画像情報取得装置15及び認識装置16としての機能を有する。
<Example 2>
FIG. 19 is a diagram illustrating an example of an AR application system according to the second embodiment. Note that the AR application system in FIG. 19 can also be performed using a portable terminal, as in the first embodiment. Note that the mobile terminal used here has functions as, for example, the second image information acquisition device 15 and the recognition device 16 described above.

実施例2では、例えば絵本等の紙媒体100の中に所定の動作をさせるターゲットであるトリミングオブジェクト101(図19の例では、赤とんぼ)が描かれている。また、トリミングオブジェクト101の周囲には、上述したトリミングマーカ102が埋め込まれている。なお、図19では、説明の便宜上、トリミングマーカ102の外枠を点線で示しているが、実際の紙媒体100には、このような点線は存在しない。   In the second embodiment, for example, a trimming object 101 (red dragonfly in the example of FIG. 19) that is a target for performing a predetermined operation is drawn in a paper medium 100 such as a picture book. Further, the trimming marker 102 described above is embedded around the trimming object 101. In FIG. 19, for convenience of explanation, the outer frame of the trimming marker 102 is indicated by a dotted line, but such a dotted line does not exist in the actual paper medium 100.

また、このトリミングマーカ102内には、図19に示すように、トリミングオブジェクト101の外形の周囲に低周波部103が埋め込まれ、更に低周波部103の外側に高周波部104が埋め込まれている。また、トリミングマーカ102内には、トリミングオブジェクト101に所定の動作を行わせるための動作指示情報105−1〜105−4が埋め込まれている。   In the trimming marker 102, as shown in FIG. 19, a low frequency part 103 is embedded around the outer shape of the trimming object 101, and a high frequency part 104 is embedded outside the low frequency part 103. In the trimming marker 102, operation instruction information 105-1 to 105-4 for causing the trimming object 101 to perform a predetermined operation is embedded.

実施例2では、この紙媒体100を携帯端末等に設けられたカメラ(画像情報取得装置15)等で撮影する。また、携帯端末(認識装置16)は、撮影された画像からトリミングマーカ102を取得する。また、トリミングマーカの4隅には、動作指示情報が埋め込まれており、この動作指示情報の値によってトリミングオブジェクト101の動作を変化させる。   In the second embodiment, the paper medium 100 is photographed by a camera (image information acquisition device 15) provided in a portable terminal or the like. The mobile terminal (recognition device 16) acquires the trimming marker 102 from the captured image. Also, operation instruction information is embedded in the four corners of the trimming marker, and the operation of the trimming object 101 is changed according to the value of the operation instruction information.

ここで、動作指示情報105−1〜105−4は、例えばそれぞれ1ビットずつ情報が埋め込まれている。したがって、動作指示情報105−1〜105−4から動作指示情報を取得するためには、例えば4隅の情報を特定の順序(例えば時計回り)等で読み、例えば読み込んだ結果に応じて予め設定された動作を、背景イメージと分離してバーチャルに合成されているトリミングオブジェクト101に実行させる。具体的には、例えば動作指示情報(4ビット)が「1100」である場合には、トリミングオブジェクト101を右に動かす。また、動作指示情報が、「1010」である場合にはトリミングオブジェクト101を左に動かし、「1111」である場合にはトリミングオブジェクト101をその場で回転させる等といった動作を行うことができる。実施例2における動作内容においては、これに限定されるものではなく、例えばトリミングオブジェクト101である赤とんぼが飛び去る方向を変化させることができる。また、動作指示情報によりトリミングオブジェクトの姿勢(例えば、位置(座標)、向き)や移動速度等を取得することもできる。   Here, in the operation instruction information 105-1 to 105-4, for example, information is embedded by 1 bit. Therefore, in order to obtain the operation instruction information from the operation instruction information 105-1 to 105-4, for example, information on the four corners is read in a specific order (for example, clockwise), and is set in advance according to the read result, for example. The trimming object 101 which is separated from the background image and is virtually combined is executed. Specifically, for example, when the operation instruction information (4 bits) is “1100”, the trimming object 101 is moved to the right. When the operation instruction information is “1010”, the trimming object 101 can be moved to the left, and when it is “1111”, the trimming object 101 can be rotated on the spot. The operation content in the second embodiment is not limited to this, and for example, the direction in which the red dragonfly, which is the trimming object 101, can be changed. Further, the posture (for example, position (coordinates) and direction) of the trimming object, the moving speed, and the like can be acquired from the operation instruction information.

また、上述した動作の実行タイミングは、例えばユーザが、携帯端末の画面に表示されたトリミングオブジェクト101を画面上でタップ(叩く、触れる、擦る等の意味を広く含む)することで、所定の動作させることができるが、本発明においてはこれに限定されるものではない。例えば、携帯端末のインカメラ(ユーザ側カメラ)を用いて明度の変化をリアルタイムで認識し、例えば予め設定された平均明度よりも一定以上低くなった場合に、トリミングオブジェクト101に触ろうとしていると判断して、トリミングオブジェクト101である赤とんぼが飛び去ってしまうような動作を行わせてもよい。   In addition, the execution timing of the above-described operation is determined by, for example, a predetermined operation by tapping the trimming object 101 displayed on the screen of the mobile terminal on the screen (including widely meanings such as hitting, touching, rubbing, etc.). However, the present invention is not limited to this. For example, when the in-camera (user-side camera) of the mobile terminal is used to recognize a change in brightness in real time, and the user tries to touch the trimming object 101 when, for example, the average brightness is lower than a predetermined value, Judgment may be made so as to cause the red dragonfly, which is the trimming object 101, to fly away.

なお、動作指示情報に応じて設定される動作内容については、予め蓄積手段等に蓄積されていてもよく、また予め設定された外部装置等に通信ネットワーク等を介して接続し、接続した外部装置から対象の動作内容を取得してもよい。これにより、例えば同一の動作指示内容でありながら、蓄積手段等に蓄積された動作内容と外部装置から取得される動作内容で異なる動作を行わせることもできる。また、外部装置等から動作内容を取得することで、動作の変更等を外部装置の管理で自由に行うことができる。   Note that the operation content set in accordance with the operation instruction information may be stored in advance in a storage unit or the like, or connected to a preset external device or the like via a communication network or the like, and connected to the external device The operation content of the target may be acquired from. As a result, for example, the same operation instruction content can be used, and different operations can be performed depending on the operation content stored in the storage unit or the like and the operation content acquired from the external device. Further, by acquiring the operation content from an external device or the like, it is possible to freely change the operation by managing the external device.

<実施例3>
図20は、実施例3におけるARアプリケーションシステムの一例を示す図である。なお、図20におけるARアプリケーションシステムも上述した実施例2と同様に携帯端末を用いて行うことができる。
<Example 3>
FIG. 20 is a diagram illustrating an example of an AR application system according to the third embodiment. Note that the AR application system in FIG. 20 can also be performed using a portable terminal, as in the second embodiment.

実施例3では、例えば絵本等の紙媒体110の中に所定の動作をさせるターゲットである複数のトリミングオブジェクト111−1〜111−4(図20の例では、鯉)が描かれている。また、各トリミングオブジェクト111−1〜111−4の周囲には、上述したトリミングマーカ112−1〜112−4が、各トリミングオブジェクトに対応させて埋め込まれている。   In the third embodiment, for example, a plurality of trimming objects 111-1 to 111-4 (in the example of FIG. 20) that are targets for performing a predetermined operation are drawn in a paper medium 110 such as a picture book. Further, the trimming markers 112-1 to 112-4 described above are embedded around the respective trimming objects 111-1 to 111-4 so as to correspond to the respective trimming objects.

このトリミングマーカ112−1〜112−4内には、図19と同様に各トリミングオブジェクト111−1〜111−4の外形の周囲に低周波部が埋め込まれ、更に低周波部の外側に高周波部が埋め込まれている。また、トリミングマーカ112−1〜112−4内には、各トリミングオブジェクト111−1〜111−4に所定の動作を行わせるための動作指示情報が埋め込まれている。   In the trimming markers 112-1 to 112-4, a low frequency part is embedded around the outer shape of each trimming object 111-1 to 111-4 as in FIG. 19, and a high frequency part is further outside the low frequency part. Is embedded. In the trimming markers 112-1 to 112-4, operation instruction information for causing the trimming objects 111-1 to 111-4 to perform a predetermined operation is embedded.

実施例3では、この紙媒体110を携帯端末等に設けられたカメラ(画像情報取得装置15)等で撮影する。また、携帯端末(認識装置16)は、撮影された画像からトリミングマーカ112−1〜112−4を取得する。又、携帯端末は、取得したトリミングマーカ112−1〜112−4に基づいて、トリミングしたトリミングオブジェクト111−1〜111−4である鯉と背景画像とを分離し、これをバーチャルに合成した画像を生成し画面に表示する。   In the third embodiment, the paper medium 110 is photographed by a camera (image information acquisition device 15) provided in a portable terminal or the like. The mobile terminal (recognition device 16) acquires the trimming markers 112-1 to 112-4 from the captured image. Further, the mobile terminal separates the trimmed trimming objects 111-1 to 111-4 from the trimming objects 111-1 to 111-4 and the background image based on the acquired trimming markers 112-1 to 112-4, and virtually combines these images. Is generated and displayed on the screen.

なお、トリミングマーカ112−1〜112−4内には、上述したように、動作指示情報が埋め込まれており、この動作指示情報の値によって、上述した実施例と同様に各トリミングオブジェクト111−1〜111−4の動作を変化させる。なお、この動作指示情報は、4隅ではなく、例えばトリミングマーカ112−1〜112−4内の周囲に埋め込まれていてもよく、予め設定されたトリミングマーカ内の所定の位置に埋め込まれていればよい。   As described above, the operation instruction information is embedded in the trimming markers 112-1 to 112-4, and each trimming object 111-1 is determined according to the value of the operation instruction information as in the above-described embodiment. The operation of ˜111-4 is changed. The operation instruction information may be embedded not in the four corners but around the trimming markers 112-1 to 112-4, for example, or at a predetermined position in the preset trimming marker. That's fine.

例えば、実施例3では、ユーザの手113で撮影された画像が表示された画面をタップすると、波紋が広がり、各トリミングオブジェクト111−1〜111−4である鯉が放射線状に逃げ出す動作を行う。具体的には、例えばユーザの手113の指先で画面がタップされると、携帯端末(認識装置16)がタップされた座標と各トリミングオブジェクト111−1〜111−4である鯉の座標を取得し、取得したそれぞれの座標を用いて、各トリミングオブジェクト111−1〜111−4の進む方向ベクトルを生成する。   For example, in the third embodiment, when a screen on which an image photographed by the user's hand 113 is displayed is tapped, a ripple spreads, and an operation is performed in which the wrinkles that are the trimming objects 111-1 to 111-4 escape radially. . Specifically, for example, when the screen is tapped with the fingertip of the user's hand 113, the coordinates where the mobile terminal (recognition device 16) is tapped and the coordinates of the eyelids that are the trimming objects 111-1 to 111-4 are acquired. Then, using each acquired coordinate, a direction vector in which each trimming object 111-1 to 111-4 proceeds is generated.

なお、この場合には、動作指示情報に、各トリミングオブジェクト111−1〜111−4がどちらを向いているかの角度情報を埋め込んでおく。また、動作指示情報は、例えばトリミングマーカ112−1〜112−4の4隅ではなく、各マーカの周囲に8ビットの情報を埋め込み、0〜360度で表現できるようにすることもできる。   In this case, angle information indicating which of the trimming objects 111-1 to 111-4 is facing is embedded in the operation instruction information. Further, the operation instruction information can be expressed by 0 to 360 degrees by embedding 8-bit information around each marker instead of the four corners of the trimming markers 112-1 to 112-4, for example.

更に、携帯端末は、その方向ベクトルを正規化することで、各トリミングオブジェクト111−1〜111−4の進む速度を調節する。このようにベクトルを生成することで、携帯端末上の画面上のどこをタップしても、各トリミングオブジェクト111−1〜111−4が放射線状に逃げるように動作させることができる。   Furthermore, the mobile terminal adjusts the speed of the trimming objects 111-1 to 111-4 by normalizing the direction vector. By generating the vector in this way, the trimming objects 111-1 to 111-4 can be operated so as to escape in a radial pattern regardless of where the user taps on the screen on the mobile terminal.

<実施例4>
図21は、実施例4におけるARアプリケーションシステムの一例を示す図である。なお、図21におけるARアプリケーションシステムも上述した実施例2と同様に携帯端末を用いて行うことができる。
<Example 4>
FIG. 21 is a diagram illustrating an example of the AR application system according to the fourth embodiment. Note that the AR application system in FIG. 21 can also be performed using a portable terminal, as in the second embodiment.

実施例4では、例えばファッション雑誌等の紙媒体120の中に所定の動作をさせるターゲットである複数のトリミングオブジェクト121−1,121−2(図21の例では、衣類)が描かれている。また、トリミングオブジェクト121−1,121−2の周囲には、上述したトリミングマーカ122−1,122−2が、各トリミングオブジェクト121−1,121−2に対応させて埋め込まれている。   In the fourth embodiment, for example, a plurality of trimming objects 121-1 and 121-2 (clothing in the example of FIG. 21) are drawn in a paper medium 120 such as a fashion magazine. Further, the trimming markers 122-1 and 122-2 are embedded around the trimming objects 121-1 and 121-2 so as to correspond to the respective trimming objects 121-1 and 121-2.

実施例4では、この紙媒体120を携帯端末等に設けられたカメラ(画像情報取得装置15)等で撮影する。また、携帯端末(認識装置16)は、撮影された画像からトリミングマーカ122−1,122−2を取得する。また、携帯端末は、取得したトリミングマーカ122−1,122−2に基づいて、トリミングしたトリミングオブジェクト121−1,121−2である衣類と背景画像とを分離し、これをバーチャルに合成した画像を生成し、画面130に表示する。また、トリミングされた画像は画面上に拡大・縮小、回転、移動が可能であり、ユーザは商品を撮影する毎に画面上に衣類等の画像が追加されるため、自分の好きなようにコーディネートを楽しむことができる。   In the fourth embodiment, the paper medium 120 is photographed by a camera (image information acquisition device 15) provided in a portable terminal or the like. In addition, the mobile terminal (recognition device 16) acquires the trimming markers 122-1 and 122-2 from the captured image. In addition, the mobile terminal separates the trimmed trimming objects 121-1 and 121-2 from the clothing and the background image based on the acquired trimming markers 122-1 and 122-2, and virtually combines these images. Is generated and displayed on the screen 130. In addition, the trimmed image can be enlarged / reduced, rotated and moved on the screen, and each time a product is photographed, the user adds an image of clothing etc. on the screen, so it can be coordinated as desired. Can enjoy.

したがって、実施例4では、上述した機能を行うことで、例えばファッションコーディネイトアプリとして提供することができる。具体的には、ファッション雑誌等に掲載されている服のオブジェクト131−1やスカートのオブジェクト131−2、靴のオブジェクト131−3等の商品にトリミングマーカを埋め込み、ユーザが気に入った商品を携帯端末で撮影すると、それぞれの商品が携帯端末の画面130上に切り出されて画面に表示される。ユーザは、携帯端末の画面130に表示される各商品から好みのものをユーザの手132で選択し、移動させることで画面130上でバーチャルにコーディネートすることができる。   Therefore, in Example 4, it can provide as a fashion coordinate application, for example by performing the function mentioned above. Specifically, a trimming marker is embedded in a product such as a clothing object 131-1, a skirt object 131-2, or a shoe object 131-3 that is published in a fashion magazine, etc. When shooting at, each product is cut out on the screen 130 of the mobile terminal and displayed on the screen. The user can virtually coordinate on the screen 130 by selecting and moving his / her favorite items displayed on the screen 130 of the mobile terminal with the user's hand 132.

なお、実施例4では衣類に限定されるものではなく、例えば、帽子や眼鏡、アクセサリー、鞄等も含み、また顔画像等を取り込んで自分の顔に合わせてコーディネートすることもできる。   In addition, in Example 4, it is not limited to clothing, For example, a hat, glasses, accessories, a bag, etc. are included, and a face image etc. can be taken in and it can coordinate with one's face.

また、上述したファッションコーディネイトアプリの場合には、例えば商品の裏側の画像(例えば、上着やスカートの裏側のデザイン等)や値段、色情報等をトリミングマーカ内に埋め込まれた動作指示情報から取得することができる。なお、例えば裏側のデザイン画像等のようにデータ容量の大きくなる場合には、Web等によるブラウザ表示により画像を閲覧することもできる。つまり、動作指示情報は、例えば埋め込む情報が小さい場合いには(例えば数ビット程度)マーカの4隅や周囲にそれぞれの情報を埋め込み、埋め込む情報が大きい場合には、情報のID(識別情報)のみを埋め込んでおき、トリミングを行うと同時に所定の外部装置(サーバ)にIDを送り、対応する情報をWeb等から取得することができる。   In the case of the above-described fashion coordinate application, for example, an image on the back side of a product (for example, a design on the back side of a jacket or a skirt), a price, color information, etc. are acquired from operation instruction information embedded in a trimming marker. can do. For example, when the data capacity is large, such as a design image on the back side, the image can be browsed by browser display on the Web or the like. That is, for example, when the information to be embedded is small (for example, about several bits), the operation instruction information is embedded at the four corners or the periphery of the marker, and when the information to be embedded is large, the information ID (identification information) In the process, trimming is performed, and at the same time, an ID is sent to a predetermined external device (server), and corresponding information can be acquired from the Web or the like.

ここで、上述した各実施例では、トリミングマーカを認識した後、動作指示情報に伴う動作を直ぐに行ってもよく、認識してから所定時間経過後に行ってもよく、更に認識した後、ユーザにより携帯端末(認識装置)に対して所定の動作や操作が行われたときに行ってもよい。   Here, in each of the embodiments described above, after recognizing the trimming marker, the operation associated with the operation instruction information may be performed immediately, or may be performed after a predetermined time has elapsed since the recognition, and after further recognition, You may perform when predetermined operation | movement and operation are performed with respect to the portable terminal (recognition apparatus).

また、複数のオブジェクトに対して動作を行わせる場合には、それぞれのオブジェクトに対して動作指示情報で設定しておいてもよく、それぞれの動作指示情報から複数のオブジェクトに対して複合的な処理を行わせることもできる。なお、複合的な動作とは、例えば、2人の人間のオブジェクトがあった場合に、2人が肩を組んだり、握手をしたり、肩車をする等といった動作であるであるが、本発明においてはこれに限定されるものではない。   In addition, when performing an action on a plurality of objects, each object may be set with action instruction information, and complex processing for a plurality of objects from each action instruction information may be performed. Can also be performed. Note that the composite operation is an operation in which, for example, when there are two human objects, the two people cross shoulders, shake hands, or carry a shoulder wheel. However, the present invention is not limited to this.

更に、本実施形態においては、動作指示情報として、他のオブジェクトに対する動作を含めることもできる。これにより、オブジェクト全体として統一した動作を行わせることができる。なお、統一した動作とは、例えば複数の人間のオブジェクトの全員が手を振るといった動作である。また、動作指示情報として、例えば、オブジェクトが人物である場合に、その人物に関する情報(氏名、年齢、性別等)やホームページ、ブログ等のアドレス等の付加情報を埋め込むこともできる。更に、付加情報として、トリミングオブジェクトとは別の他のオブジェクトを画面に表示させるための情報を付加することもできる。   Furthermore, in the present embodiment, the motion instruction information can include motions for other objects. This makes it possible to perform a unified operation for the entire object. The unified operation is an operation in which all of a plurality of human objects shake hands, for example. Further, as the operation instruction information, for example, when the object is a person, additional information such as information on the person (name, age, gender, etc.), an address of a homepage, a blog, etc. can be embedded. Further, as additional information, information for displaying another object different from the trimming object on the screen can be added.

また、他の実施例としては、例えば商品や食品の包装や箱、容器、又は説明書等に上述したトリミングマーカを埋め込んでおき、それをカメラで撮影して画像を認識することで、その商品の説明書や使用方法、調理法等を画面に表示することできる。例えば、例えばトリミングオブジェクトとして化粧品(例えば、口紅、アイシャドウ、マスカラ等)があった場合に、トリミングマーカによりその化粧品等の色情報を取得し、自分又は他人の顔画像に対して色情報を用いてメーキャップすることもできる。   Further, as another embodiment, for example, the above-described trimming marker is embedded in a product or food packaging, box, container, or manual, and the image is recognized by photographing it with a camera. Instructions, usage instructions, cooking methods, etc. can be displayed on the screen. For example, when there is a cosmetic product (for example, lipstick, eye shadow, mascara, etc.) as a trimming object, the color information of the cosmetic product is acquired by the trimming marker, and the color information is used for the face image of oneself or another person. You can also make up.

なお、上述した実施例2〜4に示す紙媒体100,110,120は、画面に表示された画像であってもよい。また、画像には、映像も含まれる。   Note that the paper media 100, 110, and 120 shown in the second to fourth embodiments may be images displayed on a screen. The image also includes a video.

上述したように本発明によれば、非可視化情報の埋め込みや抽出を迅速に行うと共に付加価値性に優れた高精度なコンテンツを提供することができる。   As described above, according to the present invention, it is possible to quickly embed and extract non-visualized information and provide highly accurate content with excellent added value.

以上本発明の好ましい実施例等について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。   The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims. Can be changed.

10 コンテンツ提供システム
11 第1の印刷媒体
12 第1の画像情報取得装置
13 埋込装置
14 第2の印刷媒体
15 第2の画像情報取得装置
16 認識装置
21,41 入力手段
22,42 出力手段
23,43 蓄積手段
24 画像取得手段
25 画像解析手段
26 埋込対象オブジェクト設定手段
27 埋込情報設定手段
28 埋込情報生成手段
29 非可視化情報埋込手段
30,48 送受信手段
31,49 制御手段
44 埋込画像取得手段
45 オブジェクト抽出手段
46 非可視化情報解析手段
47 表示情報生成手段
51 入力装置
52 出力装置
53 ドライブ装置
54 補助記憶装置
55 メモリ装置
56 CPU
57 ネットワーク接続装置
58 記録媒体
61 画像データ(撮影画像)
62,131 オブジェクト
63 外枠
64 輪郭
65 コード内枠
66,104 高周波部
67,103 低周波部
71 トリミング画像
81 位置検知パターン
82 回転検知パターン
84 エッジ
91 埋込画像
92 非可視化情報
93 動作指示情報(埋込情報)
100,110,120 紙媒体
101,111,121 トリミングオブジェクト
102、112,122 トリミングマーカ
105 動作指示情報
113,132 手
130 画面
DESCRIPTION OF SYMBOLS 10 Content provision system 11 1st print medium 12 1st image information acquisition apparatus 13 Embedding apparatus 14 2nd print medium 15 2nd image information acquisition apparatus 16 Recognition apparatus 21,41 Input means 22,42 Output means 23 , 43 Storage means 24 Image acquisition means 25 Image analysis means 26 Embedding object setting means 27 Embedding information setting means 28 Embedding information generating means 29 Non-visualized information embedding means 30, 48 Transmission / reception means 31, 49 Control means 44 Embedding Embedded image acquisition means 45 object extraction means 46 non-visualization information analysis means 47 display information generation means 51 input device 52 output device 53 drive device 54 auxiliary storage device 55 memory device 56 CPU
57 Network connection device 58 Recording medium 61 Image data (captured image)
62, 131 Object 63 Outer frame 64 Contour 65 Code inner frame 66, 104 High frequency section 67, 103 Low frequency section 71 Trimmed image 81 Position detection pattern 82 Rotation detection pattern 84 Edge 91 Embedded image 92 Non-visualized information 93 Operation instruction information ( Embedded information)
100, 110, 120 Paper medium 101, 111, 121 Trimming object 102, 112, 122 Trimming marker 105 Operation instruction information 113, 132 Hand 130 Screen

本発明は、取得した画像の所定の位置に非可視化情報を埋め込む非可視化情報の埋込装置と、該埋込装置により得られる画像に含まれるオブジェクト及び非可視化情報を認識する認識装置とからなる非可視化情報を用いたコンテンツ提供システムにおいて、前記埋込装置は、前記取得した画像に含まれるオブジェクトから非可視化情報を埋め込むオブジェクトを設定する埋込対象オブジェクト設定手段と、前記埋込対象オブジェクト設定手段により得られるオブジェクトの周囲に前記オブジェクトに対応する前記非可視化情報を埋め込む非可視化情報埋込手段とを有し、前記認識装置は、前記画像中に含まれる非可視化情報の埋め込み領域に囲まれたオブジェクトを抽出するオブジェクト抽出手段と、前記オブジェクト抽出手段により前記オブジェクトが抽出された場合、前記非可視化情報から、前記オブジェクトに対する処理内容を解析する非可視化情報解析手段と、前記非可視化情報解析手段により得られる処理内容に対応させて画面に表示させるオブジェクトを生成する表示情報生成手段とを有することを特徴とすThe present invention comprises a non-visualization information embedding device for embedding non-visualization information at a predetermined position of an acquired image, and a recognition device for recognizing an object and non-visualization information included in the image obtained by the embedding device. In the content providing system using non-visualization information, the embedding device includes an embedding target object setting unit that sets an object in which the non-visualization information is embedded from an object included in the acquired image, and the embedding target object setting unit. A non-visualization information embedding unit that embeds the non-visualization information corresponding to the object around the object obtained by the step, and the recognition device is surrounded by an embedding region of the non-visualization information included in the image An object extracting means for extracting an object, and the object extracting means by the object extracting means; When the object is extracted, a non-visualization information analysis unit that analyzes the processing content of the object is generated from the de-visualization information, and an object that is displayed on the screen corresponding to the processing content obtained by the non-visualization information analysis unit it has a display information generating means for you characterized.

また本発明は、取得した画像の所定の位置に非可視化情報を埋め込む非可視化情報の埋込装置において、前記画像に含まれるオブジェクト及び該オブジェクトの位置情報を取得する画像解析手段と、前記画像解析手段により得られたオブジェクトから前記非可視化情報の埋め込み対象となるオブジェクトを設定する埋込対象オブジェクト設定手段と、前記埋込対象オブジェクト設定手段により得られるオブジェクトに対し、前記画像解析手段により得られる前記オブジェクトの位置情報に基づいて、前記オブジェクトの周囲に前記オブジェクトに対応するオブジェクト抽出用の非可視化情報を埋め込む非可視化情報埋込手段とを有することを特徴とする。 Further, the present invention provides an invisible information embedding apparatus for embedding invisible information at a predetermined position of an acquired image, an image analysis means for acquiring an object included in the image and position information of the object, and the image analysis The object obtained by the means is obtained by the image analysis means for the embedding target object setting means for setting the object to be embedded of the invisible information and the object obtained by the embedding target object setting means. based on the position information of the object, around the object, and having a non-visible information embedding means for embedding an invisible information for object extraction corresponding to the object.

また本発明は、取得した画像に含まれるオブジェクト及び非可視化情報を認識する認識装置において、前記画像中に含まれる非可視化情報の埋め込み領域に囲まれたオブジェクトを抽出するオブジェクト抽出手段と、前記オブジェクト抽出手段により前記オブジェクトが抽出された場合、前記非可視化情報から、前記オブジェクトに対する処理内容を解析する非可視化情報解析手段と、前記非可視化情報解析手段により得られる処理内容に対応させて画面に表示させるオブジェクトを生成する表示情報生成手段とを有することを特徴とする。

In the recognition apparatus for recognizing an object and non-visualization information included in an acquired image, the object extraction means for extracting an object surrounded by an embedding area of the non-visualization information included in the image, and the object When the object is extracted by the extracting means, the non-visualized information analyzing means for analyzing the processing content for the object from the non-visualizing information and the processing content obtained by the non-visualizing information analyzing means are displayed on the screen. Display information generating means for generating an object to be generated.

Claims (15)

取得した画像の所定の位置に非可視化情報を埋め込む非可視化情報の埋込装置と、該埋込装置により得られる画像に含まれるオブジェクト及び非可視化情報を認識する認識装置とからなる非可視化情報を用いたコンテンツ提供システムにおいて、
前記埋込装置は、
前記取得した画像に含まれるオブジェクトから非可視化情報を埋め込むオブジェクトを設定する埋込対象オブジェクト設定手段と、
前記埋込対象オブジェクト設定手段により得られるオブジェクトの周囲に前記オブジェクトに対応する前記非可視化情報を埋め込む非可視化情報埋込手段とを有し、
前記認識装置は、
前記画像中に含まれる非可視化情報の埋め込み領域からオブジェクトを抽出するオブジェクト抽出手段と、
前記オブジェクト抽出手段により前記オブジェクトが抽出された場合、前記非可視化情報から、前記オブジェクトに対する処理内容を解析する非可視化情報解析手段と、
前記非可視化情報解析手段により得られる処理内容に対応させて画面に表示させるオブジェクトを生成する表示情報生成手段とを有することを特徴とするコンテンツ提供システム。
Non-visualization information comprising an invisible information embedding device for embedding non-visualization information at a predetermined position of an acquired image, and a recognition device for recognizing the object and non-visualization information included in the image obtained by the embedding device. In the content provision system used,
The implanting device comprises:
An embedding target object setting means for setting an object for embedding non-visualization information from an object included in the acquired image;
A non-visualization information embedding unit for embedding the non-visualization information corresponding to the object around the object obtained by the embedding target object setting unit,
The recognition device is
An object extracting means for extracting an object from an embedding area of non-visualization information included in the image;
When the object is extracted by the object extraction means, from the non-visualization information, non-visualization information analysis means for analyzing the processing content for the object;
A content providing system comprising: display information generating means for generating an object to be displayed on the screen in correspondence with the processing content obtained by the invisible information analyzing means.
取得した画像の所定の位置に非可視化情報を埋め込む非可視化情報の埋込装置において、
前記画像に含まれるオブジェクト及び位置情報を取得する画像解析手段と、
前記画像解析手段により得られたオブジェクトから前記画像が埋め込み対象のオブジェクトを設定する埋込対象オブジェクト設定手段と、
前記埋込対象オブジェクト設定手段により得られるオブジェクトの周囲に前記オブジェクトに対応する前記非可視化情報を埋め込む非可視化情報埋込手段とを有することを特徴とする埋込装置。
In the non-visualization information embedding device for embedding the non-visualization information at a predetermined position of the acquired image,
Image analysis means for acquiring object and position information included in the image;
An embedding target object setting unit for setting an object to be embedded by the image from the object obtained by the image analysis unit;
An embedding apparatus comprising: non-visualization information embedding means for embedding the non-visualization information corresponding to the object around the object obtained by the embedding target object setting means.
前記非可視化情報埋込手段により埋め込まれる前記非可視化情報の埋め込み内容を設定する埋込情報設定手段と、
前記埋込情報設定手段により設定された埋込情報から非可視化された埋込情報を生成する埋込情報生成手段とを有することを特徴とする請求項2に記載の埋込装置。
Embedded information setting means for setting the embedded contents of the invisible information embedded by the invisible information embedding means;
3. The embedding apparatus according to claim 2, further comprising embedding information generation means for generating invisible embedding information from the embedding information set by the embedding information setting means.
前記埋込情報設定手段は、
前記非可視化情報の形態を2次元コードとし、前記2次元コードのコード部を原画像の明度に対する低周波部及び/又は高周波部で構成することを特徴とする請求項3に記載の埋込装置。
The embedded information setting means includes:
4. The embedding apparatus according to claim 3, wherein the form of the invisible information is a two-dimensional code, and the code part of the two-dimensional code is composed of a low-frequency part and / or a high-frequency part for the brightness of the original image. .
前記非可視化情報埋込手段は、
前記画像解析手段により取得されるオブジェクトの位置情報に基づいて、前記オブジェクトに対応する非可視化情報を合成することを特徴とする請求項2乃至4の何れか1項に記載の埋込装置。
The invisible information embedding means is
5. The embedding device according to claim 2, wherein the invisible information corresponding to the object is synthesized based on the position information of the object acquired by the image analysis unit.
取得した画像に含まれるオブジェクト及び非可視化情報を認識する認識装置において、
前記画像中に含まれる非可視化情報の埋め込み領域からオブジェクトを抽出するオブジェクト抽出手段と、
前記オブジェクト抽出手段により前記オブジェクトが抽出された場合、前記非可視化情報から、前記オブジェクトに対する処理内容を解析する非可視化情報解析手段と、
前記非可視化情報解析手段により得られる処理内容に対応させて画面に表示させるオブジェクトを生成する表示情報生成手段とを有することを特徴とする認識装置。
In a recognition device for recognizing objects and non-visualization information included in an acquired image,
An object extracting means for extracting an object from an embedding area of non-visualization information included in the image;
When the object is extracted by the object extraction means, from the non-visualization information, non-visualization information analysis means for analyzing the processing content for the object;
A recognition apparatus comprising: display information generating means for generating an object to be displayed on the screen in correspondence with the processing content obtained by the invisible information analyzing means.
前記オブジェクト抽出手段は、
前記画像を所定の周波数を用いてフィルタリング処理を行い、取得した周波数に対応する領域から非可視化情報を抽出することを特徴とする請求項6に記載の認識装置。
The object extraction means includes
The recognition apparatus according to claim 6, wherein the image is subjected to a filtering process using a predetermined frequency, and non-visualized information is extracted from a region corresponding to the acquired frequency.
取得した画像の所定の位置に非可視化情報を埋め込む非可視化情報の埋込方法において、
前記画像に含まれるオブジェクト及び位置情報を取得する画像解析ステップと、
前記画像解析ステップにより得られたオブジェクトから前記画像が埋め込み対象のオブジェクトを設定する埋込対象オブジェクト設定ステップと、
前記埋込対象オブジェクト設定ステップにより得られるオブジェクトの周囲に前記オブジェクトに対応する前記非可視化情報を埋め込む非可視化情報埋込ステップとを有することを特徴とする埋込方法。
In the non-visualization information embedding method of embedding the non-visualization information at a predetermined position of the acquired image,
An image analysis step of acquiring object and position information included in the image;
An embedding target object setting step in which the image is set as an embedding target object from the object obtained by the image analysis step;
A non-visualization information embedding step of embedding the non-visualization information corresponding to the object around the object obtained by the embedding target object setting step.
前記非可視化情報埋込ステップにより埋め込まれる前記非可視化情報の埋め込み内容を設定する埋込情報設定ステップと、
前記埋込情報設定ステップにより設定された埋込情報から非可視化された埋込情報を生成する非可視化情報生成ステップとを有することを特徴とする請求項8に記載の埋込方法。
An embedding information setting step for setting an embedding content of the invisibility information embedded in the invisibility information embedding step;
9. The embedding method according to claim 8, further comprising a non-visualized information generating step of generating invisible embedded information from the embedded information set by the embedded information setting step.
前記埋込情報設定ステップは、
前記非可視化情報の形態を2次元コードとし、前記2次元コードのコード部を原画像の明度に対する低周波部及び/又は高周波部で構成することを特徴とする請求項9に記載の埋込方法。
The embedded information setting step includes:
The embedding method according to claim 9, wherein the form of the invisible information is a two-dimensional code, and the code part of the two-dimensional code is composed of a low frequency part and / or a high frequency part for the brightness of the original image. .
前記非可視化情報埋込ステップは、
前記画像解析ステップにより取得されるオブジェクトの位置情報に基づいて、前記オブジェクトに対応する非可視化情報を合成することを特徴とする請求項8乃至10の何れか1項に記載の埋込方法。
The invisible information embedding step includes:
The embedding method according to any one of claims 8 to 10, wherein non-visualization information corresponding to the object is synthesized based on the position information of the object acquired by the image analysis step.
取得した画像に含まれるオブジェクト及び非可視化情報を認識する認識方法において、
前記画像中に含まれる非可視化情報の埋め込み領域からオブジェクトを抽出するオブジェクト抽出ステップと、
前記オブジェクト抽出ステップにより前記オブジェクトが抽出された場合、前記非可視化情報から、前記オブジェクトに対する処理内容を解析する非可視化情報解析ステップと、
前記非可視化情報解析ステップにより得られる処理内容に対応させて画面に表示させるオブジェクトを生成する表示情報生成ステップとを有することを特徴とする認識方法。
In a recognition method for recognizing an object and non-visualization information included in an acquired image,
An object extraction step of extracting an object from an embedded region of the invisible information included in the image;
When the object is extracted by the object extraction step, from the non-visualization information, a non-visualization information analysis step of analyzing a processing content for the object;
And a display information generating step for generating an object to be displayed on the screen in correspondence with the processing content obtained by the invisible information analyzing step.
前記オブジェクト抽出ステップは、
前記画像を所定の周波数を用いてフィルタリング処理を行い、取得した周波数に対応する領域から非可視化情報を抽出し、抽出した領域を所定の画素ですることを特徴とする請求項12に記載の認識方法。
The object extraction step includes:
The recognition according to claim 12, wherein the image is filtered using a predetermined frequency, non-visualization information is extracted from a region corresponding to the acquired frequency, and the extracted region is a predetermined pixel. Method.
コンピュータを、請求項2乃至5の何れか1項に記載の埋込装置が有する各手段として機能させるための埋込プログラム。   The embedding program for functioning a computer as each means which the embedding apparatus of any one of Claim 2 thru | or 5 has. コンピュータを、請求項6又は7に記載の認識装置が有する各手段として機能させるための認識プログラム。   The recognition program for functioning a computer as each means which the recognition apparatus of Claim 6 or 7 has.
JP2011187597A 2010-12-07 2011-08-30 Content providing system using invisible information, invisible information embedding device, recognition device, embedding method, recognition method, embedding program, and recognition program Active JP4972712B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011187597A JP4972712B1 (en) 2010-12-07 2011-08-30 Content providing system using invisible information, invisible information embedding device, recognition device, embedding method, recognition method, embedding program, and recognition program
PCT/JP2011/078315 WO2012077715A1 (en) 2010-12-07 2011-12-07 Content-providing system using invisible information, invisible information embedding device, recognition device, embedding method, recognition method, embedding program, and recognition program
TW100145223A TW201237802A (en) 2010-12-07 2011-12-07 Content-providing system using invisible information, invisible information embedding device, recognition device, embedding method, recognition method, embedding program, and recognition program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010272994 2010-12-07
JP2010272994 2010-12-07
JP2011187597A JP4972712B1 (en) 2010-12-07 2011-08-30 Content providing system using invisible information, invisible information embedding device, recognition device, embedding method, recognition method, embedding program, and recognition program

Publications (2)

Publication Number Publication Date
JP4972712B1 JP4972712B1 (en) 2012-07-11
JP2012138892A true JP2012138892A (en) 2012-07-19

Family

ID=46207201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011187597A Active JP4972712B1 (en) 2010-12-07 2011-08-30 Content providing system using invisible information, invisible information embedding device, recognition device, embedding method, recognition method, embedding program, and recognition program

Country Status (3)

Country Link
JP (1) JP4972712B1 (en)
TW (1) TW201237802A (en)
WO (1) WO2012077715A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014045505A1 (en) * 2012-09-18 2014-03-27 株式会社ソニー・コンピュータエンタテインメント Information processing device and information processing method
JP2016511471A (en) * 2013-02-22 2016-04-14 サムスン エレクトロニクス カンパニー リミテッド Method for controlling display of a plurality of objects by movement-related input to portable terminal and portable terminal
JP2017183942A (en) * 2016-03-29 2017-10-05 株式会社リコー Information processing device
JP2019009748A (en) * 2017-06-28 2019-01-17 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP7451159B2 (en) 2019-12-09 2024-03-18 キヤノン株式会社 Image processing device, image processing method, and program

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9258485B2 (en) 2014-03-24 2016-02-09 Omnivision Technologies, Inc. Image sensor cropping images in response to cropping coordinate feedback
TWI533633B (en) * 2014-04-03 2016-05-11 揚昇照明股份有限公司 Device and program of wireless transmission system
TWI708164B (en) * 2019-03-13 2020-10-21 麗寶大數據股份有限公司 Virtual make-up system and virtual make-up coloring method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0659600A (en) * 1992-08-06 1994-03-04 Matsushita Electric Ind Co Ltd Image processor
JPH1141453A (en) * 1997-07-24 1999-02-12 Nippon Telegr & Teleph Corp <Ntt> Imbedded electronic watermark read processing method, storage medium for imbedded electronic watermark processing program and electronic watermark read processing program storage medium
JP2002118736A (en) * 2000-10-10 2002-04-19 Konica Corp Electronic watermark inserting device and electronic watermark extracting apparatus, and electronic watermark system
JP2004194233A (en) * 2002-12-13 2004-07-08 Mitsubishi Electric Corp Contents management apparatus and contents distribution apparatus
JP2007088801A (en) * 2005-09-22 2007-04-05 Nippon Hoso Kyokai <Nhk> Contents transmitter, contents receiver and contents acquisition apparatus
JP2010147778A (en) * 2008-12-18 2010-07-01 Fujitsu Ltd Image marker attachment device, method and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0659600A (en) * 1992-08-06 1994-03-04 Matsushita Electric Ind Co Ltd Image processor
JPH1141453A (en) * 1997-07-24 1999-02-12 Nippon Telegr & Teleph Corp <Ntt> Imbedded electronic watermark read processing method, storage medium for imbedded electronic watermark processing program and electronic watermark read processing program storage medium
JP2002118736A (en) * 2000-10-10 2002-04-19 Konica Corp Electronic watermark inserting device and electronic watermark extracting apparatus, and electronic watermark system
JP2004194233A (en) * 2002-12-13 2004-07-08 Mitsubishi Electric Corp Contents management apparatus and contents distribution apparatus
JP2007088801A (en) * 2005-09-22 2007-04-05 Nippon Hoso Kyokai <Nhk> Contents transmitter, contents receiver and contents acquisition apparatus
JP2010147778A (en) * 2008-12-18 2010-07-01 Fujitsu Ltd Image marker attachment device, method and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014045505A1 (en) * 2012-09-18 2014-03-27 株式会社ソニー・コンピュータエンタテインメント Information processing device and information processing method
JP2014059758A (en) * 2012-09-18 2014-04-03 Sony Computer Entertainment Inc Information processing device and information processing method
JP2016511471A (en) * 2013-02-22 2016-04-14 サムスン エレクトロニクス カンパニー リミテッド Method for controlling display of a plurality of objects by movement-related input to portable terminal and portable terminal
US10775896B2 (en) 2013-02-22 2020-09-15 Samsung Electronics Co., Ltd. Method for controlling display of multiple objects depending on input related to operation of mobile terminal, and mobile terminal therefor
JP2017183942A (en) * 2016-03-29 2017-10-05 株式会社リコー Information processing device
JP2019009748A (en) * 2017-06-28 2019-01-17 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP7451159B2 (en) 2019-12-09 2024-03-18 キヤノン株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
WO2012077715A1 (en) 2012-06-14
JP4972712B1 (en) 2012-07-11
TW201237802A (en) 2012-09-16

Similar Documents

Publication Publication Date Title
JP4972712B1 (en) Content providing system using invisible information, invisible information embedding device, recognition device, embedding method, recognition method, embedding program, and recognition program
JP5021061B2 (en) Non-visualization information embedding device, non-visualization information recognition device, non-visualization information embedding method, non-visualization information recognition method, non-visualization information embedding program, and non-visualization information recognition program
JP2017108401A5 (en) Smartphone based method, smart phone and computer readable medium
US10186084B2 (en) Image processing to enhance variety of displayable augmented reality objects
JP4642695B2 (en) Album creating system, album creating method, program, and album creating apparatus
JP2011209887A (en) Method and program for creating avatar, and network service system
KR20100138863A (en) Providing method of augmented reality and personal contents corresponding to code in terminal with camera
KR20120019331A (en) Apparatus and method for augmented reality using instant marker
CN111625100A (en) Method and device for presenting picture content, computer equipment and storage medium
JP6275086B2 (en) Server, data providing method, and server program
JP2013037533A (en) Product information acquisition system and product information provision server device
JPWO2018135246A1 (en) Information processing system and information processing apparatus
TWI744962B (en) Information processing device, information processing system, information processing method, and program product
CN111640190A (en) AR effect presentation method and apparatus, electronic device and storage medium
KR101738896B1 (en) Fitting virtual system using pattern copy and method therefor
JP6001275B2 (en) Non-visualization information embedding device, non-visualization information embedding method, and non-visualization information embedding program
JP2013197827A (en) Photography auxiliary device and method, and photographing device and camera-equipped portable terminal mounting the photography auxiliary device
JP6168872B2 (en) Image processing apparatus, image processing method, and program
JP2021044797A (en) Ar photographing and recording bidirectional system
KR101754993B1 (en) Photo zone photographing apparatus using Augmented Reality
JP5218687B2 (en) Image conversion apparatus, image providing system, photographing / editing apparatus, image conversion method, image conversion program, and recording medium recording the program
WO2016135471A1 (en) Interactive information system
KR20160038193A (en) Method and program for providing enterprise introduction using augmented reality contents based on business card or brochure
JP2010224706A (en) Portrait creating system, control server, client terminal, portrait creating method, and program
GB2535727A (en) Interactive information system

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120313

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120409

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4972712

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250