JP4972712B1 - 非可視化情報を用いたコンテンツ提供システム、非可視化情報の埋込装置、認識装置、埋込方法、認識方法、埋込プログラム、及び認識プログラム - Google Patents

非可視化情報を用いたコンテンツ提供システム、非可視化情報の埋込装置、認識装置、埋込方法、認識方法、埋込プログラム、及び認識プログラム Download PDF

Info

Publication number
JP4972712B1
JP4972712B1 JP2011187597A JP2011187597A JP4972712B1 JP 4972712 B1 JP4972712 B1 JP 4972712B1 JP 2011187597 A JP2011187597 A JP 2011187597A JP 2011187597 A JP2011187597 A JP 2011187597A JP 4972712 B1 JP4972712 B1 JP 4972712B1
Authority
JP
Japan
Prior art keywords
information
embedding
image
embedded
invisible
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011187597A
Other languages
English (en)
Other versions
JP2012138892A (ja
Inventor
健一 佐久間
直人 羽生
隆国 道関
一真 北村
寛 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ritsumeikan Trust
Shiseido Co Ltd
Original Assignee
Ritsumeikan Trust
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ritsumeikan Trust, Shiseido Co Ltd filed Critical Ritsumeikan Trust
Priority to JP2011187597A priority Critical patent/JP4972712B1/ja
Priority to TW100145223A priority patent/TW201237802A/zh
Priority to PCT/JP2011/078315 priority patent/WO2012077715A1/ja
Application granted granted Critical
Publication of JP4972712B1 publication Critical patent/JP4972712B1/ja
Publication of JP2012138892A publication Critical patent/JP2012138892A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】非可視化情報の埋め込みや抽出を迅速に行うと共に付加価値性に優れた高精度なコンテンツを提供する。
【解決手段】取得した画像の所定の位置に非可視化情報を埋め込む埋込装置において、前記画像に含まれるオブジェクト及び位置情報を取得する画像解析手段と、前記画像解析手段により得られたオブジェクトから前記画像が埋め込み対象のオブジェクトを設定する埋込対象オブジェクト設定手段と、前記埋込対象オブジェクト設定手段により得られるオブジェクトの周囲に前記オブジェクトに対応する前記非可視化情報を埋め込む非可視化情報埋込手段とを有することにより上記課題を解決する。
【選択図】図2

Description

本発明は、非可視化情報を用いたコンテンツ提供システム、非可視化情報の埋込装置、認識装置、埋込方法、認識方法、埋込プログラム、及び認識プログラムに係り、特に非可視化情報の埋め込みや抽出を迅速に行うと共に付加価値性に優れた高精度なコンテンツサービスを提供するための非可視化情報を用いたコンテンツ提供システム、非可視化情報の埋込装置、認識装置、埋込方法、認識方法、埋込プログラム、及び認識プログラムに関する。
従来では、カメラ付き携帯端末等の普及に伴い、静止画、動画等を用いた様々なディジタルコンテンツが提供されている。また、従来では、携帯端末等のカメラを用いて、紙等の印刷媒体に印刷されたQRコード(登録商標)等の2次元コードを読み取り、読み取った2次元コードから得られるコンテンツサイトにアクセスしたり、コンテンツに対応するメッセージ等を表示したりすることができる。
しかしながら、2次元コードは見栄えが悪く、また2次元コードを配置するためのスペースも必要となる。そこで、近年では2次元コードを使用せずにコンテンツの画像中から情報を取得し、取得した情報に基づいて、対応する処理を行う技術が開示されている(例えば、特許文献1及び特許文献2参照)。
特許文献1に示されている技術は、画像中に含まれる所定の領域を抽出する条件として、画像の属性に関する指示情報を取得し、取得した指示情報に基づいて、画像中から抽出すべき領域を特定する領域特定手段とを備える画像処理装置が示されている。つまり、特許文献1では、画像中の特徴量を用いて背景画像との分離を行う技術が示されている。
また特許文献2に示されている技術は、画像データを入力する入力手段と、画像データを符号化して符号化データを生成する符号化手段と、画像データから任意形状のオブジェクトを抽出し、オブジェクトの形状データを生成する形状データ生成手段と、形状データを電子透かしによって符号化データに埋め込む埋め込み手段とを備える画像処理装置が示されている。また、特許文献2では、画像中に電子透かしを埋め込み、電子透かしの埋め込まれている場所と埋め込まれていない場所の境界を背景分離の情報として用いる技術が示されている。
特開2006−13722号公報 特開2004−80096号公報
しかしながら、例えば特許文献1に示されているような技術では、画像中の特徴量を用いて背景画像との分離を行うため、背景画像とオブジェクトの色が同一であったり類似している場合には、画像中の特徴量から正確な位置でオブジェクトを分離することができない。
また、特許文献2に示されている技術では、2次元コード等を画像に埋め込む場合に原画像を周波数領域に変換した後、2次元コードを埋め込み、その後、更に空間領域に変換して埋め込みを行う必要が生じる。また、2次元コードを読み出す場合には、入力された画像を周波数領域に変換し、コードを読み出した後、空間領域に変換してコードを抽出する必要が生じる。したがって、コードを埋め込む場合や読み出す場合には、多くの画像処理が発生するため、携帯端末等の低スペックの機器での処理やリアルタイム処理には向いていなかった。
本発明は、上述した課題に鑑みてなされたものであって、非可視化情報の埋め込みや抽出を迅速に行うと共に付加価値性に優れた高精度なコンテンツサービスを提供するための非可視化情報を用いたコンテンツ提供システム、非可視化情報の埋込装置、認識装置、埋込方法、認識方法、埋込プログラム、及び認識プログラムを提供することを目的とする。
上述した課題を解決するために、本発明は、以下の特徴を有する課題を解決するための手段を採用している。
本発明は、取得した画像の所定の位置に非可視化情報を埋め込む非可視化情報の埋込装置と、該埋込装置により得られる画像に含まれるオブジェクト及び非可視化情報を認識する認識装置とからなる非可視化情報を用いたコンテンツ提供システムにおいて、前記埋込装置は、前記取得した画像に含まれるオブジェクトから非可視化情報を埋め込むオブジェクトを設定する埋込対象オブジェクト設定手段と、前記埋込対象オブジェクト設定手段により得られるオブジェクトの周囲に前記オブジェクトに対応する前記非可視化情報を埋め込む非可視化情報埋込手段とを有し、前記認識装置は、前記画像中に含まれる非可視化情報の埋め込み領域に囲まれたオブジェクトを抽出するオブジェクト抽出手段と、前記オブジェクト抽出手段により前記オブジェクトが抽出された場合、前記非可視化情報から、前記オブジェクトに対する処理内容を解析する非可視化情報解析手段と、前記非可視化情報解析手段により得られる処理内容に対応させて画面に表示させるオブジェクトを生成する表示情報生成手段とを有することを特徴とす
また本発明は、取得した画像の所定の位置に非可視化情報を埋め込む非可視化情報の埋込装置において、前記画像に含まれるオブジェクト及び該オブジェクトの位置情報を取得する画像解析手段と、前記画像解析手段により得られたオブジェクトから前記非可視化情報の埋め込み対象となるオブジェクトを設定する埋込対象オブジェクト設定手段と、前記埋込対象オブジェクト設定手段により得られるオブジェクトに対し、前記画像解析手段により得られる前記オブジェクトの位置情報に基づいて、前記オブジェクトの周囲に前記オブジェクトに対応するオブジェクト抽出用の非可視化情報を埋め込む非可視化情報埋込手段とを有することを特徴とする。
また本発明は、取得した画像に含まれるオブジェクト及び非可視化情報を認識する認識装置において、前記画像中に含まれる非可視化情報の埋め込み領域に囲まれたオブジェクトを抽出するオブジェクト抽出手段と、前記オブジェクト抽出手段により前記オブジェクトが抽出された場合、前記非可視化情報から、前記オブジェクトに対する処理内容を解析する非可視化情報解析手段と、前記非可視化情報解析手段により得られる処理内容に対応させて画面に表示させるオブジェクトを生成する表示情報生成手段とを有することを特徴とする。

また本発明は、コンピュータを、上述した埋込装置が有する各手段として機能させるための埋込プログラムである。また本発明は、コンピュータを、上述した認識装置が有する各手段として機能させるための認識プログラムである。
本発明によれば、非可視化情報の埋め込みや抽出を迅速に行うと共に付加価値性に優れた高精度なコンテンツサービスを提供することができる。
本実施形態におけるコンテンツ提供システムの概略構成の一例を示す図である。 本実施形態における埋込装置の機能構成の一例を示す図である。 本実施形態における認識装置の機能構成の一例を示す図である。 本実施形態における非可視化情報の埋込処理及び認識処理が実現可能なハードウェア構成の一例を示す図である。 本実施形態における非可視化情報の埋込処理手順の一例を示すフローチャートである。 本実施形態における非可視化情報の認識処理手順の一例を示すフローチャートである。 本実施形態における非可視化情報の埋め込み例について説明するための図である。 本実施形態における非可視化情報の抽出及びオブジェクトの認識例について説明するための図である。 本実施形態におけるオブジェクト動作例を説明するための図である。 高周波部及び低周波部を有する非可視化情報を説明するための図である。 埋め込み強度と背景のグレースケール値の関係を示す図である。 モノクロイメージ用の非可視化コードの例を示す図である。 0〜255までグレーイメージを変化させた明るさに対する読み取り認識精度と非可視化との関係を示す図である。 本実施形態におけるイメージ毎の非可視化情報の読み取り認識精度の評価について説明するための図である。 図14に対応する評価結果を示す図である。 実施例1におけるARアプリケーションシステムの一例を示す図である。 取得したトリミングマーカによる風車の動作例を示す図である。 画像中に含まれる非可視化情報と動作指示情報との関係を説明するための図である。 実施例2におけるARアプリケーションシステムの一例を示す図である。 実施例3におけるARアプリケーションシステムの一例を示す図である。 実施例4におけるARアプリケーションシステムの一例を示す図である。
<本発明ついて>
本発明では、例えば画面に表示される画像や映像、又は紙やフィルム等の各種印刷媒体等からなる写真、ハガキ、ポスター、カード等に対して、肉眼では認識不可能な加工により非可視化情報(マーカ)を画像中に含まれるオブジェクト(物体情報)の周囲に埋め込み、デジタルカメラや携帯端末(携帯電話、スマートフォン(登録商標)等)に設けられたカメラ等の撮影手段によって、その画像や映像、印刷媒体等の一部を撮影し、撮影された画像や映像等を、パソコンや携帯端末、ipad(登録商標)等のようなタブレットPC等に取り込み画像処理することで、埋め込まれたマーカを認識し、オブジェクトを抽出する。
また本発明は、例えば携帯端末等のような容量や性能が制限された機種でも埋め込まれたマーカの認識が実施可能となるマーカの埋込方法と、画像処理を組み合わせたマーカ認識を可能にする。
更に、本発明では、認識されたマーカの情報から、例えばオブジェクトを動作させるための埋込情報を取得し、取得した埋込情報に基づいて、抽出された対象のオブジェクトに対する処理を行う。また、本発明では、非可視化情報の埋め込みから抽出、画像中のオブジェクトに対する処理内容までの一連の動作を行うコンテンツ提供システムを提供する。
なお、非可視化情報とは、ユーザの目の網膜が感知できない状態であってもよいし、ユーザの目の網膜は感知できるものの、ユーザの脳がそれを情報として識別できないような状態となる情報等を意味する。
また、非可視化情報は、画像中の画素毎の明度(明暗差)等を調整した高周波部や低周波部であってもよく、また直接認識することができる文字情報であってもよく、また記号や数字、マーク、模様、色彩、1次元コード、2次元コード等であってもよく、更にそれらの組み合わせであってもよい。なお、コード情報としては、例えばQRコード等の2次元バーコード等を使用することができる。また、本実施形態において、コード情報は、QRコードに限定されるものではなく、例えばJANコードや、ITFコード、NW−7、CODE39、CODE128、UPC、PDF417、CODE49、Data Matrix、Maxi Code等のバーコード情報等を用いることもできる。
以下に、本発明における非可視化情報を用いたコンテンツ提供システム、非可視化情報の埋込装置、認識装置、埋込方法、認識方法、埋込プログラム、及び認識プログラムを好適に実施した形態について、図面を用いて説明する。なお、本実施形態において説明する「画像」とは、写真等の1枚の画像も、映像における連続したフレーム単位の画像も含まれるものとする。また、本実施形態におけるコンテンツ提供システムとは、例えば、AR(Augmented Reality:拡張現実感)システムを示しているが本発明においてはこれに限定されるものではなく、他のコンテンツサービス全般に適用される。
<可視化情報を用いたコンテンツ提供システム>
まず、本実施形態における可視化情報を用いたコンテンツ提供システムの概略について、図を用いて説明する。図1は、本実施形態におけるコンテンツ提供システムの概略構成の一例を示す図である。図1に示すコンテンツ提供システム10は、入力される第1の印刷媒体11と、第1の画像情報取得装置12と、埋込装置13と、第2の印刷媒体14と、第2の画像情報取得装置15と、認識装置16とを有するよう構成されている。
第1の印刷媒体11は、非可視化情報が埋め込まれる前の画像が印刷されている。コンテンツ提供システム10では、複数の第1の印刷媒体11(図1の例では、第1の印刷媒体11−1,11−2)を用いることができる。なお、本実施形態においては、一例として第1の印刷媒体11に対して、埋込装置13を用いて非可視化情報が埋め込まれた第2の印刷媒体14を生成する例を示しているが、本発明においてはこれに限定されるものではなく、例えば画像を直接取得し、取得した画像に対して非可視化情報を埋め込み、埋め込んだ画像等を印刷して第2の印刷媒体14を生成してもよい。
また、本実施形態において、第1の印刷媒体11に印刷されている画像等には、オブジェクトが含まれている。オブジェクトとは、本発明において、例えば非可視化情報に含まれている情報等に基づいて動作させたり、関連情報を表示させるための物体情報を意味し、例えば人間や動物(顔や手、足等の部分的なオブジェクト等も含む)、虫、花、木、乗り物、机、椅子、帽子、眼鏡、靴、鞄等の製造物等、背景と分別可能なオブジェクト全般等を意味する。
画像情報取得装置12は、非可視化情報が含まれていない第1の印刷媒体11を撮影し、画像情報として取得する。なお、第1の画像情報取得手段12としては、例えば、カメラ(撮像手段)12−1や、スキャナ(情報読取装置)12−2等を用いることができるが、本発明においてはこれに限定されるものではなく、例えば、複写機やカメラ機能のついた携帯端末、ゲーム機器、タブレットPC(Personal Computer)等、画像情報が取得可能な機能を有する装置形態全般を用いることができる。
埋込装置13は、第1の印刷媒体11等から入力された画像データに対し、認識装置16においてトリミング等の処理を実行する対象のオブジェクトを選択し、そのオブジェクトの所定の周囲に予め設定された非可視化情報を埋め込み、埋め込んだ画像を出力する。
なお、埋込装置13は、非可視化情報を埋め込んだ後の画像を印刷媒体(第2の印刷媒体14)として出力してよく、画像のまま出力してもよい。
なお、埋込装置13は、例えば、汎用のPC13−1や携帯端末13−2等を用いることができるが、本発明においてはこれに限定されるものではない。また、携帯端末13−2には、第1の画像情報取得手段12としての内蔵カメラ12−3が設けられており、これにより直接第1の印刷媒体11の画像データを取得することができる。なお、埋込装置13の具体的な機能構成等については後述する。
第2の印刷媒体14は、本実施形態における非可視化情報が埋め込まれた印刷媒体である。なお、第2の印刷媒体14には、例えば所定のオブジェクに対してトリミングや所定の動作等を行わせるための非可視化情報が埋め込まれている。
第2の画像情報取得手段15は、第2の印刷媒体14に対して、上述した第1の画像情報取得手段12と同様にその画像データを取得する。なお、第2の画像情報取得手段15としては、例えば、カメラ15−1や、スキャナ15−2等を用いることができるが、本発明においてはこれに限定されるものではなく、例えば、複写機やカメラ機能のついた携帯端末、ゲーム機器、タブレットPC等、画像情報が取得可能な機能を有する装置形態全般を用いることができる。
認識装置16は、第2の画像情報取得手段15から得られる画像データを用いて、画像に含まれる非可視化情報を認識し、認識した非可視化情報から画像データに含まれる所定のオブジェクトをトリミングする。なお、トリミングとは、例えば、画像中から不要な部分等を取り除いて対象のオブジェクトのみ(オブジェクトの大まかな外枠等も含む)を抽出することをいう。
また、認識手段16は、抽出されたオブジェクトに対して、予め設定された又は非可視化情報に含まれる指示内容に対応した動作を実行させる。なお、オブジェクトに対する処理内容としては、例えば、認識装置16の画面上でオブジェクトを移動させたり、回転させたり、拡大や縮小、他のオブジェクトに置換、他の異なる画像や文字の表示、音声出力、関連情報の表示、更にはそれらの組み合わせ等を行う。
また、認識装置16は、抽出したオブジェクトに対して、直ぐに動作を行わずに、例えばユーザ等による二次的な指示情報に基づいて、その対象のオブジェクトに対する処理を実行することができる。なお、二次的な指示情報としては、例えば、その認識装置16に対する風圧(例えば、マイク等の音声入力手段に息を吹きかけたり、実際に風が吹く等)や、音(声、音楽、特定の言葉(例えば、呪文やかけ声等))、光(例えば、太陽にあてる等)、機器の回転(例えば、その場で回したり、振ったり、水平や垂直に保つ等の動作を含む)、圧力(画面をタッチしたり、ドラッグする等)、その他、温度や時間、場所、天気等の環境条件等により得られる情報を含み、またこれらの情報のうち幾つかを組み合わせてもよく、その場合には、複数の二次的な指示情報の指示順序(例えば、回転させた後にかけ声等)や指示情報毎に予め設定された優先度等に応じて最終的な指示情報を設定してもよい。
なお、認識装置16は、例えば、汎用のPC16−1や携帯端末16−2等を用いることができるが、本発明においてはこれに限定されるものではない。また、携帯端末16−2には、第2の画像情報取得手段15としての内蔵カメラ15−3が設けられており、これにより直接第2の印刷媒体14の画像データを取得することができる。なお、認識装置16の具体的な機能構成等については後述する。
<埋込装置13:機能構成例>
ここで、上述した本実施形態における埋込装置13の機能構成例について図を用いて説明する。図2は、本実施形態における埋込装置の機能構成の一例を示す図である。
図1に示す埋込装置13は、入力手段21と、出力手段22と、蓄積手段23と、画像取得手段24と、画像解析手段25と、埋込対象オブジェクト設定手段26と、埋込情報設定手段27と、埋込情報生成手段28と、非可視化情報埋込手段29と、送受信手段30と、制御手段31とを有するよう構成されている。
入力手段21は、ユーザ等からの画像取得指示や、画像解析指示、埋込対象オブジェクト設定指示、埋込情報設定指示、埋込情報生成指示、非可視化情報埋込指示、送受信指示等の各種指示の開始/終了等の入力を受け付ける。なお、入力手段21は、例えばPC等の汎用のコンピュータであればキーボードやマウス等のポインティングデバイスからなり、携帯端末等であれば各操作ボタン群等からなる。
また、入力手段21は、例えばデジタルカメラ等の撮像手段等により撮影された画像や映像等を入力する機能を有してもよい。その場合、撮像手段は、埋込装置13に内蔵されていてもよく、外部の機能構成であってもよい。更に、入力手段21は、音声等を入力する音声入力機能があってもよい。
出力手段22は、入力手段21により入力された内容や、入力内容に基づいて実行された内容等の出力を行う。具体的には、出力手段22は、取得した画像や、画像解析結果、埋込対象オブジェクト設定結果、設定された非可視化情報、生成された非可視化情報、非可視化情報が埋め込まれた(合成された)埋込画像、各構成における処理の結果等の画面表示や音声出力等を行う。なお、出力手段22は、ディスプレイやスピーカ等からなる。
更に、出力手段22は、プリンタ等の印刷機能を有していてもよく、上述の各出力内容を、例えば紙やハガキ、ポスター等の各種印刷媒体等に印刷し、上述した第2の印刷媒体14としてユーザ等に提供することもできる。
蓄積手段23は、本実施形態において必要となる各種情報や埋込処理の実行時、又は実行後の各種データを蓄積する。具体的には、蓄積手段23は、入力又は予め蓄積されている画像取得手段24で取得される撮影等により得られた1又は複数の画像或いは映像を取得する。また、蓄積手段23は、画像解析手段25にて解析された結果や埋込対象オブジェクト設定手段26における判定結果、埋込情報設定手段27による設定内容、埋込情報生成手段28により生成された埋込情報、非可視化情報埋込手段29により埋め込まれた画像等を蓄積する。また、蓄積手段23は、必要に応じて蓄積されている各種データを読み出すことができる。
画像取得手段24は、非可視化情報を埋め込む対象となるオブジェクトを含む画像や映像等を取得する。なお、画像や映像等は、例えばカメラ等の撮像手段により得られる画像や映像等でもよく、カタログやパンフレット、ポスター、写真、カード、シール、雑誌等の書籍類、商品の包装(箱も含む)や説明書等に適用される対象画像等であってもよい。また、画像取得手段24は、送受信手段30を介して通信ネットワーク上に接続される外部の装置で撮影された情報やデータベース等に蓄積された画像や映像等を取得することもでき、また、入力手段21を介して実際にユーザ等がカメラ等で撮影した画像を用いてもよい。
画像解析手段25は、画像取得手段24にて取得した画像を解析して画像中に含まれる内容を解析する。具体的には、画像中のどの部分(位置、領域)にどのようなオブジェクトが映し出されているか、又は、映像中においてオブジェクトがどのように移動しているか等、オブジェクト情報及び座標等からなるオブジェクトの位置情報を取得する。
なお、画像解析手段25は、オブジェクトを取得する際、例えば、予め設定された複数のオブジェクト画像等を蓄積手段23に蓄積しておき、オブジェクト画像を用いてパターンマッチング等を行い、オブジェクトを抽出してもよい。また、画像解析手段25は、例えば、オブジェクトが人物の場合に、その人物の顔の特徴部分から顔検出を行ってもよく、また顔の特徴量を数値化し、その結果により人物特定を行ってもよい。
更に、画像解析手段25は、ユーザ等が入力手段21等によって指定されたオブジェクトの輪郭(外枠)情報を用いて、オブジェクトを抽出することもできる。
埋込対象オブジェクト設定手段26は、画像解析手段25により解析された結果に基づいて、その画像データにオブジェクトが含まれているか、又は、画像データにオブジェクトが含まれている場合には、そのオブジェクトが予め設定された非可視化情報の埋め込み対象であるか否か等を判定し、その判定結果から埋込対象オブジェクトを設定する。なお、埋込対象オブジェクト設定手段26は、画像データ中に複数のオブジェクトが存在する場合には、複数のオブジェクトのうち、少なくとも1つのオブジェクトを設定する。この場合には、オブジェクトに対して、例えば、予め設定される優先度や、そのオブジェクトの画面全体に対する表示領域の位置、映像であれば、そのオブジェクトが表示されていた時間等により任意に設定することができ、それらの埋込詳細情報も蓄積手段23に蓄積される。
ここで、埋込対象オブジェクト設定手段26において、画像中に含まれるオブジェクトが非可視化情報を埋め込む対象であるか否かは、例えばユーザ等により予め設定された埋込判定情報が蓄積手段23等に蓄積され、その埋込判定情報を用いて埋め込み判定を行ってもよく、又は、そのオブジェクトに対する動作や付加情報が蓄積手段23に蓄積されているかを検索し、もし付加情報が蓄積されている場合には、埋込対象のオブジェクトであると判定してもよい。
したがって、例えば、画像解析手段25によって画像を解析した結果、画像の一部に風車やパンダ、商品等のオブジェクトが含まれていると解析された場合、埋込対象オブジェクト設定手段26は、そのオブジェクトに関する付加情報が蓄積手段23に蓄積されているか否かを判断し、そのオブジェクトに関する付加情報が存在する場合には、そのオブジェクトを埋込対象オブジェクトであると判定する。なお、埋め込む内容(付加情報)は、例えば埋込情報設定手段27等において設定することもでき、設定された内容は、蓄積手段23に蓄積される。
なお、上述した本実施形態では、画像解析手段25による解析結果に基づいて、埋込対象オブジェクトの設定を行っていたが、本発明においてはこれに限定されるものではなく、例えば出力手段22等を用いて画像データを画面に表示し、ユーザ等が表示された画像データに含まれる1又は複数のオブジェクトから、入力手段21を用いて埋込対象オブジェクトを選択してもよい。
埋込情報設定手段27は、埋込対象オブジェクト設定手段26により設定されたオブジェクトに対して、どのような情報を付加情報として埋め込むのか、その具体的な情報の内容、及び表示手法(例えば、画面表示(表示サイズや位置等の詳細な情報を含む)、音声出力、印刷出力等)を設定する。具体的には、埋込情報設定手段27は、例えば、オブジェクトが人物である場合には、そのオブジェクトに対してどのような動作(回転、移動、拡大、縮小、他のオブジェクトに置換等)をさせるかの動作指示情報を設定したり、その人物の氏名、年齢、性別、身長、趣味、経歴等を設定し、更にその設定された各種情報の表示手法等を設定する。また、オブジェクトが財布や洋服等の場合には、そのブランド名や商品名、値段、ホームページやブログ等のアドレス等を設定し、更にその設定された各種情報の表示手法等を設定する。また、オブジェクトが本である場合には、その本のタイトル、著者、発行日、値段、著者に関する情報等を設定し、更にその設定された各種情報の表示手法等を設定する。なお、埋込情報設定手段27にて設定される付加情報としては、映像、画像等が含まれる。
また、埋込情報設定手段27は、どのような形態で情報を付加するのかを設定する。例えば、付加情報は、特定の暗号化された文字であるのか、或いは模様や記号、コード情報等であるのか等を設定する。なお、コード情報等の場合には、認識装置16側で、そのコードに対する情報が取得できるように対応データベースが設けられていることが好ましい。上述したように、複数の形態から設定することができるため、埋め込み対象の画像の内容に応じて適切な埋込情報を選択して設定することができる。
埋込情報生成手段28は、埋込対象オブジェクトに対してどのような動作等をさせるか(動作指示情報)等の処理内容を含む埋込情報を生成する。なお、埋込情報生成手段28は、直接文字情報として生成してもよく、コード情報として生成してもよい。具体的には、埋込情報生成手段28は、例えば、埋込情報が実際にユーザに提供される印刷媒体や画像等に対して見えにくくするために埋込情報を、埋め込み対象の原画像の色情報等を基準にして、例えば、低周波部と高周波部とを用いた画像、又は、低周波部のみ或いは高周波部のみを用いた画像を生成する。
ここで、本実施形態における低周波部とは、非可視化情報を埋め込む部分の原画像の明度を基準とし、それより明度を低くした部分又は領域を示し、高周波部とは、上述した原画像の明度を基準として、それより明度を高くした部分又は領域を意味する。埋込情報生成手段28における非可視化情報の詳細については後述する。
また、本実施形態における非可視化情報は、認識装置16側において、オブジェクトを抽出するために用いられるため、埋込情報を埋め込む場合には、その非可視化情報の全部に埋込情報を埋め込んでもよく、また非可視化情報の一部(例えば、非可視化情報領域(トリミングマーカ)内の隅や周囲等)に埋め込んでもよい。
また、埋込情報生成手段28は、画像中のどの位置に非可視化情報を埋め込むかを座標情報として取得する。なお、本実施形態では、例えば動作対象となるオブジェクトを基準にして、その周囲の所定領域に非可視化情報を埋め込む。つまり、本実施形態では、認識装置16において、この非可視化情報によりオブジェクトの位置を把握し、オブジェクトをトリミング(抽出等)する。
したがって、本実施形態における非可視化情報には、認識装置16側において、例えば、トリミングするオブジェクトを抽出させる用途と、必要に応じてオブジェクトにどのような動作をさせるかを指示する動作指示情報やその他の付加情報等を取得させる用途とがある。
非可視化情報埋込手段29は、画像解析手段25により得られる画像と、その画像のオブジェクト情報、及び座標情報等からなるオブジェクト位置情報等に基づいて、埋込情報生成手段28にて生成された非可視化情報を所定の位置に埋め込んで画像を合成する。
なお、本実施形態において、埋込情報を埋め込む際、例えば画像中に表示されているオブジェクトの位置上又はその周辺に、そのオブジェクトに対応する埋込情報が埋め込まれているのが好ましく、この場合には、画像解析手段25により得られたオブジェクト位置情報を基準として対象画像に埋込画像の埋め込みを行う。
つまり、本実施形態によれば、画像全体に対して1つの埋込情報を付与するのではなく、複数の非可視化情報を適切な場所に埋め込むことができる。なお、非可視化情報埋込手段29は、原画像に含まれる複数又は全てのオブジェクトを動作させるための非可視化情報を埋め込むこともできる。
また、非可視化情報埋込手段29は、埋込対象の画像が映像の場合、再生中の映像におけるオブジェクトの移動に対して追随して移動し、そのオブジェクト上に非可視化情報が埋め込まれるようにすることができる。つまり、非可視化情報埋込手段29は、埋込対象画像が入力される毎に撮影画像に対して埋め込み処理を行い、その埋込画像を順次表示させたり、第2の印刷媒体14として出力させることができる。
送受信手段30は、通信ネットワーク等を用いて接続可能な外部装置から所望する外部画像(撮影画像や埋込画像等)や、本発明における非可視化情報埋込処理を実現するための実行プログラム等を取得するためのインタフェースである。また、送受信手段30は、埋込装置13内で生成された各種情報を外部装置に送信することができる。
制御手段31は、埋込装置13の各構成部全体の制御を行う。具体的には、制御手段31は、例えばユーザ等による入力手段21からの指示等に基づいて、画像の取得や画像解析、埋込対象オブジェクトであるか否かの判断、非可視化情報の設定並びに埋め込み等の各処理における制御等を行う。なお、埋込情報設定手段27における非可視化情報や埋込情報生成手段28における非可視化情報は、予め設定や生成をしておき蓄積手段23に蓄積させていてもよい。
<認識装置16:機能構成例>
次に、上述した本実施形態における認識装置16の機能構成例について図を用いて説明する。図3は、本実施形態における認識装置の機能構成の一例を示す図である。
図2に示す認識装置16は、入力手段41と、出力手段42と、蓄積手段43と、埋込画像取得手段44と、オブジェクト抽出手段45と、非可視化情報解析手段46と、表示情報生成手段47と、送受信手段48と、制御手段49とを有するよう構成されている。
入力手段41は、ユーザ等からの埋込画像取得指示や、非可視化情報抽出指示、非可視化情報解析指示、表示情報生成指示、送受信指示等の各種指示の開始/終了等の入力を受け付ける。なお、入力手段41は、例えばPC等の汎用コンピュータであればキーボードやマウス等のポインティングデバイスからなり、携帯端末等であれば各操作ボタン群等からなる。また、入力手段41は、例えばデジタルカメラ等の撮像手段等により撮影された画像や映像を入力する機能も有する。なお、上述の撮像手段は、認識装置16に内蔵されていてもよく、外部の機能構成であってもよい。更に、入力手段41は、音声等を入力する音声入力機能があってもよい。
また、入力手段41は、上述した第2の印刷媒体14、つまり紙やハガキ、ポスター、写真、カード等の印刷媒体から埋込画像を取得することができる。この場合、カメラ等の撮像手段や、スキャナ機能等を用いてデータを読み取る機能を備える。
また、出力手段42は、入力手段41により入力された内容や、入力内容に基づいて実行された内容等の出力を行う。具体的には、出力手段42は、表示情報生成手段47により得られる画像や映像に表示されるオブジェクトに対する付加情報等を出力する。なお、出力手段42は、ディスプレイやスピーカ等からなる。
更に、出力手段42は、プリンタ等の印刷機能を有していてもよく、上述のオブジェクトに対する実際の動作内容等の各出力内容を、例えば紙等の各種印刷媒体に印刷してユーザ等に提供することもできる。
蓄積手段43は、本実施形態において必要となる各種情報や非可視化情報認識処理の実行時、又は実行後の各種データを蓄積する。具体的には、蓄積手段43は、埋込画像取得手段44で取得した埋込画像や、オブジェクト抽出手段45で取得した非可視化情報(マーカ)、非可視化情報解析手段46により解析した非可視化情報や埋込情報、表示情報生成手段47で生成された表示内容等を蓄積する。
更に、蓄積手段43は、非可視化情報解析手段46によって解析されたデータに対する関連情報を蓄積することができる。例えば、非可視化情報があるコード情報(文字コード、2次元コード等も含む)等であった場合には、そのコード情報に対応する各種データ(例えば、コード情報に対応するオブジェクトに対する詳細情報(文字、映像、画像、音声等)、データを画面に表示するときのサイズ、色、時間、位置、動作内容等)を蓄積手段43に蓄積しておく。また、蓄積手段43は、コード等を取得したときや、その他の必要に応じて蓄積されている各種データを読み出すことができる。
埋込画像取得手段44は、第2の画像情報取得装置15から第2の印刷媒体14に対応する画像データを取得する。また、埋込画像取得手段44は、予め蓄積手段43に処理対象の画像データが蓄積されている場合は、蓄積手段43から蓄積してもよく、また送受信手段48を介して通信ネットワークに接続される外部装置から埋込画像を取得してもよい。なお、埋込画像には、映像も含まれる。
オブジェクト抽出手段45は、埋込画像に含まれるオブジェクトを抽出する。具体的には、オブジェクト抽出手段45は、例えば、入力される埋込画像に対して、ある所定の周波数によるフィルタリングを行い、画像中に埋め込まれている非可視化情報を取得する。所定の周波数によりフィルタリングを行うことで、高周波部、低周波部の領域を容易に抽出することができる。なお、本発明においては、これに限定されるものではなく他の手法を用いてもよい。また、画像中に複数の非可視化情報がある場合には、全ての非可視化情報を抽出する。
次に、オブジェクト抽出手段45は、画像中に含まれる非可視化情報の埋め込み位置からオブジェクトの外枠(エッジ)を抽出し、その抽出されたオブジェクトの外枠(エッジ)に対応させて、その内側にあるオブジェクトを背景から分離して抽出する。
例えば、オブジェクト抽出手段45は、非可視化情報として設定される低周波部と高周波部との組み合わせにより、オブジェクトの周囲の位置情報を抽出し、抽出した位置情報に基づいて、そのオブジェクトを抽出する。なお、本実施形態においては、上述した低周波部及び高周波部に限定されるものではなく、例えば色差、明度差等に基づいてオブジェクトを抽出してもよい。
なお、オブジェクト抽出手段45は、埋込画像中に複数の非可視化情報がある場合には、その全ての非可視化情報からオブジェクトを抽出してもよく、予め決められた少なくとも1つの非可視化情報(例えば、埋込画像の一番左にある非可視化情報や、大きさが最大の非可視化情報等)を抽出してもよい。
また、オブジェクト抽出手段45は、どの位置から非可視化情報を抽出したかの非可視化情報抽出位置情報も取得する。オブジェクト抽出手段45は、上述にて取得した各種情報を蓄積手段43に蓄積させる。
更に、本実施形態では、非可視化情報を抽出することで、そのオブジェクトの向き(角度)や傾き等を取得することができる。そのため、オブジェクト抽出手段45は、非可視化情報から得られる向きや傾き等の情報から対象オブジェクトの角度や傾きを補正することができる。
非可視化情報解析手段46は、オブジェクト抽出手段45により得られた非可視化情報に埋込情報が含まれているか否か解析し、埋込情報が含まれている場合には、その具体的な埋込情報の内容を取得する。
例えば、非可視化情報に埋込情報として文字(例えば、回転、右に移動等)が含まれている場合には、その文字を付加情報として取得する。また、埋込情報としてコードが含まれている場合には、そのコードの情報を取得し、その取得した内容(例えば、コードID等)をキーにして、蓄積手段43や送受信手段48を介して通信ネットワークに接続される予め設定されたサーバやデータベース等の外部装置等を検索し、検索した結果、キーに対応するオブジェクトへの動作指示情報や表示手法等の各種処理内容(付加情報)があれば、その情報を取得する。
なお、本実施形態における非可視化情報解析手段46は、バーコードを読み取るバーコードリーダ等の読み取り機能を有していてもよい。その場合には、例えば、非可視化情報が2次元バーコードである場合には、その2次元バーコードからバーコードリーダを用いて付加情報を取得する。
表示情報生成手段47は、非可視化情報解析手段46により得られた付加情報に基づいて画面に表示されたオブジェクトに対する動作内容や、表示手法に基づく表示内容等を生成する。なお、画面への表示は、画面上に別枠(別ウィンドウ)を設けて動作を表示させてもよく、対応するオブジェクトが表示されている位置上に表示してもよく、更に音声により出力してもよい。
なお、表示情報生成手段47における処理としては、例えば、上述したようにオブジェクトを背景から消す処理を行ったり、その消した位置にオブジェクトを表示し、拡大、縮小、回転、移動、他のオブジェクトに置換等を行うことができる。したがって、画像中に含まれる所定のオブジェクトに対して、個々の動作を行わせて表示させることができる。更に、表示情報生成手段47は、表示されるオブジェクトを背景画像に重畳させたり、空間認識による角度や傾きの補正処理等を行うことができる。
ここで、本実施形態において、どのオブジェクトにどのような動作をさせるかについては、例えば、そのオブジェクトの周囲にある非可視化情報から取得することができる。したがって、本実施形態では、画像中の動作させたいオブジェクトに対してのみ、その周囲に非可視化情報を埋め込むだけで、そのオブジェクト毎に独自の処理を埋込装置13側で設定することができる。
また、表示情報生成手段47は、取得した非可視化情報をそのまま可視化して表示してもよく、非可視化情報に対応する付加情報を蓄積手段43や外部装置等から取得して、その取得した付加情報を表示してもよい。
更に、表示情報生成手段47は、非可視化情報解析手段46により得られた結果がコードである場合、上述したコードID等に基づいて蓄積手段43等から取得した付加情報毎に設定されている画面に表示するときのサイズ、色、時間、位置、動作内容等に基づいて表示させるための表示情報を生成する。なお、映像として対象オブジェクトが移動している場合には、そのオブジェクトの位置に追随して表示させてもよく、また、最初に画面に表示した位置に固定して表示させてもよい。
送受信手段48は、通信ネットワーク等を用いて接続可能な外部装置から所望する外部画像(撮影画像等)や、本発明における非可視化情報認識処理を実現するための実行プログラム等を取得するためのインタフェースである。また、送受信手段48は、認識装置16内で生成された各種情報を外部装置に送信することができる。
制御手段49は、認識装置16の各構成部全体の制御を行う。具体的には、制御手段49は、例えばユーザ等による入力手段41からの指示等に基づいて、埋込画像の取得や非可視化情報の抽出、非可視化情報の解析、表示情報の生成等の各処理の各制御等を行う。
上述した装置構成により、効率的な情報の取得により付加価値性に優れた高精度な画像を提供することができる。
<埋込装置13、認識装置16:ハードウェア構成>
ここで、上述した埋込装置13及び認識装置16においては、各機能をコンピュータに実行させることができる実行プログラム(埋込プログラム、認識プログラム)を生成し、例えば汎用のパーソナルコンピュータ、サーバ等にその実行プログラムをインストールすることにより、本発明における非可視化情報の埋込処理及び認識処理等を実現することができる。
ここで、本実施形態における非可視化情報の埋込処理及び認識処理が実現可能なコンピュータのハードウェア構成例について図を用いて説明する。図4は、本実施形態における非可視化情報の埋込処理及び認識処理が実現可能なハードウェア構成の一例を示す図である。
図4におけるコンピュータ本体には、入力装置51と、出力装置52と、ドライブ装置53と、補助記憶装置54と、メモリ装置55と、各種制御を行うCPU(Central Processing Unit)56と、ネットワーク接続装置57とを有するよう構成されており、これらはシステムバスBで相互に接続されている。
入力装置51は、ユーザ等が操作するキーボード及びマウス等のポインティングデバイスを有しており、ユーザ等からのプログラムの実行等、各種操作信号を入力する。また、入力装置51は、カメラ等の撮像手段から撮影された画像を入力する画像入力ユニットを有している。
出力装置52は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイを有し、CPU56が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。
ここで、本発明においてコンピュータ本体にインストールされる実行プログラムは、例えばUSB(Universal Serial Bus)メモリやCD−ROM等の可搬型の記録媒体58等により提供される。プログラムを記録した記録媒体58は、ドライブ装置53にセット可能であり、記録媒体58に含まれる実行プログラムが、記録媒体58からドライブ装置53を介して補助記憶装置54にインストールされる。
補助記憶装置54は、ハードディスク等のストレージ手段であり、本発明における実行プログラムやコンピュータに設けられた制御プログラム等を蓄積し、必要に応じて入出力を行うことができる。
メモリ装置55は、CPU56により補助記憶装置54から読み出された実行プログラム等を格納する。なお、メモリ装置55は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。
CPU56は、OS(Operating System)等の制御プログラム、及びメモリ装置55に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して、埋込処理及び認識処理における各処理を実現することができる。なお、プログラムの実行中に必要な各種情報等は、補助記憶装置54から取得することができ、また実行結果等を格納することもできる。
ネットワーク接続装置57は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果又は本発明における実行プログラム自体を他の端末等に提供することができる。
上述したようなハードウェア構成により、本発明における非可視化情報の埋込処理及び認識処理を実行することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における埋込処理及び認識処理を容易に実現することができる。
次に、上述した埋込プログラムにおける非可視化情報の埋込処理、及び認識プログラムにおける非可視化情報の認識処理について具体的に説明する。
<非可視化情報の埋込処理手順>
まず、本実施形態における非可視化情報の埋込処理手順について説明する。図5は、本実施形態における非可視化情報の埋込処理手順の一例を示すフローチャートである。
図5に示す埋込処理は、まずカメラ等の撮像手段により撮影された画像を取得し(S01)、画像の解析を行い(S02)、画像中に含まれるオブジェクト、オブジェクト位置情報等を取得する。
次に、S02の処理にて得られた情報に基づいて埋込対象オブジェクトの設定を行い(S03)、そのオブジェクトに対して非可視化情報(マーカ)を埋め込むか否かを判断する(S04)。ここで、非可視化情報を埋め込む場合(S04において、YES)、そのオブジェクトに対してどのような動作指示情報を埋め込むか等の処理内容を示した埋込情報を設定し(S05)、S05の処理により設定された埋込情報を生成する(S06)。
また、S06の処理にて生成された埋込情報を含む画像中の所定のオブジェクトの周囲の所定位置に埋め込み(S07)、その埋め込み後の合成画像をディスプレイ等の出力手段により表示又はデータとして出力する(S08)。なお、S08の処理では、S07により得られた画像を印刷媒体に出力することもできる。
S08の処理終了後又はS04の処理において、非可視化情報を埋め込まない場合(S04において、NO)、他の画像に非可視化情報を埋め込むか否かを判断する(S09)。他の画像に非可視化情報を埋め込む場合(S09において、YES)、S01に戻り以降の処理を繰り返し実行する。また、S09の処理において、他の画像に非可視化情報を埋め込まない場合(S09において、NO)、非可視化情報埋込処理を終了する。
なお、本実施形態では、上述S02の処理は行わずに、ユーザ等が画面上に表示される画像データから少なくとも1つのオブジェクトを設定してもよい。
<非可視化情報の認識処理手順>
次に、本実施形態における非可視化情報の認識処理手順について説明する。図6は、本実施形態における非可視化情報の認識処理手順の一例を示すフローチャートである。
図6に示す認識処理は、まず、上述した埋込処理により非可視化情報が埋め込まれた埋込画像を取得する(S11)。なお、S11の処理では、画像が取得できれば、どのような手段を用いてもよく、例えば、上述したように印刷媒体を撮影してその画像データを取得してもよく、また予め画像データとして存在する埋込画像を外部装置等から取得してもよい。次に、取得した画像に含まれる非可視化情報からオブジェクトを抽出する(S12)。
次に、S12の処理において、非可視化情報からオブジェクトに対する動作指示内容や表示手法等の各種処理内容からなる埋込情報が抽出されたか否かを判断し(S13)、埋込情報が抽出された場合(S13において、YES)、埋込情報の解析を行う(S14)。また、埋込情報の解析結果により得られた付加情報から画面等に表示する表示情報等を生成し(S15)、生成した内容を表示する(S16)。
ここで、他の画像から非可視化情報を認識するか否かを判断し(S17)、他の画像から非可視化情報を認識する場合(S17において、YES)、S11に戻り以降の処理を繰り返し実行する。また、S17の処理において、他の画像から非可視化情報を認識しない場合(S17において、NO)、非可視化情報認識処理を終了する。
上述した処理により、非可視化情報の埋め込みや抽出を迅速に行うと共に付加価値性に優れた高精度なコンテンツサービスを提供することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における非可視化情報埋込処理や認識処理を容易に実現することができる。
<非可視化情報の埋め込み例について>
次に、本実施形態における非可視化情報の埋め込み例について、図を用いて説明する。図7は、本実施形態における非可視化情報の埋め込み例について説明するための図である。なお、埋込処理を行う場合には、図7(a)〜図7(d)の順序で埋め込みが行われる。
まず、上述した第1の印刷媒体11等から入力された撮影画像である画像データ61に含まれるある所定のオブジェクト62に対して非可視化情報を挿入する場合には、図7(a)に示すように、オブジェクト62を中心とし、その中心から図7(a)の矢印に示すようにオブジェクト62の周囲に所定形状のコードの外枠63を配置する。
なお、外枠形状は、認識装置16における読み取り精度を向上させるために正方形が好ましいが、本発明においてはこれに限定されるものではなく、例えば、矩形や菱形、6角形、8角形等の多角形や円形、楕円形、オブジェクトの形状に相似して拡大された形状、或いはユーザ等によりマウス等の入力手段によってフリーライドされた形状等であってもよい。
次に、図7(b)に示すように、オブジェクト62に対する大体の輪郭64を指定する。なお、輪郭64は、ユーザ等によりマウスやタッチパネル等の入力手段を用いて任意に設定することができる。また、輪郭64は、オブジェクト62とその背景との輝度値等の違いにより大まかな輪郭64を抽出することもできる。なお、この輪郭64は、大まかなものであってよく、例えばオブジェクト62の全体を含む領域であればよい。
次に、図7(c)に示すように、輪郭64の形状に対応させてコード内枠65を設定する。なお、コード内枠65は、外枠63を超えることがなく、例えば輪郭64の一回り(所定画素数分)外側の領域が設定される。次に、図7(d)に示すように、コード内枠65と外枠63の間に高周波部66の符号化領域を付加し、輪郭と内枠の間に低周波部67を付与する。これにより、認識装置16側でオブジェクト62の位置を認識させるための非可視化情報を埋め込むことができる。
また、本実施形態では、非可視化情報に何らかの文字や記号、コード等により、オブジェクトに対する動作指示情報や表示手法等の各処理内容を挿入することで、画像中の所定のオブジェクト毎に所定の動作等を行わせることができる。これにより、付加価値のあるコンテンツサービスを提供することができる。
<非可視化情報の抽出及びオブジェクトの認識例について>
次に、本実施形態における認識装置16における非可視化情報の抽出及びオブジェクトの認識例について図を用いて説明する。図8は、本実施形態における非可視化情報の抽出及びオブジェクトの認識例について説明するための図である。
なお、本実施形態の認識処理に係る非可視化情報の抽出及びオブジェクトの認識を行う場合には、図8(a)〜図8(d)の順序で埋め込みが行われる。まず、上述した第1の印刷媒体11等から入力された画像データ61に含まれるある所定のオブジェクト62に対して非可視化情報を挿入する場合には、まず図8(a)に示すように、画像61に含まれるコード情報を取得する。具体的には、例えば、外枠63と高周波部66と低周波部67とが存在する領域を抽出する。
次に、図8(b)に示すように、外枠63から内側の高周波部66を透明化し、更に図8(c)に示すように、高周波部66のエッジから内側に向かって低周波部67を透明にする。なお、低周波部67は、周囲との画素の輝度情報等に基づいて、把握することができるが、本発明においてはこれに限定されるものではなく、例えば高周波部から所定ビット数分内側を透明化するといったように、予め設定されたビット数のみを透明化してもよく、又は色差や明暗差等を用いて上述した透明化処理を行ってもよい。
その後、図8(d)に示すようにオブジェクトのみからなるトリミング画像71を得ることができる。なお、図8(d)に示すオブジェクトの周囲のエリアは、便宜上、透明化されていることを示す模様が付されている。
<オブジェクトに対する動作例>
次に、本実施形態において、提供されたコンテンツに含まれるオブジェクトに対する動作例について、図を用いて説明する。図9は、本実施形態におけるオブジェクト動作例を説明するための図である。
オブジェクトを動作させる場合には、例えば、図9(a)に示すように、撮影画像61にトリミング画像71を重畳し、次に、図9(b)に示すように、背景画像のオブジェクト62aを削除する。具体的には、例えば、オブジェクト62aの周囲の背景画像の画素を用いてオブジェクト62aの領域を上塗りする。なお、本発明においてはこれに限定されるものではなく、例えば、予め設定された色等を用いて塗り潰してもよい。
次に、トリミング画像71に含まれるオブジェクト62bを、オブジェクト62aを削除した撮影画像61を背景画像として、その上で動作させる。なお、図9(c)の動作内容では、オブジェクト62bを所定のタイミングで右回転に動作させる処理を示しているが、本発明においては、これに限定されるものではなく、オブジェクト62bを拡大させたり、縮小させたり、所定の方向に移動させたり、他のオブジェクトに置換するといった動作を行うことができる。
また、入力と対応動作のバリエーションとして、本実施形態では、例えば、ユーザ等が認識装置16の音声入力装置等に対して息を吹きかける(マイク入力)とオブジェクトの一部又は全部が回転したり、傾けるとオブジェクトが転がったり、認識装置16の画面に触るとオブジェクトがリアクションをとったり、特定の場所に行くとオブジェクトがその場所固有の動作をすることができる。
更に、本実施形態では、向いている方角によってオブジェクトの動作が変化したり、時間によってオブジェクトが寝たり起きたりすることもでき、また天気等によってオブジェクトの動作が変化したり、ユーザが歩く動作やその動作に伴う振動、移動速度、移動距離等に従って、オブジェクトも変形するといった動作を行うことができる。
<低周波部、高周波部について>
ここで、本実施形態における低周波部及び高周波部について説明する。通常、周波数には時間についての周波数(時間周波数)と空間の位置についての周波数(空間周波数)があるが、本実施形態においては、特に断らない限りは空間周波数を指す。空間周波数とは、「単位長さに対する画素値の周期の逆数」と定義される。
本実施形態における周波数は、特に限定されるものではないが、例えば高周波部では0.2〜2[cycle/画素]、低周波部では0〜1[cycle/画素]の範囲で設定すればよく、具体的には低周波部より高周波部の方が、周波数が高くなっていればよい。
また、高周波部にて形成される所定の画素領域(例えば、4×4px(ピクセル)等)からなるグリッドは、明部と暗部が周期的に繰り返していればよく、例えば、縦縞、横縞、格子状等があげられる。
例えば、
明明明明
暗暗暗暗
明明明明
暗暗暗暗
又は、
明暗明暗
暗明暗明
明暗明暗
暗明暗明
等である。
また、そのときの明部と暗部の明度差は10以上であればよく、好適なのは50以上であり、更に好適なのは100以上である。なお、本実施形態における明度差は、上述したように、まず通常表示される画像の明度を基準として明部と暗部とを生成し、生成された明部と暗部とにおける明度差を用いていたが、本発明においてはこれに限定されるものではない。例えば、通常の画像の明度と、その明度に対して低周波部又は高周波部における明度とにおける明度差を用いていてもよい。
この場合、例えば、高周波部と見なされる明暗差は、グレースケールで隣り合うエレメントを基準として約15以上であれば高周波部とみなすことができる。具体的には、約15〜35程度の明度差が高周波部として主に使うことができる領域である。なお、エレメントとは、縦横1px以上のピクセルで構成されたものであり、本実施形態では、例えば1エレメントを2×2pxとすることができる。
ここで、例えばカメラ等の撮像装置で読み取れる明度差の最小値が15である場合、明度差が35を超えると人間の目にも容易に認識できてしまう。また逆に、埋め込む画像の部分が極端に暗い場合や明るい場合には、カメラ等による読み取り精度を上げるために例えば35以上の明度差を付けることも必要となる。したがって、本実施形態では、埋め込む位置の画像(背景)の明度や輝度等や撮影されるカメラの性能等に応じて任意に明度差に変化を付けて非可視化情報のコードを生成する。
また、上述した付加情報における使用可能なピクセルサイズは、例えばその画像と、画像を見る人との距離により変化するため、特に限定されるものではないが、例えば約1mの距離であれば、約0.05〜2mm程度が好ましく、約10mの距離であれば、約0.5mm〜20mm程度が好ましい。更に離れた距離から使用する場合でも、同様のピクセルサイズと距離の比率を保っていることが好ましい。
つまり、本実施形態では、碁盤の目パターン中(市松模様)の小さな明るく暗い正方形から成る高頻度のブロックを使用する非可視化コードを本実施形態における非可視化情報として用いる。これにより、いかなる場所でも埋め込むことができ、任意の角度から読むことができる。
ここで、図10は、高周波部及び低周波部を有する非可視化情報を説明するための図である。図10(a)に示す非可視化画像の構造例では、位置検知パターン81内に回転検知パターン82を有する。これにより、コードのある位置とコードの向きを正確に認識することができる。
また、位置検知パターン81には、イメージに埋め込まれていた高周波部としての高周波ブロック83を有しており、中心には、オブジェクトを収納するエッジ84を有している。図10(a)に示すように、本実施形態では、イメージの位置及び方向は、周囲の位置と方向の検知パターンによって検知される。これらのパターンも高周波ブロック83から構成される。なお、図10(a)の例では、位置検知パターン81の外枠を点線のガイドラインで囲み、回転検知パターン82の外枠を実線のガイドラインで囲んでいるが、実際には枠線を必要としない。
図10(b)に示す各ブロックは、人が目で見て認識しづらくして視界を縮小するために明るく暗い要素を交互にするN×Nの碁盤配列からなる。明るいエレメント(要素)と暗いエレメントは、上述したように背景の輝度(明るさ)を基準にして、その輝度を上げるか下げることにより生成される。
なお、明るさにおける変化は、埋め込み強度(それは明るさにおける±α変化である)によって調節される。埋め込み強度が一定の場合、イメージが非常に明るいか、非常に暗い場合、読み取り認識精度はよくない。そこで、図10(c)に示すように、背景色の埋め込み強度を変えることにより読み取り認識精度を向上させる。具体的には、背景の各RGB値がエレメント(要素)の明るさを変更するために独立して変えられる場合、色調はイメージの視界を上げて変わる。したがって、本実施形態では、視界を縮小し、かつ読み取り認識の正確さを向上させるため、オリジナルカラーイメージをグレーレベルに変換し、背景のグレーの規模の値を基準にして埋め込み強度を設定した。
ここで、図11は、埋め込み強度と背景のグレースケール値の関係を示す図である。図11に示すように、人間の目は白の明るさの変化に非常に敏感で、黒の変化に無感覚である。そのため、埋め込み強度の変化は、グレースケール値に関して二次関数的に、最小の強さが20となる方程式によって以下の式で与えられる。
グレーレベル値α=1/2167×(αr−255)+20
<実験結果>
ここで、本発明を適用した実験結果について図を用いて説明する。本実施形態における読み取り認識精度は、どのようなコードを埋め込んだか(コード・スタイル)で評価される。
図12は、モノクロイメージ用の非可視化コードの例を示す図である。図12に示すコードは、約3cm程度正方形で、データを100ビット保持することができる。また、高周波ブロックの各サイドは4つの長いエレメント(要素)を有している。また、エレメントのサイズは、約2×2ピクセルとしている。また、図12に示すように、高周波部ブロックは、モノクロイメージに対する碁盤(市松模様)のブロックを有している。
図13は、0〜255までグレーイメージを変化させた明るさに対する読み取り認識精度と非可視化との関係を示す図である。本実施形態では、コードありのイメージとコードなしのイメージとの差を50cm離れた地点から見た評価結果を示している。その結果、背景イメージの明るさの範囲がグレーレベル40〜180にある場合に読み取り認識精度が90%以上であり、可視化されていると判断される場合が10%未満であった。
更に、本実施形態における非可視化コードの有効性を確認するために、一例として3つの共通のタイプのイメージに埋め込まれていた非可視化コードの読み取り認識精度を評価した。
図14は、本実施形態におけるイメージ毎の非可視化情報の読み取り認識精度の評価について説明するための図である。図14(a)に示すような非可視化コードを、図14(b)に示すテストイメージとして、白黒(モノクロ)イメージ、女性イメージ、動物(マントヒヒ)イメージに挿入して、様々なイメージにおけるコードの認識精度を評価した。
ここで、図15は、図14に対応する評価結果を示す図である。なお、図15(a)は、カメラからコードまで距離に対する認識精度を示すグラフであり、図15(b)は、カメラの撮影角度に対する認識精度を示すグラフである。
図15(a)に示すように、カメラからコードまでの距離に関する正確性については、その距離が約7〜11cm程度の距離であれば全てのイメージに対して、認識精度が100%であることが示された。
また、図15(b)に示すように、カメラの角度に対しては、約0〜40の角度で、全てのイメージに対して、認識精度が100%であることが示された。
<本実施形態を適用したコンテンツアプリケーション例>
次に、上述した本実施形態を適用したコンテンツアプリケーション例について図を用いて説明する。なお、以下に示す例では、非可視化情報としてのトリミングマーカを備えたARアプリケーションシステムについて説明する。
<実施例1>
図16は、実施例1におけるARアプリケーションシステムの一例を示す図である。図16(a)では、非可視化情報としてトリミングマーカを用いるイメージの例を示している。トリミングマーカは、図16(a)に示す風車のためのイメージの周囲に埋め込まれる。なお、実施例1においては、周囲全体であってもよく、また周囲の一部の領域であってもよい。
例えば、ユーザは、例えばスマートフォン等の携帯端末に設けられたカメラによりイメージの写真を撮ることにより、風車のイメージを取得する。また、ユーザは、携帯端末を使って、撮影された画像に含まれるオブジェクトのうち少なくとも1つを選択すると、実施例1におけるARアプリケーションにより、そのオブジェクトに対してトリミングマーカが埋め込まれる。図16の例では、風車にトリミングマーカを埋め込み、埋め込んだ画像(風車)を印刷する。なお、実施例1において、トリミングマーカは、図16(a)に示す複数の風車(オブジェクト)のうち、認識側でトリミングを行う対象の所定の風車(トリミングオブジェクト)に対してのみ行えばよい。
ここで、図16(b)は、非可視化トリミングマーカの構造を示している。トリミングマーカは、高周波部と低周波部とを含み、トリミングマーカの中心には抽出する対象のオブジェクト(トリミングオブジェクト)からなる。トリミングマーカの位置は、オブジェクトの周りに存在する位置検知パターンにより取得される。また、オブジェクトの向き(方向)は、例えば上述した回転検知パターン等をトリミングマーカに埋め込んでおくことで取得することができる。なお、上述の処理は、携帯端末で行われる。したがって、携帯端末には、上述した第1の画像情報取得装置12及び埋込装置13としての機能を有し、それらの機能は、上述した埋込プログラムにおけるARアプリケーションによって実現される。
また、図16(c)は、トリミングマーカによるオブジェクトの抽出例を示す図である。ユーザは、例えばスマートフォン等の携帯端末に設けられたカメラによりトリミングマーカを含む印刷された画像を撮影する。携帯端末(認識装置16)は、上述したように、トリミングマーカの埋め込み位置から高周波部、低周波部の順序で透明化処理を行い、トリミングオブジェクトを背景とは分離した状態で取得する。また、携帯端末は、取得したトリミングオブジェクトを、背景イメージとバーチャルに合成した画像を生成し、画面に表示する。
次に、取得したトリミングマーカにより抽出されたオブジェクト(風車)がどのように動作するかについて、図を用いて具体的に説明する。図17は、取得したトリミングマーカによる風車の動作例を示す図である。具体的には、図17(a)〜図17(d)の順に動作が遷移する。
例えば、あるユーザが、例えばスマートフォン等の携帯端末を使用して、風車イメージの写真を撮影すると(図17(a))、ターゲットイメージである風車イメージ(トリミングオブジェクト)は、上述した本実施形態による手法により背景イメージから分けられる(図17(b))。その後、風車及び背景イメージは、携帯端末の表示画面に表示される(図17(c))。
ここで、ユーザは、上述した二次的な指示情報として、スマートフォンに設けられたマイク等の音声入力装置に息や呼吸を吹きかけたり、何か喋ったりすることにより、その音量(ボリューム)又は音の変化を把握し、その変化量に応じて風車を回転させるイメージを作る(図17(d))。なお、どのような二次的な指示情報に対してどのような動作を行うかについては、予め設定されていてもよく、またトリミングマーカの情報から抽出されていてもよい。
なお、上述の処理は、携帯端末で行われる。したがって、携帯端末には、上述した第2の画像情報取得装置15及び認識装置16としての機能を有し、それらの機能は、上述した認識プログラムにおけるARアプリケーションによって実現される。
なお、実施例1では、上述したトリミングマーカを用いて動作を指示する場合に、画面上にトリミングマーカが複数あれば、各オブジェクト(風車)に対応するトリミングマーカに含まれる埋込情報の指示内容によってオブジェクト毎に動作してもよく、また1つのトリミングマーカに含まれる指示情報によって、抽出された複数のオブジェクトに対して動作内容を指示してもよい。これにより、例えば、複数のオブジェクトで同一の動作を行う場合には、それぞれのオブジェクトに対応するトリミングマーカに対して、動作指示情報等を含む埋込情報を設定する必要がなく、1つの埋込情報により複数のオブジェクトを動作させることができるため、効率的且つ迅速にオブジェクト動作を実現できる。
ここで、図18は、画像中に含まれる非可視化情報と動作指示情報との関係を説明するための図である。なお、図18(a)は埋込画像の一例を示し、図18(b)は非可視化情報及び動作指示情報(埋込情報)が埋め込まれたオブジェクトの拡大図(動作指示情報のガイドライン付き)を示し、図18(c)は図18(b)に対応するガイドラインなしの図を示している。
次に、図18(a)に示す埋込画像91では、画像中の3つの風車のオブジェクトのうち、2つのオブジェクトに非可視化情報92−1,92−2が埋め込まれている。したがって、上述した実施例1においては、認識装置16において、オブジェクトと認識され抽出されるオブジェクトは、非可視化情報92−1,92−2で囲まれた2つの風車のみとなる。なお、図18(a)〜図18(c)の例では、説明の便宜上、非可視化情報92−1,92−2の外枠が可視化している。
次に、図18(b)の例では、非可視化情報92−2の4隅に動作指示情報(埋込情報)93−1〜93−4が埋め込まれている。なお、図18(b)の例では、動作指示情報93−1〜93−4の埋め込み領域にガイドライン(実線)が示されているが、実際の画像では、図18(c)に示すようになる。
ここで、動作指示情報が非可視化情報のどこに埋め込まれるかについては、本発明においてはこれに限定されるものではなく、例えば非可視化情報の少なくとも1つの隅であってもよく、非可視化情報の外枠上にあってもよい。また、動作指示情報93−1〜93−4を上述した回転検知パターンとして利用することもできる。
なお、図18(b)に示す動作指示情報93−1〜93−4は、例えば各隅に各4ビットの情報が埋め込まれている。したがって、動作指示情報93−1〜93−4は、この4隅の情報を所定の順序で繋げて全16ビットとして、1つの情報を生成することができる。なお、16ビットを用いることで、65536通りのコードパターンを取得することができるため、コードから得られる情報をIDや動作スイッチとして用いることで、オブジェクトに対して多種の動作内容や表示手法を設定することができる。
更に、実施例1では、上述した4隅の埋込情報に対応する動作を所定の順序及びタイミングで実行させてもよく、また、1つの埋込情報の内容を抽出された全てのオブジェクトに対して実行させてもよい。
なお、上述した埋込情報は、予め特定された範囲に埋め込んでおくことで、上述した非可視化情報解析手段46にて解析する際、その特定された範囲を参照することで、即座に埋込情報を取得することができる。
<実施例2>
図19は、実施例2におけるARアプリケーションシステムの一例を示す図である。なお、図19におけるARアプリケーションシステムも上述した実施例1と同様に携帯端末を用いて行うことができる。なお、ここで使用される携帯端末は、例えば上述した第2の画像情報取得装置15及び認識装置16としての機能を有する。
実施例2では、例えば絵本等の紙媒体100の中に所定の動作をさせるターゲットであるトリミングオブジェクト101(図19の例では、赤とんぼ)が描かれている。また、トリミングオブジェクト101の周囲には、上述したトリミングマーカ102が埋め込まれている。なお、図19では、説明の便宜上、トリミングマーカ102の外枠を点線で示しているが、実際の紙媒体100には、このような点線は存在しない。
また、このトリミングマーカ102内には、図19に示すように、トリミングオブジェクト101の外形の周囲に低周波部103が埋め込まれ、更に低周波部103の外側に高周波部104が埋め込まれている。また、トリミングマーカ102内には、トリミングオブジェクト101に所定の動作を行わせるための動作指示情報105−1〜105−4が埋め込まれている。
実施例2では、この紙媒体100を携帯端末等に設けられたカメラ(画像情報取得装置15)等で撮影する。また、携帯端末(認識装置16)は、撮影された画像からトリミングマーカ102を取得する。また、トリミングマーカの4隅には、動作指示情報が埋め込まれており、この動作指示情報の値によってトリミングオブジェクト101の動作を変化させる。
ここで、動作指示情報105−1〜105−4は、例えばそれぞれ1ビットずつ情報が埋め込まれている。したがって、動作指示情報105−1〜105−4から動作指示情報を取得するためには、例えば4隅の情報を特定の順序(例えば時計回り)等で読み、例えば読み込んだ結果に応じて予め設定された動作を、背景イメージと分離してバーチャルに合成されているトリミングオブジェクト101に実行させる。具体的には、例えば動作指示情報(4ビット)が「1100」である場合には、トリミングオブジェクト101を右に動かす。また、動作指示情報が、「1010」である場合にはトリミングオブジェクト101を左に動かし、「1111」である場合にはトリミングオブジェクト101をその場で回転させる等といった動作を行うことができる。実施例2における動作内容においては、これに限定されるものではなく、例えばトリミングオブジェクト101である赤とんぼが飛び去る方向を変化させることができる。また、動作指示情報によりトリミングオブジェクトの姿勢(例えば、位置(座標)、向き)や移動速度等を取得することもできる。
また、上述した動作の実行タイミングは、例えばユーザが、携帯端末の画面に表示されたトリミングオブジェクト101を画面上でタップ(叩く、触れる、擦る等の意味を広く含む)することで、所定の動作させることができるが、本発明においてはこれに限定されるものではない。例えば、携帯端末のインカメラ(ユーザ側カメラ)を用いて明度の変化をリアルタイムで認識し、例えば予め設定された平均明度よりも一定以上低くなった場合に、トリミングオブジェクト101に触ろうとしていると判断して、トリミングオブジェクト101である赤とんぼが飛び去ってしまうような動作を行わせてもよい。
なお、動作指示情報に応じて設定される動作内容については、予め蓄積手段等に蓄積されていてもよく、また予め設定された外部装置等に通信ネットワーク等を介して接続し、接続した外部装置から対象の動作内容を取得してもよい。これにより、例えば同一の動作指示内容でありながら、蓄積手段等に蓄積された動作内容と外部装置から取得される動作内容で異なる動作を行わせることもできる。また、外部装置等から動作内容を取得することで、動作の変更等を外部装置の管理で自由に行うことができる。
<実施例3>
図20は、実施例3におけるARアプリケーションシステムの一例を示す図である。なお、図20におけるARアプリケーションシステムも上述した実施例2と同様に携帯端末を用いて行うことができる。
実施例3では、例えば絵本等の紙媒体110の中に所定の動作をさせるターゲットである複数のトリミングオブジェクト111−1〜111−4(図20の例では、鯉)が描かれている。また、各トリミングオブジェクト111−1〜111−4の周囲には、上述したトリミングマーカ112−1〜112−4が、各トリミングオブジェクトに対応させて埋め込まれている。
このトリミングマーカ112−1〜112−4内には、図19と同様に各トリミングオブジェクト111−1〜111−4の外形の周囲に低周波部が埋め込まれ、更に低周波部の外側に高周波部が埋め込まれている。また、トリミングマーカ112−1〜112−4内には、各トリミングオブジェクト111−1〜111−4に所定の動作を行わせるための動作指示情報が埋め込まれている。
実施例3では、この紙媒体110を携帯端末等に設けられたカメラ(画像情報取得装置15)等で撮影する。また、携帯端末(認識装置16)は、撮影された画像からトリミングマーカ112−1〜112−4を取得する。又、携帯端末は、取得したトリミングマーカ112−1〜112−4に基づいて、トリミングしたトリミングオブジェクト111−1〜111−4である鯉と背景画像とを分離し、これをバーチャルに合成した画像を生成し画面に表示する。
なお、トリミングマーカ112−1〜112−4内には、上述したように、動作指示情報が埋め込まれており、この動作指示情報の値によって、上述した実施例と同様に各トリミングオブジェクト111−1〜111−4の動作を変化させる。なお、この動作指示情報は、4隅ではなく、例えばトリミングマーカ112−1〜112−4内の周囲に埋め込まれていてもよく、予め設定されたトリミングマーカ内の所定の位置に埋め込まれていればよい。
例えば、実施例3では、ユーザの手113で撮影された画像が表示された画面をタップすると、波紋が広がり、各トリミングオブジェクト111−1〜111−4である鯉が放射線状に逃げ出す動作を行う。具体的には、例えばユーザの手113の指先で画面がタップされると、携帯端末(認識装置16)がタップされた座標と各トリミングオブジェクト111−1〜111−4である鯉の座標を取得し、取得したそれぞれの座標を用いて、各トリミングオブジェクト111−1〜111−4の進む方向ベクトルを生成する。
なお、この場合には、動作指示情報に、各トリミングオブジェクト111−1〜111−4がどちらを向いているかの角度情報を埋め込んでおく。また、動作指示情報は、例えばトリミングマーカ112−1〜112−4の4隅ではなく、各マーカの周囲に8ビットの情報を埋め込み、0〜360度で表現できるようにすることもできる。
更に、携帯端末は、その方向ベクトルを正規化することで、各トリミングオブジェクト111−1〜111−4の進む速度を調節する。このようにベクトルを生成することで、携帯端末上の画面上のどこをタップしても、各トリミングオブジェクト111−1〜111−4が放射線状に逃げるように動作させることができる。
<実施例4>
図21は、実施例4におけるARアプリケーションシステムの一例を示す図である。なお、図21におけるARアプリケーションシステムも上述した実施例2と同様に携帯端末を用いて行うことができる。
実施例4では、例えばファッション雑誌等の紙媒体120の中に所定の動作をさせるターゲットである複数のトリミングオブジェクト121−1,121−2(図21の例では、衣類)が描かれている。また、トリミングオブジェクト121−1,121−2の周囲には、上述したトリミングマーカ122−1,122−2が、各トリミングオブジェクト121−1,121−2に対応させて埋め込まれている。
実施例4では、この紙媒体120を携帯端末等に設けられたカメラ(画像情報取得装置15)等で撮影する。また、携帯端末(認識装置16)は、撮影された画像からトリミングマーカ122−1,122−2を取得する。また、携帯端末は、取得したトリミングマーカ122−1,122−2に基づいて、トリミングしたトリミングオブジェクト121−1,121−2である衣類と背景画像とを分離し、これをバーチャルに合成した画像を生成し、画面130に表示する。また、トリミングされた画像は画面上に拡大・縮小、回転、移動が可能であり、ユーザは商品を撮影する毎に画面上に衣類等の画像が追加されるため、自分の好きなようにコーディネートを楽しむことができる。
したがって、実施例4では、上述した機能を行うことで、例えばファッションコーディネイトアプリとして提供することができる。具体的には、ファッション雑誌等に掲載されている服のオブジェクト131−1やスカートのオブジェクト131−2、靴のオブジェクト131−3等の商品にトリミングマーカを埋め込み、ユーザが気に入った商品を携帯端末で撮影すると、それぞれの商品が携帯端末の画面130上に切り出されて画面に表示される。ユーザは、携帯端末の画面130に表示される各商品から好みのものをユーザの手132で選択し、移動させることで画面130上でバーチャルにコーディネートすることができる。
なお、実施例4では衣類に限定されるものではなく、例えば、帽子や眼鏡、アクセサリー、鞄等も含み、また顔画像等を取り込んで自分の顔に合わせてコーディネートすることもできる。
また、上述したファッションコーディネイトアプリの場合には、例えば商品の裏側の画像(例えば、上着やスカートの裏側のデザイン等)や値段、色情報等をトリミングマーカ内に埋め込まれた動作指示情報から取得することができる。なお、例えば裏側のデザイン画像等のようにデータ容量の大きくなる場合には、Web等によるブラウザ表示により画像を閲覧することもできる。つまり、動作指示情報は、例えば埋め込む情報が小さい場合いには(例えば数ビット程度)マーカの4隅や周囲にそれぞれの情報を埋め込み、埋め込む情報が大きい場合には、情報のID(識別情報)のみを埋め込んでおき、トリミングを行うと同時に所定の外部装置(サーバ)にIDを送り、対応する情報をWeb等から取得することができる。
ここで、上述した各実施例では、トリミングマーカを認識した後、動作指示情報に伴う動作を直ぐに行ってもよく、認識してから所定時間経過後に行ってもよく、更に認識した後、ユーザにより携帯端末(認識装置)に対して所定の動作や操作が行われたときに行ってもよい。
また、複数のオブジェクトに対して動作を行わせる場合には、それぞれのオブジェクトに対して動作指示情報で設定しておいてもよく、それぞれの動作指示情報から複数のオブジェクトに対して複合的な処理を行わせることもできる。なお、複合的な動作とは、例えば、2人の人間のオブジェクトがあった場合に、2人が肩を組んだり、握手をしたり、肩車をする等といった動作であるであるが、本発明においてはこれに限定されるものではない。
更に、本実施形態においては、動作指示情報として、他のオブジェクトに対する動作を含めることもできる。これにより、オブジェクト全体として統一した動作を行わせることができる。なお、統一した動作とは、例えば複数の人間のオブジェクトの全員が手を振るといった動作である。また、動作指示情報として、例えば、オブジェクトが人物である場合に、その人物に関する情報(氏名、年齢、性別等)やホームページ、ブログ等のアドレス等の付加情報を埋め込むこともできる。更に、付加情報として、トリミングオブジェクトとは別の他のオブジェクトを画面に表示させるための情報を付加することもできる。
また、他の実施例としては、例えば商品や食品の包装や箱、容器、又は説明書等に上述したトリミングマーカを埋め込んでおき、それをカメラで撮影して画像を認識することで、その商品の説明書や使用方法、調理法等を画面に表示することできる。例えば、例えばトリミングオブジェクトとして化粧品(例えば、口紅、アイシャドウ、マスカラ等)があった場合に、トリミングマーカによりその化粧品等の色情報を取得し、自分又は他人の顔画像に対して色情報を用いてメーキャップすることもできる。
なお、上述した実施例2〜4に示す紙媒体100,110,120は、画面に表示された画像であってもよい。また、画像には、映像も含まれる。
上述したように本発明によれば、非可視化情報の埋め込みや抽出を迅速に行うと共に付加価値性に優れた高精度なコンテンツを提供することができる。
以上本発明の好ましい実施例等について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。
10 コンテンツ提供システム
11 第1の印刷媒体
12 第1の画像情報取得装置
13 埋込装置
14 第2の印刷媒体
15 第2の画像情報取得装置
16 認識装置
21,41 入力手段
22,42 出力手段
23,43 蓄積手段
24 画像取得手段
25 画像解析手段
26 埋込対象オブジェクト設定手段
27 埋込情報設定手段
28 埋込情報生成手段
29 非可視化情報埋込手段
30,48 送受信手段
31,49 制御手段
44 埋込画像取得手段
45 オブジェクト抽出手段
46 非可視化情報解析手段
47 表示情報生成手段
51 入力装置
52 出力装置
53 ドライブ装置
54 補助記憶装置
55 メモリ装置
56 CPU
57 ネットワーク接続装置
58 記録媒体
61 画像データ(撮影画像)
62,131 オブジェクト
63 外枠
64 輪郭
65 コード内枠
66,104 高周波部
67,103 低周波部
71 トリミング画像
81 位置検知パターン
82 回転検知パターン
84 エッジ
91 埋込画像
92 非可視化情報
93 動作指示情報(埋込情報)
100,110,120 紙媒体
101,111,121 トリミングオブジェクト
102、112,122 トリミングマーカ
105 動作指示情報
113,132 手
130 画面

Claims (13)

  1. 取得した画像の所定の位置に非可視化情報を埋め込む非可視化情報の埋込装置と、該埋込装置により得られる画像に含まれるオブジェクト及び非可視化情報を認識する認識装置とからなる非可視化情報を用いたコンテンツ提供システムにおいて、
    前記埋込装置は、
    前記取得した画像に含まれるオブジェクトから非可視化情報を埋め込むオブジェクトを設定する埋込対象オブジェクト設定手段と、
    前記埋込対象オブジェクト設定手段により得られるオブジェクトの周囲に前記オブジェクトに対応する前記非可視化情報を埋め込む非可視化情報埋込手段とを有し、
    前記認識装置は、
    前記画像中に含まれる非可視化情報の埋め込み領域に囲まれたオブジェクトを抽出するオブジェクト抽出手段と、
    前記オブジェクト抽出手段により前記オブジェクトが抽出された場合、前記非可視化情報から、前記オブジェクトに対する処理内容を解析する非可視化情報解析手段と、
    前記非可視化情報解析手段により得られる処理内容に対応させて画面に表示させるオブジェクトを生成する表示情報生成手段とを有することを特徴とするコンテンツ提供システム。
  2. 取得した画像の所定の位置に非可視化情報を埋め込む非可視化情報の埋込装置において、
    前記画像に含まれるオブジェクト及び該オブジェクトの位置情報を取得する画像解析手段と、
    前記画像解析手段により得られたオブジェクトから前記非可視化情報の埋め込み対象となるオブジェクトを設定する埋込対象オブジェクト設定手段と、
    前記埋込対象オブジェクト設定手段により得られるオブジェクトに対し、前記画像解析手段により得られる前記オブジェクトの位置情報に基づいて、前記オブジェクトの周囲に前記オブジェクトに対応するオブジェクト抽出用の非可視化情報を埋め込む非可視化情報埋込手段とを有することを特徴とする埋込装置。
  3. 前記非可視化情報埋込手段により埋め込まれる前記非可視化情報の埋め込み内容を設定する埋込情報設定手段と、
    前記埋込情報設定手段により設定された埋込情報から非可視化された埋込情報を生成する埋込情報生成手段とを有することを特徴とする請求項2に記載の埋込装置。
  4. 前記埋込情報設定手段は、
    前記非可視化情報の形態を2次元コードとし、前記2次元コードのコード部を原画像の明度に対する低周波部及び/又は高周波部で構成することを特徴とする請求項3に記載の埋込装置。
  5. 取得した画像に含まれるオブジェクト及び非可視化情報を認識する認識装置において、
    前記画像中に含まれる非可視化情報の埋め込み領域に囲まれたオブジェクトを抽出するオブジェクト抽出手段と、
    前記オブジェクト抽出手段により前記オブジェクトが抽出された場合、前記非可視化情報から、前記オブジェクトに対する処理内容を解析する非可視化情報解析手段と、
    前記非可視化情報解析手段により得られる処理内容に対応させて画面に表示させるオブジェクトを生成する表示情報生成手段とを有することを特徴とする認識装置。
  6. 前記オブジェクト抽出手段は、
    前記画像を所定の周波数を用いてフィルタリング処理を行い、取得した周波数に対応する領域から非可視化情報を抽出することを特徴とする請求項に記載の認識装置。
  7. 取得した画像の所定の位置に非可視化情報を埋め込む非可視化情報の埋込方法において、
    前記画像に含まれるオブジェクト及び該オブジェクトの位置情報を取得する画像解析ステップと、
    前記画像解析ステップにより得られたオブジェクトから前記非可視化情報の埋め込み対象となるオブジェクトを設定する埋込対象オブジェクト設定ステップと、
    前記埋込対象オブジェクト設定ステップにより得られるオブジェクトに対し、前記画像解析ステップにより得られる前記オブジェクトの位置情報に基づいて、前記オブジェクトの周囲に前記オブジェクトに対応するオブジェクト抽出用の非可視化情報を埋め込む非可視化情報埋込ステップとを有することを特徴とする埋込方法。
  8. 前記非可視化情報埋込ステップにより埋め込まれる前記非可視化情報の埋め込み内容を設定する埋込情報設定ステップと、
    前記埋込情報設定ステップにより設定された埋込情報から非可視化された埋込情報を生成する非可視化情報生成ステップとを有することを特徴とする請求項に記載の埋込方法。
  9. 前記埋込情報設定ステップは、
    前記非可視化情報の形態を2次元コードとし、前記2次元コードのコード部を原画像の明度に対する低周波部及び/又は高周波部で構成することを特徴とする請求項に記載の埋込方法。
  10. 取得した画像に含まれるオブジェクト及び非可視化情報を認識する認識方法において、
    前記画像中に含まれる非可視化情報の埋め込み領域に囲まれたオブジェクトを抽出するオブジェクト抽出ステップと、
    前記オブジェクト抽出ステップにより前記オブジェクトが抽出された場合、前記非可視化情報から、前記オブジェクトに対する処理内容を解析する非可視化情報解析ステップと、
    前記非可視化情報解析ステップにより得られる処理内容に対応させて画面に表示させるオブジェクトを生成する表示情報生成ステップとを有することを特徴とする認識方法。
  11. 前記オブジェクト抽出ステップは、
    前記画像を所定の周波数を用いてフィルタリング処理を行い、取得した周波数に対応する領域から非可視化情報を抽出し、抽出した領域を所定の画素ですることを特徴とする請求項10に記載の認識方法。
  12. コンピュータを、請求項2乃至の何れか1項に記載の埋込装置が有する各手段として機能させるための埋込プログラム。
  13. コンピュータを、請求項又はに記載の認識装置が有する各手段として機能させるための認識プログラム。
JP2011187597A 2010-12-07 2011-08-30 非可視化情報を用いたコンテンツ提供システム、非可視化情報の埋込装置、認識装置、埋込方法、認識方法、埋込プログラム、及び認識プログラム Active JP4972712B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011187597A JP4972712B1 (ja) 2010-12-07 2011-08-30 非可視化情報を用いたコンテンツ提供システム、非可視化情報の埋込装置、認識装置、埋込方法、認識方法、埋込プログラム、及び認識プログラム
TW100145223A TW201237802A (en) 2010-12-07 2011-12-07 Content-providing system using invisible information, invisible information embedding device, recognition device, embedding method, recognition method, embedding program, and recognition program
PCT/JP2011/078315 WO2012077715A1 (ja) 2010-12-07 2011-12-07 非可視化情報を用いたコンテンツ提供システム、非可視化情報の埋込装置、認識装置、埋込方法、認識方法、埋込プログラム、及び認識プログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010272994 2010-12-07
JP2010272994 2010-12-07
JP2011187597A JP4972712B1 (ja) 2010-12-07 2011-08-30 非可視化情報を用いたコンテンツ提供システム、非可視化情報の埋込装置、認識装置、埋込方法、認識方法、埋込プログラム、及び認識プログラム

Publications (2)

Publication Number Publication Date
JP4972712B1 true JP4972712B1 (ja) 2012-07-11
JP2012138892A JP2012138892A (ja) 2012-07-19

Family

ID=46207201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011187597A Active JP4972712B1 (ja) 2010-12-07 2011-08-30 非可視化情報を用いたコンテンツ提供システム、非可視化情報の埋込装置、認識装置、埋込方法、認識方法、埋込プログラム、及び認識プログラム

Country Status (3)

Country Link
JP (1) JP4972712B1 (ja)
TW (1) TW201237802A (ja)
WO (1) WO2012077715A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5779158B2 (ja) * 2012-09-18 2015-09-16 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
KR102146244B1 (ko) 2013-02-22 2020-08-21 삼성전자주식회사 휴대 단말에 대한 동작 관련 입력에 따라 복수개의 객체들의 표시를 제어하는 방법 및 이를 위한 휴대 단말
US9258485B2 (en) * 2014-03-24 2016-02-09 Omnivision Technologies, Inc. Image sensor cropping images in response to cropping coordinate feedback
TWI533633B (zh) * 2014-04-03 2016-05-11 揚昇照明股份有限公司 無線傳輸系統之裝置及其程式
JP2017183942A (ja) * 2016-03-29 2017-10-05 株式会社リコー 情報処理装置
JP6891055B2 (ja) * 2017-06-28 2021-06-18 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US10885689B2 (en) * 2018-07-06 2021-01-05 General Electric Company System and method for augmented reality overlay
JP6637576B1 (ja) * 2018-10-31 2020-01-29 ソノー電機工業株式会社 情報処理プログラム、サーバ・クライアントシステム、及び情報処理方法
TWI708164B (zh) * 2019-03-13 2020-10-21 麗寶大數據股份有限公司 虛擬彩妝系統與虛擬彩妝上色方法
JP7451159B2 (ja) * 2019-12-09 2024-03-18 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3214907B2 (ja) * 1992-08-06 2001-10-02 松下電器産業株式会社 画像処理装置
JPH1141453A (ja) * 1997-07-24 1999-02-12 Nippon Telegr & Teleph Corp <Ntt> 電子透かし埋め込み読み出し処理方法,電子透かし埋め込み処理プログラム記憶媒体および電子透かし読み出し処理プログラム記憶媒体
JP2002118736A (ja) * 2000-10-10 2002-04-19 Konica Corp 電子透かし挿入装置および電子透かし抽出装置ならびに電子透かしシステム
JP2004194233A (ja) * 2002-12-13 2004-07-08 Mitsubishi Electric Corp コンテンツ管理装置及びコンテンツ配信装置
JP4676852B2 (ja) * 2005-09-22 2011-04-27 日本放送協会 コンテンツ送信装置
JP5168124B2 (ja) * 2008-12-18 2013-03-21 富士通株式会社 画像のマーカ付加装置、方法、及びプログラム

Also Published As

Publication number Publication date
WO2012077715A1 (ja) 2012-06-14
JP2012138892A (ja) 2012-07-19
TW201237802A (en) 2012-09-16

Similar Documents

Publication Publication Date Title
JP4972712B1 (ja) 非可視化情報を用いたコンテンツ提供システム、非可視化情報の埋込装置、認識装置、埋込方法、認識方法、埋込プログラム、及び認識プログラム
JP5021061B2 (ja) 非可視化情報埋込装置、非可視化情報認識装置、非可視化情報埋込方法、非可視化情報認識方法、非可視化情報埋込プログラム、及び非可視化情報認識プログラム
KR101330811B1 (ko) 인스턴트 마커를 이용한 증강 현실 장치 및 방법
US10186084B2 (en) Image processing to enhance variety of displayable augmented reality objects
JP2017108401A5 (ja) スマートフォンベースの方法、スマートフォン及びコンピュータ可読媒体
JP4642695B2 (ja) アルバム作成システム、アルバム作成方法、プログラムおよびアルバム作成装置
JP2011209887A (ja) アバター作成方法、アバター作成プログラム、およびネットワークサービスシステム
KR20100138863A (ko) 카메라 탑재 단말기에서 코드에 대응하는 증강현실과 개인화된 콘텐츠를 제공하는 방법
CN107621966B (zh) 图形用户界面显示方法、装置和终端设备
US20230377291A1 (en) Generating augmented reality content based on third-party content
JPWO2018135246A1 (ja) 情報処理システム及び情報処理装置
CN111625100A (zh) 图画内容的呈现方法、装置、计算机设备及存储介质
JP2017027482A (ja) サーバ、データ提供方法及びサーバ用プログラム
TWI744962B (zh) 資訊處理裝置、資訊處理系統、資訊處理方法、及程式產品
CN111640190A (zh) Ar效果的呈现方法、装置、电子设备及存储介质
KR101749104B1 (ko) 3d 모델을 이용하는 광고 시스템 및 광고 방법
KR101738896B1 (ko) 패턴 복사를 이용한 가상 피팅 시스템 및 그 방법
JP6001275B2 (ja) 非可視化情報埋込装置、非可視化情報埋込方法、及び非可視化情報埋込プログラム
JP2011130386A (ja) 画像表示装置、画像表示方法、携帯端末
JP2013197827A (ja) 撮影補助装置、方法、並びに該撮影補助装置を搭載した撮影装置及びカメラ付き携帯端末
JP6168872B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2021044797A (ja) Ar撮影記録双方向システム
KR101754993B1 (ko) 증강 현실을 이용한 포토존 촬영 장치
JP2019185349A (ja) 検索装置、検索方法及びプログラム
JP3239472U (ja) 多機能ar双方向装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120313

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120409

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4972712

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250