JP6305757B2 - プログラム - Google Patents

プログラム Download PDF

Info

Publication number
JP6305757B2
JP6305757B2 JP2013266833A JP2013266833A JP6305757B2 JP 6305757 B2 JP6305757 B2 JP 6305757B2 JP 2013266833 A JP2013266833 A JP 2013266833A JP 2013266833 A JP2013266833 A JP 2013266833A JP 6305757 B2 JP6305757 B2 JP 6305757B2
Authority
JP
Japan
Prior art keywords
information processing
processing apparatus
image
display
content data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013266833A
Other languages
English (en)
Other versions
JP2015122707A (ja
Inventor
源治郎 片山
源治郎 片山
崇 ▲松▼村
崇 ▲松▼村
幸彦 青柳
幸彦 青柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DIGITAL STANDARD CO., LTD.
Original Assignee
DIGITAL STANDARD CO., LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DIGITAL STANDARD CO., LTD. filed Critical DIGITAL STANDARD CO., LTD.
Priority to JP2013266833A priority Critical patent/JP6305757B2/ja
Publication of JP2015122707A publication Critical patent/JP2015122707A/ja
Application granted granted Critical
Publication of JP6305757B2 publication Critical patent/JP6305757B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、カメラの撮影により得られる撮影画像データに、別の画像を合成して表示するための技術に関する。
スマートフォン、タブレット端末など、カメラを備えた情報処理装置が広く普及している。ユーザは、これらカメラ機能を利用して、例えばユーザ同士を撮影し、SNS(Social Networking Service)サイトやグループチャットアプリ等に投稿して撮影画像をユーザ間で共有している。
これらスマートフォンなどの情報処理装置に対して、数々のアプリケーションが提供されている。情報処理装置は、例えばアプリケーションストアを通じて、配信サーバからアプリケーションをダウンロードする。これらアプリケーションは、例えば、カメラが生成する画像信号に基づき、情報処理装置のディスプレイに撮影画像のプレビューを表示しつつ、撮影画像に対し、アイコンなど別の画像を合成する操作をユーザから受け付けて、合成画像を生成するためのものなどがある。撮影画像に対して別の画像を合成するための技術は、例えば特開2008−103873号公報(特許文献1)に開示されている。
情報処理装置は、アプリケーションを起動して、例えば、撮影画像に合成するための画像を指定する入力操作をユーザから受け付けて、撮影画像に対し、ユーザが指定する位置に画像を合成する。例えば、情報処理装置のユーザが、被写体となる別の人物を撮影し、撮影画像に合成するための画像として、炎や刀などのアニメーション画像を指定したとする。また、ユーザが、撮影画像の被写体の手の部分を、アニメーション画像を合成する位置として指定したとする。情報処理装置は、撮影画像を表示するとともに、ユーザが指定した位置(被写体の手の部分)にアニメーション画像を合成する。これにより、ユーザは、被写体とアニメーション画像とを合成し、他のユーザ(例えば、被写体となったユーザ)と画像を共有して楽しむことができる。
特開2008−103873号公報
しかし、撮影画像に対してユーザがアニメーション画像を合成する場合に、アニメーション画像を合成する位置を指定する操作をする必要があるため、ユーザにとって入力操作が煩雑になることがある。例えば、アニメーション画像を、被写体のどの部位に合成すべきか定まっている場合(例えば、アニメーション画像が、刀など手に把持するものである場合)に、ユーザが、都度、被写体の手の位置を指定してアニメーション画像を合成することが、ユーザにとって手間に感じられることがある。
ただし、アニメーション画像を被写体のどの部分に合成すべきかがある程度定まっている場合は、その合成すべき位置を画像認識処理等によって検出することもできる。例えば、眼鏡など顔に装着する物品を示す画像を、被写体の顔の一部分に合成する場合を想定する。この場合、情報処理装置は、顔検出処理によって目の位置等を検出し、検出された位置に基づいて、アニメーション画像を合成すべき位置をある程度特定することができる。これにより、ユーザの入力操作の手間を軽減することも期待できる。しかし、撮影環境の光量など、被写体を撮影する状況によっては、撮影画像から、画像認識処理等によってアニメーション画像を合成すべき位置を特定することが困難になることもある。
したがって、撮影画像に対し、別の画像を合成する場合に、その別の画像を合成する位置の調整をするユーザの手間を軽減し、また、被写体の撮影環境にかかわらず、画像を合成すべき位置を検出する精度を向上させる技術が必要とされている。
一実施形態に従うと、情報処理装置の動作を制御するためのプログラムが提供される。情報処理装置は、カメラと、他の情報処理装置と通信するための通信モジュールと、カメラによる撮影画像を表示するための第1のディスプレイと、撮影画像に合成されるコンテンツデータを記憶するためのメモリと、情報処理装置の動作を制御するためのプロセッサとを備える。他の情報処理装置は、他の情報処理装置が備える第2のディスプレイに、画像認識処理によって検出される特定の画像を表示するよう構成される。このプログラムは、プロセッサに、他の情報処理装置との通信接続を確立するステップと、通信接続を確立した他の情報処理装置に対し、特定の画像を第2のディスプレイに表示するための表示設定を送信するステップと、他の情報処理装置をカメラで撮影することにより得られる撮影画像に対し、表示設定に基づいて画像認識処理を行うことにより、撮影画像に含まれる特定の画像を検出するステップと、撮影画像に対する特定の画像の検出結果に基づいて、コンテンツデータを合成する位置を決定し、決定された位置にコンテンツデータを合成した合成画像データを生成するステップと、生成された合成画像データを第1のディスプレイに表示するステップとを実行させる。
別の実施形態に従うと、情報処理装置の動作を制御するためのプログラムが提供される。情報処理装置は、他の情報処理装置と通信するための通信モジュールと、画像を表示するためのディスプレイと、情報処理装置の動作を制御するためのプロセッサとを備える。プログラムは、プロセッサに、他の情報処理装置との通信接続を確立するステップと、ディスプレイに、画像認識処理によって検出される特定の画像を表示するステップと、通信接続を確立した他の情報処理装置から、特定の画像をディスプレイに表示するための表示設定を受信するステップとを実行させ、特定の画像を表示するステップは、他の情報処理装置から受信した表示設定に従って、特定の画像をディスプレイに表示させるステップを含む。
別の実施形態に従うと、第1の情報処理装置と第2の情報処理装置とからなるシステムにおいて合成画像を生成する方法が提供される。第1の情報処理装置は、カメラと、第2の情報処理装置と通信するための第1の通信モジュールと、カメラによる撮影画像を表示するための第1のディスプレイと、撮影画像に合成されるコンテンツデータを記憶するためのメモリと、第1の情報処理装置の動作を制御するためのプロセッサとを備える。第2の情報処理装置は、第1の情報処理装置と通信するための第2の通信モジュールと、画像認識処理によって検出される特定の画像を表示するよう構成される第2のディスプレイとを備える。この方法は、第1の情報処理装置と第2の情報処理装置とが、互いに通信接続を確立するステップと、第1の情報処理装置が、通信接続を確立した第2の情報処理装置に対し、特定の画像を第2のディスプレイに表示するための表示設定を送信するステップと、第1の情報処理装置が、第2の情報処理装置をカメラで撮影することにより得られる撮影画像に対し、表示設定に基づいて画像認識処理を行うことにより、撮影画像に含まれる特定の画像を検出するステップと、第1の情報処理装置が、撮影画像において、検出された特定の画像に基づいて、コンテンツデータを合成する位置を決定し、決定された位置にコンテンツデータを合成した合成画像データを生成するステップと、第1の情報処理装置が、生成された合成画像データを第1のディスプレイに表示するステップとを含む。
別の実施形態に従うと、撮影機能を有する情報処理装置が提供される。情報処理装置は、カメラと、他の情報処理装置と通信するための通信モジュールと、カメラによる撮影画像を表示するための第1のディスプレイと、撮影画像に合成されるコンテンツデータを記憶するためのメモリと、情報処理装置の動作を制御するためのプロセッサとを備え、他の情報処理装置は、他の情報処理装置が備える第2のディスプレイに、画像認識処理によって検出される特定の画像を表示するよう構成され、プロセッサは、他の情報処理装置との通信接続を確立し、通信接続を確立した他の情報処理装置に対し、特定の画像を第2のディスプレイに表示するための表示設定を送信する通信処理部と、他の情報処理装置をカメラで撮影することにより得られる撮影画像に対し、表示設定に基づいて画像認識処理を行うことにより、撮影画像に含まれる特定の画像を検出する検出部と、撮影画像に対する特定の画像の検出結果に基づいて、コンテンツデータを合成する位置を決定し、決定された位置にコンテンツデータを合成した合成画像データを生成し、生成された合成画像データを第1のディスプレイに表示する映像処理部と、の各機能を発揮するよう構成される。
別の実施形態に従う情報処理装置は、他の情報処理装置と通信するための通信モジュールと、画像を表示するためのディスプレイと、情報処理装置の動作を制御するためのプロセッサとを備え、プロセッサは、他の情報処理装置との通信接続を確立し、通信接続を確立した他の情報処理装置から、特定の画像をディスプレイに表示するための表示設定を受信する通信処理部と、他の情報処理装置から受信した表示設定に従って、特定の画像をディスプレイに表示させる映像処理部と、の各機能を発揮するよう構成される。
上記一実施形態によると、撮影画像において、別の画像を合成する位置を調整するためのユーザの手間を軽減することができ、撮影画像に対し、別の画像を容易に合成することができる。また、被写体の撮影環境に対応して、情報処理装置間で通信が行なわれることで、撮影画像に対し、別の画像を合成する位置を検出する精度を向上させることができる。
この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。
実施の形態にかかる情報処理装置100が使用される状況の一例を示す図である。 情報処理装置100を含むネットワークの構成を示す図である。 情報処理装置100の構成を示すブロック図である。 コンテンツ管理テーブル33を示す図である。 被写体を撮影する撮影側の情報処理装置100において、撮影画像とコンテンツデータとを合成するためのユーザインタフェースの一例を示す図である。 情報処理装置100Mにおいて、AR(Augmented Reality)マーカを表示し、情報処理装置100Sの撮影画像に合成するコンテンツデータを指定するためのユーザインタフェースの一例を示す図である。 実施の形態1の情報処理装置100による、コンテンツデータと撮影画像とを合成して表示するための処理の概要を示す図である。 被写体となる情報処理装置100Mがマーカをディスプレイ16に表示する処理を示すフローチャートである。 被写体となる情報処理装置100Mが、撮影側の情報処理装置100Sからの通信を受信して、マーカの表示を変更する処理を示すフローチャートである。 被写体となる情報処理装置100Mが、情報処理装置100Mによる計測データを情報処理装置100Sへ送信するための送信タイマーイベント発生時の処理を示すフローチャートである。 撮影側となる情報処理装置100Sが、被写体となる情報処理装置100Mとの通信接続を確立し、情報処理装置100Mのディスプレイ16に表示されるARマーカ65を認識するための処理を示すフローチャートである。 撮影側となる情報処理装置100Sが、被写体となる情報処理装置100Mとの通信によってデータを受信し、ARデータをディスプレイ16に表示する設定を更新するための処理を示すフローチャートである。 撮影側となる情報処理装置100Sが、ディスプレイ16において撮影画像に合成するコンテンツデータを設定するための処理を示すフローチャートである。 撮影側となる情報処理装置100Sが、撮影画像に対して画像認識処理を行い、マーカの検出結果に応じてコンテンツデータを合成する処理を示すフローチャートである。 情報処理装置100Sが、コンテンツデータの合成のONまたはOFFを、情報処理装置100Mの指示によって受け付ける例を示す図である。 情報処理装置100において、撮影画像に合成する対象となるコンテンツデータを購入する入力操作を受け付けるためのインタフェースの例を示す図である。
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
<実施の形態1>
図1は、実施の形態にかかる情報処理装置100が使用される状況の一例を示す図である。図1では、情報処理装置100として、情報処理装置100Mと情報処理装置100Sとを示している(以下、情報処理装置100Mと情報処理装置100Sとを総称して情報処理装置100ということもある)。情報処理装置100は、例えば、タッチパネルを備えるスマートフォンであるが、スマートフォンに限られない。情報処理装置100は、カメラを備え、カメラが撮影した撮影画像をディスプレイ16に表示している。図1の例では、情報処理装置100Mを保持する被写体を、情報処理装置100Sが撮影している。情報処理装置100Mは、ディスプレイ16Mに、AR(Augmented Reality)マーカ65を表示している。情報処理装置100Sは、カメラによって被写体を撮影しており、撮影画像をディスプレイ16Sに表示している。情報処理装置100Sは、撮影画像から、被写体が保持している情報処理装置100Mのディスプレイ16に表示されるARマーカ65を、画像認識処理によって検出する。情報処理装置100Sは、検出したARマーカ65の位置に、撮影画像に合成するためのARモデルデータ(コンテンツデータ)を合成する。
情報処理装置100Sと情報処理装置100Mとは、無線LAN(Local Area Network)規格、Bluetooth(登録商標)など近距離無線通信用のプロトコルに従って通信接続し、互いにデータを送受信することができる。情報処理装置100Sは、撮影画像において情報処理装置100Mのディスプレイ16Mに表示されるARマーカ65を画像認識処理によって検出することを容易にするため、情報処理装置100Mと通信し、ARマーカ65の発光色を指定する。例えば、ARマーカ65が、情報処理装置100Mの周囲の環境と同種類の色で発光している場合に、情報処理装置100SによるARマーカ65の検出が困難になることがある。そこで、情報処理装置100Mの周囲の環境に少ない色でARマーカ65を発光させるよう、情報処理装置100Sが情報処理装置100Mに対して指示をする。これにより、被写体の周囲の環境にかかわらず、情報処理装置100SによるARマーカ65の検出の精度が高まる。
また、被写体となる情報処理装置100Mのユーザは、情報処理装置100Mが通信接続している情報処理装置100Sに対し、撮影画像からARマーカ65を検出したときにARマーカ65の位置に合成すべきコンテンツデータを指定することができる。これにより、情報処理装置100Mのユーザは、自らが被写体となった撮影画像において、どのコンテンツデータを合成するかを情報処理装置100Sに対して指定することができる。
なお、図1に示すように、情報処理装置100Sは、スピーカ23Sとフロントカメラ18Sとを備える。情報処理装置100Sのユーザは、フロントカメラ18Sを起動させてユーザ自身を容易に撮影することができる。例えばコンテンツデータを合成するためのマーカの模様をユーザが保持することで、情報処理装置100Sのユーザは、ディスプレイ16Sに表示されるユーザ自身と、コンテンツデータとの合成画像を容易に得ることができる。
図1の例では、被写体のユーザ(情報処理装置100Sのユーザ)は、漫画、ゲーム、アニメ、映画など、ある作品のキャラクターになりきっているとする。被写体は、キャラクターの衣装を装着し、ある姿勢を維持している。情報処理装置100Sは、撮影画像に対し画像認識処理を行うことで、被写体が保持する情報処理装置100Mのディスプレイ16Mに表示されたARマーカ65を検出し、検出結果に基づいて、コンテンツデータを合成する位置を設定する。これにより、例えば、被写体が、ある作品のキャラクターになりきっている場合に、情報処理装置100は、作品中の演出や作品中のアイテムなどを撮影画像に合成することができる。このように、情報処理装置100は、キャラクターになりきった感覚を被写体に対して提供することができる。
<構成>
図2は、情報処理装置100を含むネットワークの構成を示す図である。図2では、情報処理装置100として、情報処理装置100A、100B、100Cが示されている。情報処理装置100A、100Cは、スマートフォンであり、情報処理装置100Bは、タブレット端末である。図2を参照して、情報処理装置100Aは、無線基地局700と無線通信により接続し、ネットワーク800を経由して配信サーバ900と通信する。配信サーバ900は、情報処理装置100が撮影画像と合成してディスプレイ16に表示するための複数のコンテンツデータを記憶している。情報処理装置100Aは、配信サーバ900と通信することで、配信サーバ900からコンテンツデータを取得する。例えば、情報処理装置100は、使用可能な期間が定められたコンテンツデータや、課金処理によって購入することができるコンテンツデータなどを配信サーバ900から取得する。情報処理装置100Bは、ルータ600と無線通信により接続し、ネットワーク800を経由して配信サーバ900と通信する。情報処理装置100Cは、ルータ600と無線通信により接続し、ネットワーク800を経由して配信サーバ900と通信する。
情報処理装置100Bと情報処理装置100Cとは、無線通信規格に従って通信接続し、互いにデータを送受信することができる。情報処理装置100Bと情報処理装置100Cとは、撮影画像から、画像認識処理によって特定の画像(例えば、マーカ)を検出したときに、コンテンツデータを撮影画像に合成してディスプレイ16に表示する。情報処理装置100Bと情報処理装置100Cとは、互いに通信することにより、ディスプレイ16に表示するマーカの発光色を変更して撮影画像からマーカの検出を容易にする処理、撮影画像に合成するコンテンツデータを送受信する処理等を行う。
図3は、情報処理装置100の構成を示すブロック図である。図3に示すように、情報処理装置100は、アンテナ11,13と、遠距離通信用モジュール12と、近距離通信用モジュール14と、タッチパネル15と、ディスプレイ16と、測位センサ17と、フロントカメラ18と、リアカメラ19と、電源制御部20と、バッテリ21と、マイク22と、スピーカ23と、音声処理部24と、記憶部25と、加速度センサ26と、制御部27とを含む。
アンテナ11とアンテナ13とは、情報処理装置100が発する信号を電波として放射する。また、アンテナ11は、空間から電波を受信して受信信号を遠距離通信用モジュール12へ与える。アンテナ13は、空間から電波を受信して受信信号を近距離通信用モジュール14へ与える。
遠距離通信用モジュール12と近距離通信用モジュール14とは、情報処理装置100が他の無線機器と通信するため、アンテナ11等を介して信号を送受信するための変復調処理などを行う。遠距離通信用モジュール12と近距離通信用モジュール14とは、チューナー、高周波回路などを含む通信モジュールであり、情報処理装置100が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部27へ与える。
遠距離通信用モジュール12は、例えば、LTE(Long Term Evolution)、UMTS(Universal Mobile Telecommunications System)などの移動体通信システムに対応した通信モジュールであり、比較的長距離の通信に対応している。
近距離通信用モジュール14は、例えば、Bluetooth(登録商標)などの近距離無線通信規格や、IEEE(Institute of Electrical and Electronic Engineers)802.11などの無線LAN(Local Area Network)規格などに対応した通信モジュールであり、比較的近距離の通信に対応している。情報処理装置100が複数の通信方式に対応する場合、これら通信方式に対応してアンテナと通信用モジュールとを備えてもよい。
タッチパネル15は、ユーザの入力操作を受け付ける。タッチパネル15は、例えば静電容量方式のものを用いることによってユーザの接触操作を受け付ける。タッチパネル15は、ユーザによる入力操作を制御部27へ出力する。
ディスプレイ16は、メニュー画面においてアイコンや背景画像を表示し、アプリケーションの動作によって静止画や動画などを表示する。ディスプレイ16は、例えばLCD(Liquid Crystal Display)や有機EL(electroluminescence)ディスプレイによって実現される。
測位センサ17は、情報処理装置100の位置を計測するためのセンサであり、例えばGPS(Global Positioning System)モジュールである。
フロントカメラ18とリアカメラ19は、入射光を受光して電気信号に変換するカメラモジュールであり、CMOS(Complementary Metal Oxide Semiconductor)センサ、ADC(Analog to Digital Converter)等を含み、画像信号を制御部27へ出力する。情報処理装置100の筺体において、ディスプレイ16が配置される面を前面としたときに、フロントカメラ18は、情報処理装置100の前面に配置される。また、リアカメラ19は、情報処理装置100の背面に配置される。
電源制御部20は、情報処理装置100の各回路に対する電力の供給を制御する。電源制御部20は、例えば電源制御用IC(Integrated Circuit)である。
バッテリ21は、情報処理装置100の各回路を動作させるための電力を供給する供給源である。バッテリ21からの電力は、電源制御部20の制御に従って各回路へ供給される。
マイク22は、ユーザによる音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部24へ与える。
スピーカ23は、音声処理部24から与えられる音声信号を音声に変換して当該音声を情報処理装置100の外部へ出力する。
音声処理部24は、音声信号の変復調を行う。音声処理部24は、マイク22から与えられる信号を変調して、変調後の信号を制御部27へ与える。また、音声処理部24は、音声信号をスピーカ23へ与える。音声処理部24は、例えば音声処理用のプロセッサによって実現される。
記憶部25は、例えばフラッシュメモリ等により構成され、情報処理装置100が使用するデータおよびプログラムを記憶する。ある局面において、記憶部25は、ARコンテンツデータ31と、画像データ32と、コンテンツ管理テーブル33とを記憶する。
ARコンテンツデータ31は、撮影画像に合成するための各コンテンツデータの識別情報に対応する静止画または動画のデータである。
画像データ32は、撮影画像とコンテンツデータとを合成した画像をデータとして保存する処理によって生成される静止画または動画のデータである。
コンテンツ管理テーブル33は、詳しくは後述するが、撮影画像に合成する対象となるコンテンツデータそれぞれを識別する識別情報と、コンテンツデータのファイル名と、コンテンツデータの名称と、コンテンツデータを利用できる期間とを対応付けたテーブルである。
制御部27は、記憶部25に記憶される制御プログラムを読み込んで実行することにより、情報処理装置100の動作を制御する。制御部27は、例えばアプリケーションプロセッサである。制御部27は、プログラムに従って動作することにより、検出処理部41と、映像処理部42と、通信処理部43と、音声認識部44との各機能を発揮する。
検出処理部41は、画像認識処理の機能を情報処理装置100に発揮させ、リアカメラ19またはフロントカメラ18から出力される撮影画像に対し、画像認識処理を施すことにより、撮影画像に含まれるマーカなどの特定の被写体を検出する。例えば、検出処理部41は、撮影画像に対して画像認識処理を行い、撮影画像に含まれるマーカの位置、マーカの傾きなどを出力する。
映像処理部42は、撮影画像に対し、検出処理部41の検出結果に基づいてコンテンツデータを合成する位置を決定する等の処理を行なって、合成後の画像を生成する。映像処理部42は、撮影画像や、生成した画像等に基づいて映像信号を生成してディスプレイ16の表示内容を制御する。
通信処理部43は、通信プロトコルに従って、情報処理装置100と他の情報処理装置との通信処理を制御する。
音声認識部44は、マイク22から出力される音声信号、情報処理装置100が他の情報処理装置から受信する音声信号その他の音声信号に対し、音声認識処理を行って、音声信号に示される人間の音声に基づき文字データを生成する。情報処理装置100は、自装置において音声認識処理用のプログラムを動作させ、音声信号から文字データを生成することとしてもよい。また、情報処理装置100は、音声信号を示す音声データを外部のサーバ(配信サーバ900など)へ送信し、外部のサーバによって音声認識処理を行わせ、その処理の結果を外部のサーバから受信することとしてもよい。
<データ構造>
図4を参照し、情報処理装置100の処理において用いられるデータを説明する。図4は、コンテンツ管理テーブル33を示す図である。
図4に示すように、コンテンツ管理テーブル33の各レコードは、識別番号331と、ファイル名332と、ARデータ名称333と、利用可能期間334とを含む。
識別番号331は、コンテンツデータそれぞれを識別するための識別情報である。ファイル名332は、コンテンツデータの識別情報に対応するファイルの名称を示す。ARデータ名称333は、識別情報に示されるコンテンツデータのタイトルを示す。利用可能期間334は、コンテンツデータを利用できる期間を示す。図4に示すように、例えば、利用可能期間334のデータ「2013/10/31」は、ユーザがコンテンツデータを利用できる期間が2013年10月31日までであることを示し、データ「期限設定なし」は、コンテンツデータの利用可能な期間が設定されていないことを示す。
<ユーザインタフェースの例(撮影側の装置)>
図5を参照して、情報処理装置100がディスプレイ16に表示する画面の一例を説明する。図5は、被写体を撮影する撮影側の情報処理装置100において、撮影画像とコンテンツデータとを合成するためのユーザインタフェースの一例を示す図である。
図5に示すように、撮影側の情報処理装置100Sの制御部27は、ディスプレイ16Sにおいて、表示切替部51と、画像表示領域52と、撮影切替部54と、撮影開始部55と、撮影画像投稿部56と、選択ファイル表示部57と、指示送信部58とを表示する。また、制御部27は、撮影画像に合成するコンテンツデータをアニメーション合成部53に表示する。図5の例では、選択ファイル表示部57に示されるコンテンツデータがユーザによって選択されている。制御部27は、選択ファイル表示部57に示されるコンテンツデータと、撮影画像とを合成して画像表示領域52に表示する。
表示切替部51は、ユーザによって指定されたコンテンツデータと撮影画像とが合成された画像をディスプレイ16に表示するか否かの設定を示す領域である。図8の例では、表示切替部51は設定「ON」を示している。この場合、制御部27は、コンテンツデータと撮影画像とを合成して生成された画像をディスプレイ16に表示する。なお、表示切替部51の表示内容が設定「OFF」の場合は、制御部27は、カメラによって取得された撮影画像をディスプレイ16に表示する。制御部27は、ユーザの入力操作をタッチパネル15によって受け付けており、表示切替部51に対する入力操作を受け付けて、撮影画像とコンテンツデータとが合成された画像を表示するか否かの設定のONとOFFとを切り替える。
画像表示領域52は、情報処理装置100のカメラから出力される撮影画像と、ユーザによって指定されたコンテンツデータとを合成した画像を表示するための領域である。画像表示領域52において、コンテンツデータを合成している領域をアニメーション合成部53に示す。制御部27は、撮影画像に対する画像認識処理により、マーカなど特定の被写体を検出し、検出された位置に基づいてアニメーション合成部53を決定し、アニメーション合成部53にコンテンツデータを合成する。
撮影切替部54は、画像表示領域52において表示されている画像を、静止画として保存するか、動画として保存するかの設定を受け付けるための領域である。
撮影開始部55は、画像表示領域52において表示されている画像を保存するための入力操作をユーザから受け付けるための領域である。表示切替部51において、設定が「ON」、すなわちコンテンツデータと撮影画像とが合成された画像を表示する設定である場合、情報処理装置100は、撮影開始部55に対する入力操作に応じて、コンテンツデータが合成された画像を静止画または動画として保存する。
撮影画像投稿部56は、画像表示領域52に表示されている画像、または撮影開始部55への入力操作に応じて保存した画像を、他の情報処理装置と共有するための入力操作をユーザから受け付けるための領域である。情報処理装置100は、撮影画像投稿部56に対する入力操作を受け付けることで、他の情報処理装置へ画像ファイルを送信するための処理、画像投稿用のSNSサイトにアクセスして画像を投稿するための処理などを行う。
選択ファイル表示部57は、ユーザによって選択されたコンテンツデータを示す領域である。また、選択ファイル表示部57は、コンテンツデータを選択する操作をユーザから受け付けるための領域である。例えば、情報処理装置100は、選択ファイル表示部57に対する入力操作を受け付けることで、コンテンツデータの選択をユーザから受け付けるための画面を表示する。
指示送信部58は、被写体となっているユーザの情報処理装置100Mと通信し、マーカの色の変更などの指示を情報処理装置100Mに行うための入力操作を受け付ける領域である。
<ユーザインタフェースの例(マーカ側の装置)>
図6を参照して、被写体となるユーザが把持する情報処理装置100Mがディスプレイ16Mに表示する画面の一例を説明する。図6は、情報処理装置100Mにおいて、ARマーカを表示し、情報処理装置100Sの撮影画像に合成するコンテンツデータを指定するためのユーザインタフェースの一例を示す図である。
図6に示すように、情報処理装置100Mの制御部27は、ディスプレイ16Mにおいて、マーカ表示領域61と、コンテンツ指定部62と、データ送信部63と、データ購入部64とを表示する。
マーカ表示領域61は、撮影側の情報処理装置100Mが、撮影画像に対する画像認識処理によって検出するARマーカ65を表示するための領域である。
コンテンツ指定部62は、撮影側の情報処理装置100Sにおいて撮影画像に合成するコンテンツデータを情報処理装置100Mにおいて指定するための入力操作を受け付ける領域である。制御部27は、コンテンツ指定部62において、情報処理装置100Mのユーザが指定したコンテンツデータを示す画像を表示する。また、制御部27は、例えばコンテンツ指定部62に対する入力操作を受け付けて、コンテンツデータを選択するための画面をディスプレイ16Mに表示する。
データ送信部63は、情報処理装置100Mのユーザが指定したコンテンツデータを特定する情報を、撮影側の情報処理装置100Sに送信するための入力操作をユーザから受け付ける領域である。情報処理装置100Mの制御部27は、データ送信部63に対する入力操作を受け付けて、情報処理装置100Sに対し、コンテンツデータそのもの、または、コンテンツデータの識別子などコンテンツデータを特定する情報を送信する。
データ購入部64は、コンテンツデータの購入をするための入力操作をユーザから受け付ける領域である。制御部27は、データ購入部64に対する入力操作を受け付けて、購入可能なコンテンツデータのリストを表示し、コンテンツデータを配信する外部のサーバとの通信接続を行う。
<制御構造>
図7を参照して、情報処理装置100の制御構造を説明する。図7は、実施の形態1の情報処理装置100による、コンテンツデータと撮影画像とを合成して表示するための処理の概要を示す図である。なお、図7では、情報処理装置100Mを保持しているユーザを図示していない。
図7(A)に示すように、情報処理装置100Sは、カメラを起動して情報処理装置100Mを撮影している。情報処理装置100Mは、ディスプレイ16MにARマーカ65を表示している。ただし、撮影環境(周囲の色、光量など)の影響を受けて、情報処理装置100Sは、撮影画像から、ARマーカ65の検出に失敗している。情報処理装置100Sは、情報処理装置100Mと通信し、撮影画像からARマーカ65を検出しやすくするため、情報処理装置100Mのマーカ表示領域61に表示されるARマーカ65の発光色など、ARマーカ65の表示の設定を指定する。
図7(B)に示すように、情報処理装置100Mは、情報処理装置100Sの指示に応じて、ディスプレイ16Mに表示するARマーカ65の設定(発光色などの設定)を変更する。例えば、情報処理装置100Sは、撮影画像に含まれる各色の分布を参照し、各色のうち最も少ない色を検出し、この色でARマーカ65を表示するよう情報処理装置100Mに指示を送る。情報処理装置100Sは、情報処理装置100Mに指示した色を用いたフィルタを適用し、撮影画像からARマーカ65を検出する。情報処理装置100Sは、撮影画像においてARマーカ65を検出した位置に基づいて、コンテンツデータを表示する位置を決定する。
図7(C)に示すように、被写体側の情報処理装置100Mは、撮影側の情報処理装置100Sにおいて撮影画像に合成するコンテンツデータを指定することもできる。情報処理装置100Mは、情報処理装置100Sと通信接続し、コンテンツデータそのもの、コンテンツデータの識別子、またはコンテンツデータを取得する方法を示す情報などコンテンツデータを特定する情報を情報処理装置100Sへ送信する。例えば、情報処理装置100Mは、情報処理装置100Sと通信し、情報処理装置100Sのコンテンツ管理テーブル33に示されるコンテンツデータの一覧を取得することとしてもよい。情報処理装置100Mは、情報処理装置100Sが管理しているコンテンツデータの一覧の中から、コンテンツデータを識別する情報を選択し、選択した識別情報を情報処理装置100Sへ送信することとしてもよい。
図7(D)に示すように、情報処理装置100Sは、撮影画像からARマーカ65を検出した位置に基づいてコンテンツデータを合成する位置を決定し、決定した位置に、情報処理装置100Mから指定されたコンテンツデータを表示する。
なお、実施の形態1では、コンテンツデータは、例えば3次元の形状を有するアニメーションのデータである。以下、情報処理装置100がユーザからの入力操作をタッチパネル15によって受け付けて、コンテンツデータを撮影画像に合成する処理を説明する。
<被写体側の情報処理装置100Mの制御構造>
図8は、被写体となる情報処理装置100Mがマーカをディスプレイ16に表示する処理を示すフローチャートである。
ステップS801において、情報処理装置100Mの制御部27は、撮影側となる情報処理装置100Sと、例えば無線LANやBluetooth(登録商標)などの近距離無線通信の規格に従って通信接続を確立する。
ステップS803において、制御部27は、撮影側の情報処理装置100Sに対し、コンテンツデータを指定するか否かを判断する。例えば、制御部27は、コンテンツデータを指定するか否かの入力操作をユーザから受け付ける。情報処理装置100Mが情報処理装置100Sに対しコンテンツデータを指定する場合(ステップS803においてYES)、制御部27は、ステップS805の処理を行い、そうでない場合(ステップS803においてNO)、制御部27は、ステップS807の処理を行う。
ステップS805において、制御部27は、情報処理装置100Mが情報処理装置100Sへ送信するコンテンツデータのデータサイズと閾値とを比較し、データサイズが閾値を上回る場合は、コンテンツデータを特定する情報として、コンテンツデータを取得する方法を示す情報(例えば、URL(Uniform Resource Locator))を情報処理装置100Sへ送信する。また、情報処理装置100Mの制御部27は、コンテンツデータのデータサイズが閾値を越えない場合は、コンテンツデータそのもの(コンテンツデータ本体)を情報処理装置100Sへ送信する。
ステップS807において、制御部27は、ARマーカ65を表示するための設定(表示するマーカの形状、表示する色、表示する大きさなど)に基づいて、ARマーカ65をマーカ表示領域61に表示する。制御部27は、ARマーカ65を表示するための設定を情報処理装置100Sから指定されている場合は、情報処理装置100Sの指定に従ってARマーカ65をマーカ表示領域61に表示する。
ステップS809において、制御部27は、タイマーを設定して、イベントの発生を待機する状態へと移る。ステップS809において制御部27が設定するタイマーは、情報処理装置100Mが測位センサ17や加速度センサ26によって情報処理装置100Mの使用状態を示す情報を取得し、取得した情報を、情報処理装置100Sへ送信するタイミングを示す。
図9は、被写体となる情報処理装置100Mが、撮影側の情報処理装置100Sからの通信を受信して、マーカの表示を変更する処理を示すフローチャートである。
ステップS901において、情報処理装置100Mの制御部27は、情報処理装置100Sから、ARマーカ65をディスプレイ16に表示する設定を示すデータを受信する。
ステップS903において、制御部27は、ステップS901で受信したデータに基づいて、ARマーカ65の表示方法(マーカの色、模様、形状、表示サイズなど)の設定を更新し、表示方法の設定に従ってディスプレイ16にARマーカ65を表示する。
図10は、被写体となる情報処理装置100Mが、情報処理装置100Mによる計測データを情報処理装置100Sへ送信するための送信タイマーイベント発生時の処理を示すフローチャートである。図10に示すように、情報処理装置100Mは、加速度センサ26、測位センサ17、ジャイロセンサなどを備えており、これらセンサによる測定データを保持している。情報処理装置100Mは、タイマーに示される周期に従って、情報処理装置100Sへ測定データを送信する。
ステップS1001において、情報処理装置100Mの制御部27は、情報処理装置100Mの各種センサの測定データをメモリから読み出す。
ステップS1003において、制御部27は、メモリから読み出した測定データを、撮影側の情報処理装置100Sへ送信する。
ステップS1005において、制御部27は、情報処理装置100Mの各種センサの測定データを送信するための送信タイマーを設定する。
制御部27は、ステップS1005で設定した送信タイマーによるイベントが発生する都度、図10に示す処理を行う。
図11は、撮影側となる情報処理装置100Sが、被写体となる情報処理装置100Mとの通信接続を確立し、情報処理装置100Mのディスプレイ16に表示されるARマーカ65を認識するための処理を示すフローチャートである。
ステップS1101において、情報処理装置100Sの制御部27は、近距離無線通信の規格に従って、被写体となる情報処理装置100Mとの通信接続を確立する。
ステップS1103において、制御部27は、撮影画像からARマーカ65が検出されたときに、撮影画像に合成するコンテンツデータ(ARモデルデータ)を設定するための処理を行う。ステップS1103に示す処理の詳細は、後述する。
ステップS1105において、制御部27は、フロントカメラ18の撮影機能を発揮させるための初期化の処理を行い、例えば撮影画像を取得するためのキャプチャ周期の設定などを行って、フロントカメラ18による撮影を開始する。
図12は、撮影側となる情報処理装置100Sが、被写体となる情報処理装置100Mとの通信によってデータを受信し、ARデータをディスプレイ16に表示する設定を更新するための処理を示すフローチャートである。
ステップS1201において、情報処理装置100Sの制御部27は、撮影側の情報処理装置100Mから、情報処理装置100Mの各種センサの測定データ、情報処理装置100Mによって指定されるコンテンツデータなど、各種のデータを受信する。
ステップS1203において、制御部27は、撮影画像からARマーカ65が検出されたときに、撮影画像に合成するコンテンツデータ(ARモデルデータ)を設定するための処理を行う。ステップS1203に示す処理の詳細は、後述する。
ステップS1205において、制御部27は、ステップS1201で受信したデータに基づき、3次元のARデータであるコンテンツデータをディスプレイ16に表示するための向き等のパラメータを更新する。
図13は、撮影側となる情報処理装置100Sが、ディスプレイ16において撮影画像に合成するコンテンツデータを設定するための処理を示すフローチャートである。図13に示す処理は、ステップS1103、ステップS1203の各処理に対応する。
ステップS1301において、情報処理装置100Sの制御部27は、情報処理装置100Mから、コンテンツデータの指定を受けた場合は、メモリを参照し、撮影画像に合成するコンテンツデータの設定と、情報処理装置100Mによるコンテンツデータの指定とを比較する。比較の結果、メモリに保持するコンテンツデータの設定と、情報処理装置100Mから指定されたコンテンツデータとが一致する場合は、制御部27は、コンテンツデータの設定を変更する必要がないと判断する(ステップS1301において、「変更なし」)。また、メモリに保持するコンテンツデータの設定と、情報処理装置100Mによるコンテンツデータの指定とが一致しない場合は、制御部27は、コンテンツデータの設定を変更する必要があると判断し(ステップS1301において、「変更あり」)、ステップS1303の処理を行う。
ステップS1303において、制御部27は、コンテンツデータそのものを情報処理装置100Mから受信しているか、またはコンテンツデータを取得可能なURLの情報を受信しているかを判断する。コンテンツデータそのものを情報処理装置100Mから受信している場合(ステップS1303においてYES)、制御部27は、ステップS1307の処理を行う。制御部27は、コンテンツデータを取得可能なURLの情報を受信している場合は(ステップS1303においてNO)、ステップS1305の処理を行う。
ステップS1305において、制御部27は、情報処理装置100Mから受信したURLに基づき、コンテンツデータを受信し、受信したコンテンツデータを、撮影画像に合成するコンテンツデータとして設定する。
ステップS1307において、制御部27は、情報処理装置100Mから受信したコンテンツデータを、撮影画像に合成するコンテンツデータとして設定する。
図14は、撮影側となる情報処理装置100Sが、撮影画像に対して画像認識処理を行い、マーカの検出結果に応じてコンテンツデータを合成する処理を示すフローチャートである。情報処理装置100Sは、キャプチャ周期に従って撮影画像を取得し、取得した撮影画像のプレビューをディスプレイ16に表示する都度、図14に示す処理を行う。
ステップS1401において、情報処理装置100Sの制御部27は、撮影画像からARマーカ(情報処理装置100Mのディスプレイ16に表示されたARマーカ65)をトレースする処理が終了しているか(ARマーカの検出に成功または失敗)、またはARマーカをトレースする処理を実行中であるかを判断する。ARマーカをトレースする処理が終了している場合(ステップS1401においてYES)、制御部27は、ステップS1407の処理を行う。ARマーカをトレースする処理を実行中である場合(ステップS1401においてNO)、制御部27は、ステップS1403の処理を行う。
ステップS1403において、制御部27は、撮影画像に対する画像認識処理によって、ARマーカのトレースに成功したか否かを判断する。制御部27は、ARマーカのトレースに成功している場合(ステップS1403においてYES)、ステップS1405の処理を行い、そうでない場合(ステップS1403においてNO)、ステップS1425の処理を行う。
ステップS1405において、制御部27は、撮影画像に対する画像認識処理によって検出されたARマーカの座標値に基づいてコンテンツデータを表示する位置を決定し、情報処理装置100Mから受信した情報処理装置100Mの各種センサの測定データに基づいて、3次元のコンテンツデータの向きなどを決定する。制御部27は、これらコンテンツデータを表示する位置および向きに従って、撮影画像にコンテンツデータを合成してディスプレイ16に表示する。
ステップS1407において、情報処理装置100Sの制御部27は、情報処理装置100Mに対し、ARマーカ65を表示するための設定の変更を指示しているモード(変色待ちモード)であるか否かを判断する。制御部27は、変色待ちモードであると判断した場合(ステップS1407においてYES)、ステップS1409の処理を行う。制御部27は、変色待ちモードではないと判断した場合(ステップS1407においてNO)、ステップS1417の処理を行う。
そこで、情報処理装置100Sが変色待ちモードである場合を説明する。
ステップS1409において、制御部27は、情報処理装置100Mに対し、ARマーカ65を表示するために指定した色を用いて、撮影画像にフィルター処理を適用する。
ステップS1411において、制御部27は、撮影画像にフィルター処理を適用した画像に基づき、ARマーカ65を検出し、撮影画像におけるARマーカ65の座標値を取得する。
ステップS1413において、制御部27は、ステップS1411の処理によって取得された座標値を参照し、ARマーカ65の座標値が一意に確定したか否かを判断する。ARマーカ65の座標値が一意に確定した場合(ステップS1413においてYES)、その座標値を、撮影画像におけるARマーカ65の座標とし、変色待ちモードからARマーカをトレースするモードへ移行し、ステップS1415の処理を行う。制御部27は、マーカの表示色を変更した回数を示す変数「n」の値をリセットする。ARマーカ65の座標値が一意に確定しない(座標値が検出されない、または複数の座標値が検出される)場合(ステップS1413においてNO)、制御部27は、ステップS1419以降の処理を行って、情報処理装置100Mに表示させるマーカの表示色を変更させる。
ステップS1415において、制御部27は、撮影画像から検出されたARマーカ65の座標値に基づいて、ARマーカをトレースする処理を開始する。
次に、ステップS1407において、情報処理装置100Sが変色待ちモードではない場合を説明する。
ステップS1417において、制御部27は、メモリを参照し、情報処理装置100Mに対してARマーカ65を表示する設定を変更させるための処理が1回目であるか否かを判断する。制御部27は、マーカの表示色を変更した回数を示す変数「n」を管理し、例えば、当該変数「n」の値が1であるか否かを判断する。ARマーカ65を表示する設定を変更させるための処理が1回目である場合(ステップS1417においてYES)、制御部27は、ステップS1425の処理を行い、そうでない場合(ステップS1417においてNO)、制御部27は、ステップS1419の処理を行う。
ステップS1425において、制御部27は、撮影画像に含まれる色の分布を参照し、撮影画像を構成する各色から、分布が最も少ない色を選択する。例えば、制御部27は、撮影画像に含まれる色を、赤、青、緑などいくつかのグループに分類し、最も色の少ないグループを選択する。
ステップS1427において、制御部27は、ステップS1425で選択した色に基づき、情報処理装置100Mに対し、ARマーカ65の発光色を変更するよう指示を送る。情報処理装置100Sは、変色待ちモードへ移行する。
ステップS1429において、制御部27は、マーカの表示色を変更した回数を示す変数「n」を更新する。ここでは、情報処理装置100Mに表示されるARマーカ65の表示色を変更する1回目の処理であるため、例えば変数「n」の値を「1」とする。
また、ステップS1419(ARマーカ65の表示方法を変更する処理が初回ではない場合)において、制御部27は、変数「n」の値を参照し、撮影画像に含まれる色の分布のうち、値「n」番目に少ない色を選択する。
ステップS1421において、制御部27は、ステップS1419で選択した色でARマーカ65を発光させるよう、情報処理装置100Mに指示を送信し、情報処理装置100Sを「変色待ちモード」へ移行させる。
ステップS1423において、制御部27は、変数「n」の値をカウントアップすることで更新する。
以上に示す処理を行うことで、撮影側の情報処理装置100Sと、被写体となる情報処理装置100Mとは、互いに通信しつつ、撮影画像にコンテンツデータを合成する。(1)情報処理装置100Sは、撮影画像からARマーカ65を検出しやすくするため、情報処理装置100Mに対し、ARマーカ65を表示するための設定を指示する。(2)情報処理装置100Mは、情報処理装置100Sに表示されるコンテンツデータを、情報処理装置100Mのユーザの所望のものとするため、情報処理装置100Mから情報処理装置100Sに対し、コンテンツデータを指定するための情報(コンテンツデータそのもの、コンテンツデータを取得することができるURLなど)を送信する。
<撮影画像にコンテンツデータを合成するか否かの設定の切替>
図15を参照して、情報処理装置100Sの撮影画像にコンテンツデータを合成するか否かの設定を、被写体となる情報処理装置100Mから切り替える例を説明する。図15は、情報処理装置100Sが、コンテンツデータの合成のONまたはOFFを、情報処理装置100Mの指示によって受け付ける例を示す図である。
<1.情報処理装置100Mからの指定の受信によるON−OFF制御>
例えば、情報処理装置100Sは、情報処理装置100Mからのコンテンツデータの指定を受け付けることで、コンテンツデータの合成のONとOFFとを切り替えることとしてもよい。図15において、被写体となる情報処理装置100Mのユーザは、ディスプレイ16Mに表示されるデータ送信部63に対する入力操作を行う。これにより、情報処理装置100Mから情報処理装置100Sへとコンテンツデータを指定するための情報が送信される。情報処理装置100Sは、情報処理装置100Mからコンテンツデータを指定するための情報を受信すると、コンテンツデータの合成をONにし、画像表示領域52のアニメーション合成部53にコンテンツデータを重ねる。
<2.情報処理装置100Mにおける音声認識処理に基づくON−OFF制御>
また、情報処理装置100Mは、マイク22を介して情報処理装置100Mのユーザから音声入力を受け付けて、受け付けた音声に基づいて、情報処理装置100Sにおけるコンテンツデータの合成のONとOFFとを切り替えることとしてもよい。例えば、情報処理装置100Mは、マイク22から出力される音声信号に対して音声認識処理を行って、音声信号に示されるテキストデータを取得する。情報処理装置100Mは、テキストデータに示される命令に応じて、データ送信部63に対する入力操作が行われたものとしてコンテンツデータを情報処理装置100Sへ送信することとしてもよい。
また、情報処理装置100Mは、音声認識処理によって取得されるテキストデータに示される命令に応じて、情報処理装置100Sに対し、コンテンツデータの合成のONとOFFとを指示することとしてもよい。これにより、情報処理装置100Mのユーザは、自らが所望するタイミングで、情報処理装置100Sにおけるコンテンツデータの合成のONとOFFのタイミングを制御することができる。
<3.情報処理装置100Mにおける振動の検出に基づくON−OFF制御>
また、情報処理装置100Mは、情報処理装置100Mのユーザが情報処理装置100Mを把持したまま振る動作(シェイク)を加速度センサ26等の測定結果に基づき検出し、検出結果に応じて、情報処理装置100Sに、コンテンツデータの合成のONとOFFとを切り替える指示を送信することとしてもよい。
これにより、情報処理装置100Mのユーザが、例えばある作品のキャラクターになりきっている場合に、情報処理装置100Sにおいて、そのキャラクターの特徴を示すコンテンツデータが合成されるタイミングを、ユーザ自身が容易に制御することができる。そのため、情報処理装置100Sと情報処理装置100Mとは、ユーザに対し、キャラクターになりきった感覚を提供することができる。図15の例では、情報処理装置100Mのユーザが、エネルギー波を示すコンテンツデータを情報処理装置100Sの画像表示領域52に表示するタイミングを制御している。
また、情報処理装置100Sは、コンテンツデータの合成のONとOFFとを切り替える過程を含めて、コンテンツデータと撮影画像とが合成される前の画像と、合成された後の画像とを、例えば動画等によって保存することもできる。情報処理装置100Sは、保存された動画等を、他のユーザと共有することができることとしてもよい。例えば、情報処理装置100Sは、撮影画像に対してコンテンツデータを合成して生成された静止画または動画を、例えば画像投稿用のWebサイトやグループチャットに投稿することができることとしてもよい。これにより、ユーザ同士での作品の楽しみ方のバリエーションを拡げることができる。
<コンテンツデータの購入を受け付けるためのユーザインタフェースの例>
図16を参照して、情報処理装置100がユーザからコンテンツデータの購入を受け付けるためのユーザインタフェースの例を説明する。図16は、情報処理装置100において、撮影画像に合成する対象となるコンテンツデータを購入する入力操作を受け付けるためのインタフェースの例を示す図である。
図16に示すように、制御部27は、ディスプレイ16において、購入ボタン72と、コンテンツデータリスト71とを表示する。コンテンツデータリスト71は、ユーザが購入可能なコンテンツデータの一覧を表示する。
制御部27は、タッチパネル15を介して、ユーザがコンテンツデータを選択するための入力操作を受け付ける。購入ボタン72は、ユーザが選択したコンテンツデータを購入するための入力操作を受け付けるボタンである。
<実施の形態2>
次に、実施の形態2にかかる情報処理装置100について説明する。実施の形態2では、複数の情報処理装置100が通信接続を確立する(例えば、1の情報処理装置100に対し、他の装置が通信接続を確立する)。これら複数の情報処理装置100において、被写体となる情報処理装置100それぞれは、マーカをディスプレイ16に表示する。
撮影側となる情報処理装置100は、撮影画像に含まれる複数のマーカをそれぞれ認識し、認識される各マーカとコンテンツデータとを対応付けてディスプレイ16に表示する。例えば、情報処理装置100は、撮影画像に対し画像認識処理を行うときに、検出対象とする複数のマーカを登録する。情報処理装置100は、これらマーカそれぞれと、コンテンツデータとを対応付けてメモリに保持する。これにより、被写体となる各情報処理装置は、マーカをディスプレイ16に表示し、撮影側の情報処理装置100は、撮影画像において、被写体の情報処理装置100に表示される各マーカの位置に、それぞれコンテンツデータを合成することができる。例えば、2人の被写体が、それぞれの情報処理装置100にマーカを表示し、各被写体と、コンテンツデータとを対応づける。これにより、情報処理装置100は、複数の被写体が、例えばそれぞれ異なる発光色のサーベル状の武具を把持している場面をディスプレイ16に表示することができる。
<変形例 コンテンツデータの配信方法>
上記の実施形態の説明では、情報処理装置100は、ARコンテンツデータ31を、例えば配信サーバ900から取得することができるとして説明したが、この他にも、例えば、ある特定の地域に限定してARコンテンツデータ31を取得することができることとしてもよい。例えば、コンテンツデータを配信する配信サーバ900は、情報処理装置100の位置として、(a)測位センサ17のGPSによる測位の結果、(b)情報処理装置100が無線通信をしている無線基地局700の識別情報、(c)情報処理装置100が無線通信をしている無線LANルータの識別情報等の情報を取得する。配信サーバ900は、情報処理装置100から、配布地域が限定されているARコンテンツデータ31を取得するための要求を受け付けたとき、情報処理装置100の位置の情報に基づいて、ARコンテンツデータ31の配信の可否を制御する(または、情報処理装置100において、ARコンテンツデータ31の配信を受けることが可能な地域であるか否かを判定してもよい)。
このように、情報処理装置100がARコンテンツデータ31を取得可能な地域を限定することで、例えば、ARコンテンツデータ31と関係のある地域で開催されるイベントや観光地へとユーザが訪問することを促すことができる。例えば、配信サーバ900は、地域の産品や、観光地に関連する物品や、地域に関連するアニメーション作品の作中に登場するアイテムなどを示すコンテンツデータを、地域限定で情報処理装置100へ配信することとしてもよい。
今回開示された実施の形態はすべての点で例示であって制限的なものでないと考えられるべきである。この発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
11,13 アンテナ、12 遠距離通信用モジュール、14 近距離通信用モジュール、15 タッチパネル、16 ディスプレイ、17 測位センサ、18 フロントカメラ、19 リアカメラ、20 電源制御部、21 バッテリ、22 マイク、23 スピーカ、24 音声処理部、25 記憶部、26 加速度センサ、27 制御部、31 ARコンテンツデータ、32 画像データ、33 コンテンツ管理テーブル、41 検出処理部、42 映像処理部、43 通信処理部、44 音声認識部、100 情報処理装置、600 ルータ、700 無線基地局、800 ネットワーク、900 配信サーバ。

Claims (3)

  1. 情報処理装置の動作を制御するためのプログラムであって、
    前記情報処理装置は、カメラと、他の情報処理装置と通信するための通信モジュールと、前記カメラによる撮影画像を表示するための第1のディスプレイと、前記撮影画像に合成されるコンテンツデータを記憶するためのメモリと、前記情報処理装置の動作を制御するためのプロセッサとを備え、
    前記他の情報処理装置は、前記他の情報処理装置が備える第2のディスプレイに、画像認識処理によって検出される特定の画像を表示するよう構成され、
    前記プログラムは、前記プロセッサに、
    前記他の情報処理装置との通信接続を確立するステップと、
    前記通信接続を確立した前記他の情報処理装置に対し、前記特定の画像を前記第2のディスプレイに表示するための表示設定を送信するステップと、
    前記他の情報処理装置を前記カメラで撮影することにより得られる撮影画像に対し、前記表示設定に基づいて画像認識処理を行うことにより、前記撮影画像に含まれる前記特定の画像を検出するステップと、
    前記撮影画像に対する前記特定の画像の検出結果に基づいて、前記コンテンツデータを合成する位置を決定し、前記決定された位置に前記コンテンツデータを合成した合成画像データを生成するステップと、
    前記生成された前記合成画像データを前記第1のディスプレイに表示するステップとを実行させ、
    前記送信するステップは、前記撮影画像に含まれる色の分布を取得し、前記分布において撮影画像に含まれる色が少ない色を優先して、前記特定の画像の表示色として決定し、決定した前記表示色を前記表示設定に含めて前記他の情報処理装置へ送信するステップを含む、プログラム。
  2. 前記検出するステップは、前記他の情報処理装置へ送信した前記表示設定に含まれる前記特定の画像の表示色のフィルタを前記撮影画像に適用することでフィルタ適用後の画像を取得し、取得した画像に対し前記画像認識処理を行うことにより、前記撮影画像に含まれる前記特定の画像を検出するステップを含む、請求項1に記載のプログラム。
  3. 前記プログラムは、前記プロセッサに、
    前記他の情報処理装置から、前記第1のディスプレイに合成すべきコンテンツデータの指定を受信するステップを実行させ、
    前記表示するステップは、前記他の情報処理装置によって指定された前記コンテンツデータを前記撮影画像に合成するステップを含む、請求項1または2に記載のプログラム。
JP2013266833A 2013-12-25 2013-12-25 プログラム Active JP6305757B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013266833A JP6305757B2 (ja) 2013-12-25 2013-12-25 プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013266833A JP6305757B2 (ja) 2013-12-25 2013-12-25 プログラム

Publications (2)

Publication Number Publication Date
JP2015122707A JP2015122707A (ja) 2015-07-02
JP6305757B2 true JP6305757B2 (ja) 2018-04-04

Family

ID=53533956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013266833A Active JP6305757B2 (ja) 2013-12-25 2013-12-25 プログラム

Country Status (1)

Country Link
JP (1) JP6305757B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017046162A (ja) * 2015-08-26 2017-03-02 隆正 光信 合成動画作成システム、合成動画作成補助システム及び合成動画作成プログラム
JP2017228942A (ja) 2016-06-22 2017-12-28 富士通株式会社 ヘッドマウントディスプレイ、送信制御プログラムおよび送信制御方法
EP3306894A1 (en) * 2016-10-05 2018-04-11 Kone Corporation Generation of augmented reality
KR20180083144A (ko) 2017-01-12 2018-07-20 삼성전자주식회사 마커를 검출하기 위한 방법 및 그 전자 장치

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101082285B1 (ko) * 2010-01-29 2011-11-09 주식회사 팬택 증강 현실 제공 단말기 및 방법

Also Published As

Publication number Publication date
JP2015122707A (ja) 2015-07-02

Similar Documents

Publication Publication Date Title
CN109040643B (zh) 移动终端及远程合影的方法、装置
JP2019070911A (ja) 情報処理装置、接続設定方法、コンピュータプログラム、及び記憶媒体
JP5769032B2 (ja) 撮像装置、撮像方法及びプログラム
KR102449670B1 (ko) 복수의 카메라를 이용하여 영상 데이터를 생성하는 방법 및 서버
US9049317B2 (en) Communication system, communication terminal, and method of controlling a communication system
US9635235B2 (en) Communication apparatus and control method thereof
JP2018528623A (ja) 撮影パラメータ設定方法、装置、プログラム及び記録媒体
JP6305757B2 (ja) プログラム
JP2021039468A (ja) 撮影装置、通信システム、通信方法およびプログラム
CN105657257A (zh) 全景照片的拍摄方法、装置、系统、移动终端及自拍杆
JP2019506012A (ja) スマート飛行機器の撮影方法、スマート飛行機器、プログラム及び記録媒体
CN112612439A (zh) 弹幕显示方法、装置、电子设备及存储介质
US20170045933A1 (en) Communication apparatus, communication method, and computer readable recording medium
CN111741511B (zh) 快速匹配方法及头戴电子设备
US10291835B2 (en) Information processing apparatus, imaging apparatus, information processing method, and imaging system
EP3621292B1 (en) Electronic device for obtaining images by controlling frame rate for external moving object through point of interest, and operating method thereof
JP2016127379A (ja) 情報処理装置、制御方法、およびプログラム
JP2013021473A (ja) 情報処理装置、情報取得方法およびコンピュータプログラム
CN114697516B (zh) 三维模型重建方法、设备和存储介质
JP6950072B2 (ja) 撮像制御装置、撮像装置、撮像制御方法、及び撮像制御プログラム
JP2013093844A (ja) 電子カメラ
JP6515966B2 (ja) 撮像装置、システム、電子機器およびプログラム
JP2017199972A (ja) 端末装置、情報取得システム、情報取得方法およびプログラム
JP5728280B2 (ja) 立体画像撮影システム、携帯通信端末、立体画像撮影システムの立体画像撮影方法、携帯通信端末の立体画像撮影プログラムおよび携帯通信端末の立体画像撮影方法
JP2015023382A (ja) 情報処理装置、方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180307

R150 Certificate of patent or registration of utility model

Ref document number: 6305757

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350