以下、本発明の各実施形態において、図面等を参照しつつ説明する。但し、本発明は、その技術的思想の要旨を逸脱しない範囲において様々な態様で実施することができ、以下に例示する実施形態の記載内容に限定して解釈されるものではない。
図面は、説明をより明確にするため、実際の態様に比べ、各部の幅、厚さ、形状等について模式的に表される場合があるが、あくまで一例であって、図示の形状そのものが本発明の解釈を限定するものではない。また、図面において、明細書中で既出の図に関して説明したものと同様の機能を備えた要素には、別図であっても同一の符号を付して、重複する説明を省略する場合がある。
本明細書において、「映像」とは、静止画像だけでなく、動画像も含む。
本明細書において、「キャラクタ」とは、アニメ、漫画、小説、ゲーム、または広告などにおいて創作された、人物、動物、または植物などの生物、もしくはロボットなどの無生物を含む。
始めに、図1および図2を参照して、本発明の一実施形態に係る情報処理システム10の構成について説明する。
[1.情報処理システム10の構成]
図1は、本発明の一実施形態に係る情報処理システム10の構成を示すブロック図である。図1に示すように、情報処理システム10は、サーバ装置100、第1情報端末装置200−1、第2情報端末装置200−2、・・・、第n情報端末装置200−nを含む。ただし、情報処理システム10の構成はこれに限られない。情報処理システム10は、複数のサーバ装置100を含んでいてもよい。なお、第1情報端末装置200−1、第2情報端末装置200−2、・・・、第n情報端末装置200−nのそれぞれを特に区別しない場合、以下では、情報端末装置200として記載して説明する。
サーバ装置100と情報端末装置200とは、通信ネットワーク300によって接続されている。通信ネットワーク300は、複数のコンピュータを有線または無線によって接続し、相互に通信可能な状態にするシステムである。通信ネットワーク300は、例えば、インターネットなどである。通信ネットワーク300は、通信業者によって管理される通信基地局を介してもよい。すなわち、サーバ装置100と情報端末装置200とは、通信基地局を介した通信ネットワーク300によって接続されてもよい。
情報端末装置200は、サーバ装置100と接続されることによって、情報端末装置200での情報処理に必要なプログラム、情報、またはデータを送受信することができる。
図2は、本発明の一実施形態に係る情報処理システム10のサーバ装置100および情報端末装置200の構成を示すブロック図である。図2(A)に示すように、サーバ装置100は、コンピュータ110を含む。また、図2(B)に示すように、情報端末装置200は、コンピュータ210を含む。サーバ装置100のコンピュータ110は、サーバ処理部111を含む。一方、情報端末装置200のコンピュータ210は、第1処理部211、第2処理部212、第3処理部213、第4処理部214、第5処理部215、第6処理部216、第7処理部217、第8処理部218、および第9処理部219を含む。
サーバ装置100は、例えば、ワークステーションまたはパーソナルコンピュータであり、コンピュータ110を含む。コンピュータ110は、演算手段として中央演算処理装置(CPU:Central Processing Unit)または画像処理装置(GPU:Graphics Processing Unit)を含む。CPUは、情報処理プログラムを読み込むことで、サーバ処理部111として機能し、所定の情報処理を実行することができる。また、GPUは、映像表示における演算処理を実行することができる。サーバ処理部111は、1つのCPUまたはGPUを用いて情報処理を実行してもよく、複数のCPUまたはGPUを用いて情報処理を実行してもよい。
サーバ装置100は、さらに、通信部120または記憶部130などを含んでいてもよい。
通信部120は、プログラム、情報、またはデータを送受信することができる通信インターフェースである。
記憶部130は、情報またはデータを格納することができるメモリまたはストレージである。例えば、記憶部は130は、後述するパーツデータ、セリフデータ、遮蔽データ、またはインタラクションデータなどの映像データを格納することができる。映像データは、画素サイズまたは色などの映像情報を含む。映像データには、音声データが含まれていてもよい。また、記憶部130は、キャラクタに関するキャラクタ情報を格納していてもよい。
サーバ処理部111は、情報を判定し、判定した情報に基づいたデータを取得することができる。例えば、サーバ処理部111は、通信部120によって受信された情報がどのような情報であるかを判定し、判定された情報に基づくデータを記憶部130から取得することができる。
また、サーバ処理部111は、映像データを判定することによって被写体を特定し、被写体情報を生成することもできる。さらに、サーバ処理部111は、被写体情報とキャラクタ情報とを比較し、被写体のキャラクタを判定することもできる。
また、サーバ処理部111は、パーツデータとパーツ情報に基づいて、中間のパーツデータを生成することができる。
情報端末装置200は、例えば、携帯電話、スマートフォン、タブレット、または携帯ゲーム機などであり、コンピュータ210を含む。また、コンピュータ210は、演算手段としてCPUまたはGPUを含む。CPUは、情報処理プログラムを読み込むことで、第1処理部211〜第9処理部219として機能し、所定の情報処理を実行することができる。また、GPUは、映像表示における演算処理を実行することができる。第1処理部211〜第9処理部219の各々は、1つのCPUまたはGPUを用いて情報処理を実行してもよく、複数のCPUまたはGPUを用いて情報処理を実行してもよい。
情報端末装置200は、さらに、撮像部220、表示部230、操作部240、通信部250、または記憶部260などを含んでいてもよい。
撮像部220は、現実空間の風景を撮影することができる。撮像部220は、例えば、カメラまたはビデオなどである。情報端末装置200は、複数の撮像部220を含んでいてもよい。情報端末装置200が2つの撮像部220を含む場合、一方の撮像部220は情報端末装置200の表示面側に設けられ、他方の撮像部220は情報端末装置200の表示面とは反対側の面に設けられていてもよい。
表示部230は、撮像部220で撮影した映像を表示することができる。表示部230は、例えば、液晶表示装置または発光ダイオード(LED)表示装置などである。
操作部240は、ユーザが操作することができるユーザインターフェースである。操作部240は、例えば、キーボード、マウス、タッチパネル、またはマイクなどである。情報端末装置200の操作部240は、タッチパネルが含まれていることが好ましい。タッチパネルは表示部230上に設けられるため、ユーザは、表示部230に表示された映像を確認しながらタッチパネルを用いて情報端末装置200を操作することができる。
通信部250は、プログラム、情報、またはデータを送受信することができる通信インターフェースである。
記憶部260は、情報またはデータを格納することができるメモリまたはストレージである。
第1処理部211は、表示部230に表示された映像の中から被写体を特定することができる。第1処理部211は、映像の中に含まれる所定の特徴を有する分類パターンに基づいて被写体を特定する。分類パターンは、例えば、人型パターン、動物型パターン、またはロボット型パターンなどであるが、これに限られない。被写体がキャラクタであるとき、頭部と頭部以外とのバランスが人間のバランスと異なることも多いため、さらに二頭身パターンまたは五頭身パターンなどの分類方法が異なる分類パターンに基づいて被写体を特定してもよい。また、第1処理部211は、被写体に関する情報を含む認証マークを検出し、認証マークから被写体を特定することもできる。被写体の特定においては、機械学習またはディープラーニングなどを用いることもできる。被写体の特定は、これらに限られず、あらゆる方法を適用することができる。また、第1処理部211は、特定された被写体に基づく被写体情報を生成することができる。さらに、第1処理部211は、認証マークから被写体を特定したときは、認証マークに関する認証マーク情報を生成することができる。
第2処理部212は、表示部230に表示された映像の中の被写体に含まれるパーツを抽出し、判定することができる。第2処理部212は、特定された被写体における特徴または位置に基づいてパーツを抽出し、抽出したパーツが被写体のどのパーツに該当するかを判定し、抽出したパーツを特定することができる。なお、第2処理部は、選択されたパーツを判定し、選択されたパーツを特定することもできる。また、第2処理部212は、特定されたパーツに基づくパーツデータを取得することができる。
第3処理部213は、表示部230に表示された映像において、映像データを重畳させるためのオブジェクト領域を画定することができる。第3処理部213は、所定の条件に従って、映像の座標情報を取得し、オブジェクト領域を画定する。オブジェクト領域は、矩形であることが好ましいが、これに限られない。オブジェクト領域は、多角形、円形、または楕円形であってもよい。また、第3処理部213は、オブジェクト領域に基づくオブジェクト領域情報を生成する。
なお、パーツの抽出とオブジェクト領域の画定は同時に実行することもできる。すなわち、パーツを含むオブジェクト領域を画定するとともに、オブジェクト領域を抽出し、オブジェクト領域からパーツを特定してもよい。この場合、第3処理部213がオブジェクト領域を画定し、第2処理部212は、画定されたオブジェクト領域の中からパーツを特定することができる。
また、パーツをオブジェクト領域とすることもできる。
第4処理部214は、オブジェクト領域の大きさに合わせて映像データの大きさを調整することができる。具体的には、第4処理部214は、オブジェクト領域情報と映像データ情報とを比較し、オブジェクト領域情報に合わせて映像データを拡大し、または縮小する。また、第4処理部214は、被写体の角度を検出して、映像データの角度を調整することができる。さらに、第4処理部214は、オブジェクト領域情報に含まれる色の情報に基づいて、映像データの色を調整することができる。映像データの輪郭部分の色は、オブジェクト領域の輪郭近傍の色を用いて調整されることが好ましい。映像データの輪郭近傍の色を、オブジェクト領域の輪郭近傍の色に合わせることで、被写体に映像データを重畳させたときの境界を見えにくくすることができる。
第5処理部215は、表示部230に表示された映像のオブジェクト領域に、映像データを重畳することができる。具体的には、第5処理部215は、オブジェクト領域情報に基づいて、調整された映像データをオブジェクト領域に重畳する。
第6処理部216は、映像の中の被写体のパーツとパーツ情報に基づいて、アニメーション表示に必要な中間のパーツデータを生成することができる。第6処理部216は、1つだけでなく、複数のパーツデータを生成することができる。生成されるパーツデータの個数は、パーツによって決められていてもよく、設定によって決められていてもよい。
第7処理部217は、情報端末装置200の記憶部260から端末情報を取得することができる。端末情報としては、例えば、日付、時刻、場所、天気、またはユーザの誕生日など、情報端末装置200の機能または情報端末装置200に格納されたデータに関する情報であるが、これらに限られない。また、第7処理部217は、取得した端末情報がどのような情報であるかを判定することができる。具体的には、今日の日付とユーザの誕生日が一致していれば、第7処理部217は、誕生日であると判定する。また、今日の日付が休日、祝日、または行事の日であれば、特定日であると判定する。行事の日であるか否かの判定においては、インターネットと接続し、行事に関する情報を取得することもできる。また、時刻であれば、その時刻に基づいて、朝、昼、または夜と判定することができる。さらに、第7処理部217は、判定に基づいて、環境情報を生成することができる。
第8処理部218は、ユーザの身体の一部の動きを検出し、動きを判定することができる。例えば、第8処理部218は、映像のデータを解析して、動きを検出することができる。また、タッチパネルの信号に基づいて、動きを検出することもできる。また、第8処理部218は、検出された動きから、ユーザの指示(被写体に対するユーザの行動)を判定することができる。さらに、第8処理部218は、判定に基づいて、ユーザ行動情報を生成することができる。
第9処理部219は、撮像部220で撮影されたユーザの顔の表情を判定することができる。例えば、第9処理部219は、口角の形状から、ユーザの表情が笑顔かどうかを判定することができる。なお、第9処理部219が判定するユーザの表情は、笑顔に限られない。第9処理部219は、泣き顔または怒り顔なども判定することができる。また、第9処理部219は、判定に基づいて、ユーザ感情情報を生成することができる。
以下では、図3〜図17を参照して、本発明の一実施形態に係る情報処理システム10、情報処理プログラム、または情報処理方法を利用した具体的な情報処理について説明する。なお、本発明の一実施形態に係る情報処理システム、情報処理プログラム、または情報処理方法における情報処理は、以下の例示に限られない。
[2.被写体のパーツを変化させる情報処理(情報処理A)]
図3および図4を参照して、情報端末装置200の撮像部220で現実空間の被写体500を撮影しながら、情報端末装置200の表示部230に表示された映像の中の被写体400のパーツを変化させる情報処理についてについて説明する。
図3は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400のパーツを変化させる情報処理を示すフローチャートである。以下、便宜上、図3に示す情報処理を、情報処理Aとして説明する。
図3に示す情報処理Aは、映像の中の被写体400を特定するステップ(S110)と、被写体400に含まれるパーツ401を特定するステップ(S120)と、パーツ401に関するパーツデータ411を取得するステップ(S130)と、映像の中に第1オブジェクト領域301を画定するステップ(S140)と、パーツデータ411を調整するステップ(S150)と、第1オブジェクト領域301にパーツデータ411を重畳するステップ(S160)と、を含む。以下、図4を参照しながら、各ステップについて説明する。
図4は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400のパーツが変化する前後の撮影を説明する図である。具体的には、図4(A)に示す情報端末装置200の表示部230には、被写体400のパーツが変化する前の映像が表示され、図4(B)に示す情報端末装置200の表示部230には、被写体400のパーツが変化した後の映像が表示されている。
図4(A)および図4(B)に示すように、ユーザは、情報端末装置200の撮像部220を用いて、現実空間の被写体500を撮影する。撮影された映像は、情報端末装置200の表示部230に表示される。すなわち、ユーザは、表示部230に表示された映像の被写体400を確認しながらも、現実空間の被写体500を視認することが可能である。なお、撮像部220は、表示部230側だけでなく、表示部230と反対側にも設けられている。以下、便宜上、表示部と反対側の撮像部220を第1撮像部220−1とし、表示部側の撮像部220を第2撮像部220−2として説明する。被写体500は、第1撮像部220−1で撮影されている。
被写体500は、キャラクタが模されたフィギュア、人形、ぬいぐるみ、またはプラモデルなどの立体的なものであるが、これに限られない。被写体500は、キャラクタが描かれたポスターなどの平面的なものであってもよい。
ステップS110では、第1処理部211が、表示部230に表示された映像の中から被写体400を特定する。第1処理部211は、分類パターンに基づいて被写体400を特定する。被写体400は、キャラクタが特定されることが好ましいが、キャラクタが特定されなくてもよい。第1処理部211は、映像の中の背景と分離された被写体400を特定することができればよい。また、第1処理部211は、特定された被写体400に基づいて被写体情報を生成する。
被写体400の特定においては、サーバ装置100を用いることもできる。情報端末装置200の通信部250は、撮影された映像データをサーバ装置100に送信する。サーバ装置100の通信部120は、映像データを受信する。サーバ処理部111は、映像データを判定することによって被写体400を特定し、被写体情報を生成する。その際、サーバ処理部111は、被写体400のキャラクタを特定してよい。例えば、サーバ処理部111は、被写体情報と、記憶部130に格納されたキャラクタ情報と比較することによって、被写体400のキャラクタを特定することができる。被写体400のキャラクタが特定できたとき、被写体情報は、キャラクタに関する情報を含む。通信部120は、サーバ処理部111によって生成された被写体情報を情報端末装置200に送信する。通信部250が、被写体情報を受信することによって、情報端末装置200は、被写体情報を取得することができる。なお、取得された被写体情報は、情報端末装置200の記憶部260に格納されてもよい。
ステップS120では、第2処理部212が、被写体400に含まれるパーツ401を特定する。具体的には、第2処理部212は、パーツ401を抽出し、抽出したパーツ401が被写体400のどのパーツに該当するかを判定し、パーツ401を特定する。図4(A)に示すパーツ401は口であるが、パーツ401は口に限られない。パーツ401は、被写体400の部位(顔部、胴部、腕部、脚部、目、鼻、口、耳、髪の毛、手、または足など)であってもよく、被写体が着ている服であってもよく、被写体が具備する道具(武器または羽など)であってもよい。被写体400においては、特に、目または口などのパーツ401が判定されることが好ましい。被写体400の目を変化させることにより、被写体400がまばたきをしているアニメーションを表示することができる。また、被写体400の口を変化させることにより、被写体400が会話しているアニメーションを表示することができる。
第2処理部212は、複数のパーツ401を判定してもよい。複数のパーツが判定されることにより、複数のパーツでアニメーション表示をすることができる。
パーツ401は、ユーザが選択することもできる。第2処理部212によるパーツ401の抽出が困難である場合、またはユーザがアニメーション表示させたい特定のパーツがある場合、ユーザがパーツ401を選択することで、第2処理部212はパーツ401を抽出することなくパーツ401を判定することが可能になる。そのため、第2処理部212によるパーツ401の判定の精度が向上する。
また、第2処理部は、特定されたパーツ401に基づくパーツ情報を生成する。
ステップS130では、情報端末装置200が、パーツ情報に基づくパーツデータ411を取得する。情報端末装置200の通信部250は、パーツ情報をサーバ装置100に送信する。サーバ装置100の通信部120は、パーツ情報を受信する。サーバ処理部111はパーツ情報を判定し、判定に基づくパーツデータ411を記憶部130から取得する。通信部120は、サーバ処理部111によって取得されたパーツデータ411を情報端末装置200に送信する。通信部250が、パーツデータ411を受信することによって、情報端末装置200は、パーツデータ411を取得することができる。なお、取得されたパーツデータ411は、情報端末装置200の記憶部260に格納されてもよい。
パーツデータ411は、静止画データであってもよく、動画データであってもよい。パーツデータが静止画データであっても、被写体400がもともと有するパーツと静止画データとを交互に表示させることで、被写体400のアニメーション表示が可能となる。
ステップS140では、第3処理部213が、表示部230に表示された映像の中に、パーツ401を含む第1オブジェクト領域301を画定する。第3処理部213は、パーツ情報に基づき、パーツ401を囲むように映像の座標情報を取得し、第1オブジェクト領域301を画定する。また、第3処理部213は、第1オブジェクト領域301に基づく第1オブジェクト領域情報を生成する。
ステップS150では、第4処理部214が、第1オブジェクト領域301の大きさに合わせて、取得されたパーツデータ411の大きさを調整する。また、第4処理部214は、被写体情報に基づいてパーツデータ411の角度を調整する。さらに、第4処理部214は、第1オブジェクト領域情報に含まれる色の情報に基づいて、パーツデータ411の色を調整する。パーツデータ411の大きさ、角度、および色を調整することで、被写体400にパーツデータ411を重畳したときであっても、違和感のない映像を表示することができる。
ステップS160では、第5処理部215が、第1オブジェクト領域情報に基づいて、調整されたパーツデータ411を第1オブジェクト領域301に重畳する。被写体400にパーツデータ411を重畳することにより、被写体400がアニメーション表示され、被写体400に動きを与えることができる。
以上、情報処理Aについて説明したが、情報処理Aが実行されることによって、情報端末装置200の表示部230には、被写体400の一部(パーツ)が変化した映像が表示される。被写体400の一部以外は、被写体500を撮影した映像であるため、ユーザは、被写体400を、現実空間の被写体500であるかのように感じることができる。また、被写体400を基にパーツデータ411が調整されているため、被写体400にパーツデータ411を重畳しても違和感のない表示が可能である。そのため、ユーザは、被写体400の一部が変化するアニメーション表示により、本来動きのない現実空間の被写体500が、あたかも動いているかのように感じることができる。
[3.パーツデータの生成]
上述したステップS130では、サーバ装置100の記憶部130からパーツデータ411を取得したが、パーツデータ411は生成することもできる。ここでは、図5を参照して、パーツデータ411の生成方法について説明する。
図5は、本発明の一実施形態に係る情報処理システム10を利用し、パーツデータを生成し、生成されたパーツデータが重畳された映像を説明する図である。なお、図5では、判定されたパーツ401が被写体400の目であるとして説明する。
図5(A)〜図5(D)は、それぞれ、第1パーツデータ411−1〜第4パーツデータ411−4を示す。第6処理部216は、被写体400のオリジナルである第1パーツデータ411−1とパーツ情報に基づいて、中間のパーツデータとして第2パーツデータ411−2〜第4パーツデータ411−4を生成する。特定されたパーツが開いている目である場合、パーツ情報に含まれる目の情報に基づいて、目を閉じる中間の第2パーツデータ411−2〜第4パーツデータ411−4を生成する。例えば、目の瞳の一部を削除する処理を行うことで、中間の第2パーツデータ411−2〜第4パーツデータ411−4を生成することができる。
パーツデータ411の生成においては、サーバ装置100を用いることもできる。情報端末装置200の通信部250は、被写体のオリジナルである第1パーツデータ411−1とパーツ情報をサーバ装置100に送信する。サーバ装置100の通信部120は第1パーツデータ411−1とパーツ情報を受信する。サーバ処理部111は、受信した第1パーツデータ411−1とパーツ情報に基づいて、中間の第2パーツデータ411−2〜第4パーツデータ411−4を生成する。通信部120は、サーバ処理部111によって生成された第2パーツデータ411−2〜第4パーツデータ411−4を情報端末装置200に送信する。通信部250が第2パーツデータ411−2〜第4パーツデータ411−4を受信することによって、情報端末装置200は、生成されたパーツデータ411を取得することができる。
図3に示したステップS130の代わりに、上述したパーツデータ411の生成に関する情報処理を実行し、生成されたパーツデータ411を用いて、ステップS140〜S160の情報処理を実行する。その結果、図5(E)に示すように、情報端末装置200の表示部230には、生成されたパーツデータ411を用いて被写体400の一部(パーツ)が変化した映像が表示される。情報処理システム10では、パーツデータ411を生成することができるため、サーバ装置100の記憶部130にパーツ情報に基づくパーツデータ411が格納されていないときであっても、被写体400に動きを与えることができる。また、生成されたパーツデータ411は、被写体400から生成されるため、被写体400にパーツデータ411を重畳しても違和感のない表示が可能である。
[4.被写体のセリフを表示する情報処理(情報処理B)]
図6および図7を参照して、情報端末装置200の撮像部220で現実空間の被写体500を撮影しながら、情報端末装置200の表示部230に表示された映像の被写体400にセリフを表示する情報処理について説明する。
図6は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400にセリフを表示する情報処理を示すフローチャートである。以下、便宜上、図6に示す情報処理を、情報処理Bとして説明する。
図6に示す情報処理Bは、端末情報を取得するステップ(S210)と、環境情報を生成するステップ(S220)と、環境情報に基づくセリフデータ412を取得するステップ(S230)と、映像の中に第2オブジェクト領域302を画定するステップ(S240)と、セリフデータ412を調整するステップ(S250)と、第2オブジェクト領域302にセリフデータ412を重畳するステップと、を含む。以下、図7を参照しながら、各ステップについて説明する。
図7は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400にセリフが表示された映像を説明する図である。
ステップS210では、第7処理部217が、情報端末装置200の記憶部260に格納されている時刻などの端末情報を取得する。ここでは、第7処理部217は、端末情報として、時刻に関する情報を取得している。
ステップS220では、第7処理部217が、取得した端末情報を判定し、セリフデータ412の取得に必要な環境情報を生成する。ここでは、第7処理部217は、時刻に関する情報が「朝」の情報であると判定し、「朝」の情報を含む環境情報を生成する。
環境情報の生成においては、サーバ装置100を用いることもできる。情報端末装置200の通信部250は、端末情報をサーバ装置100に送信する。サーバ装置100の通信部120は、端末情報を受信する。サーバ処理部111は、端末情報を判定し、環境情報を生成する。通信部120は、サーバ処理部111によって生成された環境情報を情報端末装置200に送信する。通信部250が、環境情報を受信することによって、情報端末装置200は、環境情報を取得することができる。なお、取得された環境情報は、情報端末装置200の記憶部260に格納されてもよい。
ステップS230では、情報端末装置200が、端末情報に基づくセリフデータ412を取得する。情報端末装置200の通信部250は、環境情報をサーバ装置100に送信する。サーバ装置100の通信部120は、環境情報を受信する。サーバ処理部111は環境情報を判定し、環境情報に基づくセリフデータ412を記憶部130から取得する。通信部120は、サーバ処理部111によって取得されたセリフデータを情報端末装置200に送信する。通信部250が、セリフデータ412を受信することによって、情報端末装置200は、セリフデータ412を取得することができる。なお、取得されたセリフデータ412は、情報端末装置200の記憶部260に格納されてもよい。
環境情報の生成をサーバ装置100で実行する場合、サーバ装置100は、環境情報の生成に続いてセリフデータ412を取得してもよい。すなわち、サーバ装置100は、情報端末装置200に環境情報を送信することなく、環境情報に基づくセリフデータ412を記憶部130から取得し、セリフデータ412のみを情報端末装置200に送信してもよい。
セリフデータ412は、少なくとも会話データを含み、セリフの吹き出しデータを含んでいてもよい。セリフデータ412の会話データは、被写体400がユーザに話しかける会話のデータである。例えば、会話データは、環境情報に誕生日の情報が含まれていれば「おめでとう」、環境情報に「朝」の情報が含まれていれば「おはよう」、または端末情報に「特定日」の情報が含まれていれば「どこか遊びにいこうよ」などである。また、セリフデータ412は、音声データを含んでいてもよい。
被写体400のキャラクタが特定されている場合、サーバ処理部111は、キャラクタ情報と環境情報とに基づいてセリフデータ412を取得してもよい。その場合、キャラクタの話し方に合わせたセリフデータ412を取得することができるため、ユーザはキャラクタの世界観を共有することができる。
さらに、セリフデータ412の代わりに、環境情報に基づくキャラクタの映像データまたは環境情報に基づく広告データを取得してもよい。これらのデータは、サーバ装置100の記憶部130から取得してもよく、他のサーバ装置から取得してもよい。なお、これらのデータも、第2オブジェクト領域302に重畳することができる。
ステップS240では、第3処理部213が、表示部230に表示された映像の中に、第2オブジェクト領域302を画定する。第3処理部213は、被写体400の顔部近傍であって、可能な限り顔部と重畳しないように第2オブジェクト領域302を画定する。顔部は被写体400の上部に位置することが多いため、第3処理部213は、被写体400の上部と隣接する位置に第2オブジェクト領域302を画定してもよい。また、第3処理部213は、第2オブジェクト領域302に基づく第2オブジェクト領域情報を生成する。
ステップS250では、第4処理部214が、第2オブジェクト領域302の大きさに合わせて、取得されたセリフデータ412の大きさを調整する。第4処理部214は、第2オブジェクト領域302の第2オブジェクト領域情報とセリフデータ412のセリフ情報とを比較し、第2オブジェクト領域情報に基づいて、セリフデータ412の大きさを調整する。なお、セリフデータ412が小さすぎると、表示されるセリフが小さくなってしまい、ユーザの没入感が得られない。そのため、セリフデータ412の大きさには下限を設けておいてもよい。
ステップS260では、第5処理部215が、第2オブジェクト領域情報に基づいて、調整されたセリフデータ412を第2オブジェクト領域302に重畳する。セリフデータ412に音声データが含まれるときは、セリフデータ412を表示するとともに、音声データを再生してもよい。音声があることにより、ユーザーの没入感を高めることができる。
情報処理Bは、情報処理Aと組み合わせて実行することができる。
以上、情報処理Bについて説明したが、情報処理Bが実行されることによって、情報端末装置200の表示部230の映像には、被写体400のセリフが表示される。セリフは、端末情報に基づいたものであるため、ユーザは、現実空間の被写体500のキャラクタがあたかもユーザに語りかけてくるかのように感じることができる。そのため、ユーザは、被写体500のキャラクタの世界観に没頭することができる。
[5.被写体の背景に基づくセリフを表示する情報処理(情報処理C)]
図8および図9を参照して、情報端末装置200の撮像部220で現実空間の被写体500を撮影しながら、被写体400に、表示部230に表示された映像の背景に基づくセリフを表示する情報処理について説明する。
図8は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400にセリフを表示する情報処理を示すフローチャートである。以下、便宜上、図8に示す情報処理を、情報処理Cとして説明する。
図8に示す情報処理Cは、被写体400の背景から背景情報を生成するステップ(S310)と、背景情報に基づくセリフデータ413を取得するステップ(S320)と、映像の中に第2オブジェクト領域302を画定するステップ(S330)と、セリフデータ413を調整するステップ(S340)と、第2オブジェクト領域302にセリフデータ413を重畳するステップと、を含む。以下、図9を参照しながら、各ステップについて説明する。
図9は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400にセリフを表示する前後の撮影を説明する図である。具体的には、図9(A)に示す情報端末装置200の表示部230には、被写体400にセリフを表示する前の映像が表示され、図9(B)に示す情報端末装置200の表示部230には、被写体400にセリフを表示した後の映像が表示されている。図9(A)および図9(B)に示すように、現実空間には、被写体500のほかに、物体510が置かれている。図9(A)および図9(B)に示す物体510は、主に夏の季節で使用する扇風機である。
ステップS310では、第1処理部211が、表示部230に表示された映像の中から被写体400以外の部分(背景)に含まれる物体450を特定する。第1処理部211は、物体450を所定の分類パターンに基づいて物体を450を特定する。また、第1処理部211は、特定された物体450に基づいて物体情報を生成する。
物体450の特定において、サーバ装置100を用いることもできる。情報端末装置200の通信部250は、撮影された映像データをサーバ装置100に送信する。サーバ装置100の通信部120は、映像データを受信する。サーバ処理部111は、映像データを判定することによって物体450を特定し、物体情報を生成する。通信部120は、サーバ処理部111によって生成された物体情報を情報端末装置200に送信する。通信部250が、物体情報を受信することによって、情報端末装置200は、物体情報を取得することができる。なお、取得された物体情報は、情報端末装置200の記憶部260に格納されてもよい。
ステップS320では、情報端末装置200が、物体情報に基づくセリフデータ413を取得する。情報端末装置200の通信部250は、物体情報をサーバ装置100に送信する。サーバ装置100の通信部120は、物体情報を受信する。サーバ処理部111は物体情報を判定し、物体情報に基づくセリフデータ413を記憶部130から取得する。通信部120は、サーバ処理部111によって取得されたセリフデータ413を情報端末装置200に送信する。通信部250が、セリフデータ413を受信することによって、情報端末装置200は、セリフデータ413を取得することができる。なお、取得されたセリフデータ413は、情報端末装置200の記憶部260に格納されてもよい。
物体450の特定をサーバ装置100で実行する場合、サーバ装置100は、物体情報の生成に続いてセリフデータ413を取得してもよい。すなわち、サーバ装置100は、情報端末装置200に物体情報を送信することなく、物体情報に基づくセリフデータ413を記憶部130から取得し、セリフデータ413のみを情報端末装置200に送信してもよい。
セリフデータ413は、少なくとも会話データを含み、セリフの吹き出しデータを含んでいてもよい。セリフデータ413の会話データは、被写体400がユーザに話しかける会話のデータであるが、物体情報に基づくものである。例えば、会話データは、物体情報に夏の情報が含まれていれば「暑いね」、物体情報に花の情報が含まれていれば「きれいだね」、または物体情報に食べ物の情報が含まれていれば「お腹減った」などである。また、セリフデータ413は、音声データを含んでいてもよい。
被写体400のキャラクタが特定されている場合、サーバ処理部111は、キャラクタ情報と物体情報とに基づいてセリフデータ413を取得してもよい。その場合、キャラクタの話し方に合わせたセリフデータ413を取得することができるため、ユーザはキャラクタの世界観を共有することができる。
ステップS330、ステップS340、およびステップS350は、それぞれ、上述したステップS240、ステップS250、およびステップS260と同様であるため、ここでは説明を省略する。
情報処理Cは、情報処理Aまたは情報処理Bと組合わせて実行することができる。
以上、情報処理Cについて説明したが、情報処理Cが実行されることによって、情報端末装置200の表示部230に、撮影されている環境に応じた被写体400のセリフを表示することができる。そのため、ユーザは、現実空間の環境に融合された被写体500のキャラクタの世界観を身近に感じることができるとともに、被写体500のキャラクタに感情移入することができる。
[6.認証マークに基づき被写体のパーツを変化させる情報処理(情報処理D)]
図10および図11を参照して、情報端末装置200の撮像部220で現実空間の認証マークが付加された被写体500を撮影しながら、表示部230に表示された映像の被写体400のパーツを変化させる情報処理フローについて説明する。
図10は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400のパーツを変化させる情報処理を示すフローチャートである。以下、便宜上、図10に示す情報処理を、情報処理Dとして説明する。
図10に情報処理Dは、映像の中の認証マーク403に基づいて被写体400を特定するステップ(S405)と、被写体400に含まれるパーツ401を特定するステップ(S410)と、パーツ401に関するパーツデータ411を取得するステップ(S415)と、映像の中に第1オブジェクト領域301を画定するステップ(S420)と、パーツデータ411を調整するステップ(S425)と、第1オブジェクト領域301にパーツデータ411を重畳するステップ(S430)と、遮蔽データ414を取得するステップ(S435)と、映像の中に第3オブジェクト領域303を画定するステップ(S440)と、遮蔽データ414を調整するステップ(S445)と、第3オブジェクト領域303に遮蔽データ414を重畳するステップ(S450)と、を含む。以下、図11を参照しながら、各ステップについて説明する。
図11は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400のパーツが変化する前後の撮影を説明する図である。具体的には、図11(A)に示す情報端末装置200の表示部230には、被写体400のパーツが変化する前の映像が表示され、図11(B)に示す情報端末装置200の表示部230には、被写体400のパーツが変化した後の映像が表示されている。
図11(A)および図11(B)に示す被写体500は、被写体500を特定することができる(被写体500に関する情報を含む)認証マーク520が付加されている。そのため、認証マーク520(具体的には、映像の中の認証マーク403)を読み込むことにより、被写体500の形態およびキャラクタを特定することができる。図11(A)および図11(B)に示す認証マーク520はQR(Quick Response)コードであるが、認証マーク520は、QRコード(登録商標)に限られない。認証マーク520は、例えば、バーコードであってもよく、認証マーク520(具体的には、映像の中の認証マーク403)を解析することによって被写体500を特定することができるものであればよい。
ステップS405では、第1処理部211が、表示部230に表示された映像の中から認証マーク403を検出し、認証マーク403から被写体400を特定する。また、第1処理部211は、特定された被写体400に基づいて被写体情報を生成する。さらに、第1処理部211は、認証マーク情報を生成する。
ステップS410、ステップS415、ステップS420、ステップS425、およびステップS430は、それぞれ、上述したステップS120、ステップS130、ステップS140、ステップS150、およびステップS160と同様であるため、ここでは説明を省略する。
ステップS435では、情報端末装置200が、認証マーク403を隠すための遮蔽データ414を取得する。情報端末装置200の通信部250は、認証マーク情報をサーバ装置100に送信する。サーバ装置100の通信部120は、認証マーク情報を受信する。サーバ処理部111は、認証マーク情報を判定し、判定に基づく遮蔽データ414を記憶部130から取得する。通信部120は、サーバ処理部111によって取得された遮蔽データ414を情報端末装置200に送信する。通信部250が、遮蔽データ414を受信することによって、情報端末装置200は、遮蔽データ414を取得することができる。なお、取得された遮蔽データ414は、情報端末装置200の記憶部260に格納されてもよい。
遮蔽データ414は、単色の矩形を表示するデータであってもよく、複数色の矩形を表示するデータであってもよい。また、遮蔽データ414は、模様が付された矩形を表示するデータであってもよい。さらに、遮蔽データ414は、矩形を表示するものに限られない。遮蔽データ414は、円形または楕円形などを表示するものであってもよい。また、被写体400のキャラクタが特定されている場合、遮蔽データ414は、キャラクタに固有のトレードマークまたはエンブレムなどの映像であってもよい。
ステップS440では、第3処理部213が、表示部230に表示された映像の中に、認証マーク403を含む第3オブジェクト領域303を画定する。第3処理部213は、認証マーク情報に基づき、認証マーク403を囲むように映像の座標情報を取得し、第3オブジェクト領域303を画定する。また、第3処理部213は、第3オブジェクト領域303に基づく第3オブジェクト領域情報を生成する。
ステップS445では、第4処理部214が、第3オブジェクト領域303の大きさに合わせて、取得された遮蔽データ414の大きさを調整する。また、第4処理部214は、被写体情報に基づいて遮蔽データ414の角度を調整する。さらに、第4処理部214は、第3オブジェクト領域情報に含まれる色の情報に基づいて、遮蔽データ414の色を調整する。例えば、第4処理部214は、遮蔽データ414を、認証マーク403を除去した第3オブジェクト領域303の色に合わせるように調整することができる。
ステップS450では、第5処理部215が、第3オブジェクト領域情報に基づいて、調整された遮蔽データ414を第3オブジェクト領域303に重畳する。重畳する遮蔽データ414は、第3オブジェクト領域情報に含まれる色の情報に基づいて調整されているため、違和感なく、認証マーク403を隠すことができる。したがって、被写体400の認証マーク403を隠しても、被写体400のユーザに与える印象は変わらない。
情報処理Dは、情報処理A〜情報処理Cと組合わせて実行することができる。
以上、情報処理Dについて説明したが、情報処理Dが実行されることによって、情報端末装置200の表示部230の映像には、認証マーク403が隠される。そのため、ユーザは、認証マーク403に邪魔されることなく、被写体500のキャラクタの世界観に没頭することができる。
[7.複数の被写体によるインタラクションを表示する情報処理(情報処理E)]
図12および図13を参照して、情報端末装置200の撮像部220で現実空間の第1被写体500−1および第2被写体500−2を撮影しながら、情報端末装置200の表示部230に表示された映像の中に、第1被写体400−1と第2被写体400−2とのインタラクションを表示する情報処理について説明する。
図12は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中に第1被写体400−1と第2被写体400−2とのインタラクションを表示する情報処理を示すフローチャートである。以下、便宜上、図12に示す情報処理を、情報処理Eとして説明する。
図12に示す情報処理Eは、映像の中の第1被写体400−1を特定するステップ(S510)と、映像の中の第2被写体400−2を特定するステップ(S520)と、インタラクションデータ415を取得するステップ(S530)と、映像の中に第4オブジェクト領域304を画定するステップ(S540)と、インタラクションデータ415を調整するステップ(S550)と、第4オブジェクト領域304にインタラクションデータ415を重畳するステップ(S560)と、を含む。以下、図13を参照しながら、各ステップについて説明する。
図13は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中に第1被写体400−1と第2被写体400−2とのインタラクションを表示する前後の撮影を説明する図である。具体的には、図13(A)に示す情報端末装置200の表示部230には、第1被写体400−1と第2被写体400−2とのインタラクションを表示する前の映像が表示され、図13(A)に示す情報端末装置200の表示部230には、第1被写体400−1と第2被写体400−2とのインタラクションを表示した後の映像が表示されている。
図13(A)および図13(B)に示すように、ユーザは、情報端末装置200の撮像部220を用いて、現実空間の第1被写体500−1および第2被写体500−2を撮影する。撮影において、第1被写体500−1の一部と第2被写体500−2の一部とは重なっていてもよいが、第1被写体500−1の特徴を示す部分と第2被写体500−2の特徴を示す部分とは重ならないことが好ましい。特徴を示す部分としては、例えば、顔部である。
ステップS510およびステップS520は、上述したステップS110と同様であるため、ここでは説明を省略する。
ステップS530では、情報端末装置200が、第1被写体情報および第2被写体情報に基づくインタラクションデータ415を取得する。情報端末装置200の通信部250は、第1被写体情報および第2被写体情報をサーバ装置100に送信する。サーバ装置100の通信部250は第1被写体情報および第2被写体情報を受信し、サーバ処理部111は第1被写体情報および第2被写体情報を判定する。具体的には、サーバ処理部111は、第1被写体情報に係る第1被写体500−1と第2被写体情報に係る第2被写体500−2との関連性を判定する。第1被写体500−1と第2被写体500−2との関連性としては、例えば、人と人であるか、人と動物であるか、または人とロボットであるか、などである。
また、サーバ処理部111は、第1被写体情報および第2被写体情報から、それぞれのキャラクタを特定してもよい。第1被写体情報に係る第1被写体500−1と第2被写体情報に係る第2被写体500−2のそれぞれのキャラクタが特定されることにより、サーバ処理部111は、キャラクタ同士の関連性を判定することができる。すなわち、サーバ処理部111は、同じアニメに登場するキャラクタであるかなど、キャラクタに基づく判定を行うことができる。そのため、サーバ処理部111は、キャラクタが味方同士であるか、敵同士であるか、または恋人同士であるか、なども判定することができるようになり、第1被写体500−1と第2被写体500−2との関連性をより詳細に判定することができる。
サーバ処理部111は、第1被写体500−1と第2被写体500−2との関連性の判定に基づくインタラクションデータ415を記憶部130から取得する。通信部120は、サーバ処理部111によって取得されたインタラクションデータ415を情報端末装置200に送信する。通信部250がインタラクションデータ415を受信することによって、情報端末装置200は、インタラクションデータ415を取得することができる。なお、取得されたインタラクションデータ415は、情報端末装置200の記憶部260に格納されてもよい。
なお、インタラクションデータ415は、情報端末装置200で生成されてもよい。
ステップS540では、第3処理部213が、表示部230に表示された映像の中に、第4オブジェクト領域304を画定する。第4オブジェクト領域304は、第1被写体400−1と第2被写体400−2との間に画定されることが好ましいが、これに限られない。第3処理部213は、映像の座標情報を取得し、第4オブジェクト領域304を画定する。また、第3処理部213は、第4オブジェクト領域に基づく第4オブジェクト領域情報を生成する。
ステップS550では、第4処理部214が、第4オブジェクト領域304の大きさに合わせて、取得されたインタラクションデータ415の大きさを調整する。また、第4処理部214は、第4オブジェクト領域情報に含まれる色の情報に基づいて、インタラクションデータ415の色を調整する。
ステップS560では、第5処理部215が、第4オブジェクト領域情報に基づいて、調整されたインタラクションデータ415を第4オブジェクト領域304に重畳する。
情報処理Eは、情報処理A〜情報処理Dと組合わせて実行することができる。
以上、情報処理Eについて説明したが、情報処理Eが実行されることによって、情報端末装置200の表示部230の映像には、第1被写体400−1と第2被写体400−2とのインタラクションが表示される。被写体500の組み合わせによって異なるインタラクションが得られるため、ユーザは、被写体500の組み合わせによるゲーム性を楽しむことができる。そのため、キャラクタである被写体500に対してのARの利用率が向上する。
[8.動きの検出によって被写体のパーツを変化させる情報処理(情報処理F)]
図14および図15を参照して、情報端末装置200の撮像部220で現実空間の被写体500を撮影しながら、ユーザの身体の一部の動きも撮影し、表示部230に表示された映像の被写体400のパーツを、動きに応じて変化させる情報処理フローについて説明する。
図14は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400のパーツをユーザの身体の一部の動きに応じて変化させる情報処理を示すフローチャートである。以下、便宜上、図14に示す情報処理を、情報処理Fとして説明する。
図14に示す情報処理Fは、映像の中の被写体400を特定するステップ(S610)と、被写体400に含まれるパーツ401を判定するステップ(S620)と、ユーザーの身体の一部の動きを判定するステップ(S630)と、パーツ401に基づくパーツデータ416を取得するステップ(S640)と、第1オブジェクト領域301を画定するステップ(S650)と、パーツデータ416を調整するステップ(S660)と、第1オブジェクト領域301にパーツデータ416を重畳するステップ(S670)と、を含む。以下、図15を参照しながら、各ステップについて説明する。
図15は、本発明の一実施形態に係る情報処理システム10を利用し、映像の中の被写体400のパーツがユーザの身体の一部の動きに応じて変化する前後の撮影を説明する図である。具体的には、図15(A)に示す情報端末装置200の表示部230には、被写体400のパーツが変化する前の映像が表示され、図15(B)に示す情報端末装置200の表示部230には、ユーザの身体の一部の動きに応じて、被写体400のパーツが変化した後の映像が表示されている。
図15(A)および図15(B)に示すように、ユーザは、ユーザの身体の一部である指530を被写体500に近づけ、被写体500に対して指530を動かす。例えば、図15(A)および図15(B)に示すように、ユーザは、被写体500を撫でるように指530を動かすことができる。他にも、ユーザは、被写体500を突くように指530を動かすこともできる。なお、指530の動きは、これらに限定されない。
また、映像の中の指460が被写体400の近傍にあればよく、現実空間の指530は、被写体500に触れていてもよく、被写体500に触れていなくてもよい。また、指530は、被写体500の近傍になくてもよく、被写体500から離れていてもよい。例えば、指530は、被写体500と情報端末装置200との間にあってもよい。
ステップS610およびステップS620は、それぞれ、上述したステップS110およびステップS120と同様であるため、ここでは説明を省略する。
ステップS630では、第8処理部218が、指460の動きを検出し、指460の動きを判定する。第8処理部218は、被写体400の近傍で反復する一定の動きをしている指460を検出する。また、第8処理部218は、反復する一定の動きから、被写体400に対するユーザの行動を判定する。例えば、指460が、被写体400の近傍を反復して動くとき、第8処理部218は、ユーザが被写体400を撫でていると判定する。また、指460が、繰り返し、被写体400に近づいたり、離れたりして動くとき、第8処理部は、ユーザが被写体400を突いていると判定する。第8処理部218は、判定に基づき、ユーザ行動情報を生成する。
ステップS640では、情報端末装置200が、パーツ情報およびユーザ行動情報に基づくパーツデータ416を取得する。情報端末装置200の通信部250は、パーツ情報およびユーザ行動情報をサーバ装置100に送信する。サーバ装置100の通信部120は、パーツ情報およびユーザ行動情報を受信する。サーバ処理部111は、パーツ情報およびユーザ行動情報を判定し、判定に基づくパーツデータ416を記憶部130から取得する。通信部120は、サーバ処理部111によって取得されたパーツデータ416を情報端末装置200に送信する。通信部250が、パーツデータ416を受信することによって、情報端末装置200は、パーツデータ411を取得することができる。なお、取得されたパーツデータ416は、情報端末装置200の記憶部260に格納されてもよい。
ステップS650、ステップS660、およびステップS670は、それぞれ、上述したステップS140、S150、およびS160と同様であるため、ここでは説明を省略する。
情報処理Fは、情報処理A〜Eと組み合わせて実行することができる。
以上、情報処理Fについて説明したが、情報処理Fが実行されることによって、情報端末装置200の表示部230には、ユーザの意思に応じて被写体400の一部が変化した映像が表示される。そのため、ユーザと被写体500のキャラクタとの一体感が高まり、ユーザの満足度が向上する。
[9.操作部または撮像部の利用]
情報処理システム10は、情報端末装置200の操作部240または撮像部220を利用し、映像の中の被写体400のパーツを変化させ、または被写体400のセリフを表示することができる。
図16は、本発明の一実施形態に係る情報処理システム10を利用し、情報端末装置200の操作部240または撮像部220を利用して、変化させた映像を説明する図である。具体的には、図16(A)に示す情報端末装置200の表示部230には、被写体のパーツが変化した後の映像が表示され、図16(B)に示す情報端末装置200の表示部230には、被写体400にセリフを表示した映像が表示されている。
図16(A)では、ユーザが、現実空間の被写体500を撮影しながら、指530が、情報端末装置200の表示部230に直接触れている。表示部230には操作部240としてタッチパネルが設けられており、操作部240は、指530の表示部への接触を検出することができる。第8処理部218は、操作部240を介して、指530の動きを検出し、指460の動きを判定する。具体的には、第8処理部218は、指530の動きに規則性があるかどうかを判定する。指530の動きに所定の規則性があるとき、第8処理部218は、ユーザ行動情報を生成する。
その後の情報処理については上述した説明と同様であるため、ここでは説明を省略するが、情報端末装置200は、パーツ情報およびユーザ行動情報に基づいてパーツデータ417を取得することができる。また、画定された第1オブジェクト領域301にパーツデータ417が重畳される。図16(A)では、指530が被写体400を撫でていると判定されたため、被写体400がくすぐったがる表情のパーツデータ417が重畳されている。
図16(B)では、ユーザが、第1撮像部220−1で現実空間の被写体500を撮影しながら、第2撮像部220−2でユーザの顔を撮影している。第9処理部219は、撮像部220によって撮影されたユーザの顔の映像からユーザの表情を判定する。具体的には、第9処理部219は、ユーザの表情が笑顔かどうかを判定する。また、第9処理部219は、判定結果に基づき、ユーザ感情情報を生成する。
なお、第9処理部219による判定は、ユーザの表情に限られない。第9処理部219は、第2撮像部220−2で撮影されたものであればよく、ユーザの身体の動きを判定してもよい。例えば、第9処理部は、予め決められたユーザの身体の動きを判定し、ユーザ感情情報を生成してもよい。
その後の情報処理については上述した説明と同様であるため、詳細な説明は省略するが、情報端末装置200は、セリフ情報およびユーザ感情情報に基づいてセリフデータ418を取得することができる。また、画定された第2オブジェクト領域302にセリフデータ418が重畳される。図16(B)では、ユーザの表情が笑顔でなかったと判定されたため、被写体400が笑顔でなかった理由を問いかける会話データ「疲れてるの」を含むセリフデータ418が重畳されている。
図16(A)においては、セリフ情報およびユーザ行動情報に基づいてセリフデータが取得されてもよく、図16(B)においては、パーツ情報およびユーザ感情情報に基づいてパーツデータが取得されてもよい。
また、情報処理システム10では、第2撮像部220−2で撮影した物体に基づき、セリフデータ418またはパーツデータが取得されてもよい。例えば、第2撮像部220−2を食べ物を撮影し、撮影した食べ物を判定して、「食べたい」または「おいしそう」などのセリフデータを取得してもよい。
また、図示しないが、情報処理システム10では、情報端末装置200の操作部240のマイクを利用することもできる。すなわち、情報端末装置200は、マイクを介してユーザの音声を判定し、被写体400のパーツデータまたはセリフデータを取得してもよい。情報処理システム10において、情報端末装置200のマイクを利用することにより、ユーザは、あたかも被写体400と対話しているかのように感じることができる。そのため、ユーザは、被写体400との対話を通じて、被写体400のキャラクタとより深いコミュニケーションを図ることができる。
なお、顔の表情の判定または音声の判定においては、機械学習またはディープラーニングを用いることができる。
以上、情報端末装置200の操作部240または撮像部220を用いても、情報端末装置200の表示部230に、ユーザの意思に応じて被写体400の一部が変化した映像を表示することができる。そのため、ユーザと被写体500のキャラクタとの一体感が高まり、ユーザの満足度が向上する。
[10.被写体のカスタマイズ]
情報処理システム10は、情報端末装置200の操作部240を利用し、映像の中の被写体400または背景をカスタマイズすることができる。
図17(A)および図17(B)は、それぞれ、本発明の一実施形態に係る情報処理システム10を利用し、被写体400または背景をカスタマイズした映像を説明する図である。
図17(A)に示す情報端末装置200の表示部230の映像の中の被写体400は、現実空間の被写体500との髪の毛419の色が異なっている。すなわち、ユーザは、現実空間の被写体500を撮影しながら、情報処理システム10を利用し、映像の中の被写体400をユーザの好みに合わせてカスタマイズすることができる。
図17(B)に示す情報端末装置200の表示部230の映像の中の背景には、現実空間に存在しないオブジェクト420が配置されている。すなわち、ユーザは、現実空間の被写体500を撮影しながら、情報処理システム10を利用し、映像の中の被写体400の背景をユーザの好みに合わせてカスタマイズすることができる。オブジェクト420は、予め用意されたオブジェクトから選択されてもよく、ユーザが生成したオブジェクトであってもよい。さらに、オブジェクト420は、情報端末装置200に保管されている映像データから生成されたオブジェクトであってもよい。
ユーザは、情報端末装置200の表示部230に表示される被写体400を、ユーザの好みに合わせてカスタマイズすることができる。そのため、ユーザは、被写体500のキャラクタに感情移入して愛着を感じることができるようになり、ユーザの満足度が向上する。
本発明の実施形態として上述した各実施形態は、相互に矛盾しない限りにおいて、適宜組み合わせて実施することができる。また、各実施形態を基にして、当業者が適宜構成要素の追加、削除、または設計変更を行ったもの、もしくは工程の追加、省略、または条件変更を行ったものも、本発明の要旨を備えている限り、本発明の範囲に含まれる。
上述した各実施形態の態様によりもたらされる作用効果とは異なる他の作用効果であっても、本明細書の記載から明らかなもの、または当業者において容易に予測し得るものについては、当然に本発明によりもたらされるものと解される。